روابط عمومی شرکت ایدکو (توزیعکنندهی محصولات کسپرسکی در ایران)؛ جدا از رخدادهای مختلف ژئوپولیتیکی که مشخصهی سال 2022 شدهاند، در سطح تکنولوژیکی این سال، سالِ هوش مصنوعی بود. تا همین اواخر هم وقتی اسم هوش مصنوعی در حوزه امنیت سایبری میآمد بیشتریها آن را به عنوان یک پوچافزار[1] رد میکردند. میدانستیم که یادگیری ماشین کلی کارکرد در جهان واقعی دارد اما برای افرادی که در جهان امنیت اطلاعات فعالیت دارند، هوش مصنوعی فقط در بدترین محصولات به کار رفته است!
انگار هر محصولی که نیروگرفته از هوش مصنوعی باشد نماد فخر برای فروشندگان باشد؛ انگار که بگویند: «ما هیچ دانش پایه یا تلهمتری نداریم برای همین عوضش چندتایی روش اکتشافی ابداع کردیم». میشود گفت در 95 درصد مواقع محصولات حاصله، هیچ هوش مصنوعی واقعیای در خود نگنجانده بودند. اما مسئله این است که گرچه تیمهای بازاریابی سرگرم چسباندن استیکرهای هوش مصنوعی به هر محصولی که بعنوان بخشی از عملکردش، ابزارهای k[2] داشته هستند اما حوزه واقعی هوش مصنوعی دارد پیشرفت میکند. این را میشود با امتحان کردن DALL-E 2 و کمی بعدی از آن Midjourney متوجه شد. هر دو پروژه به شما اجازه میدهند تا بر اساس شرحهای متنی تصاویری را تولید کنید؛ همچنین این دو از قبل جهان هنر را نیز آشفته کرده بودند.
و بعد دسامبر سال جاری، ChatGPT جهان را قبضه کرد. ساده بگوییم، ChatGPT یک چتبات است. گمان داریم همه تا حدودی آن را استفاده کردههاند اما اگر هم امتحانش نکردهاید قویاً توصیه میکنیم این کار را انجام دهید (فقط مطمئن شوید آن را با ویروس اشتباه نگیرید). زبان از سیر تکاملی این چتبات در طول پروژههای قبلی قاصر است. اینکه فقط در موردش بشنوید کافی نیست؛ باید استفادهاش کنید تا متوجه شوید چه چیزهایی در آینده میتواند رخ دهد.
مدلهای زبان
آرتور سی کلارک میگوید: «هر فناوری که به حد کافی پیشرفته باشد از جادو قابلتشخیص نیست». اینکه فناوری میتواند به زندگی ما حس حیرت و تعجب بدهد جذاب است اما متأسفانه این احساس وقتی سعی داریم به پیامدها یا محدودیتهای یک پیشرفت جدید فکر کنیم مانعمان میشود. به همین دلیل، گمان داریم ابتدا باید کمی بیشتر وقت صرف درک این کنیم که چطور فناوریهای در بنیادیترین لایههای خود کار میکنند. بگذارید ابتدا با ChatGPT شروع کنیم: این یک مدل زبان است. به بیانی دیگر بازنماییای است از زبان ما. Translation is too long to be saved
همانطور که در مورد بسیاری از پروژههای بزرگ یادگیری ماشین وجود دارد، هیچ کس واقعاً نمیداند این مدل چگونه کار می کند (حتی OpenAI، سازندگان آن). ما می دانیم که این مدل چگونه ایجاد شده است، اما آنقدر پیچیده است که نمیشود به طور رسمی درک شود. ChatGPT تا امروز بزرگترین مدل زبان محسوب میشود و بیش از 175 میلیارد پارامتر دارد. برای درک آن ماشین غولآسایی را با 175 میلیارد دکمه که میتوانید تغییر دهید تصور کنید. هر بار که به ChatGPT متن ارسال میکنید، این متن به تنظیماتی برای هر یک از آن دکمهها تبدیل میشود. و در نهایت این دستگاه بر اساس موقعیت آنها، خروجی (متن بیشتر) تولید میکند. همچنین المان تصادفی بودن هم دخیل است: دلیل، تضمین این است که یک سوال واحد همیشه به یک جواب ختم نشود (اما این را هم میشود تغییر داد).
برای همین است که این مدلها را به عنوان جعبههای سیاه درک میکنیم: حتی اگر قرار بود کل عمرتان را صرف بررسی این ماشین کنید هم هنوز معلوم نبود میتوانید مقصود یک دکمه واحد آن را درک کنید یا نه (چه برسد به اینکه بخواهید همه آنها را درک کنید). با این حال چون پروسهای که از طریق آن تولید شده است را میشناسیم میدانیم این ماشین چه کاری انجام میدهد. مدل زبان، الگوریتمی است که میتواند متن را پردازش کند و بیشتر تغذیه خود را در طول فاز آموزشش دریافت کرده است: همه آنچه در ویکیپدیا میبنید، همه وبپیجها، کتابها و غیره. این، ساخت مدل آماری را که احتمال آمدن لغتی کنار لغت دیگر را میداند ممکن میسازد. برای مثال اگر بنویسید «هر که خربزه میخورد» حتماً در ادامه «پای لرزش هم مینشیند» را دریافت خواهید کرد. این به زبان ساده ساز و کار یک مدل زبان را نشان میدهد. برای چنین مدلی، تمام کردن جملهتان با حدس اینکه چه توالی واژهای احتمال دارد بر اساس هر چیزی که قبلاً خوانده شده پشت سوال شما بیاید فرقی ندارد. در مورد ChatGPT یک گام دیگر هم دخیل است: میزانسازی دقیق و نظارتشده. مربیان هوش مصنوعی با این بات چتهای مختلف داشتند و همه پرچمهایی را که به نظر مشکلساز میآمدند (غیردقیق، مرضانه، نژادپرستانه و غیره) علامت زدند تا بات یاد گیرد تکرارشان نکند.
اگربا درک هوش مصنوعی مشکل دارید آن را تحت لوای ریاضی یا آمار بررسی کنید: هدف این مدلها پیشبینی است. موقع استفاده از ChatGPT ما براحتی این حس را پیدا میکنیم که هوش مصنوعی به امور واقف است چون میتواند اطلاعات مرتبط با زمینه و دامنه را برای جستجوهایی که برای اولین بار میبیند، بازگرداند. اما معنای هیچکدام از این لغات را نمیداند: فقط قادر است متنهای را تولید کند که طبیعی جلوه میکنند. از این روست که ChatGPT میتواند یک استدلال پیچیده فلسفی را ارائه کند اما اغلب سرمحسابات پایه میلنگد: نتیجه یک محسابه نسبت به حرف بعدی در یک جمله برایش به مراتب سختتر است. علاوه بر این، هیچ حافظهای هم ندارد: آموزشش در سال 2021 تمام شد و از زمان به بعد این مدل، یخزده محسوب میشود. آپدیتهای در قالب مدلهای جدید خواهند آمد (همان GPT-4 در سال 2024) که روی دادههای جدید آموزش دیده. در حقیقت GPT-4 حتی مکالماتی را که با آن دارید به یاد نمیآورد: تاریخچه چت اخیر به همراه هر متن جدیدی که تایپ میکنید ارسال میشود تا دیالوگ طبیعیتر باشد. اینکه آیا این هنوز به عنوان "هوش" واجد شرایط است (و اینکه آیا این به طور قابل توجهی با هوش انسانی متفاوت است) موضوع بحث های فلسفی داغ در سالهای آینده خواهد بود.
مدلهای انتشار
ابزارهای تولید تصویر مانند Midjourney و DALL-E مبتنی بر طبقهبندی مدل دیگری هستند. رویه آموزش آنها –روشن است که- بر تولید تصویر (یا مجموعههایی از پیکسلها) به جای متن تمرکز دارد. در واقع دو اجزا برای تولید یک تصویر مبتنی بر شرح متنی نیاز است و اولی بسیار شهودی است. این مدل به راهی برای مرتبط ساختن واژهها با اطلاعات بصری نیاز دارد پس از مجموعههایی از تصویر کپشنشده تغذیه میکند. مانند ChatGPT اینجا هم به ماشینی غولپیکر و غیرقابلدرک مواجهیم که کارش را در هماهنگ کردن تصاویر با دادههای متنی خوب بلد است. این ماشین هیچ ایدهای ندارد که صورت برد پیت چه شکلی است اما اگر به قدر کافی از او عکس دیده باشد خصوصیات مشترک را ثبت میکند و اگر فردی عکس جدید برد پیت را بگذارد، این مدل قادر است او را تشخیص دهد و بگوید: «آره، بازم خودشه». بخش دوم که کمی غالفگیرکنندهتر است توانایی در ارتقای تصویر میباشد. در این بخش از مدل انتشار استفاده میشود که روی تصاویر تمیز آموزش داده میشود تا نویز بصری به تدریج بدان اضافه شود تا جایی که دیگر نشود تشخیصش داد. این به مدل اجازه میدهد تا رابطه بین یک عکس تار و بیکیفیت را از همتای رزولوشنبالای خودش تشخیص دهد و باری دیگر در سطح آماری تصویر خوبی از آن مدل نویزدار بازسازی کند. در واقع محصولات نیروگرفته از هوش مصنوعی وجود دارند که کارشان به طور خاص دی-نویز کردن عکسهای قدیمی یا بالا بردن رزولوشن آنهاست.
با کنار هم قرار دادن همهچیز میتوانیم تصاویر را ترکیب کنیم: از نویز تصادفی شروع میکنیم و آن را موقعی که مطمئن هستیم مشخصههایی را که با فرمان کاربر در تطابق است در بر دارد به تدریج ارتقا میدهیم.
مسائل اشتباه
ظهور همه ابزارهای ذکر شده در این مقاله شاید با واکنش شدید مردم همراه باشد که برخی از آنها بسیار منفی خواهد بود. نگرانیهای موجهی در مورد اختلال ناگهانی هوش مصنوعی در زندگی ما وجود دارد، اما به زعم ما، بسیاری از بحثهای کنونی بر موضوعات اشتباه متمرکز است. بگذارید ابتدا به آنها بپردازیم.
DALL-E و Midjourney از هنرمندان واقعی میدزدند
گاهاً دیده شده که این ابزارها برنامههایی توصیف میشوند که کارشان وصله کردن تصاویری است که قبلاً دیدهاند؛ سپس نوعی فیلتر که به آنها اجازه تقلید از سبک هنرمند درخواستی میدهد به کار میبندند. هر کس چنین ادعایی میکند یا از واقعیتهای فنی این مدلهای زیربنایی غافل است و یا نیت شر دارد. همانطور که بالاتر توضیح دادیم، این مدل تماماً قادر به استخراج تصاویر و یا حتی اشکال ساده از تصاویری است که رویشان آموزش دیده. بهترین کاری که از دستش برمیآید استخراج مشخصههای ریاضیاتی آن است.
نمیشود انکار کرد که بسیاری از آثار کپیرایتدار بدون رضایت صریح صاحبان اصلیشان در فاز آموزش استفاده شدند و شاید باید در این مورد بحث بیشتری کرد. اما همچنین جا دارد بگوییم هنرمندان انسان نیز در طول تحقیقات و روند پیشرفت خود از هنرمندان و مرشدان خود کمک می گیرند، تقلید میکنند و آثارشان را اتود میزنند. DALL-E و Midjourney به این معنا که به طور تئویک میتوانند از هر تصویری که در تاریخ بشر تولید شده الهام بگیرند پیشرفت عظیمی به حساب میآیند اما این تنها در مقیاس، تغییر است و نه در طبیعت.
هوش مصنوعی امور را به شدت ساده کرده است
چنین نقدی معمولاً این مضمون را در پی دارد که هنر باید کار سختی باشد. این همیشه ایده عجیی بوده است زیرا مشاهدهگر یک کار هنری معمولاً از اینکه تولید آن هنر چقدر تلاش برده خبر ندارد. این بحث جدیدی نیست: سالها بعد از عرضه فوتوشاپ گروهی از افراد هنوز هم بر این باورند که هنر دیجیتال هنر واقعی نیست! آنهایی که چنین نظری دارند در ادامه میگویند استفاده از فوتوشاپ به مهارت نیاز دارد اما به باور ما آنها نکته اصلی را درک نکردند. رابرت راوشنبرگ برای زدن رنگ سفید روی بوم به چه مهارتی نیاز داشت؟ قبل از اینکه بتوانید آهنگ بدنام 4'33 اینچ جان کیج را اجرا کنید به چه مقدار تمرین موسیقی نیاز دارید؟ حتی اگر بنا بود مهارت را به عنوان معیار هنر معرفی کنید باز باید از چه شاقل و میزانی استفاده میکردید؟ چقدر تلاش کردن، «تلاش» به حساب میآید؟ وقتی عکاسی اختراع شد چارلز بودلر آن را «پناهگاه هر نقاش بالقوه یا آسودهطلبی که نای تکمیل تحقیقاتش را ندارد» خواند (و او در این ارزیابی تنها نبود). و البته اشتباه میکرد.
همدستی ChatGPT با مجرمان سایبری
با خیزش هوش مصنوعی، میبینیم که بهرهوری افزایش یافته است. اکنون کلی رسانه و فروشنده هستند که همه کار میکنند تا بر موج ChatGPT سوار شوند و همین شاید بزرگترین قربانیها را داشته باشد. قبلتر هم نوشتیم که ChatGPT ممکن است به مجرمان سایبری کمک کند ایمیلهای فیشینگ پیشنویس کنند یا کد آلودهای را بنویسند- که هیچ کدامشان هم عامل محدودکننده نبودند. آنهایی که با GitHub آشنایی دارند میدانند که موجودیت بدافزار برای عاملین بدافزار مشکل به حساب نمیآید و هر کسی که نگران سرعت گرفتن توسعه آن است باید وقتی Copilot عرضه شد فکر اینجاهایش را میکرد! خنثی کردن جنون رسانهای برخاسته از ملاحظات اقتصادی جزئی به جای نگرانیهای واقعی احمقانه است اما حقیقت این است که: هوش مصنوعی قرار است روی زندگی ما تأثیرات شگرفی بگذارد و باید فقط مسائل بحرانی را مورد توجه قرار داد. این قیل و قالها فقط مسیر را طولانی میکنند.
راه برگشت نیست
مهم نیست نسبت به همه ابزارهای نیروگرفته توسط هوش مصنوعی که سال 2022 عرضه شدند چه حسی دارید بهر حال خوب است بدانید تعداد بیشتری از آنها در راه است. اگر باورتان بر این است که این حوزه پیش از سیطره انداختن باید کنترل شود، پیشنهاد میکنیم دوباره به آن فکر کنید: واکنشهای سیاسی که تا کنون شاهد بودهایم بیشتر از سوی مقامات دولتی بوده است و آنها هم روی تحقیقات هوش مصنوعی سرمایهگذاریهای کلان کردهاند. هیچ نهاد در رأس قدرتی با کند شدن سرعت پیشرفت هوش مصنوعی موافق نیست.
چهارمین انقلاب صنعتی
هوش مصنوعی به بهرهوری خواهد رسید (شاید تا همین الان هم رسیده باشد). شاید هنوز نشود درست تصور کرد این بهرهوریها چقدر عظیم خواهند بود. اگر شغلتان با تولید متنهای نیمهالهامی در رابطه است باید بگوییم جای نگرانی دارد. اگر طراح بصری هستید که کمیسیونی کار میکنید هم باید نگران باشید: همیشه کلاینتهایی هستند که لمس انسانی می خواهند اما بیشتریها دنبال گزینه ارزانترند. و ماجرا به اینجا ختم نمیشود: مهندسان معکوس، وکلا، معلمین، پزشکان و خیلیهای دیگر هم شاید شاهد تحول عظیم در مشاغلشان باشند. این نکته را در نظر داشته باشید که ChatGPT یک چتبات با هدف کلی است. در سالهای آتی مدلهای تخصصیتری را خواهیم داشت که روی موارد خاص کاربردی حتی از ChatGPT بهتر عمل میکنند. به بیانی دیگر، اگر ChatGPT نتواند اکنون کارتان را پیش ببرد، احتمال دارد محصول هوش مصنوعی جدید که تا پنج سال آینده تولید میشود به کمکتان بیاید. شغلهای ما –همهمان- با نظارت هوش مصنوعی همراه خواهد بود و این چنین خواهد بود که باید تضمین داده شود خروجی صحیح است. این امکان هم وجود دارد که هوش مصنوعی به دیوار بخورد و دیگر پیشرفتی نکند اما باید بارها این شکست تکرار شود. آیا هوش مصنوعی به اندازه موتور بخار تحولآفرین خواهد بود؟ باید امید داشت اینطور نباشد چون تغییرات بیرحمانه در ابزار تولید ساختار اجتماع انسانی را بر هم خواهد شد و این اتفاق هرگز با آرامش و صلح پایان نخواهد پذیرفت.
تعصب و مالکیت هوش مصنوعی
خیلیها از تعصب در ابزارهای هوش مصنوعی حرف زدهاند اما بحث در مورد این گفتهها از حوصله متن خارج است. بیشتر میخواهیم به سوژه داغ مبارزه OpenAI با این تعصبات بپرداریم. همانطور که قبلتر گفتیم، ChatGPT از زیر تیغ فاز یادگیری نظارتی رد شده؛ جایی که مدل زبان اساساً یاد میگیرد متعصب نباشد. گرچه این ویژگی مطلوبی است اما فرد نمیتواند متوجه شود این پروسه به طور مؤثری در حال یاد دادن تعصب جدیدی به این چتبات است! شرایط این فاز تنظیم دقیق مبهم است: آن قهرمانان گمنام که جوابهای «بد» را نشانهگذاری کردهاند کیستند؟ کارکنانی با حقوق پایین از کشورهای جهان سوم یا مهندسین سیلیکون ولی که شب و روز روی اسید هستند؟ (فاش میکنیم: مورد اول درست است). همچنین شایان ذکر است که محصولات هوش مصنوعی برای منافع عموم کار نمیکند. صاحبان محصولات مختلف که در حال حاضر ساخته میشوند شرکتهایی هستند که همیشه فه فکر سود خود هستند و نه پوششدهی نیازهای نوع بشر! درست مانند تأثیر قابلتوجه تغییر در نتیجه سرچ گوگل روی مردم، همراهان یا مشاوران هوش مصنوعی این توانایی را خواهند داشت که کاربران را به روشهای ظریف تحت تأثیر قرار دهند.
چه باید کرد؟
دیگر سوال این نیست که هوش مصنوعی به زندگی ما وارد شده یا نه بلکه باید بپرسیم تا چد حد برای ورودش آمادهایم. بیش از همه باید نگران ChatGPT (یا هر یک از پیوندهای آن) بود که مبادا به جایی برسد که تصمیمهای نظارتنشده بگیرد. ChatGPT به شدت در نمایش اعتماد به نفس موفق عمل میکند اما هنور کلی ایراد دارد. با این حال هنوز هم انگیزه زیادی آن بیرون برای کاهش هزینهها و بیرون کشیدن انسان از این لوپ وجود دارد. همچنین پیشبینی میشود که در طول دهه آتی، بیشتر محتوایی که در محیط آنلاین موجود است (ابتدا متن و عمس و بعد ویدیو و ویدیوگیمها) با هوش مصنوعی تولید شود. گمان نکنیم بشود روی درست کار کردن پرچمگذاری خودکار این محتوا حسابی کرد- باید فقط نسبت به آنچه در فضای آنلاین میخوانیم نقادانه جلو رویم. مهمتر اینکه باید حواسمان به مدلهای تخصصی که بر سر راهمان میآیند باشیم. وقتی Big Four[3] به مدلی با کد مالیاتی آموزش میدهد و شروع میکند در مورد نقاط ضعف سوال پرسیدن چه اتفاقی میافتد؟ وقتی فرد نظامی با ChatGPT بازی میکند و میگوید: «آره من از اینا برای پهپادهام میخوام» چه اتفاقی میافتد؟ هوش مصنوعی بینظیر خواهد بود: خیلی از کارهای حوصلهسر بر را بر عهده خواهد گرفت، تواناییهای جدید به افراد خواهد داد و انواع جدید هنر را رقم خواهد زد اما همچنین وحشتناک نیز میتواند باشد! اگر بخواهیم به تاریخ اشاره کنیم، ممکن است به متمرکزشدن قدرت سوق داده شدن ما به پدیدهای به نام فئودالیسمِ فناوری[4] ختم شود. هوش مصنوعی سازماندهیشدن کار و شاید ارتباط ما با استخر دانش بشر را تغییر خواهد داد. و ما هیچ نقشی در این روند نخواهیم داشت.
[1]Vapourwar، یک محصول، نرمافزار، سختافزار یا بازی کامپیوتری است که سازنده ادعا میکند آن را در آینده عرضه میکند، ولی هرگز در موعد مقرر عرضه نمیشود یا هرگز عرضه نمیشود و بهطور رسمی هم توسعه آن متوقف نمیشود.
[2]خوشهبندی کی-میانگین روشی در کمیسازی بردارهاست که در اصل از پردازش سیگنال گرفته شده و برای آنالیز خوشهبندی در دادهکاوی محبوب است.
[3]چهار مؤسسه بزرگ حسابداری عمومی جهان.
[4] techno-feudalism
منبع: کسپرسکی آنلاین (ایدکو)
کسپرسکی اسم یکی از بزرگترین شرکتهای امنیتی و سازنده آنتی ویروس است که برخی از کاربران اشتباهاً این شرکت و محصولات آنتی ویروس آن را با عناوینی نظیر کسپرسکای،کاسپرسکی، کسپراسکای، کسپراسکای، و یا کاسپراسکای نیز میشناسد. همچنین لازم به ذکر است مدیرعامل این شرکت نیز یوجین کسپرسکی نام دارد.