روابط عمومی شرکت ایدکو (توزیعکنندهی محصولات کسپرسکی در ایران)؛ ابزارهای هوش مصنوعی را میشود همهجا دید- از سیستمعاملها و بستههای آفیس گرفته تا ادیتورهای تصویر و چتها. در این مقاله قصد داریم توضیح دهیم چطور میشود بدون اینکه امنیت دیجیتال خود را به خطر بیاندازیم، از ChatGPT، Gemini و بسیاری از افزونهها استفاده کنیم. با ما همراه باشید.
سال گذشته اپها، سرویسها و پلاگینهای هوش مصنوعی در جهان سایبری یکهتازی کردند و همچنان رو به رشد هستند. از اپهای آفیس گرفته تا ادیتورهای عکس و IDEها[1] مانند ویژوآل استودیو. به طور کلی هوش مصنوعی به ابزارهای آشنا با قدمت زیاد دست یاری داده است. بسیاری از توسعهدهندگان در حال ساخت هزاران اپ جدید هستند که سر و کارشان با بزرگترین مدلهای هوش مصنوعی است. با این وجود هنوز در این حوزه کسی نبوده که توانسته باشد مشکل امنیت را که در ذات هوش مصنوعی نهفته است حل کند. از جمله این مشکلات میتوان به نشتی دادههای محرمانه و همچنین هکهای بیشمار دستگاه یا اکانت از طریق ابزارهای هوش مصنوعی استفاده کرد. همه اینها را گفتیم که بگوییم اگر نشود با چنین مسائل امنیتی ساده مبارزه کرد بعدها چطور قرار است با آن هوش مصنوعی شرورِ معروف که در آینده گریبانمان را خواهد گرفت روبرو شویم؟ اما تا زمانیکه کسی بیاید و راهکاری متقن جلوی راهمان بگذارد باید خودمان چندتایی مهارت برای محافظت از خود یاد بگیریم و به کار ببندیم. این مقاله حول همین محور خواهید چرخید.
فیلتر کردن دادههای مهم
خطمشی حریم خصوصی OpenAI–توسعهدهنده چتجیپیتی- به صراحت بیان میکند که هر دیالوگی با چتبات سیو شده و میتواند برای اهداف زیادی استفاده شود. ابتدا اینکه اینها مشکلات فنی را حل میکنند و جلوی نقضهای شرایط سرویس را میگیرند: در صورتیکه کسی ایده تولید محتوای نادرست به ذهنش برسد. چه کسی فکرش را میکرد؟! در این سناریو، چتها حتی توسط انسان هم بازنگری میشوند. دوم اینکه دادهها ممکن است برای آموزش نسخههای جدید جیپیتی و نیز ارتقای سایر محصولات استفاده شوند. بیشتر مدلهای محبوب زبان –خواه Gemini گوگل باشد، Claude آنتروپیک یا بینگِ مایکروسافت یا کاپیلات- خطمشی مشابهی دارند: آنها میتوانند تماماً دیالوگها را ذخیره کنند. و از این رو نشتیهای ناخواسته چت همین الانش هم به دلیل باگهای نرمافزاری در حال رخ دادن هستند و کاربران به جای مکالمات خود، چتهای مردمان دیگر را میبینند. استفاده از این دادهها برای آموزش همچنین میتواند به نشت داده از مدل از پیش آموزشدادهشده استفاده شود. دستیار هوش مصنوعی اگر باور داشته باشد برای پاسخ شما مرتبط است، ممکن است اطلاعات شما را با کسی بدهد. متخصصین امنیت اطلاعات حتی حملات مختلفی را (یک، دو، سه) طراحی کردهاند با هدف سرقت دیالوگها و خوب ماجرا به همینها هم ختم نخواهد شد. پس یادتان باشد هر چیزی که برای چتبات مینویسید میتواند بر علیهتان استفاده شود. پس موقع صحبت با هوش مصنوعی جانب احتیاط را رعایت کنید.
هیچ داده شخصیای را برای چتبات نفرسید. نه پسورد، نه پاسپورت، شماره کارت، آدرس، شماره تلفن، اسم یا هر داده شخصی دیگر که به شما یا شرکتتان یا مشتریانی که دارید تعلق داشته باشد. میتوانید اینها را با ستاره یا REDACTED در درخواستتان جایگزین کنید.
هیچ داکیومنتی را آپلود نکنید. پلاگینها و افزونههای متعدد به شما اجازه میدهند از چتباتها برای پردازش داکیومنت استفاده کنید. ممکن است وسوسه شدیدی برای آپلود داکیومنت وجود داشته باشد اما با آپلود بیدقت داکیومنتی چندصفحهای شما ریسک این را میکنید که دادههای محرمانهتان، مالکیت معنوی یا راز تجاری ماند تاریخ انتشار محصول جدید یا کلی دستمزد تیم را نشت دهید. یا بدترین سناریو: موقع پردازش داکیومنتهای دریافتی از سوی منابع خارجی، ممکن است با حملهای که روی داکیومنت حساب باز کرده هدف قرار بگیرید (این داکیومنت ممکن است توسط مدل زبان در حال اسکن شدن باشد).
از تنظیمات حریم خصوصی استفاده کنید. به دقت خطمشی حریم خصوصی فروشنده در مورد LLM[2] و نیز تنظیمات موجود را بررسی کنید. اینها میتوانند به صورت نرمال برای کاهش ردیابی اثرگذار باشند. برای مثال محصولات OpenAI به شما اجازه میدهند ذخیره تاریخچه چت را غیرفعال کنید. در این مورد، دادهها بعد از 30 روز حذف خواهند شد و هرگز برای آموزش استفاده نخواهند شد. آنهایی که از API، اپهای طرفسوم یا سرویسهایی برای دسترسی به راهکارهای OpenAI استفاده میکنند به طور پیشفرض این تنظیمات در آنها فعال است.
ارسال کد؟ هر داده محرمانه را پاکسازی کنید. این توصیه برای مهندسی نرمافزاریای است که برای بررسی و ارتقای کد خود از هوش مصنوعی کمک میگیرند: حذف هر کلید API، آدرسهای سرور یا هر اطلاعات دیگری که میتواند ساختار اپ یا پیکربندی سرور را از بین ببرد.
محدود کردن استفاده از اپهای طرفسوم و پلاگینها
هر بار توصیههای فوق را دنبال کنید- فرقی هم ندارد از چه دستیار هوض مصنوعی محبوبی استفاده میکنید. با این حال حتی این هم برای تضمین حریم خصوصی کافی نیست. استفاده از پلاگینهای چتجیپیتی، افزونههای جمینای یا اپهای افزونهای مجاز سویههای جدید تهدید را بیشتر میکنند. ابتدا اینکه تاریخ چت شما اکنون نه تنها روی گوگل یا سرورهای اوپنایآی که همچنین روی سرورهای متعلق به طرفسومها که کارشان حمایت از پلاگین یا افزونه است (و نیز جاهایی از اسمارتفون یا کامپیوتر که حتی فکرش را هم نمیکنید) ذخیره میشود. دوم اینکه بیشتر پلاگینها از منابع خارجی اطلاعات بیرون میکشند: منظور وب اسکرچها، اینباکس جیمیلتان، نوتهای شخصی از سرویسهایی مانند نوشن، جوپیتر یا اورنوت. در نتیجه هر دادههایی از شما از سوی آن سرویسها نیز ممکن است در نهایت سر از سرورهایی دربیاورند که در آنها پلاگین یا خود مدل زبان در حال اجراست. چنین ادغامی ممکن است ریسکهای زیادی به همراه داشته باشد: برای مثال حملهای را در نظر بگیرید که به جای کاربر،خودش ذخایر گیتهاب را بسازد.
سوم اینکه انتشار و تأیید پلاگینها برای دستیارهای هوش مصنوعی در حال حاضر فرآیند کمتر برنامهریزیشدهای نسبت به نظارت اپ در اپ استور یا گوگل پلی است. از این رو شانس شما در مواجهه با پلاگینی که بد کار میکند، بد نوشته شده، پر باگ است یا حتی مخرب است به شدت بالاست. و از همه بیشتر دلیلش این است که به نظر میرسد سازندگان روی کانتکتهای خود هیچ نارتی ندارند. چطور میشود این ریسکها را کم کرد؟ کلید ما «زمان دادن» است. اکوسیستم پلاگین بسیار نوپاست، پروسههای نشر آنقدری روان انجام نمیشود. حمایتها هم ضعیف است و سازندگان خود همیشه حواسشان به درست طراحی کردن پلاگینها نیست و گاهاً نمیتوانند با الزامات امنیتی همراستا پیش روند. کل این اکوسیستم برای بلوغ و رسیدن به نقطهای که امنتر و قابلاطمینانتر شود به زمان بسیاری نیاز دارد. جدا از اینها، ارزشی که پلاگینها و افزونهها به نسخه استوک چت جیپیتی دادند کم است: ترفندهای جزئی رابط کاربری و الگوهای "اعلان سیستم" که دستیار را برای یک کار خاص سفارشی میکند. مطمئناً این بستهبندیها ارزش اعتماد به دادههای شما را ندارند، زیرا میتوانید بدون آنها کار را به خوبی انجام دهید. اگر به برخی از ویژگیهای پلاگین در اینجا و اکنون نیاز دارید، سعی کنید حداکثر اقدامات احتیاطی موجود را قبل از استفاده از آنها انجام دهید.
- افزونهها و پلاگینهایی را انتخاب کنید که حداقل چندین ماه است وجود دارند و مرتباً بهروزرسانی میشوند.
- فقط پلاگینهایی را در نظر بگیرید که دانلودهای زیادی دارند و نظرات را برای هر مشکلی به دقت بخوانید.
- اگر افزونه دارای خط مشی رازداری است، قبل از شروع استفاده از افزونه، آن را به دقت بخوانید.
- ابزارهای منبع باز را انتخاب کنید.
- اگر حتی مهارتهای ابتدایی کدنویسی دارید - یا دوستان کدنویس - کد را حذف کنید تا مطمئن شوید که دادهها را فقط به سرورهای اعلام شده و در حالت ایده آل فقط سرورهای مدل هوش مصنوعی ارسال میکند.
پلاگینها شدیدا محتاج نظارت هستند
تا کنون زیاد از خطرات مربوط به نشت دادهها گفتیم.. اما این تنها مشکل بالقوه هنگام استفاده از هوش مصنوعی نیست. بسیاری از افزونهها میتوانند اقدامات خاصی را به دستور کاربر انجام دهند - مانند سفارش بلیط هواپیما. این ابزارها یک بردار حمله جدید را در اختیار بازیگران مخرب قرار میدهند: به قربانی یک سند، صفحه وب، ویدیو یا حتی تصویری ارائه میشود که علاوه بر محتوای اصلی حاوی دستورالعملهای پنهان برای مدل زبان است. اگر قربانی سند یا لینکی را به یک ربات چت ارسال کند، این ربات دستورات مخرب را اجرا میکند - به عنوان مثال، با خرید بلیط با پول قربانی. این نوع حمله «تزریق سریع» نام دارد و اگرچه توسعهدهندگان LLMهای مختلف در تلاش هستند تا حفاظتی در برابر این تهدید ایجاد کنند، اما هیچکس آن را مدیریت نکرده است - و شاید هرگز هم این اتفاق نیافتد. خوشبختانه، بیشتر اقدامات مهم - به ویژه آنهایی که شامل تراکنش های پرداخت مانند خرید بلیط میشوند - نیاز به تأیید مضاعف دارند. با این حال، تعامل بین مدلهای زبان و افزونهها، سطح حملهای را بهقدری بزرگ ایجاد میکند که تضمین نتایج ثابت از این اقدامات دشوار است. بنابراین، هنگام انتخاب ابزارهای هوش مصنوعی باید واقعاً دقیق باشید و همچنین مطمئن شوید که آنها فقط دادههای قابل اعتماد را برای پردازش دریافت میکنند.
[1] integrated development environments
[2] large-language-model
منبع: کسپرسکی آنلاین (ایدکو)
کسپرسکی اسم یکی از بزرگترین شرکتهای امنیتی و سازنده آنتی ویروس است که برخی از کاربران اشتباهاً این شرکت و محصولات آنتی ویروس آن را با عناوینی نظیر کسپرسکای،کاسپرسکی، کسپراسکای، کسپراسکای، و یا کاسپراسکای نیز میشناسد. همچنین لازم به ذکر است مدیرعامل این شرکت نیز یوجین کسپرسکی نام دارد.