روابط عمومی شرکت ایدکو (توزیعکنندهی محصولات کسپرسکی در ایران)؛ در کل ماه می و ژوئن، جهان آیتی شاهد درام Copilot و Recall بودند. اول Recall با اعلام قابلیت «مموری» مایکروسافت به میدان آمد؛ قابلیتی که اسکرینشاتهایی از هر چیزی که داشت روی کامپیوتر اتفاق میافتاد میگرفت و همه اطلاعات مفید را در پایگاهداده اشتراکی استخراج میکرد.سپس محققین امنیت سایبری با نمایش باگهای امنیتی و پتانسیلش برای استخراج داده شامل نوع ریموتش، پیادهسازی ریکال را مورد انتقاد قرار دادند. این باعث شد مایکروسافت، عقبنشینی کند: ابتدا اعلام کرد این قابلیت پیشفرض فعال نخواهد شد و بعد تضمین داد رمزگذاری در آن ارتقا داده شده و بعد عرضه انبوهش را به تعویق انداخت (انتخابش این بود که آن را در بتای Windows Insider Program تست کند). علیرغم این شکست، ردموند همچنان به این پروژه متعهد است و قصد دارد آن را روی طیف وسیعی از رایانهها راهاندازی کند - از جمله رایانههایی که پردازندههای AMD و اینتل دارند. در زمینه دستگاههای کاری خصوصاً اگر شرکتی BYOD را مجاز کند، ریکال چنانچه شبکهای توسط سارقین داده یا باجافزار دستکاری شود واضحاً خطمشیهای حفظ دادههای سازمانی را نقض کرده و به طور قابلملاحظهای خسارت احتمالی را افزایش میدهد. آنچه بیشتر نگرانکننده است، نیت راسخ رقبای مایکروسافت در دنبال کردن این رویه است. Apple Intelligence که به تازگی اعلام شده هنوز در زبان بازاریابی نگاهداری می شود اما این شرکت ادعا دارد سیری موقع پردازش درخواستها «آگاهی روی اسکرین» دارد و ابزارهای مدیریت متن موجود روی همه اپها قادر به پردازش دو نوع لوکال و چتجیپیتی خواهند بود. گرچه ویژگیهای مشابه گوگل همچنان مخفی مانده، این شرکت تأیید کرده که Project Astra -دستیار بصری اعلام شده در Google I/O - در نهایت راه خود را به کرومبوکها پیدا و از اسکرینشاتها به عنوان جریان داده ورودی استفاده میکند. اما تیمهای فناوری اطلاعات و امنیت سایبری چگونه باید برای این سیل ویژگیهای مبتنی بر هوش مصنوعی آماده شوند؟
ریسک دستیارهای بصری
قبلاً در این مقاله نحوه کاهش خطرات استفاده از ChatGPT و سایر دستیاران هوش مصنوعی توسط کارمندان را مورد بحث قرار دادیم. با این حال، ما در آنجا بر پذیرش عمدی برنامهها و خدمات اضافی توسط خود کارمندان متمرکز شدیم - نسل جدید و دردسرساز آیتی سایه. دستیارهای سطح سیستم عامل چالش پیچیدهتری را ارائه میدهند:
- دستیار میتواند اسکرینشات بگیرد، متن روی آنها را تشخیص دهد و هر اطلاعاتی را که روی صفحه کارمند نمایش داده میشود - به صورت لوکال یا در کلود عمومی ذخیره کند. این بدون توجه به حساسیت اطلاعات، وضعیت فعلی احراز هویت یا زمینه کاری رخ میدهد. به عنوان مثال، یک دستیار هوش مصنوعی میتواند یک کپی محلی یا حتی مبتنی بر کلود از یک ایمیل رمزگذاری شده که نیاز به رمز عبور دارد ایجاد کند.
- داده های گرفته شده ممکن است با سیاستهای حفظ دادههای شرکتی مطابقت نداشته باشد. دادههایی که نیاز به رمزگذاری دارند ممکن است بدون آن ذخیره شوند. دادههای برنامهریزیشده برای حذف ممکن است در یک کپی نامشخص باقی بمانند. دادههایی که قرار است در محیط شرکت باقی بمانند ممکن است به یک کلود ختم شوند - احتمالاً تحت یک حوزه قضایی ناشناخته.
- مشکل دسترسی غیرمجاز از آنجایی تشدید میشود که دستیاران هوش مصنوعی ممکن است اقدامات احراز هویت اضافی را که برای سرویسهای حساس در یک سازمان اجرا میشوند دور بزنند. (به طور کلی، اگر نیاز به مشاهده دادههای تراکنش مالی دارید، حتی پس از مجاز شدن در سیستم، باید RDP را فعال کنید، یک گواهی تهیه کنید، به سیستم راه دور وارد شوید و رمز عبور را دوباره وارد کنید - یا به سادگی میتوانید آن را از طریق مشاهده کنید. دستیار هوش مصنوعی مانند Recall).
- کنترل دستیار هوش مصنوعی توسط کاربر و حتی مدیران فناوری اطلاعات محدود است. فعالسازی تصادفی یا عمدی عملکردهای اضافی سیستم عامل به دستور سازنده یک مشکل شناخته شده است. اساساً، Recall یا یک ویژگی مشابه، میتواند به طور غیرمنتظره و بدون هشدار به عنوان بخشی از بهروزرسانی روی رایانه ظاهر شود.
اگرچه همه غولهای فناوری ادعا میکنند که به امنیت هوش مصنوعی توجه زیادی دارند، اما اجرای عملی اقدامات امنیتی باید در آزمون واقعیت مقاومت کند. ادعاهای اولیه مایکروسافت در مورد پردازش دادهها به صورت محلی و ذخیرهسازی به شکل رمزگذاری شده نادرست بود، زیرا رمزگذاری مورد بحث در واقع یک BitLocker ساده بود که عملاً تنها زمانی که رایانه خاموش است از دادهها محافظت میکند. اکنون باید منتظر متخصصین امنیت سایبری باشیم تا رمزگذاری بهروز شده مایکروسافت و هر آنچه اپل در نهایت منتشر میکند را ارزیابی کنند. اپل ادعا میکند برخی از اطلاعات به صورت محلی پردازش میشوند، برخی در فضای کلود خودشان با استفاده از اصول محاسباتی امن بدون ذخیرهسازی دادهها پس از پردازش، و برخی دیگر به OpenAI به شکل ناشناس منتقل میشوند. در حالیکه رویکرد گوگل باید دیده شود، سابقه این شرکت خود گویای این موضوع است.
خطمشیهای پیادهسازی دستیار هوشمصنوعی
با توجه به خطرات اساسی و عدم بلوغ کلی در این حوزه، یک استراتژی محافظه کارانه برای استقرار دستیارهای هوش مصنوعی بصری توصیه میشود:
- به طور مشترک (شامل تیمهای فناوری اطلاعات، امنیت سایبری و کسبوکار) تعیین کنید که جریانهای کاری کارمندان به طور قابل توجهی از دستیاران هوش مصنوعی بصری برای توجیه معرفی خطرات اضافی سود میبرند.
- یک خطمشی شرکت ایجاد کنید و به کارکنان اطلاع دهید استفاده از دستیارهای هوش مصنوعی بصری در سطح سیستم ممنوع است. اعطای استثنا بر اساس مورد به مورد برای استفاده های خاص.
- اقداماتی را برای جلوگیری از فعال شدن خود به خودی هوش مصنوعی بصری انجام دهید. از سیاستهای گروه مایکروسافت استفاده و اجرای برنامههای هوش مصنوعی را در سطح EDR یا EMM/UEM مسدود کنید. به خاطر داشته باشید رایانههای قدیمیتر ممکن است به دلیل محدودیتهای فنی نتوانند اجزای هوش مصنوعی را اجرا کنند، اما سازندگان در تلاش هستند تا دسترسی خود را به نسخههای سیستم قبلی گسترش دهند.
- اطمینان حاصل کنید سیاستها و ابزارهای امنیتی برای همه دستگاههایی که کارمندان برای کار استفاده میکنند - از جمله رایانه های شخصی - اعمال میشود.
- اگر بحث مرحله اول گروهی از کارمندان را شناسایی کرد که میتوانند به طور قابل توجهی از هوش مصنوعی بصری بهره مند شوند، یک برنامه آزمایشی را تنها با تعداد کمی از این کارمندان راهاندازی کنید. تیمهای فناوری اطلاعات و امنیت سایبری باید تنظیمات دستیار بصری توصیهشده را متناسب با نقشهای کارکنان و سیاستهای شرکت ایجاد کنند. علاوه بر پیکربندی دستیار، اقدامات امنیتی پیشرفتهتری (مانند سیاستهای احراز هویت کاربر و تنظیمات نظارتی دقیقتر SIEM و EDR)را برای جلوگیری از نشت دادهها و محافظت از رایانههای پایلوت در برابر نرمافزارهای ناخواسته/مضر اجرا کنید. اطمینان حاصل کنید دستیار هوش مصنوعی موجود توسط یک سرپرست با استفاده از این تنظیمات خاص فعال شده است.
- به طور منظم و کامل عملکرد گروه برنامه آزمایشی را در مقایسه با یک گروه کنترل، همراه با رفتار رایانه های شرکت با دستیار هوش مصنوعی فعال شده، تجزیه و تحلیل کنید. بر اساس این تحلیل، تصمیم بگیرید که آیا برنامه آزمایشی را گسترش دهید یا متوقف کنید.
- یک منبع اختصاصی برای نظارت بر تحقیقات امنیت سایبری و اطلاعات تهدید در مورد حملاتی که دستیاران هوش مصنوعی بصری و دادههای ذخیره شده آنها را هدف قرار میدهند، تعیین کنید. این امکان تنظیم به موقع خط مشی را با تکامل این فناوری فراهم میکند.
کسپرسکی آنلاین (ایدکو)
کسپرسکی اسم یکی از بزرگترین شرکتهای امنیتی و سازنده آنتی ویروس است که برخی از کاربران اشتباهاً این شرکت و محصولات آنتی ویروس آن را با عناوینی نظیر کسپرسکای،کاسپرسکی، کسپراسکای، کسپراسکای، و یا کاسپراسکای نیز میشناسد. همچنین لازم به ذکر است مدیرعامل این شرکت نیز یوجین کسپرسکی نام دارد.