چطور هوش مصنوعی می‌تواند داده‌های شخصی شما را افشا کند؟

05 اردیبهشت 1402 چطور هوش مصنوعی می‌تواند داده‌های شخصی شما را افشا کند؟

روابط عمومی شرکت ایدکو (توزیع‌کننده‌ی محصولات کسپرسکی در ایران)؛ 

شبکه‌های (عصبی) شما در حال نشت شدن هستند

محققین دانشگاه‌های آمریکا و سوئیس با همکاری دو شرکت گوگل و دیپ‌مایند، مقاله‌ای را منتشر کرده‌اند که نشان می‌دهد چطور داده‌ها می‌توانند از سیستم‌های تولید تصویری که از الگوریتم‌های یادگیری ماشین DALL-E، Imagen یا Stable Diffusion استفاده می‌کنند نشت کنند. همه آن‌ها از سمت کاربر کار می‌کنند: شما یک عبارت متنی خاص را تایپ می‌کنید (برای مثال می‌زنید صندلی به شکل آواکادو) و تصویر تولیدشده را دریافت می‌نمایید.

همه این سیستم‌ها روی تعداد وسیعی عکس آموزش دیده‌اند که هر یک شرحیات از پیش‌آماده دارند. ایده پشت چنین شبکه‌های عصبی این است که با مصرف داده‌های عظیم آموزش، آن‌ها می‌توانند تصاویر جدید و منحصر به فرد تولید کنند. با این وجود، نکته کلیدی این مقاله این است که این تصاویر همیشه هم منحصر به فرد نیستند. در برخی موارد همچنین ممکن است شبکه عصبی مجبور شود تقریباً همان عکس اورجینال را که قبل‌تر برای آموزش استفاده شده بود بازتولید کند. و این یعنی شبکه‌های عصبی می‌توانند ناخواسته اطلاعات شخصی را برملا کنند.

داده‌های بیشتر برای «خداوندگار داده»

خروجی سیستم یادگیری ماشین در پاسخ به یک پرس وجو می‌تواند برای فردی غیرمتخصص معجزه یا جادو به نظر بیاید: «وای این ربات اینگار همه‌چیز را می‌داند!». اما هیچ جادو معجزه‌ای در کار نیست؛ همه شبکه‌های عصبی تا حد زیادی کارکرد مشابه دارند: الگوریتمی که روی مجموعه داده خاصی آموزش ‌داده‌شده ساخته می‌شود- برای مثال سری‌ تصاویری از سگ و گربه با شرحی از اینکه در هر تصویر چه چیزی به تصویر کشیده شده است. بعد از مرحله آموزش، به این الگوریتم تصویر جدیدی نشان داده شده و از آن خواسته می‌شود تشخیص دهد سگ است یا گربه. توسعه‌دهندگان چنین سیستم‌هایی از این شروع‌های متواضعانه به سمت سناریوهای پیچیده‌تر حرکت می‌کنند: الگوریتم که روی کلی تصویر گربه آموزش دیده تصویری از یک گربه خانگی را که هرگز وجود نداشته –به محض تقاضا- تولید می‌کند. چنین تجربه‌هایی نه تنها با تصاویر که همچنین با متن و ویدیو و حتی وویس هم انجام می‌شوند: ما پیشتر در مورد دیپ‌فیک (که بموجب آن از ویدیوهای دیجیتالی‌تغییریافته‌ی بیشتر اهالی سیاست یا هنر محتواهای جعلی بیرون می‌آید) نوشته‌ایم. برای همه شبکه‌های عصبی، نقطه شروع مجموعه‌ایست از داده‌های آموزشی: شبکه‌های عصبی نمی‌توانند از هیچ‌چیز دست به ابداع هویت‌های جدید بزنند. برای ساختن تصویر گربه، الگوریتم باید هزاران عکس واقعی یا نقاشی این حیوانات را بررسی کرده باشد. برای محرمانه نگه داشتن این داده‌ها هنوز کلی بحث و جدل وجود دارد. برخی در حوزه عمومی قرار دارند و این درحالیست که مجموعه داده‌های دیگر دارایی معنوی شرکت توسعه‌دهنده به حساب می‌آید که کلی وقت و انرژی صرف ساختن آن‌ها کرده است (به امید اینکه به مزیت رقابتی برسد). همچنان نیز برخی‌ها -به اسم هم که شده- حاوی اطلاعات حساس هستند. برای مثال آزمایش‌هایی صورت گرفته برای استفاده از شبکه‌های عصبی برای تشخیص بیماری‌ها بر اساس اشعه ایکس و سایر اسکن‌های پزشکی. این یعنی داده آموزشی الگوریتیمی حاوی داده‌های واقعی سلامت افراد هستند که به دلایل معلوم نباید به دست مجرمان بیافتند.

توزیعش کن!

گرچه الگوریتم‌های یادگیری ماشین از نظر فردی خارجی ممکن است یکسان به نظر بیاید اما در حقیقت آن‌ها با هم فرق دارند. در این مقاله محققین توجه خاصی به مدل‌های انتشار یادگیری ماشین داشته‌اند. ساز و کار آن‌ها چنین است: داده‌های آموزشی (دوباره تصویری از افراد، ماشین‌ها، خانه‌ها و غیره) با افزون نویز تحریف می‌شوند. و شبکه عصبی سپس برای ریستور کردن چنین عکس‌هایی به شرایط اورجینال‌شان آموزش می‌بیند. این متود تولید عکس‌هایی با کیفیت خوب را میسر می‌سازد اما نقص احتمالی‌اش (در مقایسه با الگوریتم‌های شبکه‌های –به عنوان مثال- متخاصم مولد) گرایش بیشترشان به نشت داده است. داده‌های اورجینال را می‌شود دست کم به سه روش ازشان استخراج کرد: ابتدا اینکه با استفاده از از پرس و جوهای خاص می‌توانید شبکه عصبی را مجبور به خروجی گرفتن کنید –نه چیزی منحصر به فرد تولیدشده بر اساس هزاران عکس- بلکه یک منبع عکس مشخص. دوم اینکه عکس اصلی می‌تواند حتی اگر بخشی از آن در دسترس باشد نیز از نو ساخته شود. سوم اینکه ممکن است براحتی بشود تعیین کرد عکسی مشخص در داده آموزشی وجود دارد یا نه. اغلب شبکه‌های عصبی تنبل هستند و به جای تصویر جدید چیزی از مجموعه آموزشی را تولید می‌کنند (البته اگر حاوی چندین تکرار از همان عکس باشد). جدا از نمونه بالا با عکس Ann Graham Lotz، این بررسی چند نتیجه مشابه دیگر هم می‌دهد:

اگر تصویری بیش از صد بار در مجموعه آموزش کپی شده باشد شانس اینکه در فرم نزدیک به اورجینالش نشتی صورت گرفته باشد زیادی است. با این وجود، محققین راه‌هایی نشان دادند برای بازگردانی تصاویر آموزشی که فقط یک بار در مجموعه اورجینال ظاهر شدند. این متود کارایی به مراتب کمتری دارد: از پانصد عکس تست‌شده، این الگوریتم به طور تصادفی تنها سه عدد از آن‌ها را از نو می‌سازد. هنرمندانه‌ترین متود حمله به شبکه عصلی این است که با استفاده از تنها بخشی از عکس منبع بعنوان ورودی بشود عکس اورجینال را بازسازی کرد.

در این مرحله بیایید توجهمان را ببریم به سمت شبکه‌های عصبی و کپی‌رایت.

چه کسی از چه کسی دزدید؟

در ژانویه 2023 سه هنرمند از سازندگان سرویس‌های تولید تصویر که از الگوریتم‌های یادگیری ماشین استفاده کرده بودند شکایت کردند. آن‌ها مدعی شدند که توسعه‌دهندگان، شبکه‌های عصبی را طوری آموزش دادند که هیچ اهمیتی به مقوله کپی‌رایت نمی‌دهند. شبکه عصبی می‌تواند سبک هنرمندی خاص را کاملاً کپی کند و در نتیجه‌ی این کار درآمدزایی هنرمندان به خطر می‌افتد. این مقاله به برخی پرونده‌ها اشاره دارد که در آن‌ها الگوریتم‌ها به دلایل مختلف می‌توانند حاوی سرقتعملی ادبی باشند، نقاشی عکس یا سایر تصاویری را که تقریباً با کار افراد واقعی مو نمی‌زند تولید کنند. این مطالعه توصیه‌هایی را نیز برای تحکیم حریم خصوصی مجموعه آموزش اورجینال ارائه داده است:

  •         از شر نسخه‌های کپی خلاص شوید.
  •         تصاویر آموزشی را از نو پردازش کنید؛ برای مثال با افزون نویز یا تغییر روشنایی. این کار احتمال نشت داده را به مراتب کم می‌کند.
  •         با تصاویر خاص، الگوریتم را تست کرده سپس مطمئن شوید که آن‌ها را دقیقاً بازتولید نمی‌کند.

گام بعدی چیست؟

اخلاقیات و قانونمندیِ هنر مولد[1] هنوز محل بحث دارد- باید بین هنرمندان و توسعه‌دهندگان این فناوری تعادل و صلحی برقرار شود. از طرفی دیگر کپی‌رایت هم باید مورد توجه قرار گیرد. یک سوی دیگر ماجرا هم این سوال است: آیا هنر کامپیوتری با هنر انسانی متفاوت است؟ در هر دو سناریو، سازندگان از آثار همکاران و رقبای خود الهام می‌گیرند. اما بگذارید بحث را به سمت امنیت ببریم. این مقاله مجموعه حقایقی را در مورد تنها یک مدل یادگیری ماشین ارائه می‌دهد. با بسط دادن این مفهوم به همه الگوریتم‌های مشابه به موقعیت جالبی می‌رسیم. سخت نیست تصور سناریویی که بموجب آن دستیار هوشمند یک اپراتور موبایل در واکنش به جستجوی کاربری، داده‌های حساس شرکت را رو کند: از اینها گذشته این در داده‌های آموزشی بوده است. یا برای مثال یک پرس‌وجوی مکارانه شبکه عصبی عمومی را فریب دهد و به سمت تولید کپی پاسپورت یک فرد سوق دهد! محققین تأکید دارند که چنین مشکلاتی فعلاً در سطح تئوریک هستند. اما مشکلات دیگر همچنان با ما هستند. همین الان که داریم مطلب حاضر را نگارش می‌کنیم شبکه عصبی تولید متن ChatGPT دارد برای نوشتن کد مخرب واقعی که (برخی اوقات) کار می‌کند استفاده می‌شود. و GitHub Copilot نیز دارد به برنامه‌نویسان کمک می‌کند تا با استفاده از نرم‌افزارهای منبع باز متعدد -به عنوان ورودی- دست به نوشتن کد بزنند. و این ابزارها همیشه هم به قانون کپی‌راست احترام نمی‌گذارند و حریم خصوصی نویسندگان که کدشان بدون آگاهی خودشان در صف مجموعه داده‌های آموزشی قرار گرفته نیز رعایت نمی‌شود. با تکامل هر چه بیشترِ شبکه‌های عصبی، حملات بدان‌ها نیز افزایش خواهد یافت (و البته هنوز درک کاملی از عواقب این حمله‌ها وجود ندارد).

 

[1]Generative art:  به هنری اطلاق می‌شود که به‌طور کامل یا جزئی با استفاده از یک سیستم خود مختار ایجاد شده‌است. یک سیستم مستقل در این زمینه عموماً غیرانسانی است و می‌تواند به‌طور مستقل ویژگی‌های یک اثر هنری را تعیین کند که در غیر این صورت نیاز به تصمیم‌گیری‌هایی دارد که مستقیماً توسط هنرمند اتخاذ شود. 

 

منبع: کسپرسکی آنلاین (ایدکو)

کسپرسکی اسم یکی از بزرگترین شرکتهای امنیتی و سازنده آنتی ویروس است که برخی از کاربران اشتباهاً این شرکت و محصولات آنتی ویروس آن را با عناوینی نظیر کسپرسکای،کاسپرسکی، کسپراسکای، کسپراسکای، و یا کاسپراسکای نیز می‌شناسد. همچنین لازم به ذکر است مدیرعامل این شرکت نیز یوجین کسپرسکی نام دارد.

محصولات مرتبط

  • Kaspersky Internet Security for Android

    امنیت پیشرفته‌ای که همیشه همراه شماست بخش مهمی از زندگی اکثر ما اکنون روی گوشی‌ها و تبلت‌هاست- پس به امنیت موبایلی نیاز دارید که شما را همیشه امن نگه ...

    6,818,500 ریال
    خرید
  • Kaspersky Cloud Password Manager

    Kaspersky Cloud Password Manager ابزار مدیریت کلمه عبور ابری کسپرسکی (KCPM) ضمن ذخیره ایمن تمامی کلمات عبور مورد استفاده شما برای وبسایت‌ها، اپلیکیشن‌ها، و شبکه‌های اجتماعی آنها را در تمامی ...

    10,231,000 ریال
    خرید
  • Kaspersky Safe Kids

    شما می توانید بر ارتباطات اینترنتی کودکان از قبیل فعالیتهای عمومی در فیسبوک، کنترل تماسها و پیامها از طریق دستگاههای اندرویدی نظارت داشته باشید. کمک شما به کودکان بهترین راهنمایی برای آنها ...

    2,557,750 ریال10,231,000 ریال
    خرید
  • Kaspersky Small Office Security

    محافظت در حین کار Kaspersky Small Office Security به طور خاص برای سازمان‌هایی طراحی شده است که 5 تا 50 دستگاه کامپیوتر در خود جای داده‌اند. نصب آن بسیار آسان است؛ مدیریت آن ...

    6,142,500 ریال24,570,000 ریال
    خرید
  • Kaspersky Security Cloud Personal

    تمام اپ‌های امنیتیِ ما در دستانتان. به کل خانواده‌ی اپ‌های ما برای دسکتاپ و موبایل دسترسی پیدا کنید. از آنتی‌ویروس گرفته تا ابزارهای حریم خصوصی و اجرایی، هر کدام را به میل ...

    68,243,500 ریال
    خرید
  • Kaspersky Standard

    سیستم امنیتی بهبودیافته به همراه تقویت‌کننده عمکرد دستگاه طرح امنیتی استاندارد ما، نه تنها سیستم امنیتی قدرتمندی را برای انواع ویروس‌ها، بدفزارها و باج‌افزارها ارائه می‌دهد ...

    9,652,500 ریال19,305,000 ریال
    خرید
  • Kaspersky Plus

    امنیت. کارایی. حریم خصوصی. همه در یک برنامه با کاربری آسان کسپرسکی پلاس با ارائه امنیت سایبری نسل بعد، شما در برابر ویروس‌ها، باج‌افزارها و بدافزارهای جدید محافظت کند - بدون ...

    13,841,750 ریال27,683,500 ریال
    خرید
  • Kaspersky Premium

    حفاظت کامل از دستگاه ها، حریم خصوصی و هویت شما با محصول Kaspersky Premium تمام نیازهای امنیتی خود و خانواده‌تان را پوشش دهید. حفاظت پیشرفته ...

    14,807,000 ریال29,614,000 ریال
    خرید

نظر خودتان را ارسال کنید


کاربر گرامی چنانچه تمایل دارید، نقد یا نظر شما به نام خودتان در سایت ثبت شود، لطفاً وارد سایت شوید.
*نظر
کلیه حقوق مادی و معنوی این سایت محفوظ و متعلق به شرکت گسترش خدمات تجارت الکترونیک ایرانیان است و هر گونه کپی برداری از آن پیگرد قانونی دارد