روابط عمومی شرکت ایدکو (توزیعکنندهی محصولات کسپرسکی در ایران)؛ اینترنت در هفتههای اخیر پر شده است از خبر جنجالی خطمشی امنیتی جدید پلتفرم متا. شرکت پشت فیسبوک، اینستاگرام و واتساپ به بخشی از پایگاه کاربری خود اعلام کرد که دادههای شخصیشان از 26 ژوئن قرار است برای تربیت هوش مصنوعی مولد که توسط زیرشاخهای موسوم به Meta AI توسعه داده شده استفاده شود. با ما همراه باشید تا بررسی کنیم کدام دادهها تحتالشعاع قرار میگیرند و اینکه کاربر آیا اختیار قبول یا رد این استفاده را دارد یا نه و چطور میشود در سطح دیجیتال در امان ماند.
آیا متا برای تربیت هوش مصنوعی خودش از محتوای فیسبوک و اینستاگرام استفاده خواهد کرد؟
هوش مصنوعی متا نه سالی میشود وجود دارد. تربیت شبکههای عصبی آن به داده (بهتر است بگوییم حجم زیادی از داده) نیاز دارد و به نظر میرسد که محتوای تولیدشده توسط کاربران بزرگترین شبکههای اجتماعی جهان بزودی به پایگاه دانش هوش مصنوعی متا تبدیل خواهد شد. همه ماجرا از می 2024 شروع شد وقتی که خبر تغییرات خطمشی امنیتی متا در فضای آنلاین پخش شد. شایعه شده بود که اواخر ماه ژوئن این شرکت قصد کرده از محتوای فیسبوک و اینستاگرام برای تربیت هوش مصنوعی مولد استفاده کند. با این حال این نوتیفها برای هیچکس فرستاده نشد- فقط برای گروه منتخب کاربران در آمریکا و اروپا. در پی موج خشمها، متا بیانیهای رسمی برای ساکنین اروپا صادر کرد. اما این ظاهراً جای اینکه پاسخ ارائه دهد، بیشتر سوالاتی را در ذهن ایجاد کرد. هیچ بیانیه مطبوعاتی صریحاً مبنی بر اینکه "از این تاریخ، Meta AI از دادههای شما برای آموزش استفاده خواهد کرد" وجود نداشت. در عوض، صفحه جدیدی با عنوان Generative AI در Meta ظاهر شد که جزئیاتی از دادههایی که این شرکت قصد دارد برای توسعه هوش مصنوعی استفاده کند و چگونه است. باز هم بدون تاریخ مشخص.
آیا متا پیامهای شخصی کاربر را خواهد خواند؟
طبق گفته نمایندگان این شرکت، هیچ هوش مصنوعی متایی قرار نیست پیامهای شخصی را بخواند. کریس کاکس افسر ارشد تولید شفافسازی کرد که فقط عکسهای کاربر که به طور عمومی در فیسبوک و اینستاگرام پست شده میتواند برای تربیت و آموزش هوش مصنوعی استفاده شود. کاکس میگوید «ما روی مسائل خصوصی هوش مصنوعیمان را تربیت نخواهیم کرد». بیانیه مدیر اجرایی در صفحه رسمی شرکت اختصاص داده شده به هوش مصنوعی مولد منعکس شده است. این بیانیه اینطور شرح داده شده که شرکت صرفاً از دادههای در دسترس عموم از اینترنت، اطلاعات مجوزدار و اطلاعات به اشتراک گذاشته شده توسط کاربران در محصولات و خدمات متا استفاده خواهد کرد. علاوه بر این، به صراحت اشاره میکند: «ما از محتوای پیامهای خصوصی شما با دوستان و خانواده برای آموزش هوش مصنوعی خود استفاده نمیکنیم». به هر حال، هوش مصنوعی متا حداقل یک سال است که پستهای عمومی کاربران را جمع میکند. با این حال، این دادهها غیرشخصی هستند: طبق ادعای شرکت، هوش مصنوعی مولد عکسهای اینستاگرام شما را با وضعیتهای واتساپ یا نظرات فیسبوک شما مرتبط نمیکند.
میشود انتخاب کرد به هوش مصنوعی متا چه خوراکی بدهیم؟
متأسفانه هیچ برچسب واضح «من استفاده از دادههایم برای تربیت هوش مصنوعی متا را مجاز نمیدانم» وجود ندارد و در عوض مکانیزم انتخابی امری پیچیده است: کاربران ملزم هستند فرم بلند بالایی را روی فیسبوک یا اینستاگرام پر کنند و دلیل شخصی پرجزئیاتی را برای عدم تمایلشان به تربیت هوش مصنوعی با دادههایشان ارائه دهند. این فرم در مازِ تنظیمات حریم خصوصی برای ساکنان اتحادیه اروپا پنهان است: Menu → Settings and privacy → Settings → Security policy. از طرف دیگر، میتوانید آن را در صفحه جدید Meta Privacy Center، در بخش Privacy and Generative AI بیابید.
لینک به قدری مخفی است که گویی متا نمیخواهد شما آن را پیدا کنید. اما ما این کار را برای شما انجام دادیم: در اینجا فرمی برای انصراف از آموزش هوش مصنوعی متا در مورد دادههای شخصی شما وجود دارد، اگرچه عنوان رسمی عمداً مبهمتر است: «حقوق موضوع داده برای اطلاعات طرفسوم که برای هوش مصنوعی در Meta استفاده میشود». اما حتی با داشتن لینک مستقیم ما به این فرم، دلتان را صابون نزنید: صرف نظر از اینکه کدام یک از سه گزینه را انتخاب میکنید، پیچیدهترین و گیجکنندهترین فرآیند پر کردن فرم در انتظار شماست.
در نظر داشته باشید که در بخش توضیحات تنظیمات یک بخش سلب مسئولیت هم وجود دارد: «ما به طور خودکار درخواستهای ارسالی با استفاده از این فرم را انجام نمیدهیم. آنها را مطابق با قوانین لوکال شما بررسی میکنیم». به بیانی دیگر حتی اگر اجازه هم ندهید باز دادههایتان ممکن است استفاده شوند. مهم است بدرستی دلایل خود را برای عدم تمایل ارائه دهید و باید شهروند کشوری باشید که لایحه GDPR در آن اجرایی شده! این رگولاسیون محافظت داده حکم مبنای تصمیم بر سر نفع کاربر است و در این مورد، پشت هوش مصنوعی متا گرفته نمیشود. این قانون تصریح میکند که متا باید رضایت صریح را برای مشارکت در اشتراکگذاری داوطلبانه دادهها کسب کرده و فقط یک فرم انصراف مخفی منتشر نکند. این وضعیت، توجه NOYB (ربطی به شما ندارد) - مرکز اروپایی حقوق دیجیتال را به خود جلب کرده است. مدافعان حقوق بشر این سازمان 11 شکایت علیه متا در دادگاه های سراسر اروپا (اتریش، بلژیک، فرانسه، آلمان، یونان، ایرلند، ایتالیا، هلند، نروژ، لهستان، و اسپانیا) و به دنبال حفاظت از داده های شخصی شهروندان خود ثبت کردهاند. کمیسیون حفاظت از دادههای ایرلند این ادعاها را مورد توجه قرار داد و درخواستی رسمی از متا برای رسیدگی به این دعاوی صادر کرد. واکنش این غول فناوری را میتوان بدون هیچ الگوریتمی پیشبینی کرد: این شرکت علناً شاکیان را به ممانعت از توسعه هوش مصنوعی در اروپا متهم کرد. متا اظهار داشت که به گمانش رویکرد اولیه آنها از نظر قانونی صحیح است و بنابراین احتمالاً به تلاش های خود برای ادغام هوش مصنوعی در زندگی کاربران ادامه خواهند داد.
نکته نهایی
تا کنون، بازی گویی بین متا و رسانههاست. رسانهها ادعا دارند متا میخواهد دادههای شخصی را شامل محرمانهترین پیامها و عکسها پردازش کند و این درحالیست که رؤسای متا در تلاشند این اظهارات را با ادله خویش رد کنند. به یاد داشته باشید که: شما اول از همه موظف هستید امنیت دیجیتال خود را حفظ کنید. مطمئن شوید دارید از راهکار محافظتی مطمئن استفاده میکنید، خطمشیهای حریم خصوصی را با دقت میخوانید و همیشه در مورد حقوقتان مربوط به استفاده از دادههایی که دارید مطلع و آگاه هستید.
کسپرسکی آنلاین (ایدکو)
کسپرسکی اسم یکی از بزرگترین شرکتهای امنیتی و سازنده آنتی ویروس است که برخی از کاربران اشتباهاً این شرکت و محصولات آنتی ویروس آن را با عناوینی نظیر کسپرسکای،کاسپرسکی، کسپراسکای، کسپراسکای، و یا کاسپراسکای نیز میشناسد. همچنین لازم به ذکر است مدیرعامل این شرکت نیز یوجین کسپرسکی نام دارد.