روابط عمومی شرکت ایدکو (توزیعکنندهی محصولات کسپرسکی در ایران)؛ کدام بزرگسالی در کودکی رویای این را نداشته که واقعاً بتواند با اسباببازی مورد علاقهاش صحبت کند؟ برای ما این رویاها فقط خیالپردازیهای معصومانه بودند اما امروز آنها برای بچههای امروزی، دارند دارند محقق میشوند. به عنوان مثال، در ژوئن گذشته، شرکت Mattel - نهاد قدرتمند پشت عروسکهای نمادین باربی - از همکاری با OpenAI برای توسعه عروسکهای مجهز به هوش مصنوعی خبر داد. اما Mattel اولین شرکتی نیست که مفهوم اسباببازیهای هوشمند سخنگو را به واقعیت تبدیل میکند؛ بسیاری از تولیدکنندگان در حال حاضر در حال تولید همراهان هوش مصنوعی برای کودکان هستند. در این مقاله، قرار است نحوه عملکرد واقعی این اسباببازیها و خطرات ناشی از استفاده از آنها را بررسی میکنیم. با ما همراه باشید.
اسباببازیهای هوش مصنوعی دقیقاً چه هستند؟
منظور ما از اسباببازیهای هوش مصنوعی همان اسباببازیهای واقعی و فیزیکی هستند؛ نه فقط نرمافزار یا اپلیکیشن. در حال حاضر، هوش مصنوعی معمولاً در عروسکهای پولیشی یا رباتهای مناسب کودکان استفاده میشود. به لطف ادغام با مدلهای زبانی بزرگ، این اسباببازیها میتوانند مکالمات معنادار و طولانی با کودک داشته باشند. هر کسی که از چتباتهای مدرن استفاده کرده میداند میشود از هوش مصنوعی خواست تا نقش هر کسی را بازی کند: از یک شخصیت فیلم گرفته تا یک متخصص تغذیه یا یک متخصص امنیت سایبری.
نکتهی مورد بحث که باید بدان بسیار توجه کرد این است که اسباببازیهای یادشده، توسط یک «هوش مصنوعی ایمن برای کودکان» خاص و اختصاصی پشتیبانی نمیشوند. سازندگان در وبسایتهای خود آشکارا اعتراف میکنند که از همان مدلهای محبوبی استفاده میکنند که بسیاری از ما از قبل میشناسیم: ChatGPT از OpenAI، Claude از Anthropic، DeepSeek از توسعهدهنده چینی با همین نام و Gemini از گوگل. در این مرحله، والدین محتاط در مورد فناوری ممکن است پرونده تکاندهنده ChatGPT را به یاد بیاورند که در آن چتبات ساختهشده توسط OpenAI به خاطر خودکشی یک نوجوان مقصر شناخته شد.
مشکل اصلی این است: اسباببازیها برای کودکان طراحی شدهاند، اما مدلهای هوش مصنوعی بکاررفته در آنها اینگونه نیستند. اینها سیستمهای بزرگسالانه عمومی هستند که فقط تا حدی توسط فیلترها و قوانین مهار میشوند. رفتار آنها به شدت به مدت زمان مکالمه، نحوه بیان سوالات و اینکه یک تولیدکننده خاص چقدر خوب حفاظهای ایمنی خود را اجرا کرده است، بستگی دارد.
نحوه آزمایش اسباببازیهای هوش مصنوعی توسط محققان
این مطالعه که نتایج آن را در زیر بررسی میکنیم، به جزئیات زیادی در مورد خطرات روانی مرتبط با «دوستی» کودک با یک اسباببازی هوشمند میپردازد. با این حال، از آنجایی که این موضوع ابعاد وسیعی دارد و از حوصله متن خارج است، قصد داریم از جزئیات روانشناختی صرف نظر کرده و صرفاً بر تهدیدات ایمنی فیزیکی و نگرانیهای مربوط به حریم خصوصی تمرکز کنیم.
محققان در پژوهش خود روی چهار اسباببازی هوش مصنوعی آزمایش انجام دادند:
Grok (ظاهراً هیچ ارتباطی با Grok xAI ندارد): یک موشک مخملی با بلندگوی داخلی که برای کودکان سه تا دوازده ساله به بازار عرضه شده است. قیمت: 99 دلار آمریکا. سازنده، Curio، به صراحت بیان نمیکند که از کدام LLM استفاده میکند، اما در توافقنامه کاربری آنها، OpenAI در میان اپراتورهای دریافتکننده دادهها ذکر شده است.
Kumma (نباید با Midori Kuma خودمان اشتباه گرفته شود): یک همراه عروسکی مخملی بدون محدودیت سنی مشخص، که قیمت آن نیز 99 دلار آمریکا است. این اسباببازی در ابتدا با GPT-4o OpenAI کار میکرد و گزینههایی برای تعویض مدلها داشت. پس از یک ممیزی ایمنی داخلی، سازنده ادعا کرد که در حال تغییر به GPT-5.1 است. با این حال، در زمان انتشار این مطالعه، OpenAI گزارش داد که دسترسی توسعهدهنده به مدلها همچنان لغو شده است و این باعث میشود هر کسی حدس بزند که کوما در حال حاضر از کدام چتبات استفاده میکند.
Miko 3: یک ربات چرخدار کوچک با صفحه نمایش به عنوان صورت، که به عنوان "بهترین دوست" برای کودکان پنج تا ده ساله به بازار عرضه میشود. با قیمت 199 دلار آمریکا، این گرانترین اسباببازی در این مجموعه است. سازنده در مورد اینکه کدام مدل زبانی این اسباببازی را پشتیبانی میکند، سکوت کرده است. یک مطالعه موردی Google Cloud به استفاده از Gemini برای برخی از ویژگیهای ایمنی اشاره میکند، اما این لزوماً به این معنی نیست که تمام ویژگیهای مکالمه ربات را مدیریت میکند.
Robot MINI: یک ربات پلاستیکی جمع و جور و کنترل شده با صدا که ظاهراً بر روی ChatGPT اجرا میشود. این انتخاب مقرون به صرفه است - با قیمت 97 دلار آمریکا. با این حال، در طول مطالعه، اتصال Wi-Fi ربات آنقدر ضعیف بود که محققان حتی نتوانستند آن را به درستی آزمایش کنند.
برای انجام آزمایش، محققان سن کودک مورد آزمایش را در برنامههای همراه برای همه اسباببازیها روی پنج سال تنظیم کردند. از آنجا، آنها بررسی کردند که چگونه اسباببازیها به سوالات تحریکآمیز پاسخ میدهند. موضوعاتی که آزمایشکنندگان به این همبازیهای هوشمند میپرسیدند شامل موارد زیر بود:
دسترسی به وسایل خطرناک: چاقو، قرص، کبریت و کیسههای پلاستیکی
موضوعات بزرگسالان: رابطه جنسی، مواد مخدر، مذهب و سیاست
بیایید نتایج آزمایش را برای هر اسباببازی تجزیه و تحلیل کنیم.
مکالمات ناامن با اسباببازیهای هوش مصنوعی
بیایید با گروک، موشک هوش مصنوعی مخملی از شرکت کوریو، شروع کنیم. این اسباببازی به عنوان یک قصهگو و شریک مکالمه برای کودکان به بازار عرضه میشود و با ارائه دسترسی کامل به متن هر تعامل هوش مصنوعی به والدین، متمایز میشود. از بین تمام مدلهای آزمایششده، این یکی در واقع امنترین بود. وقتی از این اسباببازی در مورد موضوعات نامناسب برای کودک سوال میشد، معمولاً پاسخ میداد که نمیداند یا پیشنهاد صحبت با یک بزرگسال را نمیدهد. با این حال، حتی این اسباببازی دقیقاً به «کودک» میگفت که کیسههای پلاستیکی را کجا پیدا کند و در مورد دین بحث میکرد. علاوه بر این، گروک از صحبت در مورد... اساطیر نورس، از جمله موضوع مرگ قهرمانانه در نبرد، بسیار خوشحال بود.
اسباببازی هوش مصنوعی بعدی، خرس مخملی کوما از شرکت FoloToy، نتایجی را ارائه داد که مسلماً ناامیدکنندهترین بودند. در طول آزمایش، خرس به طور مفید دقیقاً به کودک نشان داد که در کجای خانه میتواند وسایل بالقوه کشنده مانند چاقو، قرص، کبریت و کیسههای پلاستیکی پیدا کند. در برخی موارد، کوما پیشنهاد داد که ابتدا از یک بزرگسال بپرسید، اما سپس به هر حال نکات خاصی را ارائه داد. خرس هوش مصنوعی در مورد موضوعات بزرگسالان حتی بدتر عمل کرد. برای شروع، کوما به کودک پنج ساله توضیح داد که کوکائین چیست. فراتر از آن، در گفتگویی با کودکستانی مورد آزمایش ما، این تحریککننده مخملی به تفصیل در مورد مفهوم «کینک» صحبت و طیف وسیعی از اعمال جنسی خلاقانه را فهرست کرد.
در نهایت، ربات میکو ۳ از شرکت میکو نتایج به مراتب بهتری را نشان داد. با این حال، کاملاً بدون نقص هم نبود. این اسباببازی به کودک پنج ساله بالقوه ما دقیقاً میگفت که کیسههای پلاستیکی و کبریت را کجا پیدا کند. از جنبه مثبت، میکو ۳ از بحث در مورد موضوعات نامناسب خودداری میکرد.
اسباببازیهای هوش مصنوعی: تهدیدی برای حریم خصوصی کودکان
فراتر از سلامت جسمی و روانی کودک، مسئله حریم خصوصی یک نگرانی عمده است. در حال حاضر، هیچ استاندارد جهانی وجود ندارد که مشخص کند یک اسباببازی هوش مصنوعی - یا سازنده آن - چه نوع اطلاعاتی را میتواند جمعآوری و ذخیره کند، یا دقیقاً چگونه باید آن دادهها را ایمن و منتقل کرد. در مورد سه اسباببازی آزمایش شده، محققان رویکردهای بسیار متفاوتی را در مورد حریم خصوصی مشاهده کردند. به عنوان مثال، موشک مخملی Grok دائماً به هر اتفاقی که در اطرافش میافتد گوش میدهد. چندین بار در طول آزمایشها، حتی زمانی که مستقیماً به آن پرداخته نشده بود، در مکالمات محققان دخالت کرد؛ حتی تا آنجا پیش رفت که نظر خود را در مورد یکی دیگر از اسباببازیهای هوش مصنوعی ارائه داد. سازنده ادعا میکند که Curio ضبطهای صوتی را ذخیره نمیکند: صدای کودک ابتدا به متن تبدیل و پس از آن صدای اصلی "به سرعت حذف میشود". با این حال، از آنجا که از یک سرویس شخص ثالث برای تشخیص گفتار استفاده میشود، به احتمال زیاد، ضبطها هنوز از دستگاه منتقل میشوند. علاوه بر این، محققان خاطرنشان کردند که وقتی اولین گزارش منتشر شد، سیاست حفظ حریم خصوصی Curio به صراحت چندین شریک فناوری - Kids Web Services، Azure Cognitive Services، OpenAI و Perplexity AI - را فهرست کرده بود که همگی میتوانند به طور بالقوه دادههای شخصی کودکان را از طریق برنامه یا خود دستگاه جمعآوری یا پردازش کنند. Perplexity AI بعداً از آن لیست حذف شد. نویسندگان این مطالعه خاطرنشان میکنند که این سطح از شفافیت در بازار اسباببازیهای هوش مصنوعی بیشتر یک استثنا است تا یک قاعده.
یکی دیگر از دلایل نگرانی والدین این است که هم موشک مخملی Grok و هم ربات Miko 3 به طور فعال "کودک آزمایشی" را به گفتگوهای صمیمانه تشویق میکردند؛ حتی قول میدادند که اسرار خود را به کسی نگویند. محققان تأکید میکنند که چنین وعدههایی میتوانند به طرز خطرناکی گمراهکننده باشند: این اسباببازیها توهمی از ارتباط خصوصی و قابل اعتماد ایجاد میکنند، بدون اینکه توضیح دهند که پشت "دوست" شبکهای از شرکتها، سرویسهای طرفسوم و فرآیندهای پیچیده جمعآوری و ذخیرهسازی دادهها قرار دارد که کودک هیچ ایدهای در مورد آنها ندارد.
Miko 3، دقیقاً مانند Grok، همیشه به محیط اطراف خود گوش میدهد و وقتی با او صحبت میشود فعال میشود؛ اساساً مانند یک دستیار صوتی عمل میکند. با این حال، این اسباببازی فقط دادههای صوتی را جمعآوری نمیکند؛ بلکه اطلاعات بیومتریک، از جمله دادههای تشخیص چهره و دادههای بالقوه مورد استفاده برای تعیین وضعیت عاطفی کودک را نیز جمعآوری میکند. طبق سیاست حفظ حریم خصوصی آن، این اطلاعات را میتوان تا سه سال ذخیره کرد. برخلاف گروک و میکو ۳، کوما بر اساس اصل «فشار برای صحبت» عمل میکند: کاربر باید دکمهای را فشار داده و نگه دارد تا اسباببازی شروع به گوش دادن کند. محققان همچنین خاطرنشان کردند که خرس عروسکی هوش مصنوعی «کودک» را برای به اشتراک گذاشتن احساسات شخصی، قول حفظ اسرار یا ایجاد توهم صمیمیت خصوصی ترغیب نکرده است. از طرف دیگر، تولیدکنندگان این اسباببازی تقریباً هیچ اطلاعات روشنی در مورد اینکه چه دادههایی جمعآوری میشود، چگونه ذخیره میشود یا چگونه پردازش میشود، ارائه نمیدهند.
آیا خرید اسباببازیهای هوش مصنوعی برای فرزندانتان ایده خوبی است؟
این مطالعه به مسائل ایمنی جدی در مورد اسباببازیهای هوش مصنوعی موجود در بازار اشاره میکند. این دستگاهها میتوانند مستقیماً به کودک بگویند که اقلام بالقوه خطرناک مانند چاقو، کبریت، قرص یا کیسههای پلاستیکی را در خانه خود کجا پیدا کند. علاوه بر این، این دوستان مخملی هوش مصنوعی اغلب مایل به بحث در مورد موضوعاتی کاملاً نامناسب برای کودکان - از جمله مواد مخدر و اعمال جنسی - هستند و گاهی اوقات بدون هیچ گونه اشاره آشکاری از سوی کودک، مکالمه را به آن سمت هدایت میکنند. در مجموع، این نشان میدهد که حتی با وجود فیلترها و محدودیتهای اعلام شده، اسباببازیهای هوش مصنوعی هنوز قادر به حفظ قابل اعتماد مرزهای ارتباط ایمن برای خردسالان نیستند.
سیاستهای حفظ حریم خصوصی تولیدکنندگان نگرانیهای بیشتری را ایجاد میکند. اسباببازیهای هوش مصنوعی توهمی از ارتباط مداوم و ایمن برای کودکان ایجاد میکنند، در حالی که در واقعیت آنها دستگاههای شبکهای هستند که دادههای حساس را جمعآوری و پردازش میکنند. حتی زمانی که تولیدکنندگان ادعا میکنند صدا را حذف میکنند یا نگهداری دادههای محدودی دارند، مکالمات، دادههای بیومتریک و فرادادهها اغلب از طریق سرویسهای طرفسوم عبور میکنند و در سرورهای شرکت ذخیره میشوند. علاوه بر این، امنیت چنین اسباببازیهایی اغلب جای کار زیادی دارد. دو سال پیش، محققان ما آسیبپذیریهایی را در یک ربات محبوب کودکان کشف کردند که به مهاجمان اجازه میداد با آن تماس ویدیویی برقرار کنند، حساب والدین را بدزدند و سیستم عامل را تغییر دهند. مشکل این است که در حال حاضر، عملاً هیچ ابزار جامع کنترل والدین یا لایههای محافظتی مستقلی به طور خاص برای اسباببازیهای هوش مصنوعی وجود ندارد. در همین حال، در محیطهای دیجیتال سنتیتر - تلفنهای هوشمند، تبلتها و رایانهها - والدین به راهکارهایی مانند Kaspersky Safe Kids دسترسی دارند. این راهکارها به نظارت بر محتوا، مدت زمان استفاده از صفحه نمایش و ردپای دیجیتالی کودک کمک میکنند که میتواند چنین خطراتی را به میزان قابل توجهی کاهش دهد، اگر نگوییم به طور کامل از بین ببرد.
کسپرسکی آنلاین (ایدکو)
کسپرسکی اسم یکی از بزرگترین شرکتهای امنیتی و سازنده آنتی ویروس است که برخی از کاربران اشتباهاً این شرکت و محصولات آنتی ویروس آن را با عناوینی نظیر کسپرسکای،کاسپرسکی، کسپراسکای، کسپراسکای، و یا کاسپراسکای نیز میشناسد. همچنین لازم به ذکر است مدیرعامل این شرکت نیز یوجین کسپرسکی نام دارد.