روابط عمومی شرکت ایدکو (توزیع کننده محصولات کسپرسکی در ایران)؛ با وجود اینکه پیرامون مبحث فناوری هوش مصنوعی (AI) به معضلات مختلفی پرداختهایم، مردم همچنان مسائل مهم و حیاتی را به دست دستیارهای ربات میسپارند. سیستمهای خود-یادگیر (Self-learning) همین الانش هم دارند به قضات و پزشکان در تصمیمگیریهایشان کمک میکنند... آنها حتی میتوانند جرم و جنایتهایی را که هنوز به مرحلهی ارتکاب نرسیدند نیز پیشبینی کنند. با این حال کاربران چنین سیستمهایی اغلب نمیدانند این سیستمها چطور به چنین نتیجهگیریهایی میرسند.
همه بلند شوید، دادگاه اکنون شروع شده است
دادگاههای آمریکا در تصمیمگیریهایی مربوط به اجرای حکم، اقدامات پیشگیرانه و تخفیف در مجازات از فناوری هوش مصنوعی کمک میگیرند. سیستم مجهز به فناوری هوش مصنوعی بعد از بررسی اطلاعات مربوطه، متوجه میشود که آیا مظنون احتمال دارد دوباره دست به جرم و جنایت بزند یا خیر. سپس این تصمیم میتواند از مرحلهی آزمایشی به حکمی واقعی تبدیل شده و یا به وثیقه گذاشتن ختم شود.
برای مثال، اریک لومیس -شهروند آمریکا- به جرم رانندگی با ماشینی که از آن در یک تیراندازی استفاده شده بود -و لومیس آن را به پلیس اطلاع نداده بود- به 6 سال زندان محکوم شد. این حکم بر اساس الگوریتم COMPAS صادر شده بود؛ که خطری که هر فرد روی جامعه اعمال میکند را مورد ارزیابی قرار میدهد. این الگوریتم در واقع مشخصاً احتمال ارتکاب مجدد یک فرد به جرم را مورد بررسی قرار میدهد. لومیس قاضی را برای استفاده از COMPAS به چالش کشید، زیرا بر خلاف سایر شواهدی که علیه او استفاده شده بود، وکیل او نمیتوانست به طور موشکافانهای به بررسی پرونده بپردازد. بدینترتیب محدودیتهای مختلف این الگوریتم یک به یک رو شد. با این حال دادگاه این استدلال را رد کرد.
پیشگوهای الکترونیکی: پیشبینی جرم بر مبنای فناوری هوش مصنوعی
برخی مناطق چین نیز حتی از این مرحله فراتر رفتهاند... آنها در واقع برای شناسایی مجرمان احتمالی از هوش مصنوعی استفاده میکنند. دوربینهای تشخیص چهره افراد را تحت نظارت قرار داده و بعد به مقامات قضایی گزارش خواهند داد که آیا به مورد مشکوکی برخوردهاند یا نه. برای مثال، کسیکه مقدار زیادی کود خریداری میکند میتواند بالقوه مجرمی باشد که دارد خود را برای یک حملهی تروریستی آماده میکند. بدینترتیب هر کسی مشکوک به نظر میرسید میتواند براحتی دستگیر شده و یا به کمپ بازپروری فرستاده شود.
فناوریِ پیش از جرم نیز در سایر کشورها مورد استفاده قرار میگیرد. نیروهای پلیسِ برخی قسمتهای آمریکا و بریتانیا از این فناوری برای پیشبینی محل حادثهی بعدی (که بالاترین میزان احتمال را دارد) استفاده میکنند. خیلی از عوامل در این پیشبینی دخیلاند: سابقهی جرم و جنایتهای آن محل، وضعیت اجتماعی اقتصادی آن و حتی پیشبینی وضعیت آب و هوا. از زمانیکه این ابزار در مناطق شیکاگو مورد استفاده قرار گرفته است، جرم و جنایتهای مربوط به حمل اسلحه به یکسوم تقلیل یافته است.
نگاه کامپیوتر به شما
فناوریهای جدید همچنین به طور گستردهای در حوزهی مراقبتهای بهداشتی به کار گرفته میشوند. پزشکان مصنوعی به بیماران مشاوره میدهند ؛ علایم بیماری آنها را تشخیص میدهند؛ نتایج چکآپها را تحلیل میکنند و همچنین در برخی از عملهای جراحی به جراحان کمک میکنند.
یکی از شناختهشدهترین سیستمهای خود-یادگیر در بخش مراقبتهای بهداشتی IBM Watson Health است. پزشکان، فناوری مصنوعی را در شناسایی علایم و تجویز نسخههای درمانی تربیت میکنند. Watson Health تا کنون بازخوردهای بسیار مثبتی را دریافت کرده است. برای مثال سال 2013، احتمال اینکه این ابرکامپیوتر برنامه درمان بهینه را انتخاب کند 90 درصد بود.
با این حال، تابستان 2018 کاشف به عمل آمد که برخی از توصیههای مربوط به درمان سرطان در این سیستم، توصیههایی نامطمئن بودهاند. خصوصاً اینکه Watson به یکی از بیماران سرطانی که خونریزی شدیدی داشت دارویی داده بود که حتی موجب خونریزی بیشتر هم میشد. خوشبختانه این سناریوها همه فرضی بودند و در موارد واقعی به کار گرفته نشدند.
به طور حتم از پزشکان واقعی (انسان) هم خطا سر میزند اما وقتی پای فناوری هوش مصنوعی به میان میآید دیگر مرز بین مسئولیت و بی مسئولیتی از بین میرود. آیا یک دکترِ انسان این ریسک را میکند که با همکار دیجیتالی خود مخالفت کند؟ همکاری دیجیتالیای که سازندگانش صدها هزار مقاله علم و کتاب توی سرش فرو کردهاند؟ اگر نه، آیا پزشکان واقعی پیامدهای منفی را گردن خواهند گرفت؟
هوش مصنوعی باید شفافسازی شود
یکی از مشکلات عمدهی استفاده از فناوری هوش مصنوعی، مبهم و غیرشفاف بودن الگوریتمهاست. بدین معنا که خیلی سخت میشود ریشهی خطاها را در آن پیدا کرد و از همین رو، جلوگیری از بروز مجدد چنین خطاهایی نیز به مراتب سختتر خواهد شد. از نقطهنظر سازندگان سیستمهای ماشینهای خودیادگیر، این مشکل قابلدرک است: چه کسی دوست دارد راه و چاه رقبای احتمالی را به اشتراک بگذارد؟ اما وقتی بحث جان مردم در میان باشد آیا اساساً مقدم دانستن راز و رمزهای تجاری کار اخلاقی و انسانیای است؟
سیاستمداران سراسر کشور سعی دارند فناوری هوش مصنوعی را به طور قابل توجهی شفافتر کنند. در اتحادیهی اروپا "سوژههای اطلاعاتی" این حق را دارند که بدانند بر چه مبنایی تصمیمگیریهای مبتنی بر هوش مصنوعی گرفته میشوند. ژاپن هم دارد همین مسیر را طی میکند اما قوانین مربوطهی آن همچنان در دست بررسی است.
برخی از توسعهدهندگان هم هستند که طرفدار شفافسازیاند اما تعدادشان خیلی کم است. یکی از آنها شرکتی است به نام CivicScape که در سال 2017 کد منبع سیستم پیشبینیگر خود را منتشر کرد. اما این موارد جزو استثناها هستند و هنوز قانونی برای این کار مصوب نشده است.
حالا که دیگر مزهی استفاده از هوش مصنوعی زیر دندانها رفته، خیلی سخت بتوان سناریو را به حالت قبل بازگرداند. بدینمعنا که تا وقتی تصمیمگیریهای مبتنی بر هوش مصنوعی تا حدی منصفانه و دقیق شود، کاربرد این فناوری باید همچنان زیر نظر مقامات انسانی قرار گیرد.
منبع: کسپرسکی آنلاین (ایدکو)
کسپرسکی اسم یکی از بزرگترین شرکتهای امنیتی و سازنده آنتی ویروس است که برخی از کاربران اشتباهاً این شرکت و محصولات آنتی ویروس آن را با عناوینی نظیر کسپرسکای،کاسپرسکی، کسپراسکای، کسپراسکای، و یا کاسپراسکای نیز میشناسد. همچنین لازم به ذکر است مدیرعامل این شرکت نیز یوجین کسپرسکي نام دارد.