روابط عمومی شرکت ایدکو (توزیعکنندهی محصولات کسپرسکی در ایران)؛ در طول 18 ماه گذشته گویی دیگر تواناییمان را در تشخیص درستی چیزی که به چشم میبینیم از دست دادهایم. البته فتوشاپهای تقلبی جدید نیستند اما ورود هوش مصنوعی، ماجرای جعل و تقلب به سطح و شکل جدیدی به خود گرفته است. شاید اولین مورد فیک که وایرال شد تصویر سال 2023 پاپ بود که پافر سفیدرنگ به تن داشت اما از آن تاریخ به بعد تعداد گولزنکهای بصری دارد بیشتر و بیشتر میشود. با توجه به رشد و پیشرفت بیشتر هوش مصنوعی میتوان در آینده نزدیک شاهد ویدیوهای فیک واقعیتر و متقاعدکنندهتر بود. جعل تصویر و ویدیو تأثیر مستقیم بر امنیت سایبری دارد. اسکمرها برای فریب قربانیان سالهاست دست به جعل تصویر و ویدیو میزنند و از این راه مردم را تلکه میکنند. آنها ممکن است تصویر یک توله سگ غمگین را که به ادعایشان به کمک نیاز دارد، تصویر یک فرد مشهور که برخی از طرحهای مشکوک را تبلیغ میکند، یا حتی تصویری از کارت اعتباری که میگویند متعلق به کسی است که شما میشناسید برایتان بفرستند. آنها برای گربهماهگری[1] روی سایتهای دوستیابی و رسانههای اجتماعی برای پروفایلهایشان از تصاویر تولیدشده توسط هوش مصنوعی استفاده میکنند. پیچیدهترین اسکمها ویدیوها و فایلهای صوتی دیپفیک رئیس یا خویشاوندان قربانی استفاده میکنند تا بدینترتیب بتوانند آنها را مجبور به اطاعت از دستورات خود کنند. همین اواخر، کارمند یک موسسه مالی فریب داده شد و 25 میلیون دلار دو دستی تقدیم مجرمان سایبری کرد. آنها یک تماس ویدیویی فیک با CFO و همکاران قربانی برقرار کرده بودند (آنقدر طبیعی که کسی شک نکرده بود!) پس برای مقابله با دیپ فیک یا جعل ساده چه میتوان کرد؟ چگونه میتوان آنها را شناسایی کرد؟ این مشکلی است بس پیچیده که اما با ردیاب منشاء تصویر میشود پله پله حلش کرد. با ما همراه باشید.
صبر کنید... من این را قبلاً ندیده بودم؟
همانطور که بالاتر گفتیم انواع مختلفی از تقلبی بودن وجود دارد. گاهی خود تصویر جعلی نیست اما به روش منحرفکنندهای استفاده شده است. شاید عکسی واقعی از یک منطقه جنگی به عنوان درگیری دیگر منتقل شود، یا صحنهای از یک فیلم به عنوان فیلم مستند ارائه گردد.
در این موارد، جستجوی ناهنجاریها در خود تصویر کمک چندانی نمیکند، اما میتوانید کپیهایی از تصویر را به صورت آنلاین جستجو کنید. خوشبختانه، ما ابزارهایی مانند Google Reverse Image Search و TinEye داریم که میتوانند به ما در انجام این کار کمک کنند. اگر به یک تصویر شک دارید، کافی است آن را در یکی از این ابزارها آپلود کنید و ببینید چه چیزی پیش میآید. ممکن است متوجه شوید همان تصویر خانوادهای که در اثر آتشسوزی بیخانمان شده بودند، یا گروهی از سگ های پناهگاه، یا قربانیان یک فاجعه دیگر، سالهاست که در فضای مجازی دست به دست شده است. اتفاقاً وقتی صحبت از جمعآوری کمکهای مالی کاذب می شود، علاوه بر خود تصاویر، باید مراقب چند پرچم قرمز دیگر نیز باشید.
فتوشاپ شده؟ بزودی سر در میآوریم!
از آنجایی که فتوشاپ مدتهاست وجود دارد، ریاضیدانان، مهندسین و متخصصین تصویر مدتهاست که روی روشهایی برای تشخیص خودکار تصاویر تغییر یافته کار میکنند. برخی از روشهای رایج عبارتند از تجزیه و تحلیل فراداده تصویر و تجزیه و تحلیل سطح خطا ELA)) که برای شناسایی بخشهای تغییر یافته تصویر، مصنوعات فشردهسازی JPEG را بررسی میکند. بسیاری از ابزارهای رایج تجزیه و تحلیل تصویر، مانند Fake Image Detector، از این تکنیک ها استفاده میکنند.
با ظهور هوش مصنوعی مولد، ما همچنین شاهد روشهای جدید مبتنی بر هوش مصنوعی برای تشخیص محتوای تولید شدهایم، اما هیچکدام از آنها کامل نیستند. در اینجا برخی از پیشرفتهای مربوطه آمده است: تشخیص شکل گیری چهره. تشخیص تصاویر تولید شده توسط هوش مصنوعی و تعیین مدل هوش مصنوعی مورد استفاده برای تولید آنها. و یک مدل هوش مصنوعی باز برای اهداف مشابه. با تمام این رویکردها، مشکل کلیدی این است که هیچ کدام به شما اطمینان 100٪ در مورد منشأ تصویر نمیدهد، تضمین میکند که تصویر بدون تغییرات است، یا امکان تأیید چنین تغییراتی را فراهم نمیکند.
تایید منشأ محتوا
آیا اگر راه آسانتری برای بررسی واقعی بودن یک تصویر برای کاربران عادی وجود داشته باشد، عالی نمیشود؟ تصور کنید که روی یک عکس کلیک کردید و چیزی شبیه این را دیدید: "جان این عکس را با آیفون در 20 مارس گرفت"، "کادر را کراپ کرد و روشنایی را در 22 مارس افزایش داد"، "پیتر دوباره این تصویر را با فشرده سازی بالا در 23 مارس ذخیره کرد. "، یا "هیچ تغییری ایجاد نشد" - و جعل همه این دادهها غیرممکن است. مثل خواب است نه؟ خوب، این دقیقاً همان چیزی است که ائتلاف برای منشأ و اعتبار محتوا C2PA) ) به دنبال آن است. C2PA شامل برخی از بازیگران اصلی از صنایع کامپیوتر، عکاسی و رسانه میشود: Canon، Nikon، Sony، Adobe، AWS، Microsoft، Google، Intel، BBC، Associated Press، و حدود صد عضو دیگر - اساساً هر شرکتی که تکی میتوانسته تا حد زیادی در هر مرحلهای از زیست تصویر از زمان خلق تا انتشار آنلاینش مشارکت داشته باشد. استاندارد C2PA توسعه یافته توسط این ائتلاف در حال حاضر وجود دارد و حتی به نسخه 1.3 رسیده است، و اکنون ما شروع به دیدن قطعات پازل صنعتی لازم برای استفاده از آن کردهایم. نیکون در حال برنامهریزی برای ساخت دوربین های سازگار با C2PA است و بی بی سی قبلاً اولین مقالات خود را با تصاویر تأیید شده منتشر کرده است. ایده این است که وقتی رسانههای مسئول و شرکتهای بزرگ به انتشار تصاویر به شکل تأیید شده روی میآورند، میتوانید منشأ هر تصویر را مستقیماً در مرورگر بررسی کنید. یک برچسب کوچک "تصویر تایید شده" را میبینید، و هنگامی که روی آن کلیک میکنید، پنجرهای بزرگتر ظاهر میشود که به شما نشان میدهد چه تصاویری به عنوان منبع استفاده شدهاند و چه ویرایشهایی در هر مرحله قبل از ظاهر شدن تصویر در مرورگر انجام شده است، توسط چه کسی و چه زمانی حتی میتوانید تمام نسخههای میانی تصویر را ببینید. این رویکرد فقط برای دوربینها نیست؛ میتواند برای سایر روشهای آفرینش عکس نیز کار کند. سرویسهایی چون Dall-E و Midjourney همچنین میتوانند روی خلقهای خود برچسب بزنند. فرآیند تأیید مبتنی بر رمزنگاری کلید عمومی است که مشابه حفاظتی است که در گواهیهای وب سرور برای ایجاد یک اتصال HTTPS امن استفاده میشود.ایده این است که هر سازنده تصویر - چه Joe Bloggs با نوع خاصی از دوربین باشد، چه آنجلا اسمیت با مجوز فتوشاپ - باید گواهی X.509 را از یک مرجع گواهی معتبر دریافت کند. این گواهی را میتوان مستقیماً در کارخانه به دوربین متصل کرد، در حالیکه برای محصولات نرمافزاری میتوان آن را پس از فعالسازی صادر کرد.هنگام پردازش تصاویر با ردیابی منشأ، هر نسخه جدید فایل حاوی مقدار زیادی اطلاعات اضافی است: تاریخ، زمان، و مکان ویرایشها، تصاویر کوچک نسخه اصلی و ویرایش شده و غیره. همه اینها به صورت دیجیتالی توسط نویسنده یا ویرایشگر تصویر امضا میشود.به این ترتیب، یک فایل تصویر تایید شده دارای زنجیرهای از تمام نسخههای قبلی خود خواهد بود که هر کدام توسط شخصی که آن را ویرایش کرده است امضا میکند. نویسندگان مشخصات و قابلیتها همچنین به ویژگیهای حفظ حریم خصوصی توجه کافی داشتند. گاهی اوقات روزنامه نگاران نمیتوانند منابع خود را فاش کنند. برای چنین موقعیتهایی، نوع خاصی از ویرایش به نام «تغییر» وجود دارد. این به کسی اجازه میدهد برخی از اطلاعات مربوط به سازنده تصویر را با صفر جایگزین و سپس آن تغییر را با گواهینامه خود امضا کند. برای نمایش قابلیت های C2PA، مجموعهای از تصاویر و ویدئوهای آزمایشی ایجاد شده است. برای مشاهده اعتبارنامه، تاریخچه ایجاد و تاریخچه ویرایش این تصاویر می توانید به وبسایت Content Credentials مراجعه کنید.
محدودیتهای طبیعی
متأسفانه امضاهای دیجیتال برای تصاویر یک شبه نمیتواند مشکلات جعلبودگی را حل کند. از اینها گذشته همین الانش میلیاردها تصویر آنلاین وجود دارد که هیچکس امضایشان نکرده. با این وجود با معتبرتر شدن هر چه بیشتر منابع اطلاعات و سوئیچشان به انتشار فقط به سمت تصاویر امضاشده، هر عکس بدون امضای دیجیتال مشکوک تلقی خواهد شد. عکسها و ویدیوهای واقعی با برچسبهای زمانی و دادههای موقعیت مکانی تقریباً محال است جای چیزی دیگری قالب شوند و بدینترتیب محتوای تولیدشده توسط هوش مصنوعی را خیلی راحتتر میشود مورد شناسایی قرار داد.
[1]یک فعالیت فریبکارانه است که در آن یک شخص یک شخصیت خیالی یا هویت جعلی را در یک سرویس شبکه اجتماعی ایجاد میکند که معمولاً قربانی خاصی را هدف قرار میدهد. این عمل ممکن است برای منفعت مالی، به خطر انداختن قربانی به نوعی، به عنوان راهی برای ناراحت کردن عمدی قربانی یا برای برآورده کردن یک آرزو استفاده شود. برنامههای تلویزیونی که در این زمینه تولید شده است که اغلب قربانیانی را نشان میدهد که میخواهند گربهماهی خود را شناسایی کنند
منبع: کسپرسکی آنلاین (ایدکو)
کسپرسکی اسم یکی از بزرگترین شرکتهای امنیتی و سازنده آنتی ویروس است که برخی از کاربران اشتباهاً این شرکت و محصولات آنتی ویروس آن را با عناوینی نظیر کسپرسکای،کاسپرسکی، کسپراسکای، کسپراسکای، و یا کاسپراسکای نیز میشناسد. همچنین لازم به ذکر است مدیرعامل این شرکت نیز یوجین کسپرسکی نام دارد.