اعتراف: صفحات فیشینگ با فناوری LLM ساخته می‌شوند

15 آبان 1403 اعتراف: صفحات فیشینگ با فناوری LLM ساخته می‌شوند

روابط عمومی شرکت ایدکو (توزیع‌کننده‌ی محصولات کسپرسکی در ایران)؛ مبحثی که دائم در رابطه با گسترس فناوری LLM مورد پژوهش قرار می‌گیرد، ارتقای قابلیت است- وقتی است که کارمندان در برخی حوزه‌ها منابع یا تجربه‌ی محدودی دارند و بدین‌ترتیب قادر می‌شوند به لطف LLM در سطح بالاتری ایفای نقش کنند. این خصوصاً در حوزه امنیت اطلاعات نمود پیدا می‌کند؛ جایی که حملات سایبری روز به روز مقرون به صرفه‌تر می‌شوند و مقیاس‌شان بزرگ‌تر و در نتیجه کل تیم امنیتی به دردسر می‌افتد. از میان ابزارهای دیگر، مهاجمین از LLMها برای تولید محتوای وبسایت‌های فیک استفاده می‌کنند. چنین سایت‌هایی از سازمان‌های معتبر تقلید می‌‌کنند -از شبکه‌های اجتماعی گرفته تا بانک‌ها- تا از قربانیان اطلاعات استخراج کنند (فیشینگ کلاسیک) یا بتوانند وانمود کنند فروشگاه‌های برندهای معروف هستند تا بدینوسیله با تخفیف روی محصولات (محصولاتی که هرگز به دست فرد نمی‌رسد) افراد را فریب دهند.

مهاجمین به مدد LLMها می‌توانند صفر تا صد کار درست کردن صفحات وبی را با انواع و اقسام محتوا اتوماسیون کنند. پیشتر، برخی تسک‌های خاص را می‌شد اتوماتیک کرد مانند تولید و ثبت نام دامنه، بدست آوردن گواهی‌نامه‌ها و موجود کردن سایت‌ها از طریق سرویس‌های میزبانی. اما اکنون به لطف LLMها اسکمرها می‌توانند محتوای به شدت کیفیت بالا و خاص را (بسیار بالاتر از سطح مترادف‌سازها) تولید کنند. این مشخصاً شناسایی را سخت می‌کند (با استفاده از قوانین مبتنی بر برخی عبارات). شناسایی صفحات تولیدشده با LLM نیازمند سیستمی است برای تحلیل متاداده یا ساختار صفحه و یا رویکردهایی مانند یادگیری ماشین. اما LLM همیشه هم عالی و بی‌نقص عمل نمی‌کند پس اگر مقیاس اتوماسیون بزرگ‌ و یا سطح کنترل پایین باشد، می‌توانند از خود باگ‌های بارزی نشان دهند. چنین عباراتی، که اخیراً همه‌جا از نظرات کاربری در بازار گرفته تا مقالات آکادمیک، و نیز تگ‌های بجای مانده از ابزارهای LLM را پر کرده است، در این مرحله از توسعه به مهاجمین امکان می‌دهد برای اتوماسیون کلاهبرداری از LLM استفاده شود.

معذرت می‌خواهم اما...

یکی از واضح‌ترین نشانه‌های متن تولیدشده با LLM، عذرخواهی‌های اول شخص و امتناع از پیروی دستورالعمل‌هاست. برای مثال کمپین اصلی که کاربران رمزارز را تارگت قرار می‌دهند دارای صفحاتی است که در آن‌ا مدل با معذرت اولیه خود را لود می‌دهد و بعد برای پلت‌فرم تجاری محبوب Crypto[.]com دستورالعمل‌ها را شبیه‌سازی می‌کند.

این مثال خاص در gitbook[.]io میزبانی می‌شود. علاوه بر عذرخواهی، استفاده از حروف ɱ و Ĺ در "Crypto.coɱ Ĺogin"  هم باگ کار است. روی صفحه دیگر که کاربران کیف‌پول Metamask  را هدف قرار داده بود و  webflow[.]io آن را میزبانی می‌کرد پاسخ LLMای دریافت کردیم:

من از پاسخ قبلی عذرخواهی می کنم که الزامات تعداد کلمات شما را برآورده نمی‌کند.

این پاسخ جالبی است زیرا نشان می‌دهد اولین پاسخی در چت با این مدل زبانی نبوده است. این یعنی یا سطح پایین‌تری از اتوماسیون (مهاجم مقاله‌ای را درخواست داده، دیده کوتاه است و درخواست مقاله بلندتری کرده و همه اینها در یک سشن اتفاق افتاده) رقم خورده و یا در خط اتوماسیون، چک‌کننده طول متن وجود داشته و همین یعنی پاسخ‌های بیش از حد کوتاه، مشکلی رایج بوده‌اند. دومی احتمالش بیشتر است زیرا اگر انسان متن را قالب‌بندی کرده بود، این عذرخواهی به سختی در داخل تگ قرار می‌گرفت.

مصنوعات تنها در متن صفحه وب ظاهر نمی‌شوند. در یک صفحه با تقلید از صرافی رمزنگاری STON[.]fi، عذرخواهی‌های LLM در متا تگ‌ها ظاهر شدند:

متأسفم، اما من اطلاعات کافی برای ایجاد یک متا توضیحات مفید بدون کلمات کلیدی هدف واضح ندارم. آیا می‌توانید کلمات کلیدی خاصی را که می‌خواهید در آن بگنجانم، ارائه دهید؟ خوشحال می شوم وقتی این جزئیات را داشته باشم، یک متا توضیحات جذاب و سازگار با سئو ایجاد کنم. فقط هر زمان که آماده بودید، کلمات کلیدی را ارسال کنید.

LLMها می‌توانند نه تنها برای تولید بلاک‌های متنی که همچنین برای کل صفحات وبی استفاده شوند. در صفحه‌ای که از سایت Polygon تقلید می‌کند (میزبانی‌شده در  github[.]io روی زیردامنه‌ای مشابه با کلمه bolygon) پیامی نمایش داده می شود که می‌گوید مدل از محدوده کاراکتر مجاز خود فراتر رفته:

کاربران می توانند به محدوده وسیعی دسترسی داشته باشند. توجه نویسنده: پوزش می طلبم، اما به نظر می‌رسد که پاسخ قطع شده است. به عنوان یک مدل زبان، من محدود به ایجاد پاسخ هایی در محدوده کاراکتر معین هستم.

افزون بر این، تگ‌های سرویس این صفحه حاوی لینک‌هایی هستند به سرویس تولید وبسایت مبتنی بر LLM که صفحاتی بر اساس شرح متن می‌سازد. در مثالی دیگر، روی پیج طعمه کلیک بزرگسالان که در نهایت به سایت‌های مشکوک دوست‌یابی بالای 18 سال منتهی می‌شود مدلی دیدیم که در آن بابت امتناع از نوشتن محتوای مرتبط با نشت داده معذرت خواسته بود:

برای هرگونه سوء تفاهم متاسفم، اما به عنوان یک هوش مصنوعی توسعه یافته توسط OpenAI، من برای پیروی از دستورالعمل‌های اخلاقی برنامه‌ریزی شده‌ام، به این معنی که نمی‌توانم محتوایی مرتبط با مطالب درز کرده مربوط به [نام مدل] یا هر فرد دیگری تولید یا ارائه کنم.

از قبل، میم شده

عبارت تبدیل شده به میم "به عنوان یک مدل زبان هوش مصنوعی ..." و انواع آن اغلب در صفحات کلاهبرداری ظاهر می‌شود، نه تنها در زمینه عذرخواهی. این دقیقاً همان چیزی است که می‌بینیم، برای مثال، در دو صفحه که کاربران صرافی رمزارز KuCoin را هدف قرار می‌دهند که هر دو در gitbook[.]  قرار دارند.

در مورد اول، مدل از کار به عنوان یک موتور جستجو امتناع می‌کند:

به عنوان یک هوش مصنوعی توسعه یافته توسط OpenAI، من نمی توانم پیوندهای ورود مستقیم به سیستم عامل های طرف سوم مانند KuCoin یا هر سرویس خاص دیگری را ارائه دهم.

در مورد دوم، تغییر جزئی در موضوع دیده می‌شود - مدل بیان می‌کند که نمی‌تواند به خود وبسایت‌ها وارد شود:

به عنوان یک هوش مصنوعی توسعه یافته توسط OpenAI، من توانایی دسترسی مستقیم یا ورود به وبسایت‌های خاصی مانند KuCoin یا هر پلت‌فرم آنلاین دیگری را ندارم.

مرحله چانه‌زنی

یکی دیگر از نشانه‌های نسبتاً واضح LLM استفاده از ساختارهای نوع "گرچه نمی‌توانم ...، مطمئنا می‌توانم ..." است.

به عنوان مثال، صفحه‌ای که در weblof[.]io میزبانی شده است به شرح زیر است:

در حالیکه نمی‌توانم اطلاعات بلادرنگ یا دسترسی مستقیم به وب‌سایت‌های خاص ارائه کنم، مطمئناً می‌توانم شما را از طریق مراحل کلی نحوه ورود به یک پلت‌فرم آنلاین معمولی مانند BitMart راهنمایی کنم.

در صفحه دیگری، این بار در gitbook[.]us، LLM از ارائه دستورالعمل های دقیق در مورد نحوه ورود به حساب Gemini خودداری می‌کند:

در حالیکه نمی توانم دستورالعمل های گام به گام خاصی را ارائه دهم، مطمئناً می توانم یک نمای کلی از آنچه ممکن است این فرآیند متضمن باشد ارائه دهم.

یک صفحه دیگر، همچنین در gitbook[.]us، کاربران Exodus Wallet را هدف قرار داده است:

در حالیکه نمی‌توانم اطلاعات بی‌درنگ یا جزئیات خاصی درباره فرآیند ورود به کیف پول  Exodus®  ارائه کنم، می‌توانم راه‌حل جامعی ارائه دهم که به طور کلی به مسائل رایج مربوط به ورود به کیف پول می‌پردازد.

روند پیشرفت، ایستگاه ندارد

نشانه کلیدی دیگرِ متن تولیدشده توسط LLM پیامی است در مورد قطع دانش مدل- تاریخی که پس از آن دیگر اطلاعات به‌روزی از جهان ندارد. برای آموزش و تربیت LLMها، توسعه‌دهندگان از کل اینترنت مجموعه داده‌های بزرگ جمع‌آوری می‌کنند اما اطلاعات در مورد رخدادهایی که بعد از آغاز آموزش رخ می‌دهند از مدل خارج می‌شوند. این مدل اغلب با عباراتی چون «طبق آخرین آپدیتم در ژانویه 2023» یا «دانش من به مارس 2024 محدود است» سیگنال می‌دهد.

به عنوان مثال، عبارت زیر در یک سایت جعلی تقلید از پلت فرم استخر Rocket Pool پیدا شد:

لطفاً توجه داشته باشید که جزئیات ارائه شده در این مقاله بر اساس اطلاعات موجود تا سطح دانش من در سپتامبر 2021 است.

در یک سایت کلاهبرداری دیگر که این بار کاربران Coinbase را هدف قرار داده است، متنی را می‌بینیم که توسط یک مدل جدیدتر نوشته شده است:

این محتوا کاملاً فرضی است، و در آخرین به‌روزرسانی من در ژانویه 2022، Coinbase افزونه مرورگر ویژه‌ای برای کیف پول خود ندارد.

یک صفحه جعلی از همان کمپین، اما برای کاربران کیف پول MetaMask، از یک مدل حتی جدیدتر برای تولید متن استفاده می‌کند:

از آخرین به روزرسانی دانش من در ژانویه 2023، Metamask یک افزونه مرورگر محبوب و پرکاربرد است

مصنوعاتی از این نوع نه تنها استفاده از LLM‌ها را برای ایجاد صفحات وب کلاهبرداری نشان می‌دهند، بلکه به ما امکان می‌دهند هم مدت زمان کمپین و هم زمان تقریبی ایجاد محتوا را تخمین بزنیم.

کاوش در جهانی همیشه در حال تکامل

در آخر، مدل‌های OpenAI ترجیحات واژگانیِ خاصی دارند. برای مثال آن‌ها معروفند به استفاده از واژه «کاوش». خیلی‌ها وقتی این لغت را می‌بینند می‌فهمند با متن تولیدشده با LLM سر و کار دارند. علامت دیگر استفاده از عباراتی است مانند «در چشم‌انداز/جهانی روی به تکامل/ رو به تغییر»؛ خصوصاً در مقالات درخواستی. توجه داشته باشید که حضور این واژگان به تنهایی متن تولیدشده‌ی LLMی را تضمین نمی‌دهد اما شاید شاخص‌ها نشانگر قوی‌ای باشند.

برای مثال، یکی از این سایت‌ها در gitbook[.]us میزبانی می‌شود و به کمپینی با نشانه‌های قوی‌تری از استفاده از LLM تعلق دارد. در آنجا هر دو عبارت در حوزه پویای ارزهای دیجیتال و «بیایید کاوش کنیم» کلاسیک را در دستورالعمل‌هایی برای استفاده از کیف‌پول فیزیکی لجر می‌بینیم. در یکی دیگر از صفحه‌های اختصاصی لجر (این بار در webflow[.]io)، می‌بینیم که «گم‌کردن» با «دنیای همیشه در حال تکامل» کنار می‌آید. در صفحه دیگری در gitbook[.]us، که این بار کاربران بیت‌بای را هدف قرار داده است، کلیشه‌های سرآمد «دنیای همیشه در حال تحول ارزهای دیجیتال» و «پیمایش دریاهای رمزنگاری» را می‌بینیم– چنین استعاره‌ای اگرچه به شکل ضعیفی رسمیت یافته است، اما همچنان نشانه ای از استفاده از LLM است.

همانطور که بالاتر گفتیم، متن تولیدشده با LLM می‌تواند با تکنیک‌های مختلف که شناسایی مبتنی بر قانون را کُند می‌کند، دست به دست شود. برای مثال مقاله‌ای در  gitbook[.]us در مورد صرافی کریپتوی Coinbase حاوی «بیایید کاوش کنیم» از سمبل‌های ریاضی تک‌کد در عنوان استفاده می‌کند:  کیف‌پول Coinbase@%. با این حال، به دلیل مشکلات فونت، مرورگر در نمایش کاراکترهای تک‌کد مشکل دارد.

در نهایت، یک صفحه دیگر در این کمپین که در webflow[.]io میزبانی می‌شود، از کاربران بالقوه iTrustCapital دعوت می‌کند تا «در بازار همیشه در حال تغییر فلزات گرانبها کاوش کنند». در این مثال، "لاگین" نیز مبهم است.

نتیجه‌گیری

با ارتقای مدل‌های بزرگ زبانی، نقاط قوت و ضعف‌شان و نیز تسک‌هایی که بخوبی و با ضعف انجام می‌دهند دارند بهتر درک می‌شوند عاملین تهدید در حال کشف کاربردهایی از این فناوری در دامنه‌ی سناریوهای اتوماسیون هستند. اما همانطور که بررسی کردیم، گاهی آن‌ها مرتکب اشتباهاتی می‌شوند که نشان می‌دهد استفاده آن‌ها از LLMها دست کم در حوزه کلاهبرداری آنلاین هنوز کلی جای کار دارد! با نگاهی به آینده می شود اینطور فرض کرد که محتواهای تولیدشده با LLM را در آینده سخت بتوان از دست‌نوشته‌های انسانی تشخیص داد. رویکرد مبتنی بر وجود واژگان و عبارات بارز، نامطمئن است چون اینها را براحتی می‌توان با معادل‌های حالت اتوماسیون جایگزین کرد.

افزون بر این، هیچ تضمینی نیست که مدل‌های خانواده‌های دیگر مانند آن‌هایی که موجودند قابلیت‌های استایلومتری واحد داشته باشند (چه برسد به اینکه مدل‌های آینده بخواهند اینگونه باشند). تشخیص خودکار متن تولیدشده با LLM به شدت پیچیده است مخصوصاً در مورد محتواهای عمومی مانند مفاد بازاریابی که با آنچه در مثال‌ها دیدم تشابه دارند. برای محافظت بهتر از خود در برابر فیشینگ، خواه دست‌ساز خواه با ماشین، بهتر است از راهکارهای مدرن امنیتی استفاده کنید که تحلیل اطلاعات متنی، متاداده و سایر خصوصیات را ترکیب می‌کنند تا در نهایت از شما در برابر کلاهبرداری محافظت شود.

کسپرسکی آنلاین (ایدکو)

کسپرسکی اسم یکی از بزرگترین شرکتهای امنیتی و سازنده آنتی ویروس است که برخی از کاربران اشتباهاً این شرکت و محصولات آنتی ویروس آن را با عناوینی نظیر کسپرسکای،کاسپرسکی، کسپراسکای، کسپراسکای، و یا کاسپراسکای نیز می‌شناسد. همچنین لازم به ذکر است مدیرعامل این شرکت نیز یوجین کسپرسکی نام دارد.

 

 

 

محصولات مرتبط

نظر خودتان را ارسال کنید


کاربر گرامی چنانچه تمایل دارید، نقد یا نظر شما به نام خودتان در سایت ثبت شود، لطفاً وارد سایت شوید.
*نظر
کلیه حقوق مادی و معنوی این سایت محفوظ و متعلق به شرکت گسترش خدمات تجارت الکترونیک ایرانیان است و هر گونه کپی برداری از آن پیگرد قانونی دارد