آنتی ویروس پادویش

مهندسی اجتماعی با قدرت هوش مصنوعی: تهدیدات امنیتی وحشتناک

مهندسی اجتماعی با قدرت هوش مصنوعی: تهدیدات امنیتی وحشتناک

اساس حملات مهندسی اجتماعی ، که شامل دستکاری افکار انسان‌ ها می‌شود ، ممکن است در طول سال‌ها تغییر چندانی نکرده باشد. اما روش‌های اجرای این تکنیک‌ها در حال تحول هستند و مانند بسیاری از صنایع امروزی، هوش مصنوعی سرعت این تحول را افزایش داده است.

آمارتکسالگوراک

این مقاله به بررسی تأثیر این تغییرات بر کسب‌وکارها و نحوه پاسخگویی رهبران امنیت سایبری می‌ پردازد.

حملات جعل هویت : استفاده از هویت‌ های مورد اعتماد

روش‌های سنتی دفاع در برابر مهندسی اجتماعی ، که به گفته تامسون رویترز عامل بیشتر نقض‌های داده است ، قبلاً هم با چالش‌های زیادی مواجه بودند. اکنون نسل جدید حملات سایبری با قدرت هوش مصنوعی و مهاجمان می‌توانند این حملات را با سرعت، مقیاس و واقع‌گرایی بی‌سابقه‌ای اجرا کنند.

روش قدیمی: ماسک‌های سیلیکونی

دو کلاهبردار با جعل هویت یک وزیر دولت فرانسه، بیش از ۵۵ میلیون یورو از قربانیان خود به دست آوردند. در تماس‌ های ویدیویی، یکی از آن‌ها از ماسک سیلیکونی ژان-ایو لو دریان استفاده می‌کرد. برای افزایش باورپذیری، آن‌ها در یک بازسازی از دفتر وزیر با عکس‌های فرانسوا اولاند، رئیس‌جمهور وقت فرانسه، نشسته بودند.

گزارش‌ها حاکی از آن است که بیش از ۱۵۰ شخصیت برجسته برای درخواست پول به عنوان باج یا برای عملیات ضدتروریستی مورد هدف قرار گرفتند. بزرگ‌ترین انتقال پول ۴۷ میلیون یورو بود، زمانی که هدف تحت فشار قرار گرفت تا برای آزادی دو خبرنگار در سوریه اقدام کند.

روش جدید: جعل ویدیویی (دیپ‌ فیک)

بسیاری از درخواست‌ های پول با شکست مواجه شدند، زیرا ماسک‌ های سیلیکونی نمی‌توانند به طور کامل ظاهر و حرکات پوست یک فرد را تقلید کنند. فناوری ویدیویی هوش مصنوعی راه‌حل جدیدی برای تقویت این نوع حملات ارائه می‌دهد.

سال گذشته در هنگ‌کنگ، مهاجمان یک ویدیوی جعلی از CFO یک شرکت ساختند تا یک کلاهبرداری ۲۵ میلیون دلاری انجام دهند. آن‌ها سپس یک همکار را به یک تماس ویدیویی دعوت کردند، جایی که CFO جعلی کارمند را متقاعد کرد تا مبلغی چند میلیونی را به حساب کلاهبرداران واریز کند.

تماس‌ های زنده: فیشینگ صوتی

فیشینگ صوتی، که اغلب به عنوان «ویشینگ» شناخته می‌شود، از صدای زنده برای تقویت قدرت فیشینگ سنتی استفاده می‌کند، جایی که افراد متقاعد می‌شوند اطلاعاتی را ارائه دهند که سازمان آن‌ها را به خطر می‌اندازد.

روش قدیمی: تماس‌های تلفنی جعلی

مهاجم ممکن است هویت فردی معتبر یا قابل اعتماد را جعل کند و با هدف تماس بگیرد. آن‌ها با ایجاد حس فوریت در مکالمه، درخواست می‌کنند که پرداختی فوری انجام شود تا از پیامدهای منفی مانند از دست دادن دسترسی به حساب یا از دست دادن مهلت جلوگیری شود. در سال ۲۰۲۲، قربانیان به طور متوسط ۱,۴۰۰ دلار از این طریق از دست دادند.

روش جدید: کلونینگ صدا

توصیه‌های دفاعی سنتی در برابر ویشینگ شامل درخواست از افراد برای کلیک نکردن روی لینک‌ها و تماس مجدد با شماره تلفن رسمی است. این رویکرد شبیه به اصل «هرگز اعتماد نکن، همیشه تأیید کن» در مدل Zero Trust است. البته، وقتی صدای فردی که شخص می‌شناسد می‌آید، طبیعی است که اعتماد جای نگرانی‌های تأیید را بگیرد.

این چالش بزرگ هوش مصنوعی است، جایی که مهاجمان از فناوری کلونینگ صدا استفاده می‌کنند، اغلب با استفاده از تنها چند ثانیه از صدای هدف. یک مادر تماسی از فردی دریافت کرد که صدای دخترش را کلون کرده بود و ادعا می‌کرد که او را ربوده‌اند و در ازای آزادی او ۵۰,۰۰۰ دلار می‌خواهند.

فیشینگ ایمیلی

بسیاری از افرادی که آدرس ایمیل دارند، برنده لاتاری شده‌اند! حداقل ایمیلی دریافت کرده‌اند که به آن‌ها می‌گوید میلیون‌ها برنده شده‌اند. شاید با اشاره به یک پادشاه یا شاهزاده که برای آزاد کردن این وجوه نیاز به کمک دارند، در ازای پرداخت اولیه.

روش قدیمی: ارسال انبوه

با گذشت زمان، این تلاش‌های فیشینگ به دلایل مختلف کمتر مؤثر شده‌اند. آن‌ها به صورت انبوه ارسال می‌شوند، شخصی‌سازی کمی دارند و پر از اشتباهات گرامری هستند. همچنین مردم بیشتر از «کلاهبرداری‌های ۴۱۹» آگاه شده‌اند که از آن‌ها می‌خواهند از خدمات خاص انتقال پول استفاده کنند. نسخه‌های دیگر، مانند استفاده از صفحات جعلی ورود به بانک، اغلب با استفاده از فیلترهای اسپم و آموزش افراد برای بررسی دقیق URL مسدود می‌شوند.

با این حال، فیشینگ همچنان بزرگ‌ترین شکل جرایم سایبری است. گزارش جرایم اینترنتی FBI در سال ۲۰۲۳ نشان داد که فیشینگ/جعل هویت منبع ۲۹۸,۸۷۸ شکایت بوده است. برای مقایسه، دومین مورد (نقض داده‌های شخصی) تنها ۵۵,۸۵۱ شکایت داشت.

روش جدید: مکالمات واقع‌ گرایانه در مقیاس وسیع

هوش مصنوعی به مهاجمان اجازه می‌ دهد تا با استفاده از مدل‌های زبانی بزرگ (LLMs)، ابزارهایی با دقت بالا در اختیار داشته باشند، به جای اینکه به ترجمه‌های ساده متکی باشند. آن‌ها همچنین می‌توانند از هوش مصنوعی برای ارسال این حملات به تعداد زیادی از دریافت‌کنندگان به صورت شخصی‌سازی‌شده استفاده کنند، که به شکل هدف‌مندتری از فیشینگ (Spear Phishing) منجر می‌شود.

علاوه بر این، آن‌ها می‌ توانند از این ابزارها به چندین زبان استفاده کنند. این موضوع درهای مناطق بیشتری را باز می‌ کند، جایی که هدف‌ ها ممکن است از تکنیک‌ های فیشینگ سنتی و نحوه بررسی آن‌ها آگاه نباشند. Harvard Business Review هشدار می‌ دهد که «کل فرآیند فیشینگ می‌ تواند با استفاده از LLMها خودکار شود، که هزینه‌ های حملات فیشینگ را بیش از ۹۵٪ کاهش می‌ دهد، در حالی که نرخ موفقیت برابر یا بیشتری دارد.»

تهدیدات بازسازی شده به معنای دفاع‌ های بازسازی شده است

امنیت سایبری همیشه در یک رقابت تسلیحاتی بین دفاع و حمله بوده است. اما هوش مصنوعی بعد جدیدی به این رقابت اضافه کرده است. اکنون، هدف‌ها هیچ راهی برای تشخیص واقعی یا جعلی بودن چیزی ندارند، زمانی که مهاجم سعی می‌کند آن‌ها را با دستکاری موارد زیر فریب دهد:

اعتماد: با جعل هویت یک همکار و درخواست از کارمند برای دور زدن پروتکل‌های امنیتی برای اطلاعات حساس

احترام به اقتدار: با وانمود کردن به اینکه CFO شرکت است و دستور انجام یک تراکنش مالی فوری را می‌دهد

ترس: با ایجاد حس فوریت و وحشت، کارمند به این فکر نمی‌کند که آیا فردی که با او صحبت می‌کند واقعی است یا خیر

این‌ ها بخش‌ های اساسی از طبیعت و غریزه انسان هستند که طی هزاران سال تکامل یافته‌ اند. طبیعتاً این موارد نمی‌ توانند با سرعت روش‌ های مهاجمان یا پیشرفت هوش مصنوعی تکامل یابند. روش‌های سنتی آگاهی‌ بخشی، مانند دوره‌ های آنلاین و پرسش و پاسخ، برای این واقعیتِ تحت سلطه هوش مصنوعی طراحی نشده‌اند.

به همین دلیل بخشی از پاسخ ، به‌ویژه در حالی که محافظت‌های فنی هنوز در حال پیشرفت هستند – این است که کارکنان خود را در معرض حملات شبیه‌سازی‌شده مهندسی اجتماعی قرار دهید.

زیرا کارمندان ممکن است آنچه را که شما درباره دفاع در برابر یک حمله سایبری گفته‌ اید به خاطر نیاورند، اما احساسی که در طول حمله تجربه می‌ کنند را به یاد خواهند آورد. بنابراین، وقتی یک حمله واقعی اتفاق می‌ افتد، آن‌ها می‌ دانند چگونه پاسخ دهند.

به این پست امتیاز بدید

نظرات در مورد : مهندسی اجتماعی با قدرت هوش مصنوعی: تهدیدات امنیتی وحشتناک

0 دیدگاه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *