چشم انداز امنیت سایبری با ظهور و پیشرفت خیره کننده هوش مصنوعی مولد، به طور بنیادین دگرگون شده است. مهاجمان سایبری اکنون از مدل های زبانی بزرگ (LLM ها) برای جعل هویت افراد مورد اعتماد و همچنین برای خودکار سازی و مقیاس پذیری تاکتیک های مهندسی اجتماعی خود بهره می برند. این تحول، چالش های جدید و جدی را برای سازمان ها و افراد به همراه داشته است. در این مطلب، به بررسی وضعیت فعلی این حملات فزاینده، عوامل تشدید کننده آن ها، و راهکار های واقعی برای پیشگیری قطعی، و نه صرفا شناسایی، از آن ها خواهیم پرداخت.
قدرتمند ترین فرد حاضر در تماس تصویری شما، ممکن است واقعی نباشد!
گزارش های اخیر اطلاعاتی از تهدیدات سایبری، بر پیچیدگی و شیوع روز افزون حملات مبتنی بر هوش مصنوعی، به ویژه دیپ فیک ها، تاکید دارند. دیپ فیک به محتوای صوتی یا تصویری جعل شده با استفاده از هوش مصنوعی گفته می شود که به طرز شگفت انگیزی واقعی به نظر می رسد. برخی از آمار و مشاهدات نگران کننده در این زمینه عبارتند از:
- افزایش چشمگیر فیشینگ صوتی (ویشینگ): بر اساس گزارش تهدیدات جهانی ۲۰۲۵ شرکت کراود استرایک (CrowdStrike)، حملات فیشینگ صوتی که در آن مهاجم با استفاده از صدای جعل شده با هوش مصنوعی سعی در فریب قربانی دارد، بین نیمه اول و دوم سال ۲۰۲۴، افزایشی معادل ۴۴۲ درصد داشته است. این رشد عمدتا ناشی از استفاده از تاکتیک های فیشینگ و جعل هویت تولید شده توسط هوش مصنوعی است.
- شیوع گسترده مهندسی اجتماعی: گزارش تحقیقات نقض داده های ۲۰۲۵ شرکت ورایزون (Verizon) نشان می دهد که مهندسی اجتماعی همچنان یکی از الگو های اصلی در رخداد های امنیتی و نفوذ ها است. در این میان، فیشینگ (تلاش برای به دست آوردن اطلاعات حساس از طریق جعل هویت) و بهانه تراشی (ایجاد یک سناریوی ساختگی برای فریب قربانی) بخش قابل توجهی از این حوادث را تشکیل می دهند. هوش مصنوعی این روش ها را بسیار کارآمد تر و قانع کننده تر کرده است.
- عملیات دیپ فیک توسط کره شمالی: مشاهده شده است که عاملان تهدید مرتبط با کره شمالی از فناوری دیپ فیک برای ایجاد هویت های ترکیبی و جعلی جهت شرکت در مصاحبه های شغلی آنلاین استفاده می کنند. هدف آن ها از این کار، به دست آوردن موقعیت های شغلی از راه دور و نفوذ به سازمان های هدف است. این روش نشان دهنده سطح جدیدی از پیچیدگی در حملات دولتی است.
در این دوران جدید که تشخیص واقعیت از جعل به شدت دشوار شده است، دیگر نمی توان به سادگی به هویت افراد اعتماد کرد یا صرفا به شناسایی تهدیدات اکتفا نمود. اعتماد باید به صورت قطعی، قابل اثبات و در لحظه (Real-time) ایجاد و تایید شود.
چرا این مشکل در حال گسترش و پیچیده تر شدن است؟
سه روند اصلی در حال همگرایی هستند که جعل هویت با استفاده از هوش مصنوعی را به یکی از بزرگترین بردارهای تهدید آینده تبدیل کرده اند:
- هوش مصنوعی، فریب را ارزان و مقیاس پذیر کرده است: با ظهور ابزارهای متن باز و به راحتی در دسترس برای تولید صدا و ویدیوی جعلی، عاملان تهدید می توانند با استفاده از تنها چند دقیقه محتوای مرجع (مانند صدای ضبط شده یا چند عکس)، هویت هر فردی را جعل کنند. این امر موانع ورود به دنیای حملات سایبری پیچیده را به شدت کاهش داده است.
- همکاری مجازی، شکاف های اعتماد را آشکار می سازد: ابزارهای رایج همکاری آنلاین مانند زوم (Zoom)، مایکروسافت تیمز (Teams) و اسلک (Slack) بر این فرض بنا شده اند که فرد پشت صفحه نمایش، همان کسی است که ادعا می کند. مهاجمان از این فرض اولیه و شکاف اعتماد ذاتی در این پلتفرم ها سو استفاده می کنند.
- دفاع ها عموما بر اساس احتمال عمل می کنند، نه اثبات قطعی: ابزارهای تشخیص دیپ فیک موجود، معمولا از نشانگر های چهره، تحلیل های آماری و یادگیری ماشین برای «حدس زدن» اینکه آیا فردی واقعی است یا جعلی، استفاده می کنند. این رویکرد مبتنی بر احتمال، در محیط های حساس و پرخطر که یک اشتباه می تواند عواقب جبران ناپذیری داشته باشد، به هیچ عنوان کافی و قابل اطمینان نیست.
و در حالی که ابزارهای امنیت نقطه پایانی (Endpoint Security) یا آموزش کاربران ممکن است تا حدی کمک کننده باشند، اما آن ها برای پاسخ به این سوال حیاتی در لحظه ساخته نشده اند: آیا می توانم به فردی که در حال صحبت با او هستم، واقعا اعتماد کنم؟
فناوری های تشخیص مبتنی بر هوش مصنوعی، به تنهایی کافی نیستند
روش های دفاعی سنتی بر شناسایی تهدید پس از وقوع آن تمرکز دارند. به عنوان مثال، آموزش کاربران برای تشخیص رفتار های مشکوک یا استفاده از هوش مصنوعی برای تجزیه و تحلیل اینکه آیا یک صدا یا تصویر جعلی است. اما دیپ فیک ها با سرعتی بسیار زیاد در حال بهتر شدن و غیر قابل تشخیص تر شدن هستند. نمی توان با فریب تولید شده توسط هوش مصنوعی، با استفاده از ابزارهایی که بر اساس احتمال کار می کنند، مبارزه کرد. این یک مسابقه تسلیحاتی است که در حال حاضر، فناوری های تولید دیپ فیک در آن پیشتاز هستند.
پیشگیری واقعی و موثر نیازمند یک بنیاد متفاوت است؛ بنیادی که بر اساس اعتماد قابل اثبات و قطعی بنا شده باشد، نه صرفا فرض و گمان. این رویکرد شامل موارد زیر است:
- تایید هویت قطعی: تنها کاربران تایید شده و مجاز باید بتوانند بر اساس اعتبارنامه های رمزنگاری شده (Cryptographic Credentials) – و نه رمزهای عبور ساده یا کدهای یکبار مصرف – به جلسات یا چت های حساس بپیوندند. اعتبارنامه های رمزنگاری شده، مانند گواهی های دیجیتال، سطح بسیار بالاتری از اطمینان را نسبت به روش های سنتی احراز هویت فراهم می کنند.
- بررسی یکپارچگی و سلامت دستگاه: اگر دستگاه کاربر آلوده به بدافزار باشد، جیلبریک شده باشد (در مورد دستگاه های موبایل) یا با سیاست های امنیتی سازمان مطابقت نداشته باشد، حتی اگر هویت کاربر تایید شده باشد، آن دستگاه به یک نقطه ورود بالقوه برای مهاجمان تبدیل می شود. این دستگاه ها باید از دسترسی به جلسات و داده های حساس مسدود شوند تا زمانی که مشکلات امنیتی آن ها برطرف گردد.
- نشانگر های اعتماد قابل مشاهده: سایر شرکت کنندگان در یک جلسه یا گفتگو، نیاز دارند تا به صورت بصری و واضح، اثبات این موضوع را ببینند که هر فرد حاضر در جلسه، همان کسی است که ادعا می کند و از یک دستگاه امن و مورد تایید استفاده می نماید. این امر بار قضاوت و تشخیص را از دوش کاربران نهایی بر می دارد و از خطاهای انسانی جلوگیری می کند.
پیشگیری به معنای ایجاد شرایطی است که در آن جعل هویت نه تنها دشوار، بلکه عملا غیرممکن باشد. اینگونه است که می توان حملات دیپ فیک مبتنی بر هوش مصنوعی را قبل از اینکه به مکالمات پرخطر مانند جلسات هیئت مدیره، تراکنش های مالی مهم، یا همکاری های حساس با تامین کنندگان راه پیدا کنند، متوقف ساخت.
رویکرد مبتنی بر شناسایی (Detection-Based Approach) | رویکرد پیشگیری (Prevention Approach) |
---|---|
شناسایی ناهنجاری ها پس از وقوع آن ها | مسدود کردن کاربران غیرمجاز قبل از پیوستن |
اتکا به روش های اکتشافی و حدس و گمان | استفاده از اثبات رمزنگاری شده هویت |
نیازمند قضاوت و تشخیص توسط کاربر | ارائه نشانگرهای اعتماد قابل مشاهده و تایید شده |
تهدیدات دیپ فیک را از تماس های خود حذف کنید
محصول RealityCheck که توسط شرکت Beyond Identity ارائه شده، با هدف پر کردن این شکاف اعتماد در ابزارهای همکاری آنلاین ساخته شده است. این راهکار به هر شرکت کننده یک نشان هویت قابل مشاهده و تایید شده اعطا می کند که توسط احراز هویت دستگاه مبتنی بر رمزنگاری و بررسی های مداوم ریسک پشتیبانی می شود.
RealityCheck که در حال حاضر برای پلتفرم های زوم و مایکروسافت تیمز (برای ویدیو و چت) در دسترس است، قابلیت های زیر را ارائه می دهد:
- تایید می کند که هویت هر شرکت کننده واقعی و مجاز است.
- انطباق و سلامت دستگاه را در لحظه، حتی برای دستگاه های مدیریت نشده (شخصی)، تایید می کند.
- یک نشان بصری نمایش می دهد تا به دیگران نشان دهد که شما تایید شده اید.
اگر مایلید نحوه عملکرد این راهکار را در عمل مشاهده کنید، شرکت Beyond Identity وبیناری را برگزار می کند که در آن می توانید این محصول را به صورت زنده ببینید. برای ثبت نام در این وبینار می توانید به وبسایت این شرکت مراجعه نمایید. با استفاده از چنین راهکارهایی، سازمان ها می توانند یک لایه دفاعی قدرتمند در برابر تهدیدات نوظهور دیپ فیک ایجاد کرده و از دارایی ها و ارتباطات حساس خود محافظت کنند.
نظرات در مورد : دیپ فیک و هوش مصنوعی: چگونه در عصر جدید فریب، از هویت خود دفاع کنیم؟