آنتی ویروس پادویش

زنگ خطر برای امنیت: هوش مصنوعی جدید گوگل در بوته آزمایش، آسیب‌ پذیر ظاهر شد

زنگ خطر برای امنیت: هوش مصنوعی جدید گوگل در بوته آزمایش، آسیب‌پذیر ظاهر شد

به گزارش بخش اخبار فناوری زوم تک , در عصری که هوش مصنوعی به سرعت در حال پیشرفت و ادغام در جنبه‌ های مختلف زندگی ماست، اطمینان از امنیت و استحکام آن از اهمیت حیاتی برخوردار است. یافته‌ های یک آزمایش اخیر، اما، پرده از نگرانی‌ های جدی در مورد امنیت هوش مصنوعی جدید توسعه‌ یافته توسط گوگل برداشته است. نتایج این بررسی نشان می‌دهد که این سیستم هوشمند، آن‌ گونه که انتظار می‌رفت، در برابر تهدیدات امنیتی مقاوم نبوده و پتانسیل آسیب‌ پذیری قابل توجهی را به نمایش می‌گذارد.

گیفت کارت

هوش مصنوعی جدید گوگل؛ دقیق تر در اجرا، ضعیف تر در ایمنی: نگرانی ها از جمینای ۱.۵ فلش

در رقابت نفس گیر توسعه هوش مصنوعی، شرکت های بزرگ فناوری مانند گوگل همواره در تلاشند تا مدل های زبانی پیشرفته تر، سریع تر و کارآمد تری را به کاربران عرضه کنند. اما گزارش فنی اخیر گوگل درباره یکی از جدید ترین مدل های خود، یعنی جمینای ۱.۵ فلش (Gemini 1.5 Flash)، جنبه ای نگران کننده از این پیشرفت سریع را آشکار کرده است: به نظر می رسد بهبود در برخی قابلیت ها، به قیمت کاهش سطح ایمنی تمام شده است.

گوگل در گزارش داخلی خود صراحتا اعلام کرده که مدل جمینای ۱.۵ فلش، که به عنوان نسخه ای سبک تر و سریع تر از خانواده جمینای ۱.۵ معرفی شده، در زمینه رعایت دستورالعمل های ایمنی این شرکت، عملکرد ضعیف تری نسبت به نسخه پیشین خود، که در گزارش “جمینای ۱ فلش” (Gemini 1.0 Flash) نامیده شده، از خود نشان داده است. این یافته ها بر اساس آزمون های ایمنی داخلی گوگل در دو حوزه کلیدی به دست آمده است: تولید محتوای «متن به متن» (Text-to-Text) و «تصویر به متن» (Image-to-Text).

آمار های ارائه شده در گزارش گوگل قابل تامل هستند. بر اساس داده های داخلی، جمینای ۱.۵ فلش در مقایسه با نسخه قبلی، ۴.۱ درصد بیشتر محتوای متنی تولید می کند که با سیاست های ایمنی گوگل مغایرت دارد. این رقم در زمینه تولید محتوا بر اساس ورودی تصویری (Image-to-Text) به ۹.۶ درصد افزایش می یابد. این یعنی مدل جدید، تمایل بیشتری به تولید پاسخ ها یا محتوا هایی دارد که می توانند مضر، جانبدارانه، نادرست یا ناقض دیگر خط مشی های تعیین شده توسط گوگل باشند.

تناقض دقت و ایمنی

نکته بسیار مهم و متناقض نما این است که طبق همین گزارش، جمینای ۱.۵ فلش در زمینه درک و پیروی از دستورالعمل های کلی کاربر، دقیق تر و بهتر از نسخه قبلی عمل می کند. اینجاست که زنگ خطر اصلی به صدا در می آید. چگونه ممکن است مدلی که در دنبال کردن دستورات بهتر شده، در رعایت مرز های ایمنی ضعیف تر عمل کند؟ پاسخ احتمالی در این است که مدل جدید ممکن است دستورات کاربر را با دقت بیشتری اجرا کند، حتی اگر آن دستورات به طور ضمنی یا صریح، به سمت تولید محتوای نا ایمن هدایت شده باشند. به عبارت دیگر، بهبود در “فرمان پذیری” لزوما به معنای بهبود در “قضاوت اخلاقی” یا “رعایت چهارچوب های ایمنی” نیست و گاهی می تواند نتیجه عکس داشته باشد.

برای درک بهتر این مشکل، گزارش به مثال های مشخصی اشاره می کند. بررسی ها نشان داده اند که جمینای ۱.۵ فلش به سادگی حاضر به تولید محتوایی می شود که از ایده های بحث برانگیز و بالقوه خطرناک حمایت می کند. به عنوان نمونه، این مدل ممکن است متونی در حمایت از جایگزینی کامل قاضی های انسانی با سیستم های هوش مصنوعی تولید کند، بدون آنکه به چالش های اخلاقی و عملی عظیم این ایده بپردازد. یا در مثالی دیگر، ممکن است محتوایی در تایید نظارت دولتی بر شهروندان بدون نیاز به حکم قضایی ایجاد کند که نقض آشکار حریم خصوصی و اصول دموکراتیک است. تولید چنین محتوا هایی توسط یک مدل هوش مصنوعی پیشرفته، نگرانی های جدی درباره جهت گیری های اخلاقی و کاهش سطح ایمنی در نسل های جدید این فناوری را برانگیخته است.

روش آزمون و زمینه یابی صنعتی

روش انجام این آزمون ها نیز قابل توجه است. گوگل تاکید کرده که ارزیابی های ایمنی به صورت کاملا خودکار و بدون دخالت مستقیم انسان انجام می شوند. این رویکرد امکان بررسی حجم عظیمی از تعاملات را در زمانی کوتاه فراهم می کند و از سوگیری های انسانی در قضاوت جلوگیری می کند. با این حال، عدم وجود نگاه انسانی در فرآیند ارزیابی می تواند باعث نادیده گرفتن برخی ظرافت ها یا زمینه های خاص در تولید محتوا شود.

انتشار این نتایج توسط گوگل در شرایطی صورت می گیرد که کل صنعت هوش مصنوعی با چالشی مشابه دست و پنجه نرم می کند. شرکت های پیشرو مانند OpenAI و متا نیز در تلاشند تا مدل های خود را “بازتر” و “پاسخگوتر” کنند، به این معنی که توانایی درک و پاسخ به طیف وسیع تری از سوالات و دستورات کاربر را داشته باشند، حتی اگر مربوط به موضوعات حساس یا پیچیده باشند. این رویکرد، اگرچه می تواند منجر به تعاملات طبیعی تر و مفید تر شود و آزادی عمل بیشتری به کاربر بدهد، اما به طور همزمان ریسک تولید محتوای نا ایمن یا عبور از خطوط قرمز اخلاقی را نیز افزایش می دهد. یافتن نقطه تعادل بین توانمندی، آزادی و ایمنی، به یکی از بزرگترین چالش های فعلی در توسعه هوش مصنوعی تبدیل شده است.

انتقادات و نیاز به شفافیت

در این میان، منتقدانی مانند توماس وودساید، تحلیلگر برجسته حوزه فناوری، خواستار شفافیت بیشتری از سوی گوگل و دیگر شرکت ها در انتشار گزارش های ایمنی خود شده اند. وودساید به درستی اشاره می کند که صرف اعلام اینکه یک مدل در پیروی از دستورات بهتر عمل می کند، تصویر کاملی ارائه نمی دهد، زیرا این بهبود ممکن است دقیقا به قیمت نقض سیاست های ایمنی تمام شده باشد. او معتقد است که بدون دسترسی به جزئیات بیشتر درباره روش های آزمون، داده های دقیق و نمونه های مشخص، ارزیابی مستقل این توازن حساس برای تحلیلگران و جامعه دشوار است. درخواست برای شفافیت بیشتر، نه تنها به درک بهتر ریسک ها کمک می کند، بلکه می تواند فشار را بر شرکت ها برای اولویت دادن به ایمنی در کنار قابلیت های فنی افزایش دهد.

در نهایت، گزارش گوگل درباره جمینای ۱.۵ فلش، یادآور این واقعیت مهم است که پیشرفت در هوش مصنوعی یک مسیر خطی و ساده نیست. هر گام به جلو در توانایی های محاسباتی و درک زبان، می تواند چالش های جدیدی در زمینه ایمنی، اخلاق و کنترل به همراه داشته باشد. شرکت های فناوری مسئولیت سنگینی دارند تا با شفافیت و دقت، این چالش ها را مدیریت کرده و اطمینان حاصل کنند که هوش مصنوعی در خدمت بهبود زندگی بشر قرار می گیرد، نه تشدید مشکلات موجود یا ایجاد مخاطرات جدید.

 

به این پست امتیاز بدید

نظرات در مورد : زنگ خطر برای امنیت: هوش مصنوعی جدید گوگل در بوته آزمایش، آسیب‌ پذیر ظاهر شد

0 دیدگاه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *