متا، شرکت مادر فیسبوک، در رویکردی محتاطانه، چارچوب سیاست جدیدی را برای توسعه هوش مصنوعی معرفی کرده که در آن سیستم های هوش مصنوعی با “ریسک بالا” یا “ریسک بحرانی” شناسایی و از انتشار عمومی آنها جلوگیری میشود. این سیستمها، که شامل هوش مصنوعی با قابلیتهای تهاجمی سایبری یا بیولوژیکی میشوند، در صورت ایجاد “پیامدهای فاجعهبار غیرقابل جبران”، متوقف شده و اقدامات امنیتی برای جلوگیری از نفوذ به بازار هوش مصنوعی گستردهتر انجام میشود. این اقدام متا، که احتمالاً پاسخی به افزایش ابزارهای هوش مصنوعی متنباز است، نشان از نگرانی این شرکت از خطرات احتمالی این فناوری دارد. متا همچنین اعلام کرده که این چارچوب را با پیشرفت هوش مصنوعی، بهروزرسانی خواهد کرد.
متا سیستم های هوش مصنوعی با ریسک بالا را خطرناکتر از آن میداند که توسعه یابند
به گزارش زوم تک از تامز گاید، شعار داخلی متا، حداقل تا سال ۲۰۱۴ (زمانی که هنوز فیسبوک بود)، “سریع حرکت کن و چیزها را خراب کن” بود. بیش از یک دهه گذشته و سرعت سرسامآور توسعه هوش مصنوعی ظاهراً باعث شده است که این شرکت کمی در مورد مسائل تجدید نظر کند.
یک سند سیاست جدید، که توسط تک کرانچ مشاهده شده است، نشان میدهد که متا رویکرد محتاطانهتری را در پیش گرفته است. این شرکت سناریوهایی را شناسایی کرده است که در آن سیستمهای هوش مصنوعی “با ریسک بالا” یا “ریسک بحرانی” برای انتشار عمومی در وضعیت فعلی خود بیش از حد خطرناک در نظر گرفته میشوند.
این نوع سیستمها معمولاً شامل هرگونه هوش مصنوعی میشوند که میتواند به حملات سایبری یا جنگ بیولوژیکی کمک کند. در سند سیاست، متا به طور خاص به هوش مصنوعی اشاره میکند که میتواند به ایجاد “پیامد فاجعهبار [که] نمیتوان آن را در زمینه استقرار پیشنهادی کاهش داد” کمک کند.
این شرکت بیان میکند: “این چارچوب هوش مصنوعی مرزی چگونگی عملکرد متا برای ساخت هوش مصنوعی پیشرفته را، از جمله با ارزیابی و کاهش خطرات و تعیین آستانههایی برای خطرات فاجعهبار، شرح میدهد.”
بنابراین، اگر متا تشخیص دهد که سیستمی چنین تهدیدی را ایجاد میکند، چه کار خواهد کرد؟ در مرحله اول، این شرکت میگوید که دسترسی داخلی را محدود میکند و آن را تا زمانی که اقدامات کاهشی را برای “کاهش خطر به سطوح متوسط” انجام ندهد، منتشر نخواهد کرد.
اگر اوضاع جدیتر شود و به قلمرو “ریسک بحرانی” برسد، متا میگوید که توسعه را به طور کلی متوقف میکند و اقدامات امنیتی را برای جلوگیری از خروج به بازار هوش مصنوعی گستردهتر انجام میدهد: “دسترسی به تعداد کمی از متخصصان، در کنار حفاظتهای امنیتی برای جلوگیری از هک یا خروج تا جایی که از نظر فنی امکانپذیر و از نظر تجاری عملی باشد، کاملاً محدود است.”
ایمنی متن باز
تصمیم متا برای انتشار این چارچوب جدید در مورد توسعه هوش مصنوعی احتمالاً پاسخی به هجوم ابزارهای هوش مصنوعی متنباز است که در حال حاضر این صنعت را تقویت میکنند. پلتفرم چینی دیپسیک در چند هفته گذشته مانند پتکی بر دنیای هوش مصنوعی فرود آمده است و (ظاهراً) محافظتهای بسیار کمی در جای خود دارد.
مانند دیپسیک، مدل Llama ۳.۲ خود متا نیز میتواند توسط دیگران برای ساخت ابزارهای هوش مصنوعی که از کتابخانه عظیم دادههای میلیاردها کاربر فیسبوک و اینستاگرام که روی آن آموزش داده شدهاند، بهره میبرند، استفاده شود.
متا میگوید که چارچوب خود را در صورت لزوم با ادامه تکامل هوش مصنوعی، بازبینی و بهروزرسانی خواهد کرد.
سند متا بیان میکند: “ما انتظار داریم که چارچوب خود را با توسعه درک جمعی خود از چگونگی اندازهگیری و کاهش خطر بالقوه فاجعهبار از هوش مصنوعی مرزی، از جمله مربوط به بازیگران دولتی، بهروزرسانی کنیم.”
“این ممکن است شامل افزودن، حذف یا بهروزرسانی پیامدهای فاجعهبار یا سناریوهای تهدید، یا تغییر روشهایی باشد که در آنها مدلها را برای ارزیابی آماده میکنیم.”
نظرات در مورد : متا در مورد هوش مصنوعی خطرناک تجدید نظر میکند!