آنتی ویروس پادویش

متا در مورد هوش مصنوعی خطرناک تجدید نظر می‌کند!

متا در مورد هوش مصنوعی خطرناک تجدید نظر می‌کند!

متا، شرکت مادر فیس‌بوک، در رویکردی محتاطانه، چارچوب سیاست جدیدی را برای توسعه هوش مصنوعی معرفی کرده که در آن سیستم‌ های هوش مصنوعی با “ریسک بالا” یا “ریسک بحرانی” شناسایی و از انتشار عمومی آنها جلوگیری می‌شود. این سیستم‌ها، که شامل هوش مصنوعی با قابلیت‌های تهاجمی سایبری یا بیولوژیکی می‌شوند، در صورت ایجاد “پیامدهای فاجعه‌بار غیرقابل جبران”، متوقف شده و اقدامات امنیتی برای جلوگیری از نفوذ به بازار هوش مصنوعی گسترده‌تر انجام می‌شود. این اقدام متا، که احتمالاً پاسخی به افزایش ابزارهای هوش مصنوعی متن‌باز است، نشان از نگرانی این شرکت از خطرات احتمالی این فناوری دارد. متا همچنین اعلام کرده که این چارچوب را با پیشرفت هوش مصنوعی، به‌روزرسانی خواهد کرد.

گیفت کارت

متا سیستم‌ های هوش مصنوعی با ریسک بالا را خطرناک‌تر از آن می‌داند که توسعه یابند

به گزارش زوم تک از تامز گاید، شعار داخلی متا، حداقل تا سال ۲۰۱۴ (زمانی که هنوز فیس‌بوک بود)، “سریع حرکت کن و چیزها را خراب کن” بود. بیش از یک دهه گذشته و سرعت سرسام‌آور توسعه هوش مصنوعی ظاهراً باعث شده است که این شرکت کمی در مورد مسائل تجدید نظر کند.

یک سند سیاست جدید، که توسط تک کرانچ مشاهده شده است، نشان می‌دهد که متا رویکرد محتاطانه‌تری را در پیش گرفته است. این شرکت سناریوهایی را شناسایی کرده است که در آن سیستم‌های هوش مصنوعی “با ریسک بالا” یا “ریسک بحرانی” برای انتشار عمومی در وضعیت فعلی خود بیش از حد خطرناک در نظر گرفته می‌شوند.

این نوع سیستم‌ها معمولاً شامل هرگونه هوش مصنوعی می‌شوند که می‌تواند به حملات سایبری یا جنگ بیولوژیکی کمک کند. در سند سیاست، متا به طور خاص به هوش مصنوعی اشاره می‌کند که می‌تواند به ایجاد “پیامد فاجعه‌بار [که] نمی‌توان آن را در زمینه استقرار پیشنهادی کاهش داد” کمک کند.

این شرکت بیان می‌کند: “این چارچوب هوش مصنوعی مرزی چگونگی عملکرد متا برای ساخت هوش مصنوعی پیشرفته را، از جمله با ارزیابی و کاهش خطرات و تعیین آستانه‌هایی برای خطرات فاجعه‌بار، شرح می‌دهد.”

بنابراین، اگر متا تشخیص دهد که سیستمی چنین تهدیدی را ایجاد می‌کند، چه کار خواهد کرد؟ در مرحله اول، این شرکت می‌گوید که دسترسی داخلی را محدود می‌کند و آن را تا زمانی که اقدامات کاهشی را برای “کاهش خطر به سطوح متوسط” انجام ندهد، منتشر نخواهد کرد.

اگر اوضاع جدی‌تر شود و به قلمرو “ریسک بحرانی” برسد، متا می‌گوید که توسعه را به طور کلی متوقف می‌کند و اقدامات امنیتی را برای جلوگیری از خروج به بازار هوش مصنوعی گسترده‌تر انجام می‌دهد: “دسترسی به تعداد کمی از متخصصان، در کنار حفاظت‌های امنیتی برای جلوگیری از هک یا خروج تا جایی که از نظر فنی امکان‌پذیر و از نظر تجاری عملی باشد، کاملاً محدود است.”

ایمنی متن‌ باز

تصمیم متا برای انتشار این چارچوب جدید در مورد توسعه هوش مصنوعی احتمالاً پاسخی به هجوم ابزارهای هوش مصنوعی متن‌باز است که در حال حاضر این صنعت را تقویت می‌کنند. پلتفرم چینی دیپ‌سیک در چند هفته گذشته مانند پتکی بر دنیای هوش مصنوعی فرود آمده است و (ظاهراً) محافظت‌های بسیار کمی در جای خود دارد.

مانند دیپ‌سیک، مدل Llama ۳.۲ خود متا نیز می‌تواند توسط دیگران برای ساخت ابزارهای هوش مصنوعی که از کتابخانه عظیم داده‌های میلیاردها کاربر فیس‌بوک و اینستاگرام که روی آن آموزش داده شده‌اند، بهره می‌برند، استفاده شود.

متا می‌گوید که چارچوب خود را در صورت لزوم با ادامه تکامل هوش مصنوعی، بازبینی و به‌روزرسانی خواهد کرد.

سند متا بیان می‌کند: “ما انتظار داریم که چارچوب خود را با توسعه درک جمعی خود از چگونگی اندازه‌گیری و کاهش خطر بالقوه فاجعه‌بار از هوش مصنوعی مرزی، از جمله مربوط به بازیگران دولتی، به‌روزرسانی کنیم.”

“این ممکن است شامل افزودن، حذف یا به‌روزرسانی پیامدهای فاجعه‌بار یا سناریوهای تهدید، یا تغییر روش‌هایی باشد که در آنها مدل‌ها را برای ارزیابی آماده می‌کنیم.”

به این پست امتیاز بدید

نظرات در مورد : متا در مورد هوش مصنوعی خطرناک تجدید نظر می‌کند!

0 دیدگاه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *