مدیرعامل آنتروپیک، دیپ سیک را در آزمون ایمنی دادههای سلاحهای بیولوژیکی “بدترین” مدل هوش مصنوعی نامید. او نگران است که این مدل اطلاعات نادری در مورد سلاحهای بیولوژیکی تولید کرده و این موضوع میتواند خطرات جدی در آینده داشته باشد. این در حالی است که شرکتهای بزرگی مانند آمازون و مایکروسافت از دیپسیک در پلتفرمهای خود استفاده میکنند و برخی از سازمانها آن را ممنوع کردهاند.
مدیرعامل آنتروپیک، دیپ سیک را “بدترین” در آزمون ایمنی سلاحهای بیولوژیکی خواند
به گزارش زوم تک از تک کرانچ، داریو آمودی، مدیرعامل آنتروپیک، نگران رقیب خود، دیپسیک، شرکت هوش مصنوعی چینی است که با مدل R1 خود سیلیکون ولی را متحول کرد. نگرانیهای او میتواند جدیتر از نگرانیهای معمولی در مورد ارسال دادههای کاربر به چین باشد.
عملکرد ضعیف دیپ سیک در آزمونهای ایمنی
آمودی در مصاحبهای در پادکست ChinaTalk جردن اشنایدر گفت که دیپسیک اطلاعات نادری در مورد سلاحهای بیولوژیکی در یک آزمون ایمنی که توسط آنتروپیک انجام شده بود، تولید کرده است.
به گفته آمودی، عملکرد دیپسیک “بدترین عملکرد در بین هر مدلی بود که تاکنون آزمایش کردهایم.” “این مدل مطلقا هیچ مانعی در برابر تولید این اطلاعات نداشت.”
نگرانیهای امنیتی
آمودی اظهار داشت که این بخشی از ارزیابیهایی بود که آنتروپیک به طور معمول روی مدلهای مختلف هوش مصنوعی انجام میدهد تا پتانسیل خطرات امنیت ملی آنها را ارزیابی کند. تیم او بررسی میکند که آیا مدلها میتوانند اطلاعات مربوط به سلاحهای بیولوژیکی را که به راحتی در گوگل یا کتابهای درسی یافت نمیشود، تولید کنند یا خیر. آنتروپیک خود را به عنوان ارائه دهنده مدل پایه هوش مصنوعی معرفی میکند که ایمنی را جدی میگیرد.
آمودی گفت که فکر نمیکند مدلهای دیپسیک امروزه “به معنای واقعی کلمه خطرناک” در ارائه اطلاعات نادر و خطرناک باشند، اما ممکن است در آینده نزدیک چنین باشند. اگرچه او تیم دیپسیک را “مهندسان با استعداد” نامید، اما به این شرکت توصیه کرد که “این ملاحظات ایمنی هوش مصنوعی را جدی بگیرد.”
کنترل صادرات و رقابت در عرصه هوش مصنوعی
آمودی همچنین از کنترلهای صادراتی شدید روی تراشهها به چین حمایت کرده و نگرانیهایی را مبنی بر اینکه این تراشهها میتوانند به ارتش چین برتری بدهند، مطرح کرده است.
آمودی در مصاحبه ChinaTalk مشخص نکرد که کدام مدل دیپسیک توسط آنتروپیک آزمایش شده است و جزئیات فنی بیشتری در مورد این آزمایشها ارائه نکرد. آنتروپیک و دیپسیک بلافاصله به درخواست تک کرانچ برای اظهار نظر پاسخ ندادند.
نگرانیهای دیگر و آینده دیپ سیک
صعود دیپسیک نگرانیهایی را در مورد ایمنی آن در جاهای دیگر نیز برانگیخته است. برای مثال، محققان امنیتی سیسکو هفته گذشته گفتند که دیپسیک R1 در آزمونهای ایمنی خود نتوانست هیچ یک از درخواستهای مضر را مسدود کند و به نرخ موفقیت 100 درصدی در شکستن محدودیتها دست یافت.
سیسکو به سلاحهای بیولوژیکی اشارهای نکرد، اما گفت که توانسته است دیپسیک را وادار به تولید اطلاعات مضر در مورد جرایم سایبری و سایر فعالیتهای غیرقانونی کند. البته لازم به ذکر است که Llama-3.1-405B متا و GPT-4o اوپنایآی نیز نرخ شکست بالایی به ترتیب 96 و 86 درصد داشتند.
باید دید که آیا نگرانیهای ایمنی مانند این موارد تأثیر جدی بر پذیرش سریع دیپ سیک خواهد داشت یا خیر. شرکتهایی مانند AWS و مایکروسافت علناً از ادغام R1 در پلتفرمهای ابری خود گفتهاند – که به اندازه کافی طعنهآمیز است، با توجه به اینکه آمازون بزرگترین سرمایهگذار آنتروپیک است.
از سوی دیگر، فهرست رو به رشدی از کشورها، شرکتها و به ویژه سازمانهای دولتی مانند نیروی دریایی ایالات متحده و پنتاگون وجود دارد که شروع به ممنوع کردن دیپسیک کردهاند.
زمان مشخص خواهد کرد که آیا این تلاشها نتیجه میدهد یا صعود جهانی دیپسیک ادامه خواهد داشت. در هر صورت، آمودی میگوید که دیپسیک را رقیب جدیدی میداند که در سطح برترین شرکتهای هوش مصنوعی ایالات متحده قرار دارد.
او در ChinaTalk گفت: “واقعیت جدید در اینجا این است که یک رقیب جدید وجود دارد.” “در شرکتهای بزرگی که میتوانند هوش مصنوعی را آموزش دهند – آنتروپیک، اوپنایآی، گوگل، شاید متا و xAI – اکنون دیپسیک احتمالاً به این دسته اضافه میشود.”
نظرات در مورد : فوری : دیپ سیک را “بدترین” هوش مصنوعی در آزمون ایمنی سلاح های بیولوژیکی!