آنتی ویروس پادویش

فوری : دیپ سیک را “بدترین” هوش مصنوعی در آزمون ایمنی سلاح‌ های بیولوژیکی!

دیپ سیک را "بدترین" هوش مصنوعی

مدیرعامل آنتروپیک، دیپ سیک را در آزمون ایمنی داده‌های سلاح‌های بیولوژیکی “بدترین” مدل هوش مصنوعی نامید. او نگران است که این مدل اطلاعات نادری در مورد سلاح‌های بیولوژیکی تولید کرده و این موضوع می‌تواند خطرات جدی در آینده داشته باشد. این در حالی است که شرکت‌های بزرگی مانند آمازون و مایکروسافت از دیپ‌سیک در پلتفرم‌های خود استفاده می‌کنند و برخی از سازمان‌ها آن را ممنوع کرده‌اند.

آمارتکسالگوراک

مدیرعامل آنتروپیک، دیپ سیک را “بدترین” در آزمون ایمنی سلاح‌های بیولوژیکی خواند

به گزارش زوم تک از تک کرانچ، داریو آمودی، مدیرعامل آنتروپیک، نگران رقیب خود، دیپ‌سیک، شرکت هوش مصنوعی چینی است که با مدل R1 خود سیلیکون ولی را متحول کرد. نگرانی‌های او می‌تواند جدی‌تر از نگرانی‌های معمولی در مورد ارسال داده‌های کاربر به چین باشد.

عملکرد ضعیف دیپ سیک در آزمون‌های ایمنی

آمودی در مصاحبه‌ای در پادکست ChinaTalk جردن اشنایدر گفت که دیپ‌سیک اطلاعات نادری در مورد سلاح‌های بیولوژیکی در یک آزمون ایمنی که توسط آنتروپیک انجام شده بود، تولید کرده است.

به گفته آمودی، عملکرد دیپ‌سیک “بدترین عملکرد در بین هر مدلی بود که تاکنون آزمایش کرده‌ایم.” “این مدل مطلقا هیچ مانعی در برابر تولید این اطلاعات نداشت.”

نگرانی‌های امنیتی

آمودی اظهار داشت که این بخشی از ارزیابی‌هایی بود که آنتروپیک به طور معمول روی مدل‌های مختلف هوش مصنوعی انجام می‌دهد تا پتانسیل خطرات امنیت ملی آنها را ارزیابی کند. تیم او بررسی می‌کند که آیا مدل‌ها می‌توانند اطلاعات مربوط به سلاح‌های بیولوژیکی را که به راحتی در گوگل یا کتاب‌های درسی یافت نمی‌شود، تولید کنند یا خیر. آنتروپیک خود را به عنوان ارائه دهنده مدل پایه هوش مصنوعی معرفی می‌کند که ایمنی را جدی می‌گیرد.

آمودی گفت که فکر نمی‌کند مدل‌های دیپ‌سیک امروزه “به معنای واقعی کلمه خطرناک” در ارائه اطلاعات نادر و خطرناک باشند، اما ممکن است در آینده نزدیک چنین باشند. اگرچه او تیم دیپ‌سیک را “مهندسان با استعداد” نامید، اما به این شرکت توصیه کرد که “این ملاحظات ایمنی هوش مصنوعی را جدی بگیرد.”

کنترل صادرات و رقابت در عرصه هوش مصنوعی

آمودی همچنین از کنترل‌های صادراتی شدید روی تراشه‌ها به چین حمایت کرده و نگرانی‌هایی را مبنی بر اینکه این تراشه‌ها می‌توانند به ارتش چین برتری بدهند، مطرح کرده است.

آمودی در مصاحبه ChinaTalk مشخص نکرد که کدام مدل دیپ‌سیک توسط آنتروپیک آزمایش شده است و جزئیات فنی بیشتری در مورد این آزمایش‌ها ارائه نکرد. آنتروپیک و دیپ‌سیک بلافاصله به درخواست تک کرانچ برای اظهار نظر پاسخ ندادند.

نگرانی‌های دیگر و آینده دیپ سیک

صعود دیپ‌سیک نگرانی‌هایی را در مورد ایمنی آن در جاهای دیگر نیز برانگیخته است. برای مثال، محققان امنیتی سیسکو هفته گذشته گفتند که دیپ‌سیک R1 در آزمون‌های ایمنی خود نتوانست هیچ یک از درخواست‌های مضر را مسدود کند و به نرخ موفقیت 100 درصدی در شکستن محدودیت‌ها دست یافت.

سیسکو به سلاح‌های بیولوژیکی اشاره‌ای نکرد، اما گفت که توانسته است دیپ‌سیک را وادار به تولید اطلاعات مضر در مورد جرایم سایبری و سایر فعالیت‌های غیرقانونی کند. البته لازم به ذکر است که Llama-3.1-405B متا و GPT-4o اوپن‌ای‌آی نیز نرخ شکست بالایی به ترتیب 96 و 86 درصد داشتند.

باید دید که آیا نگرانی‌های ایمنی مانند این موارد تأثیر جدی بر پذیرش سریع دیپ سیک خواهد داشت یا خیر. شرکت‌هایی مانند AWS و مایکروسافت علناً از ادغام R1 در پلتفرم‌های ابری خود گفته‌اند – که به اندازه کافی طعنه‌آمیز است، با توجه به اینکه آمازون بزرگترین سرمایه‌گذار آنتروپیک است.

از سوی دیگر، فهرست رو به رشدی از کشورها، شرکت‌ها و به ویژه سازمان‌های دولتی مانند نیروی دریایی ایالات متحده و پنتاگون وجود دارد که شروع به ممنوع کردن دیپ‌سیک کرده‌اند.

زمان مشخص خواهد کرد که آیا این تلاش‌ها نتیجه می‌دهد یا صعود جهانی دیپ‌سیک ادامه خواهد داشت. در هر صورت، آمودی می‌گوید که دیپ‌سیک را رقیب جدیدی می‌داند که در سطح برترین شرکت‌های هوش مصنوعی ایالات متحده قرار دارد.

او در ChinaTalk گفت: “واقعیت جدید در اینجا این است که یک رقیب جدید وجود دارد.” “در شرکت‌های بزرگی که می‌توانند هوش مصنوعی را آموزش دهند – آنتروپیک، اوپن‌ای‌آی، گوگل، شاید متا و xAI – اکنون دیپ‌سیک احتمالاً به این دسته اضافه می‌شود.”

به این پست امتیاز بدید

نظرات در مورد : فوری : دیپ سیک را “بدترین” هوش مصنوعی در آزمون ایمنی سلاح‌ های بیولوژیکی!

0 دیدگاه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *