آنتی ویروس پادویش

لکون: بیایید واقع‌بین باشیم، هوش مصنوعی هنوز به تهدید وجودی نرسیده است

لکون: بیایید واقع‌بین باشیم، هوش مصنوعی هنوز به تهدید وجودی نرسیده است

به گزارش بخش اخبار فناوری زوم تک ,نگرانی در مورد تسلط هوش مصنوعی بر جهان و نابودی بشریت، موضوعی است که در سال‌های اخیر بسیار مورد توجه قرار گرفته است. اما یان لکون، یکی از برجسته‌ترین دانشمندان هوش مصنوعی، معتقد است که این نگرانی‌ها بیش از حد اغراق‌آمیز هستند. او با اشاره به محدودیت‌های فعلی مدل‌های هوش مصنوعی، می‌گوید که این فناوری هنوز به نقطه‌ای نرسیده که بتواند تهدیدی برای وجود انسان محسوب شود.

یان لکون، یکی از پیشگامان هوش مصنوعی، به شدت از نگرانی‌های مطرح‌شده در مورد هوش مصنوعی خودآگاه انتقاد کرده و آن‌ها را “مزخرف محض” خوانده است.

در حالی که بسیاری از کارشناسان و چهره‌های سرشناس درباره خطرات بالقوه‌ی هوش مصنوعی خودآگاه هشدار می‌دهند، یان لکون، یکی از برجسته‌ترین دانشمندان هوش مصنوعی در جهان، دیدگاه متفاوتی دارد. لکون که به عنوان یکی از پدرانخوانده‌های یادگیری عمیق شناخته می‌شود، معتقد است که نگرانی‌ها در مورد تسلط هوش مصنوعی بر جهان و نابودی بشریت، بیش از حد اغراق‌آمیز است.

جنگ لفظی در دنیای هوش مصنوعی: لکون به منتقدان هوش مصنوعی تاخت

یان لکون، استاد دانشگاه نیویورک و پژوهشگر ارشد متا، در مصاحبه‌های اخیر خود به شدت از نگرانی‌های مربوط به هوش مصنوعی خودآگاه انتقاد کرده است. او معتقد است که مدل‌های زبانی بزرگ امروزی، مانند GPT-3، علی‌رغم توانایی‌های چشمگیرشان در تولید متن، هنوز فاصله‌ی زیادی تا دستیابی به سطحی از هوشمندی دارند که بتواند تهدیدی برای بشریت محسوب شود.

لکون با بیان اینکه مدل‌های کنونی حتی قادر به انجام کارهایی مانند یک گربه خانگی نیستند، به این نکته اشاره می‌کند که این مدل‌ها فاقد درک عمیقی از جهان هستند و نمی‌توانند به صورت مستقل یاد بگیرند یا مشکلات پیچیده را حل کنند. به گفته‌ی او، این مدل‌ها صرفاً بر اساس داده‌های عظیمی که به آن‌ها آموزش داده شده است، الگوهای آماری را تشخیص می‌دهند و قادر به تفکر انتقادی یا خلاقیت نیستند.

 لکون: بیایید واقع‌بین باشیم، هوش مصنوعی هنوز به تهدید وجودی نرسیده است

چرا لکون اینقدر مطمئن است؟

لکون دلایل متعددی برای این ادعای خود ارائه می‌دهد:

فقدان درک عمیق: مدل‌های زبانی بزرگ درک عمیقی از جهان ندارند و تنها بر اساس الگوهای آماری عمل می‌کنند.
عدم توانایی در یادگیری مستقل: این مدل‌ها به داده‌های بسیار زیادی نیاز دارند تا بتوانند عملکرد خوبی داشته باشند و قادر به یادگیری مستقل نیستند.
ناتوانی در حل مشکلات پیچیده: مدل‌های زبانی بزرگ در حل مشکلات پیچیده و نیازمند تفکر انتقادی، عملکرد ضعیفی دارند.

واکنش‌ها به نظرات لکون

نظرات لکون با واکنش‌های متفاوتی روبرو شده است. برخی از کارشناسان با او موافق هستند و معتقدند که نگرانی‌های مربوط به هوش مصنوعی خودآگاه اغراق‌آمیز است. اما برخی دیگر بر این باورند که لکون خطرات بالقوه‌ی هوش مصنوعی را دست کم می‌گیرد.

آینده‌ی هوش مصنوعی

با توجه به پیشرفت‌های سریع در حوزه هوش مصنوعی، این پرسش که آیا هوش مصنوعی در آینده می‌تواند به سطحی از هوشمندی برسد که تهدیدی برای بشریت باشد، همچنان بی‌پاسخ باقی مانده است. با این حال، به نظر می‌رسد که توافق کلی بر سر این نکته وجود دارد که باید با احتیاط و مسئولیت‌پذیری به توسعه‌ی هوش مصنوعی پرداخت.

به این پست امتیاز بدید

نظرات در مورد : لکون: بیایید واقع‌بین باشیم، هوش مصنوعی هنوز به تهدید وجودی نرسیده است

0 دیدگاه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *