به گزارش بخش اخبار فناوری زوم تک ,نگرانی در مورد تسلط هوش مصنوعی بر جهان و نابودی بشریت، موضوعی است که در سالهای اخیر بسیار مورد توجه قرار گرفته است. اما یان لکون، یکی از برجستهترین دانشمندان هوش مصنوعی، معتقد است که این نگرانیها بیش از حد اغراقآمیز هستند. او با اشاره به محدودیتهای فعلی مدلهای هوش مصنوعی، میگوید که این فناوری هنوز به نقطهای نرسیده که بتواند تهدیدی برای وجود انسان محسوب شود.
یان لکون، یکی از پیشگامان هوش مصنوعی، به شدت از نگرانیهای مطرحشده در مورد هوش مصنوعی خودآگاه انتقاد کرده و آنها را “مزخرف محض” خوانده است.
در حالی که بسیاری از کارشناسان و چهرههای سرشناس درباره خطرات بالقوهی هوش مصنوعی خودآگاه هشدار میدهند، یان لکون، یکی از برجستهترین دانشمندان هوش مصنوعی در جهان، دیدگاه متفاوتی دارد. لکون که به عنوان یکی از پدرانخواندههای یادگیری عمیق شناخته میشود، معتقد است که نگرانیها در مورد تسلط هوش مصنوعی بر جهان و نابودی بشریت، بیش از حد اغراقآمیز است.
جنگ لفظی در دنیای هوش مصنوعی: لکون به منتقدان هوش مصنوعی تاخت
یان لکون، استاد دانشگاه نیویورک و پژوهشگر ارشد متا، در مصاحبههای اخیر خود به شدت از نگرانیهای مربوط به هوش مصنوعی خودآگاه انتقاد کرده است. او معتقد است که مدلهای زبانی بزرگ امروزی، مانند GPT-3، علیرغم تواناییهای چشمگیرشان در تولید متن، هنوز فاصلهی زیادی تا دستیابی به سطحی از هوشمندی دارند که بتواند تهدیدی برای بشریت محسوب شود.
لکون با بیان اینکه مدلهای کنونی حتی قادر به انجام کارهایی مانند یک گربه خانگی نیستند، به این نکته اشاره میکند که این مدلها فاقد درک عمیقی از جهان هستند و نمیتوانند به صورت مستقل یاد بگیرند یا مشکلات پیچیده را حل کنند. به گفتهی او، این مدلها صرفاً بر اساس دادههای عظیمی که به آنها آموزش داده شده است، الگوهای آماری را تشخیص میدهند و قادر به تفکر انتقادی یا خلاقیت نیستند.
چرا لکون اینقدر مطمئن است؟
لکون دلایل متعددی برای این ادعای خود ارائه میدهد:
فقدان درک عمیق: مدلهای زبانی بزرگ درک عمیقی از جهان ندارند و تنها بر اساس الگوهای آماری عمل میکنند.
عدم توانایی در یادگیری مستقل: این مدلها به دادههای بسیار زیادی نیاز دارند تا بتوانند عملکرد خوبی داشته باشند و قادر به یادگیری مستقل نیستند.
ناتوانی در حل مشکلات پیچیده: مدلهای زبانی بزرگ در حل مشکلات پیچیده و نیازمند تفکر انتقادی، عملکرد ضعیفی دارند.
واکنشها به نظرات لکون
نظرات لکون با واکنشهای متفاوتی روبرو شده است. برخی از کارشناسان با او موافق هستند و معتقدند که نگرانیهای مربوط به هوش مصنوعی خودآگاه اغراقآمیز است. اما برخی دیگر بر این باورند که لکون خطرات بالقوهی هوش مصنوعی را دست کم میگیرد.
آیندهی هوش مصنوعی
با توجه به پیشرفتهای سریع در حوزه هوش مصنوعی، این پرسش که آیا هوش مصنوعی در آینده میتواند به سطحی از هوشمندی برسد که تهدیدی برای بشریت باشد، همچنان بیپاسخ باقی مانده است. با این حال، به نظر میرسد که توافق کلی بر سر این نکته وجود دارد که باید با احتیاط و مسئولیتپذیری به توسعهی هوش مصنوعی پرداخت.
نظرات در مورد : لکون: بیایید واقعبین باشیم، هوش مصنوعی هنوز به تهدید وجودی نرسیده است