آنتی ویروس پادویش

چرا ژاپن در حال ساخت نسخه ChatGPT خود است؟

چرا ژاپن در حال ساخت نسخه ChatGPT خود است؟

برخی از محققان ژاپنی احساس می کنند که سیستم های هوش مصنوعی آموزش دیده بر روی زبان های خارجی نمی توانند پیچیدگی های زبان و فرهنگ ژاپنی را درک کنند.

تبلیغ

ساخت نسخه ChatGPT در ژاپن

ساخت نسخه ChatGPT

 

ابرکامپیوتر ژاپنی Fugaku برای هضم متون ژاپنی به منظور توسعه نسخه ژاپنی ChatGPT کار می کند. منبع: Kyodo News از طریق Getty ژاپن در حال ساخت نسخه های خود از ChatGPT است. چت ربات هوش مصنوعی  AI که توسط شرکت آمریکایی OpenAI ساخته شده است که پس از رونمایی از آن درست کمتر از یک سال پیش، به یک حس جهانی تبدیل شد.

دولت ژاپن و شرکت‌های بزرگ فناوری مانند NEC، فوجیتسو و سافت‌بانک صدها میلیون دلار برای ایجاد سیستم‌های هوش مصنوعی صرف می‌کنند که بر اساس همان فناوری زیربنایی، معروف به مدل‌های زبان بزرگ LLM  هستند، اما از زبان ژاپنی استفاده می‌کنند. به جای ترجمه نسخه انگلیسی.

کیسوکه ساکاگوچی، محقق دانشگاه توهوکو در ژاپن که متخصص زبان طبیعی است، می‌گوید: LLMهای عمومی فعلی، مانند GPT، در زبان انگلیسی برتری دارند، اما اغلب در ژاپنی به دلیل تفاوت در سیستم الفبا، داده‌های محدود و سایر عوامل،  که در پردازش زبان طبیعی تخصص دارد کوتاهی می‌کنند..

LLM ها معمولاً از حجم عظیمی از داده ها از منابع در دسترس عموم برای یادگیری الگوهای گفتار و نثر طبیعی استفاده می کنند. آنها آموزش می بینند که کلمه بعدی را بر اساس کلمات قبلی در یک متن پیش بینی کنند. اکثریت قریب به اتفاق متنی که مدل قبلی ChatGPT، GPT-3، روی آن آموزش داده شده بود، به زبان انگلیسی بود.

توانایی وحشتناک ChatGPT برای برقراری مکالمات شبیه انسان، هم محققان را خوشحال و هم نگران کرده است. برخی آن را یک ابزار بالقوه برای صرفه جویی در نیروی کار می دانند. دیگران نگران هستند که از آن برای ساخت مقالات یا داده های علمی استفاده شود.

در ژاپن، این نگرانی وجود دارد که سیستم‌های هوش مصنوعی آموزش‌دیده بر روی مجموعه‌های داده به زبان‌های دیگر نتوانند پیچیدگی‌های زبان و فرهنگ ژاپن را درک کنند. ساختار جملات در زبان ژاپنی کاملاً متفاوت از انگلیسی است. بنابراین ChatGPT باید یک درخواست ژاپنی را به انگلیسی ترجمه کند، پاسخ را بیابد و سپس پاسخ را به ژاپنی ترجمه کند.

در حالی که انگلیسی فقط 26 حرف دارد، ژاپنی نوشتاری شامل دو مجموعه 48 نویسه اصلی، به علاوه 2136 نویسه چینی یا کانجی است که به طور منظم استفاده می شود. اکثر کانجی ها دو یا چند تلفظ دارند و 50000 کانجی دیگر وجود دارد که به ندرت استفاده می شود. با توجه به این پیچیدگی، تعجب آور نیست که ChatGPT بتواند با این زبان برخورد کند.

ساکاگوچی می‌گوید: در زبان ژاپنی، ChatGPT  گاهی اوقات شخصیت‌های بسیار کمیابی را تولید می‌کند که اکثر مردم قبلاً هرگز آن‌ها را ندیده‌اند، و کلمات ناشناخته عجیب و غریب به‌وجود می‌آیند».

 

هنجارهای فرهنگی

برای اینکه یک LLM مفید و حتی از نظر تجاری قابل دوام باشد، باید شیوه های فرهنگی و همچنین زبان را به طور دقیق منعکس کند. برای مثال، اگر از ChatGPT خواسته شود که یک ایمیل درخواست شغل به زبان ژاپنی بنویسد، ممکن است ا اسدبیات مودبانه را حذف کند و مانند ترجمه ای واضح از انگلیسی به نظر برسد.

برای سنجش میزان حساسیت LLM ها به فرهنگ ژاپنی، گروهی از محققان Rakuda را راه اندازی کردند، رتبه بندی که نشان می دهد LLM ها چقدر می توانند به سوالات باز در مورد موضوعات ژاپنی پاسخ دهند. سام پاساگلیا، بنیانگذار Rakuda و همکارانش از ChatGPT خواستند که سیالیت و تناسب فرهنگی پاسخ‌ها را با درخواست‌های استاندارد مقایسه کند. استفاده آنها از ابزار برای رتبه‌بندی نتایج بر اساس پیش‌چاپ منتشر شده در ژوئن بود که نشان داد GPT-4 در 87 درصد مواقع با بازبین‌های انسانی موافق است. بهترین LLM منبع باز ژاپنی در رتبه چهارم راکودا قرار دارد، در حالی که در رتبه اول، شاید با توجه به اینکه داور مسابقه نیز هست، در رتبه اول قرار دارد.

 

پاساگلیا، فیزیکدان دانشگاه توکیو که مدل‌های زبان ژاپنی را مطالعه می‌کند، می‌گوید: «مسلماً LLMهای ژاپنی بسیار بهتر می‌شوند، اما آنها بسیار عقب‌تر از GPT-4 هستند. او می‌گوید، اما اصولاً دلیلی وجود ندارد که یک LLM ژاپنی نتواند در آینده برابر یا از GPT-4 پیشی بگیرد. “این از نظر فنی غیرقابل حل نیست، بلکه فقط یک مسئله منابع است.”

یکی از تلاش‌های بزرگ برای ایجاد یک LLM ژاپنی استفاده از ابررایانه ژاپنی Fugaku، یکی از سریع‌ترین‌های جهان است که آن را عمدتاً بر روی ورودی ژاپنی زبان آموزش می‌دهد. با حمایت موسسه فناوری توکیو، دانشگاه توهوکو، فوجیتسو و گروه مراکز تحقیقاتی RIKEN با بودجه دولتی، انتظار می رود LLM حاصل در سال آینده منتشر شود. برخلاف GPT-4 و سایر مدل‌های اختصاصی، به سایر LLM‌های منبع باز ملحق می‌شود تا کد خود را در دسترس همه کاربران قرار دهند. به گفته ساکاگوچی، که در این پروژه مشارکت دارد، تیم امیدوار است حداقل 30 میلیارد پارامتر به آن بدهد، که مقادیری هستند که بر خروجی آن تأثیر می‌گذارند و می‌توانند به عنوان معیاری برای اندازه آن عمل کنند.

با این حال، Fugaku LLM ممکن است توسط یک حتی بزرگتر جانشین شود. وزارت آموزش، فرهنگ، ورزش، علم و فناوری ژاپن بودجه ایجاد یک برنامه هوش مصنوعی ژاپنی را که مطابق با نیازهای علمی است، تأمین می کند که با یادگیری از تحقیقات منتشر شده، فرضیه های علمی را ایجاد می کند و به شناسایی اهداف برای تحقیق سرعت می بخشد. این مدل می‌تواند با 100 میلیارد پارامتر شروع شود که کمی بیش از نیمی از اندازه GPT-3 است و به مرور زمان گسترش می‌یابد.

ماکوتو تایجی، معاون مرکز تحقیقات دینامیک بیوسیستم RIKEN، در مورد این پروژه می گوید: «امیدواریم چرخه تحقیقات علمی را به طور چشمگیری تسریع کنیم و فضای جستجو را گسترش دهیم. توسعه LLM حداقل 30 میلیارد ین (204 میلیون دلار آمریکا) هزینه خواهد داشت و انتظار می رود در سال 2031 به صورت عمومی منتشر شود.

گسترش قابلیت ها

دیگر شرکت های ژاپنی در حال تجاری سازی یا برنامه ریزی برای تجاری سازی فناوری های LLM خود هستند. سازنده ابر رایانه NEC در ماه مه استفاده از هوش مصنوعی مولد خود را بر اساس زبان ژاپنی آغاز کرد و ادعا می کند که زمان مورد نیاز برای ایجاد گزارش های داخلی را 50٪ و کد منبع نرم افزار داخلی را 80٪ کاهش می دهد. در ماه جولای، این شرکت شروع به ارائه خدمات هوش مصنوعی قابل تنظیم به مشتریان کرد.

Masafumi Oyamada، محقق اصلی در آزمایشگاه‌های علوم داده NEC، می‌گوید که می‌توان از آن در طیف وسیعی از صنایع مانند مالی، حمل‌ونقل و تدارکات، توزیع و ساخت استفاده کرد. او اضافه می‌کند که محققان می‌توانند آن را برای نوشتن کد، کمک به نوشتن و ویرایش مقالات و بررسی مقالات منتشر شده موجود، از جمله کارهای دیگر، به کار ببندند.

در همین حال، شرکت مخابراتی ژاپنی SoftBank، حدود 20 میلیارد ین روی هوش مصنوعی مولد آموزش داده شده بر روی متن ژاپنی سرمایه گذاری کرده و قصد دارد سال آینده LLM خود را راه اندازی کند. سافت بانک که 40 میلیون مشتری دارد و با مایکروسافت سرمایه گذار OpenAI شراکت دارد، می گوید که قصد دارد به شرکت ها کمک کند تا کسب و کار خود را دیجیتالی کنند و بهره وری را افزایش دهند. SoftBank انتظار دارد که LLM آن توسط دانشگاه ها، موسسات تحقیقاتی و سایر سازمان ها استفاده شود.

در همین حال، محققان ژاپنی امیدوارند که یک چت ربات هوش مصنوعی دقیق، موثر و ساخت ژاپن بتواند به سرعت بخشیدن به علم و پر کردن شکاف بین ژاپن و سایر نقاط جهان کمک کند.

شوتارو کینوشیتا، محقق فناوری پزشکی در دانشکده پزشکی دانشگاه کیو در توکیو می گوید: «اگر بتوان نسخه ژاپنی ChatGPT را دقیق ساخت، انتظار می رود برای افرادی که می خواهند ژاپنی یاد بگیرند یا در مورد ژاپن تحقیق کنند، نتایج بهتری به همراه داشته باشد. در نتیجه، ممکن است تأثیر مثبتی بر تحقیقات مشترک بین‌المللی داشته باشد.»

 

 

به این پست امتیاز بدید

https://zoomtech.org/wp-admin/post.php?post=161631&action=edit

نظرات در مورد : چرا ژاپن در حال ساخت نسخه ChatGPT خود است؟

0 دیدگاه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *