برخی از محققان ژاپنی احساس می کنند که سیستم های هوش مصنوعی آموزش دیده بر روی زبان های خارجی نمی توانند پیچیدگی های زبان و فرهنگ ژاپنی را درک کنند.
ساخت نسخه ChatGPT در ژاپن
ابرکامپیوتر ژاپنی Fugaku برای هضم متون ژاپنی به منظور توسعه نسخه ژاپنی ChatGPT کار می کند. منبع: Kyodo News از طریق Getty ژاپن در حال ساخت نسخه های خود از ChatGPT است. چت ربات هوش مصنوعی AI که توسط شرکت آمریکایی OpenAI ساخته شده است که پس از رونمایی از آن درست کمتر از یک سال پیش، به یک حس جهانی تبدیل شد.
دولت ژاپن و شرکتهای بزرگ فناوری مانند NEC، فوجیتسو و سافتبانک صدها میلیون دلار برای ایجاد سیستمهای هوش مصنوعی صرف میکنند که بر اساس همان فناوری زیربنایی، معروف به مدلهای زبان بزرگ LLM هستند، اما از زبان ژاپنی استفاده میکنند. به جای ترجمه نسخه انگلیسی.
کیسوکه ساکاگوچی، محقق دانشگاه توهوکو در ژاپن که متخصص زبان طبیعی است، میگوید: LLMهای عمومی فعلی، مانند GPT، در زبان انگلیسی برتری دارند، اما اغلب در ژاپنی به دلیل تفاوت در سیستم الفبا، دادههای محدود و سایر عوامل، که در پردازش زبان طبیعی تخصص دارد کوتاهی میکنند..
LLM ها معمولاً از حجم عظیمی از داده ها از منابع در دسترس عموم برای یادگیری الگوهای گفتار و نثر طبیعی استفاده می کنند. آنها آموزش می بینند که کلمه بعدی را بر اساس کلمات قبلی در یک متن پیش بینی کنند. اکثریت قریب به اتفاق متنی که مدل قبلی ChatGPT، GPT-3، روی آن آموزش داده شده بود، به زبان انگلیسی بود.
توانایی وحشتناک ChatGPT برای برقراری مکالمات شبیه انسان، هم محققان را خوشحال و هم نگران کرده است. برخی آن را یک ابزار بالقوه برای صرفه جویی در نیروی کار می دانند. دیگران نگران هستند که از آن برای ساخت مقالات یا داده های علمی استفاده شود.
در ژاپن، این نگرانی وجود دارد که سیستمهای هوش مصنوعی آموزشدیده بر روی مجموعههای داده به زبانهای دیگر نتوانند پیچیدگیهای زبان و فرهنگ ژاپن را درک کنند. ساختار جملات در زبان ژاپنی کاملاً متفاوت از انگلیسی است. بنابراین ChatGPT باید یک درخواست ژاپنی را به انگلیسی ترجمه کند، پاسخ را بیابد و سپس پاسخ را به ژاپنی ترجمه کند.
در حالی که انگلیسی فقط 26 حرف دارد، ژاپنی نوشتاری شامل دو مجموعه 48 نویسه اصلی، به علاوه 2136 نویسه چینی یا کانجی است که به طور منظم استفاده می شود. اکثر کانجی ها دو یا چند تلفظ دارند و 50000 کانجی دیگر وجود دارد که به ندرت استفاده می شود. با توجه به این پیچیدگی، تعجب آور نیست که ChatGPT بتواند با این زبان برخورد کند.
ساکاگوچی میگوید: در زبان ژاپنی، ChatGPT گاهی اوقات شخصیتهای بسیار کمیابی را تولید میکند که اکثر مردم قبلاً هرگز آنها را ندیدهاند، و کلمات ناشناخته عجیب و غریب بهوجود میآیند».
هنجارهای فرهنگی
برای اینکه یک LLM مفید و حتی از نظر تجاری قابل دوام باشد، باید شیوه های فرهنگی و همچنین زبان را به طور دقیق منعکس کند. برای مثال، اگر از ChatGPT خواسته شود که یک ایمیل درخواست شغل به زبان ژاپنی بنویسد، ممکن است ا اسدبیات مودبانه را حذف کند و مانند ترجمه ای واضح از انگلیسی به نظر برسد.
برای سنجش میزان حساسیت LLM ها به فرهنگ ژاپنی، گروهی از محققان Rakuda را راه اندازی کردند، رتبه بندی که نشان می دهد LLM ها چقدر می توانند به سوالات باز در مورد موضوعات ژاپنی پاسخ دهند. سام پاساگلیا، بنیانگذار Rakuda و همکارانش از ChatGPT خواستند که سیالیت و تناسب فرهنگی پاسخها را با درخواستهای استاندارد مقایسه کند. استفاده آنها از ابزار برای رتبهبندی نتایج بر اساس پیشچاپ منتشر شده در ژوئن بود که نشان داد GPT-4 در 87 درصد مواقع با بازبینهای انسانی موافق است. بهترین LLM منبع باز ژاپنی در رتبه چهارم راکودا قرار دارد، در حالی که در رتبه اول، شاید با توجه به اینکه داور مسابقه نیز هست، در رتبه اول قرار دارد.
پاساگلیا، فیزیکدان دانشگاه توکیو که مدلهای زبان ژاپنی را مطالعه میکند، میگوید: «مسلماً LLMهای ژاپنی بسیار بهتر میشوند، اما آنها بسیار عقبتر از GPT-4 هستند. او میگوید، اما اصولاً دلیلی وجود ندارد که یک LLM ژاپنی نتواند در آینده برابر یا از GPT-4 پیشی بگیرد. “این از نظر فنی غیرقابل حل نیست، بلکه فقط یک مسئله منابع است.”
یکی از تلاشهای بزرگ برای ایجاد یک LLM ژاپنی استفاده از ابررایانه ژاپنی Fugaku، یکی از سریعترینهای جهان است که آن را عمدتاً بر روی ورودی ژاپنی زبان آموزش میدهد. با حمایت موسسه فناوری توکیو، دانشگاه توهوکو، فوجیتسو و گروه مراکز تحقیقاتی RIKEN با بودجه دولتی، انتظار می رود LLM حاصل در سال آینده منتشر شود. برخلاف GPT-4 و سایر مدلهای اختصاصی، به سایر LLMهای منبع باز ملحق میشود تا کد خود را در دسترس همه کاربران قرار دهند. به گفته ساکاگوچی، که در این پروژه مشارکت دارد، تیم امیدوار است حداقل 30 میلیارد پارامتر به آن بدهد، که مقادیری هستند که بر خروجی آن تأثیر میگذارند و میتوانند به عنوان معیاری برای اندازه آن عمل کنند.
با این حال، Fugaku LLM ممکن است توسط یک حتی بزرگتر جانشین شود. وزارت آموزش، فرهنگ، ورزش، علم و فناوری ژاپن بودجه ایجاد یک برنامه هوش مصنوعی ژاپنی را که مطابق با نیازهای علمی است، تأمین می کند که با یادگیری از تحقیقات منتشر شده، فرضیه های علمی را ایجاد می کند و به شناسایی اهداف برای تحقیق سرعت می بخشد. این مدل میتواند با 100 میلیارد پارامتر شروع شود که کمی بیش از نیمی از اندازه GPT-3 است و به مرور زمان گسترش مییابد.
ماکوتو تایجی، معاون مرکز تحقیقات دینامیک بیوسیستم RIKEN، در مورد این پروژه می گوید: «امیدواریم چرخه تحقیقات علمی را به طور چشمگیری تسریع کنیم و فضای جستجو را گسترش دهیم. توسعه LLM حداقل 30 میلیارد ین (204 میلیون دلار آمریکا) هزینه خواهد داشت و انتظار می رود در سال 2031 به صورت عمومی منتشر شود.
گسترش قابلیت ها
دیگر شرکت های ژاپنی در حال تجاری سازی یا برنامه ریزی برای تجاری سازی فناوری های LLM خود هستند. سازنده ابر رایانه NEC در ماه مه استفاده از هوش مصنوعی مولد خود را بر اساس زبان ژاپنی آغاز کرد و ادعا می کند که زمان مورد نیاز برای ایجاد گزارش های داخلی را 50٪ و کد منبع نرم افزار داخلی را 80٪ کاهش می دهد. در ماه جولای، این شرکت شروع به ارائه خدمات هوش مصنوعی قابل تنظیم به مشتریان کرد.
Masafumi Oyamada، محقق اصلی در آزمایشگاههای علوم داده NEC، میگوید که میتوان از آن در طیف وسیعی از صنایع مانند مالی، حملونقل و تدارکات، توزیع و ساخت استفاده کرد. او اضافه میکند که محققان میتوانند آن را برای نوشتن کد، کمک به نوشتن و ویرایش مقالات و بررسی مقالات منتشر شده موجود، از جمله کارهای دیگر، به کار ببندند.
در همین حال، شرکت مخابراتی ژاپنی SoftBank، حدود 20 میلیارد ین روی هوش مصنوعی مولد آموزش داده شده بر روی متن ژاپنی سرمایه گذاری کرده و قصد دارد سال آینده LLM خود را راه اندازی کند. سافت بانک که 40 میلیون مشتری دارد و با مایکروسافت سرمایه گذار OpenAI شراکت دارد، می گوید که قصد دارد به شرکت ها کمک کند تا کسب و کار خود را دیجیتالی کنند و بهره وری را افزایش دهند. SoftBank انتظار دارد که LLM آن توسط دانشگاه ها، موسسات تحقیقاتی و سایر سازمان ها استفاده شود.
در همین حال، محققان ژاپنی امیدوارند که یک چت ربات هوش مصنوعی دقیق، موثر و ساخت ژاپن بتواند به سرعت بخشیدن به علم و پر کردن شکاف بین ژاپن و سایر نقاط جهان کمک کند.
شوتارو کینوشیتا، محقق فناوری پزشکی در دانشکده پزشکی دانشگاه کیو در توکیو می گوید: «اگر بتوان نسخه ژاپنی ChatGPT را دقیق ساخت، انتظار می رود برای افرادی که می خواهند ژاپنی یاد بگیرند یا در مورد ژاپن تحقیق کنند، نتایج بهتری به همراه داشته باشد. در نتیجه، ممکن است تأثیر مثبتی بر تحقیقات مشترک بینالمللی داشته باشد.»
نظرات در مورد : چرا ژاپن در حال ساخت نسخه ChatGPT خود است؟