محققان درمورد اینکه ابزارهایی مانند چتجیپیتی[۱] چگونه میتوانند علم و جامعه را متحول کنند، هیجانزده و در عین حال نگران هستند
در دسامبر گذشته (۲۰۲۲) دو زیستشناس محاسباتی به نامهای کیسی گرین[۲] و میلتون پیویدوری[۳] دست به آزمایشی غیرمعمول زدند: آنها از یک دستیار که مثل خودشان محقق نبود خواستند تا به ایشان در اصلاح سه مقالۀ پژوهشی کمک کند. دستیار سختکوش آنها بازنگریهایی در بخشهایی از اسناد را تنها در طی چند ثانیه پیشنهاد کرد. بررسی هر مقاله حدود پنج دقیقه طول کشید. در یکی از مقالات زیستشناسی، دستیار آنها حتی یک اشتباه در ارجاع به یک معادله را تشخیص داد. آزمایش همیشه بهراحتی اتفاق نمیافتاد، اما خواندن مقالات نهایی راحتتر –و هزینهها نسبتاً کم، و در حدود کمتر از نیم دلار برای هر سند– بود.
این دستیار، همانطور که گرین و پیویدوری در یک نسخۀ پیش از انتشار در ۲۳ ژانویه گزارش کردند، یک شخص نیست، بلکه یک الگوریتم هوش مصنوعی به نام جیپیتی–3 است که برای اولین بار در سال ۲۰۲۰ در اختیار همگان قرار گرفت. این یکی از هیجانانگیزترین ابزارهای دستۀ چتباتهای هوش مصنوعی است که میتوانند متنِ روانِ متقاعدکنندهای تولید کنند، از نثر و شعر و کدنویسی کامپیوتر گرفته –مثل مورد دو دانشمند ذکرشده– تا ویرایش مقالات پژوهشی.
معروفترینِ این ابزارها –که مدلهای کلان زبانی[۴] یا «LLM» نیز خوانده میشود– چتجیپیتی است. این نسخه از جیپیتی–3 پس از انتشار در نوامبر سال گذشته شهرت زیادی پیدا کرد؛ چراکه رایگان و بهراحتی قابلدسترسی بود. سایر هوش مصنوعیهای مولّد میتوانند تصویر یا صدا تولید کنند. پیویدوری که در دانشگاه پنسیلوانیا واقع در فیلادلفیا کار میکند، میگوید: «من واقعاً تحت تأثیر قرار گرفتهام… این ابزار به ما کمک میکند تا بهعنوان پژوهشگر بهرهوری بیشتری داشته باشیم.» پژوهشگران دیگر میگویند که اکنون نه تنها برای ویرایش مقالات، بلکه برای کمک به کدنویسی یا بررسی آن و همچنین طوفان ذهنی ایدهها مرتباً از «مدلهای کلان زبانی» استفاده میکنند. هافشتاین آینارسون[۵]، پژوهشگر کامپیوتر در دانشگاه ایسلند در ریکیاویک میگوید: «من اکنون همهروزه از مدلهای کلان زبانی استفاده میکنم.» او با جیپیتی–3 شروع کرد، اما سپس به استفاده از چتجیپیتی روی آورد که در آمادهسازی اسلایدها، امتحانات دانشجویی و مشکلات درسی کلاسها و تبدیل پایاننامههای دانشجویی به مقالات به او کمک میکند. او میگوید: «بسیاری از مردم درحال استفاده از آن بهعنوان منشی دیجیتال یا دستیار هستند.»
مدلهای کلان زبانی تشکیلدهندۀ بخشی از موتورهای جستجو، دستیاران کدنویسی و حتی یک چتبات هستند که با چتباتهای شرکتهای دیگر مذاکره میکنند تا به قیمتهای بهتری برای محصولات دست یابند. خالق چتجیپیتی، شرکت OpenAI در سانفرانسیسکو کالیفرنیا، خدمات اشتراک را با قیمت 20 دلار در ماه اعلام کرده است که زمان پاسخگویی کوتاهتر و دسترسی بااولویت به ویژگیهای جدید را نوید میدهد (هرچند نسخۀ آزمایشی آن رایگان است). غول فناوری –مایکروسافت– که قبلاً در این شرکت سرمایهگذاری کرده بود، خبر از سرمایهگذاری بیشتری در ژانویه داد که حدود 10 میلیارد دلار گزارش شده است. مدلهای کلان زبانی قرار است در نرمافزارهای عمومی واژهپرداز و پردازش داده ادغام شوند. آنچه قطعی به نظر میرسد آیندۀ فراگیر هوش مصنوعی مولّد در جامعه است، بهویژه از آنجا که ابزارهای امروزین نشانگر این تکنولوژی در مراحل اولیۀ خود هستند.
اما مدلهای کلان زبانی نگرانیهای گستردهای را نیز برانگیختهاند – از تمایل آنها به بازگرداندن مطالب نادرست، تا نگرانیها در مورد افرادی که متن تولیدشده توسط هوش مصنوعی را به عنوان متن خود جا میزنند. وقتی مجلۀ نیچر[۶] از محققان نظرشان را درمورد کاربردهای بالقوۀ چتباتها، مانند چتجیپیتی، بهطور خاص در عرصۀ علوم جویا شد، هیجان آنها با دلهره درآمیخت. دکتر گرین از دانشکدۀ پزشکی دانشگاه کلورادو در آرورا میگوید: «اگر باور دارید که این فناوری پتانسیل تحولآفرینی را دارد، پس فکر میکنم باید درمورد آن نگران باشید. پژوهشگران بر این باور هستند که این مسئله عمیقاً به چگونگی دستورالعملها و مقررات محدودکنندۀ احتمالی چتباتهای هوش مصنوعی بستگی دارد.»
روان اما غیرواقعی
برخی از محققان بر این باورند که مدلهای کلان زبانی برای سرعت بخشیدن به کارهایی مانند نوشتن مقالات یا درخواستهای کمک مالی، تحت نظارت انسانی مناسب میباشند. آلمیرا عثمانوویچ تونستروم[۷]، زیستشناس اعصاب در بیمارستان دانشگاه سالگرنسکا شهر گوتنبرگ سوئد، که با همکاری جیپیتی–3 مقالهای را تألیف کرده است، میگوید: «دانشمندان دیگر تمایلی به نوشتن مقدمههای طولانی برای درخواستهای کمک مالی ندارند. آنها یک راست از سیستمها میخواهند این کار را انجام دهند.»
تام تومیل[۸]، مهندس پژوهشگر در شرکت اینستادیپ[۹] –یک شرکت مشاورۀ نرمافزاری مستقر در لندن– میگوید که همهروزه از مدلهای کلان زبانی بهعنوان دستیار در کدنویسی کمک میگیرد. او با اشاره به وبسایت اِستَک اُوِرفلو[۱۰] که وبسایت انجمن محبوب کدنویسهاست و در آن به سؤالات یکدیگر پاسخ میدهند، میگوید: «مدلهای کلان زبانی تقریباً مانند یک اِستَک اُوِرفلو با قابلیتهای برتر هستند.»
اما محققان تأکید میکنند که مدلهای کلان زبانی اساساً در پاسخ به سؤالات غیرقابل اعتماد بوده و گاهی اوقات پاسخهای نادرست ارائه میدهند. عثمانوویچ تونستروم میگوید: «زمانی که از این سیستمها برای تولید دانش استفاده میکنیم، باید محتاط باشیم.»
این غیرقابل اعتماد بودن ریشه در نحوۀ ساخت مدلهای کلان زبانی دارد. چتجیپیتی و رقبای آن ازطریق یادگیری الگوهای آماری زبانی در پایگاههای بزرگ دادههای متنی آنلاین کار میکنند که شامل هرگونه دروغ، تعصب یا اطلاعات منسوخ میباشد. هنگامی که به مدلهای کلان زبانی دستوری داده میشود (مانند درخواستهای گرین و پیویدوری با ساختار دقیق برای بازنویسی بخشهایی از نسخههای خطی)، آنها هر راهی را برای ادامۀ گفتگو که از نظر «سبک» قابل قبول به نظر میرسد، کلمه به کلمه ارائه میکنند.
چتجیپیتی و رقبای آن ازطریق یادگیری الگوهای آماری زبانی در پایگاههای بزرگ دادههای متنی آنلاین کار میکنند که شامل هرگونه دروغ، تعصب یا اطلاعات منسوخ میباشد.
نتیجه اینکه مدلهای کلان زبانی بهراحتی باعث ایجاد خطا و اطلاعات گمراهکننده میشوند؛ بهویژه برای موضوعات فنی که ممکن است اطلاعات کمی برای آموزش در مورد آنها داشته باشند. مدلهای کلان زبانی همچنین نمیتوانند منشأ اطلاعات خود را نمایش دهند. اگر از آنها خواسته شود یک مقالۀ دانشگاهی بنویسند، ارجاعات ساختگی ارائه میدهند. سرمقالۀ ماه ژانویۀ مجلۀ هوش ماشینی نیچر[۱۱] اشاره کرد: «این ابزار برای دریافت درست حقایق یا ارائۀ ارجاعات معتبر قابلاعتماد نیست.»
با آگاهی از این مسئله، چتجیپیتی و سایرمدلهای کلان زبانی برای آن دسته از محققان که تخصص کافی تشخیص مستقیم مشکلات را داشته یا بهسادگی صحت و سقم پاسخها –مثل توانایی درک اینکه آیا توضیح یا پیشنهاد کد رایانهای درست است یا خیر– را مشخص میکنند، دستیارانی مفید هستند.
اما این ابزار ممکن است کاربران ساده را گمراه کند. به عنوان مثال، در ماه دسامبر، وبسایت اِستَک اُوِرفلو بهطور موقت استفاده از چتجیپیتی را ممنوع کرد، زیرا مدیران سایت خود را در مقابل سیلی از پاسخهای نادرست اما به ظاهر متقاعدکننده مدلهای کلان زبانی یافتند که توسط کاربران مشتاق ارسال میشد. این مسئله میتواند یک کابوس برای موتورهای جستجو باشد.
آیا میتوان کاستیها را برطرف کرد؟
برخی از ابزارهای موتور جستجو، مانند موتورپژوهشگر–محور اِلیسیت[۱۲]، مشکلات مرتبط با مدلهای کلان زبانی را برطرف کردهاند. آنها با استفاده از قابلیتهایشان ابتدا برای هدایت پرسشهای مربوط به ادبیات مرتبط، و سپس برای خلاصه سازی هر یک از وبسایتها یا اسنادی که موتورهای جستجو پیدا میکنند این مشکل را حل کرده و در نتیجه خروجی با محتوای بهظاهر ارجاعدادهشده ارائه میکنند (هرچند مدلهای کلان زبانی باز هم ممکن است هر سند جداگانه را به اشتباه خلاصه کند).
شرکتهای سازندۀ مدلهای کلان زبانی نیز بهخوبی از این مشکلات آگاه هستند. در سپتامبر سال گذشته، دیپمایند[۱۳] [آزمایشگاه هوش مصنوعی] که زیرمجموعه گوگل است مقالهای را درمورد یک «پیشکار گفتگو» به نام اسپارو[۱۴] منتشر کرد. بعدها دمیس حاسابیس[۱۵] –مدیر اجرایی و یکی از بنیانگذاران شرکت– به مجلۀ تایم[۱۶] خبر انتشار آن در سال جاری در قالب نسخۀ خصوصیِ بتا را داد. این مجله گزارش داد که گوگل قصد دارد روی ویژگیهایی ازجمله توانایی ذکر منابع کار کند. سایر رقبا، مانند آنثروپیک[۱۷]، ادعا میکنند که برخی از مشکلات چتجیپیتی را حل کردهاند (آنثروپیک، اوپناِیآی و دیپمایند درخواست مصاحبه در ارتباط با این مقاله را نپذیرفتند).
برخی از دانشمندان بر این باورند که در حال حاضر، چتجیپیتی به اندازه کافی در مورد محتوای تخصصی آموزش داده نشده که بتواند در موضوعات فنی مفید باشد. کریم کار[۱۸]، دانشجوی دکترای آمار زیستی در دانشگاه هاروارد در کمبریج، ماساچوست، در هنگام آزمایش آن برای انجام کار، بههیچوجه تحت تأثیر قرار نگرفت. او میگوید: «فکر میکنم رسیدن چتجیبیتی به سطحی از ویژگی که من نیاز دارم سخت باشد. (بااینحال، کار میگوید که وقتی از چتجیپیتی 20 راه برای حل یک سؤال تحقیقاتی پرسید، به حرفهایی نامفهوم و یک ایدۀ مفید اشاره کرد –اصطلاحی آماری که تا آن زمان دربارۀ آن چیزی نشنیده بود و او را به حوزۀ جدیدی از ادبیات دانشگاهی راهنمایی میکرد).
برخی از شرکتهای فناوری درحال آموزش چتباتها برای ادبیات علمی تخصصی میباشند هرچند با مشکلات خاص خود مواجه شدهاند. در نوامبر سال گذشته، متا –غول فناوری مالک فیسبوک– یک مدل کلان زبانی به نام گالاکتیکا[۱۹] که براساس چکیدههای علمی آموزش داده شده بود را با قصد ارتقادادن آن در تولید محتوای آکادمیک و پاسخ به سؤالات پژوهشی منتشر کرد. این نسخۀ آزمایشی پس از اینکه کاربران آن را درحال تولید محتوای نادرست و نژادپرستانه یافتند، از دسترسی عمومی خارج شد (اگرچه کد آن همچنان در دسترس است). دانشمند ارشد هوش مصنوعی متا، یان لیکان[۲۰]، در پاسخ به منتقدان، توییت کرد: «دیگر امکان سرگرمی با استفاده نادرست از آن وجود ندارد. حالا خوشحالی؟». (متا به درخواستی که ازطریق دفتر مطبوعاتی آنها جهت گفتگو با لیکان ارائه شده بود، پاسخ نداد.)
ادامه دارد…
بخش دوم مقاله را از اینجا بخوانید.