خانه » مقالات » بیم‌ها و امیدهای هوش مصنوعیِ موّلد (قسمت اول)
بیم‌ها و امیدهای هوش مصنوعیِ موّلد (قسمت اول)
شنبه, ۱ خرداد ۱۴۰۲
زمان تقریبی مطالعه ۲۰ دقیقه
در دسامبر گذشته [۲۰۲۲] دو زیست‌شناس محاسباتی به نام‌های کیسی گرین و میلتون پیویدوری دست به آزمایشی غیرمعمول زدند: آن‌ها از یک دستیار که مثل خودشان محقق نبود خواستند تا به ایشان در اصلاح سه مقاله پژوهشی کمک کند.

محققان درمورد اینکه ابزارهایی مانند چت‌جی‌پی‌تی[۱] چگونه میتوانند علم و جامعه را متحول کنند، هیجانزده و در عین حال نگران هستند

در دسامبر گذشته (۲۰۲۲) دو زیست‌شناس محاسباتی به نام‌های کیسی گرین[۲] و میلتون پیویدوری[۳] دست به آزمایشی غیرمعمول زدند: آن‌ها از یک دستیار که مثل خودشان محقق نبود خواستند تا به ایشان در اصلاح سه مقالۀ پژوهشی کمک کند. دستیار سخت‌کوش آن‌ها بازنگری‌هایی در بخش‌هایی از اسناد را تنها در طی چند ثانیه پیشنهاد کرد. بررسی هر مقاله حدود پنج دقیقه طول کشید. در یکی از مقالات زیست‌شناسی، دستیار آنها حتی یک اشتباه در ارجاع به یک معادله را تشخیص داد. آزمایش همیشه به‌راحتی اتفاق نمی‌افتاد، اما خواندن مقالات نهایی راحت‌تر –و هزینه‌ها نسبتاً کم، و در حدود کمتر از نیم دلار برای هر سند– بود.

این دستیار، همان‌طور که گرین و پیویدوری در یک نسخۀ پیش از انتشار در ۲۳ ژانویه گزارش کردند، یک شخص نیست، بلکه یک الگوریتم هوش مصنوعی به نام جی‌پی‌تی–3 است که برای اولین بار در سال ۲۰۲۰ در اختیار همگان قرار گرفت. این یکی از هیجان‌انگیزترین ابزارهای دستۀ چت‌بات‌های هوش مصنوعی است که می‌توانند متنِ روانِ متقاعدکننده‌ای تولید کنند، از نثر و شعر و کدنویسی کامپیوتر گرفته –مثل مورد دو دانشمند ذکرشده– تا ویرایش مقالات پژوهشی.

معروف‌ترینِ این ابزارها –که مدل‌های کلان زبانی[۴] یا «LLM» نیز خوانده می‌شود– چت‌جی‌پی‌تی است. این نسخه از جی‌پی‌تی–3 پس از انتشار در نوامبر سال گذشته شهرت زیادی پیدا کرد؛ چراکه رایگان و به‌راحتی قابل‌دسترسی بود. سایر هوش مصنوعی‌های مولّد می‌توانند تصویر یا صدا تولید کنند. پیویدوری که در دانشگاه پنسیلوانیا واقع در فیلادلفیا کار می‌کند، می‌گوید: «من واقعاً تحت تأثیر قرار گرفته‌ام… این ابزار به ما کمک می‌کند تا به‌عنوان پژوهشگر بهره‌وری بیشتری داشته باشیم.» پژوهشگران دیگر می‌گویند که اکنون نه تنها برای ویرایش مقالات، بلکه برای کمک به کدنویسی یا بررسی آن و همچنین طوفان ذهنی ایده‌ها مرتباً از «مدل‌های کلان زبانی» استفاده می‌کنند. هافشتاین آینارسون[۵]، پژوهشگر کامپیوتر در دانشگاه ایسلند در ریکیاویک می‌گوید: «من اکنون همه‌روزه از مدل‌های کلان زبانی استفاده می‌کنم.» او با جی‌پی‌تی–3 شروع کرد، اما سپس به استفاده از چت‌جی‌پی‌تی روی آورد که در آماده‌سازی اسلایدها، امتحانات دانشجویی و مشکلات درسی کلاس‌ها و تبدیل پایان‌نامه‌های دانشجویی به مقالات به او کمک می‌کند. او می‌گوید: «بسیاری از مردم درحال استفاده از آن به‌عنوان منشی دیجیتال یا دستیار هستند.»

مدل‌های کلان زبانی تشکیل‌دهندۀ بخشی از موتورهای جستجو، دستیاران کدنویسی و حتی یک چت‌بات هستند که با چت‌بات‌های شرکت‌های دیگر مذاکره می‌کنند تا به قیمت‌های بهتری برای محصولات دست یابند. خالق چت‌جی‌پی‌تی، شرکت OpenAI در سانفرانسیسکو کالیفرنیا، خدمات اشتراک را با قیمت 20 دلار در ماه اعلام کرده است که زمان پاسخگویی کوتاه‌تر و دسترسی بااولویت به ویژگی‌های جدید را نوید می‌دهد (هرچند نسخۀ آزمایشی آن رایگان است). غول فناوری –مایکروسافت– که قبلاً در این شرکت سرمایه‌گذاری کرده بود، خبر از سرمایه‌گذاری بیشتری در ژانویه داد که حدود 10 میلیارد دلار گزارش شده است. مدل‌های کلان زبانی قرار است در نرم‌افزارهای عمومی واژهپرداز و پردازش داده ادغام شوند. آنچه قطعی به نظر می‌رسد آیندۀ فراگیر هوش مصنوعی مولّد در جامعه است، به‌ویژه از آنجا که ابزارهای امروزین نشانگر این تکنولوژی در مراحل اولیۀ خود هستند.

اما مدل‌های کلان زبانی نگرانی‌های گسترده‌ای را نیز برانگیخته‌اند – از تمایل آن‌ها به بازگرداندن مطالب نادرست، تا نگرانی‌ها در مورد افرادی که متن تولیدشده توسط هوش مصنوعی را به عنوان متن خود جا می‌زنند. وقتی مجلۀ نیچر[۶] از محققان نظرشان را درمورد کاربردهای بالقوۀ چت‌بات‌ها، مانند چت‌جی‌پی‌تی، به‌طور خاص در عرصۀ علوم جویا شد، هیجان آن‌ها با دلهره درآمیخت. دکتر گرین از دانشکدۀ پزشکی دانشگاه کلورادو در آرورا می‌گوید: «اگر باور دارید که این فناوری پتانسیل تحول‌آفرینی را دارد، پس فکر می‌کنم باید درمورد آن نگران باشید. پژوهشگران بر این باور هستند که این مسئله عمیقاً به چگونگی دستورالعمل‌ها و مقررات محدودکنندۀ احتمالی چت‌بات‌های هوش مصنوعی بستگی دارد.»

روان اما غیرواقعی

برخی از محققان بر این باورند که مدل‌های کلان زبانی برای سرعت بخشیدن به کارهایی مانند نوشتن مقالات یا درخواست‌های کمک مالی، تحت نظارت انسانی مناسب می‌باشند. آلمیرا عثمانوویچ تونستروم[۷]، زیست‌شناس اعصاب در بیمارستان دانشگاه سالگرنسکا شهر گوتنبرگ سوئد، که با همکاری جی‌پی‌تی–3 مقاله‌ای را تألیف کرده است، می‌گوید: «دانشمندان دیگر تمایلی به نوشتن مقدمه‌های طولانی برای درخواست‌های کمک مالی ندارند. آن‌ها یک راست از سیستم‌ها می‌خواهند این کار را انجام دهند.»

تام تومیل[۸]، مهندس پژوهشگر در شرکت اینستادیپ[۹] –یک شرکت مشاورۀ نرم‌افزاری مستقر در لندن– می‌گوید که همه‌روزه از مدل‌های کلان زبانی به‌عنوان دستیار در کدنویسی کمک می‌گیرد. او با اشاره به وبسایت اِستَک اُوِرفلو[۱۰] که وب‌سایت انجمن محبوب کدنویس‌هاست و در آن به سؤالات یکدیگر پاسخ می‌دهند، می‌گوید: «مدل‌های کلان زبانی تقریباً مانند یک اِستَک اُوِرفلو با قابلیت‌های برتر هستند.»

اما محققان تأکید می‌کنند که مدل‌های کلان زبانی اساساً در پاسخ به سؤالات غیرقابل اعتماد بوده و گاهی اوقات پاسخ‌های نادرست ارائه می‌دهند. عثمانوویچ تونستروم می‌گوید: «زمانی که از این سیستم‌ها برای تولید دانش استفاده می‌کنیم، باید محتاط باشیم.»

این غیرقابل اعتماد بودن ریشه در نحوۀ ساخت مدل‌های کلان زبانی دارد. چت‌جی‌پی‌تی و رقبای آن ازطریق یادگیری الگوهای آماری زبانی در پایگاه‌های بزرگ داده‌های متنی آنلاین کار می‌کنند که شامل هرگونه دروغ، تعصب یا اطلاعات منسوخ می‌باشد. هنگامی که به مدل‌های کلان زبانی دستوری داده می‌شود (مانند درخواست‌های گرین و پیویدوری با ساختار دقیق برای بازنویسی بخش‌هایی از نسخه‌های خطی)، آن‌ها هر راهی را برای ادامۀ گفتگو که از نظر «سبک» قابل قبول به نظر می‌رسد، کلمه به کلمه ارائه می‌کنند.

چت‌جی‌پی‌تی و رقبای آن ازطریق یادگیری الگوهای آماری زبانی در پایگاه‌های بزرگ داده‌های متنی آنلاین کار می‌کنند که شامل هرگونه دروغ، تعصب یا اطلاعات منسوخ می‌باشد.

نتیجه اینکه مدل‌های کلان زبانی به‌راحتی باعث ایجاد خطا و اطلاعات گمراه‌کننده می‌شوند؛ به‌ویژه برای موضوعات فنی که ممکن است اطلاعات کمی برای آموزش در مورد آنها داشته باشند. مدل‌های کلان زبانی همچنین نمی‌توانند منشأ اطلاعات خود را نمایش دهند. اگر از آنها خواسته شود یک مقالۀ دانشگاهی بنویسند، ارجاعات ساختگی ارائه می‌دهند. سرمقالۀ ماه ژانویۀ مجلۀ هوش ماشینی نیچر[۱۱] اشاره کرد: «این ابزار برای دریافت درست حقایق یا ارائۀ ارجاعات معتبر قابل‌اعتماد نیست.»

با آگاهی از این مسئله، چت‌جی‌پی‌تی و سایرمدل‌های کلان زبانی برای آن دسته از محققان که تخصص کافی تشخیص مستقیم مشکلات را داشته یا به‌سادگی صحت و سقم پاسخ‌ها –مثل توانایی درک اینکه آیا توضیح یا پیشنهاد کد رایانه‌ای درست است یا خیر– را مشخص می‌کنند، دستیارانی مفید هستند.

اما این ابزار ممکن است کاربران ساده را گمراه کند. به عنوان مثال، در ماه دسامبر، وبسایت اِستَک اُوِرفلو به‌طور موقت استفاده از چت‌جی‌پی‌تی را ممنوع کرد، زیرا مدیران سایت خود را در مقابل سیلی از پاسخ‌های نادرست اما به ظاهر متقاعدکننده مدل‌های کلان زبانی یافتند که توسط کاربران مشتاق ارسال می‌شد. این مسئله می‌تواند یک کابوس برای موتورهای جستجو باشد.

آیا می‌توان کاستی‌ها را برطرف کرد؟

برخی از ابزارهای موتور جستجو، مانند موتورپژوهشگر–محور اِلیسیت[۱۲]، مشکلات مرتبط با مدل‌های کلان زبانی را برطرف کرده‌اند. آن‌ها با استفاده از قابلیت‌هایشان ابتدا برای هدایت پرسش‌های مربوط به ادبیات مرتبط، و سپس برای خلاصه سازی هر یک از وب‌سایت‌ها یا اسنادی که موتورهای جستجو پیدا می‌کنند این مشکل را حل کرده و در نتیجه خروجی با محتوای به‌ظاهر ارجاع‌داده‌شده ارائه می‌کنند (هرچند مدل‌های کلان زبانی باز هم ممکن است هر سند جداگانه را به اشتباه خلاصه کند).

شرکت‌های سازندۀ مدل‌های کلان زبانی نیز به‌خوبی از این مشکلات آگاه هستند. در سپتامبر سال گذشته، دیپ‌مایند[۱۳] [آزمایشگاه هوش مصنوعی] که زیرمجموعه گوگل است مقاله‌ای را درمورد یک «پیشکار گفتگو» به نام اسپارو[۱۴] منتشر کرد. بعدها دمیس حاسابیس[۱۵] –مدیر اجرایی و یکی از بنیان‌گذاران شرکت– به مجلۀ تایم[۱۶] خبر انتشار آن در سال جاری در قالب نسخۀ خصوصیِ بتا را داد. این مجله گزارش داد که گوگل قصد دارد روی ویژگی‌هایی ازجمله توانایی ذکر منابع کار کند. سایر رقبا، مانند آنثروپیک[۱۷]، ادعا می‌کنند که برخی از مشکلات چت‌جی‌پی‌تی را حل کرده‌اند (آنثروپیک، اوپن‌اِی‌آی و دیپ‌مایند درخواست مصاحبه در ارتباط با این مقاله را نپذیرفتند).

برخی از دانشمندان بر این باورند که در حال حاضر، چت‌جی‌پی‌تی به اندازه کافی در مورد محتوای تخصصی آموزش داده نشده که بتواند در موضوعات فنی مفید باشد. کریم کار[۱۸]، دانشجوی دکترای آمار زیستی در دانشگاه هاروارد در کمبریج، ماساچوست، در هنگام آزمایش آن برای انجام کار، به‌هیچ‌وجه تحت تأثیر قرار نگرفت. او می‌گوید: «فکر می‌کنم رسیدن چت‌جی‌بی‌تی به سطحی از ویژگی که من نیاز دارم سخت باشد. (بااین‌حال، کار می‌گوید که وقتی از چت‌جی‌پی‌تی 20 راه برای حل یک سؤال تحقیقاتی پرسید، به حرف‌هایی نامفهوم و یک ایدۀ مفید اشاره کرد –اصطلاحی آماری که تا آن زمان دربارۀ آن چیزی نشنیده بود و او را به حوزۀ جدیدی از ادبیات دانشگاهی راهنمایی می‌کرد).

برخی از شرکت‌های فناوری درحال آموزش چت‌بات‌ها برای ادبیات علمی تخصصی می‌باشند هرچند با مشکلات خاص خود مواجه شده‌اند. در نوامبر سال گذشته، متا –غول فناوری مالک فیس‌بوک– یک مدل کلان زبانی به نام گالاکتیکا[۱۹] که براساس چکیده‌های علمی آموزش داده شده بود را با قصد ارتقادادن آن در تولید محتوای آکادمیک و پاسخ به سؤالات پژوهشی منتشر کرد. این نسخۀ آزمایشی پس از اینکه کاربران آن را درحال تولید محتوای نادرست و نژادپرستانه یافتند، از دسترسی عمومی خارج شد (اگرچه کد آن همچنان در دسترس است). دانشمند ارشد هوش مصنوعی متا، یان لیکان[۲۰]، در پاسخ به منتقدان، توییت کرد: «دیگر امکان سرگرمی با استفاده نادرست از آن وجود ندارد. حالا خوشحالی؟». (متا به درخواستی که ازطریق دفتر مطبوعاتی آنها جهت گفتگو با لیکان ارائه شده بود، پاسخ نداد.)

ادامه دارد…

 

بخش دوم مقاله را از اینجا بخوانید.

سایر مقالات