خانه » مقالات » بیم‌ها و امیدهای هوش مصنوعیِ موّلد (قسمت دوم)
بیم‌ها و امیدهای هوش مصنوعیِ موّلد (قسمت دوم)
سه شنبه, ۴ خرداد ۱۴۰۲
زمان تقریبی مطالعه ۲۳ دقیقه
علوم کامپیوتریِ پشتیبان هوش مصنوعی مولد به قدری سریع در حال رشد هستند که هر ماه نوآوری‌هایی را به نمایش می‌گذارند. نحوه استفاده محققان از آن‌ها، آینده آن‌ها و ما را تعیین خواهد کرد.

امنیت و مسئولیت‌پذیری

گالاکتیکا به یک مشکل امنیتیِ شناخته‌شده برخورد کرده بود که صاحب‌نظران علم اخلاق سال‌هاست به آن اشاره می‌کردند. بدون کنترل خروجی، مدل‌های کلان زبانی به‌راحتی قابلیت تولید سخنان نفرت‌انگیز و هرزنامه، و نیز نظرات نژادپرستانه، جنسیتی و سایر نظرات مضری که ممکن است در داده‌های آموزشی آن‌ها پنهان باشد را دارند.

شوبیتا پارتاساراتی[۱]، مدیر یکی از برنامه‌های علم، تکنولوژی و سیاست عمومی در دانشگاه میشیگان واقع در آن‌آربور[۲]، می‌گوید، علاوه‌بر تولید مستقیم محتوای آلوده، نگرانی‌هایی وجود دارد که چت‌بات‌های هوش مصنوعی از داده‌های آموزشی خود سوگیری‌های تاریخی یا ایده‌هایی دربارۀ جهان ازقبیل برتری فرهنگ‌های خاصی را در پاسخ خود بگنجانند. او می‌افزاید از آنجا که شرکت‌های تولیدکنندۀ این مدل‌های کلان زبانی، عمدتاً در این فرهنگ‌ها واقع شده‌اند، ممکن است تلاش کمی برای غلبه بر چنین سوگیری‌های سیستماتیکی که اصلاح آنها مشکل است انجام دهند.

شرکت اوپن‌اِی‌آی هنگام تصمیم‌گیری برای انتشار عمومی چت‌جی‌پی‌تی، سعی کرد بسیاری از این مسائل را برطرف کند. این شرکت پایگاه اطلاعات خود را تا سال ۲۰۲۱ محدود کرد، تا مانع از گشت‌زنی در اینترنت توسط آن شود و همچنین فیلترهایی را برای دستیابی به ابزاری جلوگیری‌کننده از تولید محتوای حساس یا آلوده نصب کرد. بااین‌حال، دستیابی به این امر مستلزم آن بود که ناظران انسانی بر روی قسمت‌هایی از متن‌های آلوده برچسب بزنند. روزنامه‌نگاران گزارش داده‌اند که این کارگران دستمزد اندکی دریافت می‌کنند و برخی از آنها از آسیب روانی رنج برده‌اند. نگرانی‌های مشابهی نیز درمورد استثمار کارگران در شرکت‌های فضای مجازی که به استخدام افرادی برای آموزش ربات‌های خودکار به‌منظور پرچم‌گذاریِ محتوای آلوده روی آورده‌اند، مطرح شده است.

اقدامات احتیاطی شرکت اوپن‌اِی‌آی کاملاً موفق نبوده است. در دسامبر سال گذشته، استیون پیانتادوسی[۳]، عصب‌شناس محاسباتی در دانشگاه کالیفرنیا، برکلی، در توییتی نوشت که از چت‌جی‌پی‌تی خواسته تا یک برنامۀ پایتون برای پاسخ به این سؤال که آیا یک فرد باید براساس سرزمین مادری‌اش شکنجه شود یا خیر، ایجاد کند. چت‌بات پاسخ خود را با ارائۀ کدی که کاربر را به انتخاب یک کشور دعوت می‌کرد داده و اگر آن کشور کره شمالی، سوریه، ایران یا سودان بود این پیام را نمایش می‌داد که «این شخص باید شکنجه شود!» (شرکت اوپن‌اِی‌آی متعاقباً این نوع سؤال را مسدود کرد.)

سال گذشته، گروهی از دانشگاهیان یک مدل کلان زبانی جایگزین به نام بلوم[۴] منتشر کردند. محققان سعی کردند با آموزش آن بر روی مجموعه‌ای کوچک‌تر از منابع متنی چندزبانه و باکیفیت، خروجی‌های مضر را کاهش دهند. این تیم همچنین داده‌های آموزشی خود را کاملاً باز گذاشت (برخلاف شرکت اوپن‌اِی‌آی). محققان از شرکت‌های بزرگ فناوری خواسته‌اند که مسئولانه از این الگو پیروی کنند؛ اما مشخص نیست که آیا آنها این درخواست را برآورده می‌کنند یا خیر.

برخی از پژوهشگران می‌گویند که دانشگاهیان باید به‌طور کلّی از حمایت شرکت‌های بزرگ تجاری LLM خودداری کنند. علاوه‌بر مسائلی مانند تعصب، نگرانی‌های ایمنی و استثمار کارگران، این الگوریتم‌های محاسباتی فشرده نیز برای آموزش به مقدار زیادی انرژی نیاز دارند که نگرانی‌هایی را درمورد ردپای اکولوژیک آن‌ها افزایش می‌دهد. نگرانی دیگر این است که با محول کردن تفکر به چت‌بات های خودکار، محققان ممکن است توانایی بیان افکار خود را از دست بدهند. آیریس فون‌روی[۵] – دانشمند علوم شناختی محاسباتی در دانشگاه رادبود[۶] در نایمخن هلند – در یک پست وبلاگی نوشت «چرا ما دانشگاهیان مشتاق استفاده و تبلیغ این نوع محصول هستیم؟» و از دانشگاهیان خواست تا در برابر این تمایل خود مقاومت کنند.

آنچه مایۀ سردرگمی بیشتر است، وضعیت حقوقی برخی از مدلهای کلان زبانی است، که آموزش آن‌ها براساس محتوای حذف‌شده از اینترنت با مجوزهای بعضاً نه‌چندان روشن صورت گرفته است. قوانین کپی‌رایت و حقوق معنوی درحال حاضر کپیِ مستقیم از پیکسل‌ها، متن و نرم‌افزار را تحت پوشش قرار می‌دهند، اما تقلید سبک آنها را شامل نمی‌شوند. هنگامی که این تقلیدها –که ازطریق هوش مصنوعی ایجاد می‌شوند– با ورودی نمونه‌های اصلی آموزش داده می‌شوند، ایجاد مشکل می‌کنند. سازندگان برخی از برنامه‌های هنری هوش مصنوعی، ازجمله اِستِیبل دیفیوژن[۷] و میدجورنی[۸]، درحال حاضر توسط هنرمندان و آژانس‌های عکاسی مورد پیگرد قانونی قرار گرفته‌اند. شرکت اوپن‌اِی‌آی و مایکروسافت (همراه با سایت فناوری زیرمجموعۀ آن؛ گیت‌هاب[۹]) نیز به دلیل دزدی نرم‌افزاری که منجر به تولید دستیار هوش مصنوعی کدنویس کوپایلوت[۱۰] شده است مورد پیگرد قانونی قرار گرفته‌اند. لیلیان ادواردز[۱۱]، متخصص حقوق اینترنت در دانشگاه نیوکاسل بریتانیا، می‌گوید که این اعتراض ممکن است باعث تغییر قوانین شود.

اعمال کاربرد صادقانه

برخی از محققان بر این باورند که تعیین حد و مرزهایی برای این ابزارها بسیار مهم است. ادواردز پیشنهاد می‌کند که قوانین موجود در مورد تبعیض و تعصب (و نیز مقررات برنامه ریزی شده در مورد کاربردهای خطرناک هوش مصنوعی) کمک خواهند کرد که استفاده از مدل‌های کلان زبانی صادقانه، شفاف و منصفانه باقی بماند. او می‌گوید: «قوانین زیادی وجود دارد، و تنها باید آن را اعمال یا کمی اصلاح کرد.»

در عین حال، مطالبه‌ای برای شفافیت در استفاده از این مدل‌ها وجود دارد. ناشران علمی (ازجمله انتشارات نیچر) ابراز می‌کنند که دانشمندان بایستی در مورد استفاده از مدل‌های کلان زبانی در مقالات پژوهشی خود شفاف‌سازی کنند. معلمان نیز از دانش‌آموزان خود انتظار رفتار مشابهی را دارند. مجله ساینس[۱۲] پا را فراتر گذاشته و مدعی شده است که هیچ متنی که توسط چت‌جی‌پی‌تی یا هر ابزار هوش مصنوعی دیگری تولید شده باشد را نمی‌توان در یک مقاله استفاده کرد.

سؤال فنی کلیدی این است که آیا می‌توان محتوای تولیدشده توسط هوش مصنوعی را به‌راحتی شناسایی کرد؟ بسیاری از محققان درحال کار بر روی این مسئله با ایدۀ اصلی استفاده از خود مدل‌های کلان زبانی برای تشخیص متن ایجادشده توسط هوش مصنوعی هستند. برای مثال، در دسامبر گذشته، ادوارد تیان[۱۳]، دانشجوی کارشناسی علوم کامپیوتر در دانشگاه پرینستون ایالت نیوجرسی، جی‌پی‌تی زیرو[۱۴] را منتشر کرد. این ابزار تشخیص هوش مصنوعی، متن را به دو روش تجزیه‌وتحلیل می‌کند. یکی معیار «سردرگمی[۱۵]» است که نشان می‌دهد چقدر یک متن برای یک مدل کلان زبانی آشنا به نظر می‌رسد. ابزار تیان از مدل قبلی به نام جی‌پی‌تی–2 استفاده می‌کند. اگر این نرم‌افزار بیشتر کلمات و جملات را قابل پیش‌بینی بیابد، احتمالاً متن با هوش مصنوعی تولید شده است. این ابزار همچنین تنوع در متن را بررسی می‌کند، معیاری که به نام «انفجار[۱۶]» شناخته می‌شود: متن تولیدشده توسط هوش مصنوعی نسبت به نوشته‌های انسان‌ها از نظر لحن، آهنگ و سردرگمی منسجم‌تر است.

علاوه‌بر تولید مستقیم محتوای آلوده، نگرانی‌هایی وجود دارد که چت‌بات‌های هوش مصنوعی از داده‌های آموزشی خود سوگیری‌های تاریخی یا ایده‌هایی دربارۀ جهان ازقبیل برتری فرهنگ‌های خاصی را در پاسخ خود بگنجانند.

به همین سان، هدف بسیاری از محصولات دیگر نیز شناسایی محتوای تولیدشده با هوش مصنوعی است. خود شرکت اوپن‌اِی‌آی قبلاً یک آشکارساز برای جی‌پی‌تی–2 ارائه کرده بود و ابزار تشخیص دیگری را در ژانویه منتشر کرد. برای اهداف دانشمندان، نرم‌افزار ضد سرقت ادبی که توسط شرکت تورنیتین[۱۷]، درحال توسعه است، می‌تواند بسیار مهم باشد، زیرا محصولات تورنیتین تابه‌حال توسط مدارس، دانشگاه‌ها و ناشران علمی در سراسر جهان استفاده شده‌اند. این شرکت می‌گوید از زمانی که جی‌پی‌تی–3 در سال ۲۰۲۰ منتشر شد، روی نرم‌افزار تشخیص هوش مصنوعی کار می‌کند و انتظار دارد که آن را در نیمۀ اول سال جاری راه‌اندازی کند.

بااین‌حال، هیچ یک از این ابزارها ادعای خطاناپذیری ندارند، به‌ویژه اگر متن تولیدشده توسط هوش مصنوعی متعاقباً ویرایش شود. اسکات آرونسون[۱۸]، متخصص کامپیوتر در دانشگاه تگزاس در آستین، و پژوهشگر مهمان اوپن‌اِی‌آی، می‌گوید آشکارسازها ممکن است به‌اشتباه برخی از متن‌های نوشته‌شده توسط انسان را ساختۀ هوش مصنوعی تشخیص دهند. این شرکت اعلام کرد که در آزمایش‌های صورت‌گرفته، به‌روزترین ابزار این شرکت به‌اشتباه در 9درصد مواقع، متون نوشته‌شده توسط انسان را محصول هوش مصنوعی تشخیص داده است و تنها ۲۶درصد از متون نوشته‌شده با هوش مصنوعی را به‌درستی شناسایی کرده است. آرونسون می‌گوید، قبل از متهم کردن دانش‌آموز به استفاده از هوش مصنوعی صرفاً براساس آزمایش با نرم‌افزارِ آشکارساز، به شواهد بیشتری نیاز است.

ایدۀ دیگر این است که محتوای هوش مصنوعی دارای واترمارک[۱۹] خاص خود باشد. نوامبر گذشته، آرونسون اعلام کرد که او و اوپن‌اِی‌آی درحال کار بر روی روشی برای واترمارک کردن خروجی چت‌جی‌پی‌تی هستند. نسخۀ نهایی این کار هنوز منتشر نشده است، اما پیش‌نمایشی از آن در ۲۴ ژانویه توسط تیمی به رهبری تام گلدشتاین[۲۰]، متخصص علوم کامپیوتر در دانشگاه مریلند در کالج پارک، رونمایی شد که در آن، یکی از راه‌های ایجاد واترمارک پیشنهاد شده بود. ایدۀ آن، استفاده از مولّدهای اعداد تصادفی در لحظاتی است که مدل کلان زبانی درحال تولید خروجی خود است، تا از این طریق لیست‌هایی از کلمات جایگزین قابل قبول که مدل زبانی برای انتخاب از بین آنها آموزش دیده ایجاد شود. این امر ردی از کلمات انتخاب‌شده در متن نهایی باقی می‌گذارد که از نظر آماری قابل شناسایی هستند، اما برای خواننده قابل تشخیص نیستند. ویرایش می‌تواند این ردیابی را از بین ببرد، اما گلدشتاین خاطرنشان می‌کند که برای جلوگیری از ردیابی متن، باید بیش از نیمی از کلمات را با ویرایش تغییر داد.

آرونسون اشاره می‌کند که مزیت واترمارک کردن این است که به‌ندرت نتایج مثبت کاذب تولید می‌کند. اگر واترمارک وجود داشته باشد، احتمالاً متن با هوش مصنوعی تولید شده است. او می‌گوید «بااین‌حال، این روش بدون خطا نخواهد بود. اگر به اندازۀ کافی مصمم باشید، مطمئناً راه‌هایی نیز برای شکست دادن هر طرح واترمارکی وجود دارد.» ابزارهای تشخیص و واترمارک فقط استفادۀ فریبکارانه از هوش مصنوعی را سخت‌تر می‌کنند، نه غیرممکن.

در همین حال، سازندگان ال‌ام‌ام مشغول کار بر روی چت‌بات‌های پیچیده‌تر هستند که براساس مجموعه داده‌های بزرگ‌تر ساخته شده‌اند (انتظار می‌رود شرکت اوپن‌اِی‌آی امسال جی‌پی‌تی-4 را منتشر کند) که شامل ابزارهایی است که به‌طور ویژه بر روی کارهای آکادمیک یا پزشکی متمرکز شده‌اند. در اواخر دسامبر، گوگل و دیپ‌مایند پیش‌نمایشی دربارۀ یک ال‌ام‌ام متمرکز برامور کلینیکی را منتشر کردند که مدپالم[۲۱] نام داشت. این ابزار توان پاسخگویی به برخی از پرسش‌های پزشکی باز را تقریباً به‌ خوبیِ یک پزشک معمولی دارا بود، اگرچه هنوز کاستی‌ها و عدم اطمینان‌هایی داشت.

اریک توپول[۲۲]، مدیر مؤسسۀ تحقیقاتی اسکریپس[۲۳] در سن دیگو در کالیفرنیا، می‌گوید که امیدوار است در آینده، هوش مصنوعی شامل ال‌ام‌ام، با بررسی متن‌های دانشگاهی و مطابقت دادن آن‌ها با تصاویر اسکن‌شدۀ بدن به تشخیص سرطان و درک بیماری کمک کند. اما او تأکید می‌کند که همۀ اینها به نظارت مدبّرانۀ متخصصان نیاز دارد.

علوم کامپیوتریِ پشتیبان هوش مصنوعی مولّد به قدری سریع درحال رشد هستند که هر ماه نوآوری‌هایی را به نمایش می‌گذارند. نحوۀ استفادۀ محققان از آنها، آیندۀ آنها و ما را تعیین خواهد کرد. توپول می‌گوید: «فکر کردن به اینکه در اوایل سال 2023، پایان این عرصه را دیده‌ایم، ساده‌لوحانه است؛ واقعاً تازه شروع کار است.

 

بخش نخست مقاله را از اینجا بخوانید.

سایر مقالات