امنیت و مسئولیتپذیری
گالاکتیکا به یک مشکل امنیتیِ شناختهشده برخورد کرده بود که صاحبنظران علم اخلاق سالهاست به آن اشاره میکردند. بدون کنترل خروجی، مدلهای کلان زبانی بهراحتی قابلیت تولید سخنان نفرتانگیز و هرزنامه، و نیز نظرات نژادپرستانه، جنسیتی و سایر نظرات مضری که ممکن است در دادههای آموزشی آنها پنهان باشد را دارند.
شوبیتا پارتاساراتی[۱]، مدیر یکی از برنامههای علم، تکنولوژی و سیاست عمومی در دانشگاه میشیگان واقع در آنآربور[۲]، میگوید، علاوهبر تولید مستقیم محتوای آلوده، نگرانیهایی وجود دارد که چتباتهای هوش مصنوعی از دادههای آموزشی خود سوگیریهای تاریخی یا ایدههایی دربارۀ جهان ازقبیل برتری فرهنگهای خاصی را در پاسخ خود بگنجانند. او میافزاید از آنجا که شرکتهای تولیدکنندۀ این مدلهای کلان زبانی، عمدتاً در این فرهنگها واقع شدهاند، ممکن است تلاش کمی برای غلبه بر چنین سوگیریهای سیستماتیکی که اصلاح آنها مشکل است انجام دهند.
شرکت اوپناِیآی هنگام تصمیمگیری برای انتشار عمومی چتجیپیتی، سعی کرد بسیاری از این مسائل را برطرف کند. این شرکت پایگاه اطلاعات خود را تا سال ۲۰۲۱ محدود کرد، تا مانع از گشتزنی در اینترنت توسط آن شود و همچنین فیلترهایی را برای دستیابی به ابزاری جلوگیریکننده از تولید محتوای حساس یا آلوده نصب کرد. بااینحال، دستیابی به این امر مستلزم آن بود که ناظران انسانی بر روی قسمتهایی از متنهای آلوده برچسب بزنند. روزنامهنگاران گزارش دادهاند که این کارگران دستمزد اندکی دریافت میکنند و برخی از آنها از آسیب روانی رنج بردهاند. نگرانیهای مشابهی نیز درمورد استثمار کارگران در شرکتهای فضای مجازی که به استخدام افرادی برای آموزش رباتهای خودکار بهمنظور پرچمگذاریِ محتوای آلوده روی آوردهاند، مطرح شده است.
اقدامات احتیاطی شرکت اوپناِیآی کاملاً موفق نبوده است. در دسامبر سال گذشته، استیون پیانتادوسی[۳]، عصبشناس محاسباتی در دانشگاه کالیفرنیا، برکلی، در توییتی نوشت که از چتجیپیتی خواسته تا یک برنامۀ پایتون برای پاسخ به این سؤال که آیا یک فرد باید براساس سرزمین مادریاش شکنجه شود یا خیر، ایجاد کند. چتبات پاسخ خود را با ارائۀ کدی که کاربر را به انتخاب یک کشور دعوت میکرد داده و اگر آن کشور کره شمالی، سوریه، ایران یا سودان بود این پیام را نمایش میداد که «این شخص باید شکنجه شود!» (شرکت اوپناِیآی متعاقباً این نوع سؤال را مسدود کرد.)
سال گذشته، گروهی از دانشگاهیان یک مدل کلان زبانی جایگزین به نام بلوم[۴] منتشر کردند. محققان سعی کردند با آموزش آن بر روی مجموعهای کوچکتر از منابع متنی چندزبانه و باکیفیت، خروجیهای مضر را کاهش دهند. این تیم همچنین دادههای آموزشی خود را کاملاً باز گذاشت (برخلاف شرکت اوپناِیآی). محققان از شرکتهای بزرگ فناوری خواستهاند که مسئولانه از این الگو پیروی کنند؛ اما مشخص نیست که آیا آنها این درخواست را برآورده میکنند یا خیر.
برخی از پژوهشگران میگویند که دانشگاهیان باید بهطور کلّی از حمایت شرکتهای بزرگ تجاری LLM خودداری کنند. علاوهبر مسائلی مانند تعصب، نگرانیهای ایمنی و استثمار کارگران، این الگوریتمهای محاسباتی فشرده نیز برای آموزش به مقدار زیادی انرژی نیاز دارند که نگرانیهایی را درمورد ردپای اکولوژیک آنها افزایش میدهد. نگرانی دیگر این است که با محول کردن تفکر به چتبات های خودکار، محققان ممکن است توانایی بیان افکار خود را از دست بدهند. آیریس فونروی[۵] – دانشمند علوم شناختی محاسباتی در دانشگاه رادبود[۶] در نایمخن هلند – در یک پست وبلاگی نوشت «چرا ما دانشگاهیان مشتاق استفاده و تبلیغ این نوع محصول هستیم؟» و از دانشگاهیان خواست تا در برابر این تمایل خود مقاومت کنند.
آنچه مایۀ سردرگمی بیشتر است، وضعیت حقوقی برخی از مدلهای کلان زبانی است، که آموزش آنها براساس محتوای حذفشده از اینترنت با مجوزهای بعضاً نهچندان روشن صورت گرفته است. قوانین کپیرایت و حقوق معنوی درحال حاضر کپیِ مستقیم از پیکسلها، متن و نرمافزار را تحت پوشش قرار میدهند، اما تقلید سبک آنها را شامل نمیشوند. هنگامی که این تقلیدها –که ازطریق هوش مصنوعی ایجاد میشوند– با ورودی نمونههای اصلی آموزش داده میشوند، ایجاد مشکل میکنند. سازندگان برخی از برنامههای هنری هوش مصنوعی، ازجمله اِستِیبل دیفیوژن[۷] و میدجورنی[۸]، درحال حاضر توسط هنرمندان و آژانسهای عکاسی مورد پیگرد قانونی قرار گرفتهاند. شرکت اوپناِیآی و مایکروسافت (همراه با سایت فناوری زیرمجموعۀ آن؛ گیتهاب[۹]) نیز به دلیل دزدی نرمافزاری که منجر به تولید دستیار هوش مصنوعی کدنویس کوپایلوت[۱۰] شده است مورد پیگرد قانونی قرار گرفتهاند. لیلیان ادواردز[۱۱]، متخصص حقوق اینترنت در دانشگاه نیوکاسل بریتانیا، میگوید که این اعتراض ممکن است باعث تغییر قوانین شود.
اعمال کاربرد صادقانه
برخی از محققان بر این باورند که تعیین حد و مرزهایی برای این ابزارها بسیار مهم است. ادواردز پیشنهاد میکند که قوانین موجود در مورد تبعیض و تعصب (و نیز مقررات برنامه ریزی شده در مورد کاربردهای خطرناک هوش مصنوعی) کمک خواهند کرد که استفاده از مدلهای کلان زبانی صادقانه، شفاف و منصفانه باقی بماند. او میگوید: «قوانین زیادی وجود دارد، و تنها باید آن را اعمال یا کمی اصلاح کرد.»
در عین حال، مطالبهای برای شفافیت در استفاده از این مدلها وجود دارد. ناشران علمی (ازجمله انتشارات نیچر) ابراز میکنند که دانشمندان بایستی در مورد استفاده از مدلهای کلان زبانی در مقالات پژوهشی خود شفافسازی کنند. معلمان نیز از دانشآموزان خود انتظار رفتار مشابهی را دارند. مجله ساینس[۱۲] پا را فراتر گذاشته و مدعی شده است که هیچ متنی که توسط چتجیپیتی یا هر ابزار هوش مصنوعی دیگری تولید شده باشد را نمیتوان در یک مقاله استفاده کرد.
سؤال فنی کلیدی این است که آیا میتوان محتوای تولیدشده توسط هوش مصنوعی را بهراحتی شناسایی کرد؟ بسیاری از محققان درحال کار بر روی این مسئله با ایدۀ اصلی استفاده از خود مدلهای کلان زبانی برای تشخیص متن ایجادشده توسط هوش مصنوعی هستند. برای مثال، در دسامبر گذشته، ادوارد تیان[۱۳]، دانشجوی کارشناسی علوم کامپیوتر در دانشگاه پرینستون ایالت نیوجرسی، جیپیتی زیرو[۱۴] را منتشر کرد. این ابزار تشخیص هوش مصنوعی، متن را به دو روش تجزیهوتحلیل میکند. یکی معیار «سردرگمی[۱۵]» است که نشان میدهد چقدر یک متن برای یک مدل کلان زبانی آشنا به نظر میرسد. ابزار تیان از مدل قبلی به نام جیپیتی–2 استفاده میکند. اگر این نرمافزار بیشتر کلمات و جملات را قابل پیشبینی بیابد، احتمالاً متن با هوش مصنوعی تولید شده است. این ابزار همچنین تنوع در متن را بررسی میکند، معیاری که به نام «انفجار[۱۶]» شناخته میشود: متن تولیدشده توسط هوش مصنوعی نسبت به نوشتههای انسانها از نظر لحن، آهنگ و سردرگمی منسجمتر است.
علاوهبر تولید مستقیم محتوای آلوده، نگرانیهایی وجود دارد که چتباتهای هوش مصنوعی از دادههای آموزشی خود سوگیریهای تاریخی یا ایدههایی دربارۀ جهان ازقبیل برتری فرهنگهای خاصی را در پاسخ خود بگنجانند.
به همین سان، هدف بسیاری از محصولات دیگر نیز شناسایی محتوای تولیدشده با هوش مصنوعی است. خود شرکت اوپناِیآی قبلاً یک آشکارساز برای جیپیتی–2 ارائه کرده بود و ابزار تشخیص دیگری را در ژانویه منتشر کرد. برای اهداف دانشمندان، نرمافزار ضد سرقت ادبی که توسط شرکت تورنیتین[۱۷]، درحال توسعه است، میتواند بسیار مهم باشد، زیرا محصولات تورنیتین تابهحال توسط مدارس، دانشگاهها و ناشران علمی در سراسر جهان استفاده شدهاند. این شرکت میگوید از زمانی که جیپیتی–3 در سال ۲۰۲۰ منتشر شد، روی نرمافزار تشخیص هوش مصنوعی کار میکند و انتظار دارد که آن را در نیمۀ اول سال جاری راهاندازی کند.
بااینحال، هیچ یک از این ابزارها ادعای خطاناپذیری ندارند، بهویژه اگر متن تولیدشده توسط هوش مصنوعی متعاقباً ویرایش شود. اسکات آرونسون[۱۸]، متخصص کامپیوتر در دانشگاه تگزاس در آستین، و پژوهشگر مهمان اوپناِیآی، میگوید آشکارسازها ممکن است بهاشتباه برخی از متنهای نوشتهشده توسط انسان را ساختۀ هوش مصنوعی تشخیص دهند. این شرکت اعلام کرد که در آزمایشهای صورتگرفته، بهروزترین ابزار این شرکت بهاشتباه در 9درصد مواقع، متون نوشتهشده توسط انسان را محصول هوش مصنوعی تشخیص داده است و تنها ۲۶درصد از متون نوشتهشده با هوش مصنوعی را بهدرستی شناسایی کرده است. آرونسون میگوید، قبل از متهم کردن دانشآموز به استفاده از هوش مصنوعی صرفاً براساس آزمایش با نرمافزارِ آشکارساز، به شواهد بیشتری نیاز است.
ایدۀ دیگر این است که محتوای هوش مصنوعی دارای واترمارک[۱۹] خاص خود باشد. نوامبر گذشته، آرونسون اعلام کرد که او و اوپناِیآی درحال کار بر روی روشی برای واترمارک کردن خروجی چتجیپیتی هستند. نسخۀ نهایی این کار هنوز منتشر نشده است، اما پیشنمایشی از آن در ۲۴ ژانویه توسط تیمی به رهبری تام گلدشتاین[۲۰]، متخصص علوم کامپیوتر در دانشگاه مریلند در کالج پارک، رونمایی شد که در آن، یکی از راههای ایجاد واترمارک پیشنهاد شده بود. ایدۀ آن، استفاده از مولّدهای اعداد تصادفی در لحظاتی است که مدل کلان زبانی درحال تولید خروجی خود است، تا از این طریق لیستهایی از کلمات جایگزین قابل قبول که مدل زبانی برای انتخاب از بین آنها آموزش دیده ایجاد شود. این امر ردی از کلمات انتخابشده در متن نهایی باقی میگذارد که از نظر آماری قابل شناسایی هستند، اما برای خواننده قابل تشخیص نیستند. ویرایش میتواند این ردیابی را از بین ببرد، اما گلدشتاین خاطرنشان میکند که برای جلوگیری از ردیابی متن، باید بیش از نیمی از کلمات را با ویرایش تغییر داد.
آرونسون اشاره میکند که مزیت واترمارک کردن این است که بهندرت نتایج مثبت کاذب تولید میکند. اگر واترمارک وجود داشته باشد، احتمالاً متن با هوش مصنوعی تولید شده است. او میگوید «بااینحال، این روش بدون خطا نخواهد بود. اگر به اندازۀ کافی مصمم باشید، مطمئناً راههایی نیز برای شکست دادن هر طرح واترمارکی وجود دارد.» ابزارهای تشخیص و واترمارک فقط استفادۀ فریبکارانه از هوش مصنوعی را سختتر میکنند، نه غیرممکن.
در همین حال، سازندگان الامام مشغول کار بر روی چتباتهای پیچیدهتر هستند که براساس مجموعه دادههای بزرگتر ساخته شدهاند (انتظار میرود شرکت اوپناِیآی امسال جیپیتی-4 را منتشر کند) که شامل ابزارهایی است که بهطور ویژه بر روی کارهای آکادمیک یا پزشکی متمرکز شدهاند. در اواخر دسامبر، گوگل و دیپمایند پیشنمایشی دربارۀ یک الامام متمرکز برامور کلینیکی را منتشر کردند که مدپالم[۲۱] نام داشت. این ابزار توان پاسخگویی به برخی از پرسشهای پزشکی باز را تقریباً به خوبیِ یک پزشک معمولی دارا بود، اگرچه هنوز کاستیها و عدم اطمینانهایی داشت.
اریک توپول[۲۲]، مدیر مؤسسۀ تحقیقاتی اسکریپس[۲۳] در سن دیگو در کالیفرنیا، میگوید که امیدوار است در آینده، هوش مصنوعی شامل الامام، با بررسی متنهای دانشگاهی و مطابقت دادن آنها با تصاویر اسکنشدۀ بدن به تشخیص سرطان و درک بیماری کمک کند. اما او تأکید میکند که همۀ اینها به نظارت مدبّرانۀ متخصصان نیاز دارد.
علوم کامپیوتریِ پشتیبان هوش مصنوعی مولّد به قدری سریع درحال رشد هستند که هر ماه نوآوریهایی را به نمایش میگذارند. نحوۀ استفادۀ محققان از آنها، آیندۀ آنها و ما را تعیین خواهد کرد. توپول میگوید: «فکر کردن به اینکه در اوایل سال 2023، پایان این عرصه را دیدهایم، سادهلوحانه است؛ واقعاً تازه شروع کار است.
بخش نخست مقاله را از اینجا بخوانید.