خانه » مقالات » مسائل مربوط به اخلاق هوش مصنوعی و انحراف چت‌بات‌ها در کرۀ جنوبی
مسائل مربوط به اخلاق هوش مصنوعی و انحراف چت‌بات‌ها در کرۀ جنوبی
چهار شنبه, ۵ دی ۱۴۰۰
زمان تقریبی مطالعه ۲۴ دقیقه
لی لودا (به معنای "درک شده" در زبان کره‌ای)، یک چت‌بات هوش مصنوعی با قابلیت مکالمه به صورت دامنه باز است که توسط آزمایشگاه اسکاتر ، که در سال 2011 در کره جنوبی تأسیس شده، راه‌اندازی شده است. آزمایشگاه اسکاتر، یک اپلیکیشن با نام "علم عشق" را ایجاد کرده است که برنامه‌ای برای دریافت مشاوره دوست‌یابی براساس تجزیه و تحلیل متن ارائه می‌دهد.

در فیلم اسپایک جونز[۱] به نام Her، تولید سال 2013، شخصیت اصلی فیلم عاشق یک سیستم‌عامل می‌شود و در جامعه، سؤالاتی درمورد نقش هوش مصنوعی، رابطۀ آن با کاربران، و مسائل اجتماعی بزرگترِ ناشی از آن ایجاد می‌کند. کرۀ جنوبی، در اواخر دسامبر سال 2020، با راه‌اندازی یک چت‌بات حرفه‌ای هوش مصنوعی، تحت عنوان لی لودا، مختصراً با لحظاتی مشابه فیلم Her، روبه‌رو شد. اما تجربۀ لودا مثل فیلم Her، با شکستن قلب یا رفتار ملایمت‌آمیز همراه نبود، بلکه در عوض، انواع مختلف ترس، وحشت و خطرات ناشی از فناوری‌های جدید موجود در جامعۀ کرۀ جنوبی را نمایان کرد.
لی لودا (در زبان کره‌ای به معنای «درک‌شده»)، یک چت‌بات هوش مصنوعی با قابلیت مکالمه به‌صورت دامنۀ باز است که توسط آزمایشگاه اسکاتر[۲]، که در سال 2011 در کرۀ جنوبی تأسیس شده، راه‌اندازی شده است. آزمایشگاه اسکاتر، یک نرم‌افزار با نام «علم عشق» ایجاد کرده است که برنامه‌ای برای دریافت مشاورۀ دوست‌یابی براساس تجزیه‌وتحلیل متن ارائه می‌دهد. این برنامه بیش از 2.7 میلیون بار در کرۀ جنوبی و ژاپن بارگیری شده است. این آزمایشگاه، با پشتیبانی غول‌های تکنولوژی نظیر NC Soft و Softbank بیش از 5.9 میلیون دلار درآمد کسب کرده است.
لودا را تیم پینگ‌پونگ از آزمایشگاه اسکاتر ساخته شد. هدف از این چت‌بات، توسعۀ اولین ابزار هوش مصنوعی برای ارتباط با انسان و در قالب یک انسان است. لودا با استفاده از یادگیری عمیق و بیش از 10 میلیارد مجموعه داده به زبان کره‌ای، یک دانشجوی دختر 20ساله با قد 163 سانتی‌متر را شبیه‌سازی کرده است. در نهایت، لودا در پیام‌رسان فیس‌بوک، ادغام شده و کاربران ازطریق مکالمات روزمره و منظم به ایجاد ارتباط با وی ترغیب می‌شدند. درحالی‌که هدف استفاده از این چت‌بات، بدون ضرر و زیان به نظر می‌رسید، اما اندکی پس از راه‌اندازی، مشکلات اخلاقی در آن ظاهر شد.

آزار جنسی، گفتار منفور و نقض حریم خصوصی

یادگیری عمیق، یک روش محاسباتی است که امکان شبیه‌سازی جنبه‌های خاصی از هوش انسان (مانند گفتار) را ازطریق پردازش حجم زیادی از داده‌ها فراهم می‌کند که با جمع‌آوری داده‌های بیشتر، اغلب عملکرد آن را به‌طور فزاینده‌ای افزایش می‌دهد. این تکنیک در پیشرفت حوزۀ هوش مصنوعی در سال‌های اخیر بسیار مؤثر بوده است. بااین‌حال، نکتۀ منفی یادگیری عمیق این است که اگر این برنامه‌ها، توسط توسعه‌دهندگان کنترل نشوند، در نهایت تعصب‌های موجود در مجموعه داده را تکرار می‌کنند. همچنین، اگر این برنامه‌ها، در معرض دستکاری توسط کاربران مخرّب قرار گیرد، به‌طوری که با داده‌های بد، تغذیه شوند، باعث بهره‌برداری سوء از عناصر یادگیری برنامه‌ها و آموزش اشتباه آن‌ها می‌شود.
درمورد لودا، آزمایشگاه اسکاتر، از داده‌های مکالمات متنی جمع‌آوری‌شده ازطریق نرم‌افزار «علم عشق» برای شبیه‌سازی یک زن 20‌سالۀ واقع‌نگرانه استفاده کرده و عنصر شخصی‌سازی که در آن به کار رفته است به کاربران امکان آموزش چت‌بات را می‌دهد. در نتیجه، اندکی پس از راه‌اندازی رسمی آن در 22 دسامبر، زمانی‌که گزارش شد کاربرانی که درحال آموزش لودا هستند، در آموزش آن از سخنرانی‌های تبعیض‌آمیز علیه زنان، اقلیت‌های جنسی، خارجی‌ها و افراد دارای معلولیت استفاده می‌کنند، مورد توجه عموم مردم قرار گرفت.
بررسی نتایج نشان می‌دهد، زمانی‌که از لودا درمورد همجنسگرایان و سیاه‌پوستان سؤال می‌شود، لودا در پاسخ می‌گوید: «آن‌ها به من حس خطر و احتیاط بیشتر داده و مشمئزکننده هستند» یا «آن‌ها نفرت‌انگیز به نظر می‌رسند». به‌علاوه، کشف شد که گروه‌هایی از کاربران در برخی از انجمن‌های آنلاین آموزش لودا، دربارۀ پاسخگویی به مباحث جنسی، درحال جهت‌دهی خاصی به اطلاعات بوده‌اند و این مسئله، در جامعۀ کرۀ جنوبی که از قبل نیز با مسائل جنسیتی دست‌وپنجه نرم می‌کرد، بحث‌های شدیدی در موضوع آزار جنسی (و اینکه آیا هوش مصنوعی خود می‌تواند باعث آزار و اذیت جنسی شود) برانگیخته است.
با ادامۀ جلب توجه لودا در سراسر کشور، اتهامات مربوط به سوءمدیریت داده‌های شخصی توسط این شرکت مطرح شد. کاربران نرم‎‌افزار علم عشق، به دلیل ناآگاهی از اینکه از مکالمات خصوصی آن‌ها به این روش استفاده شده است، شکایت کردند و همچنین مشخص شد که لودا از نام‌ها، آدرس‌ها و شماره‌حساب‌های بانکی موجود در مجموعه داده‌های علم عشق، به‌صورت تصادفی، برای پاسخگویی استفاده می‌کند.
آزمایشگاه اسکاتر، حتی یک مدل آموزشی از لودا را در گیت‌هاب بارگذاری کرده بود که شامل داده‌هایی بود که اطلاعات شخصی افراد (حدود 200 تبادل متن از گفت‌وگوی خصوصی فرد با فرد) را افشا می‌کرد. کاربران علم عشق، درحال آماده‌سازی طرح دعوی طبقاتی علیه آزمایشگاه اسکاتر هستند و کمیسیون محافظت از اطلاعات شخصی، یک نهاد ناظر دولتی، تحقیقاتی را درمورد این شرکت آغاز کرده است تا مشخص شود آیا این شرکت، قانون حفاظت از اطلاعات شخصی را نقض کرده است یا نه.
انجمن اخلاق هوش مصنوعی در کره[۳] (KAIEA)، با انتشار بیانیه‌ای در 11 ژانویه، با اشاره به منشور اخلاقی هوش مصنوعی خود، خواستار تعلیق فوری این سرویس شد. ائتلاف سازمان‌های جامعۀ مدنی مانند وکلا برای یک جامعۀ دموکراتیک[۴]، انستیتوی حقوق دیجیتال[۵]، مرکز شبکۀ مترقی کره[۶] و سازمان همبستگی مردم برای دموکراسی مشارکتی[۷] نیز بیانیه‌ای در 13 ژانویه منتشر کرده و ارتقای صنعت هوش مصنوعی توسط دولت را در آن محکوم کردند.
در نهایت، آزمایشگاه اسکاتر، لودا را در 11 ژانویه، دقیقاً 20 روز پس از راه‌اندازی آن، به حالت تعلیق درآورد.

میراث لودا؟

سئول، هوش مصنوعی را به‌عنوان یک فن‌آوری اصلی در دستورکار ملّی خود مطرح نموده و دلیل حمایت از این صنعت را صریحاً رسیدن به سطح رقابت جهانی اعلام کرده است. برای نمونه، سئول استراتژی ملّی هوش مصنوعی خود را در دسامبر 2019، با هدف تبدیل شدن به یک رهبر جهانی در این حوزه، راه‌اندازی کرد.
پشتیبانی از صنعت هوش مصنوعی، به‌شدت در برنامۀ جدید کرۀ جنوبی گنجانده شده است، به‌طوری که ماهانه دولت مون جائه، میزان 160 تریلیون وون (146 میلیارد دلار) را در برنامۀ بازیابی پس از کرونا، به این حوزه اختصاص داده است. علاوه‌‌بر ‌این، دولت قصد دارد تا در ترویج حکمرانی صحیح فناوری، اصلاح قوانین حفظ حریم خصوصی و صدور بخشنامه‌های مختلف در سراسر ادارات، نقشی ایفا کند. در سطح بین‌المللی، کرۀ جنوبی به اصول OECD[۸]، در زمینۀ هوش مصنوعی کمک کرده و به‌عنوان یکی از 15 عضو سهیم در برنامۀ همکاری جهانی در حوزۀ هوش مصنوعی شناخته می‌شود و اقدامات خود را با جنبش جهانی ارتقای «هوش مصنوعی انسان‌محور[۹]»، همسو کرده است.
بااین‌حال، حادثۀ لودا شکاف بین واقعیت و پذیرش اصولی مانند «انسان‌محور بودن»، «شفافیت[۱۰]» یا «انصاف[۱۱]» و همچنین مشکلات ترویج نوآوری، به‌طوری که باید تضمین‌کنندۀ حاکمیت خوب و مؤثر فناوری‌های جدید باشد را برجسته کرده است. مقررات فعلی مربوط به مدیریت داده‌ها و هوش مصنوعی نامشخص و ناکافی است و در بعضی حوزه‌ها اصلاً وجود ندارد. برای مثال، طبق قانون فعلی حریم خصوصی، حداکثر مجازات برای انتشار اطلاعات شخصی، به دلیل ضعف در کار با داده‌ها، جریمه 20 میلیون وون (معادل 18.250 دلار) یا دو سال زندان است که ممکن است برای جلوگیری از اقدامات نادرست توسط استارت‌آپ‌ها، کافی نباشد. از طرف دیگر، ذی‌نفعان صنعت، درمورد مقررات سنگین‌تر و کاهش سرمایه‌گذاری پس از حادثه لودا، ابراز نگرانی کرده‌اند که همین امر، می‌تواند در بخش نوآوری تأثیرات مهمی داشته باشد. علاوه‌براین، نادیده گرفتن فاکتورهای اجتماعی زیربنایی یادشده، بسیار حیاتی است. عموم مردم در ابتدا، نه تنها به‌خاطر عنصر هوش مصنوعی یا حریم خصوصی، بلکه به‌خاطر بحث‌های موجود درمورد سیاست‌های هویتی ناشی از آن، درگیر داستان لودا شدند. در نتیجه، پاسخ عمومی به این پرسش فنی که آیا هوش مصنوعی، می‌تواند باعث خطرات جدی شود، ممکن است تحت تأثیر دیدگاه‌های ازپیش تعیین‌شدۀ آن‌ها درمورد مسائل اجتماعی که با آن عجین شده‌اند، قرار بگیرد.
برای مثال، جنسیت را در نظر بگیرید. در سال‌های اخیر، جنبش‌ها و حوادث اجتماعی مانند جنبش #MeToo [۱۲]، یا انتشار خبر کشف حلقۀ استثمار جنسی «اتاق نهم[۱۳]»، چالش‌های مداوم کرۀ جنوبی را با خشونت جنسی و نابرابری جنسیتی آشکار کرده است. برای بسیاری، مسئلۀ جنسیتی لودا و تلاش برای تبدیل این چت‌بات به یک «برده جنسی»، نمی‌تواند از این مشکلات ساختاری و مبارزات زنان در جامعۀ گستردۀ کرۀ جنوبی، جدا باشد. علاوه‌براین، بحث و جدال لودا، می‌تواند ناشی از نابرابری جنسیتی در بخش نوآوری باشد. طبق اعلام بانک جهانی، سهم زنان فارغ‌التحصیل کرۀ جنوبی از برنامه‌های STEM [۱۴]، حدوداً 25درصد است، که این مورد نشان می‌دهد مهندسانی که درحال ایجاد برنامه‌های هوش مصنوعی، مانند لودا هستند، احتمالاً مسائل جنسیتی را در مرحلۀ توسعۀ این ابزارها، مورد توجه قرار نمی‌دهند.
بدیهی است که این مورد، موضوعی نیست که تنها به کرۀ جنوبی محدود باشد. برای مثال، در سال 2016، مایکروسافت چت‌بات خود را با نام «تای[۱۵]»، راه‌اندازی کرد. ظرف چند ساعت، کاربران اظهارات توهین‌کننده و تبعیض‌آمیز علیه گروه‌های خاص را به آن آموزش دادند، همین امر، باعث شد مایکروسافت مجبور به غیرفعال کردن این چت‌بات شود.
ناگفته نماند که خطرات موجود در هوش مصنوعی، فراتر از ربات‌های مخصوص چت، به طیف گسترده‌ای از برنامه‌های کاربردی این حوزه تعمیم می‌یابد. اما در آن زمان، حادثۀ لودا به‌وضوح اهمیت عوامل اجتماعی خاص کشور را نشان می‌دهد که در ظاهر باعث به‌وجود آمدن این مسائل فنی یا نظارتی شده و متعاقباً باعث ارتباط عواملی می‌شود مانند نگرش متفاوت نسبت به حریم خصوصی، نظارت، حاکمیت و همچنین محیط‌های سیاستی که در سراسر کرۀ زمین متفاوت هستند.
حادثۀ لودا به ایجاد یک گفت‌و‌گوی ملّی دربارۀ اخلاقیات هوش مصنوعی در کرۀ جنوبی کمک کرد. این اتفاق به کرۀ جنوبی نشان داد که اخلاق در هوش مصنوعی نه تنها به روشی مبهم، آینده‌نگرانه و انتزاعی، بلکه به روشی فوری و ملموس نیاز دارد. این جدال می‌تواند در جایی‌که همچنان تفکر صنعت‌گران و توسعه‌گرایان دربارۀ این فناوری غالب است، به‌طور بالقوه به تلاش سازمان‌های جامعۀ مدنی، برای ترویج استفاده مسئولانه از هوش مصنوعی در کرۀ جنوبی، شتاب بیشتری بدهد.

پانوشت
سایر مقالات