خانه » مقالات » انصافِ هوش مصنوعی؛ ضرورتی اخلاقی، اجتماعی و اقتصادی
انصافِ هوش مصنوعی؛ ضرورتی اخلاقی، اجتماعی و اقتصادی
چهار شنبه, ۵ خرداد ۱۴۰۲
زمان تقریبی مطالعه ۱۸ دقیقه
اکنون‌که هوش مصنوعی توصیه‌های روزافزونی را به تصمیم‌گیرندگان انسانی ارائه می‌دهد، لزوم اطمینان از این‌که این فناوری، مغرضانه عمل نکرده، به ارزش «انصاف» واقف بوده و آن را رعایت می‌کند، حائز اهمیت است.

این مقاله دربردارندۀ بخشی از مباحث مطرح‌شده در سلسله نشست‌های مجمع جهانی اقتصاد (WEF)[۱] در داووس[۲] است.

  • هوش مصنوعی (Al) توصیه‌های روزافزونی به تصمیم‌گیرندگان انسانی ارائه می‌دهد.
  • بنابراین ما باید اطمینان حاصل کنیم که می‌توانیم نه‌تنها به هوش مصنوعی، بلکه به کل ماهیت ساختاری آن اعتماد کنیم.
  • مفهوم «انصاف[۳]» ماهیتی انعطاف‌پذیر داشته و نیاز به رایزنی‌های چندجانبه دارد.

انسان‌ها در میان انواع مختلفی از سوگیری‌ها قرار دارند که ازجملۀ آن‌ها می‌توان به سوگیری «تأیید[۴]»، «نگه‌داشتن به هر قیمت (لنگر انداختن)[۵]» و «جنسیت[۶]» اشاره کرد. ممکن است این‌گونه سوگیری‌ها مردم را به سمت رفتار غیرمنصفانه سوق دهد. بنابراین ما به‌عنوان یک جامعه سعی در کاهش این قبیل سوگیری‌ها داریم.
به‌ویژه زمانی این امر پراهمیت جلوه می‌کند که انسان‌ها در معرض تصمیمات پرمخاطره‌ای قرار گیرند که بر دیگران نیز تأثیرگذار است. بنابراین، ما این مسئله را ازطریق ترکیبی از آموزش، دستورالعمل‌ها و مقررات مدیریت می‌کنیم.

اکنون که هوش مصنوعی توصیه‌های روزافزونی به تصمیم‌گیرندگان انسانی ارائه می‌دهد، مهم و لازم است که مطمئن شویم این فناوری، مغرضانه عمل نمی‌کند، به ارزش «انصاف» واقف است و آن را رعایت می‌کند.

درواقع، انصافِ هوش مصنوعی به‌عنوان یکی از موضوعات اصلی در آن دسته از ابتکاراتی است که هدفشان سودمندسازی هوش مصنوعی تا حد امکان (در ارتباط با اخلاق هوش مصنوعی) است.

زمان آن فرا رسیده است که دیدگاه جامع‌تری از «انصاف» را شناسایی کنیم و ارائه دهیم. دیدگاهی که همۀ ابعاد را پوشش دهد و از روابط متقابل آن‌ها بهره ببرد.
راجا چاتیلا
Raja Chatila

نمونه‌هایی ازاین‌دست فراوان است و شامل «دستورالعمل‌های اخلاقی برای هوش مصنوعی قابل‌اعتماد» که توسط گروه کارشناسی سطح عالی کمیسیون اروپا[۷] درمورد هوش مصنوعی ارائه شده، تا تمرکز شورای «آیندۀ جهانی» مجمع جهانی اقتصاد درمورد «Al for Humanity» می‌شود.

درحالی‌که برای چندین سال تمرکز اصلی شرکت‌ها، دولت‌ها، سازمان‌های جامعۀ مدنی و پیشگامان حاکمیت جمعی، بر انصاف هوش مصنوعی بوده است، در طول زمان شاهد انبوهی از رویکردهای مختلف بوده‌ایم که هریک از آن‌ها بر یک یا چند جنبه از انصاف متمرکز شده‌اند.

اکنون زمان شناسایی و پیشنهاد دیدگاه جامع‌تری است. طرحی که تمام ابعاد انصاف را پوشش می‌دهد و از روابط متقابل آن‌ها برای ایجاد مؤثرترین چارچوب، تکنیک‌ها و سیاست‌ها بهره می‌برد.

استفاده از ابزارهایی برای بهبود تبیین‌پذیری مدل‌های هوش مصنوعی، شناسایی دلایل پشت تصمیمات آن‌ها را ممکن می‌سازد، و بنابراین می‌تواند برای شناسایی سوگیری مفید باشد.
فرانچسکا روسی
Francesca Rossi

نکتۀ مهم اینجاست: ازآنجایی‌که سیستم‌های هوش مصنوعی توسط انسان‌ها ساخته می‌شوند و آن‌ها داده‌های آموزشی و آزمایشی را جمع‌آوری کرده و تصمیمات مرتبط با توسعه و پیشرفت را اتخاذ می‌کنند، می‌توانند (آگاهانه یا ناآگاهانه) به عنصر «سوگیری» آلوده شوند (توسط سازندگان خود). این امر، به‌نوبۀ خود، ممکن است باعث استقرار سیستم‌های هوش مصنوعی شود که منعکس‌کننده و تقویت‌کنندۀ چنین سوگیری‌هایی هستند. نتیجۀ حاصل در این سیستم‌ها، منجر به تصمیم‌گیری یا توصیه‌هایی می‌شود که به‌طور سیستماتیک برای دسته‌های خاصی از افراد غیرمنصفانه است.

درحال حاضر چندین ابزار فنی وجود دارد که می‌تواند در این زمینه کمک‌کننده باشد. آن‌ها سوگیری هوش مصنوعی را در انواع مختلفِ داده (متن، صدا، ویدئو، تصاویر و داده‌های ساختاریافته) شناسایی کرده و کاهش می‌دهند. درواقع سوگیری موجود در جامعه را می‌توان در سیستم‌های هوش مصنوعی تعبیه کرد و تلازم ناپسند بین برخی ویژگی‌ها (مانند تلازم میان جنسیت و دریافت وام) را می‌توان ازطریق شناسایی و اجتناب از آن‌ها کاهش داد.

وجود ابزارهایی برای بهبود توضیح‌پذیری مدل‌های هوش مصنوعی، شناسایی دلایل پشت تصمیم‌های آن‌ها را ممکن می‌سازد و بنابراین می‌تواند در شناسایی سوگیری در داده‌ها یا مدل‌های هوش مصنوعی نیز مفید باشد. بااین‌حال جنبه‌های فنی و راه‌حل‌های جلوگیری از سوگیری هوش مصنوعی تنها یک بعد، و احتمالاً ساده‌ترین بعد برای دستیابی به انصاف هوش مصنوعی را تشکیل می‌دهند.

ورای مسائل فنی

دستیابی به انصاف تنها یک مسئله فنی نیست. در کنار آن، لازم است ساختارهای حاکمیتی از یک‌سو به شناسایی، اجرا و اتخاذ ابزارهای مناسب برای یافتن و کاهش سوگیری در جمع‌آوری و پردازش اطلاعات بپردازند و از سوی دیگر چارچوب‌هایی برای نظارت لازم و مناسب برای هر مورد استفادۀ خاص، تعریف کنند. همچنین نباید فراموش کرد که مفهوم انصاف به‌خودی‌خود مفهومی وابسته به زمینه[۸] است و باید بر اساس سناریوهای کاربردی خاص تعریف شود. تعریف صحیح را تنها می‌توان ازطریق همفکری با جمع ذی‌نفعان در این زمینه، شناسایی کرد. در این‌گونه کنکاش‌ها کسانی که سیستم‌های هوش مصنوعی را ساخته و توسعه می‌دهند، درخصوص آن با کاربران و جوامع مربوطه بحث می‌کنند تا به شناسایی مفهومی برای انصاف دست یابند.

»هیچ‌کس مرا آگاه نکرد که متعصبانه رفتار کرده‌ام»

بُعد دیگر انصاف به آموزش مربوط می‌شود. ازآنجایی‌که سوگیری‌های انسانی عمدتاً ناآگاهانه است، هر مسیری برای دستیابی به انصاف، الزاماً از آگاهی‌بخشی (آموزش) شروع می‌شود. توسعه‌دهندگان هوش مصنوعی باید از سوگیری‌های خود و نحوۀ احتمالی تزریق آن به سیستم‌های هوش مصنوعی در فرآیند توسعه آن‌ها، آگاه باشند. اما آموزش توسعه‌دهندگان کافی نیست، کل محیط اطراف آن‌ها باید مراقب سوگیری‌های احتمالی باشند و یاد بگیرند که چگونه آن‌ها را شناسایی کرده و کاهش دهند.

باید فرهنگ انصاف ایجاد شود. در این زمینه مدیران باید بدانند که چگونه تیم‌های توسعۀ متنوعی تشکیل دهند و مشوّق‌هایی برای تشخیص و کاهش سوگیری‌های بالقوه در هوش مصنوعی تعریف کنند.

مدیران اجرایی و تصمیم‌گیرندگان این حوزه، برای درک مسائل سوگیری هوش مصنوعی و تأثیر احتمالی آن بر مشتریان، جوامع تحت تأثیر و شرکت خود به کمک نیاز دارند. چنین آموزشی باید با روش‌های مناسب تکمیل شود. چنین روش‌شناسی‌هایی پس از اتخاذ، باید الزام به اجرا داشته و تسهیل شوند. برای دستیابی به این هدف، شرکت‌ها باید مناسب‌ترین چارچوب حاکمیت داخلی را برای مدل‌های تجاری و حوزه‌های استقرار خود تعریف کنند.

فراتر از خود سیستم‌ها

سیستم‌های هوش مصنوعی نه‌تنها باید بر مبنای انصاف عمل کرده و در تقویت سوگیری انسانی محتاط باشند، بلکه باید مطمئن شوند که منبع نابرابری بین گروه‌ها یا جوامع نیستند. بنابراین تنوع و شمول در درون جوامع، یکی دیگر از ابعاد انصاف هوش مصنوعی است که به تأثیر استفاده از آن در یک بافت اجتماعی خاص اشاره دارد. فناوری باید به‌دوراز افزایش نابرابری، دسترسی را بهبود بخشد و همچنین شکاف دیجیتالی را در محورهای مختلف مانند جنسیت، معلولیت، جغرافیا و قومیت کاهش دهد.

انصاف بُعدی جهانی نیز دارد و باید به‌طور یکسان در بین مناطق مختلف جهان، البته با در نظر گرفتن ویژگی‌های هر منطقه، ترویج شود.

بُعد مهم دیگر انصاف مربوط به چگونگی تعریف قوانین مناسب و مشترکی است که این اطمینان را می‌دهد که هوش مصنوعی خاصی که گسترش‌یافته و مورداستفاده قرارگرفته، مبتنی بر انصاف است. تولیدکنندگان باید در تعریف و اجرای اصول داخلی، دستورالعمل‌ها، روش‌شناسی و چارچوب‌های حاکمیتی، نقش قابل‌توجه خود را ایفا کنند تا مطمئن شوند هوش مصنوعی‌ تولیدشده، بی‌طرف، قوی، قابل توضیح و توجیه، دقیق و شفاف است. بااین‌حال هیچ دلیلی وجود ندارد که سایر نهادها نتوانند در ایجاد چارچوب‌های مناسب برای هوش مصنوعی هم‌فکری کنند. بحث بر سر مباحث پراهمیتی ازجمله دستورالعمل‌ها، بهترین شیوه‌ها، استانداردها، ممیزی‌ها، گواهینامه‌ها، مقررات و قوانین است. به‌هرحال، این امر مستلزم ترکیبی دقیق از این جزئیات است که ازطریق کنکاش‌های چندجانبۀ جمعی افراد تعریف‌شده تا منصفانه‌بودن فناوری هوش مصنوعی مورداستفاده و تأثیر آن بر جامعه را به‌درستی چارچوب‌بندی کند.
بنابراین وسعت کار در زمینۀ انصاف هوش مصنوعی گسترده و پیچیده است. جمیع ذی‌نفعان در این زمینه باید زمان و منابع خود را برای ایفای دقیق نقش خود در بخش مربوطه از این فضا اختصاص دهند.

اما در رابطه با انگیزۀ اصلی در پرداختن به این مهم، می‌توان گفت، اطمینان از اینکه فناوری به ارزش‌های انسانی احترام می‌گذارد، از آن‌ها حمایت کرده و از به خطر افتادن این ارزش‌ها جلوگیری می‌کند، انگیزه‌هایی است که کاملاً روشن است. بااین‌حال، انگیزه‌های دیگری نیز برای سازندگان هوش مصنوعی مطرح است. درواقع، پرداختن به انصاف، هم ضرورتی اقتصادی و هم ضرورتی اجتماعی است. شرکت‌هایی که از هوش مصنوعی یا سایر فناوری‌ها استفاده می‌کنند، اما نمی‌توان برای حفظ ارزش‌های فوق‌الذکر به آن‌ها اعتماد کرد، در پذیرش گسترده محصولات خود با چالش‌هایی مواجه خواهند شد.

نویسندگان
سایر مقالات