خانه » مقالات » الگوریتم‌ها به‌مثابۀ زامبی‌های اخلاقی | قسمت سوم: مسئولیت‌پذیری
الگوریتم‌ها به‌مثابۀ زامبی‌های اخلاقی | قسمت سوم: مسئولیت‌پذیری
پنج‌شنبه, ۶ اسفند ۱۴۰۱
زمان تقریبی مطالعه ۱۷ دقیقه
چنان که گفتیم، ادعای این متن این است که الگوریتم‌ها خودمختار یا پاسخگو نیستند، زیرا توانایی حسی ندارند. برای آنکه (بر اساس خودمختاری) «خوب» را درک کنیم و طبق آن عمل کنیم، باید بتوانیم درکی از لذت، معناداری و رضایت داشته باشیم. اگرچه، نیازی نیست که همه انواع درد را تجربه کرده باشیم (هرچند که این توان همدلی ما را افزایش می‌دهد). توان حسی است که انگیزه برای عمل را فراهم می‌کند. زامبی‌ها بر اساس میل به آسیب زدن یا کسب منفعت عمل نمی‌کنند، پس نمی‌توانند مسئول اخلاقی باشند. برای ماشین که توان حسی ندارد، ارزش‌ها بی‌معنا هستند و نمی‌توانند بر اساس دلایل اخلاقی عمل کند.

مسئولیت اخلاقی و عاملیت

عامل میتواند به اکثر معانیای که طرح شد، خودمختار نباشد، اما همچنان مسئول است. حکمرانی و پاسخگویی به دلایل نیز از این جهت مهماند که به مسئولیت ربط پیدا میکنند. دربارۀ مفهوم مسئولیت بیش از مفهوم خودمختاری اجماع وجود دارد. برای مثال مکِنا[۱] مسئولیت را پاسخگویی دربرابر انجام عمل براساس اقتضائات اخلاق تعریف می‌کند. پاسخگویی نیز نسبت نزدیکی با سرزنشپذیری یا تحسینپذیری دارد. الگوریتمها پاسخگویی ندارند. زیرا نمیتوانند به‌خاطر نحوۀ عملکرد خود به دیگران پاسخ دهند. آن‌ها درکی از آسیبی که به دیگران زدهاند ندارند، نمیتوانیم آن‌ها را تنبیه کنیم و بخواهیم عملشان را جبران کنند. عامل اخلاقی بودن ضرورتاً مسئول بودن را در پی دارد.

حس و عاملیت اخلاقی

چنانکه گفتیم، ادعای این متن این است که الگوریتمها خودمختار یا پاسخگو نیستند، زیرا توانایی حسی ندارند. برای آنکه (براساس خودمختاری) «خوب» را درک کنیم و طبق آن عمل کنیم، باید بتوانیم درکی از لذت، معناداری و رضایت داشته باشیم. اگرچه نیازی نیست که همۀ انواع درد را تجربه کرده باشیم (هرچند که این توان همدلی ما را افزایش میدهد). توان حسی است که انگیزه برای عمل را فراهم میکند. زامبیها براساس میل به آسیب زدن یا کسب منفعت عمل نمیکنند، پس نمیتوانند مسئول اخلاقی باشند. برای ماشین که توان حسی ندارد، ارزشها بیمعنا هستند و نمیتوانند بر اساس دلایل اخلاقی عمل کند.

همان‌طور که هیوم[۲] می‌گوید، باورها به‌تنهایی برای انگیزه دادن به ما برای انجام عمل اخلاقی کافی نیستند. ما برای عمل کردن نیاز به حس، هیجان و شور داریم. شومیکر[۳] نیز خاطر نشان می‌کند، «احساساتی که داریم، ما را عاملی میکند که هستیم» و معتقد است که بدون وجود انگیزۀ عاطفی، همۀ گزینهها به یک میزان شانس انتخاب دارند.

پاسخ به اشکالهای احتمالی

اشکال اول: مشابه بودن انسان و زامبی از نظر کارکردی[۴]

کارکردگرایی در اخلاق به این معناست که عامل اخلاقی بودن یعنی شبیه یک عامل اخلاقی عمل کردن. طبق این دیدگاه، اگر «به نظر برسد» که یک موجود به دلایل اخلاقی پاسخ درست میدهد، «میل» دارد آسیبها را کمینه کند و دربرابر نقد و مجازات خود را اصلاح کند، میتوانیم او را عامل اخلاقی بخوانیم. اما همان‌طور که آزمایش فکریِ «اتاق چینی» سرل نشان میدهد، در ماشین فهم معنا اتفاق نمیافتد و در حوزۀ اخلاق نیز این ادعا صدق میکند. دو دلیل را میتوان برای رد این اعتراض برشمرد:

  1. طبق دیدگاهی که مورد پذیرش گروهی از متخصصان این حوزه است، ما هیچگاه نمیتوانیم موجوداتی بسازیم که عملکرد کاملاً مشابهی با عاملهای انسانی داشته باشند. آزمایش فکری زامبی همیشه یک آزمایش فکری خواهد بود و در عمل ما هیچگاه موجودات زامبی نخواهیم داشت. چراکه اخلاق را نمیتوان کاملاً در قالب مجموعهای از رمزها در یک موجود، جایدهی کرد. اخلاق مجموعهای از قوانین نیست که بتواند به شکل دستورالعمل به موجودی که توانایی فهمیدن ندارد، دیکته شود. برای عمل اخلاقی نیاز به فهم و خرد داریم تا بتوانیم در موقعیتهای پیچیده و پیشبینینشده و همچنین، موقعیت‌‌هایی که برای اصول کلّیِ اخلاق استثنا محسوب میشوند، به‌نحوی اخلاقی عمل کنیم.
  2. ممکن است ما به‌اشتباه! مسئولیت خطاها را به الگوریتمها و ماشینها نسبت دهیم و این امر فضایی را فراهم کند برای اینکه افرادی که واقعاً مسئول‌اند، از زیر بار مسئولیت شانه خالی کنند. تبعات چنین کاری میتواند بیپروایی عاملان انسانی در طراحی و کاربرد تکنولوژی باشد، درحالیکه تکنولوژیها را نمیتوان به‌نحوی واقعی تنبیه کرد.

هوش مصنوعی هنوز به قدر کافی هوشمند نشده است تا بتواند عامل اخلاقی محسوب شود و این موضوع ارتباطی به توانایی حسی هوش مصنوعی ندارد. اگر الگوریتمهای پیچیدهتر و ماهرانهتری بسازیم، میتوانیم آن‌ها را در زمرۀ عاملان اخلاقی وارد کنیم.

اشکال دوم: تمایز انگیزه و رانه[۵]

گروهی از متخصصان معتقدند که الگوریتم شاید دارای ویژگی‌ای به نام «رانه» باشد که میتوان آن را معادل یا مشابه انگیزه در انسان تلقی کرد. هوش مصنوعی شاید میتواند برای رسیدن به اهدافش به بهینهترین شکل ممکن، برای خود رانههای ابتدایی بسازد که او را در مسیر رسیدن به هدف پیش میرانند. این رانهها کمک میکنند که هوش مصنوعی خود را ارتقا دهد، از خود محافظت کند و منابع لازم را برای خود فراهم کند. اما مفهوم رانه میتواند مفهومی فریبدهنده باشد، چراکه با توسل به این مفهوم، درواقع سعی میکنیم اهداف برنامهنویسیشده را معادل انگیزههای روانشناختی/فیزیکی در انسانها جلوه دهیم. درحالیکه رانه برای هوش مصنوعی به این معنا نیست که او میتواند تأمل عمیقتری دربارۀ معنای زندگی یا میزان ارزشمندی یا درست بودن کنشهای خود داشته باشد.

اشکال سوم: امکان دستیابی به هوش عمومی

ممکن است عدهای ادعا کنند که هوش مصنوعی هنوز به قدر کافی هوشمند نشده است تا بتواند عامل اخلاقی محسوب شود و این موضوع ارتباطی به توانایی حسی هوش مصنوعی ندارد. اگر الگوریتمهای پیچیدهتر و ماهرانهتری بسازیم، میتوانیم آن‌ها را در زمرۀ عاملان اخلاقی وارد کنیم. اما موضعی که در یادداشت حاضر اتخاذ میکنیم، این است که میان هوش با امیال و انگیزهها، تفاوت و تمایز صریحی وجود دارد و تقویت شدن و پیچیدهتر شدن هوش میتواند کاملاً بیربط به ویژگیهایی نظیر انگیزه و میل باشد و منجر به بروز این ویژگیها نشود. دلیل دوم برای رد این اشکال -که دلیلی تجربی هم محسوب میشود- توجه به ویژگیهای افراد روانآزار[۶] است. این افراد در میزان هوشمندی عمومی تفاوتی با افراد عادی ندارند و حتی گاهی میانگین ضریب هوشی بالاتری از خود نشان می‌دهند، اما همچنان درک اخلاقی آن‌ها مخدوش است. اگرچه به درست و غلطِ اخلاقی آگاهی دارند و میتوانند راجع‌به استدلالهای اخلاقی صحبت کنند، اما درکی از احساسات اخلاقی و عقاید اخلاقی ندارند و آن را تجربه نمیکنند. آن‌ها به‌خاطر اَعمالشان احساس شرم را تجربه نمیکنند، نمیتوانند همدلی و همدردی با قربانیان نشان دهند. به همین خاطر است که آن‌ها نمیتوانند به دلایل اخلاقی پاسخهای اخلاقیِ مقتضی بدهند و درنتیجه، نمیتوانند عاملهای اخلاقی کاملی در نظر گرفته شوند و مسئولیت اخلاقی بپذیرند.

البته باید توجه داشت که صحبت کردن از توان حسی[۷] به‌مثابۀ یک شرط لازم، به این معنا نیست که این شرط، شرط کافی نیز خواهد بود. شرط لازم برای تجربۀ احساسات اخلاقی[۸] -ازجمله توانایی همدلی، دلسوزی، پشیمانی و احساس گناه- داشتن توان حسی است. توان حسی بنیانی برای احساسات اخلاقی است. ممکن است علّت اختلال‌های احساسی روانآزارها، وجود اختلال در توان حسی آن‌ها باشد. به نظر میرسد نوعی همبستگی میان بیاحترامی به دیگران از روی سنگدلی و ناتوانی در حس کردنِ درد وجود داشته باشد.

هرچه فردِ روانآزار، تحمل بیشتری نسبت به درد داشته باشد، تمایل او به سنگدلی بیشتر خواهد بود. بنابراین، حساس نبودن نسبت به درد، میتواند سازوکاری باشد که حساس نبودن نسبت به رنج دیگران را توضیح می‌‌دهد. وجود حدی از حساسیت نسبت به درد و لذت لازم است تا فرد بتواند احساسات اخلاقی و عاملیت اخلاقی را تجربه کند. درعین‌حال، ممکن است برای تجربه کردن احساسات اخلاقی، الزامات دیگری نیز وجود داشته باشد. به هر روی، برای عاملیت اخلاقی نیازمند داشتن توان حسی هستیم.

در پایان تذکر این نکته ضروری است که ممکن است در آینده هوش مصنوعی به گونهای پیچیده شود که بتواند ارزشها و امیال خود را داشته باشد. اما این تواناییها، ارتباطی به قدرت محاسباتی آن ندارند، بلکه از جنس توان حسی هستند که ممکن است نیازمند نوعی بدن‌مندی نیز باشند. وقتی الگوریتمها منجر به خسارت‌‌های اخلاقی میشوند، باید میان انسانهایی که آن‌ها را طراحی، برنامهنویسی، اجرایی و کاربردی کردهاند به‌دنبال مسئولان اخلاقی گشت‌‌.

سایر مقالات