به باور اندیشمندانی که مخالف مسئولیتپذیری هوش مصنوعی هستند، واگذاری مسئولیت به هوش مصنوعی نه معنایی دارد و نه فایدهای. در شرایطی که هوش مصنوعی به حد کافی از خودمختاری رسیده باشد و در جایگاه طراح قرار گرفته و هدف را دریافت میکند، مدیر ارشد هنوز در جایگاه کاربری است که تعیین هدف میکند. بنابراین:
1. مصنوع: دستگاه شکستی که در تولید تقلب دارای عاملیت علّی است، اما از خود ارادهای ندارد. مصنوع صرفاً بخشی از عاملیت سهگانه را بر عهده دارد.
2. طراح: سیستم هوش مصنوعی که دستورالعمل ساخت دستگاه شکست و اثر علّی آن در تقلب را تولید کرده است. اما آیا هوش مصنوعی این دستورالعملها را ارادی تولید کرده است؟ جانسون و وردیچیو معتقدند که هوش مصنوعی به معنایی که مهندسان در حال حاضر اراده دارند، این فعالیتها را به نحو ارادی انجام نداده است. باز هم این مهندسان هستند که انسانهایی دارای ارادهاند، چراکه هوش مصنوعی آینده نیز یک نرمافزار است که همچنان نمیتوان مسئولیتی را به آن واگذار کرد.
در عین حال، شماری معتقدند که هوش مصنوعی در آینده به قدری پیشرفته میشود که کنشگری آن را عاملیت ارادی بدانیم. اما در این گزارش ادعا بر این است که چون هنوز هوش مصنوعی متشکل از نرمافزاری است که روی کامپیوتر عمل میکند، هنوز در حوزه عاملیت علّی قرار دارد. برای آنکه هوش مصنوعی آینده بتواند مانند انسان دارای اراده باشد، باید گام بزرگی برای رفع شکاف هستیشناختی میان مطالعات محاسباتی و هوش مصنوعی تولیدشده از آن و موجودات دارای احساس و حالت ذهنی برداشته شود.
هوش مصنوعی پیشرفته همچنان دارای عاملیت علّی است؛ نه قصد سوئی دارد و نه در اثر بیتوجهی منجر به بروز خطا میشود. هر دوی این ویژگیها ارادیاند و هوش مصنوعی برای داشتن این ویژگیها باید بر شکاف هستیشناختی پیشگفته غلبه کند. بنابراین همچنان اراده کسی که استفاده از هوش مصنوعی را توجیه، طراحی و مجاز کرده است مهم است و مسئولیتی بر عهده هوش مصنوعی نیست. البته هوش مصنوعی بخشی از عاملیت تقلب را دارد.
3. کاربر: مدیر ارشد در این مثال هم کاربر خواهد بود و با دستگاه شکست به هدف موفقیت در آزمون میرسد. اوست که هدف خود را به هوش مصنوعی واگذار میکند. مدیر دارای اراده است و عاملیت ارادی دارد.
اما آیا مدیر ارشد چون به طور کامل به هوش مصنوعی تکیه میکند کل مسئولیت را بر عهده دارد؟ برای پاسخ به این سوال رابطه میان مدیر و هوش مصنوعی باید بیشتر بررسی شود. برای مثال باید بپرسیم هنگامی که مدیر هدف را به هوش مصنوعی واگذار میکرد به چه مواردی فکر میکرد؟ جواب این سوال ما را متوجه هستومندهای جدید و صورتبندی کردن سهگانه جدیدی میکند. در ساختن هوش مصنوعیای که قرار است در مقام طراح قرار بگیرد، طراحان این هوش مصنوعی پیشرفته، سهگانه جدیدی خلق میکنند. یعنی مدیران گروهی از مهندسان نرمافزار را برای ساخت هوش مصنوعی استخدام میکنند و سهگانه دیگری با هدف ساخت هوش مصنوعیای که بتواند مسئله EPA را حل کند شکل میگیرد:
- کاربر همان مدیر است.
- طراح همان مهندس نرم افزار انسانی است.
- مصنوعات، ابزارهای سختافزاری و نرم افزاری هستند که تولید هوش مصنوعی را تسهیل میکنند.
مسئولیت، سازوکاری است برای انگیزه دادن به افراد برای اینکه به نحوه خاصی عمل کنند. وقتی افراد باور داشته باشند که مسئولاند با احتمال بیشتری مسئولانه رفتار میکند. در خطاهای فناورانه مسئولیت باید بر عهده کسانی باشد که توانایی تضمین احتمال رخ ندادن وقایع بد را داشته باشند. بنابراین، عاملیت و مسئولیت دو مفهوم متمایز از یکدیگرند. عاملیت سهگانه است و نوعی از آن را میتوان به فناوری نسبت داد. ولی مسئولیت فقط مختص انسانهاست.
سهگانهای بدون انسانها
برخی معتقدند هوش مصنوعی محاسباتی تا جایی پیش میرود که بتواند عاملیت ارادی داشته باشد؛ با همه پیچیدگیهای روانی انسانی از جمله انگیزه، علاقه، هدف، اراده و قصدمندی. به نظر میرسد اینجا هم در دام معنای استعاری از عاملیت ارادی افتادهایم. هوش مصنوعی یک موجود محاسباتی است که دارای اراده و قصدمندی نیست و میان این دو تفاوتی هستیشناختی وجود دارد. فعالیتها و توانمندیهایی که از جنس محاسباتی است و میتوان آنها را به کمک عملیات محاسباتی شبیهسازی کرد، تفاوتی هستیشناختی با حالات ذهنی دارد. البته نمیتوان با قاطعیت ادعا کرد که محاسبهگرایی (باور به اینکه همه توانمندیهای ذهنی را میتوان بر اساس فرایندهای محاسباتی تبیین کرد) لزوماً منجر به حالات ذهنی نمیشود، اما خلاف این ادعا ، به این معنا که رویکرد محاسباتی لزوماً منجر به هوش مصنوعی دارای اراده خواهد شد نیز قابل اثبات نیست.
با هر سرانجامی که برای آینده هوش مصنوعی متصور باشیم (چه عاملیت ارادی داشته باشد و چه نداشته باشد) مسئولیت باید به زنجیره انسانهایی واگذار شود که اراده آنها منجر به این سرانجام شده است. هر قدر هوش مصنوعی پیشرفت کند، فاصله تصمیمگیری انسانی با عملکرد هوش مصنوعی بیشتر میشود. اما مدل سهگانه به ما کمک میکند تا عاملیتها و مسئولیتها را در فرآیندهای مختلف ردیابی کنیم.