بحث دربارۀ خودمختاریِ[۱] هوش مصنوعی، یکی از مباحث داغ جهان امروز است. عبارت خودمختاری معانی مختلفی دارد و همین تعدد معانی، باعث سوءارتباط در رسانهها و در میان عموم مردم شده است. خودمختاریِ هوش مصنوعی در رسانهها و مردم به گونهای جا افتاده است که تصور بر این است آنچه در کنترل انسانی نباشد، جای نگرانی و حتی ترس دارد. برخی از آیندهپژوهان معتقدند هوش مصنوعی علاوهبر اینکه از کنترل طراحان، مهندسان و شرکتهای سازنده خارج خواهد شد، آنقدر پیچیده و خودمختار میشود که جهان را تصاحب خواهد کرد. برای مثال، بوستروم در ایدۀ فراهوش[۲] خود بیان میکند که هوش مصنوعی در آینده به نقطهای میرسد که قادر است برای خود هدف تعیین کند و خود نیز مصنوعاتی را برای رسیدن به این اهداف بسازد. گویی نقطۀ عطف در تاریخ توسعۀ هوش مصنوعی زمانی است که هوش مصنوعی شروع میکند به شیوۀ خودش عمل کند؛ یعنی اعمالی را به شکل ارادی انجام دهد. ویژگی ارادی بودن کنشهای یک عامل، از نگاه برخی از متخصصان هوش مصنوعی با دارا بودن ویژگی آگاهی[۳] در موجوداتِ هوشمند همبستگی دارد. به بیان دیگر، موجودی میتواند اعمال ارادی انجام دهد که دارای آگاهی باشد. در این گزارش ما عمدتاً بر دو مفهوم عاملیت[۴] و مسئولیت[۵] متمرکز میشویم. و مفهوم عاملیت را نه به معنای انتزاعی آن، بلکه از جهت رابطهای که با مسئولیت اخلاقی و حقوقی برقرار میکند، مورد بررسی قرار میدهیم.
برخی از متخصصان این حوزه به هوش مصنوعی همان عاملیتی را نسبت میدهند که به انسانها نسبت داده میشود. سردرگمیها و ابهاماتی که دربارۀ چیستی و تعاریف عاملیت اخلاقی وجود دارد، باعث بدفهمی دربارۀ آیندۀ هوش مصنوعی شده است. در این گزارش مفهوم سهگانهای از عاملیت معرفی میشود که شامل عاملیت عِلّی[۶] مصنوع و عاملیت قصدمندانۀ[۷] انسانها است. برای درک بهتر این دو مفهوم از عاملیت، به موردکاوی یک خطای فناورانه در شرکت فولکس واگن میپردازیم و عاملیت انسانی و فناورانه را در این مثال از یکدیگر تفکیک میکنیم. در این مثال، مشاهده میکنیم که یک نرمافزار نقش مهمی در بروز یک خطا داشته و در امکانپذیر شدن چنین خطایی عاملیت داشته است. سپس این موردکاوی را با این تصور که هوش مصنوعی به سمت خودمختاری بیشتر در آینده پیش میرود، بسط میدهیم و نکاتی را در باب عاملیت و مسئولیت هوش مصنوعی مطرح میکنیم.
مفهوم عاملیت
عاملیت در معنای سنتیاش، معادل با توان کنشگری هستومند[۸] است. بهطور کلّی دو نوع رفتار و کنش را میتوان از یکدیگر متمایز کرد: 1) عمل قصدمندانه که برآمده از حالات ذهنی است و بهطور سنتی منحصر به انسان است 2) عمل برآمده از روابط عِلّی مادّی که هم انسان و هم مصنوع میتوانند آن را دارا باشند. در عاملیت نوع اول، عامل میتواند پاسخگو، وظیفهمند و شایستۀ ستایش و مجازات باشد. اما عاملی که دارای عاملیت نوع دوم باشد، چنین ویژگیهایی را ندارد. البته، برخی از متخصصان معتقدند که عاملیت ارادی را به ماشین نیز میتوان نسبت داد و حتی ماشین به علّت کارآمدی بالاتری که دارد، از این جهت میتواند مناقشهبرانگیزتر باشد، چرا که میتواند مسئولیت را هم بپذیرد.
به هر روی، چون امکانهای مختلف برای توسعۀ هوش مصنوعی در آینده هنوز مورد توافق نیستند، ما همچنان دربارۀ عاملیت هوش مصنوعی سردرگم هستیم و توافقی قطعی روی تعریف این مفهوم و نسبت دادن آن به هوش مصنوعی وجود ندارد. به نظر میرسد که هوش مصنوعی درحال حرکت از عاملیت نوع دوم به سمت عاملیت نوع اول است و این حرکت مسئلهساز است و باعث شده است آیندههایی غیرواقعی برای هوش مصنوعی پیشبینی کنیم. آنچه ما را در ردیابی و توزیع مسئولیت راهنمایی میکند، پیگیری خطاهای فناوری است. فهم بهتر از عاملیت نیز باعث میشود، دید شفافتری نسبت به مفهوم مسئولیت پیدا کنیم. ما در این گزارش نوع سومی از عاملیت را معرفی میکنیم که دو عاملیت اول را در بر میگیرد و به ادعای دبورا جانسون[۹] و ماریو وردی چیو[۱۰] که این ایده را مطرح کردهاند، میتواند عملکرد هوش مصنوعی را در بافتار جهان واقعی توضیح دهد.
انواع عاملیت
یکی از تعابیری که برای عاملیت ارائه شده است، توانایی کنشگری است. در گذشته کنش را عملی ارادی و منحصر به انسان میدانستیم. اما امروزه بحث از هوش مصنوعی بهعنوان یک عامل خودمختار نیز مطرح شده است، بهگونهای که عمل یک برنامه یا ربات را نوعی کنش در نظر میگیرند و در نتیجه آن را یک عامل تلقی میکنند. اما به باور برخی از اندیشمندن این حوزه، نظیر دبورا جانسون، این عاملها مصنوعی هستند زیرا در قالب مدارهای الکترونیک ازپیش طراحیشده عملکرد خود را انجام میدهند نه کنشهای طبیعی انسانی.
در ادامه، ابتدا دو نوع فهم از عاملیت را از یکدیگر تفکیک میکنیم. سپس، این دو فهم را در قالب مدلی تحت عنوان عاملیت سهگانه ترکیب میکنیم.
فهم وسیع یا عاملیت عِلّی یا تأثیر عِلّی
این نوع از عاملیت در همهجا وجود دارد. وقتی هستومند[۱۱]ها وارد روابط علّی میشوند روی یکدیگر کنش انجام میدهند، با هم تعامل میکنند و تغییراتی را روی یکدیگر ایجاد میکنند. در نتیجه، داشتن عاملیت روی مخاطبِ عمل در همهجا بهنحو مستقیم و غیرمستقیم میتواند وجود داشته باشد. رویکردهایی نظیر مطالعات علم و فناوری[۱۲] و نظریۀ شبکه-عامل[۱۳] چنین فهمی از عاملیت دارند. چنانکه برونو لاتور[۱۴]، فیلسوف و جامعهشناس شهیر معتقد است برای فهمیدن اینکه موجودی عامل هست یا نه، پرسیدن دو سوال کافیست:
1) آیا این موجود تغییری در روند کنش دیگر عاملان ایجاد میکند؟
2) آیا آزمونی هست که یک فرد دیگر بتواند این تغییر را آشکار کند؟
اگر پاسخ این دو پرسش مثبت باشد، این موجود چه انسان باشد و چه نا-انسان، عاملیت دارد و عامل است.
توجه به این نوع از عاملیت موجب میشود که تأثیرات فناوری بر شکلگیری و تغییر جهان را ببینیم و به رسمیت بشناسیم. فناوری بر نظامهای اجتماعی، روابط میان نهادها و همچنین بر ارزشها تأثیرگذار است. یک نمونه از این تأثیرات را در قالب یک موردکاوی در این گزارش بیان میکنیم. در سال ۲۰۱۵ آژانس حفاظت از محیطزیست (EPA)[۱۵] در آمریکا، فهمید که موتورهای دیزلی شرکت فولکس واگن[۱۶] دارای نقص ابزاری هستند و این شرکت برای آنکه بتواند از آزمون استاندارد EPA عبور کند، با استفاده از یک نرمافزار دستگاه شکست، سیستم کنترل انتشار موتور را بهگونهای تغییر میدهد که ازطریق انجام تقلب انتشار موتور را کاهش دهد. این نرمافزار دارای تأثیر و عاملیت عِلّی است و به سناریوهایی که فاجعههای فناورانه را توصیف میکنند شبیه است همچنین موجب آسیب رساندن به بشر میشود. اگرچه این نرمافزار در ممکن شدن تقلب و بروز آسیبهای زیستمحیطی نقش دارد، کسی از مسئولیت آن در تقلب چیزی نمیگوید.
فهم محدود یا عاملیت ارادی
این نوع از عاملیت ناظر به کنشهای ارادی است که توسط انسان انجام میشوند. به باور جانسون و وردیچیو، اراده[۱۷] نوعی حالت ذهنی[۱۸] است که هوش مصنوعی آن را دارا نیست. ممکن است عدهای از متخصصان علوم کامپیوتر به هوش مصنوعی اراده نسبت دهند، اما این میتواند یک معنای استعاری برای اراده باشد. برخی دیگر از متخصصان حوزۀ هوش مصنوعی نیز معتقدند زمانی در آیندۀ هوش مصنوعی میتواند به اراده و قصدمندی دست یابد. اما این نیز هنوز یک گمان است.
با فرض اینکه ارادۀ هوش مصنوعی یک استعاره است، در مثال تقلب فولکس واگن هم از عاملیت علّی نرمافزار یا از عاملیت ارادی به معنای استعاری آن سخن میگوییم. هر دو عاملیت علّی و ارادی، دارای اثر علّی هستند ولی در عاملیت ارادی شروع زنجیرۀ علّیت با اراده یک عامل است. اراده و کنش ارادی ازطریق رابطهای پیچیده به مسئولیت مرتبط میشوند. در مثال فولکس واگن بعد از انجام شدن تقلب، مدیر و مهندسان مسئول تقلب شناخته شدند. چراکه شروع یک عاملیت علّی با عاملیت ارادی است؛ یعنی با انسانها، که در اینجا مهندسان و مدیران شرکت فولکس واگن هستند. مدیر ارشد این شرکت مدعی است که استفاده از دستگاه شکست به پیشنهاد مهندسان بود، زیرا مهندسان دریافتند که موتورهای دیزلیشان معیارهای استاندارد EPA را برآورده نمیکند. اما در هنگام توزیع مسئولیت این تقلب باید توجه کرد که این کنش ارادی مدیرها بوده که سطح مشخصی از عملکرد را برای خودروهای این شرکت تعریف کردهاند و هدف دستیابی به معیار EPA را نیز این مدیران درخواست کرده بودند و این عاملیتها در تحقق یافتن تقلب دخیل بودهاند. این مدیران فولکس واگن بودند که اراده کردند اهداف مشخصی را تعیین کنند. همچنین فرهنگ شرکت، طبق ارادۀ آنها طوری شکل گرفته است که مهندسها از عواقب شکست در این آزمون استاندارد واهمه داشته باشند و نتوانند به مدیران خود بگویند که این هدف برای موتورهای دیزلی شرکت قابل دستیابی نیست. بنابراین مسئولیت این دسته از خطاها علاوهبر دنبالۀ علّی به اراده و قصدمندی عاملها نیز وابسته است.
مدل عاملیت سهگانه
مقصود از عاملیت سهگانه در ادبیات جانسون و وردیچیو عاملیتی است که انسان به همراه فناوری بروز میدهد. در این مدل نقش فناوری و انسان را در شکلگیری وقایع توضیح میدهیم، اما به نقش طبیعت یا موضوعات دیگر نمیپردازیم. عاملیت علّی و ارادی هیچ یک بهتنهایی نمیتوانند کل یک داستان را فراچنگ بیاورند. مثلاً درمورد فولکس واگن، عاملیت علّی صرفاً اثر علّی دستگاه شکست را میبیند، ولی ارادۀ مدیران ارشد و مهندسان را در نظر نمیگیرد. عاملیت ارادی نیز اراده و علّیت انسانی را میبیند و به سهم مصنوعاتی که انسان برای تحقق ارادهاش از آن استفاده کرده توجهی نمیکند. درحالیکه دستگاه شکست بهمثابۀ یک فناوری در شکل دادن به اراده مهندسان و ممکن شدن تقلب نقش داشته است.
در نتیجه ترکیب هر دو نوع از عاملیت به حل بهتر مسئله کمک میکند؛ اینکه چگونه ارادۀ عاملان انسانی و تأثیر مصنوعات توانسته نتایجی مانند تقلب فولکس واگن را تولید کند. این دو عاملیت در قالب مفهوم عاملیت سهگانه (به این معنا که انسان با مصنوع کنشگری میکند تا به هدفی مشخص دست یابد) با یکدیگر ترکیب میشوند. در عاملیت سهگانه، سه مؤلفه را میتوان از یکدیگر تفکیک کرد:
یک) کاربری که میخواهد به هدفی مشخص برسد و وظیفۀ دستیابی به هدف را به طراح واگذار میکند. در مثال فولکس واگن مدیر شرکت با هدف رساندن ماشین به استاندارد EPA در جایگاه کاربر قرار میگیرد.
دو) طراحی که یک مصنوع را برای رسیدن به این هدف مشخص میسازد. در مثال فولکس واگن مهندس شرکت با ساختن دستگاه شکست هدف مدیر را محقق میکند.
سه) مصنوعی که اثر علّی لازم را برای رسیدن به هدف تولید میکند. در مثال پیشین دستگاه شکست بهمثابۀ مصنوع عمل میکند.
وجود همۀ این عاملها برای تحقق تقلب در شرکت فولکس واگن ضروری بودند. در اینجا کاربر با ارادۀ خود هدف را به طراح واگذار میکند و طراح با ارادۀ خود، مصنوعی را میسازد.
دستگاه شکستی که تقلب فولکس واگن را ممکن کرد، متشکل از کدهایی بود که توسط مهندسان آن نوشته شده بود. اما ممکن است در آینده مسئله اینقدر سرراست نباشد. فناوریها روزبهروز خودمختارتر میشوند و وظایف پیچیدهتری به آنها واگذار میشود و این موضوع واگذاری مسئولیت را سختتر میکند. انسانها هر روز به اثر علّی فناوری برای انجام کارهایشان وابستهتر میشوند تا جایی که شاید انسان در آینده فقط وظیفۀ تعیین هدف را انجام دهد و ماشین خود شکل دستیابی به هدف را بنویسد و تعیین کند. مثلاً در آینده اگر شرایطی مشابه برای شرکت فولکس واگن پیش بیاید، مهندسان طراح با سیستمهای هوش مصنوعیای که میتوانند نرمافزار طراحی کنند جایگزین شوند. به این طریق که این هدف را برای هوش مصنوعی تعیین کنند که در آزمون EPA موفق شود. در نهایت دریابند که هوش مصنوعی به شکل خودمختار تصمیم گرفته که با کنترل موتور و راهکاری مشابه استفاده از دستگاه شکست به این هدف دست یابد. حال اگر این تقلب کشف شود، عاملیت را چگونه درک کرده و مسئولیت را چگونه واگذار کنیم؟
در بخش بعد مدلی که توسط جانسون و وردیچیو برای پاسخ به این سوال ارائه میشود را توضیح میدهیم.
ادامه دارد …