خانه » مقالات » عاملیت و مسئولیت در هوش مصنوعی (بخش اول)
عاملیت و مسئولیت در هوش مصنوعی (بخش اول)
شنبه, ۱ بهمن ۱۴۰۰
زمان تقریبی مطالعه ۲۵ دقیقه
خودمختاری هوش مصنوعی در رسانه‌ها و عوام به گونه‌ای جا افتاده که تصور بر این است، آنچه که در کنترل انسانی نباشد، جای نگرانی و حتی ترس دارد. برخی از آینده‌پژوهان معتقدند هوش مصنوعی علاوه بر اینکه از کنترل طراحان، مهندسان و شرکت‌های سازنده خارج خواهد شد، تا حدی پیچیده و خودمختار می‌شود که جهان را تصاحب خواهد کرد.

بحث دربارۀ خودمختاریِ[۱] هوش مصنوعی، یکی از مباحث داغ جهان امروز است. عبارت خودمختاری معانی مختلفی دارد و همین تعدد معانی، باعث سوءارتباط در رسانه‌ها و در میان عموم مردم شده است. خودمختاریِ هوش مصنوعی در رسانه‌ها و مردم به گونه‌ای جا افتاده است که تصور بر این است آنچه در کنترل انسانی نباشد، جای نگرانی و حتی ترس دارد. برخی از آینده‌پژوهان معتقدند هوش مصنوعی علاوه‌بر اینکه از کنترل طراحان، مهندسان و شرکت‌های سازنده خارج خواهد شد، آنقدر پیچیده و خودمختار می‌شود که جهان را تصاحب خواهد کرد. برای مثال، بوستروم در ایدۀ فراهوش[۲] خود بیان می‌کند که هوش مصنوعی در آینده به نقطه‌ای می‌رسد که قادر است برای خود هدف تعیین کند و خود نیز مصنوعاتی را برای رسیدن به این اهداف بسازد. گویی نقطۀ عطف در تاریخ توسعۀ هوش مصنوعی زمانی است که هوش مصنوعی شروع می‌کند به شیوۀ خودش عمل کند؛ یعنی اعمالی را به شکل ارادی انجام دهد. ویژگی ارادی بودن کنش‌های یک عامل، از نگاه برخی از متخصصان هوش مصنوعی با دارا بودن ویژگی آگاهی[۳] در موجوداتِ هوشمند همبستگی دارد. به بیان دیگر، موجودی می‌تواند اعمال ارادی انجام دهد که دارای آگاهی باشد. در این گزارش ما عمدتاً بر دو مفهوم عاملیت[۴] و مسئولیت[۵] متمرکز می‌شویم. و مفهوم عاملیت را نه به معنای انتزاعی آن، بلکه از جهت رابطه‌ای که با مسئولیت اخلاقی و حقوقی برقرار می‌کند، مورد بررسی قرار می‌دهیم.

برخی از متخصصان این حوزه به هوش مصنوعی همان عاملیتی را نسبت می‌دهند که به انسان‌ها نسبت داده می‌شود. سردرگمی‌ها و ابهاماتی که دربارۀ چیستی و تعاریف عاملیت اخلاقی وجود دارد، باعث بدفهمی دربارۀ آیندۀ هوش مصنوعی شده است. در این گزارش مفهوم سه‌گانه‌ای از عاملیت معرفی می‌شود که شامل عاملیت عِلّی[۶] مصنوع و عاملیت قصدمندانۀ[۷] انسان‌ها است. برای درک بهتر این دو مفهوم از عاملیت، به موردکاوی یک خطای فناورانه در شرکت فولکس واگن می‌پردازیم و عاملیت انسانی و فناورانه را در این مثال از یکدیگر تفکیک می‌کنیم. در این مثال، مشاهده می‌کنیم که یک نرم‌افزار نقش مهمی در بروز یک خطا داشته و در امکان‌پذیر شدن چنین خطایی عاملیت داشته است. سپس این موردکاوی را با این تصور که هوش مصنوعی به سمت خودمختاری بیشتر در آینده پیش می‌رود، بسط می‌دهیم و نکاتی را در باب عاملیت و مسئولیت هوش مصنوعی مطرح می‌کنیم.

مفهوم عاملیت

عاملیت در معنای سنتی‌اش، معادل با توان کنشگری هستومند[۸] است. به‌طور کلّی دو نوع رفتار و کنش را می‌توان از یکدیگر متمایز کرد: 1) عمل قصدمندانه که برآمده از حالات ذهنی است و به‌طور سنتی منحصر به انسان است 2) عمل برآمده از روابط عِلّی مادّی که هم انسان و هم مصنوع می‌توانند آن را دارا باشند. در عاملیت نوع اول، عامل می‌تواند پاسخ‌گو، وظیفه‌مند و شایستۀ ستایش و مجازات باشد. اما عاملی که دارای عاملیت نوع دوم باشد، چنین ویژگی‌هایی را ندارد. البته، برخی از متخصصان معتقدند که عاملیت ارادی را به ماشین نیز می‌توان نسبت داد و حتی ماشین به علّت کارآمدی بالاتری که دارد، از این جهت می‌تواند مناقشه‌برانگیزتر باشد، چرا که می‌تواند مسئولیت را هم بپذیرد.

به هر روی، چون امکان‌های مختلف برای توسعۀ هوش مصنوعی در آینده هنوز مورد توافق نیستند، ما همچنان دربارۀ عاملیت هوش مصنوعی سردرگم هستیم و توافقی قطعی روی تعریف این مفهوم و نسبت دادن آن به هوش مصنوعی وجود ندارد. به نظر می‌رسد که هوش مصنوعی درحال حرکت از عاملیت نوع دوم به سمت عاملیت نوع اول است و این حرکت مسئله‌ساز است و باعث شده است آینده‌هایی غیرواقعی برای هوش مصنوعی پیش‌بینی کنیم. آنچه ما را در ردیابی و توزیع مسئولیت راهنمایی می‌کند، پیگیری خطاهای فناوری است. فهم بهتر از عاملیت نیز باعث می‌شود، دید شفاف‌تری نسبت به مفهوم مسئولیت پیدا کنیم. ما در این گزارش نوع سومی از عاملیت را معرفی می‌کنیم که دو عاملیت اول را در بر می‌گیرد و به ادعای دبورا جانسون[۹] و ماریو وردی چیو[۱۰] که این ایده را مطرح کرده‌اند، می‌تواند عملکرد هوش مصنوعی را در بافتار جهان واقعی توضیح دهد.

انواع عاملیت

یکی از تعابیری که برای عاملیت ارائه شده است، توانایی کنشگری است. در گذشته کنش را عملی ارادی و منحصر به انسان می‌دانستیم. اما امروزه بحث از هوش مصنوعی به‌عنوان یک عامل خودمختار نیز مطرح شده است، به‌گونه‌ای که عمل یک برنامه یا ربات را نوعی کنش در نظر می‌گیرند و در نتیجه آن را یک عامل تلقی می‌کنند. اما به باور برخی از اندیشمندن این حوزه، نظیر دبورا جانسون، این عامل‌ها مصنوعی هستند زیرا در قالب مدارهای الکترونیک ازپیش طراحی‌شده عملکرد خود را انجام می‌دهند نه کنش‌های طبیعی انسانی.

در ادامه، ابتدا دو نوع فهم از عاملیت را از یکدیگر تفکیک می‌کنیم. سپس، این دو فهم را در قالب مدلی تحت عنوان عاملیت سه‌­گانه ترکیب می‌­کنیم.

فهم وسیع یا عاملیت عِلّی یا تأثیر عِلّی

این نوع از عاملیت در همه‌جا وجود دارد. وقتی هستومند[۱۱]ها وارد روابط علّی می‌شوند روی یکدیگر کنش انجام می‌دهند، با هم تعامل می‌کنند و تغییراتی را روی یکدیگر ایجاد می‌کنند. در نتیجه، داشتن عاملیت روی مخاطبِ عمل در همه‌جا به‌نحو مستقیم و غیرمستقیم می‌تواند وجود داشته باشد. رویکرد‌هایی نظیر مطالعات علم و فناوری[۱۲] و نظریۀ شبکه-عامل[۱۳] چنین فهمی از عاملیت دارند. چنانکه برونو لاتور[۱۴]، فیلسوف و جامعه‌شناس شهیر معتقد است برای فهمیدن اینکه موجودی عامل هست یا نه، پرسیدن دو سوال کافیست:

1) آیا این موجود تغییری در روند کنش دیگر عاملان ایجاد می‌کند؟
2) آیا آزمونی هست که یک فرد دیگر بتواند این تغییر را آشکار کند؟

اگر پاسخ این دو پرسش مثبت باشد، این موجود چه انسان باشد و چه نا-انسان، عاملیت دارد و عامل است.

توجه به این نوع از عاملیت موجب می‌شود که تأثیرات فناوری بر شکل‌گیری و تغییر جهان را ببینیم و به رسمیت بشناسیم. فناوری بر نظام‌های اجتماعی، روابط میان نهادها و همچنین بر ارزش‌ها تأثیرگذار است. یک نمونه از این تأثیرات را در قالب یک موردکاوی در این گزارش بیان می‌کنیم. در سال ۲۰۱۵ آژانس حفاظت از محیط‌زیست (EPA)[۱۵] در آمریکا، فهمید که موتورهای دیزلی شرکت فولکس واگن[۱۶] دارای نقص ابزاری هستند و این شرکت برای آنکه بتواند از آزمون استاندارد EPA عبور کند، با استفاده از یک نرم‌افزار دستگاه شکست، سیستم کنترل انتشار موتور را به‌گونه‌ای تغییر می‌دهد که ازطریق انجام تقلب انتشار موتور را کاهش دهد. این نرم‌افزار دارای تأثیر و عاملیت عِلّی است و به سناریوهایی که فاجعه‌های فناورانه را توصیف می‌کنند شبیه است همچنین موجب آسیب رساندن به بشر می‌شود. اگرچه این نرم‌افزار در ممکن شدن تقلب و بروز آسیب‌های زیست‌محیطی نقش دارد، کسی از مسئولیت آن در تقلب چیزی نمی‌گوید.

فهم محدود یا عاملیت ارادی

این نوع از عاملیت ناظر به کنش‌های ارادی است که توسط انسان انجام می‌شوند. به باور جانسون و وردی‌چیو، اراده[۱۷] نوعی حالت ذهنی[۱۸] است که هوش مصنوعی آن را دارا نیست. ممکن است عده‌ای از متخصصان علوم کامپیوتر به هوش مصنوعی اراده نسبت دهند، اما این می‌تواند یک معنای استعاری برای اراده باشد. برخی دیگر از متخصصان حوزۀ هوش مصنوعی نیز معتقدند زمانی در آیندۀ هوش مصنوعی می‌تواند به اراده و قصدمندی دست یابد. اما این نیز هنوز یک گمان است.

با فرض اینکه ارادۀ هوش مصنوعی یک استعاره است، در مثال تقلب فولکس واگن هم از عاملیت علّی نرم‌افزار یا از عاملیت ارادی به معنای استعاری آن سخن می‌گوییم. هر دو عاملیت علّی و ارادی، دارای اثر علّی هستند ولی در عاملیت ارادی شروع زنجیرۀ علّیت با اراده یک عامل است. اراده و کنش ارادی ازطریق رابطه‌ای پیچیده به مسئولیت مرتبط می‌شوند. در مثال فولکس واگن بعد از انجام شدن تقلب، مدیر و مهندسان مسئول تقلب شناخته شدند. چراکه شروع یک عاملیت علّی با عاملیت ارادی است؛ یعنی با انسان‌ها، که در اینجا مهندسان و مدیران شرکت فولکس واگن هستند. مدیر ارشد این شرکت مدعی است که استفاده از دستگاه شکست به پیشنهاد مهندسان بود، زیرا مهندسان دریافتند که موتورهای دیزلی‌شان معیارهای استاندارد EPA را برآورده نمی‌کند. اما در هنگام توزیع مسئولیت این تقلب باید توجه کرد که این کنش ارادی مدیرها بوده که سطح مشخصی از عملکرد را برای خودروهای این شرکت تعریف کرده‌اند و هدف دستیابی به معیار EPA را نیز این مدیران درخواست کرده بودند و این عاملیت‌ها در تحقق یافتن تقلب دخیل بوده‌اند. این مدیران فولکس واگن بودند که اراده کردند اهداف مشخصی را تعیین کنند. همچنین فرهنگ شرکت، طبق ارادۀ آن‌ها طوری شکل گرفته است که مهندس‌ها از عواقب شکست در این آزمون استاندارد واهمه داشته باشند و نتوانند به مدیران خود بگویند که این هدف برای موتورهای دیزلی شرکت قابل دستیابی نیست. بنابراین مسئولیت این دسته از خطاها علاوه‌بر دنبالۀ علّی به اراده و قصدمندی عامل‌ها نیز وابسته است.

مدل عاملیت سه‌گانه

مقصود از عاملیت سه‌گانه در ادبیات جانسون و وردی‌چیو عاملیتی است که انسان به همراه فناوری بروز می‌دهد. در این مدل نقش فناوری و انسان را در شکل‌گیری وقایع توضیح می‌دهیم، اما به نقش طبیعت یا موضوعات دیگر نمی‌پردازیم. عاملیت علّی و ارادی هیچ یک به‌تنهایی نمی‌توانند کل یک داستان را فراچنگ بیاورند. مثلاً درمورد فولکس واگن، عاملیت علّی صرفاً اثر علّی دستگاه شکست را می‌بیند، ولی ارادۀ مدیران ارشد و مهندسان را در نظر نمی‌گیرد. عاملیت ارادی نیز اراده و علّیت انسانی را می‌بیند و به سهم مصنوعاتی که انسان برای تحقق اراده‌اش از آن استفاده کرده توجهی نمی‌کند. درحالی‌که دستگاه شکست به‌مثابۀ یک فناوری در شکل دادن به اراده مهندسان و ممکن شدن تقلب نقش داشته است.

در نتیجه ترکیب هر دو نوع از عاملیت به حل بهتر مسئله کمک می‌کند؛ اینکه چگونه ارادۀ عاملان انسانی و تأثیر مصنوعات توانسته نتایجی مانند تقلب فولکس واگن را تولید کند. این دو عاملیت در قالب مفهوم عاملیت سه‌گانه (به این معنا که انسان با مصنوع کنشگری می‌کند تا به هدفی مشخص دست یابد) با یکدیگر ترکیب می‌شوند. در عاملیت سه‌گانه، سه مؤلفه را می‌توان از یکدیگر تفکیک کرد:

یک) کاربری که می‌خواهد به هدفی مشخص برسد و وظیفۀ دستیابی به هدف را به طراح واگذار می‌کند. در مثال فولکس واگن مدیر شرکت با هدف رساندن ماشین به استاندارد EPA در جایگاه کاربر قرار می‌گیرد.

دو) طراحی که یک مصنوع را برای رسیدن به این هدف مشخص می‌سازد. در مثال فولکس واگن مهندس شرکت با ساختن دستگاه شکست هدف مدیر را محقق می‌کند.

سه) مصنوعی که اثر علّی لازم را برای رسیدن به هدف تولید می‌کند. در مثال پیشین دستگاه شکست به‌مثابۀ مصنوع عمل می‌کند.

وجود همۀ این عامل‌ها برای تحقق تقلب در شرکت فولکس واگن ضروری بودند. در اینجا کاربر با ارادۀ خود هدف را به طراح واگذار می‌کند و طراح با ارادۀ خود، مصنوعی را می‌سازد.

دستگاه شکستی که تقلب فولکس واگن را ممکن کرد، متشکل از کدهایی بود که توسط مهندسان آن نوشته شده بود. اما ممکن است در آینده مسئله اینقدر سرراست نباشد. فناوری‌ها روزبه‌روز خودمختارتر می‌شوند و وظایف پیچیده‌تری به آنها واگذار می‌شود و این موضوع واگذاری مسئولیت را سخت‌تر می‌کند. انسان‌ها هر روز به اثر علّی فناوری برای انجام کارهایشان وابسته‌تر می‌شوند تا جایی که شاید انسان در آینده فقط وظیفۀ تعیین هدف را انجام دهد و ماشین خود شکل دستیابی به هدف را بنویسد و تعیین کند. مثلاً در آینده اگر شرایطی مشابه برای شرکت فولکس واگن پیش بیاید، مهندسان طراح با سیستم‌های هوش مصنوعی‌ای که می‌توانند نرم‌افزار طراحی کنند جایگزین شوند. به این طریق که این هدف را برای هوش مصنوعی تعیین کنند که در آزمون EPA موفق شود. در نهایت دریابند که هوش مصنوعی به شکل خودمختار تصمیم گرفته که با کنترل موتور و راهکاری مشابه استفاده از دستگاه شکست به این هدف دست یابد. حال اگر این تقلب کشف شود، عاملیت را چگونه درک کرده و مسئولیت را چگونه واگذار کنیم؟

در بخش بعد مدلی که توسط جانسون و وردی‌چیو برای پاسخ به این سوال ارائه می‌شود را توضیح می‌دهیم.

ادامه دارد …

بخش دوم نوشته را از اینجا بخوانید.

سایر مقالات