خانه » مقالات » معرفت؛ دومین شرط مسئولیت‌پذیری
معرفت؛ دومین شرط مسئولیت‌پذیری
هوش مصنوعی و مسئله توزیع مسئولیت (بخش دوم)
سه شنبه, ۴ شهریور ۱۴۰۱
زمان تقریبی مطالعه ۱۳ دقیقه
در قسمت اول بیان کردیم که از نگاه ارسطو، شرط اول مسئولیت پذیری کنترل و شرط دوم داشتن معرفت است. شرط اول در قسمت قبل شرح داده شد. در این قسمت به توضیح شرط معرفت و به عبارت دیگر شفافیت و تبیین پذیری میپردازیم.

به زبان فلسفۀ تحلیلی مدرن، شرط معرفت یعنی:

1) آگاهی از عمل؛
2) آگاهی از اهمیت اخلاقی عمل؛
3) آگاهی از عواقب عمل؛
4) آگاهی از بدیلها.
البته در این خوانش از شرط معرفت، از یکی از نکات ارسطو غفلت شده است: اینکه با چه ابزار و وسیلهای کنش انجام میشود. این به این معناست که ارسطو توجه کرده است که تکنولوژی که برای انجام کنش مورد استفاده قرار میگیرد، در چگونگی واگذاری مسئولیت مهم است.
افرادی که در فرایند توسعه و کاربرد هوش مصنوعی درگیر هستند، عموماً دربارۀ این موضوعات معرفت دارند:

  • هدف
  • عواقب مطلوب

اما دربارۀ این موارد کمتر میدانند و معرفت دارند:

  • عواقب نامطلوب و آثار غیرمستقیم و یا استفاده از تکنولوژی تولیدشده توسط این افراد در سیاق دیگر
  • اهمیت اخلاقی کاری که میکنند

سؤالی که در اینجا مطرح میشود این است که توسعهدهنده تا چه اندازهای میتواند بهطور بالقوه از کاربردهای بدیل محصولش و امکان سوءاستفاده از آن مطّلع شود؟ چگونه میتوان کاربر و توسعهدهنده را حمایت کرد تا به این آگاهیها برسند و بر محدودیتهای پیشگفته غلبه کنند؟
نکتۀ دیگری که هم ارسطو و هم فیلسوفان تحلیل از آن غافل بودهاند، این است که در بحث دربارۀ مسئولیت، مهم است که بپرسیم یک عمل «همراه چه کسی» انجام شده است. انجام یک عمل با هوش مصنوعی، یک عمل جمعی[۱] است و شامل دستهای بسیار میشود و این به‌نوبۀ خود توزیع مسئولیت را دشوار میکند.

عدم شفافیت و عدم تبیینپذیری هوش مصنوعی، موجب میشود عاملهای انسانی دربارۀ موارد زیر جهل داشته باشند:

  • به قدر کافی درباره تکنولوژی خود نمیدانند
  • وقتی براساس هوش مصنوعی تصمیم میگیرند نمیدانند که دقیقاً درحال انجام چه کاری هستند
  • نمیدانند که این تصمیم چگونه گرفته میشود

مخاطبان عمل در مسئولیت (دیدگاهی رابطهای نسبت به مسئولیت)

یکی از لوازم مسئولانه بودن عمل این است که بتوان آن را برای دیگران توضیح داد و بتوان پاسخی برای پرسشهای کسانی که متأثر از این تصمیمات هستند، ارائه کرد. این ضرورت ما را متوجه ماهیت رابطهایِ مسئلۀ تبیینپذیری و مسئولیت میکند. پس مسئولیت، یک مسئلۀ رابطهای[۲] و گفتگومحور است. تبیینپذیری[۳] به دو دلیل مهم است: 1) عامل مسئول برای عمل مسئولانه باید بداند که کاری که انجام میدهد چیست 2) مخاطب عمل مسئولیت در رابطه و کسی که عملی در نسبت با او انجام میشود و تحت تأثیر عمل عامل قرار میگیرد (مستقیم و غیر مستقیم)، برای این عمل نیاز به دلیل دارد.

مخاطب عمل، نیازمند تبیین دراین‌باره است که در تکنولوژی که درحال استفاده از آن است، از هوش مصنوعی بهره گرفته شده است. او همچنین باید بتواند بگوید که به چه نوع تبیینی نیاز دارد و مُحِق است که بداند به چه روشهایی ممکن است از هوش مصنوعی متأثر شود. این گفت‌وگوی میان عامل و مخاطب عمل، از این جهت نیز مهم است که ما بدانیم به‌طور کلی تا چه حد نیاز به تبیین وجود دارد.

هوش مصنوعی ممکن است تنگناهایی ایجاد کند که قابل حل نباشند، اما این به این معنا نیست که نمیتوان و نباید به آن مسئولیت نسبت داد. وقتی یک تنگنای اخلاقی غیرقابل حل باشد، میتوانیم مسئله را با ذینفعان مختلف و در جامعه مطرح کنیم و به دنبال شیوههای جدیدی برای حل این تنگنا باشیم.

پس تبیین، یک مقولۀ اجتماعی و رابطهای است و متناسب با نوع نیاز مخاطب عمل میتواند متفاوت باشد. این جنبه از تبیینپذیری نشان میدهد که شاید هوش مصنوعی نتواند چنین تبیینهایی ارائه دهد، چون اجتماعی بودن را هنوز به قدر کافی نمیفهمد. آنچه نیاز مخاطب عمل است باید از سوی عامل در اختیار او گذاشته شود (نه لزوماً توضیح تمام جزئیات). این هدف محقق میشود اگر و فقط اگر:

1) انسانها به قدر کافی از فرصتها و حمایتهای تکنیکی بهرهمند باشند؛ و به بیان کوکلبرگ، این یعنی سیستمها شفافیت کافی برای قابل تبیین بودن را داشته باشند (نه لزوماً شفافیت کامل).
2) عاملان مسئول به قدر کافی مشتاق، توانمند و آموزشدیده باشند که بفهمند مخاطبان عمل نیازمند چه تبیینی هستند.
بنابراین، برای داشتن عاملیت مسئولانه، عامل باید بتواند قدرت پاسخگویی درباره کنشهای خود و ارائۀ تبیینی از نحوۀ تصمیمگیری خود را داشته باشد و برای انجام این کارها، او از مخاطبان عمل خود مستقل نیست و باید در ارتباط مستمر دوطرفه با آنها باشد. این معیارها باید در توسعه و آموزش هوش مصنوعی لحاظ شوند.

نکتۀ بعد آن است که توجه به بعد رابطهای مسئولیت، باعث توجه به ویژگی جمعی بودن مسئولیت نیز میشود. برای جمعی بودن مسئولیت دو معنا را میتوان متصور شد: 1) مسئولیت بین چند عامل توزیع شود 2) یک عامل جمعی مانند یک جامعه یا سازمان مسئول یک کار باشد.
ممکن است سوگیری موجود در هوش مصنوعی به علت سوگیری نهادینهشده در کل جامعه باشد، که در طول تاریخ از گذشته تا حال (بُعد زمانی مسئولیت) در فرهنگ جوامع رخنه کرده و در نتیجه، مسئلۀ سوگیری هوش مصنوعی یک مسئولیت فردی ساده نیست. برای مثال، اگر دادههای ورودی از متون اینترنتی اخذ شده باشند، دیگر عمل یک فرد نیست که موجب بروز سوگیری در خروجی هوش مصنوعی میشود. در یک بستر اجتماعی، فرهنگی، تاریخی نمیتوان از مسئولیت مطلق حرف زد.

هوش مصنوعی ممکن است تنگناهایی ایجاد کند که قابل حل نباشند، اما این به این معنا نیست که نمیتوان و نباید به آن مسئولیت نسبت داد. وقتی یک تنگنای اخلاقی غیرقابل حل باشد، میتوانیم مسئله را با ذینفعان مختلف و در جامعه مطرح کنیم و به دنبال شیوههای جدیدی برای حل این تنگنا باشیم. پس رابطهای دیدن مسئولیت، موجب میشود تعامل، گفت‌وگو، شفافیت و فهم (حتی فهم ابعاد فاجعهبار تکنولوژی) هوش مصنوعی و عواقب این تکنولوژی برای ما مهم شود.

پایان
سایر مقالات