خانه » مقالات » کنترل؛ اولین شرط مسئولیت‌پذیری
کنترل؛ اولین شرط مسئولیت‌پذیری
هوش مصنوعی و مسئله توزیع مسئولیت (بخش اول)
شنبه, ۱ شهریور ۱۴۰۱
زمان تقریبی مطالعه ۱۴ دقیقه
هوش مصنوعی در حوزه های مختلفی باعث انجام خودکار بسیاری از کارها شده و این روند در حال گسترش است. یکی از مهمترین پرسش ها که در حوزه های مطالعات اخلاقی و حقوقی هوش مصنوعی مطرح می شود، این است که مسئول خطاهای سرزده از این سیستم های هوشمند کیست؟

داشتنِ فهم رابطهای از «مسئولیت» موجب میشود متخصصان و اپراتورهای هوش مصنوعی بدانند که درحال انجام چه کاری هستند و همچنین تمایل پیدا کنند که با مخاطبانِ عمل اخلاقی ارتباط برقرار کرده و برای کنشهای خود دلیل و تبیین ارائه کنند. همچنین، از عواقب ناخواسته و اهمیت اخلاقی فعالیتهای خود آگاهی بیشتری داشته باشند.

برای بررسی مسئلۀ واگذاری مسئولیت به هوش مصنوعی، ابتدا به سراغ شروطی میرویم که ارسطو برای آن ذکر میکند؛ 1) شرط کنترل[۱] و 2) شرط معرفت[۲]. مشکلی که در نظریۀ ارسطو با آن مواجهیم این است که ارسطو تکنولوژی را صرفاً یک ابزار میداند و معتقد است فقط انسان میتواند مسئولیت اخلاقی داشته باشد. این فرض هنوز هم پرطرفدار است که حتی اگر عاملیت هوش مصنوعی بیشتر شود، باز هم این عامل انسانی است که همواره مسئولیت کارها را بر عهده دارد و میتواند عامل اخلاقی باشد. به‌علاوه، ارسطو تنها بر عامل اخلاقی متمرکز میشود و جنبۀ رابطهایِ مسئولیت و مخاطب عمل[۳] اخلاقی را مطالعه نمیکند. در این گزارش به چشم‌انداز مخاطب عمل هوش مصنوعی و اهمیت توجه به کاربران و نیازهای آن‌ها و شیوههای مختلف رفع این نیازها میپردازیم.

شرط کنترل

این شرط یعنی اثری را آزادانه و از روی اراده با عمل خود ایجاد کنیم و درجۀ کافی از کنترل را روی این عمل داشته باشیم. چنین عملی داوطلبانه صورت میگیرد و از میان گزینههای دیگری که برای انجام دادن وجود دارد، انتخاب میشود. نکتهای که دربارۀ شرط کنترل وجود دارد این است که تکنولوژی به دلیل اینکه در شکل دادن عمل انسان تأثیرگذار است و ابزارِ صرف نیست، تا حدی بر محدودۀ کنترل انسان تأثیر میگذارد و آن را تعیّن میبخشد. پس تکنولوژی در این رویکرد نه مسئول است و نه غیرمسئول؛ بلکه در مسئولیت انسانی دارای مدخلیت است. در اینجا برای روشنتر شدن بحث به مرور چند سؤال میپردازیم:

آیا انسانها همیشه میتوانند مسئولیت استفاده از هوش مصنوعی را بر عهده بگیرند؟

ممکن است انسان نتواند کنترل کافی بر روی هوش مصنوعی داشته باشد و مسئلۀ شکاف مسئولیت[۴] به وجود بیاید. برای مثال، ماشینهای یادگیرندۀ خودمختار[۵] یا خودروهای خودران هنگامی که در موقعیت تصادف یا موقعیتهای پرمخاطره و ناگهانی دیگر قرار میگیرند، ممکن است به انسان فرصت کافی برای نشان دادن واکنش ندهند. در بسیاری از موارد مشابه دیگر که تکنولوژی عملکرد اتوماتیک نشان میدهد، انسان نمیتواند تصمیم نهایی را بگیرد. در چنین مواقعی مسئولیت با چه کسی است؟ آیا مجازیم که چنین ماشینها و موقعیتهایی بسازیم که جایی برای عاملیت انسانی باقی نمیگذارند (مواردی مانند اتوپایلوت در پرواز یا واکنش خودمختار نرمافزارهای طراحیشده برای پاسخ به حملات سایبری)؟ آیا باید حد و مرزی را برای میزان اتوماسیون ماشینهای هوشمند تعیین کرد؟

کدام انسانها مسئول استفاده از هوش مصنوعی هستند؟

معمولاً برای انجام یک کار یا در ایجاد شدن یک اثر چند فرد درگیر هستند و یک فرد را نمیتوان مسئول کل فرایند دانست. به همین خاطر، واگذاری مسئولیت میان عاملان متعددِ درگیر در تولید خروجی، کاری دشوار خواهد بود. این مسئله را مسئلۀ دستهای بسیار[۶] مینامیم. یک پاسخ برای این مسئله این است که مسئولیت را توزیع کنیم. اما در عمل چطور میشود این کار را انجام داد؟ مرزها و محدودههای مساهمت عاملهای مختلف و روابط آنها معمولاً مبهم است و نیاز به موشکافیهای دقیق دارد؛ به‌خصوص درمورد عواقب اخلاقی تکنولوژیهای نوظهوری نظیر هوش مصنوعی که امکان خودمختاری برای آنها متصور است و پیش از این تأملات اخلاقی کافی دربارۀ چنین مواردی صورت نگرفته است.

زمان چه نقشی در واگذاری مسئولیت دارد؟

توزیع مسئولیت، علاوه‌بر ملاحظاتی که مطرح شد یک بُعد زمانی هم دارد؛ اینکه چه کسی چه کاری را در چه زمانی انجام داده است. زنجیرۀ عاملان انسانی دخیل در توسعۀ هوش مصنوعی زنجیرهای طولانی است. در فرایند تولید، انتخاب و پردازش دادهها برای آموزش دادن سیستمهای هوشمند، عاملهای انسانی متعددی در زمانها و مکان‌‌های مختلف درگیر هستند. همچنین، یک نرمافزار هوش مصنوعی ممکن است برای اهداف مختلف و در زمانهای مختلف بهکار گرفته شود (برای مثال از یک سیستم هوشمند که برای تشخیص چهره طراحی شده، میتوان هم در پزشکی در هم در پایش و نظارت استفاده کرد). علاوه‌بر کاربرد و توسعۀ هوش مصنوعی، حفظ و نگهداری از آن هم امر مهمی است. اگر نگهداری از هوش مصنوعی مسئولانه نباشد، به این معنا که نتوان مسیر عِلّی عملکرد آن را ردیابی کرد، مسئولیتها را نیز نمیتوان به‌درستی توزیع کرد. پس واگذاری مسئولیت نیازمند این است که مسیر عِلّی عملکرد آن قابل ردیابی باشد.

مسئلۀ چیزهای بسیار

در بررسی عواقب اخلاقی و اجتماعی تکنولوژی، علاوه‌بر مسئلۀ دستهای بسیار، با مسئلۀ چیزهای بسیار[۷] نیز مواجهیم. در فرایندهای مربوط به هوش مصنوعی و کارکردهایی که برای این تکنولوژی قابل تصور است، نرمافزارها و تکنولوژیهای مختلفی ممکن است درگیر باشند. برای مثال ممکن است علت یک تصادف هوایی که در آن از سیستمهای هوشمند استفاده شده است، تعامل یک سنسور خراب با نرمافزار باشد. چراکه نرمافزار تاریخ عِلّی طولانیای را از تولید تا کاربرد از سر گذارنده و با چیزهای بسیاری در تعامل بوده است.

برای تعیین مسئولیت باید همۀ روابط ساختاری و زمانی را توأمان در نظر گرفت؛ روابط انسانها با یکدیگر و رابطۀ آنها با چیزها و روابط چیزها با یکدیگر، باید به‌طور مجزّا مورد بررسی قرار گیرد. همیشه لزوماً هوش مصنوعی، علت بروز خطا و عواقب ناخواسته نیست. ممکن است جزء دیگری از سیستم تکنولوژیکی، منشأ خطا باشد. مرز میان تکنولوژیهای هوشمند با تکنولوژیهای دیگر نیز در بسیاری از موارد واضح نیست. بنابراین، لازم است که مشخص کنیم چه عناصر تکنیکی دیگری در سیستم وجود دارند، نحوۀ تعامل آن‌ها چگونه است، چطور در مسئله مشارکت دارند، رابطۀ آنها با انسانها چگونه است. همچنین، باید مشخص شود که آیا کاربر نهایی در جریان است که درحال استفاده از تکنولوژی است که در آن هوش مصنوعی به خدمت گرفته شده است. ضمن اینکه کاربر باید بداند چه میزان در استفاده از این تکنولوژی آزادی دارد. این ملاحظه ما را به مسئلۀ معرفت در مسئولیت میرساند که در قسمت دوم دربارۀ آن صحبت میکنیم.

 

بخش دوم مقاله را از اینجا بخوانید.

سایر مقالات