خانه » مقالات » چرا باید حکمت عملی مصنوعی را در هوش مصنوعی شبیه‌سازی کنیم؟ | بخش دوم
چرا باید حکمت عملی مصنوعی را در هوش مصنوعی شبیه‌سازی کنیم؟ | بخش دوم
قسمت دوم و پایانی: حکمت عملی مصنوعی
چهار شنبه, ۵ آبان ۱۴۰۱
زمان تقریبی مطالعه ۱۹ دقیقه
در قسمت قبل درباره حکمت عملی و تقسیم آن به دو نوع مصنوعی و غیرمصنوعی توضیح دادیم. در این قسمت به بررسی برخی زوایای حکمت عملی مصنوعی میپردازیم.

نقش حکمت عملی مصنوعی در استدلال اخلاقی اتوماتیکشده

آیا میتوان کارکردی معادل کارکرد حکمت عملی در انسانهای شایسته را در ماشینها برنامهنویسی کرد؟ برای دستیابی به این هدف لازم است ماشینهایی را طراحی کنیم که در تعاملات خود با عاملهای انسانی از خود حکمت عملی بروز میدهند. دستیابی به این هدف مطلقاً کار سادهای نیست، چراکه همۀ عاملهای انسانی هم در استدلال حکیمانه ماهر نیستند و این انتظارِ زیادی از ماشین است که مهارت حکمت عملی را در خود جای دهد. مانع دشوار دیگری که پیشِ روست، دستیابی به آگاهی مصنوعی است؛ چون لازمۀ حکمت عملی، داشتن توانایی تأمل و عمل آگاهانه و درست است. با همۀ این‌ها، دستیابی به حکمت عملی مصنوعی امری ضروری است، ازاین‌رو که برای شکلگیری اعتماد میان کاربران هوش مصنوعی و رباتها و میان خود سیستمهای هوشمند، قدرت تصمیمگیری اخلاقی مورد نیاز است. در چنین حالتی است که میتوان آیندهای را تصور کرد که در آن، انسانها با آسودگی خاطر زیست میکنند و نگران عواقب و تأثیرات نامطلوب تصمیمهای سیستمهای خودمختار روی زندگیشان نخواهند بود.

بیانیهای برای حکمت عملی مصنوعی

حوزۀ مطالعات حکمت عملی مصنوعی حوزۀ میانرشتهای نوظهوری است که توجهات را به سوی خود جلب کرده است. در ادامه به‌طور خلاصه به مواردی اشاره میکنیم که میتوان از آن‌ها تحت عنوان بیانیهای برای حکمت عملی مصنوعی نام برد:

  • حکمت عملی نقشی اساسی در استدلال اخلاقی سطح بالا ایفا میکند و این پرسش، پرسش بسیار مهمی است که آیا میتوان معادل کارکردیاش را در ماشینها برنامهنویسی کرد؟
  • حکمت عملی مصنوعی، قابلیتی ضروری برای ساختن عاملهای اخلاقی مصنوعی است؛ هرچند که هنوز نمیدانیم آیا میتوان ماشینهایی با چنین قابلیتی ساخت یا خیر.
  • حکمت عملی مصنوعی از تلاشهای انجامشده در سنت کلاسیک اخلاق متأثر است، اما تنها به این منابع محدود نیست. به بیان دیگر، به‌دنبال توصیف کامل حکمت عملی به‌گونهای که در اخلاق کلاسیک مطرح شده نیست. همچنین، نمیکوشد که فهمی کامل از مفهوم حکمت عملی انسانی در سطح نظری و عصبشناختی پیدا کند. اگرچه از کمکهای مطالعات در این حوزهها بهره میگیرد.
  • ادعای این حوزه این نیست که ماشین‌‌ها میتوانند عاملهای اخلاقی کامل شوند. کمال اخلاقی برای هیچ عامل اخلاقیای ابتدا به ساکن ممکن نیست. حکمت عملی مصنوعی به‌دنبال آن است که سیستم محاسباتیای را توضیح دهد که با هدف تعامل اخلاقی با عاملهای انسانی و مصنوعی طراحی می‌شود و میتواند در موقعیتهای جدید هم راهحلهای خلاقانهای ارائه دهد.
  • کوششها برای دستیابی به حکمت عملی مصنوعی به شیوهها و در قالبهای متنوعی درحال انجام است؛ مثلاً روش یادگیری ماشین تکاملی. اما این نگرانی در این حوزه به رسمیت شناخته میشود که ممکن است ماشینها صرفا بتوانند قضاوت اخلاقی را برای مدتی معیّن شبیهسازی کنند و همیشه این خطر وجود دارد که این ماشینها فقط نمود و تمثالی از عاملهای اخلاقی باشند. برای مقابله با این خطر، حوزۀ حکمت عملی مصنوعی معیارهای سختگیرانهای را برای قضاوت دربارۀ استدلال اخلاقی ماشینها تنظیم میکند، هرچند که دستیابی به چنین ماشینهایی در آیندۀ نزدیک ناممکن به نظر میرسد.

دستیابی به حکمت عملی مصنوعی امری ضروری است، ازاین‌رو که برای شکلگیری اعتماد میان کاربران هوش مصنوعی و رباتها و میان خود سیستمهای هوشمند، قدرت تصمیمگیری اخلاقی مورد نیاز است. در چنین حالتی است که میتوان آیندهای را تصور کرد که در آن، انسانها با آسودگی خاطر زیست میکنند و نگران عواقب و تأثیرات نامطلوب تصمیمهای سیستمهای خودمختار روی زندگیشان نخواهند بود.

نظر جان دیوئی در باب نقش حکمت عملی در تفکر آگاهانه

حکمت عملی مفهومی مهجور و کهن نیست و طی قرنها همواره مورد توجه اندیشمندان بوده است. جان دیوئی یکی از مهم‌ترین افرادی است که در باب این مفهوم تأملاتی داشته و آن را بسط داده است. برخلاف فلاسفۀ باستان که حکمت عملی را تنها به فلاسفۀ بسیار هوشمند نسبت میدادهاند، دیوئی این مفهوم را به‌گونهای بازتعریف میکند که نقشی محوری در همۀ انواع استدلال پیدا کند. چراکه وقتی تلاش میکنیم هر علم یا مهارتی را کاربردی کنیم، لاجرم وارد حوزههای اجتماعی میشویم و کنشورزی موفق در این حوزهها مستلزم استفاده از حکمت عملی است. اگر با دیوئی همنظر باشیم، حکمت عملی بخشی از آن چیزی است که از ما موجوداتی شایسته و کفایتمند، آگاه، و باوجدان میسازد.

اعتماد اخلاقی عاملهای هوش مصنوعی و رباتها

یکی از پیچیدهترین موضوعاتی که در حوزۀ اخلاق هوش مصنوعی پیگیری میشود، رابطۀ مبتنی بر اعتماد میان این فناوریها با انسانها و با خودشان است. در اینجا ما موضوع را محدود میکنیم به اعتماد فرونتیک یا اعتماد مبتنی بر حکمت عملی. عاملهای فرونتیک مصنوعی باید بتوانند ما را متقاعد کنند که وقتی درحال تعامل با ما هستند، شخصیت اخلاقی ما را در نظر میگیرند و متناسب با آن تصمیمات اخلاقی خود را اتخاذ میکنند. ما انسانها از یکدیگر میآموزیم که چطور شخصیت اخلاقی خود را پرورش دهیم و ماشینهای اخلاقی نیز برای پیدا کردن درکی از شخصیت اخلاقی ما باید در فرایندهای اجتماعی مهم ما مشارکت داشته باشند. به عبارت دیگر، این ماشینها باید بتوانند در جایگاه آموزگاران اخلاقی نیز در جامعه قرار بگیرند. در چنین تعاملی با ماشینها باید به ما ضمانت داده شود که ماشینهایی که به آن‌ها اعتماد میکنیم، دارای «شخصیت خوبی» هستند و استحقاق اعتماد ما را دارند. در صورتی که حکمت عملی مصنوعی به قدر کافی توسعه نیافته باشد، غیرممکن است که عاملهای اخلاقی مصنوعی داشته باشیم و به همین دلیل، باید کاربردهای هوش مصنوعی و رباتها را محدود کنیم و تنها از ماشینهایی استفاده کنیم که تأثیرات اخلاقی چندان مهمی ندارند.

چگونه میتوانیم به‌نحوی اخلاقی به هوش مصنوعی و رباتها اعتماد کنیم؟

مارک کاکلبرگ[۱] (2012)، یکی از برجستهترین فیلسوفان حوزۀ هوش مصنوعی معاصر معتقد است که دو شیوۀ مجزّا را میتوان برای بررسی مقولۀ اعتماد در هوش مصنوعی و رباتیک تصور کرد:

  • در شیوۀ اول که آن را شیوۀ «قراردادگرایانه-فردگرایانه[۲]» مینامیم، ما میتوانیم وارد رابطۀ مبتنی بر اعتمادی با ماشین شویم همان‌گونه که چنین رابطهای را با شرکتها یا هستومندهای حقوقی دیگر، وقتی به محصولات و خدمات آن‌ها اعتماد میکنیم، برقرار میکنیم. چنین روابطی کمابیش محتاطانه هستند، اما قدمتی دیرینه در جوامع ما دارند. لوچیانو فلوریدی[۳] و ماریاروزاریا تادئو[۴] (2011) ازجمله افرادی هستند که کوشیدهاند اختلافات و نکات جزئیای را یادآور شوند که باید در این سیستمها به آن‌ها توجه کرد تا تبدیل به سیستمهای کفایت‌مندتر و قابل‌اعتمادتری شوند.
  • شیوۀ دومی که کاکلبرگ آن را معرفی میکند، رویکرد «پدیدارشناختی-اجتماعی[۵]» نام دارد. این روابط، مبتنی بر اعتمادی است که انسانها اغلب با انسانهای دیگر برقرار میکنند و پیوندهای اجتماعی در بستر این روابط رشد مییابند و روابط معنادار و عمیقی شکل میگیرد. کاکلبرگ نسبت به شکلگیری چنین روابطی با هوش مصنوعی و رباتها خوشبین نیست و آن‌ها را روابطی مبتنی بر اعتماد مجازی یا شبهاعتماد میداند. سیستمها در چنین روابطی با ما وارد بازیهای اجتماعی میشوند و اعتماد ما را جلب میکنند، اما این روابط مخاطراتی برای ما خواهد داشت. ممکن است ما فریب بخوریم که در رابطهای مبتنی بر اعتماد اخلاقی با هوش مصنوعی و رباتها هستیم، اما درواقع اینطور نیست و در برخی از موقعیتها این میتواند خطراتی به همراه داشته باشد. در یکی از پژوهشهای انجام شده در این زمینه (Grodzinsky, Miller, Wolf: 2011) روشی طراحی شده که ممکن است بتواند این مسئله را کمرنگتر کند. در این روش مفهوم جدیدی از «اعتماد» معرفی میشود که هم شامل اعتماد سنتی و چهره‌به‌چهره میان انسانهاست و هم دربردارندۀ روابطی است که ازطریق واسطههای الکترونیکی شکل میگیرند و همچنین روابطی که عاملهای مصنوعی در آن‌ها حضور دارند. این مفهوم از اعتماد مفهوم وسیعتری است که رابطۀ انسان-انسان و رابطۀ انسان-هوش مصنوعی را دربرمیگیرد.

اگر بخواهیم با ماشینها وارد رابطۀ مبتنی بر اعتمادِ پدیدارشناختی-اجتماعی شویم، نیازمند طراحی حکمت عملی مصنوعی هستیم. در این صورت، انواع جدیدی از جوامع را تجربه خواهیم کرد. اما اگر به این نتیجه برسیم که دستیابی به آگاهی مصنوعی عملاً ناممکن است، رویای تولد چنین جوامعی نیز عملاً محقق نخواهد شد.

 

بخش اول را از اینجا بخوانید.

سایر مقالات