در بخش دوم از این یادداشت، مطالعات مرتبط با تعامل بین انسان و ربات مورد بررسی قرار گرفت که شامل بررسی سه مطالعه بود: اولین مطالعه، رباتها را از منظر ویژگی خودمختاری یا عدم آن بررسی میکرد. در مطالعۀ دوم، میزان سودمندی قابلیت شناسایی احساسات و حالات چهرۀ انسان توسط ربات بررسی شده بود و تأثیر آن در تعامل با فرد گزارش شده بود. مطالعۀ سوم نیز نشان داده بود که انسانها بیشتر ترجیح میدهند با رباتهایی با قابلیت خودمختاری ارتباط برقرار کنند و برای آنها مشابه حیوانات خانگی یا حتی مشابه انسانها، تشخّص قائل شوند. در این بخش، خواهیم دید که انسانانگاری رباتها توسط انسان، گاهی موجب فریبخوردن انسانها یا تأثیرات مخرّب بر آنها میشود. در انتها نیز نمونههایی از رباتهای موجود نظیر ربات مینیاب و رومبا معرفی میشوند.
حتی متخصصان رباتیک هم در امان نیستند!
شوتز گزارش میکند که در آزمایشگاه آنها وقتی ربات انساننمای CRAMER (تصادفاً) روشن مانده بود، آزاردهنده بود و توجه خود را از صحبتکنندهای به صحبتکنندۀ دیگر منتقل میکرد (گویی میفهمد که چه چیزی درحال بیان شدن است) که این موجب معذب شدن حاضران شده است. همچنین، دانشجویان ام.آی.تی که در آزمایشگاه خود با ربات Kismet کار میکردند، گاهی پردهای میان خود و ربات میکشیدند، چراکه خیره شدن ربات باعث برهم خوردن تمرکز آنها میشد. حتی سازندۀ Kismet، سینتیا بریزیل[۱] نیز رابطهای شخصی با ربات خود شکل داده بود؛ نوعی پیوند مادرانه که ربات را فقط بهمثابۀ یک ماشین نمیدید و وقتی پروژهاش به پایان رسید و مجبور به ترک ربات شد، احساس فقدانی شدید را تجربه کرد.
خطرات پیشِروی رابطۀ یکطرفه
با توجه به مثالهای بالا میتوان نتیجه گرفت که از سوی رباتها چه تلاش کمی نیاز است تا باعث شود کاربر رابطهای یکطرفه با آنها شکل دهد. صرفاً تقلید و شبیهسازی برخی از رفتارهای یک سگ واقعی میتواند ربات را آمادۀ ساختن رابطه با یک انسان کند و از ربات، یک همدم برای کاربرش بسازد. حتی رباتهای نظامی مانند packbot که کاملاً خودمختار نیستند و از راه دور توسط اپراتور کنترل میشوند نیز میتوانند نقشی مهم در زندگی روزمرۀ سربازان ایفا کنند.
با همۀ توجیهات بالا، رباتهایی مثل رومبا که نه به حیوان و نه به انسان شباهت دارند نیز ایدۀ عاملیت داشتن را به کاربر خود تزریق میکنند و حتی حس قدردانی و دلسوزی را در او فعال میکنند. این رباتها از اینکه بتوانند بهعنوان یک همراه واقعی ایفای نقش کنند، ناتواناند. هیچیک از این روباتها درکی از مفهوم «دیگری» و الگوریتمی برای شناسایی افراد ندارند. با این حال میتوانند رابطۀ احساسی یکطرفهای میان خود و کاربر انسانی شکل دهند و این رابطه میتواند مخاطراتی به همراه داشته باشد که در ادامه به برخی از آنها اشاره میکنیم:
تصویرسازی نادرست
هیچیک از رباتهایی که امروزه به فروش میرسند، اهمیتی به انسان نمیدهند. اگرچه تلاشهایی در جهت تشخصبخشی به رباتها در صنعت رباتیک و هوش مصنوعی صورت میگیرد، این رباتها مکانیسمهای محاسباتی و معماری لازم برای همدلی کردن را ندارند و نمیتوانند به معنایی احساسی به کاربر خود اهمیت بدهند؛ چراکه ما خود هنوز نمیدانیم که چه الزامات محاسباتیای نیاز است تا یک سیستم بتواند به چیزی اهمیت دهد.
شرکتهای سازنده علیرغم وقوف به محدودیتهای تکنولوژیهای ساختۀ خود، برای مقاصد تبلیغاتی و اقتصادی سعی میکنند این تصور را در کاربران خود به وجود بیاورند که ربات آنها دارای توانایی درک احساسات است و حالات ذهنی مشابه انسان یا حیوان را تجربه میکند و اینگونه کاربران را فریب میدهند. افراد دانشگاهی نیز در ارائۀ پژوهشها به قدر کافی مراقب نیستند و از تعابیری مانند احساس داشتن، به کار بردن احساسات و … برای توصیف ساختههای خود استفاده میکنند و استفاده از این ادبیات در نوشتن مقالات و … موجب میشود افراد غیرمتخصص، فرایندهای کنترل را در این مصنوعات با فرایندهای کنترل در ارگانیسمهای طبیعی مثل حیوانات و انسانها یکسان بینگارند و باورهای غلطی را در سطح عمیق ناخودآگاه دربارۀ رباتها پیدا کنند، درحالیکه ممکن است در سطح آگاهانه این ادعاها را رد کنند.
امکان سوءاستفاده
ویژگیهایی مانند شباهت به انسان و تعامل ازطریق زبان طبیعی که در آینده هم ارتقا پیدا میکنند، ممکن است باعث اعتماد و نزدیکی بیشتر انسان به ربات شود و امکان سوءاستفاده از انسانها را تشدید کند. برای مثال، ممکن است انسانها به رباتها بیشتر اعتماد کنند و با استفاده از همین ویژگی، از رباتها برای بازجویی یا فروش محصولات استفاده شود. ممکن است سادهتر و طبیعیتر شدن روابط یکطرفه با رباتها منجر به اعتیاد ناآگاهانۀ کاربر به آنها شود. اگر رباتها بتوانند این تصور را که دارای قدرت همدلی و همدردی هستند، در کاربر ایجاد کنند، دیگر پی بردن به اینکه این رابطه یکطرفه است، توسط کاربر بسیار دشوارتر خواهد شد.
یکی از مخاطرات رابطۀ یکطرفۀ انسان با ربات این است که وابستگیهای روانی برای انسان ایجاد میشود و این بهنوبۀ خود عواقبی جدی برای جوامع انسانی در پی دارد؛ چراکه امکان سوءاستفاده (اقتصادی، سیاسی و …) در مقیاس بزرگ فراهم میشود و ممکن است رباتها با تهدید انسانها به ترکشان، آنها را به کارهایی وادار کنند که در حالت عادی انجام نمیدادند. این واقعیت که رباتها موانعی مانند احساس گناه یا همدلی و … ندارند که آنها را از سوءاستفاده منع کند نیز توجه به این مخاطره را ضروریتر میکند.
چه باید کرد؟
علیرغم همۀ فوایدی که رباتها میتوانند داشته باشند، باید به عواقب استفاده از آنها برای بُعد احساسی و روانی زندگی شخصی و اجتماعیمان هم فکر کنیم. این تأملات اگر بهموقع صورت بگیرد، میتواند در پژوهشهای آیندۀ رباتیک مفید باشد. در واکنش نسبت به مخاطراتی که مطرح شد، پیشنهادهای زیر میتواند مورد توجه قرار بگیرد:
- پیشنهادهایی مثل توقف تولید این رباتها به نظر منطقی و عملی نیست.
- پیشنهاد دیگر این است که رباتهای موجود باید قدرت استدلال اخلاقی -مثلاً در قالب الگوریتمهای تصمیمگیری- داشته باشند و ربات نتواند استدلالهای اخلاقی را تغییر دهد یا نادیده بگیرد. این پیشنهاد میتواند در حوزههای محدودی عملی شود. اما مسئله این است که تعداد کنشهای ممکنِ ربات محدود خواهد بود و دلالتهای اخلاقی همۀ کنشها و موقعیتهای محتمل بسیار پیچیده و پرشمارند. از آنجایی که در طول تاریخ فلسفه نتوانستهایم روی مجموعۀ مورداجماعی از قواعد توافق کنیم و ترجمۀ قواعد اخلاقی به زبان محاسباتی نیز ممکن است با محدودیتهای عملی مواجه باشد، این پیشنهاد نیز با چالشهای نظری و عملی مواجه است.
- پیشنهاد بعدی این است که در طراحی ربات (چه ظاهر و چه رفتار آن) این گزینه را قرار دهیم که ربات دائماً این هشدار را بدهد که یک ماشین است، احساسات ندارد و نمیتواند رابطهای متقابل داشته باشد (شبیه ایدۀ نوشتن «سیگار کشیدن ممنوع» یا نوشتن مضرات سیگار روی پاکت آن). اما این هم ضمانت نمیکند که انسانها درگیر رابطۀ احساسی با ربات نشوند. اگرچه این پیشنهاد احتمال و شدت پیوندهای عاطفی با ربات را کاهش میدهد. با این حال مرز باریکی است بین تعامل ساده و طبیعی با ربات و باور به اینکه این ربات ماشینی فاقد حیات است. میتوان چنین پیشنهادی را به آزمون تجربی گذاشت.
- به رباتها احساساتی مشابه انسانها بدهیم؛ اتفاقی که در سیر تاریخی تطور انسانی رخ داده است و او را قادر به برقراری تعادل میان بهروزی فردی و رفتار قابل پذیرش در اجتماع کرده است. رباتها نیز میتوانند با داشتن توانایی ارزیابی احساسی مشابه انسان، در جوامع انسانی شبیه انسانها عمل کنند؛ البته با این اثر جانبی که احساسات واقعی داشته باشند و در نتیجه در معرض آسیبپذیری و سوءاستفاده قرار بگیرند. برخی معتقدند که این کار تلاش بسیاری میطلبد، اما عدهای دیگر این کار را کاملاً عملی میدانند. به هر روی، این پیشنهاد را نمیتوان و لازم نیست در هر نوعی از رباتها عملی کرد. برای مثال، شاید ربات فضانورد نیازی به احساسی بودن نداشته باشد.
در نهایت آنچه ما بدان احتیاج داریم، راهی برای مطمئن شدن از این است که مورد سوءاستفادۀ رباتها (بهنحوی متفاوت با سوءاستفادۀ انسانهای معمولی دیگر) قرار نگیریم.
بخش اول نوشته را از اینجا بخوانید.
بخش دوم نوشته را از اینجا بخوانید.