خانه » مقالات » وابستگی یک‌طرفۀ انسان به ربات چه مخاطراتی دارد؟ (قسمت سوم و پایانی)
وابستگی یک‌طرفۀ انسان به ربات چه مخاطراتی دارد؟ (قسمت سوم و پایانی)
یکشنبه, ۲ دی ۱۴۰۰
زمان تقریبی مطالعه ۱۷ دقیقه
روبات‌ها به تلاش کمی نیاز دارند تا کاربر رابطه‌ای یک‌طرفه را با آن‌ها شکل دهد. صرفاً تقلید و شبیه‌سازی برخی از رفتارهای یک سگ واقعی می‌تواند روبات ‌را آماده ساختن رابطه با یک انسان کند و از روبات، یک همدم برای کاربرش بسازد.

در بخش دوم از این یادداشت، مطالعات مرتبط با تعامل بین انسان و ربات مورد بررسی قرار گرفت که شامل بررسی سه مطالعه بود: اولین مطالعه، ربات‌ها را از منظر ویژگی خودمختاری یا عدم آن بررسی می‌کرد. در مطالعۀ دوم، میزان سودمندی قابلیت شناسایی احساسات و حالات چهرۀ انسان توسط ربات بررسی شده بود و تأثیر آن در تعامل با فرد گزارش شده بود. مطالعۀ سوم نیز نشان داده بود که انسان‌ها بیشتر ترجیح می‌دهند با ربات‌هایی با قابلیت خودمختاری ارتباط برقرار کنند و برای آن‌ها مشابه حیوانات خانگی یا حتی مشابه انسان‌ها، تشخّص قائل شوند. در این بخش، خواهیم دید که انسان‌انگاری ربات‌ها توسط انسان، گاهی موجب فریب‌خوردن انسان‌ها یا تأثیرات مخرّب بر آن‌ها می‌شود. در انتها نیز نمونه‌هایی از ربات‌های موجود نظیر ربات مین‌یاب و رومبا معرفی می‌شوند.

حتی متخصصان رباتیک هم در امان نیستند!

شوتز گزارش می‌کند که در آزمایشگاه آن‌ها وقتی ربات انسا‌ن‌نمای CRAMER (تصادفاً) روشن مانده بود، آزاردهنده بود و توجه خود را از صحبت‌کننده‌ای به صحبت‌کنندۀ دیگر منتقل می‌کرد (گویی می‌فهمد که چه چیزی درحال بیان شدن است) که این موجب معذب شدن حاضران شده است. همچنین، دانشجویان ام.آی.تی که در آزمایشگاه خود با ربات Kismet کار می‌کردند، گاهی پرده‌ای میان خود و ربات ‌می‌کشیدند، چراکه خیره شدن ربات باعث برهم خوردن تمرکز آن‌‌ها می‌شد. حتی سازندۀ Kismet، سینتیا بریزیل[۱] نیز رابطه‌ای شخصی با ربات خود شکل داده بود؛ نوعی پیوند مادرانه که ربات ‌را فقط به‌مثابۀ یک ماشین نمی‌دید و وقتی پروژه‌اش به پایان رسید و مجبور به ترک ربات ‌شد، احساس فقدانی شدید را تجربه کرد.

خطرات پیشِ‌روی رابطۀ یک‌طرفه

با توجه به مثال‌های بالا می‌توان نتیجه گرفت که از سوی ربات‌ها چه تلاش کمی نیاز است تا باعث شود کاربر رابطه‌ای یک‌طرفه با آن‌ها شکل دهد. صرفاً تقلید و شبیه‌سازی برخی از رفتارهای یک سگ واقعی می‌تواند ربات ‌را آمادۀ ساختن رابطه با یک انسان کند و از ربات، یک همدم برای کاربرش بسازد. حتی ربا‌ت‌های نظامی مانند packbot که کاملاً خودمختار نیستند و از راه دور توسط اپراتور کنترل می‌شوند نیز می‌توانند نقشی مهم در زندگی روزمرۀ سربازان ایفا کنند.

با همۀ توجیهات بالا، ربات‌هایی مثل رومبا که نه به حیوان و نه به انسان شباهت دارند نیز ایدۀ عاملیت داشتن را به کاربر خود تزریق می‌کنند و حتی حس قدردانی و دلسوزی را در او فعال می‌کنند. این ربات‌ها از اینکه بتوانند به‌عنوان یک همراه واقعی ایفای نقش کنند، ناتوان‌اند. هیچ‌یک از این روبات‌ها درکی از مفهوم «دیگری» و الگوریتمی برای شناسایی افراد ندارند. با این حال می‌توانند رابطۀ احساسی یک‌طرفه‌ای میان خود و کاربر انسانی شکل دهند و این رابطه می‌تواند مخاطراتی به همراه داشته باشد که در ادامه به برخی از آن‌ها اشاره می‌‌کنیم:

تصویرسازی نادرست

هیچ‌یک از ربات‌هایی که امروزه به فروش می‌رسند، اهمیتی به انسان نمی‌دهند. اگرچه تلاش‌هایی در جهت تشخص‌بخشی به ربات‌ها در صنعت رباتیک و هوش مصنوعی صورت می‌گیرد، این ربات‌ها‌ مکانیسم‌های محاسباتی و معماری لازم برای همدلی کردن را ندارند و نمی‌توانند به معنایی احساسی به کاربر خود اهمیت بدهند؛ چراکه ما خود هنوز نمی‌دانیم که چه الزامات محاسباتی‌ای نیاز است تا یک سیستم بتواند به چیزی اهمیت دهد.

شرکت‌های سازنده علی‌رغم وقوف به محدودیت‌های تکنولوژی‌های ساختۀ خود، برای مقاصد تبلیغاتی و اقتصادی سعی می‌کنند این تصور را در کاربران خود به وجود بیاورند که ربات آن‌ها دارای توانایی درک احساسات است و حالات ذهنی مشابه انسان یا حیوان را تجربه می‌کند و اینگونه کاربران را فریب می‌دهند. افراد دانشگاهی نیز در ارائۀ پژوهش‌ها به قدر کافی مراقب نیستند و از تعابیری مانند احساس داشتن، به کار بردن احساسات و … برای توصیف ساخته‌های خود استفاده می‌کنند و استفاده از این ادبیات در نوشتن مقالات و … موجب می‌شود افراد غیرمتخصص، فرایندهای کنترل را در این مصنوعات با فرایندهای کنترل در ارگانیسم‌های طبیعی مثل حیوانات و انسان‌ها یکسان بینگارند و باورهای غلطی را در سطح عمیق ناخودآگاه دربارۀ ربات‌ها پیدا کنند، درحالی‌که ممکن است در سطح آگاهانه این ادعاها را رد ‌کنند.

امکان سوءاستفاده

ویژگی‌هایی مانند شباهت به انسان و تعامل ازطریق زبان طبیعی که در آینده هم ارتقا پیدا می‌کنند، ممکن است باعث اعتماد و نزدیکی بیشتر انسان به ربات ‌شود و امکان سوءاستفاده از انسا‌ن‌ها را تشدید کند. برای مثال، ممکن است انسان‌ها به ربات‌ها بیشتر اعتماد کنند و با استفاده از همین ویژگی، از ربات‌ها برای بازجویی یا فروش محصولات استفاده شود. ممکن است ساده‌تر و طبیعی‌تر شدن روابط یک‌طرفه با ربات‌ها منجر به اعتیاد ناآگاهانۀ کاربر به آن‌ها شود. اگر ربات‌ها بتوانند این تصور را که دارای قدرت همدلی و همدردی هستند، در کاربر ایجاد کنند، دیگر پی بردن به اینکه این رابطه یک‌طرفه است، توسط کاربر بسیار دشوارتر خواهد شد.

یکی از مخاطرات رابطۀ یک‌طرفۀ انسان با ربات این است که وابستگی‌های روانی برای انسان ایجاد می‌شود و این به‌نوبۀ خود عواقبی جدی برای جوامع انسانی در پی دارد؛ چراکه امکان سوءاستفاده (اقتصادی، سیاسی و …) در مقیاس بزرگ فراهم می‌شود و ممکن است ربات‌ها با تهدید انسان‌ها به ترکشان، آن‌ها را به کارهایی وادار کنند که در حالت عادی انجام نمی‌دادند. این واقعیت که ربات‌ها موانعی مانند احساس گناه یا همدلی و … ندارند که آن‌ها را از سوءاستفاده منع کند نیز توجه به این مخاطره را ضروری‌تر می‌کند.

چه باید کرد؟

علی‌رغم همۀ فوایدی که ربات‌ها می‌توانند داشته باشند، باید به عواقب استفاده از آن‌ها برای بُعد احساسی و روانی زندگی شخصی و اجتماعی‌مان هم فکر کنیم. این تأملات اگر به‌موقع صورت بگیرد، می‌تواند در پژوهش‌های آیندۀ رباتیک مفید باشد. در واکنش نسبت به مخاطراتی که مطرح شد، پیشنهادهای زیر می‌تواند مورد توجه قرار بگیرد:

  1. پیشنهادهایی مثل توقف تولید این ربات‌ها به نظر منطقی و عملی نیست.
  2. پیشنهاد دیگر این است که ربات‌های موجود باید قدرت استدلال اخلاقی -مثلاً در قالب الگوریتم‌های تصمیم‌گیری- داشته باشند و ربات ‌نتواند استدلال‌های اخلاقی را تغییر دهد یا نادیده بگیرد. این پیشنهاد می‌تواند در حوزه‌های محدودی عملی شود. اما مسئله این است که تعداد کنش‌های ممکنِ ربات محدود خواهد بود و دلالت‌های اخلاقی همۀ کنش‌ها و موقعیت‌های محتمل بسیار پیچیده‌ و پرشمارند. از آنجایی که در طول تاریخ فلسفه نتوانسته‌ایم روی مجموعۀ مورداجماعی از قواعد توافق کنیم و ترجمۀ قواعد اخلاقی به زبان محاسباتی نیز ممکن است با محدودیت‌های عملی مواجه باشد، این پیشنهاد نیز با چالش‌های نظری و عملی مواجه است.
  3. پیشنهاد بعدی این است که در طراحی ربات ‌(چه ظاهر و چه رفتار آن) این گزینه را قرار دهیم که ربات‌ دائماً این هشدار را بدهد که یک ماشین است، احساسات ندارد و نمی‌تواند رابطه‌ای متقابل داشته باشد (شبیه ایدۀ نوشتن «سیگار کشیدن ممنوع» یا نوشتن مضرات سیگار روی پاکت آن). اما این هم ضمانت نمی‌کند که انسان‌ها درگیر رابطۀ احساسی با ربات‌ نشوند. اگرچه این پیشنهاد احتمال و شدت پیوندهای عاطفی با ربات ‌را کاهش می‌دهد. با این حال مرز باریکی است بین تعامل ساده و طبیعی با ربات ‌و باور به اینکه این ربات ‌ماشینی فاقد حیات است. می‌توان چنین پیشنهادی را به آزمون تجربی گذاشت.
  4. به ربات‌ها احساساتی مشابه انسان‌ها بدهیم؛ اتفاقی که در سیر تاریخی تطور انسانی رخ داده است و او را قادر به برقراری تعادل میان بهروزی فردی و رفتار قابل پذیرش در اجتماع کرده است. ربات‌ها نیز می‌توانند با داشتن توانایی ارزیابی احساسی مشابه انسان، در جوامع انسانی شبیه انسان‌ها عمل کنند؛ البته با این اثر جانبی که احساسات واقعی داشته باشند و در نتیجه در معرض آسیب‌پذیری و سوءاستفاده قرار بگیرند. برخی معتقدند که این کار تلاش بسیاری می‌طلبد، اما عده‌ای دیگر این کار را کاملاً عملی می‌دانند. به هر روی، این پیشنهاد را نمی‌توان و لازم نیست در هر نوعی از ربات‌‌ها عملی کرد. برای مثال، شاید ربات‌ فضانورد نیازی به احساسی بودن نداشته باشد.

در نهایت آنچه ما بدان احتیاج داریم، راهی برای مطمئن شدن از این است که مورد سوءاستفادۀ ربات‌ها (به‌نحوی متفاوت با سوءاستفادۀ انسان‌های معمولی دیگر) قرار نگیریم.

 

بخش اول نوشته را از اینجا بخوانید.

بخش دوم نوشته را از اینجا بخوانید.

 

سایر مقالات