خانه » مقالات » وابستگی یک‌طرفۀ انسان به ربات چه مخاطراتی دارد؟ (قسمت دوم)
وابستگی یک‌طرفۀ انسان به ربات چه مخاطراتی دارد؟ (قسمت دوم)
شنبه, ۱ دی ۱۴۰۰
زمان تقریبی مطالعه ۲۱ دقیقه
آزمایش‌های بسیاری انجام شده است برای اینکه بسنجیم انسان‌ها چگونه روبات‌ها را به مثابه عاملان خودمختار درک می‌کنند و این درک چه تأثیراتی بر مواجهه انسان‌ها با روبات‌ها و رفتار انسان‌ها دارد.
در بخش اول از این یادداشت، به نفوذ هوش مصنوعی به‌خصوص نفوذ ربات‌های اجتماعی اشاره شد. همچنین به این نکته اشاره شد که این ربات‌ها، با هدف تعامل با انسان طراحی شده‌اند و مسلّماً انسان تحت تأثیر اشیاء و موجوداتی است که با آن‌ها تعامل دارد و این رابطه گاهی می‌تواند عواقبی به همراه داشته باشد. همچنین به تعریف خودمختاری و درجۀ خودمختاری در ربات‌ها پرداخته شد. این ویژگی می‌تواند در کیفیت شبه‌انسان بودن ربات‌ها مؤثر باشد و آن‌ها را به عامل‌هایی اجتماعی تبدیل کند.

شواهدی از مطالعات انجام‌شده بر روی تعامل انسان-ربات

آزمایش‌های بسیاری انجام شده است ت بسنجیم انسان‌ها چگونه ربات‌ها را به‌مثابۀ عاملان خودمختار درک می‌کنند و این درک چه تأثیراتی بر مواجهۀ انسان‌ها با ربات‌ها و رفتار انسان‌ها دارد. برخی از نتایج این مطالعات از این قرار است:

مطالعۀ اول: ربات خودمختار دربرابر ربات غیرخودمختار

گروه تحقیقاتی ماتیاس شوتز بررسی کرده‌اند که خودمختاری روبات -که مبتنی بر تصمیم‌گیری و رفتار مستقل آن است- تا چه اندازه بر عملکرد عینی تیم ربات-انسان در انجام یک کار تأثیر می‌گذارد و رهبر تیم که عامل انسانی است، تا چه اندازه مشارکت ربات را می‌پذیرد. انسان‌ها به همراه ربات‌ها فعالیت‌هایی انجام می‌دهند تا هدفی تیمی را در زمانی معیّن محقق کنند. هیچ‌یک از این دو نمی‌توانند به تنهایی کار را انجام دهند. دو حالت برای ربات در نظر گرفته شده است: در یک شرط (شرط خودمختاری) ربات اجازه دارد وقتی زمان درحال اتمام است، به‌نحوی خودمختار هدف تیم را کامل کند و برای این کار مجاز است که از دستور عامل انسانی -اگر با برنامه‌هایش تداخل دارد- سرپیچی کند. در حالت دوم این آزمایش که شرط «خودمختاری ممنوع» در آن برقرار است، ربات خودش هیچ ابتکاری نباید به خرج دهد و فقط از دستورات انسانی پیروی می‌کند.

انسان‌ها در هر دو حالت (بدون اینکه دربارۀ شرط‌ها چیزی بدانند) آزمون شدند و از آن‌ها خواسته شد که به خصوصیات مختلف ربات امتیاز دهند. ربات خودمختار از نظر عاملان انسانی رباتی یاریگرتر و توانمندتر تشخیص داده شد و باور آزمون‌شوندگان بر این بود که او می‌تواند تصمیمات خود را بگیرد و مثل یکی از اعضای تیم عمل کند. همچنین، میزان همکاری او بالاتر تشخیص داده شد و تعامل با او برای عاملان انسانی ساده‌تر و کم‌آزارتر از ربات غیرخودمختار به نظر رسید. نکتۀ عجیب این است که آزمون‌شوندگان هیچ تفاوتی در میزان سرپیچی ربات‌ها از دستورات تشخیص ندادند (با اینکه تقریباً در همۀ موارد ربات در حالت خودمختار از دستورات سرپیچی کرد و در حالت غیرخودمختار اینگونه عمل نکرد). نتیجه‌ای که از این آزمایش گرفته شد این بود که انسان‌ها ربات خودمختار را به‌عنوان شریک گروه به ربات غیرخودمختار ترجیح می‌دهند.

مطالعۀ دوم: تسهیل‌گر بودن احساسات

در آزمایش دیگری شوتز و همکارانش کوشیدند که میزان سودمندی مؤلفۀ «توانایی شناسایی احساسات و حالات چهرۀ فرد توسط ربات» را بسنجند. در این آزمایش‌ها به‌جای اینکه تصمیمات خودمختار توسط ربات گرفته شود، ربات همیشه از دستورات انسان اطاعت می‌کند. اما در حالت  اول (که آن را شرط «احساس» می‌نامیم) ربات مجاز است که در برخی از شرایط، اضطرار را در صدایش نشان دهد یا به استرسی که از انسان حس کرده است با بروز استرس خود در صدایش پاسخ دهد. در حالت دوم (که آن را شرط «احساس ممنوع» می‌نامیم) صدای روبات تغییری نمی‌کند و احساسی در صدای آن بروز پیدا نمی‌کند.
با مقایسۀ میان‌ آزمو‌ن‌شوندگان این دو آزمایش، این نتیجه حاصل شد که در حالت اول که صدای ربات می‌تواند تغییر کند، عملکرد تیمی ارتقا می‌یابد. در حالت اول آزمون‌شوندگان نظرشان را دربارۀ خودمختاری ربات و احساسات آن با نظری که پیش از آزمون داشتند (که دربارۀ اینکه بهتر است ربات احساس و خودمختاری داشته باشد یا خیر، بی‌نظر بودند) تغییر دادند و با این پیشنهاد موافق شدند. اما آزمون‌شوندگان با حالت دوم نظرشان به نسبت قبل از آزمون تغییری نکرد. در نتیجه، بیان احساسات به‌نحوی درست توسط ربات در یک کار مشترک میان انسان و ربات می‌تواند منجر به پذیرش بیشترِ خودمختاری و ویژگی‌های مشابه انسانی دیگر ربات (مثل احساسات) توسط انسان‌ها شود.

مطالعۀ سوم: تأثیر ربات‌ها در بازداری اجتماعی

در این مطالعه شباهت ربات به انسان مستقیماً مورد بررسی قرار گرفته است. درک افراد از حضور اجتماعی ربات ‌در طول تعاملات مختلف مطالعه شد که طی آن از ربات ‌برای نظرسنجی و مشاهده‌‌کردن عملکرد انسانی استفاده شد. در این مطالعۀ تجربی از نتایجی استفاده شد که در روان‌شناسی به دست آمده و دربارۀ میزان بازداری و تسهیل اجتماعی‌ای است که در انسان‌ها، هنگامی که عملکرد آن‌ها توسط انسان‌های دیگر مشاهده می‌شود، اتفاق می‌افتد. نتایج تجربی این مطالعه نشان می‌دهد که حضور ربات‌ها می‌تواند روی انسان‌ها و عملکرد آن‌ها تأثیر بگذارد.

مطالعات بالا نشان می‌دهند که انسان‌ها وقتی قرار است با ربات‌ها همکاری کنند، ربات‌های خودمختار، شبیه‌تر به انسان‌ها و واجد ویژگی‌های انسانی (مثلاً ربات‌های دارای بروزات احساسی) را به ربات‌های غیرخودمختار و فاقد ویژگی‌های انسانی ترجیح می‌دهند. وجود ویژگی‌های انسانی در ربات‌ها با باور داشتن به خودمختاری آن‌ها همبستگی دارد و حضور ربات‌ها می‌تواند به گونه‌ای بر انسان‌ها تأثیر بگذارد که اغلب حضور انسان‌های دیگر می‌گذارد. حال پرسش این است که آیا این نتایج درمورد ربات‌ها در فضاهایی غیر از محیط‌های کنترل‌شدۀ آزمایشگاهی نیز معتبر است؟ در بخش بعد نشان می‌دهیم که شواهد فراوانی مبنی بر فریب خوردن انسان‌ها توسط ربات‌های اجتماعی در بیرون از محیط آزمایشگاه وجود دارد؛ خصوصاً هنگامی که کاربران تعاملات طولانی‌مدت‌تری با ربات‌ها داشته باشند.

تشخّص‌دادن به ربات‌ها

شواهد زیادی وجود دارد که انسا‌ن‌انگاری انسان‌ها در رابطه با ربات‌ها و فرافکنی ذهن‌مندی انسانی روی آن‌ها را نشان می‌دهد و شکل‌گیری رابطۀ احساسی عمیق ولی یک‌طرفۀ انسان‌ها با ربات‌ها را تأیید می‌کند. این آزمایش‌ها هم بر روی سربازانی که با ربات‌ها برای خنثی کردن ابزارهای انفجاری کار می‌کردند انجام شده و هم روی صاحبان ربات‌های حیوان خانگی آیبو[۱] و ربات جاروبرقی رومبا[۲].

ربات‌های مین‌یاب

ربات‌های خنثی‌کنندۀ مین، ربات‌هایی هستند که با راه رفتن روی مین پای خود را از دست می‌دهند و مین را خنثی می‌کنند. به همین منظور چند پا برای آن‌ها طراحی شده تا بیشترین کاربرد را داشته باشند. هر بار که ربات پای خود را از دست می‌دهد، دوباره بلند می‌شود و تعادل خود را دوباره به دست می‌آورد و با پاهای باقیمانده‌اش به جلو حرکت می‌کند. در حین یکی از آزمایش‌هایی که روی یکی از این ربات‌ها انجام می‌شد، سرهنگی که فرمانده عملیات بود آزمایش را متوقف می‌کند، چون تحمل دیدن رباتی که سوخته، زخمی‌ شده و عاجز است و به سویی می‌رود که پای آخر خود را نیز از دست بدهد را ندارد و سرهنگ این آزمایش را غیرانسانی می‌خواند! تبیینی که می‌توان برای دشواری مشاهدۀ روباتی که ذهن و حیات ندارد و برای همین کار طراحی شده است ارائه کرد این است که انسان عاملیتی مشابه خود را روی ربات فرافکنی می‌کند و به او زندگی و حتی احساسات نسبت می‌دهد.

مثال دیگر گروهبانی است که مغازۀ تعمیر رباتی را در عراق اداره می‌کند و ربات خنثی‌کنندۀ مین را از تکنسینی که اسم ربات را «اسکوبی‌دو» گذاشته برای تعمیر تحویل می‌گیرد. انسان‌ها تمایل دارند که اشیاء بی‌جان خود را نام‌گذاری کنند و این نام‌گذاری به‌نحوی اتوماتیک منجر به نوعی صمیمیت و ارتباط با شیء می‌شود. به همین دلیل، نوعی قصدیت و اراده و درنتیجه عاملیت به مصنوع نسبت داده می‌شود.

اظهارات فرماندهانی که در عملیات خود از این ربات‌ها استفاده می‌کنند، حاکی از وابستگی احساسی آن‌ها به ربات‌هاست. برای مثال این فرماندهان مایل نیستند ربات دیگری را جایگزین ربات خود کنند و از این ربات‌‌ها به‌مثابۀ قهرمانان و موجوداتی دارای احساس و گاهی مانند عضوی از خانوادۀ خود یاد می‌کنند.

سگ‌های رباتی به‌مثابۀ حیوانات خانگی

ممکن است نتایج بخش قبل را به این تصور نسبت بدهیم که سربازها به دلیل اینکه در شرایطی خاص قرار گرفته‌اند و به لحاظ احساسی فشار روانی زیادی تحمل می‌کنند، ویژگی‌های انسانی به ربات ‌نسبت می‌دهند. اما به نظر می‌رسد که این تبیین درست نیست. چرا که دیده شده که شهروندان ساکن آمریکا نیز رفتارهای مشابهی را نسبت با ربات‌های اجتماعی نشان می‌دهند. برای مثال، کاربری که درحال عوض کردن لباس خود بود، از شرم اینکه توسط رومبا (ربات جاروبرقی) دیده نشود، در اتاق خود را می‌بندد. در مطالعه‌ای روی صاحبان ربا‌ت‌ حیوان خانگی آیبو، 4 دسته ویژگی از سوی کاربران به ربات‌ها نسبت داده شد:
  1. ماهیت (79% از کاربران): که به وجود یا نبود ویژگی‌های فیزیولوژیکی، زیست‌شناختی یا حیوانی برای آیبو اشاره دارد (مثلاٌ «او درحال استراحت است»).
  2. عاملیت (60% از کاربران): که به وجود یا نبود حالات ذهنی مثل اراده، احساسات و ویژگی‌های روانشناختی برای آیبو اشاره دارد.
  3. وضعیت اجتماعی (59% از کاربران): که به شیوه‌هایی که آیبو در تعاملات اجتماعی درگیر می‌شود یا نمی‌شود اشاره دارد؛ مثل ارتباطات، پیوند عاطفی، همدم بودن. (من به آیبو مثل یک رفیق اهمیت می‌دهم نه مثل یک فناوری.)
  4. وضعیت اخلاقی (12% از کاربران): که به شیوه‌هایی اشاره دارد که آیبو ممکن است ملاحظات اخلاقی را رعایت کند، مسئول اخلاقی باشد، قابل سرزنش باشد، حقوقی داشته باشد و احترام بخواهد (مثلاً «من به‌خاطر اینکه باعث رنجش آیبو شدم احساس ناراحتی می‌کنم).
به نظر می‌رسد صاحبان آیبو تمایل زیادی دارند که باورهای (اشتباهی) دربارۀ حالات ذهنی (احتمالی) او داشته باشند.

رومبای جاروبرقی

رومبا یک ربات جاروبرقی است که اگرچه ممکن است به نظر برسد دارای ابعاد اجتماعی نیست (نه در طراحی و نه در رفتار) و احساسات اجتماعی کاربر را تحریک نمی‌کند، اما مشخص شده که با گذشت زمان انسان‌ها حس قدردانی زیادی به رومبا به خاطر تمیز کردن خانه‌شان پیدا می‌کنند. صاحبان رومبا مایل‌اند کار خوبی برای او انجام دهند؛ اگرچه رومبا حتی نمی‌داند که تحت مالکیت یک انسان است! او برای تمیز کردن یک مکان، با انسان‌ها به‌مثابۀ موانعی مثل صندلی و میز برخورد می‌کند. درحالی‌که گاهی برخی از کاربران رومبا خود بخشی از کار نظافت را انجام می‌دهند یا او را با خود به سفر می‌برند تا رومبا کمی استراحت کند! زیرا کاربران رابطه‌ای یک‌طرفه با او شکل داده‌اند و می‌گویند: «نمی‌توانم تصور کنم که رومبا را نداشته باشم، او مثل فرزند من است…».

ادامه دارد …

 

بخش اول نوشته را از اینجا بخوانید.

بخش سوم نوشته را از اینجا بخوانید.

پانوشت
سایر مقالات