با خواندن مقالۀ زیر درخواهید یافت:
- آشنایی با کارکردهای سهگانۀ هوش مصنوعی در جنگها
- آشنایی با برخی از شرکتهای تأثیرگذار در پروژۀ هوش مصنوعی رژیم صهیونیستی
- ناتوانی دولتها در کنترل هوش مصنوعی و تأثیر آن بر تضعیف حقوقبشر و ازبینرفتن کرامت انسانی
- برخلاف تصور عمومی مبنی بر اینکه هوش مصنوعی منجر به ترورهای هدفمند و دقیق میشود، استفاده از این فناوری در حمله به غزه منجر به کشتار وسیع مردم شده است.
بحثهای اخیر درمورد هوش مصنوعی تحت تأثیر سناریوهای آخرالزمانی و پیشبینیهای علمی-تخیلی برای سیستمهای هوش مصنوعیِ پیشرفته قرار گرفته است؛ سیستمهایی که این نگرانی دربارۀ آنها وجود دارد که از کنترل انسان هم خارج شوند. درنتیجه، وقتی مردم درمورد جنگ با کمک هوش مصنوعی صحبت میکنند، بیشتر منظورشان رباتهای قاتلِ کاملاً خودکار است. با این حال، آنچه جنگ رژیم صهیونیستی علیه غزه نشان داد این است که این سیستمهای نظارتی هوش مصنوعی به شکلی بسیار پیشِپاافتادهتر و نه چندان پیچیده به کار گرفته میشوند.
همانطور که تحقیقات اخیر رسانهها نشان داده است، سیستمهای هدفگیریِ هوش مصنوعی رژیم صهیونیستی با نامهای «لاوندر[۱]» و «گاسپل[۲]» کشتار جمعی و تخریب در سراسر نوار غزه را به شکل خودکار هدایت میکنند. این یکی از نقطهضعفهای هوش مصنوعی است که میتوان از آن در جهت نقض حقوقبشر سوءاستفاده کرد. درحال حاضر، سیستمهای نظارت بیومتریک و ابزارهای پلیسی که پیشتر نیز نسبت به آن هشدار داده بودیم، در ابعادی گسترده علیه مردم استفاده میشود. اکنون نیز جنگِ تقویتشده با هوش مصنوعی در غزه نشاندهندۀ نیاز فوری دولتها به ممنوعیتِ استفاده از فناوریهایی است که با قواعد حقوقبشری در زمان صلح و همچنین جنگ ناسازگار است.
مرگ از بالا: غزه بهعنوان یک آزمایشگاه فناوری تجربی
استفادۀ رژیم صهیونیستی از هوش مصنوعی در جنگ موضوع جدیدی نیست. دههها است که رژیم صهیونیستی از نوار غزه بهعنوان میدانی آزمایشی برای بهرهگیری از فناوریها و تسلیحات جدید استفاده کرده است؛ تسلیحاتی که متعاقباً آنها را به سایر کشورها میفروشد. پیشتر نیز در جریان بمباران نظامی ۱۱روزۀ غزه در ماه مه ۲۰۲۱، نیروهای دفاعی رژیم صهیونیستی[۳] برای نخستین بار از هوش مصنوعی در جنگ استفاده کردند. در حملۀ کنونی به غزه نیز شاهد استفادۀ رژیم صهیونیستی از سه دستۀ گسترده از ابزارهای هوش مصنوعی به شرح زیر بودیم:
- سیستمهای تسلیحاتی مرگبار[۴] و سلاحهای نیمهخودران: ارتش رژیم صهیونیستی در جریان جنگ اخیر در استفاده از کوادکوپترهای کنترل از راه دور مجهز به مسلسل و موشک، برای نظارت، وحشتآفرینی و کشتن غیرنظامیانِ پناهگرفته در چادرها و مدارس پیشگام بوده است. بیمارستانها و مناطق مسکونی ساکنان اردوگاه پناهندگان نصیرات غزه گزارش میدهند که برخی پهپادها با پخش صدای گریۀ نوزادان و زنان، فلسطینیان را فریب دادهاند تا آنها را هدف قرار دهند. برای سالها، رژیم صهیونیستی پهپادهای انتحاری، تکتیراندازهای رباتیک خودکار و برجکهای مجهز به هوش مصنوعی را برای ایجاد مناطق کشتار خودکار در امتداد مرز غزه مستقر کرده بود. آنها در سال ۲۰۲۱ نیز یک ربات نظامی نیمهخودمختار به نام جگوار[۵] را در مرز غزه مستقر کردند. این ربات بهعنوان یکی از اولین رباتهای نظامی در جهان معرفی شد که میتواند جایگزین سربازانِ مستقر در مرزها گردد.
- سیستمهای تشخیص چهره و نظارت بیومتریک: تهاجم زمینی رژیم صهیونیستی به غزه فرصتی برای گسترش نظارت بیومتریک از فلسطینیها بود که قبلاً در کرانۀ باختری و اورشلیم شرقی نیز مورد استفاده قرار گرفته بود. نیویورکتایمز گزارش داد که چگونه ارتش رژیم صهیونیستی از یک سیستم تشخیص چهره در غزه برای نظارت گسترده، جمعآوری و فهرستبندی چهرههای فلسطینیها بدون اطلاع یا رضایت آنها استفاده میکند. براساس این گزارش، این سیستم از فناوری شرکتهای صهیونیستیی کورسایت[۶]
- و گوگلفوتو[۷]
- برای تشخیص چهرهها از میان جمعیت و حتی فیلمهای گرفتهشده با پهپاد استفاده میکند.
- سیستمهای تعیین خودکار هدف: مهمترین این نوع از سیستمها «گاسپل» است که اهداف زیرساختی را تعیین میکند. لاوندر نیز سیستم دیگری است که اهداف انسانی را تعیین میکند و دیگری هم سیستمی موسوم به «بابایی کجاست»[۸]
- است؛ سیستمی که برای ردیابی و هدف قراردادنِ شبهنظامیانِ مظنون زمانی که با خانوادههایشان در خانه هستند طراحی شده است.
قوانین -یا بهتر است بگوییم نیمهقوانینِ- فعلیِ سازمان ملل متحد بهکارگیری این ابزار را از نظر سیاسی غیرقابل قبول و از نظر اخلاقی منزجرکننده دانسته است و درخواستهای فزایندهای نیز برای ممنوعیت استفاده از آنها وجود دارد. درحال حاضر، سیستمهای تعیین هدف بهوسیلۀ هوش مصنوعی در جنگ، همراه با نظارت انبوه بیومتریک با توجه به تأثیر مخرّبی که دارند و اینکه حتی میتوانند باعث نسلکشی شوند، بیش از انواع دیگر سیستمها مورد توجه هستند.
نسلکشی خودکار: پیامدهای مرگبار هوش مصنوعی در جنگ
بااینکه استفاده از این سیستمها در ابتدا ممکن است پیشرویِ تکاندهندهای به نظر برسد، اما سیستمهای هدفگیری، مانند گاسپل یا لاوندر، درواقع قلۀ یک سیستم هوش مصنوعی دیگر هستند که قبلاً در سراسر جهان استفاده میشده است. درست همانطور که ارتش رژیم صهیونیستی از «سیستمهای مبتنی بر داده» برای پیشبینیِ اینکه چه کسی ممکن است یکی از عوامل حماس باشد یا کدام ساختمان ممکن است پایگاه حماس باشد استفاده میکند، نیروهای پلیس نیز از سیستمهای هوش مصنوعی برای پیشبینیِ اینکه کدام کودک ممکن است مرتکب جنایت شود یا بخشی از یک باند باشد یا اینکه نیروهای کمکی پلیس در کجا مستقر شدهاند استفاده میکنند. چنین سیستمهایی ذاتاً تبعیضآمیز و عمیقاً معیوب هستند و عواقب شدیدی برای افراد به همراه دارند و در غزه، به کشتار مردم میانجامند.
ارتش رژیم صهیونیستی در جریان جنگ اخیر در استفاده از کوادکوپترهای کنترل از راه دور مجهز به مسلسل و موشک، برای نظارت، وحشتآفرینی و کشتن غیرنظامیانِ پناهگرفته در چادرها و مدارس پیشگام بوده است. بیمارستانها و مناطق مسکونی ساکنان اردوگاه پناهندگان نصیرات غزه گزارش میدهند که برخی پهپادها با پخش صدای گریۀ نوزادان و زنان، فلسطینیان را فریب دادهاند تا آنها را هدف قرار دهند.
وقتی تأثیر چنین سیستمهایی را بر حقوقبشر در نظر میگیریم، باید عواقب آن را هم بررسی کنیم. اول با این فرض آنها نادرست عمل کنند و دوم با این فرض که دقیقاً همانطور که در نظر گرفته شده عمل کنند. در هر دو حالت، تقلیل انسان به نقاط دادههای آماری، عواقب سنگین و غیرقابل برگشتی برای حیثیت، ایمنی و جان افراد دارد.
هنگامی که از نقص عملکرد سیستمهای هدفگیری صحبت میشود، نگرانی اصلی این است که این سیستمها براساس دادههای ناقص ساخته و تنظیم شده باشند. براساس تحقیقات مجلۀ 972+، دادههای آموزشیِ واردشده به این سیستم شامل اطلاعاتی درمورد کارمندان غیرنظامی دولت حماس در غزه میشد که درنتیجۀ آنها، لاوندر بهاشتباه افرادی را هدف قرار میداد که دارای الگوهای ارتباطی یا رفتاری مشابه با شبهنظامیانِ شناختهشدۀ حماس بودند. این افراد شامل پلیس و کارکنان دفاع مدنی، بستگان این افراد و حتی افرادی بودند که فقط نامی مشابه با عوامل حماس داشتند.
همانطور که مجلۀ 972+گزارش داده است، حتی باوجود اینکه لاوندر در شناسایی وابستگی یک فرد به حماس تنها 10درصد خطا داشته است، ارتش رژیم صهیونیستی باز هم تأیید کرده است که نیاز به بررسی انسانی لیستهای کشتار تهیهشدۀ خودکار دارد. البته براساس گزارش، نیازی به بررسی کامل یا مستقل صحت خروجیهای لاوندر یا منابع دادههای اطلاعاتی آن نیست، بلکه تنها بررسی قبل از صدور مجوّز شلیک و اطمینان از مردبودنِ هدفِ مشخصشده مدنظر بود که این فرآیند نیز حدود «20 ثانیه» طول کشید.
درحال حاضر هیچ راه محکمی برای آزمایش دقت چنین سیستمهایی و یا اعتبارسنجی عملکرد آنها وجود ندارد. فرآیند تأیید وابستگیِ یک فرد به حماس بسیار پیچیده است، بهویژه با توجه به ماهیت بالقوّه ناقصِ دادههایی که براساس آنها چنین پیشبینیهایی صورت میگیرد، مکرراً نشان داده شده است که سیستمهای یادگیری ماشینی نمیتوانند بهطور قابل اعتماد ویژگیهای پیچیدۀ انسانی مانند «جنایت احتمالی آینده» را پیشبینی کنند؛ آن هم به این دلیل که دادهها ناکافی هستند. باید توجه کرد که دادههای بیشتر لزوماً برابر با پیشبینیهای بهتر نیست.
فراتر از نبود دقت یا تأیید انسانی در چنین سیستمهایی، نگرانی اصلیتر این است که استفاده از این سیستمها چگونه با حقوقبشر و کرامت انسانی ذاتی که این حقوق از آن ناشی میشود، مغایرت دارد. این تازه با قبول این نکته است که سیستمهای هدفگیری هوش مصنوعی رژیم صهیونیستی همانطور که در نظر گرفته شده و بدون هیچ خطایی کار کنند. همانطور که ارتش رژیم صهیونیستی گفته است، این نیروها درحال حاضر بر روی آنچه بیشترین خسارت را ایجاد میکند، تمرکز کردهاند. براساس گزارشها، سربازان برای تعیین اهداف خاص برای بمبارانِ بیشتر، هر روز تحت فشار قرار میگرفتند و به همین خاطر هم ظاهراً از موشکهای هدایتنشده یا «بمبهای گنگ» برای هدف قراردادن شبهنظامیان کوچکتر که توسط لاوندر در خانههایشان تعیین شدهاند، استفاده کردهاند. به گفته سازمان ملل، این عملیات همراه با استفاده رژیم صهیونیستی از هوش مصنوعی برای محاسبۀ خسارات جانبی، منجر به کشتار دستهجمعی فلسطینیها و سطحی از تخریب شده است که از زمان جنگ جهانی دوم به این سو بیسابقه است.
استفاده از این سیستمهای هدفگیری هوش مصنوعی بهطور مؤثر مسئولیتهای انسانی را در قبال تصمیمهای مرگ و زندگی کاهش میدهد و تلاش میکند تا یک کمپین کاملاً ساده از کشتار جمعی و قتل را در پشت پوششی از عینیت الگوریتمی پنهان کند. هیچ راه اخلاقی یا انسانی برای استفاده از سیستمهایی مانند «لاوندر» یا «بابایی کجاست» وجود ندارد؟ آنچه مسلّم است این است که آنها باید ممنوع شوند و ما باید زیرساختهای نظارتی، پایگاههای اطلاعاتی بیومتریک و دیگر «ابزارهای زمان صلح» را که امکان استقرار چنین سیستمهایی را در مناطق جنگی فراهم میکند، لغو کنیم.
نقش فناوری بزرگ در جنایات وحشیانه
همانطور که در بالا بحث شد، زیرساختهای نظارتی توسعهیافته و مستقر در زمان صلح بهراحتی در طول جنگ تغییر کاربری داده و بدترین جلوهها از نقض حقوق بشر را ممکن میسازند. این موضوع نقش شرکتهای فناوری بزرگ را در تأمین فناوریهای غیرنظامی که میتوانند برای اهداف نظامی مورد استفاده قرار گیرند، زیر سؤال میبرد. از جملۀ این فناوریها میتوان به خدمات رایانش ابری و یادگیری ماشینی که گوگل و خدمات وب آمازون از طریق پروژهۀ «نیم باس[۹]» به رژیم صهیونیستی ارائه میکنند، اشاره کرد. علاوهبراین، پیشنهاد شده است که از ابردادۀ واتساپ متعلق به متا، برای ارائۀ دادهها برای سیستم هدفگیری لاوندر استفاده شود.
شرکتهایی مانند گوگل، خدمات وب آمازون و متا، با ناتوانی در رسیدگی به مسئولیتهای حقوقبشری خود و ادامۀ ارائۀ این خدمات به دولت صهیونیستی، در معرض این خطر هستند که در کمک یا حمایت از ارتش و دستگاه اطلاعاتی رژیم صهیونیستی و جنایات وحشیانۀ ادعایی آنان در غزه شریک شوند.
ما نمیتوانیم اجازۀ توسعۀ زیرساختهای نظارت انبوهی را بدهیم که میتواند بهصورت انبوه برای تحقق اهداف، تعیین تعداد «معقول» تلفات غیرنظامی و درنهایت، کنارگذاشتنِ مسئولیت انسانی برای تصمیم دربارۀ مرگ و زندگی مورد استفاده قرار گیرد. ما مجدداً از همۀ دولتها میخواهیم تا استفاده از هوش مصنوعی را برای فعالیتهای پلیسی، نظارت انبوه بیومتریک و سیستمهای تعیین هدف مانند لاوندر ممنوع کنند، چراکه این اعمال با حقوقبشر سازگار نیستند. سیستمهایی که رژیم صهیونیستی در غزه استفاده میکند، همراه با آزمایشگاه نظارت جمعی طولانیمدت و درحال گسترش دولتها، نگاهی اجمالی به آیندهای ترسناک ارائه میدهد که نمیتوان و هرگز نباید اجازه داد به نتیجه برسد.