خانه » مقالات » نسل‌کشی هوش مصنوعی: رژیم صهیونیستی چگونه ارتکاب جنایات جنگی و نقض حقوق‌بشر را با استفاده از هوش مصنوعی به حالت خودکار درآورده است؟
نسل‌کشی هوش مصنوعی: رژیم صهیونیستی چگونه ارتکاب جنایات جنگی و نقض حقوق‌بشر را با استفاده از هوش مصنوعی به حالت خودکار درآورده است؟
شنبه, ۱ خرداد ۱۴۰۳
زمان تقریبی مطالعه ۲۳ دقیقه
بحث‌های اخیر در مورد هوش مصنوعی تحت‌تأثیر سناریوهای روز قیامت و پیش‌بینی‌های علمی تخیلی سیستم‌های هوش مصنوعی پیشرفته قرار گرفته است، سیستم‌هایی که این نگرانی وجود دارد تا از کنترل انسان هم خارج شود. در نتیجه، وقتی مردم در مورد جنگ با کمک هوش مصنوعی صحبت می‌کنند، بیشتر منظورشان ربات‌های قاتل کاملاً خودکار است. بااین‌حال، آنچه جنگ رژیم صهیونیستی علیه غزه نشان داد این است که این سیستم‌های نظارتی هوش مصنوعی به شکلی بسیار پیش پا افتاده‌تر و نه‌چندان پیچیده‌ مورداستفاده قرار می‌گیرند.

با خواندن مقالۀ زیر درخواهید یافت:

  1. آشنایی با کارکردهای سه‌گانۀ هوش مصنوعی در جنگ‌ها
  2. آشنایی با برخی از شرکت‌های تأثیرگذار در پروژۀ هوش مصنوعی رژیم صهیونیستی
  3. ناتوانی دولت‌ها در کنترل هوش مصنوعی و تأثیر آن بر تضعیف حقوق‌بشر و ازبین‌رفتن کرامت انسانی
  4. برخلاف تصور عمومی مبنی بر اینکه هوش مصنوعی منجر به ترورهای هدفمند و دقیق می‌شود، استفاده از این فناوری در حمله به غزه منجر به کشتار وسیع مردم شده است.

بحث‌های اخیر درمورد هوش مصنوعی تحت تأثیر سناریوهای آخرالزمانی و پیش‌بینی‌های علمی-تخیلی برای سیستم‌های هوش مصنوعیِ پیشرفته قرار گرفته است؛ سیستم‌هایی که این نگرانی دربارۀ آن‌ها وجود دارد که از کنترل انسان هم خارج شوند. درنتیجه، وقتی مردم درمورد جنگ با کمک هوش مصنوعی صحبت می‌کنند، بیشتر منظورشان ربات‌های قاتلِ کاملاً خودکار است. با این حال، آنچه جنگ رژیم صهیونیستی علیه غزه نشان داد این است که این سیستم‌های نظارتی هوش مصنوعی به شکلی بسیار پیشِ‌پاافتاده‌تر و نه چندان پیچیده‌ به کار گرفته می‌شوند.

همان‌طور که تحقیقات اخیر رسانه‌ها نشان داده است، سیستم‌های هدف‌گیریِ هوش مصنوعی رژیم صهیونیستی با نام‌های «لاوندر[۱]» و «گاسپل[۲]» کشتار جمعی و تخریب در سراسر نوار غزه را به شکل خودکار هدایت می‌کنند. این یکی از نقطه‌ضعف‌های هوش مصنوعی است که می‌توان از آن در جهت نقض حقوق‌بشر سوءاستفاده کرد. درحال حاضر، سیستم‌های نظارت بیومتریک و ابزارهای پلیسی که پیش‌تر نیز نسبت به آن هشدار داده بودیم، در ابعادی گسترده علیه مردم استفاده می‌شود. اکنون نیز جنگِ تقویت‌شده با هوش مصنوعی در غزه نشان‌دهندۀ نیاز فوری دولت‌ها به ممنوعیتِ استفاده از فناوری‌هایی است که با قواعد حقوق‌بشری در زمان صلح و همچنین جنگ ناسازگار است.

مرگ از بالا: غزه بهعنوان یک آزمایشگاه فناوری تجربی

استفادۀ رژیم صهیونیستی از هوش مصنوعی در جنگ موضوع جدیدی نیست. دهه‌ها است که رژیم صهیونیستی از نوار غزه به‌عنوان میدانی آزمایشی برای بهره‌گیری از فناوری‌ها و تسلیحات جدید استفاده کرده است؛ تسلیحاتی که متعاقباً آن‌ها را به سایر کشورها می‌فروشد. پیش‌تر نیز در جریان بمباران نظامی ۱۱روزۀ غزه در ماه مه ۲۰۲۱، نیروهای دفاعی رژیم صهیونیستی[۳] برای نخستین بار از  هوش مصنوعی در جنگ استفاده کردند. در حملۀ کنونی به غزه نیز شاهد استفادۀ رژیم صهیونیستی از سه دستۀ گسترده از ابزارهای هوش مصنوعی به شرح زیر بودیم:

  1. سیستمهای تسلیحاتی مرگبار[۴] و سلاحهای نیمهخودران: ارتش رژیم صهیونیستی در جریان جنگ اخیر در استفاده از کوادکوپترهای کنترل از راه دور مجهز به مسلسل و موشک، برای نظارت، وحشت‌آفرینی و کشتن غیرنظامیانِ پناه‌گرفته در چادرها و مدارس پیشگام بوده است. بیمارستان‌ها و مناطق مسکونی ساکنان اردوگاه پناهندگان نصیرات غزه گزارش می‌دهند که برخی پهپادها با پخش صدای گریۀ نوزادان و زنان، فلسطینیان را فریب داده‌اند تا آن‌ها را هدف قرار دهند. برای سال‌ها، رژیم صهیونیستی پهپادهای انتحاری، تک‌تیرانداز‌های رباتیک خودکار و برجک‌های مجهز به هوش مصنوعی را برای ایجاد مناطق کشتار خودکار در امتداد مرز غزه مستقر کرده بود. آنها در سال ۲۰۲۱ نیز یک ربات نظامی نیمه‌خودمختار به نام جگوار[۵] را در مرز غزه مستقر کردند. این ربات به‌عنوان یکی از اولین ربات‌های نظامی در جهان معرفی شد که می‌تواند جایگزین سربازانِ مستقر در مرزها گردد.
  2. سیستمهای تشخیص چهره و نظارت بیومتریک: تهاجم زمینی رژیم صهیونیستی به غزه فرصتی برای گسترش نظارت بیومتریک از فلسطینی‌ها بود که قبلاً در کرانۀ باختری و اورشلیم شرقی نیز مورد استفاده قرار گرفته بود. نیویورک‌تایمز گزارش داد که چگونه ارتش رژیم صهیونیستی از یک سیستم تشخیص چهره در غزه برای نظارت گسترده، جمع‌آوری و فهرست‌بندی چهره‌های فلسطینی‌ها بدون اطلاع یا رضایت آنها استفاده می‌کند. براساس این گزارش، این سیستم از فناوری شرکت‌های صهیونیستیی کورسایت[۶]
  3.  و گوگل‌فوتو[۷]
  4.  برای تشخیص چهره‌ها از میان جمعیت و حتی فیلم‌های گرفته‌شده با پهپاد استفاده می‌کند.
  5. سیستم‌های تعیین خودکار هدف: مهم‌ترین این نوع از سیستم‌ها «گاسپل» است که اهداف زیرساختی را تعیین می‌کند. لاوندر نیز سیستم دیگری است که اهداف انسانی را تعیین می‌کند و دیگری هم سیستمی موسوم به «بابایی کجاست»[۸]
  6.  است؛ سیستمی که برای ردیابی و هدف قراردادنِ شبه‌نظامیانِ مظنون زمانی که با خانواده‌هایشان در خانه هستند طراحی شده است.

قوانین -یا بهتر است بگوییم نیمه‌قوانینِ- فعلیِ سازمان ملل متحد به‌کارگیری این ابزار را از نظر سیاسی غیرقابل قبول و از نظر اخلاقی منزجرکننده دانسته است و درخواست‌های فزاینده‌ای نیز برای ممنوعیت استفاده از آنها وجود دارد. درحال حاضر، سیستم‌های تعیین هدف به‌وسیلۀ هوش مصنوعی در جنگ، همراه با نظارت انبوه بیومتریک با توجه به تأثیر مخرّبی که دارند و اینکه حتی می‌توانند باعث نسل‌کشی شوند، بیش از انواع دیگر سیستم‌ها مورد توجه هستند.

نسل‌کشی خودکار: پیامدهای مرگبار هوش مصنوعی در جنگ

بااینکه استفاده از این سیستم‌ها در ابتدا ممکن است پیشرویِ تکان‌دهنده‌ای به نظر برسد، اما سیستم‌های هدف‌گیری، مانند گاسپل یا لاوندر، درواقع قلۀ یک سیستم هوش مصنوعی دیگر هستند که قبلاً در سراسر جهان استفاده می‌شده است. درست همان‌طور که ارتش رژیم صهیونیستی از «سیستم‌های مبتنی بر داده» برای پیش‌بینیِ اینکه چه کسی ممکن است یکی از عوامل حماس باشد یا کدام ساختمان ممکن است پایگاه حماس باشد استفاده می‌کند، نیروهای پلیس نیز از سیستم‌های هوش مصنوعی برای پیش‌بینیِ اینکه کدام کودک ممکن است مرتکب جنایت شود یا بخشی از یک باند باشد یا اینکه نیروهای کمکی پلیس در کجا مستقر شده‌اند استفاده می‌کنند. چنین سیستم‌هایی ذاتاً تبعیض‌آمیز و عمیقاً معیوب هستند و عواقب شدیدی برای افراد به همراه دارند و در غزه، به کشتار مردم می‌انجامند.

ارتش رژیم صهیونیستی در جریان جنگ اخیر در استفاده از کوادکوپترهای کنترل از راه دور مجهز به مسلسل و موشک، برای نظارت، وحشت‌آفرینی و کشتن غیرنظامیانِ پناه‌گرفته در چادرها و مدارس پیشگام بوده است. بیمارستان‌ها و مناطق مسکونی ساکنان اردوگاه پناهندگان نصیرات غزه گزارش می‌دهند که برخی پهپادها با پخش صدای گریۀ نوزادان و زنان، فلسطینیان را فریب داده‌اند تا آن‌ها را هدف قرار دهند.

وقتی تأثیر چنین سیستم‌هایی را بر حقوق‌بشر در نظر می‌گیریم، باید عواقب آن را هم بررسی کنیم. اول با این فرض آن‌ها نادرست عمل کنند و دوم با این فرض که دقیقاً همان‌طور که در نظر گرفته شده عمل کنند. در هر دو حالت، تقلیل انسان به نقاط داده‌های آماری، عواقب سنگین و غیرقابل برگشتی برای حیثیت، ایمنی و جان افراد دارد.

هنگامی که از نقص عملکرد سیستم‌های هدف‌گیری صحبت می‌شود، نگرانی اصلی این است که این سیستم‌ها براساس داده‌های ناقص ساخته و تنظیم شده باشند. براساس تحقیقات مجلۀ 972+، داده‌های آموزشیِ واردشده به این سیستم شامل اطلاعاتی درمورد کارمندان غیرنظامی دولت حماس در غزه می‌شد که درنتیجۀ آنها، لاوندر به‌اشتباه افرادی را هدف قرار می‌داد که دارای الگوهای ارتباطی یا رفتاری مشابه با شبه‌نظامیانِ شناخته‌شدۀ حماس بودند. این افراد شامل پلیس و کارکنان دفاع مدنی، بستگان این افراد و حتی افرادی بودند که فقط نامی مشابه با عوامل حماس داشتند.

همان‌طور که مجلۀ 972+گزارش داده است، حتی باوجود اینکه لاوندر در شناسایی وابستگی یک فرد به حماس تنها 10درصد خطا داشته است، ارتش رژیم صهیونیستی باز هم تأیید کرده است که نیاز به بررسی انسانی لیست‌های کشتار تهیه‌شدۀ خودکار دارد. البته براساس گزارش، نیازی به بررسی کامل یا مستقل صحت خروجی‌های لاوندر یا منابع داده‌های اطلاعاتی آن نیست، بلکه تنها بررسی قبل از صدور مجوّز شلیک و اطمینان از مردبودنِ هدفِ مشخص‌شده مدنظر بود که این فرآیند نیز حدود «20 ثانیه» طول کشید.

درحال حاضر هیچ راه محکمی برای آزمایش دقت چنین سیستم‌هایی و یا اعتبارسنجی عملکرد آنها وجود ندارد. فرآیند تأیید وابستگیِ یک فرد به حماس بسیار پیچیده است، به‌ویژه با توجه به ماهیت بالقوّه ناقصِ داده‌هایی که براساس آنها چنین پیش‌بینی‌هایی صورت می‌گیرد، مکرراً نشان داده شده است که سیستم‌های یادگیری ماشینی نمی‌توانند به‌طور قابل اعتماد ویژگی‌های پیچیدۀ انسانی مانند «جنایت احتمالی آینده» را پیش‌بینی کنند؛ آن هم به این دلیل که داده‌ها ناکافی هستند. باید توجه کرد که داده‌های بیشتر لزوماً برابر با پیش‌بینی‌های بهتر نیست.

فراتر از نبود دقت یا تأیید انسانی در چنین سیستم‌هایی، نگرانی اصلی‌تر این است که استفاده از این سیستم‌ها چگونه با حقوق‌بشر و کرامت انسانی ذاتی که این حقوق از آن ناشی می‌شود، مغایرت دارد. این تازه با قبول این نکته است که سیستم‌های هدف‌گیری هوش مصنوعی رژیم صهیونیستی همان‌طور که در نظر گرفته شده و بدون هیچ خطایی کار ‌کنند. همان‌طور که ارتش رژیم صهیونیستی گفته است،  این نیروها درحال حاضر بر روی آنچه بیشترین خسارت را ایجاد می‌کند، تمرکز کرده‌اند.  براساس گزارش‌ها، سربازان برای تعیین اهداف خاص برای بمبارانِ بیشتر، هر روز تحت فشار قرار می‌گرفتند و به همین خاطر هم ظاهراً از موشک‌های هدایت‌نشده یا «بمب‌های گنگ» برای هدف قراردادن شبه‌نظامیان کوچک‌تر که توسط لاوندر در خانه‌هایشان تعیین شده‌اند، استفاده کرده‌اند. به گفته سازمان ملل، این عملیات همراه با استفاده رژیم صهیونیستی از هوش مصنوعی برای محاسبۀ خسارات جانبی، منجر به کشتار دسته‌جمعی فلسطینی‌ها و سطحی از تخریب شده است که از زمان جنگ جهانی دوم به این سو بی‌سابقه است.

استفاده از این سیستم‌های هدف‌گیری هوش مصنوعی به‌طور مؤثر مسئولیت‌های انسانی را در قبال تصمیم‌های مرگ و زندگی کاهش می‌دهد و تلاش می‌کند تا یک کمپین کاملاً ساده از کشتار جمعی و قتل را در پشت پوششی از عینیت الگوریتمی پنهان کند. هیچ راه اخلاقی یا انسانی برای استفاده از سیستم‌هایی مانند «لاوندر» یا «بابایی کجاست» وجود ندارد؟ آنچه مسلّم است این است که آنها باید ممنوع شوند و ما باید زیرساخت‌های نظارتی، پایگاه‌های اطلاعاتی بیومتریک و دیگر «ابزارهای زمان صلح» را که امکان استقرار چنین سیستم‌هایی را در مناطق جنگی فراهم می‌کند، لغو کنیم.

نقش فناوری بزرگ در جنایات وحشیانه

همان‌طور که در بالا بحث شد، زیرساخت‌های نظارتی توسعه‌یافته و مستقر در زمان صلح به‌راحتی در طول جنگ تغییر کاربری داده و بدترین جلوه‌ها از نقض حقوق بشر را ممکن می‌سازند. این موضوع نقش شرکت‌های فناوری بزرگ را در تأمین فناوری‌های غیرنظامی که می‌توانند برای اهداف نظامی مورد استفاده قرار گیرند، زیر سؤال می‌برد. از جملۀ این فناوری‌ها می‌توان به خدمات رایانش ابری و یادگیری ماشینی که  گوگل و خدمات وب آمازون از طریق پروژهۀ «نیم باس[۹]» به رژیم صهیونیستی ارائه می‌کنند، اشاره کرد. علاوه‌براین، پیشنهاد شده است که از ابردادۀ واتس‌اپ متعلق به متا، برای ارائۀ داده‌ها برای سیستم هدف‌گیری لاوندر استفاده ‌شود.

شرکت‌هایی مانند گوگل، خدمات وب آمازون و متا، با ناتوانی در رسیدگی به مسئولیت‌های حقوق‌بشری خود و ادامۀ ارائۀ این خدمات به دولت صهیونیستی، در معرض این خطر هستند که در کمک یا حمایت از ارتش و دستگاه اطلاعاتی رژیم صهیونیستی و جنایات وحشیانۀ ادعایی آنان در غزه شریک شوند.

ما نمی‌توانیم اجازۀ توسعۀ زیرساخت‌های نظارت انبوهی را بدهیم که می‌تواند به‌صورت انبوه برای تحقق اهداف، تعیین تعداد «معقول» تلفات غیرنظامی و درنهایت، کنارگذاشتنِ مسئولیت انسانی برای تصمیم دربارۀ مرگ و زندگی مورد استفاده قرار گیرد. ما مجدداً از همۀ دولت‌ها می‌خواهیم تا استفاده از هوش مصنوعی را برای فعالیت‌های پلیسی، نظارت انبوه بیومتریک و سیستم‌های تعیین هدف مانند لاوندر ممنوع کنند، چراکه این اعمال با حقوق‌بشر سازگار نیستند. سیستم‌هایی که رژیم صهیونیستی در غزه استفاده می‌کند، همراه با آزمایشگاه نظارت جمعی طولانی‌مدت و درحال گسترش دولت‌ها، نگاهی اجمالی به آینده‌ای ترسناک ارائه می‌دهد که نمی‌توان و هرگز نباید اجازه داد به نتیجه برسد.

منابع
مترجمان
سایر مقالات