خانه » مقالات » بازکاوی اثر بروکسل در پرتوی قانون هوش مصنوعیِ اتحادیۀ اروپا
بازکاوی اثر بروکسل در پرتوی قانون هوش مصنوعیِ اتحادیۀ اروپا
دوشنبه, ۳ اسفند ۱۴۰۱
زمان تقریبی مطالعه ۶۲ دقیقه
قانون هوش مصنوعی اتحادیه اروپا موسوم به (The European Union’s AI Act) به دنبال ایجاد اولین طرح نظارتی جامع برای هوش مصنوعی است، اما تأثیر این قانون در محدوده اتحادیه اروپا متوقف نخواهد شد.

قانون هوش مصنوعی اتحادیۀ اروپا[۱] موسوم به The European Union’s AI Act به‌دنبال ایجاد اولین طرح نظارتیِ جامع برای هوش مصنوعی است، اما تأثیر این قانون به محدودۀ اتحادیۀ اروپا محدود نخواهد شد. درواقع، برخی از سیاستگذاران اتحادیۀ اروپا بر این باورند که هدف مهم قانون AIA تعیین یک استاندارد جهانی است حتی برخی از صاحبنظران در این خصوص به شکلگیری مسابقهای برای تنظیم مقررات هوش مصنوعی در جهان باور دارند. این چهارچوب نشان میدهد که نهتنها تنظیم سامانههای هوش مصنوعی ارزشمند است، بلکه قرار گرفتن در میان اولین دولتهایی که این مقررات را پایه­گذاری میکنند، تأثیر جهانی گستردهای به نفع اتحادیۀ اروپا خواهد داشت، تأثیری که اغلب از آن بهعنوان «اثر بروکسل» یاد میشود. بااینحال، بااینکه برخی از اجزای قانون AIA تأثیرات مهمی بر بازارهای جهانی خواهند گذاشت، اروپا بهتنهایی نخواهد توانست یک استاندارد بینالمللی جدید جامع برای هوش مصنوعی تعیین کند.

تأثیر فراسرزمینی قانون AIA بین بخشها و کاربردها بسیار متفاوت خواهد بود، اما بررسی جداگانۀ مفاد کلیدی این قانون درمورد میزان تأثیر موردانتظار بروکسل منجر به شکلگیری یک بینش اساسی در ما میشود. در نظر گرفتن مواد اصلی قانون AIA به ما نشان میدهد که:

  1. سامانههای هوش مصنوعی در محصولات تحت نظارت در سراسر جهان تحت تأثیر این قانون قرار خواهند گرفت که این امر نمایانگر تأثیر واضح بروکسل است، اگرچه بازارهای موجود و استانداردهای بینالمللی و دولتهای خارجی نیز در این خصوص اثر واسطهایِ خود را خواهند گذاشت.
  2. چنانچه سامانههای هوش مصنوعی پرخطر برای ارائۀ خدمات انسانی در پلتفرمهای آنلاین یا به روش­های دیگر بههمپیوستۀ بینالمللی ساخته شوند، بسیار تحت تأثیر این قانون قرار خواهند گرفت، اما سامانههای هوش مصنوعی که بیشتر محلّی یا شخصیسازیشده هستند، به میزان محدودتری تحت تأثیر این قانون قرار خواهند گرفت.
  3. الزامات شفافیت برای نوعی از هوش مصنوعی که با انسانها تعامل دارد (مانند چت بات­ها و سامانههای تشخیص احساسات) منجر به افشاسازی گسترده و جهانی [درخصوص نحوۀ عملکرد] در بیشتر وبسایتها و برنامه­ها میشود.

بهطورکلی، این تحلیل، تأثیر جهانی AIA را نسبت به آنچه سیاستگذاران اتحادیۀ اروپا گفتهاند محدودتر ارزیابی می­کند، بااینکه این قانون به نفوذ جهانی قابلتوجه اتحادیۀ اروپا بر برخی از پلتفرمهای آنلاین کمک خواهد کرد، ممکن است مقررات بین­المللی را در حد متوسط شکل دهد. با درنظرگرفتن این موضوع، اتحادیۀ اروپا باید رویکردی مشارکتی­تر داشته باشد تا دولتهای دیگر را با دیدگاه خود درمورد حکمرانی هوش مصنوعی[۲] همراه کند.

مقدمه

بحث بین نهادهای اتحادیۀ اروپا درمورد اینکه قانون AIA دقیقاً چه کاری انجام خواهد داد (حتی تعریف “ “AI هنوز درحال مناقشه است) همچنان ادامه دارد، بااینحال این پیشنهاد برای تجزیهوتحلیل تأثیر احتمالی بینالمللی خود جاافتاده است. قانون هوش مصنوعی اتحادیۀ اروپا فرآیندی برای «خودتصدیقی[۳] و نظارت دولتی بر بسیاری از قسمتهای سامانههای هوش مصنوعی پرخطر، الزامات شفافیت برای سامانههای هوش مصنوعی که با مردم تعامل دارند و تلاش برای ممنوع‌کردن چند ویژگی «غیرقابلقبول» از سامانههای هوش مصنوعی» ایجاد خواهد کرد.

مقررات AIA بدون‌شک تأثیرات فراسرزمینی خواهند داشت، به این معنا که بر توسعه و استقرار بسیاری از سامانههای هوش مصنوعی در سراسر جهان تأثیرگذار بوده و الهامبخش و رهنمون تلاشهای قانونی مشابه نیز خواهند بود. بااینحال، ایدۀ اثر بروکسل پیامدهای مهمی فراتر از نفوذ در خارج از مرزهای اتحادیۀ اروپا دارد؛ به این معنا که اتحادیۀ اروپا میتواند بدون اجبار و تنها با بازار مصرفکنندۀ 450 میلیون نفری خود بهطور یکجانبه قوانینی را تعیین کند که به استانداردهای جهانی تبدیل شوند.

اثر بروکسل به دو شکل مرتبط «دفاکتو[۴]» و «دژور[۵]» نمایان میشود که میتوان با استفاده از قوانین حریم خصوصی دادههای اتحادیۀ اروپا، بهویژه مقررات عمومی حفاظت از داده(GDPR) و دستورالعمل حفظ حریم خصوصی الکترونیکی، بین آنها افتراق گذاشت. بسیاری از وبسایتهای جهان بهجای توسعۀ فرآیندهای جداگانه برای اروپاییها، الزامات اتحادیۀ اروپا درخصوص درخواست رضایت کاربران برای پردازش دادههای شخصی و استفاده از کوکیها را پذیرفتهاند این منعکسکنندۀ اثر واقعی بروکسل است که در آن شرکتها به شکل جهانی از قوانین اتحادیۀ اروپا پیروی میکنند تا یک محصول یا خدمت را استاندارد کرده و فرآیندهای تجاری خود را سادهتر کنند. این فرایند نیز اغلب با شیوۀ اثرگذاری به شکل دژور دنبال میشود که در نتیجۀ آن قوانین به شکل رسمی در سایر کشورهایی که با قوانین اتحادیۀ اروپا همسو هستند تصویب میشود، دلیل این فرایند آن است که شرکتهای چندملّیتی شدیداً مخالف قوانینی هستند که میتواند با فرآیندهای استاندارد آنها تضاد ایجاد کند. تا حدی به همین دلیل است که این مقررات حفظ حریم خصوصی باعث شده تا بسیاری از کشورهای دیگر قوانین منطبق یا مشابه با مقررات حفاظت از دادهها را تصویب کنند؛ بنابراین، برای درک بهتر تأثیر احتمالی قانون AIA، مانند قانون حریم خصوصی دادهها، باید دو مؤلفه را در نظر گرفت:

  • پیامدهای بینالمللی قانون AIA (اثر واقعی بروکسل) چه خواهد بود؟
  • این قانون تا چه حد بهطور یکجانبه بر قوانین بین­المللی (اثر قانونی بروکسل) تأثیر خواهد گذاشت؟

قانونگذاران اتحادیۀ اروپا، علاوه‌بر اهداف اصلی این قانون در جهت حمایت از مصرفکنندگان این اتحادیه، اثر بروکسل را بهعنوان دلیلی برای تصویب سریع این قانون برشمردهاند و در این راستا میخواهند تا حدی، نوآوری هوش مصنوعی اتحادیۀ اروپا را هم تحریک کنند.
تفکر اولین بودن در فرایند تصویب قانون هوش مصنوعی و کسب مزیّت اقتصادی قابلتوجه و پایدار به‌دنبال این پیشگامی ایدۀ رایجی در میان سیاستگذاران اتحادیۀ اروپا است. بااینحال، اخیراً یک گزارش از مرکز مطالعات سیاست اروپا[۶] استدلال کرده است که احتمال دارد اتحادیۀ مزیّت رقابتی خود را در حاکمیت دیجیتال از دست بدهد، زیرا سایر کشورها در ظرفیت نظارتی دیجیتال سرمایهگذاری کرده و به سطح اتحادیۀ اروپا میرسند، درحالیکه این عامل اصلی نفوذ اتحادیۀ اروپا بر قوانین جهانی است. سایر تحقیقات دانشگاهی استدلال کردهاند که شرایط اساسی حاکم بر بازار هوش مصنوعی اروپا، مثل هزینههای بالای انتقال شرکتهای هوش مصنوعی و همچنین دشواری اندازهگیری تأثیر مقررات هوش مصنوعی اتحادیۀ اروپا، به معنای کمارزش‌بودن رقابت نظارتی است که هدف آن جذب کسبوکارها ازطریق ایجاد مقررات شفاف و مؤثر است.

این دیدگاهها دلایلی برای تردید نسبت به تأثیر جهانی AIA ارائه میکنند، اما الزامات منحصربهفرد AIA با توجه به مدلهای تجاری واقعی شرکتهای دیجیتال را تجزیهوتحلیل نمیکنند. بااینحال، تعامل بین مفاد خاص AIA و ساختار سامانههای هوش مصنوعی شرکتهای فناوری نشاندهندۀ تأثیر جهانی کمتر این قانون است. نوشتار حاضر بر روی سه مؤلفۀ اصلی AIA (هوش مصنوعی پرخطر در محصولات، هوش مصنوعی پرخطر در خدمات انسانی و الزامات شفافیت هوش مصنوعی) تمرکز دارد و تلاش میکند تأثیر جهانی احتمالی آن را تخمین بزند. تخمین تأثیر جهانی احتمالی این قانون مستلزم تلاش برای پیشبینی تغییر رفتار شرکتها در پاسخ به AIA است که تلاشی دشوار و مملو از احتمال اشتباه در محاسبه خواهد بود. باوجوداین خطر، پیشبینی واکنش سهامداران شرکتها برای ارزیابی و درک اثرات واقعی AIA و تشخیص نحوۀ ایجاد اجماع بینالمللی ضروری است.

مقررات AIA بدون‌شک تأثیرات فراسرزمینی خواهند داشت، به این معنا که بر توسعه و استقرار بسیاری از سامانههای هوش مصنوعی در سراسر جهان تأثیرگذار بوده و الهامبخش و رهنمون تلاشهای قانونی مشابه نیز خواهند بود.

ریسک بالا تحت پوشش مقررات ایمنی محصول

AIA طیف گستردهای از سامانههای هوش مصنوعی مورداستفاده در بخشهایی که قبلاً تنظیمشدهاند را دربرمیگیرد، مانند حملونقل هوایی، وسایل نقلیۀ خودران، قایقها، آسانسورها، دستگاههای پزشکی، ماشینآلات صنعتی و غیره. در این موارد، الزامات هوش مصنوعی پرخطر در فرآیند ارزیابی انطباق با تنظیمکنندههای بخشی، مانند آژانس ایمنی هوانوردی اتحادیۀ اروپا برای هواپیماها، یا ترکیبی از سازمانهای شخص ثالث تأییدشده و نهادهای مرکزی اتحادیۀ اروپا انجام میشود، با همدیگر ترکیب میشوند، درمورد دستگاههای پزشکی هم همینطور است. این بدان معنی است که شرکتهای فراسرزمینی که محصولات تحت نظارتی را در محدودۀ اتحادیۀ اروپا ارائه میکنند، باید فرآیند ارزیابی انطباق را طی کنند. AIA فقط ویژگیها و مشخصههای این نظارت را تغییر خواهد داد، اما گستره یا روند آن را تغییر نمیدهد.

بااینحال، این تغییرات بیاهمیت نیستند. بهطورکلی این تغییرات از شرکتهایی که میخواهند سامانههای هوش مصنوعی را در محصولات خود برای فروش در اتحادیۀ اروپا قرار دهند، میخواهد که حداقل توجهی تخصصی به سامانههای هوش مصنوعی داشته باشند. شرکتها باید یک فرآیند مدیریت ریسک را پیادهسازی کنند، بهگونهای که با استانداردهای بالاتر داده مطابقت داشته باشند، سامانهها را بهطور کامل مستند کنند، اقدامات آن را بهطور سامانمند ثبت کنند، اطلاعاتی را درمورد عملکرد آن به کاربران ارائه دهند و نظارت انسانی و مستمر را فعال نمایند. برخی از این الزامات احتمالاً قبلاً توسط تنظیمکنندههای بخشی که برای مدتی طولانی با هوش مصنوعی سروکار داشته، اجرا شدهاند، اما بیشترشان احتمالاً جدید هستند. نتیجه این است که سامانههای هوش مصنوعی در محصولات تحت نظارت بهجای ارزیابی گستردهتر عملکرد محصول، باید به مستندسازی، ارزیابی و پایش خودبهخود بپردازند و این امر یک سطح جدیدتر و بالاتر برای سامانههای هوش مصنوعی در محصولات ایجاد میکند.

در متن قانون AIA، دامنۀ فراسرزمینی به محصولات فروختهشده به اتحادیۀ اروپا محدود میشود، بااینحال هنوز احتمال زیادی هست که این امر به انطباق بینالمللی برسد. لذا برای ادامه صادرات به بازار مصرف بزرگ اروپا، شرکتهای خارجی باید این فرآیندها را اجرا نمایند. اگرچه قوانین جدید به عملکرد سامانههای هوش مصنوعی محدود میشود، بسیاری از این محصولات در فرآیندهای صنعتی در مقیاس بزرگ تولید میشوند، مثلاً یک تسمهنقاله را تصور کنید. سازگاری در فرآیندهای تسمهنقاله به معنای محصول ارزانتر و قیمتهای رقابتیتر برای شرکتها است، درحالیکه اعمال تغییرات به تسمهنقاله‌های متفاوت و فرآیندهای مختلف آزمودن و ایمنی نیاز دارند و عموماً گرانتر خواهند بود؛ بنابراین منطقی است که فرض کنیم بسیاری از تولیدکنندگان خارجی با قوانین AIA سازگار خواهند شد و بهمحض اینکه خود را سازگار کردند، اغلب انگیزهای قوی برای حفظ قوانین داخلی مشابه با قوانین اتحادیۀ اروپا را دارند.
این امر ظاهراً یک نمونۀ کلاسیک از اثر بروکسل به نظر میرسد و تحقیقات دانشگاهی نشان داده است که اتحادیۀ اروپا زمانی بیشترین تأثیر را دارد که قدرت حذف محصولات از بازار خود را داشته باشد، همانطور که در اینجا چنین قدرتی دارد. بااینحال، وضع قوانین یکجانبۀ اتحادیۀ اروپا یک اثر مشخص نخواهد داشت. سه عامل وجود دارد که تأثیر اروپا بر این قوانین جدید را کاهش میدهد: بازارهای موجود، سازمانهای استاندارد بینالمللی و دولتهای خارجی.

اولاً، ازآنجاکه این قوانین جدید بر محصولاتی که قبلاً تنظیمشدهاند تأثیرگذار است، شرکتهای خارجی زیادی درحال فروش محصولات در اتحادیه اروپا هستند و این قوانین را زیر نظر خواهند داشت. این شرکتها صادرکنندگان عمده به اتحادیۀ اروپا هستند، مانند شرکتهای دستگاههای پزشکی از ایالاتمتحده، بازوهای روباتیک از ژاپن، وسایل نقلیه از چین و بسیاری شرکتهای دیگر. این کسبوکارهای بزرگ بینالمللی خارج از اتحادیۀ اروپا بهراحتی تنظیم نخواهند شد، اما فعالانه درگیر خواهند شد تا مطمئن شوند این قوانین به سهم بازار آنها ضرر نمیرساند.

نحوۀ ادغام نهادهای استاندارد اتحادیۀ اروپا در سازمانهای استاندارد جهانی به این شرکتها کمک خواهند کرد. AIA خود بهطور مستقیم استانداردهای خاصی را برای محصولات بیشماری که از هوش مصنوعی استفاده میکنند تعیین نمیکند، زیرا میدانیم بهطورکلی انجام این کار برای هیچ نهاد قانونگذاری ممکن نیست. درعوض، AIA برای این کار اختیارات قابلتوجهی را به سازمانهای استاندارد اروپایی[۷] (ESO) تفویض میکند.

سازمانهای استاندارد اروپایی صرفاً در حوزۀ اروپایی عمل نمیکنند. «سطح بالایی از همگرایی[۸]» بین سازمانهای استاندارد اروپایی و نهادهای استاندارد بینالمللی وجود دارد که از چندین دهه قبل آغاز شده است. این ارتباط قوی با نهادهای استاندارد بینالمللی به شرکتهای خارجی مسیر روشنی را نشان میدهد، همان مسیری که استانداردهای اتحادیۀ اروپا نوشتهاند. درواقع، کار سازمانهای استاندارد در داخل و خارج اتحادیۀ اروپا سالهاست که ادامه داشته و مسیری طولانی را برای شرکتهای جهانی هموار میکنند تا این شرکتها بتوانند تخصص خود را ارائه دهند و نفوذ سیاسی داشته باشند.

در آخر، دولتهای خارجی نیز تلاش خواهند کرد تا ازطریق سازمانهای استاندارد اروپایی بر توسعۀ استانداردها تأثیر بگذارند. این مورد بیشتر شورای تجارت و فناوری[۹] مشترک اتحادیۀ اروپا و ایالاتمتحده مشهود است که کارگروه استانداردهای فناوری را تشکیل داده است. اگر شورای جدید تجارت و فناوری مشترک اتحادیۀ اروپا و هند[۱۰] نیز به استانداردهای هوش مصنوعی بپردازد هم جالب میشود. این روند اخیر آنقدر ادامه پیدا میکند که در آن کشورهایی ازجمله ایالاتمتحده و چین بسیار فعالانه درگیر رویکردهای استراتژیک برای تنظیم استانداردهای بینالمللی شده تا بتوانند وارد رقابت بینالمللی فناوری شوند و خود را در این سطح حفظ کنند. باوجود مشارکت فعال و نفوذ شرکتهای بینالمللی، سازمانهای استاندارد جهانی و دولتهای خارجی، اتحادیۀ اروپا تنها میتواند بگوید خواهان قوانینی برای اعمال در حوزۀ بهکارگیری هوش مصنوعی در محصولات است، اما در تنظیم این قوانین تنها نیست.

خطر زیاد هوش مصنوعی برای خدمات انسانی

دستۀ دوم سامانههای هوش مصنوعیِ پرخطر اگرچه در چارچوب قانونی کنونی اتحادیۀ اروپا قرار نمیگیرند ولی شامل موارد مشخصی از سامانههای هوش مصنوعی هستند که بر حقوق‌بشر تأثیر میگذارند. این سامانهها که گاهی اوقات سامانههای هوش مصنوعی «مستقل» نامیده میشوند، به برنامههای هوش مصنوعی بخش خصوصی در استخدام، مدیریت کارکنان، دسترسی به آموزش و اعتبارسنجی مربوط میشوند و همچنین به هوش مصنوعی مورداستفاده در دولتها برای دسترسی به خدمات عمومی، اجرای قانون، کنترل مرزها، خدمات آب و برق و تصمیمگیریهای قضایی نیز تسرّی پیدا میکنند. تغییرات اخیر پیشنهادی از سوی پارلمان اروپا میتواند سامانههای بیمه، تریاژ پزشکی و هوش مصنوعی در تعامل با کودکان و هوش مصنوعی تأثیرگذار بر فرآیندهای دموکراتیک را هم به این لیست اضافه کند. الزامات استفاده دولت از هوش مصنوعی برای اروپا بسیار مهم خواهد بود (اروپا جایی است که الگوریتم ناموفق و اختلاس بودجه رفاه اجتماعی منجر به استعفای دولت هلند شد) اما این قضیه حداکثر یک الهام برای بقیۀ جهان خواهد بود، نه در مقام بروز قوانین جدید. درعوض تأثیر جهانی این قوانین بر سامانههای هوش مصنوعی بخش خصوصی در خدمات انسانی نشان داده خواهد شد.

درک تأثیر این مقررات بر هوش مصنوعی در خدمات انسانی در بخش خصوصی ابتدا مستلزم تمایز قائل شدن بین هوش مصنوعی مورداستفاده در پلتفرمها و هوش مصنوعی مورداستفاده در سایر نرمافزارها است. این تمایز برای بررسی اثرات فراسرزمینی AIA بسیار مهم است؛ هر چه سیستم هوش مصنوعی در پلتفرمهای پراکنده جغرافیایی (و نه محلّی) بیشتر گنجانده شود، الزامات AIA بهطور جامعتری بر کل آن و نهفقط بر استفاده از آن در اتحادیۀ اروپا، تأثیر میگذارد.

لینکدین[۱۱]، بهعنوان یک پلتفرم کاملاً بههمپیوسته و بدون موانع جغرافیایی، مثال مفیدی در یک سوی این طیف است. بسیاری از الگوریتمهای لینکدین ممکن است در ردۀ پرخطر AIA قرار گیرند، مانند الگوریتمهای قراردادنِ آگهیهای شغلی و سامانههای توصیهکننده برای یافتن کاندیدای شغلی. این سامانههای هوش مصنوعی از دادههای شبکۀ کاربران لینکدین و تعاملات آنها استفاده میکنند و جداکردن مدلها در هر حالت جغرافیایی دشوار است. این نمونه نشان میدهد که تغییرات در فرآیند یا عملکرد مدلسازی و همچنین مستندسازی و تحلیل سامانههای هوش مصنوعی تا حدودی برای پلتفرم، حالت فراگیر و جهانی دارد.

همچنین این مسئله بدین معناست که لینکدین بهسختی میتواند استانداردهای اتحادیۀ اروپا و مجموعه مقررات فرضی متفاوتی از کشور دیگر را رعایت کند. هرگونه تضادی مشکلی فوری و سریع برای لینکدین ایجاد میکند و احتمالاً نیازمند ایجاد فرآیندهای مدیریت ریسک مختلف، تلاش برای به حداقل رساندن سوگیری یا ایجاد چندین ورودی مختلف برای نگهداری سوابق است. این قوانین حتی ممکن است لینکدین را ملزم کند که عملکرد وبسایتشان را برای کاربران در مناطق جغرافیایی مختلف تغییر دهند و پلتفرمها از ایجاد این نوع تغییر بیزارند. در نتیجه، میتوان انتظار داشت که لینکدین و شرکت مادرش، مایکروسافت، دربرابر الزامات قانونی اضافی در هوش مصنوعی سایر کشورها که با AIA ناسازگار هستند، بهشدت مقاومت کنند و درنتیجه احتمال تصویب آن را کاهش دهند که جلوهای واضح از اثر بروکسل است (هم اثر واقعی و هم اثر قانونی).

این اثر بروکسل برای سرویسهای انسانی هوش مصنوعی که به پلتفرمهای پراکنده متصل نیستند و درعوض براساس دادههای محلّی ساخته شدهاند و تعاملاتی مجزّاتر با افراد دارند، بسیار کمتر محسوس است. بهعنوانمثال، یک شرکت چندملّیتی را در نظر بگیرید که توسعۀ سامانههای هوش مصنوعی استخدام را برای تجزیهوتحلیل رزومه و ارزیابی نامزدهای شغلی برونسپاری میکند. این توسعهدهندۀ هوش مصنوعی، مدلهای مختلف هوش مصنوعی را برای فرصتهای شغلی مختلف و احتمالاً برای مناطق جغرافیایی مختلف (مثلاً زبانهای مختلف) خواهد ساخت. مثال دیگر نرمافزار فناوری آموزشی است که ممکن است شبکهای از دانشآموزان را به هم متصل کند، اما بهطور مستقل در مکانهای مختلف مستقر شود.

در این شرایط، این احتمال وجود دارد که توسعهدهنده فقط الزامات AIA را برای سامانههای هوش مصنوعی مورداستفاده در اتحادیۀ اروپا دنبال کند و برای مدلهایی که مستقیماً مشمول قوانین AIA نیستند، توسعهدهنده احتمالاً بهطور دل‌بخواهی از قوانین AIA پیروی میکند. همچنین توسعهدهنده ممکن است تصمیم بگیرد که همیشه از یک سیستم سازگاریافتۀ هوش مصنوعی استفاده کند، زیرا زمانی که این سیستم توسعه داده شد، میتواند بهسادگی به کار گرفته شود و بیشتر برای شرکت ارزش خواهد داشت. بااینحال، هیچ دلیل و تضمینی وجود ندارد که فرض کنیم الزامات AIA بهطور جهانی رعایت خواهد شد، بهویژه مواردی که نیاز به تلاش قابلتوجه و فوقالعادهای برای هر سیستم هوش مصنوعی دارند. علاوه‌براین شرکتها ممکن است در جمعآوری دادهها و تمیزکردن یا آزمایش مدل در شرایطی که امکان نظارتی وجود ندارد عملکرد دقیقی نداشته باشند، همانطور که اغلب درمورد مدلهای خارج از اتحادیۀ اروپا صادق است. نظارت انسانی و مدیریت فعال کیفیت میتواند گران باشد؛ بنابراین، بسیاری از شرکتها ممکن است از انجام این خدمات در خارج از اتحادیۀ اروپا خودداری کنند.

هرچه سیستم هوش مصنوعی کمتری در یک شبکۀ بینالمللی یا یک پلتفرم باشد، احتمال اینکه مستقیماً تحت تأثیر قوانین AIA قرار گیرد، کمتر میشود و در نتیجه اثر بروکسل کاهش مییابد. بااینحال، این تمایز بین هوش مصنوعی در پلتفرمها درمقابل نرمافزارهای محلّی بهراحتی از بین میرود.

بهطورکلی، هرچه سیستم هوش مصنوعی کمتری در یک شبکۀ بینالمللی یا یک پلتفرم باشد، احتمال اینکه مستقیماً تحت تأثیر قوانین AIA قرار گیرد، کمتر میشود و در نتیجه اثر بروکسل کاهش مییابد. بااینحال، این تمایز بین هوش مصنوعی در پلتفرمها درمقابل نرمافزارهای محلّی بهراحتی از بین میرود. برای مثال، سامانههای هوش مصنوعی در نرمافزار مدیریت کارکنان (که واجد شرایط عنوان هوش مصنوعی پرخطر هستند) اغلب در پلتفرمهایی ساخته میشوند که در یک کسبوکار مشترک هستند. بااینکه این نرمافزار یک پلتفرم آنلاین نیست که بهطور گسترده در دسترس باشد، هر کسبوکار چندملّیتی که کارمندانی در اتحادیۀ اروپا داشته باشد و از این نرمافزار استفاده کند، به سیستم هوش مصنوعیای نیاز دارد تا با AIA مطابقت داشته باشد. در این صورت معلوم نیست چه اتفاقی ممکن است بیفتد. این امکان وجود دارد که فروشنده کاملاً و بهطور جهانی از AIA پیروی کند تا مشتریانش بتوانند آزادانه از نرمافزارش در اتحادیۀ اروپا استفاده کنند. بااینحال، امکان دیگری نیز وجود دارد که برای پوشش هزینههای اضافی AIA، فروشنده نرخ اشتراک بالاتری را برای نرمافزار مورداستفاده در اتحادیۀ اروپا دریافت کند.

بنابراین، آیا AIA نیز خواهد توانست با بهرهبرداری از اثر بروکسل بر خدمات انسانی هوش مصنوعی اثرگذار باشد؟ میتوان برای سامانههای هوش مصنوعی پرخطر که در پلتفرمهای بینالمللی تعبیه شدهاند با اطمینان گفت بله و در غیر این مورد، شاید نتواند آن سطح از توقع را تأمین کند. مطمئناً کمیسیون اروپا با بستۀ قانونی فوقالعادهای که آماده کرده و در آینده تکمیل خواهد کرد (قانون هوش مصنوعی، مقررات عمومی حفاظت از داده، قانون خدمات دیجیتال[۱۲] و قانون بازارهای دیجیتال[۱۳]) مجموعهای از ابزارهای بسیار تأثیرگذار برای ادارۀ پلتفرمهای آنلاین را در اختیار خواهد داشت، ابزارهایی که بسیار فراتر از هر دولت دموکراتیک دیگر در سطح جهان است.

افشای هوش مصنوعی در تعامل با انسان[۱۴]

AIA برای سامانههای هوش مصنوعی که با مردم تعامل دارند اما آشکارا بهعنوان یک سیستم هوش مصنوعی تلقی نمیشوند، تعهد ایجاد میکند. این بیانگر شکلگیری سریعترین عواقب بینالمللی برای چت‌بات­های مورداستفاده برای وبسایتها و برنامهها است، اگرچه احتمالاً درنهایت روی آواتارهای هوش مصنوعی در واقعیت مجازی نیز تأثیر خواهد گذاشت. اگر یک چتبات در گروه پرخطر قرار نگیرد (همانطور که ممکن است با مشاوره درمورد واجد شرایط بودن برای وام یا خدمات عمومی)، تنها شرطش این است که افراد مطلع شوند که بهجای یک انسان، با یک سیستم هوش مصنوعی در تعامل هستند. این شامل بسیاری از چت‌بات­های برنامههای تلفن تجاری (مانند مواردی که توسط دومینو و استارباکس استفاده میشود) و وبسایتها نیز میشود که احتمالاً فقط یک اعلان کوچک میدهند مبنی بر اینکه چت‌بات یک سیستم هوش مصنوعی هستند.

منطقی است که انتظار داشته باشیم AIA در وبسایتها تأثیر جهانی قابلتوجهی داشته باشد. بهطورکلی، افزودن اعلان یا افشاگری که میگوید چت‌بات یک سیستم هوش مصنوعی است، یک تغییر فنی جزئی است؛ بنابراین بعید است که این الزام شرکتها را متقاعد کند که یک چت‌بات جداگانه برای بازدیدکنندگان اروپایی ایجاد کنند یا از دسترسی اروپاییها به چت‌‌بات یا وبسایتها جلوگیری کنند، محتملترین نتیجه این است که این افشاگری بهصورت جهانی به کار گرفته شود. ازآنجاییکه این شرکتها بهطورکلی قوانین اتحادیۀ اروپا را در سطح جهانی بدون اجبار رعایت میکنند، این هم یک نمونۀ واضح از اثر واقعی بروکسل است.

ممکن است با چت‌بات­های مورداستفاده در برنامههای گوشیهای هوشمند متفاوت برخورد شود. بسیاری از برنامههای تجاری به دلیل زبانهای مختلف یا سایر الزامات قانونی از پیش بهطور خاص برای کشورهای مختلف طراحیشدهاند. در این صورت، اپلیکیشنهای موجود در بازارهای اروپایی نیاز به افشا خواهند شد، اما آنهایی که در مکانهای دیگر فعال هستند ممکن است نیازی به تغییر پیدا نکنند.

الزامات شفافیت برای سامانههای تشخیص احساسات (همانطور که در قوانین AIA آمده است، این سامانهها بهندرت در وبسایتها به کار گرفته میشوند) و همچنین دیپفیکها[۱۵] نیز اعمال میشود. صرفنظر از این، بااینکه الزامات افشای AIA ممکن است بهطور گسترده رعایت شود، تأثیر این تغییر نسبتاً اندک خواهد بود؛ حتی بااینکه ممکن است یکی از اثرات قابلمشاهده و جهانی AIA باشد.

نتیجهگیری و توصیههای سیاستی

یک تجزیهوتحلیل دقیق از مفاد این قانون فقط تأثیر فراسرزمینی هدفمند و تأثیر محدود بروکسل را نشان میدهد. قوانین مربوط به هوش مصنوعی پرخطر در محصولات، توسط نیروهای بازار جهانی تعدیل خواهد شد، درحالیکه هوش مصنوعی پرخطر در خدمات انسانی تنها بر پلتفرمهای بینالمللی تأثیرگذار خواهد بود. علاوه‌براین، الزامات شفافیت تنها منجر به تغییرات جزئی خواهد شد و تنها تعداد کمی از ویژگیهای ممنوع شده در این قانون به اتحادیۀ اروپا محدود خواهد شد. ممکن است اثرات دیگری مانند الهام بخشیدن به کشورهای دیگر برای تصویب مقررات هوش مصنوعی، بهطور بالقوه بر روی دستههای پرخطر هوش مصنوعی در میان باشد، اما این نوعی تقلید داوطلبانه نیست، بلکه جنبۀ اجباریترِ اثر بروکسل است.

قطعاً تأثیر فراسرزمینی قانون هوش مصنوعی اتحادیۀ اروپا پیچیده خواهد بود، زیرا بسیاری از کسبوکارها براساس شرایط و انگیزههای خاص خود به آن پاسخ خواهند داد و پیامدهای ناخواستۀ این قانون هم قطعی است. این پیچیدگی، پیشبینی واکنشهای بازیگران تجاری را کاملاً خطرناک میسازد. بااینحال تلاش برای پیشبینی نتایج این قانون به دو دلیل برای حکمرانی جهانی ارزشمند است. اولاً، درک ویژگیهای ماهیت فراسرزمینی AIA برای سایر دولتها مفید است تا نحوۀ واکنش آنها به AIA را هنگام اجرای حفاظتهای نظارتی خودشان بررسی کنند. ثانیاً، این تحلیل دیدگاه مشترک اروپا درخصوص مزایای اقتصادی «اولین» بودن و خوب بودن اثر بروکسل ناشی از آن برای تصویب AIA را به چالش میکشد.

برای بقیۀ جهان، ممکن است اثرات AIA غالب نباشد، اما بازهم باید موردتوجه قرار گیرد. مدلهای تجاری خاص و کاربردهای هوش مصنوعی میتواند منجر به موقعیتهای غیرمنتظره و احتمالاً منجر به تضاد با مقررات موجود شود. کار بر روی قوانین پلتفرمهای متصلبههم بهویژه برای سامانههای هوش مصنوعی پرخطر، دشوار خواهد بود. سایر کشورها هم ازطریق فرآیند استانداردها و ازطریق ذخیرهسازی نظارتی میتوانند منسجم و فعالتر باشند. درمورد ایالاتمتحده، پیروی از دستورالعملهای نوامبر 2020 از سوی دفتر مدیریت و بودجه[۱۶] که از آژانسها میخواهد تا مرجع نظارتی خود بر روی سامانههای هوش مصنوعی را بررسی کنند، بسیار ارزشمند است. تاکنون بااینکه ضربالاجل این کار ماهها قبل بوده است، فقط وزارت بهداشت و خدمات انسانی[۱۷] یک بازرسی عمومی کامل از مسئولیتهای نظارت بر هوش مصنوعی خود منتشر کرده است. دولت بایدن بهجای انتظار برای اتحادیۀ اروپا و AIA، باید به وعدۀ منشور حقوق هوش مصنوعی[۱۸] خود عمل کند.

در اتحادیۀ اروپا، دلایل خوبی برای تصویب AIA وجود دارد؛ دلایلی چون مبارزه با تقلب، کاهش تبعیض، محدودکردن سرمایهداری نظارتی و…، اما تعیین یک استاندارد جهانی قطعاً یکی از این دلایل نیست. این امر برای توجیه اقتصادی اتحادیۀ اروپا مهم است، چراکه بسیاری از سیاستگذاران اروپایی استدلال کردهاند اولین دولتی که یک رژیم نظارتی را اجرا کند، در درازمدت به نفع شرکتهای اتحادیۀ اروپا کار میکند. این خط فکری استدلال میکند که وقتی اتحادیۀ اروپا مقرراتی را اجرا کند، ابتدا شرکتهای خودش با آن سازگار میشوند و سپس هنگامیکه بقیۀ جهان رویکرد اروپایی را اتخاذ کنند، شرکتهای مستقر در اتحادیۀ اروپا که قبلاً با قوانین سازگار شدهاند به بهترین نحو برای موفقیت در بازار جهانی آماده شدهاند. بااینحال، این منطق تنها درصورتی امکانپذیر است که قوانین اتحادیۀ اروپا بهطور قابلتوجهی بر بازارهای جهانی تأثیر بگذارد که در این مقاله نشان دادیم این امر اگر بعید نباشد، غیرقطعی است.

همچنین، این نتیجهگیری نشان میدهد که اتحادیۀ اروپا باید AIA را در یک جدول زمانی پیش ببرد تا نیازهای اروپا را برآورده کند، نه اینکه تنها به پایان و نتیجه فکر کند. AIA قبلاً به دلیل اختلافات سیاسی به تعویق افتاده است، بنابراین اگر قانونگذاران اتحادیۀ اروپا نیاز فوری به رسیدگی به آسیبهای هوش مصنوعی را حس میکنند (همانطور که در ایالاتمتحده بهخوبی نشان داده شده است) به هر طریقی باید بهسرعت جلو بروند. بااینحال، انجام این کار بهمنظور تعیین یک استاندارد جهانی درمورد AIA اشتباه است. چراکه AIA اثر بروکسل قوی نخواهد داشت، اما منجر به نتایجی درخصوص مخابرۀ پیامهای سیاسی اتحادیۀ اروپا به جهان خواهد شد. اتحادیۀ اروپا ممکن است با نشان‌دادنِ بازخورد بیشتر و همکاری با بقیل کشورهای دموکراتیک جهان، بهجای اینکه بگوید درحال «رقابت» برای تنظیم مقررات است، چیزهای بیشتری به دست بیاورد، در غیر این صورت اتحادیۀ اروپا ممکن است خود را در ایستگاه پایانی واقعاً تنها ببیند.

نویسندگان
سایر مقالات