یک سال پیش از انتخابات 2020 آمریکا سایت نیسوس گزارشی منتشر کرد (فهم اقتصاد قاچاق برای رسانههای مصنوعی[۱]) که میگفت «در کوتاهمدت (انتخابات پیشرو)، پیشبینی نمیشود که از تکنیک «دیپفیک» یا «جعل عمیق[۲]» گسترده در کمپینهای مربوط به اطلاعات گمراهکننده استفاده شود». با نگاه به گذشته معلوم میشود که حق با کارشناسان نیسوس بود، اما این نظر در اقلیت بود. بسیاری از سیاستمداران و مؤسسات نسبت به این خطر هشدار میدادند: «سناریویی را مجسم کنید که در آستانه انتخابات سال بعد، نامزد دموکرات در ویدئویی ظاهر میشود و از دونالد ترامپ حمایت میکند. یا عکس آن را تصور کنید.[۳]»
پتانسیل بالای «جعل عمیق» برای اطلاعات گمراهکننده از مدتها قبل مشاهده شده بود. در یک آزمون آنلاین، 49 درصد از افرادی که از وبسایت برگزارکننده آزمون، بازدید کردهاند گفتهاند که بهاشتباه فکر کردهاند که چهره ساختگی نیکسون واقعی بوده و 65 درصد اعتقاد داشتند که صدای وی واقعی است.[۴]
متخصصان میگویند که تشخیص «جعل عمیق» تقریباً غیرممکن است.[۵] کاتاریا[۶] و لال[۷] میگویند که «وجود چنین نرمافزار منبع باز و دسترسپذیری آنها در بازار برای جعل و ترویج اطلاعات غلط باعث ضرورت توجه به تشخیص و حذف محتواهای اینچنینی شده است»[۸]. در زیر فهرستی از ظرفیتهای «جعل عمیق» را میبینیم:
– سناتور مارکو روبیو[۹]:
«در گذشته برای تهدید آمریکا نیاز به 10 ناو هواپیمابر، سلاح هستهای و موشکهای دوربُرد بود؛ اما امروزه تنها نیاز به تولید ویدئوهای جعلی واقعنمایی است که انتخابات ما را تضعیف کند. مسئلهای که کشورها را در بحرانی اساسی فرو میبرد و عمیقاً تضعیف میکند.»
– سناتور جمهوریخواه بن ساس[۱۰] که لایحهای را برای اعلام جرم علیه «جعل عمیق» مطرح کرد، در سال 2019 هشدار داد که این تکنولوژی میتواند حیات آدمی و بازارهای مالی را به تباهی بکشاند و حتی موجب درگیریهای نظامی در سراسر جهان شود.
– اطلاعات گمراهکننده ناشی از جعل عمیق میتواند چالشی برای انتخابات باشد، زیرا تشخیص آن از ویدئوهای جعلی برای عموم مردم دشوار است. هر کنشگر سیاسی میتواند مخالف خود را بیاعتبار کند یا با هدف پیشبرد برنامههای خود باعث یک افتضاح سیاسی شود.[۱۱]
آنچه واقعاً در انتخابات 2020 آمریکا رخ داد
درکل چهار دلیل وجود دارد که چرا در طی این دوره انتخاباتی آمریکا «جعل عمیق» سیاسی ظاهر نشد. دستکم در طول سال پیش از انتخابات، هزاران «جعل عمیق» منتشر شد که البته بیشتر آنها محتوای پورنوگرافیک داشتند و صدها مورد از آنها در محدوده بیخطر قرار میگرفتند؛ یعنی نه تنها تکنولوژی «جعل عمیق» ادامه یافت بلکه صدها نفر از سراسر جهان به تولید این نوع از محتوا پرداختند.
مداخلاتی از شبکههای اجتماعی و پلتفرمهای تکنولوژیک
شبکههای اجتماعی پس از انتقادات فراوان بهخاطر انفعالشان در انتخابات 2016 رویه خود را از 2018 به بعد تغییر دادند؛ آنها از یک موضع عموماً بیطرف به سمت یک موضع فعالانه، مداخلهگرانه و حتی نوعی جنجالی از سانسور رفتند. «اگر آنها از این فرصت استفاده نکنند و اگر «جعل عمیق» به انتخابات سال آتی هجوم آورد و حجمی از اطلاعات گمراهکننده را از خود به جای گذارند، ممکن است کنگره بهدرستی مصونیت کلی این پلتفرمها را از بین ببرد و دادگاهها نسبت به قوانین قبلی خود در مورد آنها بازنگری کنند.[۱۲]»
برخی از مهمترین اقدامات شبکههای اجتماعی به قرار زیر است:
– فیسبوک در ژانویه 2020 اعلام کرد که محتواهایی که «به شیوههایی نامشخص و ناآشنا برای افراد عادی، ویرایش و ساخته و پرداخته شده است و احتمالاً موجب گمراهی افراد میشود» را حذف میکند.[۱۳] فیسبوک مدعی است که درحالحاضر هوش مصنوعی 94.7درصد گفتوگوهای تنفربرانگیز را کشف میکند و از پلتفرم خود حذف میکند.[۱۴]
– توییتر در فوریه 2020 اقدام وسیعتری کرد و اعلان داشت که «محتویات مصنوعی و دستکاریشدهای که مُضر است را حذف و به کاربران هشدار خواهد داد.[۱۵]»
در جستجوی راهحلهای تکنولوژیک برای مبارزه با «جعل عمیق»
شبکههای اجتماعی برای مقابله با «جعل عمیق» به راستیآزمایی[۱۶] متوسل شدهاند؛ اما حذف جعلهای عمیق مستلزم استفاده از ابزارهای هوش مصنوعی است. پژوهشها[۱۷] نشان دادهاند که افراد معمولی در شناسایی ویدئوهای ساختهشده با تکنولوژی «جعل عمیق» دشواری دارند.
هوانگ معتقد است که «عواملی مثل ضرورت اجتناب از نسبتدادن، زمان لازم برای آموزش یک مُدل یادگیری ماشینی و دسترسپذیری دادهها نحوه استفاده کنشگران از جعل عمیق را عملاً محدود میکند». بهعلاوه، دو[۱۸] و همکاران متوجه شدهاند که «اگرچه تلاشهای زیادی برای کشف جعلهای عمیق صورت گرفته است، اما اجرای آنها تا حدود زیادی مغفول بوده است».
بخش دوم نوشته را از اینجا بخوانید.