خانه » مقالات » رای نوشت/ جعل‌ عمیق (دیپ‌فیک) و انتخابات 2020 آمریکا (بخش نخست)
رای نوشت/ جعل‌ عمیق (دیپ‌فیک) و انتخابات 2020 آمریکا (بخش نخست)
چهار شنبه, ۵ اردیبهشت ۱۴۰۰
زمان تقریبی مطالعه ۱۲ دقیقه
سناتور مارکو روبیو: «در گذشته برای تهدید آمریکا نیاز به 10 ناو هواپیمابر، سلاح هسته‌‌ای و موشک‌های دوربُرد بود؛ اما امروزه تنها نیاز به تولید ویدئوهای جعلی واقع‌نمایی است که انتخابات ما را تضعیف کند. مسئله‌ای که کشورها را در بحرانی اساسی فرو می‌برد و عمیقاً تضعیف می‌کند.»

یک‌ سال پیش از انتخابات 2020 آمریکا سایت نیسوس گزارشی منتشر کرد (فهم اقتصاد قاچاق برای رسانه‌های مصنوعی[۱]) که می‌گفت «در کوتاه‌مدت (انتخابات پیش‌رو)، پیش‌بینی نمی‌شود که از تکنیک «دیپ‌فیک» یا «جعل‌ عمیق[۲]» گسترده در کمپین‌های مربوط به اطلاعات گمراه‌کننده استفاده شود». با نگاه به گذشته معلوم می‌شود که حق با کارشناسان نیسوس بود، اما این نظر در اقلیت بود. بسیاری از سیاست‌مداران و مؤسسات نسبت به این خطر هشدار می‌دادند: «سناریویی را مجسم کنید که در آستانه انتخابات سال بعد، نامزد دموکرات در ویدئویی ظاهر می‌شود و از دونالد ترامپ حمایت می‌کند. یا عکس آن را تصور کنید.[۳]»

پتانسیل بالای «جعل عمیق» برای اطلاعات گمراه‌کننده از مدت‌ها قبل مشاهده شده بود. در یک آزمون آنلاین، 49 درصد از افرادی که از وبسایت برگزارکننده آزمون، بازدید کرده‌اند گفته‌اند که به‌اشتباه فکر کرده‌اند که چهره ساختگی نیکسون واقعی بوده و 65 درصد اعتقاد داشتند که صدای وی واقعی است.[۴]

متخصصان می‌گویند که تشخیص «جعل عمیق» تقریباً غیرممکن است.[۵] کاتاریا[۶] و لال[۷] می‌گویند که «وجود چنین نرم‌افزار منبع باز و دسترس‌پذیری آن‌ها در بازار برای جعل و ترویج اطلاعات غلط باعث ضرورت توجه به تشخیص و حذف محتواهای این‌چنینی شده است»[۸]. در زیر فهرستی از ظرفیت‌های «جعل عمیق» را می‌بینیم:
– سناتور مارکو روبیو[۹]:

«در گذشته برای تهدید آمریکا نیاز به 10 ناو هواپیمابر، سلاح هسته‌‌ای و موشک‌های دوربُرد بود؛ اما امروزه تنها نیاز به تولید ویدئوهای جعلی واقع‌نمایی است که انتخابات ما را تضعیف کند. مسئله‌ای که کشورها را در بحرانی اساسی فرو می‌برد و عمیقاً تضعیف می‌کند.»

– سناتور جمهوری‌خواه بن ساس[۱۰] که لایحه‌ای را برای اعلام جرم علیه «جعل عمیق» مطرح کرد، در سال 2019 هشدار داد که این تکنولوژی می‌تواند حیات آدمی و بازارهای مالی را به تباهی بکشاند و حتی موجب درگیری‌های نظامی در سراسر جهان شود.

– اطلاعات گمراه‌کننده ناشی از جعل عمیق می‌تواند چالشی برای انتخابات باشد، زیرا تشخیص آن از ویدئوهای جعلی برای عموم مردم دشوار است. هر کنشگر سیاسی می‌تواند مخالف خود را بی‌اعتبار کند یا با هدف پیشبرد برنامه‌های خود باعث یک افتضاح سیاسی شود.[۱۱]

آنچه واقعاً در انتخابات 2020 آمریکا رخ داد

درکل چهار دلیل وجود دارد که چرا در طی این دوره انتخاباتی آمریکا «جعل عمیق» سیاسی ظاهر نشد. دست‌کم در طول سال پیش از انتخابات، هزاران «جعل عمیق» منتشر شد که البته بیشتر آنها محتوای پورنوگرافیک داشتند و صدها مورد از آنها در محدوده بی‌خطر قرار می‌گرفتند؛ یعنی نه تنها تکنولوژی «جعل عمیق» ادامه یافت بلکه صدها نفر از سراسر جهان به تولید این نوع از محتوا پرداختند.

مداخلاتی از شبکه‌های اجتماعی و پلتفرم‌های تکنولوژیک

شبکه‌های اجتماعی پس از انتقادات فراوان به‌خاطر انفعالشان در انتخابات 2016 رویه خود را از 2018 به بعد تغییر دادند؛ آنها از یک موضع عموماً بی‌طرف به سمت یک موضع فعالانه، مداخله‌گرانه و حتی نوعی جنجالی از سانسور رفتند. «اگر آنها از این فرصت استفاده نکنند و اگر «جعل عمیق» به انتخابات سال آتی هجوم آورد و حجمی از اطلاعات گمراه‌کننده را از خود به جای گذارند، ممکن است کنگره به‌درستی مصونیت کلی این پلتفرم‌ها را از بین ببرد و دادگاه‌ها نسبت به قوانین قبلی خود در مورد آنها بازنگری کنند.[۱۲]»

برخی از مهم‌ترین اقدامات شبکه‌های اجتماعی به قرار زیر است:

– فیسبوک در ژانویه 2020 اعلام کرد که محتواهایی که «به شیوه‌هایی نامشخص و ناآشنا برای افراد عادی، ویرایش و ساخته و پرداخته شده است و احتمالاً موجب گمراهی افراد می‌شود» را حذف می‌کند.[۱۳] فیسبوک مدعی است که درحال‌حاضر هوش مصنوعی 94.7درصد گفت‌وگوهای تنفربرانگیز را کشف می‌کند و از پلتفرم خود حذف می‌کند.[۱۴]

– توییتر در فوریه 2020 اقدام وسیع‌تری کرد و اعلان داشت که «محتویات مصنوعی و دست‌کاری‌شده‌ای که مُضر است را حذف و به کاربران هشدار خواهد داد.[۱۵]»

در جستجوی راه‌حل‌های تکنولوژیک برای مبارزه با «جعل عمیق»

شبکه‌های اجتماعی برای مقابله با «جعل عمیق» به راستی‌آزمایی[۱۶] متوسل شده‌اند؛ اما حذف جعل‌های عمیق مستلزم استفاده از ابزارهای هوش مصنوعی است. پژوهش‌ها[۱۷] نشان داده‌اند که افراد معمولی در شناسایی ویدئوهای ساخته‌شده با تکنولوژی «جعل عمیق» دشواری دارند.

هوانگ معتقد است که «عواملی مثل ضرورت اجتناب از نسبت‌دادن، زمان لازم برای آموزش یک مُدل یادگیری ماشینی و دسترس‌پذیری‌ داده‌ها نحوه استفاده کنشگران از جعل‌ عمیق را عملاً محدود می‌کند». به‌علاوه، دو[۱۸] و همکاران متوجه شده‌اند که «اگرچه تلاش‌های زیادی برای کشف جعل‌های عمیق صورت گرفته است، اما اجرای آنها تا حدود زیادی مغفول بوده است».

بخش دوم نوشته را از اینجا بخوانید.

پانوشت
سایر مقالات