خانه » مقالات » نگاهی به مقررات رسانه‌های اجتماعی
نگاهی به مقررات رسانه‌های اجتماعی
چهار شنبه, ۵ اسفند ۱۴۰۰
زمان تقریبی مطالعه ۱۲ دقیقه
با توجه به آغاز روند بازنگری کشورها در نحوه برخورد با پلتفرم‌ها، به نظر می رسد که وقت آن است تا نگاهی تازه به مقررات رسانه‌های اجتماعی داشته باشیم.
اگر اظهارات اخیر راجیو چاندراسخار[۱]، وزیر دولت هند در امور الکترونیک و فناوری اطلاعات، قابل‌قبول باشد، قوانین فناوری اطلاعات هند در آستانه بازنگری اساسی است.

چندی پیش، وزیر الکترونیک و وزیر فناوری اطلاعات، آشوینی[۲]، نیز به نیاز به پاسخگویی بیشتر و خودتنظیمی پلتفرم‌های رسانه‌های اجتماعی اشاره کرد. در گزارش کمیته مشترک پارلمانی نیز دیدگاه‌های مشابهی درباره حفاظت از داده‌ها، بیان‌شده است. در این گزارش اشاره شده است که ارزیابی مجدد وضعیت واسطه‌گری پلتفرم‌های رسانه‌های اجتماعی و مسئولْ ساختن آن‌ها در قبال محتوایی که میزبانی می‌کنند موردنیاز و ضروری است.

درحالی‌که این دیدگاه‌ها در میان شرکت‌های فناوری بزرگ و مطلق‌گرایان آزادی بیان، نگرانی‌هایی را ایجاد می‌کند، نمی‌توان انکار کرد که رشد تصاعدی رسانه‌های اجتماعی در طول این چند سال مثل یک شمشیر دولبه است. سخنان نفرت برانگیز، اخبار جعلی، آزار و اذیت سایبری و سوءاستفاده از داده‌ها تنها تعدادی از چالش‌های بزرگی است که دولت‌ها، افراد و جوامع با آن دست‌وپنجه نرم می‌کنند.

در سرتاسر جهان، دولت‌ها از این مسائل آگاه شده‌اند و چارچوب‌های قانونی را برای حاکم شدن در پلتفرم‌های رسانه‌های اجتماعی ارائه کرده‌اند. لایحه ایمنی آنلاین انگلستان نمونه‌ای از این موارد است که پیشنهاد می‌کند ساختارهای میانجی‌گرایانه و ایمن را به‌طور کامل کنار بگذاریم و با توجه به محتوای پلتفرم‌ها وظایف مراقبتی گسترده‌ای را بر پلتفرم‌های رسانه‌های اجتماعی و موتورهای جستجو تحمیل کنیم.

طرح معما

این سؤال که آیا لغو وضعیت واسطه‌گری پلتفرم‌های رسانه‌های اجتماعی راه درستی است یا نه سؤال آسانی برای پاسخگویی نیست. از این گذشته، رسانه‌های اجتماعی در اصل به‌عنوان یک واسطه عمل می‌کنند و دریچه‌ای به فضای مجازی در اختیار کاربران قرار می‌دهند که از طریق آن می‌توانند دیدگاه‌ها، دانش، مهارت‌ها و خلاقیت خود را به نمایش بگذارند. خارج ساختن آن‌ها از محیط امنی که برای خود ساخته‌اند و به رسمیت شناختن مسئولیت کامل آن‌ها در قبال محتوای به اشتراک گذاشته‌شده توسط کاربران که هیچ کنترل ویرایشی روی آن ندارند، ممکن است مطمئن‌ترین راه پیش رو نباشد.
رسانه‌های اجتماعی در اصل به‌عنوان یک واسطه عمل می‌کنند و دریچه‌ای به فضای مجازی در اختیار کاربران قرار می‌دهند که از طریق آن می‌توانند دیدگاه‌ها، دانش، مهارت‌ها و خلاقیت خود را به نمایش بگذارند. خارج ساختن آن‌ها از محیط امنی که برای خود ساخته‌اند و به رسمیت شناختن مسئولیت کامل آن‌ها در قبال محتوای به اشتراک گذاشته‌شده توسط کاربران که هیچ کنترل ویرایشی روی آن ندارند، ممکن است مطمئن‌ترین راه پیش رو نباشد.
از سوی دیگر، درخواست‌ اقدامات مسئولانه‌تر از رسانه‌های اجتماعی نیازمند پلتفرم‌هایی است که به‌طور فعال محتوای مضر را مسدود کرده و حساب‌های متخلف را تعلیق کنند. تناقض این است که با گسترده‌تر شدن فعالیت پلیسی پلتفرم‌های رسانه‌های اجتماعی، آن‌ها دیگر واسطه‌های منفعل محتوا نخواهند بود.

راه‌حل امکان‌پذیر

راه خروج امکان‌پذیر این است که ساختار واسطه‌گری پلتفرم‌ها حفظ شود، اما پلتفرم‌ها باید تعهدات واضح‌تری برای واجد شرایط واسطه بودن داشته باشند. این امر ممکن است با مراحل زیر و از طریق اصلاحات قانون فناوری اطلاعات انجام شود:

  • تعریف واسطه‌ها: تعریف واسطه‌ها نیازمند ‌به‌روزرسانی و تقسیم‌بندی بر اساس عملکرد آن‌ها است، مانند پلتفرم‌های رسانه‌های اجتماعی، پلتفرم‌های پیام خصوصی یا پیام‌رسان‌ها، موتورهای جستجو، خدمات میزبانی وب و ارائه‌دهندگان خدمات اینترنتی. تعهدات هر یک از این زیرمجموعه‌ها ممکن است با توجه به شیوه‌های عملکرد متمایز آن‌ها از یکدیگر متفاوت باشد.
  • فهرست محتوای ممنوعه: انواع محتوایی که مضر و غیرقانونی تلقی می‌شوند باید به‌طور خاص و جامع بیان شوند. این امر به این دلیل ضروری است که قانون فناوری اطلاعات در حال حاضر به‌اندازه کافی به محتوایی که می‌تواند تأثیرات نامطلوبی بر افراد در سطح شخصی بگذارد، مانند تهدیدات آنلاین، آزار و اذیت و نقض حریم خصوصی، رسیدگی نمی‌کند. این مورد همچنین به مقابله با چالش‌هایی مانند سخنان نفرت برانگیز، اخبار جعلی، اطلاعات و جنگ روانی کمک می‌کند.
  • تعیین اختیارات دولت: اختیارات دولت در رابطه با محتوای غیرقانونی باید مشخص شود که می‌تواند شامل قدرت و روش حذف محتوا، تعیین موقعیت‌هایی که رمزگشایی یا ره‌گیری ارتباطات ضروری است و اعمال مجازات مناسب برای اشکال خاصی از محتوا باشد. درحالی‌که قانون فناوری اطلاعات بخش‌هایی از این موضوع را پوشش می‌دهد، باید یک چارچوب یکپارچه، به‌روز و منطقی وجود داشته باشد که به این مسائل رسیدگی کند.
  • تشویق به ایجاد حساب‌های تائیدشده: مسئولیت محتوای غیرقانونی تنها در صورتی معنادار خواهد بود که بتوان چنین مسئولیتی را در برابر یک شخص یا نهاد واقعی لغو کرد. این به‌نوبه خود تنها در صورتی امکان‌پذیر است که حساب‌های جعلی یا ساختگی مهار شوند؛ بنابراین، پلتفرم‌ها می‌توانند انگیزه‌ای برای تأیید حساب‌ها با افشای هویت واقعی باشند؛ اما این امر با توجه به‌حق کاربران برای حفظ حریم خصوصی می‌تواند محل مناقشه و محل اختلاف باشد.
  • قدرت حذف پلتفرم‌ها را به حداقل برسانید: قدرت حذف محتوای پلتفرم‌ها در مورد کاربران تأییدشده باید به حداقل برسد و محدود به مواردی مانند محتوای پورنو گرافیک و سوءاستفاده جنسی از کودکان شود. این امر قدرت کنترل گفتمان را از پلتفرم‌ها می‌گیرد.
  • از اتاق‌های پژواک جلوگیری کنید: پلتفرم‌ها باید تشویق شوند تا از الگوریتم‌هایی که انواع خاصی از محتوا را از طریق نمایه‌سازی کاربر و برجسته‌سازی انتخابی، تبلیغ می‌کنند؛ حذف کنند. این کار از تبدیل‌شدن پلتفرم‌ها به اتاق‌های پژواک اطلاعاتی که قطبیت و تعصبات را تقویت می‌کنند، جلوگیری می‌کند.
  • راه‌اندازی یک دادگاه رسیدگی‌کننده: شاید مهم‌تر از همه، ایجاد یک‌نهاد شبه قضایی باشد که می‌تواند به‌عنوان یک دادگاه صالح به رسیدگی برای تمام اقدامات انجام‌شده توسط دولت و پلتفرم‌ها در مورد محتوای کاربران و برای شنیدن شکایات کاربران عمل کند. برای اقدام اضطراری علیه محتوایی مانند هرزه‌نگاری و سوءاستفاده جنسی از کودکان، می‌توان استثنا قائل شد. چنین تنظیمی شفافیت بسیار زیادی را به ارمغان می‌آورد و روند مناسبی را در برخورد با محتوای غیرقانونی تعیین می‌کند و امیدواریم به کاهش بیش‌ازحد دولت و فناوری بزرگ در تعدیل محتوا هم کمک کند.
نویسندگان
سایر مقالات