در قسمت اول این یادداشت توضح داده شد که شخصیسازی اطلاعات اصولا چیست و روشن شد که پیامدهای اخلاقی آن در دو دسته دنبال میشود:
- دسته اول: پیامدهایی که در مرحله گردآوری دادهها رخ میدهند
- دسته دوم: پیامدهایی که در مرحله اِعمال شخصیسازی رخ میدهند
پیامدهای دسته اول در قسمت قبل گذشت. در این قسمت به پیامدهای دسته دوم یعنی اعمال شخصیسازی میپردازیم:
پس از گردآوری دادهها و ترسیم شخصیت کاربر، شخصیسازیهای گوناگون در سطوح مختلف اعمال میشود. برای مثال شخصی سازی موتورهای جستوجو در قالب سیستم پیشنهاددهی خودکار، شخصیسازی شبکههای اجتماعی در قالب پیشنهاد دوست و محتوا و شخصیسازی وبسایتهای خبری و فروشگاههای اینترنتی در قالب پیشنهادهای خبری و خرید. از جمله مسائل اخلاقی در این بخش عبارتاند از:
مسئله حباب فیلتری یا اتاق پژواک
حباب فیلتری[۱] وضعیت اطلاعاتی خاص و منحصر به فردی است که فضای مجازی از طریق شخصیسازی برای کاربران به وجود میآورد. اصطلاح حباب فیلتری را برای اولین بار الی پارایزر[۲] بود که در کتاب مهم خود با همین عنوان مطرح کرد (2011). در مقدمه این کتاب چنین میخوانیم:
کد اصلی و اساسیای که در قلب اینترنت قرار گرفته بسیار ساده است. نسل جدید فیلترهای اینترنتی به چیزهایی مینگرند که به نظر میرسد شما به آنها علاقه دارید- کارهایی که در عمل انجام دادهاید، یا چیزهایی که افرادی مثل شما دوست دارند- و سپس سعی میکنند تا آنها را برونیابی[۳] کنند. این فیلترها در واقع موتورهای پیشبینیکننده هستند که مدام در حال خلق و بهبود نظریهای هستند که میگوید شما چه کسی هستید و در گام بعدی چه کار خواهید کرد. این موتورها مجموعاً یک جهان اطلاعاتی منحصر به فرد برای هر یک از ما خلق میکنند- چیزی که من آن را حباب فیلتری نامیدهام- جهانی که به گونهای بنیادین، نحوه مواجهه ما با ایدهها و اطلاعات را دگرگون میکند. (Pariser, 2011, p. 10)
حباب فیلتری، بسیار شبیه به پدیده دیگری است که تحت عنوان اتاق پژواک[۴] شناخته میشود:
…اثر اتاق پژواک وقتی به وجود میآید که افراد، گروههای همگن را شکل میدهند و به افراد دیگری میپیوندند که دیدگاههای سیاسی مشابه دارند. (Colleoni, Rozza, & Arvidsson, 2014)
با دقیقتر شدن هر چه بیشتر شخصیسازیها شعاع این حباب فیلتری یا ابعاد این اتاق پژواک هم متعاقباً کمتر میشود. اصلیترین پیامد حبابهای فیلتری عبارت است از سوگیریهای شناختی[۵]. این سوگیریهای شناختی را براساس دو پدیده در علومشناختی میتوان بررسی کرد:
- رسوخپذیری شناختی[۶]
منظور از رسوخپذیری شناختی، تغییر قوای ادراکی[۷] فرد در اثر تغییر باورهای اوست. حباب فیلتری یا اتاق پژواک، با تکرار مداوم باورهای فرد، مانع آشنایی او با باورها و عقاید دیگر میشود که این نیز به نوبه خود به تدریج منجر به تغییر قوای ادراکی فرد میشود. برای مثال، قوای تفکر انتقادی فرد ضعیفتر میشود.
- سامانههای شناختی
دانیل کانمن[۸] یکی از تاثیرگذارترین دانشمندان علوم شناختی در جهان که در سال 2002 جایزه نوبل اقتصاد را به خاطر پژوهشهایش در حوزه نظریه تصمیم از آن خود کرد، در کتاب معروف خود بین دو سامانه فکری تمایز ایجاد میکند (Kahneman, 2011, pt. 1):
- سامانه 1
سریع و خودکار عمل میکند، بی هیچ کنترل خودخواسته و بیزحمت یا با اندکی زحمت کار میکند. وظیفه این سامانه اتخاذ تصمیمات آنی و خودکار است. برای مثال چرخیدن به سوی منبع صداهای ناگهانی، پاسخ به پرسش 2+2 و رانندگی در یک جاده خلوت از مصادیق عملکردی این سامانه هستند.
- سامانه 2
توجه را به فعالیتهای ذهنی پرزحمت مانند محاسبات پیچیده اختصاص میدهد. بررسی اعتبار یک استدلال پیچیده، پایش مناسب بودن رفتارها در یک محیط اجتماعی و تمرکز بر صدای شخصی خاص در مکانی شلوغ از مصادیق فعالیتهای سامانه 2 هستند.
رابرات زایانس[۹] در یکی از مقالههای مهم و تاثیرگذار خود این فرض را مطرح میکند که صرف تکرار یک محتوای خاص باعث ایجاد نوعی احساس خوشایند و راحتی در مواجه با آن میشود (Zajonc, 1968). او نام این اثر را اثر مواجه صرف[۱۰] میگذارد. این اثر را ذیل مدل دو سامانهای کانمن میتوان فهم کرد؛ اثر مواجهه صرف، باعث انتقال یک محتوا از سامانه 2 به سامانه 1 میشود. این نیز به نوبه خود منجر به از دست رفتن کنترل شناختی بر این محتواها میشود.
مسئله خودمختاری[۱۱] کاربر
آیا شخصی سازی شدید و گرفتار شدن در حباب فیلتری، خودمختاری فرد در تصمیمگیریهایش را زیر سوال نمیبرد؟ اینکه کدام محتوا را ببیند؟ با چه کسی در یک شبکه اجتماعی دوست شود؟ کدام عناوین خبری را ببیند؟ آیا الگوریتمها به جای فرد این تصمیمگیریها را انجام نمیدهند؟
مسئله هویت
آیا شخصیسازی باعث تثبیت شخصیت و به یک معنا شکلگیری یک هویت لایتغیر در فرد نمیشود؟ آیا اساساً هویت فردی در مواجه با اندیشههای مختلف شکل نمیگیرد؟
در اینجا لازم است تا به مقررات عمومی حفاظت از دادهها[۱۲] که از تاریخ 25 می 2018 (4 خرداد 1397) در اتحادیه اروپا تصویب شده است نیز اشارهای داشته باشیم. به نظر میرسد GDPR عمدتاً ناظر به بخش اول یعنی گردآوری دادهها و پردازش آنها باشد و گزاره صریحی درباب حباب فیلتری یا اتاقهای پژواک در آن به چشم نمیخورد. بنابراین بررسی نسبت آن با مسئله حباب فیلتری میتواند موضوع یک پژوهش مجزا باشد. GDPR قائل به مطلق بودن حق حریم خصوصی و محافظت از دادهها نمیباشد و آن را در نسبت با سایر مولفههای اجتماعی و فرهنگی در نظر میگیرد (General Data Protection Regulation, 2016, p. 2). از این منظر کاملاً تحت تاثیر نظریه آمیختگی بافتاری[۱۳] میباشد. نظریهای که با عنایت کامل به ماهیت بافتارمند مفهوم حریمخصوصی مفهوم تناسب[۱۴] را پیشنهاد میدهد و سپس سعی میکند تا با ارائه روشی مشخص و روشن، طریقه تشخیص تناسب را در بافتهای مختلف نشان دهد (Nissenbaum, 2010).
مسئله دستکاری رفتارها
این مسئله از چنان اهمیتی برخوردار می باشد که ادبیات گستردهای حول آن تولید شده است. مسئله این است که الگوریتمها به تدریج دادهها و ترجیحات خودشان را (به واسطه طراحانشان) نیز وارد پیشنهادها میکنند. این باعث میشود تا امکان دستکاری باورها و متعاقباً رفتارهای افراد فراهم شود. این دستکاریها در دو حوزه عمده خودشان را نشان میدهند:
- حوزه سیاسی
مفهوم محوری در این حوزه، ریزنشانهروی[۱۵] است. الکساندر گیج[۱۶] برای اولین بار در سال 2002 این مفهوم را ابداع کرد. در ریزنشانهروی، اطلاعات مختلفی که از کاربر جمعآوری شده است تحلیل شده و شخصیت و تمایالات سیاسی وی استخراج میشود. سپس پیامها و تبلیغات سیاسی به صورت کاملاً شخصی سازی شده و هدفمند برای وی ارسال میشوند. برای مثال بررسیها نشان میدهند که بیش از حد 80 درصد پیشنهادهای یوتیوب، ترامپ را بر سایر رقبا برتری میداده است (Chaslot, 2016). مصداق دیگر، دستکاری روان شناختی کاربران فیسبوک است برای متمایل شدن به ترامپ (Brenner, 2018).
- حوزه اقتصادی
در حوزه اقتصاد و بازاریابی مفهوم تبلیغات شخصیسازیشده یا تبلیغات صفحهنمایشی[۱۷] اصطلاحات رایجی هستند که ذیل مفهوم کلانتری تحت عنوان بازاریابی اینترنتی یا بازاریابی دیجیتال مورد بحث و تحقیق فراوان واقع شدهاند. یکی از رایجترین روشها استفاده از فناوری رخسازی[۱۸] است. این فناوری از الگوریتمها برای شناسایی و خلق دانش از میان مجموعهای از دادهها استفاده میکند (Hildebrandt, 2008, pp. 17–18). توضیح آنکه تقریباً همه وبسایتها اقدام به تعقیب اطلاعاتی[۱۹] کاربران خود میکنند، به این معنا که اطلاعات جستوجوهای اینترنتی او را ثبت کرده و به مرور در یک فایل مجزا و مختص به کاربر ذخیره مینمایند. پس از مدتی که حجم اطلاعات ذخیره شده – حجم اطلاعات به دست آمده از فعالیتهای برخط[۲۰] کاربر- افزایش یافت، با استفاده از الگوریتمهای رایانهای اقدام به استخراج الگوهای رفتاری حاکم بر این دادهها کرده و نهایتاً با بازسازی منش وشخصیت کاربر قادر به تحلیل و پیشبینی فعالیتهای بعدی او میشوند (Geary, 2012b). یکی از رایجترین روشها برای تعقیب اطلاعاتی افراد و جمعآوری این اطلاعات استفاده از فناوری کوکی[۲۱] است.
برای مثال یکی از شرکتهای بسیار معروف در این حوزه شرکت دابل کلیک[۲۲] از شرکتهای تابعه گوگل میباشد. بنا به آمارهای موجود این شرکت – که در واقع وظیفه آن تعقیب اطلاعاتی کاربران و جمعآوری اطلاعات آنهاست- در سال 2011 حدود 35.5 میلیارد دلار برای گوگل درآمد داشته است (Geary, 2012a). تقریباً همه شرکتهای بزرگ دیگر نیز چنین فرآیندهایی دارند و اساساً یکی از منابع عمده درآمدهای ایشان محسوب میشود.
جمعبندی
با توجه به مواردی که در این مقاله کوتاه ذکر شد، به نظر میرسد شخصیسازی اطلاعات، علیرغم پیامدهای مثبت بسیاری که دارد می تواند واجد پیامدهای ناخواسته و منفی نیز باشد. به همین علت لازم است تا درست مثل سایر مصنوعات و محصولات فناورانه، با این محصول نیز مواجهه فعالانه- انتقادی-آگاهانه داشته باشیم. به این معنا که صرفاً به گونهای منفعلانه آن را رد / یا قبول نکنیم، بلکه با مطالعه کامل آن، وجوه مثبت آن را پذیرفته و وجوه منفی آن را یا از میان ببریم یا کاهش دهیم.
مراجع
- Brenner, T. (2018). Mark Zuckerberg Testimony: Senators Question Facebook’s Commitment to Privacy. Retrieved from https://www.nytimes.com/2018/04/10/us/politics/mark-zuckerberg-testimony.html
- Chaslot, G. (2016). YouTube’s A.I. was divisive in the US presidential election. Retrieved from https://medium.com/the-graph/youtubes-ai-is-neutral-towards-clicks-but-is-biased-towards-people-and-ideas-3a2f643dea9a
- Colleoni, E., Rozza, A., & Arvidsson, A. (2014). Echo Chamber or Public Sphere? Predicting Political Orientation and Measuring Political Homophily in Twitter Using Big Data. Journal of Communication, 64(2), 317–332. https://doi.org/10.1111/jcom.12084
- Geary, J. (2012a). DoubleClick (Google): What is it and what does it do? Retrieved from https://www.theguardian.com/technology/2012/apr/23/doubleclick-tracking-trackers-cookies-web-monitoring
- Geary, J. (2012b). Tracking the trackers: What are cookies? An introduction to web tracking. Retrieved from https://www.theguardian.com/technology/2012/apr/23/cookies-and-web-tracking-intro
- General Data Protection Regulation (2016). the European Union.
- Hildebrandt, M. (2008). Defining profiling: A new type of knowledge? In Profiling the European Citizen: Cross-Disciplinary Perspectives (pp. 17–45). https://doi.org/10.1007/978-1-4020-6914-7_2
- Ihde, D. (1990). Technology and the Lifeworld. The Indiana Series in the Philosophie of Technologie (Vol. 1). https://doi.org/10.1049/et:20060114
- Kahneman, D. (2011). Thinking, Fast and Slow. Farrar, Straus and Giroux.
- Nissenbaum, H. (2010). PRIVACY IN CONTEXT Technology, Policy, and the Integrity of Social Life. Stanford UP.
- Pariser, E. (2011). The Filter Bubble: How the New Personalized Web Is Changing What We Read and How We Think. New York: The Penguin Press.
- Tseng, M. M., Jiao, R. J., & Wang, C. (2010). Design for mass personalization. CIRP Annals, 59(1), 175–178. https://doi.org/10.1016/j.cirp.2010.03.097
- Zajonc, R. B. (1968). Attitudinal effects of mere exposure. Journal of Personality and Social Psychology, 9(2, Pt.2), 1–27. https://doi.org/10.1037/h0025848
بخش اول نوشته را از اینجا بخوانید.