طبق اظهارات اخیر مارک جمیسون[۱] در مؤسسه اَمریکن اینترپرایز[۲]، «خبرنگاران سنتی مانند نان برشته شدهاند» چراکه «هزینه نوشتن محتوای نوشتاری» تنها طی دو سال اخیر از «حدود ۱۰۰ دلار در هر ۱۰۰۰ کلمه» به تنها چهار سنت کاهشیافته است. این امر به دلیل «مدلهای بزرگ و پیشرفته زبانی مانند چت جی پی تی و کلود ۲ است که ایجاد محتوا را متحول کرده و هزینهها را تا ۹۹.۹۶ درصد کاهش داده است.» مارک بر این باور است که «روزنامهها باید این چالش رو فرصت دیده و از این بههمریختگی در روال معمول خبرنویسی استقبال کنند. شرکتهای قدیمی با بازنگری و تجدید تصویر نقش خود بهعنوان ارائهکننده صرف خبر، میتوانند به سمت دادن پاسخ جامع به بسیاری از مسائل حرکت کنند و از هوش مصنوعی برای ارائه محتوای مرتبطتر و روشنتر به خوانندگان نهایت استفاده را ببرند.»
در واقع، سازمانهای متعددی در حوزه گردآوری، تدوین و پخش خبر در حال بررسی جهت بهرهبرداری از محتوای تولید شده توسط هوش مصنوعی هستند. نیویورکتایمز حتی یک مدیر تحریریه برای ابتکارات هوش مصنوعی استخدام کرده است؛ بنابراین، شناسایی محدودیتهای هوش مصنوعی برای روزنامهنگاری و دغدغه و نگرانیهای سازمانهای خبری درباره محتوای تولید شده توسط هوش مصنوعی اهمیت مییابد که در ادامه به برخی از آنها اشاره شده است.
محدودیتهای هوش مصنوعی
هوش مصنوعی نمیتواند:
(۱) به طور فعال به آنچه مقامات دولتی در کنفرانسهای مطبوعاتی میگویند گوش دهد و سپس – بر اساس آنچه که میگویند و در زمان واقعی- با بالا بردن و تکان دادن دست، مرتبطترین سوالات به خوانندگان را فرموله کرده و بپرسد و بر اساس پاسخ های بعدی مسئولین، این روند سریع را تکرار کند؛
(2) بلافاصله پس از جلسه هیئت مدیره در مورد نمرات آزمون های استاندارد دانش آموزان با مدیر مدرسه که به وضوح ناراحت است در دفترش مصاحبه کند، به نظرات مدیر گوش دهد، بفهمد که چه زمانی باید یک سوال سخت بپرسد و قضاوت کند که چه زمانی باید از آن سوال عقب نشینی کند، چراکه ممکن است یک سوال مصاحبه را از جریان بیاندازد؛
(۳) به سمت محل سقوط یک هواپیما رانندگی کند، شاهدان را بیابد و با آنها مصاحبه کند و از بازرسان درباره آن پرس و جو کند و
(۴) قضاوت کند که کدام گزارشگران با توجه به شخصیت، خلق و خو و مهارت های نرمی که دارند، بهتر میتوانند بفهمند که کدام یک از سوت زنان احتمالی دولت (با توجه به شخصیت آنها) در پرونده صحبت کند و سپس این کار را انجام دهند. همانطور که وایرد[۳] در سیاست خود در مورد ابزارهای هوش مصنوعی مولد می گوید، «نرم افزار هوش مصنوعی نمی تواند منابع را فراخوانی کرده و از آنها اطلاعات بگیرد.»
تدوین و پخش خبر در حال بررسی جهت بهرهبرداری از محتوای تولید شده توسط هوش مصنوعی هستند. نیویورکتایمز حتی یک مدیر تحریریه برای ابتکارات هوش مصنوعی استخدام کرده است؛ بنابراین، شناسایی محدودیتهای هوش مصنوعی برای روزنامهنگاری و دغدغه و نگرانیهای سازمانهای خبری درباره محتوای تولید شده توسط هوش مصنوعی اهمیت مییابد
به طور خلاصه، بسیاری از سازمانهای سنتی خبری حقایق و اطلاعات جدید تولید میکنند و دانش را با ترکیبی از تلاش انسانی و قضاوت حرفهای واکاوی میکنند. همه روزنامهنگاران «خبرنگاران خبری صرف» نیستند که بهسادگی اطلاعات از پیش موجود در مجموعهدادهها، اسناد دولتی، باکس امتیازات یا شاخصهای بازار سهام را بنویسند. برخی از روزنامهنگاران:
۱) اخبار فوری (از طریق مصاحبه یا مشاهدات در صحنه) را افشا می کنند؛
۲) پوشش اخبار فوری (سقوط هواپیما) را صورت می دهند؛ و
(۳) کارکردهای تحقیقی و رکن چهارم مشروطیت یا همان رسانه که مارک به آنها اشاره دارد را انجام می دهند. اگر هوش مصنوعی بتواند هزینههای این چنینی جمعآوری اخبار ضروری را به چهار سنت در هر هزار کلمه تقلیل دهد، بسیار عالی خواهد بود. کاهش هزینه ها در جستجو و گزارش اطلاعات موجود با کاهش آنها در تولید حقایق جدید متفاوت است.
نگرانیهای هوش مصنوعی
این واقعیت ناخوشایند که ابزارهای هوش مصنوعی مولد گاهی حقایق را جعل میکنند – که با حسن تعبیر توهم نامیده میشود – میتواند به اعتماد خوانندگان آسیب برساند. شرایط استفاده فعلی از اوپن اِی آی احتمال خطاها را تأیید میکند: «ممکن است خروجیها همیشه دقیق نباشد. شما نباید به خروجی خدمات هوش مصنوعی بهعنوان تنها منبع حقیقت یا اطلاعات واقعی اعتماد کنید.» به همین دلیل است که استانداردهای آسوشیتدپرس در مورد هوش مصنوعی مولد مستلزم رسیدگی به «خروجی از یک ابزار هوش مصنوعی مولد بهعنوان منبع بررسی نشده… است. کارکنان آسوشیتدپرس باید قضاوتهای سردبیری از جانب خود و استانداردهای آسوشیتدپرس در خصوص منبع را هنگام بررسی هرگونه اطلاعات برای انتشار اعمال کنند.»
خطمشی شبکه یو اِس اِی تودی[۴] نیز بهویژه در مورد عدم شفافیت برنامههای هوش مصنوعی در مورد منابع خود نگرانیهایی دارد: «تا زمانی که شفافیت منبعیابی بهبود نیابد، روزنامهنگاران باید با محتوای نسل هوش مصنوعی همانطور رفتار کنند که با منابع غیررسانهای رفتار میکنند، به این معنی که میتوانند از این فناوری برای ایدهها و سرنخها استفاده کنند، اما باید هر آنچه را که به ما میگوید با یک منبع رسمی و عمومی تطبیق دهند.» این امر مستلزم تلاش انسانی است که محتوای تولید شده توسط هوش مصنوعی را «قبل از استفاده در گزارشدهی از نظر صحت و واقعی بودن تأیید کند. روزنامهنگاران باید مطمئن شوند که محتوایی که استفاده میکنند دقیق و عاری از خطا باشد.»
یکی دیگر از نگرانیهای روزنامهنگاری مربوط به امری است که انجمن اخبار دیجیتال رادیو تلویزیون[۵] آن را «دزدی ادبی غیرعمدی» توسط برنامههای هوش مصنوعی مولد مینامد. وایرد نیز نگران است که «یک ابزار هوش مصنوعی ممکن است سهواً کلمات دیگران را سرقت کند. اگر نویسندهای از آن برای ایجاد متنی برای انتشار بدون ذکر [منبع] استفاده کند، ما آن را به منزله سرقت ادبی تلقی خواهیم کرد.»
دیگر دغدغهها دراینرابطه عبارتاند از اینکه: ابزارهای مولد هوش مصنوعی (۱) «اغلب نوشتههای کسلکننده و غیراصلی تولید میکنند» که «به طور کلی بی روح و ناخوشایند است»؛ (۲) «ممکن است متن مناسب و مرتبط را ارائه ندهد [و ممکن است] حقایق آن نادرست باشد»؛ (۳) «هیچ درکی از اخلاقیات ندارد» و «میتوانند تعصبات کسانی که آنها را ایجاد و برنامه ریزی کرده اند را تشدید کند»؛ و (۴) قادر به انجام قضاوت اخباری مانند سنجش دغدغه های مربوط به حریم خصوصی در برابر حق آگاهی عمومی نیست.
برعکس، روزنامهنگاران سنتی میتوانند از هوش مصنوعی مولد برای پیادهسازی صوتها، خلاصهکردن رونوشتها، یافتن الگوها در مجموعهدادهها، تولید ایدههای خبری، پیشنهاد سرتیتر و پیشنویس پستهای رسانههای اجتماعی استفاده کنند. حتی تلاشهایی در حال انجام است تا هوش مصنوعی در جلسات شرکت کرده تا اتفاقات و رخدادها را توصیف کند. در مجموع، هوش مصنوعی مولد در حال حاضر نوشدارویی برای مشکلات متعدد روزنامهنگاری نیست، بلکه ابزاری مفید – هرچند ناقص – است که نیاز به نظارت انسانی دارد.