شناسه خبر : 43027 لینک کوتاه
تاریخ انتشار:

راویان دروغگو

روبات‌های توئیتری چگونه پای اعتماد و دموکراسی را می‌شکنند؟

 

آسیه اسدپور/ نویسنده نشریه

76مدت‌ها قبل از ورود به رسانه‌های اجتماعی، خبرهای فیک و گاه بی‌رحمانه وجود داشته‌اند و صرفاً به صورت رسمی پس از سال 2016، اصطلاحی رایج شده‌اند. برای نمونه، در روز یکشنبه، عیدِ پاک سال 1475، در ترنت ایتالیا، یک کودک 5 /2ساله به نام سیمونینو ناپدید شد و برناردینو دا فلتر، واعظ رادیکالِ مدافع فرقه فرانسیسکن، ادعا کرد یهودیان او را کشته‌اند، تمامی خون این کودک را با زجر از بدنش بیرون کشیده و در جشن عید فصح آن را خورده‌اند. ادعای دروغین و بی‌رحمانه‌ای که به سرعت بر آن دامن زده شد و شایعات پخش‌شده، خطرناک شدند. مدتی بعد، دا فلتر، باز هم در ادعایی تازه، خبر داد که جسد پسرک را در زیرزمین یک خانه یهودی پیدا کرده است. ادعایی که در پاسخ بدان، شاهزاده ترنت، اسقف یوهانس هیندرباخ، بلافاصله دستور داد تمامی مردم یهودی شهر را دستگیر کنند و آنقدر آنها را شکنجه دهند تا به گناهشان اعتراف کنند؛ و چون آدم، زیر شکنجه از فولاد هم که باشد، گناهان تمام زمینیان را بر گردن می‌گیرد، این دستور وحشیانه جواب داد؛ 15 نفر، مجرم شناخته شده و در آتش سوزانده شدند و البته این تنها نتیجه آن شایعه نبود. روایت‌های سوگیرانه از این داستان، الهام‌بخش جوامع دیگر شد و جنایات مشابه آن به دفعات متعدد تکرار شدند. تا اینکه، پاپ مداخله و سعی کرد مانع از انتشار این داستان و قتل‌های پس از آن شود. اما هیندرباخ، پاپ را شایسته جایگاهش ندانست. از ملاقات با نماینده او امتناع کرد و به خاطر ترسِ از دست دادن قدرت و جایگاهش، اخبار جعلی بیشتری را درباره یهودیان و نوشیدن خون کودکان مسیحی در میان مردم پخش کرد؛ تا جایی که شور و اشتیاق مردمی از این داستان‌های یهودی‌ستیزانه تحت عنوان افترایی «اسنادِ خون» دارای کمپین شد، دخالت پاپ را بی‌اثر کرد و به دا فلتر که سیمونینوی مسیحی گمشده را قدیس خوانده و به او نام «سنت سیمون و صاحب معجزه» را داده بود، در تاریخ قدرت داد؛ به نحوی که مورخان با آنکه تا به امروز داستان‌های جعلی یهودیان بچه‌کش و خون‌نوش را فهرست‌بندی کرده‌اند و شکل‌گیری جدی پایه‌های یهودی‌ستیزی را به قرن دوازدهم نسبت داده‌اند، اما، هنوز و در سال 2021، یک وب‌سایت ضدیهود، ادعا می‌کند این داستان حقیقت دارد و سیمون یک «قدیسِ شهید» است؛ و این یعنی «اخبار جعلی هرگز نمی‌میرند». کمااینکه، همچنان داستان استفاده آلمانی‌ها از بدن سربازان خود برای تهیه چربی در کارخانه جسدسوزی آلمان، ‌«کارخانه طالو»، راویان خود را دارد؛ پیرز برندون، مورخ و نویسنده بریتانیایی، آن را «وحشتناک‌ترین داستان قساوت از جنگ جهانی اول» می‌داند در حالی که فیلیپ نایتلی، روزنامه‌نگار و منتقد استرالیایی، آن را «محبوب‌ترین داستان قساوت جنگی» می‌نامد و حتی حامیان «وزارت روشنگری و تبلیغات عمومی رایش» که در سال 1933 ‌«یوزف گوبلز» وزیر پروپاگاندای رژیم نازی، برای گسترش ایدئولوژی نازی‌ها و تحریک خشونت علیه یهودیان تاسیس کرد، کمپین‌های تبلیغاتی خود را برای انتشار اخبار ساختگی‌شان در بستر اینترنت دارند؛ تا اینترنت و شبکه‌های مجازی، شمشیر دولبه اخبار و داستان‌های جعلی و مغرضانه باشند و به آنها دامن بزنند.

جاعلان واقعیت

طبق تحقیقات مرکز «‌Pew‌»، در حال حاضر، 50 درصد از ترافیک فیس‌بوک، مربوط به اخبار جعلی و فراحزبی است. هشت درصد از 25 میلیون«URL»‌، دارای بدافزار، ابزار فیشینگ و کلاهبرداری هستند. 80 درصد از کاربران توئیتر و فیس‌بوک، به‌طور قطع با اخبار جعلی مواجه شده‌اند و برای 78 درصد آن، این خبرها معنای تهدید دموکراسی را داشته است، چون نهادهای دولتی و افراد قدرتمند از آنها به عنوان سلاحی کاربردی علیه مخالفان خود استفاده کرده‌اند. برای نمونه، در نوامبر سال 2016 و در طولِ فرآیند انتخاباتی ریاست‌جمهوری ایالات‌متحده، 159میلیون بازدید از وب‌سایت‌های خبری جعلی که بالاترین میزان روایت و داستان‌های جعلی را با هدف تغییر عقاید و نگرش‌های سیاسی-حزبی منتشر کرده بودند، ثبت شده، در همه‌گیری اخیر ناشی از کووید 19 تئوری‌های توطئه در رسانه‌های اجتماعی افزایش یافته و برخی به شدت باور دارند، ویروس کرونا، یک سلاح زیستی است که پشتیبانی اعتباری بیل گیتس برای افزایش فروش واکسن را داشته است. باوری که هنوز هم شبیه دیگر روایت‌ها، تکرار مسری خود را دارد و ساختار ذهنی فردی و پیکره‌بندی سیاسی و حاکمیتی را تهدید می‌کند؛ و این در حالی است که مردم برای دریافت اطلاعات، به شدت به رسانه‌های اجتماعی وابسته هستند و با آنکه کیفیت اطلاعات همواره رو به افت است، 45 درصد از مردم جهان، به‌طور متوسط، دو ساعت و 23 دقیقه از روز خود را در رسانه‌های اجتماعی زندگی می‌کنند و حتی نمی‌دانند اخبار جعلی چیست. به واقع، با وجودِ شواهد فراوانی که از نیاز به شناسایی اخبار جعلی حمایت می‌کند، هنوز هیچ تعریف پذیرفته‌شده جهانی از اخبار جعلی وجود ندارد و سه میلیارد و 600 میلیون نفر در سرتاسر دنیا، گیجِ حقیقت اطلاع‌رسانی‌اند. سردرگمی که گاهی با استفاده از تعابیری عمومی چون «اطلاعات ساختگی و تقلیدی رسانه‌های خبری»، «مقالات عمداً تقلبی»‌، «اخبار فریبنده»، «اخبار طنز» و «اطلاعات نادرست»، پاسخ داده می‌شود. در بُعدی آکادمیک‌تر، با عناوینی چون «طعمه کلیک»، «تبلیغات مغرضانه عمدی»، «تقلید»، «روزنامه‌نگاری شلخته»، «تیترهای گمراه‌کننده» و «اخبار کَج»، پژوهشگران را به چالش می‌کشاند؛ و در مجموع، دلیلِ شکست بسیاری از مبارزات مدنی، اعتراضات مجازی، کمپین‌های حمایتی، تلاش‌های زیست‌محیطی، حماسه‌های ملی و تثبیت شاکله دموکراسی‌شده و روبات‌ها، سایبورگ‌ها و اسپمرهای مجازی، تحلیل‌های واقعی مبتنی بر سواد و تفکرهای انتقادی را به حاشیه برده‌اند.

سایبورگ، اورک‌ها و گابلین‌ها؟

طبق گزارش آیونوس (‌IONOS) و یافته‌های بیش از 50 پژوهشگر از کشورهای مختلف که در سال 2021 منتشر شد، توئیتر به تنهایی دارای 340 میلیون کاربر، 7 /11 میلیون برنامه ثبت‌شده، 500 میلیون توئیت در روز و 200 میلیارد توئیت در سال است و محبوبیت آن، این شبکه اجتماعی و ارائه‌دهنده خدمات میکروبلاگینگ، را به یک هدف ایده‌آل برای روبات‌ها تبدیل کرده است. آخرین گزارش‌ها هم نشان می‌دهند، حدود 10 درصد از حساب‌های توئیتر، روبات و مسوول تولید 20 تا 25 درصد از تمام توئیت‌ها هستند که البته برخی از این روبات‌ها قانونی‌اند، با اهداف توئیتر مطابقت دارند و می‌توانند حجم قابل توجهی از توئیت‌های سالم را تولید کنند. با این حال، اکثر این روبات‌ها، برای اهداف مخرب مانند بدافزاری که پسوردها را جمع‌آوری می‌کند یا هرزنامه‌ای که کاربران تصادفی را به عنوان دوستان اضافه می‌کند و انتظار دارد دوباره دنبال شوند، کاربرد دارند و اثرگذاری آنها هنگام انتشار اخبار جعلی، مخرب‌تر است؛‌ حتی به استناد نتایج مطالعاتی «تفکیک روبات‌های مشروع و مخرب از یکدیگر»، ‌«تفاوت‌ها، شباهت‌ها و توصیفات عمقی روبات‌های توئیتری»، «ماشین بردار پشتیبانی، جنسیت انسانی روبات‌ها»، «چه کسی توئیت می‌کند؟ انسان، روبات یا سایبورگ»، «طبقه‌بندی حساب‌های توئیتر به عوامل خودکار و کاربران انسانی» و «تفاوت درک کیفیت ارتباط برای یک عامل انسانی و روبات‌ها در توئیتر»، روبات‌های مخرب می‌توانند با تقلید رفتار انسانی به روشی منفی مورد استفاده قرار بگیرند، یک ملت یا دولت را زمین‌گیر کنند، دموکراسی‌ها را به سیری قهقرایی ببرند، با کاربرد کلمات احساسی، جنسیتی، گرام کاراکتری و سبک اطلاعاتی، در رویدادهای سیاسی، بهتر از انسان‌ها نتیجه‌سازی کنند و حتی سایبورگ‌های منفی، با وجود تست تورینگ خودکار، امکان تفاوت شناختی انسان و روبات به هنگام ارسال اطلاعات مختلف، مکرر، سریع و طولانی‌مدت، را از کاربران انسانی توئیتر بگیرند؛ و در کنار استفاده از دیگر «OSN»ها، با ایجاد و انتشار سریع هرزنامه‌هایی که مانند روبات‌ها عمل می‌کنند و مسوول ارسال لینک‌های مخرب، محتوای ممنوعه و سایت‌های فیشینگ هستند، بر مبنای سه ساختار «پیوندی؛ معیار اعتماد کاربران قانونی»، «همسایگی؛ اشتراک‌گذاری باورها و ارزش‌های مشابه» و «گروهی؛ استفاده از ساختار گروهی پنهان»، بر میزان آلایندگی محتوایی و ویروسی مخرب و جعلی بیفزایند و اغلب کاربران سیاسی ضدمردمی و مخالف فرآیندهای دموکراتیک، که به گفته «تحلیلگران پزشکی قانونی دیجیتالی رویدادها» در «‌DFRLab» می‌توانند در پلیدی و نابودی اهداف مطلوب جمعی را در زمینه حاکمیت، فناوری و امنیت، دست کمی از تالکینورس یا گابلین‌های جهان فانتزی تالکین نداشته باشند، دقیق‌تر و بهتر به اهداف خود برسانند. حتی الگوسازی گروهی پراکنده برای تشخیص هرزنامه‌های تطبیقی (SGASD) و روش شناسایی آلاینده‌های محتوایی استتارشده با استفاده از تجزیه و تحلیل تشخیصی (CCPDA) را دور بزنند، رویکردهای اتخاذشده از سوی دولت‌ها برای مقابله با مشکل اخبار جعلی در ایالات متحده، انگلستان،‌ آرژانتین، برزیل، آلمان، فرانسه، روسیه، اسرائیل، مصر، چین، کانادا، ژاپن، مالزی و... را به شکست بکشانند و از نبود خط‌مشی مشخص توئیتری در نظارت و الگوهای شناسایی دقیق فیک‌ها، در جعلی‌تر کردن اخبار جعلی و دارای سوگیری، بهترین بهره را ببرند. کاری که چرایی و چگونگی انجام آن و راهکارهای مقابله با پیامدهای منفی‌اش مبنای انجام این پژوهش هم بوده است.

جعبه سیاه تصمیم‌گیری

همان‌گونه که معروف است، «رسانه‌های اجتماعی مانند کاغذی سفید هستند که می‌توان روی آنها هر چیزی نوشت و مردم را به عنوان کانالی برای اشتراک‌گذاری اطلاعات، بدان‌ها وابسته کرد». اما وقتی اخبار جعلی بر روی این کاغذهای خالی نوشته می‌شوند باید راهی برای مقابله و شناخت آنها پیدا کرد. ما در این پژوهش، با کمک مدل و الگوریتم‌های «‌ML» برای فرموله کردن، شناسایی و طبقه‌بندی اخبار جعلی، مروری بر روش‌های معنایی با تمرکز بر پردازش زبان طبیعی و تکنیک‌های «NLP» و همچنین بررسی رویکردهای مبتنی بر دانش، تحلیل واقعیت (دستی و خودکار) و رویکردهای ترکیبی، تلاش کردیم شرح مفصل‌تری از رویکردهای مورد استفاده در شناخت، چگونگی انتشار و نفوذ اخبار جعلی ارائه داده و با تکنیک‌های «NLP»، اشکال اخبار جعلی مانند شایعات، طعمه‌های کلیک و اطلاعات نادرست را تحلیل محتوا کنیم. بدین منظور، با استناد به نظرسنجی شرکت تحقیقاتی و هوش تجاری (‌Kroll) و تمرکز بر اینکه، «‌60 درصدِ بزرگسالانی که برای مصرف اخبار به رسانه‌های اجتماعی وابسته‌اند، اطلاعات نادرست را به اشتراک می‌گذارند»، «‌84 درصد از شرکت‌ها با افزایش شایعات که از سوی رسانه‌های اجتماعی تقویت می‌شوند، احساس خطر می‌کنند»، «90 درصد توئیت‌های برآمده از شایعات، حاوی اطلاعات جعلی و تئوری‌های توطئه هستند» و «شایعات در بیش از یک‌سوم موضوعات پرطرفدار، مبنای شکل‌گیری اخبار جعلی‌اند»، پژوهش را بر ساخت یک ابزار خودکار برای شناسایی شایعه متمرکز و تکنیک تشخیص شایعه دوخوشه‌ای را طراحی کردیم که قابلیت رتبه‌بندی شایعات بر اساس جست‌وجوی کلمات «واقعاً»، «چه چیزی» و «آیا درست است؟» را داشت. در کنار آن، با نظر به اینکه «‌Clickbait»‌، بر ادعاهای اغراق‌آمیز یا کنار گذاشتن اطلاعات کلیدی به منظور تشویق ترافیک متکی است، مسابقه‌ای با هدفِ رتبه‌بندی پست‌های رسانه‌ای ترتیب دادیم که ماحصل آن، تولید 38517 پست توئیتری (19538 توئیت آموزشی و 18979 توئیت صرفاً قابل دسترس) از 27 ناشر خبری در ایالات متحده شد، از سوی پنج حاشیه‌نویسِ «‌Amazon Mechanical Turk‌» برای تعیین نرخ کلیک احتمالی یک پست، امتیازدهی انجام گرفت، بر اساس آن الگویی مبتنی بر روش یادگیری عمیق، ساخته شد و عملاً راه‌حلی برای محافظت از کاربران در برابر کلیک طعمه به دست آمد. علاوه بر آن، مجموعه داده‌ای متشکل از 24 هزار مقاله با تفکیکِ 12 هزار مقاله جعلی استخراج‌شده از «‌Kaggle‌» و 12 هزار مقاله واقعی منتخب از گاردین و نیویورک‌تایمز، جمع‌آوری و بررسی شدند تا نشان داده شود که از «‌DNN»ها می‌توان برای تشخیص الگوهای زبانی در اخبار ساختگی استفاده کرد، به واسطه این الگوریتم، اخبار جعلی و حاوی اطلاعات نادرست در موضوعات جدید را تشخیص داد و مشکل «جعبه سیاه» و عدم شفافیت در تصمیم‌گیری‌ها را حل کرد؛ کاری که به انضمامِ استفاده از ابزارهای پیشنهادی ما که به‌دست‌آمده از تحلیل محتوای قوی‌ترین پژوهش‌های جهانی در سال 2021 هستند، می‌تواند از گسترش اخبار جعلی جلوگیری کند و مانع از شکل‌گیری آنها در پلت‌فرم‌های مجازی شود.

مشروع‌سازی اجتماعی

بر مبنای یافته‌های به‌دست‌آمده از این پژوهش، ما پیشنهاد می‌کنیم، از ابزارها و افزونه‌های «BS-Detector»، «‌FiB‌»‌، «Trusted News add-on»، «SurfSafe»‌، «BotOrNot»‌، «Decodex‌»، «TrustyTweet»، «Fake News Detector»، «‌Fake News Guard‌»، «‌TweetCred‌»، «‌ LiT.RL News Verification» که می‌توانند اخبار جعلی، تئوری‌های توطئه، طعمه کلیک، اخبار بسیار مغرضانه، طنز، بااحتیاط و... را شناسایی و طبقه‌بندی کنند، استفاده کنید. همچنین از مجموعه داده‌های«‌CredBank» حاوی 60 میلیون توئیت و 1049 رویداد دنیای واقعی، «‌LIAR» شامل 12836 عبارت کوتاه که سردبیر پولیتی‌فکت ارزیابی می‌کند، «‌Memetracker‌»، دارای 90 میلیون سند از 165 میلیون وب‌سایت، «‌FakeNewsNet»، یک مخزن داده‌ای چندبعدی متشکل از اطلاعات مکانی و زمانی مربوط به کاربران، پست‌ها و پاسخ‌ها، «‌BuzzFeedNews»، شامل 1627 مقاله و 826 رویداد از صفحات فیس‌بوک فراحزبی، «‌BuzzFace»، دارای 2263 مقاله خبری و 6 /1 میلیون نظر از کاربران فیس‌بوک، «‌Higgs-Twitter»، مجموعه داده‌ای شامل 527,496 کاربر و 985,590 توئیت با یکی از هشتگ‌ها یا کلمات کلیدی و «‌Trust and Believe»، دربردارنده 50 هزار کاربر توئیتری سیاستمدار، برای تشخیص اخبار جعلی بهره ببرید و اطلاعات مورد نیازتان را از آنها استخراج کنید. و البته مهم‌تر از همه اینها، سواد رسانه‌ای را بیاموزید و آن را پیوست هر اقدام‌تان در شبکه‌های مجازی کنید. چرا که سواد رسانه‌ای نوعی درک متکی بر مهارت بازخوانی، واکنش موثر و توانایی بازنویسی / ارزیابی، استدلال، ارتباط‌دهی و خوداظهاری / درک فرآیند پردازش، محتوا، ساختار و ارزش‌های تولید / تفسیر، آزمون و به دست آوردن اطلاعات بدون توجه به ابزار انتقال پیام یا برخی رفتارهای هدفمند و مهارت اندیشیدن انتقادی برای کشف رمزهای پیام‌های ارتباطی است؛ بر اساس آن می‌توان انواع رسانه‌ها و تولیدات آنها را شناخت، اخبار جعلی و واقعی را از یکدیگر تفکیک کرد، مصرف‌کننده رسانه‌ای منتقد و مجهز به سلاح بینش و تفسیر اطلاعات شد، در برابر محتوای اهانت‌آمیز از خود واکنش نشان داد، هر کجا لازم باشد به یک حمایت‌کننده با قدرت تبدیل شد، به مشروع‌سازی اجتماعی کمک کرد، در راستای ایجاد تغییرات اجتماعی مثبت، به آگاهی از حقوق دموکراتیک خود دست یافت، در برابر دستکاری رسانه‌ای مجهزتر ماند و پیام‌های کانالیزه‌شده رسانه‌های نظام توتالیتری را نپذیرفت، حتی حامی توسعه جامعه نخبگان و مبتنی بر گفتمان و دموکراسی ماند و چه‌بسا به توسعه و افزایش مشارکت در عرصه‌های عمومی نوین کمک کرد و قدرت تشخیص استفاده یا سوءاستفاده دیاسپوراها از شبکه‌های مجازی و به‌تبع آن از کاربرانش را به دست آورد. 

دراین پرونده بخوانید ...