شناسه خبر : 45819 لینک کوتاه
تاریخ انتشار:

بازی رسانه‌های اجتماعی

رفتار افراد در شبکه‌های اجتماعی از چه الگویی تبعیت می‌کند؟

 

آزاده خرمی‌مقدم / نویسنده نشریه 

74دارون عجم‌اوغلو و همکاران (2023)، در این مقاله، الگویی از اشتراک‌گذاری محتوای آنلاین را ارائه می‌کنند که در آن افراد به‌طور متوالی محتوایی را مشاهده می‌کنند و تصمیم می‌گیرند آن را با دیگران به اشتراک بگذارند یا خیر. این محتوا ممکن است حاوی اطلاعات نادرست باشد یا نباشد. هر فردی با یک سوگیری ایدئولوژیک شروع می‌کند و از تعاملات مثبت رسانه‌های اجتماعی مطلوبیت کسب می‌کند، اما نمی‌خواهد به دلیل انتشار اطلاعات نادرست مورد انتقاد قرار گیرد. نویسندگان این مقاله، تعادل (بیزین-نش) این بازی رسانه اجتماعی را مشخص می‌کنند و اثبات می‌کنند که این تعادل، مکمل‌های استراتژیک را نشان می‌دهد. در این چهارچوب، بررسی می‌شود که چگونه یک پلت‌فرم علاقه‌مند به به‌حداکثر رساندن تعامل، الگوریتم خود را طراحی می‌کند. نتیجه اصلی این مقاله نشان می‌دهد که وقتی محتواهای مربوطه قابلیت اطمینان پایینی دارند و بنابراین احتمالاً حاوی اطلاعات نادرست هستند، الگوریتم به حداکثر رساندن تعامل، شکل یک «حباب فیلتر» را به خود می‌گیرد که یک اتاق پژواک از کاربران هم‌فکر ایجاد می‌کند. علاوه بر این، حباب‌های فیلتر زمانی که قطبیت بیشتر در جامعه وجود دارد و محتوا تفرقه‌افکن‌تر است، محتمل‌تر می‌شود. در نهایت، راه‌حل‌های نظارتی مختلفی برای چنین اطلاعات نادرستی که از سوی پلت‌فرم‌ها تولید می‌شود، مورد بحث قرار می‌گیرد.

معرفی و بحث

رسانه‌های اجتماعی به منبع مهمی از اطلاعات برای شهروندان در سراسر جهان تبدیل شده‌اند. قبل از انتخابات ریاست‌جمهوری 2016 ایالات‌متحده، 14 درصد از آمریکایی‌ها رسانه‌های اجتماعی را به‌عنوان منبع اصلی اخبار خود معرفی کردند و تا سال 2019، بیش از 70 درصد از آمریکایی‌ها گزارش دادند که حداقل بخشی از اخبار خود را از شبکه‌های اجتماعی دریافت کرده‌اند. در عین ‌حال، نگرانی فزاینده‌ای در مورد اطلاعات نادرست در پلت‌فرم‌های رسانه‌های اجتماعی، از جمله اخبار ساختگی در مورد نامزدهای سیاسی ایالات‌متحده، گزارش‌های گمراه‌کننده برگزیت و تصاویر فتوشاپ‌شده در طول انتخابات ملی هند وجود دارد. شواهد اخیر نشان می‌دهد که اطلاعات نادرست در رسانه‌های اجتماعی بر تصمیمات حیاتی مانند واکسیناسیون علیه کووید 19، تاثیر گذاشته است. اگرچه هیچ اتفاق‌نظری در مورد اینکه چه چیزی باعث گسترش مطالب نادرست و گمراه‌کننده در رسانه‌های اجتماعی می‌شود وجود ندارد، بر دو مجموعه از عوامل تاکید شده است. اولین مورد وجود اتاق‌های پژواک است که زمانی ایجاد می‌شود که کاربران با افراد همفکر ارتباط برقرار می‌کنند و محتوا را به اشتراک می‌گذارند. مطالعات تورن‌برگ (2018) و ویکارو و همکاران (2016)، نشان می‌دهد که اتاق‌های پژواک دیدگاه‌های سیاسی موجود را تقویت می‌کنند و تمایل به انتشار اطلاعات نادرست دارند. رسانه‌های اجتماعی به کاربران این امکان را می‌دهند که انتخاب کنند به چه کسی و چه چیزی بیشتر از رسانه‌های سنتی گوش دهند، بنابراین اتاق‌های پژواک ممکن است یکی از اثرات جانبی اجتناب‌ناپذیر تعاملات آنلاین باشد. همچنین شواهدی وجود دارد که اتاق‌های پژواک نتیجه «حباب‌های فیلتر» هستند که الگوریتم‌های پلت‌فرم با تبلیغ محتوای کاربران همفکر ایجاد می‌کنند. عامل دوم، دوقطبی شدن فضای سیاسی عمومی در بسیاری از کشورها و به ویژه ایالات‌متحده است. شواهد اولیه‌ای وجود دارد که نشان می‌دهد قطبی شدن به قرار گرفتن گزینشی در معرض محتوای مشکوک در رسانه‌های اجتماعی نیز کمک کرده است. به‌رغم اهمیت این مسائل، در حال ‌حاضر چهارچوبی برای درک اینکه چگونه تعاملات آنلاین بر گسترش اطلاعات نادرست تاثیر می‌گذارد و چه عواملی انگیزه‌های به‌اشتراک‌گذاری محتوای با قابلیت اطمینان پایین را شکل می‌دهند، وجود ندارد. در این مقاله، یک الگوی میانه‌رو از رفتار اشتراک‌گذاری آنلاین در حضور اطلاعات نادرست ایجاد می‌شود و به‌عنوان اولین قدم، بر رفتار عوامل کاملاً بیزی تمرکز می‌شود. این الگو براساس N کاربر رسانه‌های اجتماعی استوار است. هر عامل (کاربر) در مورد وضعیت جهان «سوگیری ایدئولوژیک» اولیه دارد و از طریق شبکه‌ای به بقیه کاربران متصل است که از سوی الگوریتم‌های پلت‌فرم رسانه‌های اجتماعی شکل می‌گیرد. یک محتوای خبری که با یک نوع اساسی تعریف شده است (درست یا حاوی اطلاعات نادرست)، یعنی یک پیام (جناح راست یا چپ) با سطحی از قابلیت اطمینان (که احتمال اطلاعات نادرست را تعیین می‌کند)، برای یکی از کاربران ارسال می‌شود. پیام و سطح قابلیت اعتماد عمومیت دارد، در حالی ‌که، درستی یا نادرستی اطلاعات مشاهده نمی‌شود و کاربران در مورد این موضوع، باورهایی را شکل می‌دهند. با توجه به این باورها، کاربر مورد نظر تصمیم می‌گیرد که محتوای خبری را نادیده بگیرد، دوست نداشته باشد یا به اشتراک بگذارد. اگر به اشتراک گذاشته شود، خبر از کاربر به‌طور متوالی به ارتباطات او در رسانه‌های اجتماعی منتقل می‌شود که سپس با همان انتخاب‌ها روبه‌رو می‌شوند. اگر خبر نادیده گرفته شود یا مورد پسند نباشد، از کاربر عبور نمی‌کند. فرض می‌شود که کاربران زمانی که محتوای مشترکشان دوباره به اشتراک گذاشته می‌شود، مطلوبیت دریافت می‌کنند و در صورت نپسندیدن، متحمل هزینه می‌شوند. جنبه اول نقش تعامل مثبت در رسانه‌های اجتماعی را نشان می‌دهد، درحالی‌که دومی نشان‌دهنده از دست ‌دادن شهرت ناشی از انتقاد برای به‌اشتراک‌گذاری محتوای حاوی اطلاعات نادرست است. کاربران علاوه بر این، از انتقاد یا «نپسندیدن» مواردی که به عقیده آنها حاوی اطلاعات نادرست است، مطلوبیت کسب می‌کنند. در این مقاله تعادل بیزی-نش این بازی متوالی مشخص می‌شود. تعادل‌ها وجود دارند و در استراتژی‌های منقطع هستند- کاربر هر موردی را که فکر می‌کند درست است با احتمال زیاد به اشتراک می‌گذارد و محتوایی را که حاوی اطلاعات نادرست هستند، دوست ندارد. مواردی که دارای باورهای متوسط هستند نادیده گرفته می‌شوند. باورها در مورد صحت محتواها براساس قابلیت اعتماد و پیام محتوا و ایدئولوژی کاربر (قبلی) شکل می‌گیرد. در این مقاله ابتدا ثابت می‌شود که بازی مدنظر این مطالعه مکمل‌های استراتژیک را نشان می‌دهد: وقتی دیگران احتمال بیشتری برای اشتراک‌گذاری محتوایی دارند، هر کاربر نیز احتمال بیشتری دارد که این کار را انجام دهد. در نتیجه، نشان داده می‌شود که مجموعه تعادل‌ها یک شبکه را تشکیل می‌دهند، با تعادل‌های بیشترین اشتراک‌گذاری و کمترین اشتراک‌گذاری کاملاً تعریف‌شده. همه محتواهای مشابه و با قابلیت اطمینان پایین کمتر به اشتراک گذاشته می‌شوند، در حالی‌ که محتواهایی که «احساساتی» هستند (به دلیل محتوای تحریک‌آمیز یا جذابیت گسترده به دلایل دیگر) بیشتر به اشتراک گذاشته می‌شوند. سپس توجه به سمت انتخاب‌های طراحی الگوریتم پلت‌فرم معطوف می‌شود. فرض می‌شود که پلت‌فرم‌ها شبکه اشتراک‌گذاری کاربران را برای حداکثر کردن تعامل (که در خدمت افزایش درآمد از تبلیغات است) تعیین می‌کنند. هنگامی ‌که شبکه، حاوی کاربران همفکر هستند، میزان «هموفیلی» یا میزان اشتراک‌گذاری محتوا میان کاربران با ایدئولوژی‌های مشابه فراهم می‌شود. نتیجه اصلی این مقاله نشان می‌دهد که در حضور محتواهای با قابلیت اطمینان پایین (که احتمالاً حاوی اطلاعات نادرست هستند)، انتخاب الگوریتم به حداکثر رساندن تعامل، القای حداکثر هموفیلی است. در مقابل، با محتوای با قابلیت اطمینان بالا، این پلت‌فرم هیچ‌گونه ارتباط هموفیلی و حداکثری را ترجیح نمی‌دهد. این الگوی دوشاخه‌ای از انتخاب‌های الگوریتمی نشان‌دهنده عدم یکنواختی اساسی در الگوی این مقاله است. در شرایط برابر، هموفیلی بالا باعث کاهش انتشار محتوا و در نتیجه تعامل کاربر می‌شود. با این‌ حال، در مقابله با این، هموفیلی بالا باعث می‌شود که محتوای کم‌اعتماد از بررسی‌ها فرار کند، زیرا در میان افراد همفکری به اشتراک گذاشته می‌شود که مستعد موافقت با پیام آن هستند، بنابراین احتمالاً خودشان آن را به اشتراک می‌گذارند و بعید است که آن را دوست نداشته باشند. در مقابل، محتوای با قابلیت اطمینان پایین احتمالاً پسندیده نمی‌شود و احتمال کمتری دارد که در شبکه‌های متنوع ایدئولوژیک به اشتراک گذاشته شود. این غیریکنواختی نشان می‌دهد که در مواجهه با محتوای با قابلیت اطمینان پایین، پلت‌فرم ترجیح می‌دهد حباب‌های فیلتر تشکیل دهد: در این شرایط، اتاق‌های پژواک برای پلت‌فرم‌ها جذاب هستند، دقیقاً به این دلیل که محیطی ایجاد می‌کنند که در آن انتشار محتوای با قابلیت اطمینان پایین امن است. در نتیجه، حباب‌های فیلتر و انتشار خبر بدون منتقد زمانی که محتوای مربوط به احتمال زیاد حاوی اطلاعات نادرست باشد، شایع‌تر می‌شوند. استاتیک مقایسه‌ای حباب‌های فیلتر نیز به همان اندازه نگران‌کننده است. در این مقاله نشان داده می‌شود که وقتی جامعه از نظر سیاسی قطبی شده است و محتواها تفرقه‌بر‌انگیزتر هستند، پلت‌فرم‌ها به احتمال زیاد حباب‌های فیلتر را ترجیح می‌دهند (که باعث اختلاف بیشتر بین عوامل با ایدئولوژی‌های مختلف می‌شود). شهود این استاتیک مقایسه‌ای به منطق حباب‌های فیلتر مربوط می‌شود. با دوقطبی شدن سیاسی و تفرقه‌افکنی بیشتر، محتویات با قابلیت اطمینان پایین بیشتر مورد پسند قرار نمی‌گیرند و در شبکه‌های مختلف از نظر ایدئولوژیک پخش نمی‌شوند و پلت‌فرم‌ها را وادار می‌کنند، اتاق‌های پژواک را انتخاب کنند. اگر الگوریتم‌های پلت‌فرم اطلاعات نادرست را منتشر کنند، سیاست‌های عمومی می‌توانند از این نوع رفتار جلوگیری کنند. در قسمت پایانی مقاله، یک معیار رفاه اجتماعی مربوط به کسب اطلاعات تعریف می‌شود -فاصله متوسط بین باورهای کاربر و وضعیت واقعی- و مشخص می‌شود که به انتشار محتوای کم‌اعتماد مرتبط است. سپس چهار نوع مختلف از سیاست‌های نظارتی مورد بحث قرار می‌گیرد و در هر مورد، نشان داده می‌شود که چگونه ممکن است اطلاعات نادرست را کاهش دهند، اما همچنین به این احتمال اشاره می‌شود که اگر این مقررات به خوبی طراحی نشوند، می‌توانند نتیجه معکوس داشته باشند و مشکل را تشدید کنند. اول، به سانسور احتمالی تنظیم‌کننده به محتویات احتمالاً حاوی اطلاعات نادرست، نگاه می‌شود. در حالی که سانسور می‌تواند به کاهش انتشار اطلاعات نادرست کمک کند، یک اثر «حقیقت ضمنی» ایجاد می‌کند که به انتشار محتوای مشکوک که از سانسور فرار می‌کند کمک می‌کند. دوم، مقرراتی مورد بحث قرار می‌گیرد که پلت‌فرم‌ها را مجبور می‌کنند منشأ محتوا را فاش کنند و شناسایی محتوای حاوی اطلاعات نادرست را برای کاربران آسان‌تر می‌کند (به‌عنوان مثال، ادعاهایی که از منابع کمتر معتبری مانند InfoWars نشات می‌گیرند). اگرچه این مورد، به‌طور کلی مفید و گاهی قوی‌تر از سانسور است، اما مقررات منشأ می‌تواند به دلیل تاثیر حقیقت ضمنی مرتبط نتیجه معکوس داشته باشد، اما این‌بار به این دلیل که افراد به تایید محتوای سایر کاربران قبل از خود متکی هستند. سوم، «اهداف عملکرد» مورد بحث قرار می‌گیرد، جایی که تنظیم‌کننده محدودیت‌هایی برای میزان اطلاعات نادرست منتشرشده در پلت‌فرم قائل می‌شود. چنین اهدافی تمایل دارند که ترجیحات پلت‌فرم و تنظیم‌کننده را بهتر همسو کنند، اما اگر پلت‌فرم‌ها به‌طور مناسب نظارت و برای تخلفات مجازات نشوند، اهداف سخت می‌تواند انتشار اطلاعات نادرست را تشدید کند. در نهایت، نشان داده می‌شود که چگونه تنظیم الگوریتم‌های پلت‌فرم می‌توانند اطلاعات نادرست را کاهش دهند، اما اثرات غیریکنواخت هموفیلی نشان می‌دهد که چنین مقرراتی باید به خوبی سنجیده شوند.

آنچه در این مقاله آمد

این مقاله یک الگوی ساده از انتشار اطلاعات نادرست در بسترهای رسانه‌های اجتماعی معرفی می‌کند. گروهی از عوامل یا کاربران بیزی با پیشینه‌های ناهمگون، طبق یک شبکه اشتراک‌گذاری تصادفی که پلت‌فرم رسانه‌های اجتماعی تعیین می‌کنند، محتویات (اخبار) را دریافت کرده و به اشتراک می‌گذارند. محتویات ممکن است درباره یک وضعیت زیربنایی صادقانه و آموزنده باشند یا ممکن است حاوی اطلاعات نادرست باشند. پس از دریافت خبر، یک کاربر می‌تواند تصمیم بگیرد که آن را با دیگران به اشتراک بگذارد، آن را نادیده بگیرد، یا از کاربر دیگری به دلیل انتشار اطلاعات نادرست (نپسندیدن) انتقاد کند. اطلاعات نادرست زمانی پخش می‌شود که کاربران اخباری را به اشتراک می‌گذارند که انتظار بازخورد مثبت در رسانه‌های اجتماعی و واکنش‌های منفی کمی دارند. اگرچه این الگو ساده است، اما چندین تعامل استراتژیک غنی را در برمی‌گیرد. کاربران از به اشتراک‌گذاری اخبار واقعی و نه اطلاعات نادرست مطلوبیت کسب می‌کنند، اما از تعامل همتایان با محتوای به اشتراک گذاشته‌شده نیز لذت می‌برند. تطابق ایدئولوژیک بین یک فرد و کسانی که در شبکه اشتراک‌گذاری او هستند، که در اینجا با مفهوم هموفیلی معرفی شد، برای اشتراک‌گذاری تصمیمات حیاتی است. احتمال مخالفت افراد با اخباری که با عقاید قبلی آنها مخالف است بیشتر است، بنابراین یک کاربر در به اشتراک گذاشتن اخباری که با نظرات کسانی که در شبکه اشتراک‌گذاری او هستند مخالف است، محتاط‌تر خواهد بود. چهارچوب این مقاله، مطالعه قابل قبولی از انگیزه‌های پلت‌فرم را در طراحی الگوریتم‌هایی که تعیین می‌کنند فرد محتوا را با چه کسی به اشتراک می‌گذارد، ممکن می‌کنند. برای انجام این کار، فرض می‌شود که هدف پلت‌فرم به حداکثر رساندن تعامل کاربر است (که تقریب خوبی برای اهداف پلت‌فرم‌های رسانه‌های اجتماعی بزرگ مانند فیس‌بوک یا توئیتر است). نتیجه اصلی این مطالعه یک نتیجه قابل‌ توجه است. هنگامی که یک خبر بسیار قابل اعتماد است، پلت‌فرم یک شبکه اشتراک‌گذاری با حداقل هموفیلی را انتخاب می‌کند تا گسترش و جذابیت محتوا را در سراسر جامعه کاربر به حداکثر برساند. برخلاف این مورد، زمانی که اخبار مربوطه از قابلیت اطمینان کمتری برخوردار باشند، پلت‌فرم شبکه‌ای را با حداکثر هموفیلی انتخاب می‌کند و محتویات را به کاربران با باورهای همسو توصیه می‌کند. سپس این محتویات به‌سرعت در «حباب فیلتر» که الگوریتم‌های پلت‌فرم ایجاد کرده‌اند پخش می‌شوند- زیرا اکنون افرادی که از نظر ایدئولوژیک همفکر هستند، می‌دانند که بعید است در حال اشتراک‌گذاری اطلاعات نادرست در اتاق‌های پژواک خود مورد انتقاد قرار گیرند. در این مقاله همچنین مقرراتی با هدف بهبود رفاه کاربران پلت‌فرم مطالعه می‌شود. تعدیل محتوا، برای مثال سانسور اخبار با قابلیت اطمینان پایین، می‌تواند برخی از اطلاعات نادرست را حذف کند. با این حال، «احساس امنیت کاذب» را نیز ایجاد می‌کند و باعث می‌شود کاربران از کیفیت اخبار باقی‌مانده اطمینان بیشتری داشته باشند. به‌طور مشابه، فاش کردن منشأ یک خبر (به‌عنوان مثال، ارائه زمینه کامل برای نقل‌قول یا منابع واضح‌تر) می‌تواند مفید باشد، زیرا این اطلاعات اضافی به کاربران اجازه می‌دهد به‌راحتی محتوا را از لحاظ صحت بررسی کنند. با این ‌حال، این مداخله نیز می‌تواند نتیجه معکوس داشته باشد، زیرا نوعی سلسله‌مراتب اطلاعاتی ایجاد می‌کند: هر کاربر انتظار دارد که دیگران واقعیت را بررسی کنند و در تفحص خود سهل‌تر می‌شوند. اهداف عملکردی که به پلت‌فرم‌ها نیاز دارند تا بخش خاصی از پست‌های حاوی اطلاعات نادرست را حذف کنند، معمولاً موثر هستند، اما زمانی که اهداف درخواستی پلت‌فرم را وادار به انحراف از اهداف می‌کنند، می‌توانند نتیجه معکوس داشته باشند، با این امید که شناسایی نشوند. در نهایت، نشان داده می‌شود که تنظیم الگوریتم‌های پلت‌فرم، به‌عنوان مثال، در قالب استانداردهای تفکیک ایدئولوژیک، می‌تواند ابزار قدرتمندی در برابر حباب‌های فیلتر و اطلاعات نادرست باشد، اما باید به خوبی بررسی شوند. چهارچوب این مقاله به‌طور هدفمند انتخاب شد که ساده باشد و مهم‌تر از همه، فرض این مطالعه مبنی بر اینکه کاربران منطقی بیزی هستند باید به‌عنوان یک معیار مفید در نظر گرفته شود. 

دراین پرونده بخوانید ...