شناسه خبر : 45196 لینک کوتاه
تاریخ انتشار:

هوش مصنوعی و رای‌گیری

چگونگی تاثیرگذاری هوش مصنوعی بر انتخابات 2024

فرض بر آن است که سیاست به اقناع بستگی دارد اما تبلیغات همیشه آن را زیر نفوذ داشته‌اند. برگزارکنندگان کارزارها نیت واقعی خود را پنهان و در موضوعات اغراق می‌کنند و اغلب دروغ می‌گویند. آنها با هر ابزار موجود دروغ‌های مختلف، از وقیحانه تا مصلحتی را به دیگران انتقال می‌دهند. توطئه‌چینی‌ها علیه واکسن زمانی به جای پادکست‌ها از طریق جزوه‌های کاغذی انتشار می‌یافت. یک قرن قبل از شیوع کووید‌19، مخالفان ماسک زدن در دوران آنفلوآنزای اسپانیایی کارزاری سرشار از اطلاعات غلط به راه انداختند. آنها پیام‌های جعلی از جراحان عمومی را با استفاده از تلگراف (نه اپلیکیشن‌های هوشمند) پخش می‌کردند. از آنجا که مردم فرشته نیستند، انتخابات هیچ‌گاه از دروغ و باورهای غلط خالی نبوده‌اند.

اما در حالی که جهان به مجموعه انتخابات سال‌ 2024 می‌اندیشد چیزی جدید ذهن‌ها را به خود مشغول می‌دارد. در گذشته همیشه این انسان‌ها بودند که اطلاعات غلط را می‌ساختند. اما اکنون پیشرفت‌های هوش مصنوعی زایشی با الگو‌هایی که قادرند با کوچک‌ترین علامت مقالات پیچیده و تصاویری واقع‌گرایانه خلق کنند امکان انجام تبلیغاتی ترکیبی را فراهم کرده‌اند. این نگرانی وجود دارد که پخش اطلاعات غلط در سال 2024 شدت گیرد. چند کشور با مجموع جمعیت بیش از چهار میلیارد شامل آمریکا، بریتانیا، هند، اندونزی، مکزیک و تایوان خود را برای رای‌گیری آماده می‌کنند. شهروندان این کشورها تا چه اندازه باید نگران باشند؟

لازم است دقیقاً تعیین شود که ابزارهای هوش مصنوعی زایشی از قبیل چت جی‌پی‌تی قادر به انجام چه کارهایی هستند. تا قبل از پیدایش این ابزارها هم اطلاعات غلط یکی از مشکلات در دموکراسی‌ها بود. نظریه غلط تقلب در انتخابات ریاست‌جمهوری سال 2020 آمریکا در 6 ژانویه معترضان را به ساختمان مجلس کشاند اما این نظریه را دونالد ترامپ، بزرگان جمهوریخواه و رسانه‌های عمومی محافظه‌کار با استفاده از ابزارهای متعارف نشر دادند. کنشگران حزب بهاراتیا جاناتا در هند شایعات را از طریق واتس‌اپ پخش می‌کردند. تبلیغاتچی‌های حزب کمونیست چین هم با استفاده از ابزارهای رسانه‌ای جدید و ظاهراً مشروع اخبار مورد نظرشان را به تایوان می‌رساندند. تمام این امور بدون ابزارهای هوش مصنوعی زایشی انجام می‌گرفت. 

الگو‌های زبانی بزرگ در سال 2024 چه تغییراتی ایجاد می‌کنند؟ یک موضوع به کمیت اطلاعات غلط مربوط می‌شود. اگر حجم این اطلاعات هزار یا 100 هزار برابر شود ممکن است مردم را ترغیب کنند تا به گونه‌ای دیگر رای دهند. نگرانی دوم به کیفیت بازمی‌گردد. جعلیات عمیق (دیپ فیک) که ظاهری بسیار واقعی دارند می‌‌توانند قبل از افشای ماهیت صوت، تصویر و عکس‌های جعلی بر رای‌دهندگان تاثیر بگذارند. هدف‌گیری ریز عامل سوم نگرانی است. با وجود هوش مصنوعی ممکن است رای‌دهندگان در معرض انبوهی از تبلیغات شخصی‌شده قرار گیرند. تشخیص و شناسایی شبکه‌های تبلیغاتی روباتی مشکل‌تر از شناسایی شبکه‌های کنونی پخش اطلاعات غلط خواهد بود. اعتماد رای‌دهندگان به همشهریانشان که در آمریکا چند دهه روبه‌ کاهش گذاشته است باز هم بیشتر آسیب می‌بیند چون مردم نسبت به همه چیز تردید خواهند داشت. 

ابزارهایی که متون و تصاویر جعلی باورپذیر می‌سازند از چند دهه قبل در دسترس بوده‌اند. هوش مصنوعی زایشی می‌تواند در نیروی کار لازم صرفه‌جویی کند اما فقدان آن محدودیتی برای تولید اطلاعات غلط ایجاد نمی‌کند. الگوریتم‌های نوین تصویرسازی بسیار کاربردی هستند اما بدون دخالت انسان ممکن است تصاویری از افرادی با شش انگشت در دستان خلق کنند. این بدان معناست که امکان شخصی‌سازی جعلیات عمیق در زمان حال بعید است. حتی اگر این تاکتیک‌های مبتنی بر هوش مصنوعی موفق عمل کنند احزاب و گروه‌های مختلف به آنها روی می‌آورند و مجموع تلاش‌های آنها باعث می‌شود تا شبکه‌های اجتماعی پرازدحام و غیرقابل بهره‌برداری شوند. افزایش بی‌اعتمادی‌ها به نفع هیچ‌کدام از طرف‌ها نخواهد بود. 

سکوهای رسانه‌های اجتماعی و بنگاه‌های هوش مصنوعی ادعا می‌کنند که به این موضوع توجه دارند. اوپن‌ای‌آی شرکت اداره‌کننده چت جی‌پی‌تی می‌گوید، کاربری‌ها را رصد می‌کند تا فعالیت‌های تاثیرگذار بر سیاست را شناسایی کند. سکوهای فناوری‌های بزرگ که به خاطر نشر تبلیغات غلط در انتخابات 2016 و 2020 مورد نکوهش قرار گرفتند اکنون بهتر می‌توانند حساب‌های مشکوک را شناسایی کنند. آلفابت و بتا استفاده از رسانه‌های دستکاری‌شده را در تبلیغات سیاسی ممنوع کرده‌اند و می‌گویند به سرعت در برابر جعلیات عمیق واکنش نشان خواهند داد. دیگر شرکت‌ها تلاش می‌کنند یک استاندارد فنی برای اثبات واقعی بودن تصاویر و ویدئوها بسازند.

اما نظارت داوطلبانه محدودیت و نظارت غیرداوطلبانه خطراتی دارند. الگو‌های دارای منبع باز مثل لاما (Llama)، تولیدکننده متن، را می‌توان بدون نظارت به کار برد. همچنین تمام سکوها  شرایط یکسانی ندارند. شرکت رسانه اجتماعی و پخش ویدئویی تیک‌تاک به دولت چین وابسته است و به گونه‌ای طراحی‌ شده که پخش گسترده محتوا از هر منبع از جمله حساب‌های جدید را امکان‌پذیر می‌کند. توئیتر (ایکس کنونی) پس از مالکیت ایلان ‌ماسک بر آن تیم نظارتی خود را کوچک‌تر کرد و اکنون بهشتی برای روبات‌ها به‌شمار می‌رود. آژانس ناظر بر انتخابات آمریکا الزام افشاگری برای کارزارهایی را که از تصاویر ترکیبی استفاده می‌کنند بررسی می‌کند. این کاری منطقی است هرچند شاید بازیگران شرور از آن پیروی نکنند. برخی در آمریکا خواستار سیستم نظارت شدید بر سبک چین هستند که در آن الگوریتم‌های هوش مصنوعی باید در یک سازمان دولتی به ثبت برسند و ارزش‌های تخصصی اصلی را رعایت کنند. اما این نوع کنترل شدید جلوی برتری آمریکا در نوآوری‌های هوش مصنوعی را می‌گیرد. 

سیاست هیچ‌گاه خالص نیست

جبرگرایی فنی که تمام نقاط ضعف افراد را به ابزارهای مورد استفاده آنها ربط می‌دهد مفهومی وسوسه‌کننده اما غلط است. باید به توان بالقوه هوش مصنوعی زایشی در اخلال در دموکراسی‌ها توجه کرد اما نیازی به ترس و اضطراب نیست. تا قبل از پیشرفت‌های فناوری دو سال اخیر، افراد می‌توانستند انواع دیدگاه‌های مخرب و وحشتناک را به یکدیگر انتقال دهند. کارزار ریاست‌جمهوری 2024 آمریکا تحت تاثیر اطلاعات غلط مربوط به حاکمیت قانون و یکپارچگی انتخابات قرار خواهد گرفت اما بانی آن ابزار جدیدی مانند چت جی‌پی‌تی نیست، بلکه فردی مانند دونالد ترامپ خواهد بود. 

دراین پرونده بخوانید ...