شناسه خبر : 46746 لینک کوتاه
تاریخ انتشار:

هوش مصنوعی و دموکراسی

اقدامات دولت‌ها برای مقابله با اطلاعات غلط

 

 ترجمه: جواد طهماسبی

در یکی از روزهای نوامبر گذشته اولاف شولتس مردم آلمان را با یک اطلاعیه غیرمنتظره مورد خطاب قرار داد. ویدئویی حاوی پیام رهبر آلمان در وب‌سایتی که مشخصاً به همان هدف ساخته شده بود بارگزاری شد که بیان می‌کرد دولتش قصد دارد از دادگاه قانون اساسی آلمان بخواهد فعالیت حزب فاشیست «آلترناتیو آلمان» را که یک حزب سیاسی راست افراطی است ممنوع کند. فقط اینکه در آن ویدئو آقای شولتس واقعی نبود. گروهی از هنرمندان مبارز آلمانی با استفاده از هوش مصنوعی یک جعل عمیق (deepfake) ساخته بودند. جعل عمیق تصویر یا ویدئویی است که نرم‌افزار یادگیری ماشینی تولید می‌کند. درست چند ساعت پس از پخش ویدئو سخنگوی دولت دستکاری چنین ویدئوهایی و قابلیت آنها برای ایجاد نااطمینانی را محکوم کرد. مرکز ملی امنیت سایبری بریتانیا به تازگی هشدار داد که جعل عمیق می‌تواند با استفاده از اطلاعات نادرست هدفمند به گفتمان دموکراتیک و انتخابات پیش‌رو آسیب برساند. رای‌دهندگان عادی هم همزمان با سیاستمداران از این بابت نگران شده‌اند. طبق نظرسنجی سال گذشته موسسه ایپسوس (Ipsos) اکثر مردم در کشورهای زیادی از جمله آمریکا، بریتانیا و فرانسه عقیده دارند هوش مصنوعی وضعیت اطلاعات نادرست را بدتر خواهد کرد. با وجود این تردیدهای زیادی درباره واقعی بودن این خطر وجود دارد. جعل عمیق آقای شولتس با هوش مصنوعی پیشرفته‌ای ساخته شد، اما عدم هماهنگی در حرکات لب‌ها و صدای غیر‌طبیعی آن را لو داد. این امر در مورد اکثر جعل‌های عمیقی که در رسانه‌های اجتماعی پخش می‌شوند صحت دارد. آیا در مورد نگرانی‌های مربوط به ساخت اطلاعات نادرست از طریق هوش مصنوعی اغراق می‌شود؟ برخی متخصصان به مطالعاتی اشاره می‌کنند که قبل از پیدایش هوش مصنوعی انجام شده‌اند و نشان می‌دهند که پخش اطلاعات نادرست عمدتاً موفقیت زیادی ندارد. به عنوان مثال، کریس بیل، جامعه‌شناس دانشگاه دوک و همکارانش با بررسی کارزار پخش هماهنگ اطلاعات نادرست از سوی روسیه در توئیتر در سال 2017 به این نتیجه رسید که کارزار نتوانست در میان آمریکاییان تفرقه بیفکند. عدم تمایل عموم مردم به تغییر دیدگاه‌های سیاسی خود آن هم در واکنش به هر نوع اطلاعات را می‌توان نوعی موهبت به شمار آورد. هوش مصنوعی چشم‌انداز اطلاعات نادرست را تغییر می‌دهد، اما تاثیر آن بر رسانه‌های ایستا از قبیل متون و تصاویر با تاثیر آن بر صوت و تصویر تفاوت دارد. هوش مصنوعی نمی‌تواند کیفیت‌ رسانه‌های ایستا را بالا ببرد. مطالعات نشان می‌دهند که متون ساخت هوش مصنوعی در بهترین حالت اندکی از متون ساخت انسان قانع‌کننده‌تر هستند و خاصیت بیشتری ندارند. همچنین مدت‌ها قبل از پیدایش هوش مصنوعی، فتوشاپ می‌توانست تصاویر جعلی پیچیده‌ای بسازد. تنها تغییر ایجاد‌شده به کمیت مربوط می‌شود: هوش مصنوعی بسیار آسان‌تر می‌تواند انبوهی از اطلاعات نادرست را تولید و توزیع کند. الگوهای زبانی بزرگ عملاً بدون هیچ هزینه‌ای متون باکیفیت تولید می‌کنند. ابزارهایی مانند میدجرنی (Midjourney) حتی به کاربران تازه‌کار امکان می‌دهند تا با کمترین راهنمایی تصاویری واقع‌گرایانه بسازند. الگوهای زبانی بزرگ می‌توانند با نوشتن کدهای کامپیوتری فرآیند پخش اطلاعات نادرست را خودکار کنند. از این الگوها برای ساخت وب‌سایت‌های «اخبار جایگزین» استفاده می‌شود که واقعیت‌ها و دروغ‌ها را با یکدیگر ترکیب می‌کنند و به خاطر نگرانی‌های مربوط به سانسور نمی‌توان جلوی آنها را گرفت. بات‌های اجتماعی یعنی پروفایل‌هایی که از طریق هوش مصنوعی اداره می‌شوند می‌توانند الگوریتم‌ها را به گونه‌ای دستکاری کنند که انواع خاصی از محتوا را پیش ببرند. این بات‌ها در آینده می‌توانند به شخصیت‌های کامل آنلاینی تبدیل شوند که با کاربران ارتباط برقرار می‌کنند و با پیام‌های دقیق شخصی‌سازی‌شده آنها را هدف می‌گیرند. شاید هیچ‌کدام از این قابلیت‌ها برای منحرف کردن افکار عمومی کافی نباشند. اما این بدان معنا نیست که هیچ خبری وجود ندارد. سیاستمداران دیگر نمی‌توانند به سادگی شواهدی را جعلی بخوانند. بزرگ‌ترین نگرانی‌ها به رسانه‌های پویا مربوط می‌شوند. هوش مصنوعی علاوه بر افزایش کمیت مطالب جدید صوتی و تصویری کیفیت آنها را هم بالا می‌برد. در گذشته تولید ویدئوهای جعلی از شخصیت‌های دولتی به جز در استودیوهای هالیوود امکان‌پذیر نبود. اکنون به روزگاری رسیده‌ایم که در آن هر کسی می‌تواند با یک لپ‌تاپ شخصی به تولید چنین محتوایی اقدام کند. برندان نیهان (Brendan Nyhan) از کالج دارتموث در آگوست گذشته به نشریه اکونومیست گفت: «ما شواهد قانع‌کننده‌ای نداریم که نشان دهد جعل عمیق می‌تواند تاثیری در سیاست ایجاد کند.» اما فقط چند هفته بعد چنین موردی را در اسلواکی مشاهده کردیم. درست دو روز قبل از انتخابات سپتامبر 2023 یک جعل عمیق صوتی در رسانه‌های اجتماعی به گردش افتاد. این فایل که به سرعت پخش شد در ظاهر متعلق به میشل سیمکا، رهبر حزب ترقی‌خواه اسلواکی بود که در آن در مورد برنامه‌هایش برای تقلب در انتخابات صحبت می‌کرد. از آنجا که فایل در مهلت 48‌ساعته قبل از رای‌گیری پخش شد فرصتی برای انکار آن باقی نماند. حزب آقای سیمکا در جدالی سخت به حزب عوام‌گرای طرفدار روسیه آقای رابرت فیکو باخت. فاصله آنها فقط پنج واحد درصد بود. متخصصان نظرات متفاوتی درباره تاثیر اطلاعات نادرست ساخت هوش مصنوعی بر دموکراسی و انتخابات دارند و ممکن است مدتی طول بکشد تا این اختلاف دیدگاه‌ها برطرف شود. اما سیاستمداران نمی‌توانند منتظر بمانند تا گردوخاک‌ها فرو بنشیند. سرعت پیشرفت هوش مصنوعی آنقدر زیاد است که نمی‌توان «منتظر ماند و دید که چه می‌شود». آنها هم‌اکنون باید تصمیم بگیرند که حاضرند چه مقدار ریسک تهدید‌کننده گفتمان عمومی را بپذیرند. خوشبختانه چند روش مداخله وجود دارد که می‌توانند تاب‌آوری را افزایش دهند. اول، شرکت‌های هوش مصنوعی باید ابزارهای علامت‌گذاری و تشخیص بسازند که محتوای واقعی را از تولیدات هوش مصنوعی متمایز می‌کنند. این ابزارها باید واقعاً کارآمد باشند، چون ابزارهای کنونی به راحتی دور زده می‌شوند. این شرکت‌ها باید حق انتخاب داشته باشند: یا الگوهایی بسازند که از تولید انواع خاصی از محتوا -مثلاً ویدئوهای واقع‌نمایانه از شخصیت‌های دولتی- امتناع می‌کنند، یا راهی برای علامت‌گذاری مطمئن تولیداتشان پیدا کنند. دوم، این تمهیدات فنی باید با مداخلات آزمایش‌شده همراه باشند. از این مداخلات می‌توان به کارزارهای رسانه‌ای، ویدئوهای کوتاه یا بازی‌هایی اشاره کرد که مردم را از اهداف و راهبردهای کارزارهای اطلاعات نادرست آگاه می‌کنند و مقاومت افکار عمومی را در برابر اخبار جعلی بالا می‌برند. سوم، ما به سامانه‌های قوی پایشگری و ارزیابی‌های اشخاص ثالث نیاز داریم تا بر قابلیت‌های آینده الگوها نظارت کنند. به عنوان مثال، دولت‌ها باید بدانند الگوها چه موقع می‌توانند به طور خودکار کارزارهایی را از طریق بات‌های اجتماعی آنلاین به راه اندازند. بدون چنین نظارتی سیاست‌گذاران نمی‌توانند در صورت وخامت اوضاع به موقع وارد عمل شوند. 

دراین پرونده بخوانید ...