شناسه خبر : 45642 لینک کوتاه
تاریخ انتشار:

اندیشه قبل از اقدام

شکیبایی در نظارت بر هوش مصنوعی

اندیشه قبل از اقدام

آیا هوش مصنوعی همه را ما را به کشتن خواهد داد؟ برخی متخصصان فناوری از صمیم قلب باور دارند که پاسخ این پرسش مثبت است. در یک سناریوی کابوس‌وار، هوش مصنوعی در نهایت از بشر جلو می‌زند، کامپیوترها و کارخانه‌ها را در دست می‌گیرد و آسمان را از پهپادهای قاتل پر می‌کند. در سناریویی دیگر، الگو‌های زبانی بزرگ (LLMs) از آن نوعی که هوش مصنوعی زایشی از قبیل چت جی‌پی‌تی را توانمند کرده‌اند دانش ساخت سلاح‌های سایبری مخرب و عوامل بیماری‌زای جدید و مرگبار را در اختیار افراد بدطینت می‌گذارند. 

اکنون زمان آن است که با دقت به این سناریوهای وحشتناک بیندیشیم. نه به این خاطر که احتمال آنها بیشتر شده است. در واقع هیچ‌کس از احتمال بروز آنها خبر ندارد، بلکه به این دلیل که سیاستگذاران سرتاسر جهان به اقداماتی برای محافظت در برابر آنها فکر می‌کنند. اتحادیه اروپا در حال نهایی‌ کردن یک لایحه گسترده درباره هوش مصنوعی است. انتظار می‌رود کاخ سفید به زودی آیین‌نامه‌ای را در مورد الگو‌های زبانی بزرگ صادر کند. دولت بریتانیا نیز در اول و دوم نوامبر رهبران جهان و مدیران شرکت‌های فناوری را در «اجلاس ایمنی هوش مصنوعی» گردهم می‌آورد تا درباره خطرات شدید احتمالی الگوهای هوش مصنوعی به بحث و مذاکره بنشینند. 

دولت‌ها نمی‌توانند یک فناوری را که قادر است جهان را عمیقاً دگرگون کند نادیده بگیرند. همچنین، هر تهدید واقعی علیه بشریت را باید جدی گرفت. مقررات‌گذاران در گذشته بسیار کند عمل می‌کردند. بسیاری از آنها آرزو می‌کنند کاش در دهه 2010 زودتر برای نظارت بر رسانه‌های اجتماعی وارد عمل می‌شدند. آنها علاقه‌مندند که این‌بار دست پیش را داشته باشند. اما اقدام عجولانه هم می‌تواند خطرناک باشد. اگر سیاستگذاران سرعت بیش از حد داشته باشند ممکن است قواعد جهانی و نهادهایی را خلق کنند که مشکلات اشتباهی را هدف می‌گیرند؛ در برابر مشکلات واقعی اثربخشی ندارند و نوآوری را سرکوب می‌کنند.  این دیدگاه که هوش مصنوعی می‌تواند بشریت را منقرض کند هنوز کاملاً خیال‌پردازانه است. هیچ‌کس نمی‌داند چگونه ممکن است چنین تهدیدی واقعی شود. هیچ روش مشترکی وجود ندارد که تعیین کند چه چیزی خطرناک تلقی می‌شود یا بتواند الگوها را با معیاری برای خطرات ارزیابی کند. لازم است قبل از تدوین استانداردها و قواعد پژوهش‌های زیادی انجام شود. به همین دلیل است که شمار فزاینده‌ای از مدیران عامل حوزه فناوری می‌گویند که جهان برای بررسی هوش مصنوعی به یک نهاد همانند گروه بین‌دولتی تغییرات اقلیمی (IPCC) نیاز دارد که گرمایش جهانی را رصد می‌کند و علل آن را توضیح می‌دهد.  شتاب در مقررات‌گذاری با هدف پیشگیری از خطرات حاشیه‌ای می‌تواند توجه سیاستگذاران را از دیگر مشکلات شدید دور کند. شاید لازم باشد قوانین جدیدی برای کنترل استفاده از مطالب دارای حق کپی در آموزش الگوهای زبانی بزرگ وضع شود یا حقوق حریم خصوصی در زمان بررسی داده‌ها از طریق الگو‌ها رعایت شود. علاوه بر این، هوش مصنوعی می‌تواند تولید اطلاعات جعلی را ساده‌تر کند در حالی که این اطلاعات برای تمام جوامع مشکل‌آفرین هستند. همچنین مقررات‌گذاری شتاب‌زده می‌تواند رقابت و نوآوری را سرکوب کند. به خاطر محدودیت‌ منابع رایانشی و مهارت‌های فنی لازم، تعداد انگشت‌شماری از شرکت‌ها تاکنون موفق شده‌اند الگو‌های پیشتاز قدرتمند بسازند. مقررات جدید به سادگی می‌توانند جایگاه این شرکت‌ها را تثبیت کنند و جلوی رقبا را بگیرند. حداقل به این دلیل که بزرگ‌ترین سازندگان مدل‌ها در تدوین مقررات همکاری نزدیکی با دولت‌ها دارند. تمرکز بر خطرات بزرگ می‌تواند مقررات‌گذاران را نسبت به الگو‌های منبع باز حساس کند که به رایگان در دسترس و قابل تغییر هستند. تا همین اواخر، شایع شده بود که کاخ سفید قصد دارد شرکت‌ها را از توزیع الگو‌‌های پیشتاز منبع باز منع کند. بنابراین، اگر ثابت شود که آن خطرات واقعی نیستند محدودسازی الگو‌های منبع باز فقط یک منبع مهم رقابت را از میان برمی‌دارد. مقررات‌گذاران باید آماده باشند که در صورت لزوم به سرعت وارد عمل شوند اما نباید برای تدوین قواعد یا ساخت نهادهایی که ممکن است غیرضروری یا حتی مضر باشند عجله کنند. ما هنوز درباره مسیر هوش مصنوعی زایشی اطلاعات کافی نداریم که بخواهیم خطرات مربوط به آن را درک کنیم چه رسد به اینکه بخواهیم آن خطرات را مدیریت کنیم.

بهترین کاری که دولت‌ها در حال حاضر می‌توانند انجام دهند آن است که زیرساختارهایی را برای مطالعه فناوری و خطرات بالقوه آن بسازند و اطمینان یابند کسانی که بر روی این مساله کار می‌کنند منابع کافی در اختیار دارند. در جهان پراکنده امروز، ساخت نهادی شبیه به گروه بین‌‌دولتی تغییرات اقلیمی و توسعه آن کار دشواری خواهد بود اما نهادهایی مانند سازمان همکاری‌های اقتصادی و توسعه (OECD) و «نیروی اقدام پیشتاز هوش مصنوعی» بریتانیا که بر روی مسائل مرتبط با هوش مصنوعی کار می‌کنند و قصد دارند به تمام پیچ‌و‌مهره‌های الگو‌ها دسترسی داشته باشند می‌توانند همکاری نزدیکی با یکدیگر برقرار کنند.

شایسته است که دولت‌ها بر روی یک قانون عملکردی در برابر سازندگان الگو‌ها به توافق برسند که شبیه به تعهدات داوطلبانه‌ای باشد که کاخ سفید و 15 سازنده الگو امضا کرده‌‌اند. این امر سازندگان ‌الگو‌‌ها را متعهد می‌کند تا علاوه بر اقدامات دیگر، اطلاعات مربوط به چگونگی مدیریت خطرات هوش مصنوعی را به اشتراک گذارند. این تعهدات الزام‌آور نیستند اما جلوی اقدامات خودسرانه آزاد را می‌گیرند. باید از سازندگان الگو‌های منبع باز نیز خواست تا به این پویش بپیوندند. با پیشرفت هوش مصنوعی، مقررات‌گذاران نسبت به خطرات آگاهی بیشتری پیدا می‌کنند و در نتیجه می‌دانند کتاب قواعد آنها چه شکلی باید داشته باشد. در نهایت، یک نظام کامل شبیه نظام‌های دیگر فناوری‌های دگرگون‌کننده مانند نیروی هسته‌ای یا مهندسی زیستی خواهد بود. اما خلق چنین نظامی به زمان و اراده قوی نیاز دارد. 

دراین پرونده بخوانید ...