شناسه خبر : 44203 لینک کوتاه
تاریخ انتشار:

فناوری و جامعه

نگرانی منطقی درباره هوش مصنوعی

فناوری و جامعه

آیا ما باید تمامی مشاغل از جمله مشاغل پایه را خودکارسازی کنیم؟ آیا باید مغزهایی غیرانسانی پرورش دهیم که در نهایت از خود ما پرتعدادتر و باهوش‌تر شوند و جای ما را بگیرند؟ آیا باید خطر از دست دادن کنترل تمدنمان را بپذیریم؟ اینها پرسش‌هایی هستند که ماه گذشته از موسسه مردم‌نهاد «آینده زندگی» پرسیده شدند. در این نامه سرگشاده درخواست شد شش ماه در خلق هوش مصنوعی درنگ شود. بزرگانی از جمله ایلان‌ ماسک از امضاکنندگان نامه بودند. این نامه آشکارا نشان می‌دهد چگونه پیشرفت سریع در هوش مصنوعی نگرانی‌هایی را درباره خطرات بالقوه فناوری برانگیخته است. 

الگو‌های زبانی بزرگ (LLMs) جدید که محرک چت‌جی‌پی‌تی هستند با استعدادهای غیرمنتظره‌ای که در زمان توسعه آشکار شد حتی پدیدآورندگان‌شان را غافلگیر کرده‌اند. این‌گونه توانایی‌های نوظهور همه چیز از حل معماهای منطقی تا نوشتن کدهای کامپیوتری را دربر می‌گیرد. 

این الگو‌ها رابطه انسان‌ها با کامپیوترها، دانش و حتی با خودشان را متحول می‌کنند. طرفداران هوش مصنوعی از توانایی بالقوه آن در حل مسائل بزرگ، تولید داروهای جدید، طراحی مواد جدید برای مقابله با تغییرات اقلیمی یا حل پیچیدگی‌های نیروی هسته‌ای صحبت می‌کنند. از نظر دیگران، این حقیقت که توانمندی‌های هوش مصنوعی از حد درک خالقان آنها فراتر رفته است این خطر را ایجاد می‌کند که سناریوی فاجعه‌بار علمی-تخیلی ماشینی پدیدار شود که از مخترع خودش باهوش‌تر می‌شود و عواقب مرگباری به بار می‌آورد. 

این ترکیب حباب‌آلود هیجان و ترس باعث می‌شود نتوان فرصت‌ها و مخاطرات را در مقابل یکدیگر سنجید. اما می‌توان از صنایع دیگر و همچنین تحولات گذشته فناوری درس‌هایی آموخت. چه چیزهایی تغییر کرده‌اند که هوش مصنوعی تا این اندازه پراهمیت شده است؟ ما تا چه اندازه باید نگران باشیم؟ و دولت‌ها چه کاری باید انجام دهند؟ 

ما عملکرد الگو‌های زبانی بزرگ و مسیر آینده آنها را بررسی می‌کنیم. اولین موج سامانه‌های جدید هوش مصنوعی که یک دهه قبل پدیدار شد و داده‌های آموزشی با دقت برچسب‌خورده متکی بود. وقتی تعدادی کافی از نمونه‌های برچسب‌خورده به آنها داده می‌شد آنها می‌توانستند اموری مانند شناسایی تصاویر یا نوشتن متن سخنرانی‌ها را به انجام رسانند. سامانه‌های امروزی به برچسب نیاز ندارند، در نتیجه می‌توانند با استفاده از مجموعه‌ داده‌های بسیار بزرگ‌تری که از منابع آنلاین گرفته می‌شوند آموزش ببینند. الگو‌های زبانی بزرگ در عمل می‌توانند از کل اینترنت آموزش بگیرند و همین قابلیت‌های خوب و بد فراوان آنها را توضیح می‌دهد.

این قابلیت‌ها در زمان معرفی چت‌ جی‌پی‌تی در ماه نوامبر برای عموم مردم آشکار شدند. ظرف یک هفته یک میلیون و در دو ماه 100 میلیون نفر از آن استفاده کردند. خیلی سریع از آن برای نوشتن تکالیف مدارس و سخنرانی‌های مراسم عروسی استفاده شد. محبوبیت چت جی‌پی‌تی و اقدام مایکروسافت برای گنجاندن آن در موتور جست‌وجوی بینگ (Bing) شرکت‌های رقیب را بر آن داشت تا روبات‌های گفت‌وگوی (Chat bots) خود را عرضه کنند.

برخی از این روبات‌ها نتایجی عجیب و غریب ارائه دادند. چت بینگ به یک خبرنگار توصیه کرد که از همسرش جدا شود. یک استاد حقوق چت جی‌پی‌تی را به آبروریزی متهم کرد. الگو‌های زبانی بزرگ پاسخ‌هایی ارائه می‌دهند که روکشی از حقیقت دارند اما حاوی خطا یا مطالب ساختگی هستند. با وجود این، گوگل، مایکروسافت و دیگر بنگاه‌های فناوری این الگو‌ها را در محصولاتشان می‌گنجانند تا به کاربران در خلق اسناد و انجام دیگر وظایف یاری رسانند. 

شتاب‌گیری سریع توانمندی و مطلوبیت سامانه‌های هوش مصنوعی و آگاهی فزاینده از قابلیت‌ها و نقایص آنها این نگرانی را ایجاد می‌کند که هم‌اکنون فناوری آنقدر با سرعت پیش‌ می‌رود که نمی‌توان آن را به‌طور ایمن کنترل کرد. به همین دلیل است که درخواست برای توقف آن مطرح می‌شود و این نگرانی شدت می‌گیرد که هوش مصنوعی نه‌تنها مشاغل، واقعیت‌ها و اعتبار بلکه وجود انسانی را تهدید می‌کند.

انقراض؟ شورش؟

این ترس که دستگاه‌ها مشاغل را بگیرند چند قرن قدمت دارد. اما تاکنون فناوری همواره مشاغل جدیدی خلق کرده است که جای مشاغلی را که از بین رفته‌اند می‌گیرد. دستگاه‌ها فقط برخی وظایف را انجام می‌دهند نه همه آنها را، بنابراین تقاضای نیروی کار در مشاغلی بالا می‌رود که از عهده دستگاه‌ها ساخته نیست. آیا این دفعه شرایط متفاوت خواهد بود؟ وقوع جابه‌جایی ناگهانی در بازار کار را نمی‌توان رد کرد هرچند اکنون نشانه‌ای از آن دیده نمی‌شود. فناوری‌های گذشته جای کارگران غیرماهر را می‌گرفت اما الگو‌های زبانی بزرگ می‌توانند برخی وظایف کارکنان یقه‌سفید (اداری) از قبیل تلخیص اسناد و کدنویسی را انجام دهند. 

میزان مخاطرات بالقوه هوش مصنوعی موضوع مناظره‌های داغی بوده است. متخصصان نظرات متفاوتی دارند. در یک نظرسنجی از پژوهشگران هوش مصنوعی که در سال 2022 انجام گرفت 48 درصد عقیده داشتند که حداقل 10 درصد احتمال دارد که تاثیر هوش مصنوعی به شدت بد (مثلاً انقراض بشریت) باشد اما 25 درصد دیگر، چنین احتمالی را صفر می‌دانستند. نفر میانه این احتمال را پنج درصد برآورد می‌کرد. کابوس بزرگ آن است که یک هوش مصنوعی پیشرفته با اقداماتی از قبیل تولید سم یا ویروس یا تشویق انسان‌ها به انجام اقدامات تروریستی آسیب‌هایی در مقیاس وسیع ایجاد کند. برای این کار نیازی به مقاصد شرورانه نیست. پژوهشگران نگران آن‌اند که هوش مصنوعی در آینده اهدافی داشته باشد که با اهداف پدیدآورندگانش هماهنگ و هم‌راستا نباشد. 

این سناریوها را نباید نادیده گرفت اما تمام آنها حاوی گمانه‌زنی‌های فراوان و اندیشه‌ای فراتر از فناوری‌های امروز هستند. بسیاری تصور می‌کنند که هوش مصنوعی آینده به انرژی، پول و توان رایانشی دسترسی نامحدود خواهند داشت. عواملی که امروز محدودیت‌هایی واقعی هستند و می‌توان در آینده دسترسی هوش مصنوعی نامطلوب به آنها را برداشت. علاوه بر این، متخصصان در مقایسه با دیگر پیش‌بینی‌کنندگان درباره مخاطرات حوزه خودشان اغراق می‌کنند. تحمیل مقررات سنگین یا ایجاد وقفه امروز واکنشی بیش از حد تلقی می‌شود و ایجاد وقفه در عمل قابل اجرا نیست. 

مقررات‌گذاری لازم است اما باید دلایلی ملموس‌تر از نجات بشریت داشته باشد. سامانه‌های موجود هوش مصنوعی نگرانی‌هایی واقعی درباره یکجانبه‌نگری، حریم خصوصی و حقوق مالکیت معنوی ایجاد می‌کنند. با پیشرفت فناوری دیگر مشکلات هم آشکار می‌شوند. موضوع کلیدی آن است که بتوان بین دستاوردهای هوش مصنوعی و ارزیابی مخاطرات آن توازن برقرار کرد و سپس با آن سازگار شد. 

تاکنون دولت‌ها سه رویکرد مختلف در پیش گرفته‌اند. بریتانیا در یک انتهای طیف قرار دارد که رویکردی سبک و بدون نهادهای مقرراتی یا قوانین جدید اتخاذ کرده است اما مقررات موجود را به سامانه‌های هوش مصنوعی تعمیم می‌دهد. هدف دولت آن است که سرمایه‌گذاری را تشویق و بریتانیا را به یک ابرقدرت هوش مصنوعی تبدیل کند. آمریکا نیز از رویکردی مشابه پیروی می‌کند هرچند دولت بایدن در حال حاضر نظرات عمومی درباره شکل مقررات را جویا شده است. 

اتحادیه اروپا رویکرد سخت‌گیرانه‌تری دارد. این اتحادیه قانونی را معرفی کرد که کاربری‌های متفاوت هوش مصنوعی را بر مبنای میزان مخاطراتشان طبقه‌بندی می‌کند و با توجه به میزان مخاطره (مثلاً از توصیه موسیقی تا اتومبیل‌های خودران) پایشگری و افشای اطلاعات سخت‌گیرانه‌ای را الزامی می‌کند. برخی کاربری‌ها از قبیل تبلیغات غیرمستقیم و بیومتریک از راه دور به‌طور کامل ممنوع شده‌اند. بنگا‌ه‌هایی که مقررات را زیر پا بگذارند جریمه خواهند شد. این مقررات از دیدگاه برخی منتقدان بسیار شدید هستند.

برخی دیگر عقیده دارند رویکردها باید از این هم سخت‌گیرانه‌تر باشند. دولت‌ها باید هوش مصنوعی را همانند حوزه دارو و درمان بدانند که در آن یک مقام ناظر متعهد آزمایش‌های سخت و تایید اولیه قبل از توزیع را انجام می‌دهد. چین تا حدی از این روش پیروی و بنگاه‌ها را به ثبت محصولات هوش مصنوعی و اجرای بازبینی امنیتی قبل از توزیع آنها ملزم می‌کند. اما در چین سیاست بیشتر از ایمنی دخالت می‌کند: یک الزام کلیدی آن است که محصولات هوش مصنوعی بازتابی از «ارزش‌های هسته‌ای سوسیالیسم» باشند. 

چه می‌توان کرد؟ احتمالاً رویکرد سبک سهل‌گیرانه کافی نخواهد بود. اگر هوش مصنوعی همانند خودرو، هواپیما و دارو اهمیت داشته باشد (که قطعاً این‌گونه است) بنابراین مانند آنها به مقررات جدید نیاز دارد. الگوی اتحادیه اروپا تناسب بیشتری دارد هرچند نظام طبقه‌بندی آن پیچیده است و رویکردی مبتنی بر اصول انعطاف‌ بیشتری خواهد داشت. الزام افشا درباره چگونگی آموزش سامانه‌ها، چگونگی عملکرد آنها و چگونگی پایش آنها به همراه الزام بازرسی شبیه به مقرراتی است که در سایر صنایع اعمال می‌شوند.

این رویکرد می‌تواند با گذشت زمان و در صورت لزوم امکان تدوین مقررات شدیدتر را فراهم کند. شاید در آن زمان وجود یک مقام ناظر متعهد ضرورت پیدا کند. همچنین به پیمان‌های بین‌دولتی شبیه آنچه درباره سلاح‌های هسته‌ای وجود دارد نیاز پیدا شود. به ویژه اگر شواهدی منطقی دال بر وجود مخاطرات بزرگ وجود داشته باشد. دولت‌ها برای پایش مخاطرات می‌توانند نهادی طبق الگوی سرن (CERN) بسازند که یک آزمایشگاه فیزیک ذرات است. این نهاد می‌‌تواند ایمنی و اخلاقیات را در هوش مصنوعی بررسی کند چراکه شرکت‌ها به اندازه جامعه برای انجام چنین کاری انگیزه ندارند. 

این فناوری قدرتمند مخاطرات جدیدی ایجاد می‌کند اما فرصت‌های فوق‌العاده‌ای نیز به همراه می‌آورد. ایجاد توازن میان این دو به معنای گام برداشتن محتاطانه خواهد بود. یک رویکرد سنجیده در امروز می‌تواند بنیان‌هایی را بسازد که در آینده مقررات جدید بر روی آن نهاده شوند. هم‌اکنون زمان ساختن چنین بنیان‌هایی است. 

دراین پرونده بخوانید ...

پربیننده ترین اخبار این شماره

پربیننده ترین اخبار تمام شماره ها