شناسه خبر : 44884 لینک کوتاه
تاریخ انتشار:

ساعت قیامت

دستاورد هوش مصنوعی در جنگ‌های هسته‌ای چیست؟

 

آسیه اسدپور / نویسنده نشریه 

روز و ساعت مشخص شد. یکشنبه 15 ژوئیه 1945. ساعت 11 شب به وقت کوهستان1. همه سرساعت در آلبوکرکی جمع شدند و کاروانی از اتوبوس، کامیون و خودروهای سواری به سمت صحرای نیومکزیکو به راه افتاد. خبرنگار نیویورک‌تایمز هم آمده بود. ویلیام لارنس، برخلاف عادتِ پیشرو بودن این‌بار روی میانی‌ترین صندلیِ اولین اتوبوسِ کاروان نشسته بود؛ شاید امن‌ترین صندلی. ولی قرار نبود امنیتی در کار باشد و ویلیام این را از صبح می‌دانست. هرچند کار از کار گذشته بود. او فقط باید چشم‌هایش را از جی. رابرت اوپنهایمر، می‌دزدید تا به مقصد برسند؛ به آلاموگوردو؛ به «بیابان مردگان» و لارنس، استاد این کار بود. خود را به خواب زد تا اتوبوس زیر سقف آسمانی سیاه با رعدوبرق‌های هرازگاهی ایستاد و جو هیرشفلدر، شیمیدان، با صدایی بلند گفت: «دستورات را دقیق انجام دهید. بمب که منفجر شد، روی زمین دراز بکشید. سرتان را پایین نگه دارید. مستقیماً به فلاش بمب نگاه نکنید. روی زمین بمانید تا موج انفجار بگذرد و اگر دوست داشتید از ضدآفتابی که تولید کرده‌ایم به صورت و بازوهایتان بمالید. ما سپیده‌دم، در ساعت ۵:29، «ترینیتی» را آزمایش می‌کنیم تا پیروز شویم یا سقوط کنیم و سفرمان، خلق جهانی جدید یا سفری به دنیای مردگان شود.» و آنها در عین پیروزی، سقوط کردند.

برف سیاه

اولین بمب اتمی که منفجر شد، آسمان شکافت. نوری عجیب، نه‌تنها آلاموگوردو که مکزیک، آریزونا و تگزاس را هم روشن کرد. ابری بزرگ، آسمان را گرفت. برفی سیاه و داغ تا روزها بر سر زمین بارید و باغ‌ها، برکه‌ها، آب‌انبارها و خانه‌ها را تا 100 مایل دورتر از محدوده بمباران پوشاند. گردوغبار رادیواکتیو نیز به سرعت در هوا شناور شد و آرام‌آرام حیوانات، پرندگان و آدم‌ها مُردند تا اوپنهایمر، با آنکه هیچ‌گاه نمی‌خواست دو عقرب را در یک بطری همخانه کند، به تعبیر خودش، با ساخت بمب اتمی، «ویشنو»، خودِ مرگ و ویرانگر دنیاها شود و لارنس، با داستان مضحکِ «انفجار تصادفی گازی غیرکشنده در یک زباله‌دانی» و سرپوش گذاشتن بر روی بمبی که فقط باید بخشی از پروژه منهتن و در آزمایشگاه لس‌آلاموس می‌ماند، به جهان خیانت کند؛ خیانتی که بعد از مسموم‌ کردن بازماندگان غیرنظامی آمریکایی به عنوان یک خسارت جانبی، دنیا را به سرعت حریص به دیستوپیایی عجیب کرد؛ و حالا، در عصر روبات‌ها، اربابان جهنم را از لابه‌لای رمان‌های تخیلی فیلیپ کی دیک، بیرون کشانده و از ماهیت دوگانه فرماندهی انرژی هسته‌ای ادغام‌شده با هوش مصنوعی، نه‌تنها راوی داستان‌هایی چون «زندگی در مرگ» شده است که حتی در پروژه تحقیقاتی «تشدید تعارض»، عملاً جهانی را به تصویر می‌کشد که در آن بی‌ثباتی ژئوپولیتیک دنیای رقابت‌های تسلیحاتی و تنش‌های هسته‌ای، انسان را فاکتور می‌گیرد و سرعت را بر ایمنی، درگیری را بر دیپلماسی و اقدام را بر تفاهم اولویت می‌دهد. به قدری ترسناک که با هر انفجار، ریزش رادیواکتیو و پالس‌های الکترومغناطیسی، دودی سیاه، نور خورشید را از نیم‌کره شمالی می‌گیرد و زمستان‌های هسته‌ای، از هر سه نفرِ باقی‌مانده روی زمین، دو نفر را نه راهی جهنم و بهشت که کلاً نابود می‌کند. یک تراژدی آخرالزمانی که اگر سران حکومتی دنیا آن را درک می‌کردند، قطعاً یک نفر هم اجازه شوخی کردن با آن را به خود نمی‌داد. چرا که «تشدید تعارض»، آن‌گونه که مکس تگمارک، بنیانگذار موسسه «آینده زندگی» می‌گوید، «نه شبیه شوخی چند روز قبل جو بایدن با هوش مصنوعی و «آبراهام لینکن» است، نه حس ناخوشایند و عجیب قدم زدن «دیگی داگ»، سگ روبات پلیس نیویورک در میدان تایمز را دارد و نه مانند عروسک‌های جنسی مشمئزکننده و انسان‌فریب است؛ بلکه تشدید تعارض و سرعت در رسیدن به ساعت صفر جهان، به همان صورتی که با جدیدترین سناریوی آینده‌نگری از فرماندهی هوش مصنوعی در فیلم هشت‌دقیقه‌ای «تشدید ساختگی/ مصنوعی» به تصویر کشیده می‌شود، عمیقاً ترسناک و دلهره‌آور است».

فرود پادشاه جهنم به زمین

فیلم «‌Artificial Escalation» به خوبی نشان می‌دهد که جهان آینده و جنگ‌های هسته‌ای هیچ شباهتی به گفتمان‌های عامه‌پسندی که فضای کافی را برای امیدهای مثبت، ترس‌های دیستوپیایی یا سندروم‌های ترمیناتوری فراهم می‌کنند، ندارد. دنیایی که در آن هوش مصنوعی با سیستم‌های فرماندهی، کنترل و ارتباطات هسته‌ای (NC3‌) ادغام شده است با خودکارسازی حلقه تصمیم‌گیری، هوش مصنوعی را بازیگر استراتژیک واقعی جنگ‌ها می‌کند و حتی می‌تواند تا کمتر از نیم‌قرن دیگر بشریت را نابود کند. اتفاقی که باورش سخت است و ممکن است هر کدام از ما از خودمان بپرسیم ولی چگونه؟ آنتونی آگویر، که کرسی ریاست‌جمهوری فاگین برای فیزیک اطلاعات را در دانشگاه کالیفرنیا دارد و یکی از بنیانگذاران موسسه آینده زندگی است، به این سوال، این‌گونه پاسخ می‌دهد: بیایید تصور کنید سال 2032 است. ایالات‌متحده و چین هنوز رقیب یکدیگر هستند. هر دو برای اینکه به فرماندهان نظامی خود اطلاعات بهتر و زمان بیشتری برای تصمیم‌گیری بدهند، هوش مصنوعی را در سراسر سیستم‌های فرماندهی، کنترل و ارتباطات هسته‌ای خود یکپارچه کرده‌اند. در عین حال، شی‌جین‌پینگ، رهبر چین، با «عملیات آزادی جزیره»، تصمیم گرفته است به تایوان حمله کند. او جنگنده‌های رادارگریز «اژدهای مقتدر» را در کنار انبوهی از پهپادهای نیمه خودمختار «لویال وینگمن»‌ و «چنگدو جی-۲۰‌»، برای انجام حملات سایبری و موشکی، در تایوان مستقر کرده است تا دفاع موشکی تایوان را از بین ببرد و عملاً تایپه در برابر محاصره نظامی و تحمیلی پکن بی‌دفاع بماند. اما یکدفعه و در بین حملات رعدآسای خود، پیامی از زیردریایی‌های خودران در سواحل تایوان مبنی بر حمله ناو آمریکایی دریافت می‌کند و ناگهان ارتباط انسانی با مرکز فرماندهی چین از دست می‌رود و پهپادها دیگر متوقف نمی‌شوند. پهپادهای خودمختار، بدون دریافت فرمان از نیروی دریایی چین، حملات خود را گسترده‌تر می‌کنند و باعث می‌شوند پدافند ضدپهپاد یواس‌اس رونالد ریگان، در یک گشت‌زنی معمول در دریای جنوبی چین، رفتار تهاجمی پهپادهای اژدر چینی را حمله نظامی تلقی کند و با اژدر، آنها را از ناو دور کرده و به کمک «رهگیرهای قاتل» نابودشان کند. یک اقدام مرسوم اما غیرقابل درک برای پهپادهای خودمختار که باعث یک سونامی تنبیهی از حملات انتحاری کامیکازه می‌شوند و دفاع ناوگان آمریکایی را آغاز جنگ قلمداد می‌کنند. برداشتی که برای آمریکا هم مشابه است و پنتاگون اجازه می‌دهد با بمب‌افکن راهبردی «نورثروپ گرامن بی-۲۱ ریدر» که به‌وسیله انبوهی از هواپیماهای جنگی بدون سرنشین «Little Buddy» پشتیبانی می‌شود و جدیدترین «کمک‌خلبان مجازی» مجهز به هوش مصنوعی «اسکای‌بورگ» را دارد به پایگاه دریایی یولین، محل استقرار زیردریایی‌های هسته‌ای چین و یکی از محافظت‌شده‌ترین تاسیسات نظامی روی زمین، حمله کند تا پهپادها رسماً جنگ هسته‌ای را آغاز کنند. جنگی که با ادغام هوش مصنوعی در «NC3‌» شروع شد اما مقصرانش از یک کاربر فردی - خواه یک سرباز یا یک واحد نظامی- به سطح بسیار گسترده‌تری از حکمرانی و تصمیم‌گیری، از جمله دولت به عنوان یک کل الگوریتم منتقل خواهد شد. تبعاتش چون افزایش سرعت و رشد نرخ جنگ، تشدید تصادفی، درک نادرست از نیت و قابلیت‌ها، فرسایش انسانی، بی‌ثباتی و آسیب‌پذیری انسانی در مسابقات تسلیحاتی انتحاری، به سرعت و با تشدیدی وصف‌ناشدنی دیگر کشورها به‌خصوص صاحبان بمب‌های اتمی را درگیر می‌کند. سوگیری و اثر اینشتلونگ از جنگ را تغییر می‌دهد. در کنار استفاده بدخواهانه تروریست‌ها، جنایتکاران یا دولت‌های فاسد، دامنه و سطوح وحشتناک مرگ، ویرانی و آسیب‌های روانی عمیق و غیرقابل تصور را بیشتر می‌کند و بشریت را بر لبه سقوط در جهنم می‌نشاند؛ گویی قرار است دوباره سامائل، زیباترین فرشته خدا از بهشت هبوط کند و به زمین بیاید تا پادشاه زمین جهنمی باشد. تعبیری که جولیا سیوکا، پژوهشگر سیاست دفاع فضایی آن را تحسین می‌کند. سیوکا، که بر الگوریتم لفاظی‌های سیاسی، جنگ ترکیبی روسیه و تاثیر هوش مصنوعی بر امور نظامی متمرکز است، باور دارد کاربردهای بدخواهانه از هوش مصنوعی به اندازه مجازات اربابان جهنم، برای نسل ما دردناک است و انسان‌زدایی از جنگ‌های هوشمند، سوگیری شناختی و اخلاق در جنگ دیجیتالی می‌توانند به خوبی چرایی آن را تبیین کنند. در حقیقت، نشان دهند که هوش مصنوعی با چه روشی بر ظرفیت ما برای تفکر پیرامون معضلات آزاردهنده سیاسی و اخلاقی جنگ مدرن تاثیر می‌گذارد، انسان‌ها چگونه پاشنه‌آشیل جنگ‌های مجهز به هوش مصنوعی می‌شوند و در پایان این سراشیبی لغزنده، فرماندهی مطلق هوش مصنوعی که ماحصلش کشتار، دیجیتالیسم تروریستی و جنگ‌های اتمی با تسلیحات خودمختار است، با چه سبک و روشی، اعتبار اخلاقی-نظارتی را از انسان‌ها می‌گیرد یا به گفته مت فیلد، سردبیر امنیت زیستی نشریه تخصصی دانشمندان اتمی، حفاظت از روان فردی، گروهی و عمومی را به صورت جدی به خطر می‌اندازد تا ناامنی روانی-اجتماعی منجر به ناکارآمدی، دوره گذار از نزاع‌های هوش مصنوعی ادغامی با «NC3‌» را نیازمند به‌کارگیری راهبردهای استراتژیک جنگ‌های هیبریدی کند. جنگ‌هایی که ترکیبی از هم‌افزایی سلاح‌های متعارف، تاکتیک‌های نامنظم، تروریسم و فعالیت‌های مجرمانه در همان فضای نبرد را توام با هم دارند.

خنجر گم‌شده عزرائیل

81اما آیا دستاوردهای جنگ‌های هیبریدی واقعاً تاثیرگذارند و می‌توانند در بعد آسیب‌های روانی عمیق هم کمک کند؟ فرانک هافمن، محقق مرکز تهدیدات و فرصت‌های نوظهور (CETO)، در تک‌نگاری «درگیری در قرن بیست‌ویکم: ظهور جنگ‌های ترکیبی»، با مونوگرافی از جنگ‌های هیبریدی، استدلال می‌کند تا ما طرز فکر خود را با توجه به فراوانی نسبی و تهدیدات درگیری‌های آینده اصلاح نکنیم، به پیامدهای ماهیت مبهم جنگ‌های مدرن و ادغامی با هوش مصنوعی پی نخواهیم برد و چشم‌انداز «چشم‌های بدون پلک»‌، برتری اطلاعات، حملات ایستاده و پیوندهای حساس به شلیک‌های سریع و تهاجمی‌تر، نمی‌تواند برنامه‌های تحول نظام دفاعی و امنیتی کشورهایمان را حتی برای بیش از یک دهه به پیش ببرد و «مه جنگ» را با تسلط اطلاعاتی نابود کند؛ چون برداشت سطحی ما از آینده نشان می‌دهد دشمنان آینده یا حتی همان اغراق‌شده‌های داستان‌های تخیلی، باهوش‌تر از آنی هستند که فکر می‌کنیم و به‌ندرت خود را به یک ابزار در یک جعبه محدود می‌کنند. کمااینکه چالش‌های تروریستی متعارف، نامنظم و فاجعه‌بار، سبک‌های متمایزی نیستند. همه آنها به شکلی حفظ خواهند شد و محو شدن حالت‌های جنگی، اینکه چه کسی می‌جنگد و چه فناوری‌هایی به کار برده می‌شوند، طیف وسیعی از تنوع و پیچیدگی را ایجاد می‌کند که آن را باید «جنگ‌های ترکیبی هوشمند» بنامیم. جنگ‌هایی که می‌توانند توسط بازیگران غیردولتی هم رخ دهند. طیفی از حالت‌های مختلف مانند قابلیت‌های متعارف، تاکتیک‌ها و تشکل‌های نامنظم، اقدامات تروریستی از جمله خشونت و زور بی‌رویه و بی‌نظمی جنایی را در بر بگیرند. فعالیت‌های چندوجهی را با واحدهای جداگانه یا حتی توسط یک واحد انجام دهند، از نظر عملیاتی و تاکتیکی در فضای اصلی نبرد برای دستیابی به اثرات هم‌افزایی، مجهز به هوش مصنوعی و تسلیحات کددار شوند و متناسب با اینکه در چه سطحی از حوزه هوش مصنوعی رخ خواهند داد، اثرات روانی و آسیب‌های زیستی عمیق یا دامنه‌داری ایجاد کنند؛ و این یعنی ما دیگر نمی‌توانیم آسیب‌پذیری‌های فردی (جسمی-روانی)، گروهی و نظامی خود را انکار کنیم یا تخیلات مخالفانمان از جنگ‌هایی را که در آنها کنترل و فرماندهی با هوش مصنوعی ادغام شده است دست‌کم بگیریم. همان‌گونه که دیگر نمی‌توانیم در میان سیاست‌های دفاعی و امنیتی‌مان بر این مهم سرپوش بگذاریم که اینک بازیگران دولتی و غیردولتی توانایی خرید هواپیماهای بدون سرنشین را دارند و می‌توانند آنها را با عوامل هسته‌ای، شیمیایی و بیولوژیکی مسلح کنند یا اکنون 65بازیگر غیردولتی در جهان قادر به استقرار، نگهداری و تولید هواپیماهای بدون سرنشین نظامی هستند. بازار پهپادهای کوچک و میکرو با وزن 200 گرم تا 50 کیلوگرم چندین برابر شده است و تا سال 2024 ارزش بازار هواپیماهای بدون سرنشین می‌تواند به 43 میلیارد دلار برسد. یا اینکه، با سلاح‌های مرگبار و روبات‌های قاتل، پس از باروت و تسلیحات هسته‌ای، «انقلاب سوم در جنگ‌های جهانی» در حال رخ دادن است، تاکتیک‌های تروریستی جدیدی ابداع شده و برای داشتن سلاح‌های کاملاً خودمختاری که هنوز به میدان‌های جنگ جهان نرسیده‌اند، نزاع‌های رقابتی زیادی شکل گرفته است. مثلاً، کره جنوبی روبات قاتل اتوماتیک (‌SGR-A1‌) سامسونگ را مدت‌هاست در مرز خود با کره شمالی مستقر کرده و آماده استفاده از آنهاست. یا آمریکا، تفنگداران دریایی را در کنار روبات‌های انسان‌نمایی که به صورت خودکار توانایی هدف‌گیری و شلیک بی‌نقص دارند در صحرای کالیفرنیا تمرین می‌دهد. اسرائیل با پهپاد انتحاری «هارپی» که یک هواپیمای بدون سرنشین ضدتشعشع یا رادار محسوب می‌شود و می‌تواند به‌طور خودکار امواج رادیویی را پایش و با کوبیدن خود به هدف، آن را نابود کند، ساعت‌ها پرسه‌زنی هوایی می‌کند و روسیه، تانک‌هایی را توسعه داده است که قادر به عملیات مستقل و خودکار در هر نوع جغرافیا یا شرایط آب‌و‌هوایی هستند؛ و همه آنها در کنار هم دلیل نگرانیِ ازدحام هزاران یا میلیون‌ها روبات قاتل کوچک و بزرگی شده‌اند که خوراک تروریست‌های قاتل و بالقوه ویرانگرند. نگرانی که ماکس تگمارک آن را به بهترین شکل خلاصه می‌کند: «اگر بتوان یک میلیون پهپاد قاتل را از پشت یک کامیون به هوا فرستاد یا روی زمین به حرکت درآورد، آن‌گاه بشر یک سلاح هولناک کشتار جمعی کاملاً جدید خواهد داشت که می‌تواند به طور انتخابی فقط یک نفر یا یک جهان را از بین ببرد. دقیقاً شبیه به همان اتفاق و سناریوی دراماتیزه‌شده (‌Slaughterbots) از آینده‌ای نزدیک که در آن هزاران میکروپهپاد در سالن‌های سخنرانی دانشگاه بریتانیا یا در کاپیتول‌هیل به مردان سیاسی حمله کردند و آنها را کشتند تا نگرانی از کاربرد تسلیحات خودمختار ملموس‌تر شود و درجات خودمختاری کشنده، پرسپکتیوِ جهنم در زمین را بهتر کند و نمایی واضح از محافظ درهای آن به ما بدهد. آنچنان واضح که گویی همگی منتظر خنجرِ گم‌شده عزرائیل‌ هستیم.» 

پی‌نوشت:

 1- در طول جنگ جهانی دوم، نام رسمی (زمان جنگ) برای تمام طول سال استفاده می‌شد و متناسب با روز، شب و جغرافیا، پسوندهای مختلفی می‌گرفت. مثل، زمان جنگ شرقی (EWT) که معادل زمان روشنایی روز شرقی در این دوره بود.

دراین پرونده بخوانید ...