شناسه خبر : 44547 لینک کوتاه
تاریخ انتشار:

خون بازی

هم‌پیمانی هوش مصنوعی و اقتصاد اسلحه چگونه انسان‌ها را هدف قرار می‌دهد؟

 

آسیه اسدپور / نویسنده نشریه 

78چقدر می‌ترسید؟ کم یا زیاد؟ اهمیتی ندارد. ما اکنون در جایی از تاریخ ایستاده‌ایم که ترس برایمان خوب، بد و کاربردی است. ترس برای ما، مکانیسم امنیت‌سازی است. منطق امنیتی-نظامی دارد. آمادگی دفاعی برای هر نوع تهدیدی را توجیه یا تایید می‌کند. به درک سنتی نظامی-سیاسی دولت‌ها از امنیت برای تحکیم ستون فقرات سیاسی، بها می‌دهد. تجارت‌ساز است. با گفتمان‌هایی از دنیای پر از تهدیدات، تصویری مشروع به سلاح‌ها و ارتش‌ها می‌بخشد. سطوح بالای نظامی‌سازی و هزینه‌های دفاعی را توجیه می‌کند. با کمک پروژه‌های ایدئولوژیک نومحافظه‌کاران -که عمدتاً از صنایع نظامی ایالات متحده تامین مالی می‌شوند- دولت‌های «پیشرو» یا لیبرال‌تر را به نظامی‌سازی بیشتر می‌کشاند. سیاستمداران، سرمایه‌گذاران، مخترعان، تولیدکنندگان، صادرکنندگان و مردم را به جریان‌های اصلی اقتصاد اسلحه تبدیل می‌کند. حتی از ورای سودآوری صنعت تسلیحاتی، عادی‌سازی جنگ و استفاده از سلاح برای دستیابی به اهداف سیاسی و گاه بشردوستانه را به طرز غم‌انگیزی تسهیل می‌کند و به برخی از دولت‌ها اجازه می‌دهد تا لابی‌گرها، رسانه‌ها، شرکت‌های نظامی و اندیشکده‌های امنیتی، تخصیص اعتبارات میلیاردی، فروش تجاری واسطه‌ای تسلیحاتی، تبانی بین سازندگان اسلحه و سیاستمداران، جنگ و مهم‌تر از آن تلفات انسانی درگیری‌های مسلحانه را عادی‌سازی کنند. کاری که باعث شده است بودجه و هزینه‌های وزارتخانه‌های دفاع برای حمایت از صنایع نظامی، انواع عملیات جنگی و حمایت از نیروهای شبه‌نظامی به بالاترین سطح خود از زمان پایان جنگ سرد برسد.

اژدهای سیاه‌چاله‌ها

طبق پانورامای «‌MarketWatch»‌، پایگاه داده انتقال تسلیحات «‌SIPRI»‌ و ارزش شاخص روند «TIV» موسسه تحقیقات صلح بین‌المللی استکهلم، درآمد جهانی بازار اسلحه‌های کوچک مانند تپانچه، تفنگ، مسلسل فرعی، تفنگ تهاجمی و مسلسل سبک با نرخ رشد مرکب سالانه 15 /4 درصد، تا سال 2028 از 39 / 8072 میلیون دلارِ سال 2022 به بیش از 38 / 10305 میلیون دلار ارزش می‌یابد. بودجه دفاعی جهان که سال گذشته تقریباً چهار درصد به‌صورت واقعی افزایش یافت و به بیش از دو تریلیون دلار رسید، فقط در چین، به صورت واقعی تا سال 2035 بیش از 75 درصد رشد خواهد داشت، تا همین بازه زمانی، چین به سرعت زرادخانه خود را از چندصد کلاهک به 1500 کلاهک افزایش می‌دهد و به پشتوانه تولید ناخالص داخلی‌اش که نزدیک به 80 درصد تولید ناخالص داخلی آمریکاست، توانایی حمله به تایوان را در اوایل سال 2027 می‌یابد. یا آمریکا که فروش مستقیم نظامی خود را از 103 میلیارد دلار در سال مالی 2021 با 6 /48 درصد افزایش به 7 /153 میلیارد دلار در سال مالی 2022 رساند و فروش سازماندهی‌شده آن از طریق دولت به 9 /51 میلیارد دلار در سال 2022 افزایش یافت، سود حاصل از فروش تجهیزات نظامی‌اش به دولت‌های خارجی را با 49 درصد تا پایان سال 2023 به 6 /205 میلیارد دلار می‌رساند و از فروش تایید‌شده 9 /13 میلیارددلاری جنگنده F-15ID به اندونزی، 9 /6 میلیارد دلار کشتی‌های Multi-Mission Surface Combatant به یونان و شش میلیارد دلار تانک M1A2 Abrams به لهستان، در هوش مصنوعی و صنعت سیستم‌های سلاح‌های خودمختار «‌AWS» سرمایه‌گذاری خواهد کرد. در واقع آمریکا موقعیت ژئوپلیتیک جنگی و دفاعی‌اش را با این سرمایه‌گذاری و به کمک یکی از بزرگ‌ترین تلاش‌های نوپای خود برای پیشبرد هوش مصنوعی یعنی روبات‌های پرنده‌ای که به صورت مشترک با جت جنگنده اصلاح‌شده F-16 پرواز می‌کنند و همچنین برنامه محرمانه «سلطه هوایی» که امکان حمله مشترک یک هزار هواپیمای بدون‌سرنشین با 200 هواپیمای دارای خلبان را فراهم می‌کند، تقویت خواهد کرد. اقدامی که داگلاس شاو، مشاور ارشد ابتکار عمل تهدید هسته‌ای، آن را «جنگ مرگبار فناوری با انسان» می‌داند. جیمز جانسون در کتاب «هوش مصنوعی و بمب»، برای آن سناریوی یک جنگ هسته‌ای تصادفی در سال ۲۰۲۵ را ترسیم می‌کند که با هوش مصنوعی، بات‌ها و دیپ فیک‌ها، دنیا را از مرگ و نابودی می‌ترساند. کیت هارتلی، اقتصاددان برجسته دفاعی، آن را عامل تحول اقتصاد صنایع تسلیحاتی جهان با احتساب صرف حداقل هزینه 5 /1 تریلیون‌دلاری کشورهای آلمان، چین، آمریکا، روسیه، برزیل، کره، ژاپن، بریتانیا و اروپا برای خرید، فروش و صادرات تسلیحات که معادل 7 /2 درصد از تولید ناخالص داخلی دنیاست، می‌داند؛ و البته بارتلز، کولبر، دورن، هورست، پاولی و اشنایدر، محققان IR ‌، رفتار انسانی آن را پیش‌زمینه تغییر هولناک بسیاری از رهبران سیاسی و نظامی دنیا می‌دانند، آنچنان تلخ که گویی جنگ‌ها، بازی‌های نرم‌افزاری‌اند، تلفات انسانی هزینه جانبی بازی‌ها و تمرین‌های جنگی شبیه‌سازی شده و مجازی‌اند و نباید آنها را جدی گرفت.

رام کردن گرگ‌های آلفا

اما آیا واقعاً می‌توان چنین کاری کرد و حتی مرگ‌های تلخ حاصل از جنگ‌های کلاسیک را نادیده گرفت؟ آیا مرگ 150 هزار نفر در 50 درگیری مسلحانه، کشته شدن 384 هزار انسان به خاطر خشونت‌های نظامی و قتل 233 هزار انسان در جنگ‌های کلاسیک فقط طی یک سال، به قدری عادی است که بتوانیم در آینده‌ای نه‌چندان دور، تلفات بزرگ انسانی ناشی از جنگ روبات و انسان را اتفاقی غیرقابل کنترل شبیه فیلم آلمانی متروپلیس یا رمان دیستوپیایی فارنهایت 451 بدانیم؟ به گفته ژاکلین اشنایدر، مدیر ابتکار عمل در شبیه‌سازهای بحران و محقق فناوری‌های خودمختار و بازی‌های جنگی موسسهHoover ‌، قطعاً نمی‌توان پاسخ خوش‌بینانه‌ای به چنین سوالاتی داد. او که مبتکر 50 بازی جنگی است و تلاقی فناوری، امنیت ملی و جنگ‌های هسته‌ای را در پروژه تحقیقاتی «اشنایدر» معروف به «بازی جنگ» در هفت کشور بررسی می‌کند، معتقد است کنترل فناوری‌های مجهز به هوش مصنوعی در حوزه نظامی و تسلیحاتی مانند رام‌کردن گرگ‌های آلفا یا شیرهای وحشی با دست است، چون سیستم‌های تسلیحات خودمختار مرگبار برای عمل نیازی به کنترل انسانی ندارند، خطرات مرزی مهمی ایجاد می‌کنند و مقررات جهانی هم در مورد استفاده از آنها و هوش مصنوعی نظامی به شدت ناکافی است. بر همین مبنا، اگرچه پیشرفت‌های عمده در هوش مصنوعی منجر به تکمیل و توسعه سیستم‌های تسلیحاتی خودکار مرگ آفرین «LAWS»، با هدف شناسایی، درگیری و نابودی در جنگ، بدون کنترل انسانی و البته خوراک ادبیات علمی تخیلی و سینما شده‌اند، اما واقعیت دیگر حدس و گمان نیست و چه‌بسا عمیقاً ترسناک شده است. سیستم‌های هوش مصنوعی حالا می‌توانند به‌طور مستقل از داده‌ها استفاده و رفتار انسان را پیش‌بینی کنند. حتی اطلاعات جمع‌آوری کرده و ناظر باشند. اهداف بالقوه را شناسایی و تصمیم‌های تاکتیکی در نبردهای مجازی بگیرند. ساده‌تر بگویم استفاده از روبات‌ها در ارتش‌ها اینک در حال تبدیل شدن به انتخاب و یک فرآیند عادی است و جهش به سمت روبات‌های کاملاً خودمختار که حتی برای جنگ‌های هسته‌ای بهینه شده‌اند و خطرات مرزی بزرگی ایجاد می‌کنند، تخیل نیست، همان‌طور که بازی‌های جنگی عملاً تخیل نیستند و یک پیش‌زمینه فکری انسانی با سوگیری‌های متفاوت اجتماعی و روان‌شناختی دارند. مثلاً در «‌WarGames»، یک نوجوان دهه 1980، برنامه کنترل هسته‌ای ایالات‌متحده را هک و یک جنگ هسته‌ای را آغاز می‌کند. کاری که یک تصویر متداول از خطرات زرادخانه‌های هسته‌ای دیجیتالی فزاینده را نشان می‌دهد و تعیّن‌گر چیزی است که بسیاری از محققان و متخصصان آن را خطرناک‌ترین پیامد افزایش حملات سایبری متکی به AI و بی‌ثباتی در فرماندهی و ناتوانی در کنترل ارتباطات هسته‌ای دولت‌ها «NC3» می‌دانند و اعتقاد دارند مانند تحقیقات انجام‌شده در طول جنگ سرد حتی آسیب‌پذیری جدی دولت‌ها می‌تواند انگیزه‌ای کافی برای جلوگیری از پرتاب سلاح‌های هسته‌ای کلاسیک یا وابسته به AI باشد. از سویی چون هیچ تحقیق تجربی برای حمایت از چنین نتایجی وجود ندارد، دولت‌ها می‌توانند با دیدی متفاوت‌تر نسبت به سه سناریو درمان و یک سناریو کنترل بدون آسیب‌پذیری یا سوءاستفاده در بازی‌هایی شبیه اشنایدر یا همان «‌WarGames»، که طی ماه‌ها کار تجربی و آزمایشگاهی با نمونه‌ای از بازیکنان نخبه ایالات متحده و چند کشور منتخب، به دست آمده است، بپذیرند که رابطه بین فناوری‌های جدید، سیاست داخلی، قابلیت‌های نظامی متعارف و تهدیدات هسته‌ای، شبیه روابط بازی جنگ است. بازیکنان صنایع تسلیحاتی و نظامی باید در واقعیت نقش شبیه‌سازی‌شده تصمیم‌گیرنده را در کابینه‌های امنیت ملی داشته باشند و ببینند که فناوری‌های نوظهور چگونه به پارادایم‌های بازدارنده و تشدید بحران‌های جهانی واکنش نشان می‌دهند، فرهنگ، قوانین جهانی، حقوق بشردوستانه بین‌المللی، سوگیری‌های شناختی سیاسی-دفاعی و تخصص فناورمحور در برخورد با احتمالات جنگ‌های سایبری، نوسازی هسته‌ای و اسلحه‌های خودکار کوچک و بزرگ، چه نقشی دارند و «تئوری سیاست درهای باز» در هوش مصنوعی نظامی و اقتصاد اسلحه از سوی کدام‌یک از 37 شرکت اصلی تولید تسلیحات نظامی و هوافضا در جهان که مهم‌ترین آنها بوئینگ، هانی‌ول، لاکهید مارتین و جنرال داینامیکس هستند و در سال 2021 بالغ بر 903 میلیارد دلار بودجه از بیش از 500 بانک در 50 کشور گرفته‌اند یا 10 موسسه مالی اصلی درگیر و برتر در تجارت اسلحه که در ایالات متحده، فرانسه و بریتانیا مستقر هستند، می‌تواند مطرح شود؟ یا حتی فراتر از آن اصلاً امکانش وجود دارد؟

79

جبر ماهی قرمز قاتل

سیاست درهای باز، بیانیه‌ای از اصول بود که توسط ایالات‌متحده در سال‌های 1899 و 1900 آغاز شد. این سیاست خواستار حمایت از امتیازات برابر برای همه کشورهای تجارت‌کننده و حمایت از تمامیت ارضی و اداری بود. این بیانیه در قالب دو بخشنامه و یادداشت‌های دیپلماتیک توسط جان هی، وزیر امور خارجه آمریکا به بریتانیا، آلمان، فرانسه، ایتالیا، ژاپن و روسیه ارسال شد، سنگ بنای سیاست خارجی آمریکا در شرق آسیا تا اواسط قرن بیستم بود و با تغییرات در صحنه بین‌المللی در اواسط همان قرن محکوم شد. سیاستی که اندرو فاینشتاین، نویسنده کتاب «دنیای ساده» و افشاگر تبانی مرگبار سیاستمداران ارشد، سازندگان سلاح، دلالان جنایتکار اسلحه و ارتش‌ها، وجود آن را به مثابه یک کاتالیزور در تسلیحات نظامی هوشمند و اقتصاد صنایع تسلیحاتی می‌داند. به استدلال او، تئوری «در باز» یک ابزار مفهومی قدرتمند برای تفکر در مورد تمام فناوری‌ها، به ویژه تکنولوژی نظامی و هوش مصنوعی است، چون بر چیزی تاکید می‌کند که اکثر گزارش‌های نوآوری فاقد آن هستند: عامل انسانی. انسان در عصر تسلیحات مدرن و ارتش روبات‌ها، نیاز دارد که تصمیم بگیرد آیا می‌خواهد یا می‌تواند از یک نوآوری نظامی به صورت کنترل‌شده و به نفع تمامی کشورها نه در راستای نابودی‌شان استفاده کند، آن را با شرایط خود تطبیق دهد، در برابر «جبر تکنولوژیک» که یک شاه‌ماهی قرمز است، مقاومت کند؟ و با نوآوری جنگی که در ظاهر به جبر و نوعی حواس‌پرتی و ابزاری بلاغی اما در واقعیت هدایت‌کننده تمامی جنگ‌های انسانی عصر مدرن است، کنار بیاید؟ کاری که خیلی از کشورها و رهبران نظامی دنیا تاکنون انجام نداده و نپذیرفته‌اند که عامل انسانی نه یک‌بار، بلکه دوبار در نوآوری و محصولات هوش مصنوعی دخالت می‌کند. یک‌بار به هنگام کشف و بار دیگر به وقت استفاده یا سوءاستفاده از آن. کاری که قطعاً در سیستم‌های نظامی مدرن و مجموعه‌های نظامی ـ صنعتی که بازنمود جانبی جنگ سرد هستند، اثرگذاری‌های بزرگی دارد. چرا که بی‌شک این در می‌تواند بچرخد، بایستد، قفل شود یا به انحصار کسانی درآید که راه عبور از آن را می‌دانند، با آن به قلمروهایی وارد می‌شوند که منافع‌شان را تامین می‌کند، دلایل تصمیماتشان، حتی تصمیم‌های بد، نه فقط در فناوری، بلکه در انتخاب نیروهای نظامی، سیاسی و اقتصادی دیده می‌شود و گاه دیکتاتورهای فاقد تاب‌آوری در برابر دیدگاه‌ها و رویکردهای مخالف را می‌آفریند و در جهان سرگردان می‌کند. دیکتاتورهایی که با تکنولوژی جنگ می‌سازند، مسیر جنگ‌ها را تغییر می‌دهند و دنیا را به انتهای بن‌بست‌های هسته‌ای و سیاهی فناوری می‌برند. اتفاق بدی که نیت مارکس، پژوهشگر مرکز سیاست بین‌الملل آمریکا در گزارش «سلاح‌های ما کجا می‌روند؟»، آن را «آخرالزمان بی‌منجی دموکراسی» تعبیر می‌کند و «نظارت بر استفاده نهایی» را راهکار نرسیدن به سیاهی هوش مصنوعی نظامی و خودمختاری تسلیحات خودکار می‌داند.

ما می‌میریم

بنا بر استدلال پژوهشگر مرکز سیاست بین‌الملل آمریکا، همیشه در بحث اقتصاد اسلحه و کاربرد AI، کاهش شفافیت و نبود دموکراسی، معادلات جهانی را بر هم زده که جدیدترین نمونه‌اش انتقال تسلیحات به اوکراین است. از زمان تهاجم روسیه، واشنگتن 22 بسته تسلیحاتی جداگانه را با هزینه‌های میلیاردی -که اقتصاد تسلیحاتی آمریکا را در بخش‌های مختلف نابود کرد- در ظاهر با هدف حمایت و دفاع به اوکراین ارسال کرده و تصور می‌کند به شفافیت متعهد بوده و این نه خودنمایی که کسب امتیاز سیاسی به خاطر افشای عمومی اطلاعات در خصوص مقاصد تسلیحاتی خودکار است. در صورتی که با صرف نظر از چرایی صادرات سلاح به اوکراین در دولت بایدن، یک مقوله چالش‌برانگیز یعنی ‌EUM‌، زیر سوال رفته است. «نظارت استفاده نهایی» مدت‌هاست در ایالات‌متحده که خود را رهبری پیشرو در شفافیت نظامی می‌داند، یک نقطه کور بوده و مقامات واشنگتن عمدتاً بر روی این موضوع تمرکز کرده‌اند که آیا تسلیحات هوایی و زمینی صحیح و سالم به انبارها می‌رسند؟ در حالی که باید از خود بپرسند افزایش 49درصدی صادرات تسلیحات در سال 2023 که ارزش آن بالغ بر 6 /205 میلیارد دلار بوده، چقدر به جای امنیت، سود نظامی-سیاسی واشنگتن را تامین کرده است؟ اصلاً چه حفاظت‌هایی برای جلوگیری از انحراف و کنترل سلاح‌های خودکار و کشنده در اوکراین وجود دارد؟ علاوه بر آن و جدای از بحث آمریکا و اوکراین، در حالی که وزارت دفاع کشورهای مختلف مشتاقانه به دنبال ادغام قابلیت‌های هوش مصنوعی با تسلیحات نظامی هستند، کسی با توجه به گسترش چشمگیر نقش پهپادهای هدایت‌شده با هوش مصنوعی به فکر تغییر ژئوپلیتیک جنگ و بازدارندگی برای حفظ نجات انسان‌ها هست و حکمرانی هوش مصنوعی را در تنظیمات دیپلماتیک جدی گرفته است؟ بی‌شک تمامی افراد درگیر در اقتصاد اسلحه و AI می‌دانند که تسلیحات خودمختار در بعد مثبت، نوید دستاوردهایی در کارایی، اقتصاد و برتری تاکتیکی را می‌دهند. آنها می‌توانند در مناطق صعب‌العبور یا غیرقابل اقامت خوب عمل کنند و ماموریت‌هایی را انجام دهند که برای جنگجویان انسانی بسیار خطرناک است. مثلاً می‌توانند بمب‌ها را غیرفعال کنند، زمین‌های مین‌گذاری شده را پاکسازی کنند، ماموریت‌های نجات پیچیده را انجام دهند، وارد غارها شوند و به مرزهای سرزمینی دشمن با هزینه‌های پایین نفوذ کنند. اما قطعاً روبات‌ها کارگزاران اخلاقی نیستند. شفقت، همدلی یا شهود ندارند. از قوانین بین‌المللی درگیری مسلحانه تبعیت نمی‌کنند و ابزار الزام‌آور قانونی برای اطمینان از کنترل معنادار انسانی بر عملکردهای حیاتی در سیستم‌های تسلیحاتی خودمختار هم وجود ندارد؛ بنابراین، اگر همچنان موافق و مایل به استفاده بیشتر از هوش مصنوعی برای سودآوری اقتصاد صنایع تسلیحاتی هستیم، به قطع، نه کتاب‌ها و مقالات و نه هشدارهای دیپلماتیک، هیچ‌کدام نمی‌توانند ما را از تفنگی که تا زیرگلویمان رفته و آماده شلیک است نجات دهد و همگی به زودی می‌میریم.

دراین پرونده بخوانید ...