شناسه خبر : 30094 لینک کوتاه
تاریخ انتشار:

مهار روبات‌ها

سلاح‌های خودکار و قواعد جنگ

هاروپ (Harop) پهپاد انتحاری همانند اسبی که از دروازه بیرون می‌دود از پرتاب‌کننده خود خارج می‌شود. اما این ابزار با هدف سرعت یا حرکات نمایشی ساخته نشده است. به جای آن، هاروپ بدون آنکه کسی بر آن نظارت کند در ارتفاع بسیار بالا بر فراز میدان جنگ پرسه می‌زند بدون آنکه صدایی از آن به گوش برسد. هاروپ منتظر فرصت می‌ماند. اگر فرصتی پیش نیاید این پهپاد در نهایت به پایگاه هوایی از قبل تعیین‌شده بازمی‌گردد و برای ماموریت بعدی آماده می‌شود.

مهار روبات‌ها

هاروپ (Harop) پهپاد انتحاری همانند اسبی که از دروازه بیرون می‌دود از پرتاب‌کننده خود خارج می‌شود. اما این ابزار با هدف سرعت یا حرکات نمایشی ساخته نشده است. به جای آن، هاروپ بدون آنکه کسی بر آن نظارت کند در ارتفاع بسیار بالا بر فراز میدان جنگ پرسه می‌زند بدون آنکه صدایی از آن به گوش برسد. هاروپ منتظر فرصت می‌ماند. اگر فرصتی پیش نیاید این پهپاد در نهایت به پایگاه هوایی از قبل تعیین‌شده بازمی‌گردد و برای ماموریت بعدی آماده می‌شود. اما اگر راداری با هدف شوم بر روی آن قفل کند هاروپ سیگنال‌های آن را دنبال می‌کند تا به منبع سیگنال‌ها برسد و سپس کلاهک جنگی نصب‌شده در دماغه آن خود پهپاد، رادار و اپراتورهای آن محدوده را منفجر می‌سازد.

شرکت صنایع هوا-فضای اسرائیل (IAI) بیش از یک دهه است که هاروپ را می‌فروشد. تعدادی از کشورها از جمله هند و آلمان این پهپاد را خریداری کرده‌اند. آنها مجبور نیستند پهپاد را در حالت خودکار راداریاب به‌کار گیرند بلکه می‌توان آن را علیه هر هدفی به‌کار برد که دوربین‌های آن تشخیص می‌دهند و اپراتورها دستور حمله به آن را صادر می‌کنند. احتمال می‌رود آذربایجان در سال 2016 در مناقشه با ارمنستان بر سر منطقه ناگورنو قره‌باغ از این قابلیت بهره گرفته باشد. اما آن پهپادهای هاروپ که اسرائیل علیه سامانه‌های دفاع هوایی سوریه به‌کار گرفت احتمالاً خودکار بودند.

طبق گزارش سال 2017 اندیشکده «موسسه پژوهش‌های صلح بین‌الملل در استکهلم» هاروپ یکی از 49 سامانه جنگی است که می‌‌توانند اهداف احتمالی را تشخیص دهند و بدون دخالت انسان به آنها حمله کنند. بنابراین، هاروپ جزو آن دسته از سلاح‌هایی قرار می‌گیرد که ائتلاف 89 سازمان غیردولتی از 50 کشور را آزار می‌دهند. این با شعار «کارزار توقف روبات‌های قاتل» تشکیل شده است. نام این کارزار نمونه تاثیرگذاری از مقابله با یک برند است. کدام فرد عاقل و بالغی هست که خواستار توقف استفاده از روبات‌های قاتل نباشد؟ عنوان روبات قاتل خود دو بحث مهم و هراس‌آور در مباحث علمی-تخیلی را تداعی می‌کند: سلاح‌هایی با قدرت خارق‌العاده و هوشمندی غیرانسانی.

اما موضوع هاروپ نشان می‌دهد که این‌گونه سلاح‌ها و نگرانی‌های مرتبط با آنها تازگی ندارند. موشک‌های «شلیک و فراموش کن» (Fire and Forget) که می‌توانند قبل از تشخیص سیگنال‌های رادار و حمله به هدف تا مدت‌ها پرسه بزنند از دهه‌ها قبل استفاده می‌شوند. این موشک‌ها از هواپیما شلیک می‌شدند، زمان کمتری پرسه می‌زدند و اگر شانس پیدا کردن رادار دشمن را از دست می‌دادند نمی‌توانستند به پایگاه بازگردند و منتظر ماموریتی دیگر بمانند. اما توانایی خودکاری آنها در حمله کردن تغییری نکرده است. مین‌های ضدنفر که قرن‌ها مورد استفاده قرار می‌گیرند در یکجا مستقر هستند و هر کسی را که بر رویشان پا بگذارد می‌کشند به جای آنکه به اهداف راداری حمله کنند. اما وقتی این‌گونه سلاح‌ها کار گذاشته می‌شوند دیگر هیچ انسانی در زمان و هدف حمله آنها دخالت ندارد. شناخت تاریخچه طولانی و ناخوشایند سلاح‌هایی که هر کس را می‌کشند و انسان دخالت مستقیمی در عملکرد آنها ندارد برای هرگونه بحث پیرامون مخاطرات و وضعیت اخلاقی سلاح‌های خودکار اهمیت زیادی دارد. نمی‌توان این حقیقت را کتمان کرد که قابلیت‌های آنها رو به افزایش است و هرچند توافقاتی برای محدودیت استفاده از آنها به عمل آمده اجرای این توافقات دشوار است. به راحتی می‌توان گفت که مین‌های کاشتنی در زمره سلاح‌هایی قرار می‌گیرند که طبق معاهده اتاوا (Ottawa Treaty) ممنوع هستند. اما گفتن اینکه هاروپ یک روبات خودکار است یا سلاح کنترل از راه دور، به نرم‌افزاری بستگی دارد که در آن زمان آن را کنترل می‌کند.

از زمانی که اولین اژدرهای آکوستیک در جنگ جهانی دوم به‌کار گرفته شدند سلاح‌ها قادر شدند بدون نظارت انسان هدف‌هایشان را تشخیص دهند. اکثر سلاح‌های مدرن که علیه ابزارهای پرسرعت به‌کار می‌روند هدف‌گیری را بر مبنای صدا، امواج رادار یا حرارت انجام می‌دهند. اما در اکثر موارد تصمیم‌گیری در مورد اینکه کدام هواپیما یا کشتی مورد هدف قرار گیرد بر عهده یک انسان است.

سامانه‌های دفاعی از قبیل توپ‌های فالانکس (Phalanx) که در نیروی دریایی آمریکا و متحدانش استفاده می‌شود جزو موارد استثنا هستند. این سامانه‌ها وقتی روشن باشند هر چیزی را که به سمت کشتی محل استقرار آنها بیاید هدف قرار می‌دهند. این ویژگی در مواردی که کشتی در خطر حمله موشک‌های بسیار سریع قرار دارد و واکنش انسانی زمان‌بر است منطقی به نظر می‌رسد. همین استدلال را می‌‌توان در مورد سلاح‌های روباتی نگهبان در منطقه غیرنظامی بین‌ کره شمالی و جنوبی به‌کار برد.

ظهور دستگاه‌ها

چالش پیش روی نیروهای مسلح عصر جدید و سازندگان سلاح توانایی تشخیص هدف از میان انبوهی از موارد غیرهدف است. دو نوع پیشرفت فناوری وجود دارد که حل این چالش را در زمان مناسب امکان‌پذیر می‌سازند. اول اینکه رایانه‌ها در مقایسه با گذشته بسیار قدرتمندتر شده‌اند و به خاطر یادگیری ماشینی توانایی قابل ملاحظه‌ای در تمایز اشیا از یکدیگر دارند. اگر یک آیفون می‌تواند صورت شما را تشخیص دهد و دیگران را از دسترسی به گوشی شما بازدارد دلیلی ندارد که موشک نتواند یک تانک را از اتوبوس مدرسه تشخیص دهد.

تغییر دیگر آن است که خودکاری در بخش‌های غیرکشنده صنایع نظامی به سرعت رو به گسترش است. پهپادها، کامیون‌های بدون راننده و زیردریایی‌های بدون خدمه برای مقاصد مختلف مورد استفاده قرار می‌گیرند که اکثراً کشنده نیستند. در رزمایش «جنگجویان خودکار ارتش بریتانیا» که در دسامبر 2018 در زمین‌های مرطوب و دارای باد شدید دشت سالزبری در جنوب انگلستان برگزار شد افسران ارتش وسایل نقلیه و هواپیماهای خودکار را به نمایش گذاشتند که برای بررسی خطوط دشمن، تخلیه سربازان مجروح و تحویل امکانات در منطقه پرخطر و خط مقدم طراحی شده بودند. وسایل نقلیه خودکار حتی اگر توان کشتار داشته باشد لزوماً به سلاح‌های خودکار تبدیل نمی‌شوند. پهپادهای ریپر (Reaper) که آمریکا با آنها دشمنان را می‌کشد هنگام عملیات تحت کنترل شدید انسانی هستند با وجود اینکه آنها قابلیت پرواز در حالت خودکار را دارند.

کنترل از راه دور ماهواره‌ای با تاخیر زمانی صورت می‌گیرد. این تاخیر در زمانی که پهپادها در یک جنگ تمام‌عیار هدف قرار می‌گیرند اهمیت ویژه‌ای پیدا می‌کند. همکاری با انسان‌هایی که خارج از حوزه نظامی هستند نیز مفید خواهد بود. شاخه اندیشه پنتاگون (DARPA) که خارج از سازمان است بر روی حملات فوجی خودکار (همانند حرکت فوج‌سازها) و جایگزین کردن آن به جای ساخت بمب‌افکن‌ها کار می‌کند. اما کدام اپراتور انسانی می‌تواند این نوع حمله پویا را هماهنگ سازد؟ این‌ نگرانی صرفاً به آینده مربوط نمی‌شود. شرکت موشک‌سازی MDBA در اروپا با افتخار اعلام می‌کند که یکی از مزایای موشک‌های هوا به زمین بریم‌استون (Brimstone) آن است که می‌توانند به ترتیب شلیک خود دست به انتخاب بزنند. اگر هواپیماهای مختلف چندین موشک بریم‌استون را همزمان در یک منطقه شلیک کنند و به آنها اختیار انتخاب هدف بدهند موشک‌ها با یکدیگر ارتباط برقرار می‌کنند تا احتمال اینکه دو موشک یک هدف را بزنند کاهش یابد.

در ارتش‌هایی که هزینه نیروهای آموزش‌دیده بسیار بالاست بحث بودجه عامل مهمی خواهد بود. ژنرال ریچارد بارونز یکی از ارشدترین فرماندهان بریتانیا تا سال 2016 می‌گوید روبات‌ها به حقوق و مستمری نیاز ندارند و از آنجا که زن و بچه و وابستگانی هم ندارند از دست رفتن یک روبات صرفاً بر مبنای خسارت پولی و قابلیت آن ارزیابی می‌شود نه پتانسیل انسانی.

اگر موضوع حفظ دخالت انسانی فقط به هزینه آن مربوط باشد این کار ارزش دارد. اما کنترل‌های انسانی آسیب‌پذیرند. به آن معنا که شما باید انبوهی از داده‌های رمزنگاری‌شده را جابه‌جا کنید. اما اگر پیوندهای (لینک‌های) داده‌های ضروری به صورت فیزیکی –مثلاً با سلاح‌های ضدماهواره- مورد حمله قرار گیرند یا در ترافیک الکترونیکی گرفتار شوند یا جنگ‌افزارهای سایبری مسیر آنها را عوض کنند چه باید کرد؟ احتمالاً جنگ‌های آینده در فضایی صورت می‌گیرند که نیروهای مسلح آمریکا آن را «محیط پرمنازعه الکترومغناطیس» می‌نامند. اما نیروی هوایی علاقه‌مند است مطمئن شود که خلبانان شغل خود را از دست نمی‌دهند. این نگرانی ممکن است آنها را به تعصب و جانبداری ناخودآگاه بکشاند. آسیب‌پذیری پیوندهای ارتباطات دلیل دیگری برای طرفداری از خودکاری بیشتر است. اما سامانه‌های خودکار نیز ممکن است مورد مداخله قرار گیرند. حسگرهای سلاح‌هایی مانند موشک‌های بریم‌استون باید خیلی هوشمندتر از حسگرهای اتومبیل‌های خودران باشند، نه‌تنها به خاطر اینکه میدان جنگ پر از هرج‌ومرج است بلکه به این دلیل که طرف مقابل تلاش می‌کند جهت آنها را تغییر دهد. درست همان‌گونه که معترضان در تظاهرات از آرایش‌های نامتقارن برای فریب دادن سامانه‌های تشخیص چهره استفاده می‌کنند اهداف نظامی نیز تلاش می‌کنند سیگنال‌های انحرافی را برای سلاح‌های خودکار بفرستند. پل شار نویسنده کتاب «ارتش هیچ‌کس: سلاح‌های خودکار و آینده جنگ‌ها» هشدار می‌دهد که سامانه‌های عصبی مورد استفاده در یادگیری ماشینی در مقابل فریب‌کاری آسیب‌پذیر هستند.

روز قضاوت

قابلیت‌های جدید، پایداری در برابر اقدامات متقابل و وجود بازارهای صادراتی جدید عوامل مشوق توسعه و پژوهش در زمینه سلاح‌های خودکار هستند. کارزار متوقف کردن روبات‌های قاتل برای مهار این انگیزه خواستار ممنوعیت زودهنگام سلاح‌های کاملاً خودکار شده است. مشکل آنجاست که در مورد حد و مرز آن اجماعی وجود ندارد. به عنوان مثال سوئیس می‌گوید سلاح‌های خودکار آنهایی هستند که قادرند «بخشی یا به طور کامل به جای انسان‌ها در نبرد به ویژه در هدف‌گیری ایفای نقش کنند». این تعریف هاروپ و بریم‌استون و چندین سلاح دیگر را دربر می‌گیرد. در مقابل، بریتانیا می‌گوید سلاح‌های خودکار آنهایی هستند که سطوح بالای منظور و جهت را درک می‌کنند. این تعریف هیچ چیز از تجهیزات جنگی امروزی یا حتی آنهایی را که در نوبت طراحی قرار دارند شامل نمی‌شود. به منظور سروسامان دادن به این اوضاع در سال 2017 کنوانسیون سازمان ملل در زمینه سلاح‌های متعارف خاص بحث‌های گذشته در این باره را رسمی‌تر ساخت و گروهی از متخصصان دولتی تشکیل داد تا نکات ظریف‌تر خودکاری را مطالعه کنند. این گروه علاوه بر تلاش برای ایجاد درکی مشترک از تعریف سلاح‌های کاملاً خودکار، ممنوعیت فراگیر و سایر گزینه‌ها برای چالش‌های انسانی و امنیتی این سلاح‌ها را بررسی می‌کند. اکثر دولت‌های شرکت‌کننده در مباحثات کنوانسیون اهمیت کنترل انسانی را می‌پذیرند اما در مورد معنای واقعی آن اختلاف نظر دارند. «ماده 36» نام گروهی است که اسم خود را از یکی از مفاد کنوانسیون ژنو می‌گیرد که خواستار بررسی‌های قانونی روش‌های نوین جنگ‌افزارهاست. هذر راف و ریچارد مویز در مقاله‌ای که برای این گروه نوشتند استدلال می‌کنند که انسانی که صرفاً در پاسخ به پیام‌های یک رایانه و بدون شفافیت شناختی یا آگاهی کلید شلیک را فشار می‌دهد واقعاً کنترل را در اختیار ندارد. به گفته آنها «کنترل معنادار» مستلزم درک محیطی که اسلحه در آن به‌کار می‌رود و همچنین داشتن قابلیت مداخله به موقع و منطقی است. علاوه بر این، چنین مفهومی پاسخگویی را نیز دربر دارد.

سرهنگ دوم ریچارد کریگ که فرماندهی مرکز پژوهش‌های سامانه‌های خودکار ارتش بریتانیا را بر عهده دارد اهمیت محیط را می‌پذیرد. او می‌گوید در برخی موارد ممکن است لازم باشد هر هدفی را بزنیم و در مواقع دیگر کافی است تهدید را درک و مطابق آن عمل کنیم. به عنوان مثال یک سامانه فالانکس فقط وقتی در حالت کاملاً خودکار قرار می‌گیرد که تهدید جدی باشد. کنترل معنادار انسانی روشن و خاموش کردن این حالت است.

این بدان معناست که جنگنده‌های روباتی آینده از قبیل آنهایی که در برنامه اِن‌یورون (nEuron) فرانسه و تارانیس انگلستان مطالعه می‌شوند و تشخیص خودکار هدف را آزمایش می‌کنند بزرگ‌ترین چالش خواهند بود. از آنجا که این جنگنده‌ها برد زیادی دارند ممکن است به محیطی پر از هدف برسند که برایشان غیرمنتظره است. این وضعیت بسته به مکان آنها، توانایی و تجربه اپراتورها، چیزهایی که در مسیر آنها قرار می‌گیرد و به ویژه تغییر الگوریتم آنها به خاطر یادگیری ماشینی می‌تواند تحت یا خارج از کنترل انسانی باشد. آنها میدان کارزاری برای اخلاق‌گرایان و کابوسی برای سازندگان پیمان‌های جهانی به شمار می‌روند.

بیست و اندی کشور که خواستار ممنوعیت الزام‌آور سلاح‌های کاملاً خودکار هستند اغلب کشورهای ضعیفی مانند جیبوتی و پرو هستند اما برخی از آنها مانند اتریش توان دیپلماتیک زیادی دارند. آنها استدلال‌های خود را بر مبنای قانون بین‌المللی بشردوستی (IHL) قرار می‌دهند که مجموعه‌ای از قواعد جنگ است که در کنوانسیون‌های لاهه و ژنو تدوین شده‌اند.

این قانون از ارتش‌ها می‌خواهد بین جنگجویان و شهروندان تمایز قائل شوند، هرجا خطر آسیب به غیرنظامیان از مزیت حمله نظامی بیشتر باشد از حمله اجتناب‌‌ ورزند، از توانی متناسب با هدف استفاده کنند و از ایجاد آسیب‌های غیرضروری بپرهیزند.

وینست بولانین و مایک وبروگن دو متخصص از SIPRI می‌گویند با وجود بهبود اوضاع، سامانه‌های تشخیص هدف هنوز ابتدایی هستند و اغلب در مقابل بدی آب و هوا و به‌هم‌ریختگی پس‌زمینه خود آسیب‌پذیرند. آنهایی که قادر به تشخیص انسان‌ها هستند بسیار نپخته و پیش‌پا افتاده‌اند. این در حالی است که دشمنان مکار تلاش می‌کنند روبات‌ها را برای حمله به هدف‌های غلط اعزام کنند.

ضرورت و تناسب مستلزم سنجش ارزش جان انسان‌ها در برابر اهداف نظامی است. سرهنگ کاتلین از ارتش بریتانیا می‌گوید دستگاه‌های جدید هرچند که پیشرفته باشند چنین قابلیتی ندارند. ارتشی که از سلاح‌های خودکار استفاده می‌کند باید به گونه‌ای آرایش شود که قبل از شلیک بتواند تصمیماتی متناسب اتخاذ کند.

راه‌حل؟

به طور کلی، قانون بین‌المللی بشردوستی از «بند مارتنز» نشات می‌گیرد که در کنوانسیون سال 1899 لاهه پذیرفته شد. این بند بیان می‌دارد که سلاح‌های جدید باید با «اصول انسانیت» و «ندای وجدان عمومی» مطابقت داشته باشند. دانی دوچرتی از سازمان مردم‌نهاد «ناظر حقوق بشر» که کارزارهای ضدروبات را هماهنگ می‌سازد عقیده دارد که سلاح‌های کاملاً خودکار همانند دیگر دستگاه‌های خودکار نمی‌توانند ارزش زندگی انسان و اهمیت از دست رفتن آن را درک کنند بنابراین آنها نمی‌توانند به کرامت انسانی احترام بگذارند. این استدلال قوی اما فاقد وجهه قانونی است. در مورد وجدان عمومی نیز، تاریخ و پژوهش‌ها نشان می‌دهند که این وجدان از آنچه بشردوستان فکر می‌کنند انعطاف‌پذیرتر است.

سوای از قانون و اخلاقیات، سلاح‌های خودکار می‌توانند مخاطرات جدید بی‌ثبات‌کننده ایجاد کنند. درست همان‌گونه که الگوریتم‌های تجاری می‌توانند آسیب‌های برق‌آسا به بازار بورس بزنند، سامانه‌های خودکار نیز ممکن است به روش‌های ظاهراً غیرقابل پیش‌بینی با یکدیگر وارد تعامل شوند. آقای شار احتمال بروز جنگ برق‌آسا را در نتیجه مجموعه‌ای از دخالت‌های روزافزون بعید نمی‌داند. پیتر رابرتس مدیر بخش علوم نظامی در اندیشکده «موسسه خدمات یکپارچه سلطنتی» می‌گوید اگر ما بپذیریم که انسان‌ها می‌توانند تصمیم‌های بد بگیرند باید قبول کنیم که سامانه‌های هوش مصنوعی نیز می‌توانند تصمیمات غلط اتخاذ کنند با این تفاوت که سرعت تصمیم‌گیری آنها بالاتر است.

فعلاً بدون سلاح

در آن سوی هسته اصلی طرفداران ممنوعیت سلاح‌های خودکار دامنه وسیعی از عقاید و نظرات وجود دارد. چین بیان کرد که در اصل با ممنوعیت موافق است اما ممنوعیت در کاربرد نه توسعه. فرانسه و آلمان در حال حاضر مخالف ممنوعیت هستند اما از کشورها می‌خواهند بر یک قاعده عملکردی اجماع‌ کنند که در آن فضایی برای «تفسیرهای ملی» وجود داشته باشد. هند علاقه‌مند است تاریخ فناوری هسته‌ای دوباره تکرار نشود. جایی که در آن یک پیمان تبعیض‌آمیز کشورهای فاقد فناوری را از دستیابی به سلاح‌های تغییردهنده شرایط بازی بازمی‌دارد.

در انتهای طیف، گروهی از کشورها از جمله آمریکا، بریتانیا و روسیه صراحتاً با ممنوعیت مخالف‌اند. این کشورها اصرار دارند که قانون بین‌المللی کنونی برای کنترل سامانه‌های آینده کافی است. ماده 36 باید جدی گرفته شود و برخی کشورها از آن شانه خالی نکنند. به استدلال این گروه وقتی موضوع تبعیض مطرح می‌شود نباید قانون را بر مبنای نقایص سامانه‌های کنونی تدوین کرد.

برخی حتی چنین استدلال می‌کنند که سلاح‌های خودکار جنگ‌ها را «انسانی‌تر» می‌سازند. جنگجویان انسانی قوانین بین‌المللی را زیر پا می‌گذارند اما روبات‌هایی که به خوبی برنامه‌ریزی شده‌اند قادر به انجام چنین کاری نیستند. سلاح SGR-AI ساخت سامسونگ می‌تواند بالا بردن دستان و انداختن اسلحه بر روی زمین را به عنوان نشانه تسلیم تشخیص دهد و تیراندازی نکند. انواع محدودیت‌های ذکرشده در قانون بین‌المللی بشردوستی را می‌توان در برنامه‌های سلاح‌های بعدی گنجاند. اما چقدر طول می‌‌کشد تا یک ارتش درگیر جنگ تصمیم بگیرد قلاده‌ها را باز و سگ‌های روباتی جنگی را رها سازد؟ این بحث یکی از بزرگ‌ترین مشکلاتی را که طرفداران ممنوعیت و کنترل با آن مواجه می‌شوند زنده می‌کند. کنترل تسلیحات مستلزم تایید است و هنگامی که موضوع خودکاری در میان باشد این امر پیچیدگی زیادی پیدا می‌کند. مایکل راویتز از دانشگاه پنسیلوانیا می‌گوید تفاوت یک موشک ریپر مدل MQ-9 و نمونه خودکار آن در نرم‌افزار آنهاست نه در سخت‌افزار، بنابراین نمی‌توان با تکنیک‌های قدیمی کنترل تسلیحات مرحله تایید را انجام داد.

اصرار بر محدودیت این فناوری قبل از فراگیر شدن آن قابل درک است. اگر معلوم شود اعطای خودکاری بیشتر به سلاح‌ها در عمل مزیت و برتری نظامی ایجاد می‌کند و اگر کشورهای پیشرفته به جای وارد شدن با انتخاب خود به جنگ‌ها (آن‌گونه که در سال‌های اخیر انجام دادند)، بقای خود را در خطر ببینند تمام محدودیت‌های اخلاقی و قانونی کنار گذاشته می‌شوند. ژنرال مادونز می‌گوید ممکن است دولت‌ها کنترل انسانی را فدای بقای خویش کنند. شما می‌توانید فرزندانتان را به جنگ بفرستید و شاهد نتایج وحشتناک باشید یا اینکه روبات‌ها را به جنگ بفرستید و فرزندانتان در کنار شما باشند. فرزندان دیگر مردم مشکل خود آنهاست.

منبع: اکونومیست

دراین پرونده بخوانید ...