شناسه خبر : 50324 لینک کوتاه
تاریخ انتشار:

مردم عادی

هوش مصنوعی فقط یک فناوری دیگر است

دیدگاه‌های مربوط به هوش مصنوعی معمولاً در طیف وسیعی قرار می‌گیرند. در یک سو دیدگاه آرمان‌شهری قرار دارد که بیان می‌‌کند، هوش مصنوعی باعث رشد سریع اقتصاد، تسریع تحقیقات علمی و شاید جاودانگی انسان‌ها خواهد شد. در سوی دیگر، دیدگاه ویران‌شهری است که می‌گوید، هوش مصنوعی باعث از‌دست‌رفتن ناگهانی و گسترده مشاغل و ایجاد اختلال اقتصادی می‌شود و شاید حتی دست به سرکشی بزند و بشریت را از بین ببرد. مقاله‌ای که اوایل امسال ارویند نارایانان و سایاش کاپور، دو دانشمند علوم کامپیوتر در دانشگاه پرینستون نوشتند به دلیل شیوه نامتعارف و هوشیارانه در برخورد با هوش مصنوعی جلب توجه می‌کند. این مقاله هوش مصنوعی را «فناوری عادی» می‌نامد. ادعایی که بحث‌های فراوانی را در میان پژوهشگران و اقتصاددانان هوش مصنوعی برمی‌انگیزد. 

نویسندگان می‌گویند که هر دو دیدگاه آرمان‌شهری و ویران‌شهری هوش مصنوعی را هوشی بی‌سابقه می‌دانند که قادر است آینده خود را تعیین کند و هرگونه مقایسه آن با اختراعات گذشته محکوم به شکست خواهد بود. آقایان نارایانان و کاپور چنین نظریه‌ای را رد می‌کنند و سناریوی محتمل‌تری را مطرح می‌کنند: اینکه هوش مصنوعی همان مسیر انقلاب‌های فناوری قبلی را در پیش خواهد گرفت. سپس آنها تاثیر این امر بر پذیرش هوش مصنوعی، اشتغال، ریسک‌ها و سیاست را بررسی می‌کنند. آنها می‌گویند که پذیرش هوش مصنوعی به‌عنوان یک فناوری عادی در مقایسه با در نظر گرفتن آن به‌عنوان موجودی انسان‌وار به نتیجه‌گیری‌های کاملاً متفاوتی در مورد کاهش مخاطرات منجر خواهد شد.

نویسندگان چنین استدلال می‌کنند که روند پذیرش هوش مصنوعی آهسته‌تر از نوآوری‌ها بوده است. بسیاری از مردم گاهی از ابزارهای هوش مصنوعی استفاده می‌کنند، اما شدت کاربرد آن در آمریکا (بر مبنای ساعات کاربری در روز) هنوز کسر کوچکی از کل ساعات کاری است. این عقب‌افتادگی تعجب‌آور نیست، چون برای افراد و شرکت‌ها وقت می‌برد تا عادت‌ها و گردش‌های کاری خود را با فناوری‌های جدید تطبیق دهند. همچنین، این واقعیت که بسیاری از دانش‌ها تلویحی و مختص سازمان هستند امر پذیرش را مختل می‌کند. ممکن است داده‌ها در قالب مناسب نباشند یا مقررات استفاده از آنها را محدود کند. در یک قرن قبل و زمانی که کارخانه‌ها برقی شدند محدودیت‌های مشابهی وجود داشتند: این فرآیند چند دهه طول کشید، چون لازم بود در چیدمان، فرآیندها و ساختارهای سازمانی کارخانه‌ها بازنگری صورت گیرد.

علاوه بر این، مقاله استدلال می‌کند که محدودیت‌های روند نوآوری هوش مصنوعی شاید از آنچه به نظر می‌رسد شدیدتر باشند، چون بسیاری از کاربردهای آن (از جمله در ساخت داروها، ماشین‌های خودران یا حتی رزرو تعطیلات) به آزمون‌های وسیع در جهان واقعی نیاز دارند. این امر آهسته و پرهزینه خواهد بود، به‌ویژه در حوزه‌های مربوط به ایمنی که به‌شدت تحت نظارت هستند. در نتیجه، تاثیرات اقتصادی احتمالاً تدریجی خواهند بود، به جای آنکه شاهد خودکارسازی (اتوماسیون) فوری یک بخش بزرگ از اقتصاد باشیم.

حتی گسترش آهسته هوش مصنوعی ماهیت کار را تغییر خواهد داد. با خودکارسازی بیشتر وظایف درصد فزاینده‌ای از مشاغل و وظایف انسانی به کنترل هوش مصنوعی درخواهد آمد. در اینجا بحث قیاس با دوران انقلاب صنعتی مطرح می‌شود که در‌ آن کارگران از انجام کارهای دستی مانند بافندگی معاف شدند و به نظارت بر دستگاه‌هایی پرداختند که همان کارها را انجام می‌دادند، یا وضعیتی را مدیریت می‌کردند که از عهده دستگاه‌ها خارج بود (مثلاً مداخله در زمانی که دستگاه گیر می‌کرد). اکنون هم به‌جای آنکه هوش مصنوعی کل مشاغل را بگیرد مشاغل عمدتاً به سمت پیکربندی، پایش و کنترل سیستم‌های مبتنی بر هوش مصنوعی خواهند رفت. آقایان نارایانان و کاپور گمان می‌کنند که اگر نظارت انسانی نباشد هوش مصنوعی بیش‌از‌حد مستعد خطا می‌شود و از نظر تجاری توجیه‌پذیر نخواهد بود. 

این امر به نوبه خود پیامدهایی در مورد ریسک هوش مصنوعی دارد. نویسندگان مقاله به‌شدت از تاکید بر «همسویی» الگوهای هوش مصنوعی انتقاد می‌کنند. بدان معنا که خروجی هوش مصنوعی باید با اهداف سازندگان انسانی آنها هماهنگ باشد. آنها می‌گویند اینکه یک خروجی مضر باشد اغلب به محیطی بستگی دارد که انسان‌ها درک می‌کنند، اما هوش مصنوعی از درک آن عاجز است. برای مثال، اگر از مدل‌ بخواهید یک پیام اغواگرانه بنویسد نمی‌تواند بگوید آیا از آن پیام برای بازاریابی مشروع استفاده می‌شود یا کلاهبرداری شرورانه. نویسندگان عقیده دارند که تلاش برای ساخت یک الگوی هوش مصنوعی که نتوان از آن سوءاستفاده کرد همانند تلاش برای ساخت کامپیوتری است که قابل‌استفاده برای کارهای بد نباشد. آنها در مقابل پیشنهاد می‌کنند که ابزارهای دفاعی در برابر سوء‌استفاده از هوش مصنوعی -از قبیل ساخت بدافزارها یا سلاح‌های زیستی- باید بر رده‌های پایین‌دست متمرکز شوند و اقدامات محافظتی موجود در امنیت سایبری و زیستی را تقویت کنند. این کار تاب‌آوری در برابر اشکال دیگر این تهدیدها را که شامل هوش مصنوعی نمی‌شوند نیز بالا می‌برد.

چنین اندیشه‌ای ما را به مجموعه‌ای از سیاست‌های مربوط به کاهش ریسک و افزایش تاب‌آوری می‌رساند. از آن جمله می‌توان به حمایت از سوت‌زنندگان، افشای اجباری استفاده از هوش مصنوعی (همان‌گونه که در مورد محافظت از داده‌ها دیده می‌شود)، ثبت‌نام برای ردیابی استقرار (مانند خودروها و پهپادها) و گزارش اجباری حوادث (مانند حملات سایبری) اشاره کرد. در مجموع این مقاله نتیجه می‌گیرد که درس‌هایی از فناوری‌های قبلی را می‌توان به‌طور موثر در مورد هوش مصنوعی به کار برد. برخورد با این فناوری به‌عنوان یک امر «عادی» در مقایسه با برخورد با آن به‌عنوان یک «ابرهوشمند» به پیدایش و اتخاذ سیاست‌های معقولانه‌‌تری منجر می‌شود.

مقاله کاستی‌هایی نیز دارد. گاهی اوقات همانند یک هیاهوی بزرگ علیه هوش مصنوعی به نظر می‌رسد. در برخی جاها زیاده‌گویی دارد و باورها را به‌عنوان واقعیت نشان می‌دهد. تمام استدلال‌هایش هم قانع‌کننده نیستند. البته همین امر درباره دیگر نوشتارهای آرمان‌شهری یا ویران‌شهری هم صادق است. حتی ممکن است عمل‌گرایان هوش مصنوعی احساس کنند که نویسندگان در مورد توان بالقوه هوش مصنوعی در ایجاد اختلال در بازار کار بی‌خیال هستند، سرعت پذیرش آن را دست‌کم می‌گیرند، به خطرات عدم همسویی توجهی ندارند و بسیار از مقررات‌گذاری راضی هستند. پیش‌بینی آنها دراین‌باره که هوش مصنوعی نمی‌تواند عملکرد بهتری از انسان‌های آموزش‌دیده داشته باشد بیش‌از‌حد خوش‌بینانه است. و حتی اگر سناریوهای آرمان‌شهری و ویران‌شهری اشتباه باشند هوش مصنوعی می‌تواند بسیار بیشتر از آنچه نویسندگان می‌گویند تحول‌آفرین باشد. 

اما بسیاری از افراد پس از خواندن این مطلب استثنایی با آن موافقت می‌کنند. دیدگاه‌های میانه‌رو در مقایسه با پیش‌بینی «خیزش سریع» یا آخرالزمانی کمتر به چشم می‌آیند، بنابراین توجه زیادی را جلب ‌نمی‌کنند. به همین دلیل نویسندگان اعتقاد دارند که این موضع ارزش گفتن دارد، چراکه برخی نسخه‌های جهان‌بینی ما گستردگی زیادی دارند. اکنون که نگرانی‌ها در مورد سرمایه‌گذاری در هوش مصنوعی رواج یافته‌اند مقاله آنها می‌تواند سرعت جنون هوش مصنوعی را بگیرد. 

 

دراین پرونده بخوانید ...