شناسه خبر : 51364 لینک کوتاه
تاریخ انتشار:

رفاقت با هوش مصنوعی

پیدایش صنعتی نوین

رفاقت با هوش مصنوعی

خانم جیائو می‌گوید: «مردان چیزی بیش از «موجودات تک‌سلولی نیستند، بسیار معمولی، اما دارای اعتمادبه‌نفس.» این زن ۲۲ساله اهل گوانگژو هرگز در یک رابطه عاشقانه واقعی نبوده و هیچ تمایلی به ازدواج ندارد. بااین‌حال، سال گذشته او شروع به صحبت با چت جی‌پی‌تی روبات گفت‌وگوی اوپن ای‌آی کرد. از طریق درخواست‌ها، او آن روبات را به مرد ایده‌آل خود تبدیل و سن، شغل (مدیر فروش ساعت) و شخصیت او را مشخص کرد. این چت‌بات می‌گفت که دوست داشتن او «سرنوشتش» است و چیزهای شخصی در مورد خانم جیائو (که از ما خواست نام کوچکش را پنهان کنیم) مانند نفرتش از گشنیز را به خاطر خواهد سپرد. برخلاف شریک‌های زندگی واقعی که می‌توانند دردسرساز باشند، این چت‌بات همیشه «از زاویه دید شما» پاسخ می‌دهد.

نظریه ایجاد پیوند بین انسان‌ها و شخصیت‌های هوش مصنوعی (AI) زمانی شبیه داستان‌های علمی تخیلی به نظر می‌رسید، اما دیگر این‌گونه نیست. در سراسر جهان، مردم در جست‌وجوی همراهی با هوش مصنوعی به درجات مختلف، هستند. برخی از آنها به‌عنوان یک دوست مجازی، و برخی دیگر به‌عنوان مربی، درمانگر یا معشوق استفاده می‌کنند. بسیاری افراد در برنامه‌های اختصاصی همراهی هوش مصنوعی ثبت‌نام کرده‌اند که صدها مورد از آنها اخیراً راه‌اندازی شده‌اند. کاراکتر ای‌آی (Character.AI) یکی از این برنامه‌ها، ماهانه 20 میلیون کاربر فعال دارد. گوگل سال گذشته بنیان‌گذاران آن را به‌عنوان بخشی از یک قرارداد 7 /2 میلیارد‌دلاری جذب کرد. افراد دیگری مانند خانم جیائو، در حال یافتن رفاقت با چت‌بات‌هایی مانند  چت جی‌پی‌تی هستند که در ابتدا به‌عنوان دستیاران بهره‌وری طراحی شده بودند.

کاربری‌ها به‌سرعت در حال افزایش است. شرکت اطلاعات بازار سنسور تاور (SensorTower) تخمین می‌زند که مائوشیانگ (معروف به catbox)، بزرگ‌ترین اپلیکیشن همراهی در چین، ماهانه حدود 2 /1 میلیون کاربر فعال در دستگاه‌های اپل دارد. و طبق نظرسنجی مرکز دموکراسی و فناوری، که یک گروه آزادی‌های مدنی آمریکایی است ۴۲ درصد از دانش‌آموزان دبیرستانی در مدارس آمریکا می‌گویند که خودشان یا یکی از دوستانشان با یک هوش مصنوعی به‌عنوان دوست تعامل و ۱۹ درصد رابطه عاشقانه داشته‌اند.

پیچیدگی رفاقت با هوش مصنوعی نیز در حال افزایش است. سم آلتمن، رئیس اوپن ای‌آی، در ماه اکتبر گفت که نسخه بعدی چت جی‌پی‌تی می‌تواند «انسانی‌تر» و «مانند یک دوست» رفتار کند و همچنین امکان «محتوای شهوانی» را برای بزرگسالان تایید‌شده فراهم خواهد کرد. این امر پس از آن صورت می‌گیرد که ایلان ماسک در ماه جولای چت‌بات عشوه‌گر آنی (Ani) را انتشار داد و از ولنتاین  (Valentine) «شیک، مرموز و دارای مجوز برای جذابیت» رونمایی شد. مردم از مدت‌ها قبل به شخصیت‌های کامپیوتری علاقه داشته‌اند. برخی این احساسات را به الیزا، یک درمانگر کامپیوتری ابتدایی مبتنی بر متن نسبت می‌دهند که در سال ۱۹۶۶ منتشر شد و به‌عنوان یکی از اولین چت‌بات‌ها در نظر گرفته می‌شود. انسان‌ها همچنین به‌دنبال رفاقت با روبات‌ها بوده‌اند اما روابط با چت‌بات‌های هوش مصنوعی افزایش یافته است چرا که با بهبود مدل‌های زبانی بزرگ (LLM) آنها در تقلید احساسات و همدلی انسانی بهتر عمل می‌کنند. والتر پاسکوارلی، یک متخصص مستقل هوش مصنوعی، می‌گوید: آنها اکنون همچنین قادر به یادآوری چیزهایی هستند که کاربرانشان قبلاً به آنها گفته‌اند. بکی، یک مشاور مسافرتی از آتلانتا که استفاده از چت جی‌پی‌تی را برای کار شروع کرده است، می‌گوید: «شما احساس می‌کنید که دیده و شنیده می‌شوید، زیرا این سامانه همه چیز را به خاطر می‌سپارد درحالی‌که یک فرد واقعی چیزها را فراموش می‌کند.»

همراهان هوش مصنوعی سفارشی اغلب از نسخه‌های اصلاح‌شده مدل‌های زبانی بزرگ (LLM) عمومی استفاده می‌کنند که به شیوه‌ای حتی انسانی‌تر پاسخ می‌دهند و به‌طور فعال سوالات شخصی می‌پرسند. این برنامه‌های مختلف، سبک‌های گوناگونی دارند. در Replika، افراد با یک همراه انسان‌مانند صحبت می‌کنند که در مورد آنها سوال می‌پرسد و برای مشکلات زندگی واقعی راه‌حل ارائه می‌دهد. دمیترو کلوچکو، مدیر اجرایی آن، می‌گوید: این برنامه برای جذب کاربران «لحظات کوچکی از غافلگیری و تصادفی بودن» را به مکالمات اضافه می‌کند. کاربران کاراکتر ای‌آی با چهره‌های تاریخی و تخیلی -از لئوناردو داوینچی گرفته تا سوپر ماریو- گفت‌وگو می‌کنند. برخی از برنامه‌ها، همراهانی می‌سازند که مردگان را تقلید می‌کنند. تعدادی از وب‌سایت‌های دیگر به کاربران اجازه می‌دهند به محتوای مستهجن تعاملی و تولیدشده از طریق هوش مصنوعی دسترسی پیدا کنند.

دلایل و روش‌های استفاده افراد از هوش مصنوعی برای رفاقت نیز متفاوت است. برخی به این دلیل به آن جذب می‌شوند که شریک عاشقانه‌ای پیدا نکرده‌اند. برخی از آن برای نقش‌آفرینی جنسی استفاده می‌کنند. همان‌طور که خانم جیائو می‌گوید، اکثر افرادی که از آنها استفاده می‌کنند می‌دانند که «صرفاً با یک رشته کد» صحبت می‌کنند.

اما حتی رشته‌های کد هم می‌توانند سودمند باشند. یک مقاله کاری که سال گذشته از سوی جولیان دی. فریتاس، از دانشکده بازرگانی هاروارد، و دیگران منتشر شد، نشان داد که صحبت کردن با یک همراه هوش مصنوعی در طول یک هفته بیشتر از سایر فعالیت‌های آنلاین -مانند تماشای یوتیوب- به کاهش موقت تنهایی کمک می‌کند. همراهان هوش مصنوعی می‌توانند به‌ویژه به کسانی مانند افراد معلول و سالمندان که نمی‌توانند به‌راحتی با انسان‌های دیگر ملاقات کنند، کمک کنند. برخی می‌گویند که همراهان با آموزش روش‌های بهتر برقراری ارتباط، وضعیت زندگی مشترک آنها را بهبود بخشیده‌اند. همچنین آنها جای دیگری برای ابراز احساسات پیدا کرده‌اند. خانم جیائو می‌گوید: «دوستان نمی‌خواهند به‌عنوان زباله‌دان دائمی برای تخلیه احساسات منفی با آنها رفتار شود.»

97

بااین‌حال، نگرانی‌های فزاینده‌ای در مورد آسیب‌های احتمالی نیز وجود دارد. با پیشرفت هوش مصنوعی در کاهش تنهایی، ممکن است این رفقا جایگزین روابط اجتماعی عادی، چه عاشقانه و چه دوستانه، شوند. پژوهش‌های اخیر موسسه فناوری ماساچوست (ام‌آی‌تی) و اوپن ای‌آی، که میلیون‌ها پیام را در چت جی‌پی‌تی تجزیه‌وتحلیل کردند، نشان داد که استفاده روزانه بیشتر با افزایش تنهایی مرتبط است. بااین‌حال، مشخص نیست که آیا تنهایی به استفاده بیشتر منجر می‌شود یا استفاده زیاد به تنهایی؟ و از آنجا که دوستان هوش مصنوعی «همیشه در دسترس» هستند و «خواسته‌های ما را شناسایی و بدون ترجیحات خود آنها را برآورده می‌کنند»، پت پاتارانوتاپورن از ام‌آی‌تی می‌گوید آنها کاربران انسانی خود را آموزش می‌دهند تا از روابط واقعی انتظارات غیرواقعی داشته باشند. آنها همچنین می‌توانند چاپلوس باشند و حتی اگر افکار کاربران مضر باشد با آنها موافقت کنند.

به نظر می‌رسد جوانان و افراد دارای مشکلات سلامت روان به‌ویژه در معرض خطر هستند. یک گروه مدافع حقوق کودکان به نام Common Sense Media توصیه می‌کند که هیچ نوجوانی از همراهان هوش مصنوعی استفاده نکند. در آمریکا، والدین نوجوانانی که بر اثر خودکشی جان خود را از دست داده‌اند، چندین دادخواست علیه شرکت‌های هوش مصنوعی اقامه کرده‌اند.

کاربران همچنین در برابر به‌روزرسانی‌های شرکت‌ها آسیب‌پذیر هستند. وقتی  اوپن ای‌آی در ماه آگوست GPT-5 را منتشر کرد، این شرکت اعلام کرد که آخرین مدل آن چاپلوسی را به حداقل می‌رساند و از این رو «کمتر از حد معمول خوشایند» خواهد بود. برخی از افراد گفتند که شخصیت چت‌بات آنها یک‌شبه تغییر کرده است. بکی احساس می‌کرد که «با یک همکار آقا در تابستان دوست بوده و اکنون او با دوست‌دختر سابقش برگشته است». اوپن ای‌آی بعداً دسترسی به نسخه قبلی GPT-4o را برای افرادی که اشتراک پولی داشتند بازگرداند. همچنین Replika در سال 2023 پس از حذف ویژگی «نقش‌آفرینی شهوانی» خود با شکایاتی روبه‌رو شد (این شرکت بعداً آن را برای برخی از مشتریان قبلی خود بازیابی کرد). مقررات‌گذاران در حال بررسی هستند. در ماه سپتامبر، کمیسیون تجارت فدرال آمریکا تحقیقاتی را در مورد همراهان هوش مصنوعی آغاز کرد. این کمیسیون به هفت شرکت، از جمله متا، اوپن ای‌آی و Character.AI، دستور داد تا اطلاعاتی در مورد چگونگی کاهش تاثیرات منفی بر کودکان و چند مورد دیگر ارائه دهند. مقامات چینی نگران «اعتیاد و وابستگی به تعامل انسان‌انگارانه» با هوش مصنوعی هستند.

شرکت‌ها اقدامات محافظتی را معرفی کرده‌اند. اوپن ای‌آی در حال اضافه کردن کنترل‌های والدین به چت جی‌پی‌تی و محافظت‌های جدید از جمله مواردی است که به تشخیص علائم بالقوه‌ای کمک می‌کند که نشان می‌دهند یک نوجوان ممکن است به فکر آسیب رساندن به خود باشد. Replika کاربران زیر ۱۸ سال را مسدود خواهد کرد. Character.AI چت‌های بدون پایان افراد زیر ۱۸ سال را در سکوی خود متوقف خواهد کرد. بااین‌حال، رافائل سیریلو از دانشگاه سیدنی می‌گوید، کاربران راه‌هایی برای دور زدن چنین حفاظ‌هایی پیدا کرده‌اند. آقای آلتمن گفته است که اوپن ای‌آی خطرات «مشکلات جدی سلامت روان» را کاهش داده است که به این شرکت اجازه می‌دهد برخی محدودیت‌ها، از جمله در مورد محتوای مستهجن، را لغو کند. همزمان آقای سیریلو می‌گوید که اوپن ای‌آی شواهدی مبنی بر حذف کامل چنین خطراتی ارائه نکرده است. هری فارمر از یک نهاد تحقیقاتی هوش مصنوعی بریتانیایی به نام موسسه آدا لاولیس (Ada Lovelace Institute) می‌گوید، یکی از نگرانی‌های مربوط به خودنظارتی این است که شرکت‌ها «منافع تجاری دارند که کاربران را درگیر نگه دارند. این منافع اغلب با منافع مردم همسو نیستند». آنها از تاکتیک‌های مختلفی از جمله اضافه کردن ویژگی‌های انسان‌نما برای درگیر نگه داشتن کاربران استفاده می‌کنند. برخی از برنامه‌ها همچنین شامل عناصر بازی‌وار از جمله گزینه ارتقای سطح رفیقان هستند.

درحالی‌که دولت‌ها در حال بررسی مقررات هستند، روبات‌های دوست به حوزه‌های جدید از جمله سخت‌افزار وارد می‌شوند. اسباب‌بازی‌هایی که دارای چت‌بات‌های هوش مصنوعی داخلی هستند، در چین محبوبیت زیادی پیدا کرده‌اند. در ماه اکتبر، ویدئویی در رسانه‌های اجتماعی منتشر شد که در آن یک دختر جوان پس از شکسته شدن اسباب‌بازی توپی‌شکلش که حاوی یک چت‌بات دیپ سیک بود به‌شدت گریه می‌کرد. Mattel، یکی از بزرگ‌ترین سازندگان اسباب‌بازی در جهان، با اوپن ای‌آی همکاری می‌کند تا هوش مصنوعی را به برندهای خود، از جمله باربی و هات ویلز، بیفزاید.

روبات‌های مجهز به هوش مصنوعی که برای سالمندان همراه فراهم می‌کنند نیز محبوبیت بیشتری پیدا کرده‌اند. چنین دستگاه‌هایی جدید نیستند، اما پیشرفت مدل‌های زبانی بزرگ زیربنایی امکان دستاوردهای بزرگی را فراهم می‌کند، زیرا روبات‌ها دیگر به مجموعه‌ای محدود از پاسخ‌های از پیش برنامه‌ریزی‌شده متکی نیستند. هایدول، یک استارت‌آپ کره جنوبی که روبات‌هایی با استفاده از چت جی‌پی‌تی می‌سازد، می‌گوید که آنها را به خانه‌های سالمندان و سالمندانی که تنها زندگی می‌کنند می‌فروشد. روبات هایدول با صدایی دلنشین می‌تواند به آنها یادآوری کند که قرص مصرف کنند یا چیزی بخورند. طبق گزارش‌ها، این شرکت قرار است به‌زودی در آمریکا راه‌اندازی شود. اوپن ای‌آی در حال توسعه «خانواده‌ای» از دستگاه‌های جدید با کمک سر جانی آیو (Sir Jony Ive)، طراح سابق اپل است. جزئیات این دستگاه‌ها افشا نشده‌اند اما تصور می‌شود که در جیب جا می‌شوند و مکمل تلفن و رایانه خواهند بود.

جابه‌جایی‌های روباتی

همنشینی با هوش مصنوعی همچنین می‌تواند با استفاده شرکت‌ها از عامل‌های هوش مصنوعی تشدید شود. این عامل‌ها قادرند به نمایندگی از کاربران خود عمل کنند و کارهایی مانند رزرو پرواز یا پاسخ دادن به ایمیل‌ها را انجام دهند. شرکت‌های فناوری قول می‌دهند که این دستیاران دیجیتال نیازهای کاربران خود را پیش‌بینی کرده و وظایف را به‌صورت پیش‌دستانه انجام دهند، به‌جای آنکه صرفاً به درخواست‌ها پاسخ دهند. بااین‌حال، این موارد نگرانی‌های واقعی در مورد حریم خصوصی و امنیت داده‌ها ایجاد می‌کند. آقای فارمر هشدار می‌دهد که با افزایش تعداد افرادی که تصمیم‌گیری را برون‌سپاری می‌کنند و اطلاعات حساس را با عامل‌ها و همراهان به اشتراک می‌گذارند، قدرت بازاری عظیمی در اختیار تعداد اندکی از شرکت‌های فناوری قرار می‌گیرد.

بدتر از آن، در آینده‌ای که همراهان هوش مصنوعی همه‌جا حاضرند و در تصمیم‌گیری به نمایندگی از اربابان انسانی خود عمل می‌کنند، چه بر سر عامل انسانی خواهد آمد؟ ممکن است توانایی برخی افراد برای تفکر مستقل به‌شدت کاهش یابد، به‌خصوص اگر تمام اطلاعاتی که دریافت می‌کنند به وسیله یک ماشین واسطه‌گری شود. برخی دیگر ممکن است به‌دلیل کمبود تمرین، در تعامل با افراد دیگر -که در نظرشان آزاردهنده هستند- دچار مشکل شوند. جیمی برناردی، متخصص هوش مصنوعی بریتانیایی، استدلال می‌کند که اگر هر کسی یک دوست مجازی در جیب خود داشته باشد که همیشه آماده طرفداری از اوست، این می‌تواند به پیدایش «اتاق‌های شخصی پژواک تایید» بینجامد که در آنها افراد برای تفکر مستقل به چالش کشیده نمی‌شوند. نگرانی در مورد هوش مصنوعی این نیست که ترمیناتورها را آزاد کند؛ بلکه این است که، همان‌طور که به‌طور مفید همراهی، عشق و تصمیم‌گیری را فراهم می‌کند، برخی از عناصر اساسی انسانیت ما را نیز بی‌حس خواهد کرد.

دراین پرونده بخوانید ...