دستکاریهای بزرگ
دیپفیکها چگونه کار میکنند؟
فناوری دیپفیک چیست؟
عبارت «دیپفیک» از ترکیب دو واژه «یادگیری عمیق» (Deep Learning) و «جعلی» (Fake) بهوجود آمده است. اگرچه تعریف یکسان و رسمی برای آن وجود ندارد، اما معمولاً دیپفیکها ویدئوها، تصاویر یا کلیپهای صوتی هستند که با استفاده از یادگیری ماشین و هوش مصنوعی ساخته میشوند که واقعی به نظر برسند. دیپفیک با ویدئوهایی که صرفاً با نرمافزارهای ویرایش ویدئو اصلاح شدهاند، فرق دارد. این نوع ویدئوها معمولاً از طریق برنامهها یا الگوریتمهای خاصی تولید میشود که ترکیبی از ویدئوی قدیمی و ویدئوی جدید ساختهشده هستند. برنامههای دیپفیک که مبتنی بر یادگیری ماشین هستند، ویژگیهای ظریف چهره یک فرد را تجزیهوتحلیل کرده و یاد میگیرند چطور آنها را براساس شرایط خاص ویدئو دستکاری کنند. سپس این دستکاریها در ویدئوی دیگری ادغام میشود و محتوایی کاملاً جدید میسازد. از آنها میتوان برای سرگرمی یا حتی پژوهشهای علمی استفاده کرد، اما گاهی برای جعل هویت افرادی همانند سیاستمداران یا رهبران جهان بهکار میروند که عمداً مردم را گمراه کنند.
دیپفیکها چگونه کار میکنند؟
عملکرد داخلی الگوریتم دیپفیک پیچیده است. اما «رمز موفقیت» این الگوریتمها دو مولفه مهم است: اول اینکه، آنها درک عمیقی از چهره یک فرد پیدا میکنند و یاد میگیرند چگونه ویژگیهای آن چهره را روی چهره فرد دیگری اعمال کنند. چون بیشتر افراد دهان، چشم و بینیشان در محلهایی نسبتاً مشابه قرار دارد، الگوریتم دیپفیک میتواند ویژگیهای آناتومی (کالبدشناسی) چهره را با دقت بالا تحلیل کند و یاد بگیرد. سپس این ویژگیها را در ویدئوی دوم بهگونهای دستکاری میکند که با چهره فرد اول همخوانی داشته باشد، در حالی که سبک کلی ویدئو حفظ میشود. این فناوری میتواند حرکتهای صورت یک فرد را از روی ویدئوهای او، یا حتی فقط از روی یک عکس از چهرهاش تقلید کند. ویژگی جالب دیگر در الگوریتمهای دیپفیک این است که آنها از اجزایی تشکیل شدهاند که برخلاف یکدیگر عمل میکنند. یک بخش، دادههای جعلی تولید میکند و بخش دیگر برای شناسایی این دادههای جعلی آموزش دیده است و با این کار باعث بهبود نتیجه نهایی میشود. در واقع، برنامه دیپفیک خودش نقش مربی و معلم را ایفا میکند که خروجی بهتر تولید کند. با استفاده از هوش مصنوعی، دیپفیکها میتوانند صدای یک شخص و ویژگیهای چهره او را تقلید کنند. این فناوری از یک فایل صوتی ضبطشده از صدای یک نفر استفاده میکند و جملاتی را به زبان بیاورد که آن فرد ممکن است هرگز نگفته باشد. بسیاری از ویدئوها یا تصاویر دیپفیک ممکن است عجیب به نظر برسند، بنابراین تشخیص اینکه جعلی هستند میتواند آسان باشد. با این حال، گاهی اوقات آنها واقعی به نظر میرسند و فناوری که برای ساخت آنها استفاده میشود، بهطور مداوم در حال پیشرفت است. نتیجه نهایی، ویدئویی غیرواقعی است که میتواند با نیت خوب یا بد مورد استفاده قرار گیرد.
دیپفیکها چه زمانی میتوانند مفید باشند؟
پژوهشگران دانشگاه ساوتهمپتون میگویند فناوری دیپفیک میتواند به افرادی کمک کند که اغلب به دلیل یک بیماری یا درمان پزشکی دیگر قادر به صحبت کردن نیستند تا دوباره صدای خود را بشنوند. یادگیری بدون نظارت (Unsupervised learning) که در الگوریتمهای دیپفیک توسعه یافته، کاربردهای مفیدی هم دارد. دانشمندان از هوش مصنوعی برای جستوجوی حیات فرازمینی استفاده میکنند.
همچنین یادگیری ماشینی مشابه با تکنولوژی دیپفیک میتواند به خودروهای خودران کمک کند محیط اطراف (از جمله عابران پیاده) را بهتر بشناسند و همچنین باعث بهبود در جستوجوی صوتی و برنامههای واقعیت مجازی شود. گاهی اوقات از دیپفیکها برای سرگرمی هم استفاده میشود. ممکن است ویدئوهایی را دیده باشید که با هوش مصنوعی ساخته شدهاند که به آنها میخندید. همانند کاربر تیکتاکی که دیپفیکهایی از تام کروز میسازد. اما در برخی موارد، این کار با نیت بدخواهانه و سوءاستفادهگرانه انجام میشود.
چرا دیپفیکها میتوانند خطرناک باشند؟
دیپفیکها میتوانند برای پخش اطلاعات نادرست استفاده شوند. «اطلاعات نادرست» واژهای است که برای توصیف اطلاعات اشتباه بهکار میرود که بهصورت عمدی منتشر میشود. اگر ویدئوی دیپفیک شخص معروف یا سیاستمداری را نشان دهد که چیزی میگوید که هرگز نگفته، ممکن است مردم را گمراه کند. این میتواند بر نحوه رای دادن مردم و تصمیمگیریهای مهم آنها تاثیر بگذارد. همچنین ممکن است اعتبار فرهنگی یا جایگاه اجتماعی آن فرد برای انتشار شایعه یا اطلاعات نادرست مورد استفاده قرار گیرد. یا بهطور ساده، باعث آسیب رساندن به شهرت و اعتبار آن فرد شود که در بسیاری از کشورها، جرم محسوب میشود. از آنجا که دیپفیکها میتوانند واقعی به نظر برسند، گاهی تشخیص اینکه یک ویدئو واقعی است یا نه، دشوار میشود. بهویژه اگر ندانید دنبال چه چیزی باید بگردید. وقتی با ویدئویی مصنوعی مواجه میشویم، تصور خطر آن چندان دشوار نیست. واضحترین خطر این است که گفتهها یا رفتارهای جعلی یک فرد میتواند دیگران را به انجام کار خطرناک تحریک کند. خطر دیگر این است که این ویدئوهای مصنوعی ممکن است باعث شود اعتماد مردم به ویدئوهای واقعی هم از بین برود.
کارشناسان حریم خصوصی بهدرستی نگران آن هستند که از دیپفیک برای پخش اطلاعات نادرست در شبکههای اجتماعی یا برای دور زدن سیستمهای امنیتی همانند تشخیص چهره و احراز هویت بیومتریک استفاده شود. انتظار میرود فناوری پشت دیپفیکها در آینده پیشرفتهتر هم بشود. با این وصف، این موضوع باعث میشود کلاهبرداران راحتتر بتوانند با استفاده از هویتهای جعلی یا دزدیدهشده مرتکب جرم شوند، حتی وقتی بررسیهای KYC (احراز هویت مشتری) شامل تصویر، صدا یا ویدئو انجام میشود. برای مثال، اگر فردی اطلاعات حساس یک شخص را بدزدد و نمونههایی کافی از ظاهر و صدای او داشته باشد، میتواند با کمک دیپفیک، مدارک شناسایی جعلی، واقعی به نظر برسد که تشخیص جعلی بودن آنها دشوار است. این موضوع بهویژه نگرانکننده است چون دیپفیک فقط تصویر ثابت را دستکاری نمیکند، بلکه میتواند ویدئو و صدا را نیز طوری تغییر دهد که فرد موجود در آنها، شخص دیگری به نظر برسد. بنابراین، دیپفیک میتواند فرآیندهای احراز هویت پیشرفته همانند بیومتریک (تشخیص چهره یا صدا) و تشخیص زنده بودن را نیز فریب دهد. همچنین ویدئو یا صدای دیپفیک ممکن است در کلاهبرداری مهندسی اجتماعی استفاده شود؛ مثلاً مجرمی خود را بهطور قانعکنندهای شبیه فرد معتبر یا مسئول نشان دهد و از قربانی بخواهد به او پول یا اطلاعات حساس بدهد.
نگرانیهای دیگر چیست؟
نگرانیها فقط به دیپفیک محدود نمیشود. چهرههای ترکیبی (Morphs) نوعی روش حمله بیومتریک هستند که در آن چهره دو یا چند نفر با هم ترکیب و چهره منحصربهفردی ساخته میشود. چون این چهره ترکیبی ممکن است شامل ویژگیهایی از فرد مجاز و غیرمجاز باشد، سیستمهای تشخیص چهره ممکن است فریب خورده و به صورتِ جعلی، دسترسی بدهند. از چهرههای ترکیبی همچنین میتوان برای ساخت مدارک هویت جعلی همانند گذرنامه استفاده کرد، برای کسانی که بهطور قانونی اجازه دریافت آن را ندارند یا نمیتوانند از مرزها عبور کنند. در این حالت، تصویر ترکیبی از چهره کسی که مجاز است، ساخته میشود. این تصویر ترکیبی میتواند برای ثبتنام در دریافت گذرنامه استفاده شود. پس از دریافت گذرنامه، فرد غیرمجاز ممکن است تلاش کند با آن از مرز عبور کند. یکی از دلایلی که دیپفیکها بیشتر روی چهره افراد مشهور و شخصیتهای تاریخی تمرکز دارند، این است که اطلاعات پسزمینه زیادی درباره آنها در دسترس است. یک الگوریتم یادگیری ماشینی (مثل آنهایی که در پردازش دیپفیک استفاده میشود) باید درک عمیق از ظاهر فرد مورد نظر داشته باشد. این یعنی الگوریتم باید دادههای تصویری آن فرد را از زوایای مختلف، در نورپردازیهای متفاوت و در شرایط گوناگون تحلیل کند. بنابراین برای افراد عادی، معمولاً دادههای کافی وجود ندارد که هدف حمله دیپفیک قرار بگیرند. نگرانی برای سازمانها یا افرادی که از احراز هویت بیومتریک برای حفاظت از داراییهای خود استفاده میکنند، کمتر است، چرا که چهارچوبهای بیومتریک پیشرفته از فناوری تشخیص زنده بودن (liveness detection) بهره میبرد- یعنی این فناوری بررسی میکند آیا کاربر یک فرد زنده و واقعی است که مستقیم مقابل دوربین حضور دارد یا اینکه تصویر تقلبی یا حملهای جعلی، برای فریب سیستم در جریان است. سیستمهای احراز هویت بیومتریک معتبر توانایی بالایی در تشخیص تفاوت میان یک فرد واقعی و نسخه جعلی از آن دارند.
آمادگی برای مقابله با آسیبهای احتمالی
با گسترش روزافزون فناوریهای مبتنی بر هوش مصنوعی، پدیده «دیپفیک» به یکی از چالشهای جدی در حوزههای امنیتی، رسانهای و اجتماعی تبدیل شده است. دیپفیکها که از ترکیب الگوریتمهای پیشرفته یادگیری ماشین برای تولید تصاویر، ویدئوها یا صداهای جعلی بهره میبرند، میتوانند مرز میان واقعیت و جعل را به طرز نگرانکنندهای محو کنند. با وجود تهدیدهای نگرانکننده، اخبار درباره دیپفیکها، چهرههای ترکیبی و تهدیدهای مشابه، کاملاً منفی نیست. با این حال یادتان باشد همیشه چیزهایی را که در اینترنت میبینید با دقت بررسی کنید. بهویژه اگر به نظرتان عجیب یا غیرعادی میرسند. به توصیههای کارشناسان توجه کنید و از خودتان بپرسید چرا ممکن است کسی ویدئو یا تصویر خاصی را منتشر کرده باشد. این موضوع نشان میدهد داشتن استراتژی چندجانبه مقابله با تقلب، بیش از هر زمان دیگری اهمیت دارد. تیم مبارزه با تقلب باید وجود داشته باشد که بتواند نشانههای مشکوک را ردیابی کند. بهطور مثال یکی از این موارد میتواند نشانهای از سوءاستفاده یا جرم مالی در موسسه مالی یا بازار آنلاین باشند. تاکنون در کشورهایی که استفاده از هوش مصنوعی کاربرد بیشتری دارد، راهکارهایی برای شناسایی و پیشگیری از تقلب با هوش مصنوعی (Synthetic ID) که با دیپفیک و سایر فناوریهای هوش مصنوعی و یادگیری ماشین مرتبط هستند، صورت گرفته است. در چنین شرایطی، آگاهی از نحوه ساخت دیپفیک و تفاوت میان روشهای ساده و پیچیده تولید آن، نقشی کلیدی در درک تهدیدات احتمالی، طراحی راهکارهای مقابلهای و ارتقای سواد رسانهای میتواند ایفا میکند. دانستن اینکه تولید دیپفیکها از طریق اپلیکیشنهای ساده در مدت زمان کوتاه ممکن است، هشدار مهمی در مورد سهولت و سرعت انتشار محتوای جعلی و مخرب ارائه میدهد. این موضوع بهویژه در حوزههایی نظیر «جعل هویت»، «کلاهبرداری» و «دستکاری اطلاعات» عمومی مهم است. درک تفاوت میان دیپفیکهایی که با نرمافزارهای ساده و بدون داده زیاد، تولید میشوند، با دیپفیکهایی که بر پایه الگوهای پیچیده و حجم بالایی از دادههای آموزشدیده ساخته شدهاند، به تحلیلگران و سیاستگذاران کمک میکند میزان تهدید و اعتبار این محتواها را بهتر ارزیابی کنند. نهادهای مالی، رسانهای و امنیتی با شناخت عمیق از فرآیند تولید دیپفیک، میتوانند راهکارهای دقیقی برای شناسایی و مقابله با آن طراحی کنند. این آگاهی، سنگبنای توسعه سامانههای تشخیص محتوای جعلی و ارتقای سامانههای احراز هویت است. افزایش سواد رسانهای در جامعه نیز اهمیت دارد. درک عمومی از سازوکار تولید دیپفیک باعث افزایش حساسیت و دقت کاربران در مواجهه با محتوای بصری و صوتی میشود. این موضوع، نقش مهمی در جلوگیری از گمراهی عمومی و انتشار شایعهها ایفا میکند. پژوهشگران و شرکتها در کشورهایی که استفاده بیشتری از هوش مصنوعی دارند، روشهای مختلف و متفاوت را برای شناسایی دیپفیکها آزمایش کردهاند. این روشها معمولاً با استفاده از هوش مصنوعی، ویدئوها را از نظر نشانههای دیجیتالی یا جزئیاتی که دیپفیکها قادر به تقلید واقعی آنها نیستند -مانند پلک زدن یا حرکات ظریف صورت- تحلیل میکنند. با این حال، حتی با وجود مداخله شرکتهای فناوری، هنوز پرسشهای مهمی درباره نوع مواجهه و سیاستگذاری درباره دیپفیکها باقی مانده است که باید به آنها پاسخ داده شود. برای مثال:
الف- چه اقدامهایی میتوان برای آموزش عمومی درباره دیپفیکها انجام داد که مردم در برابر آنها محافظت شوند و بتوانند محتوای واقعی را از محتوای جعلی تشخیص دهند؟
ب- افراد در برابر استفاده از فناوری دیپفیک، چه حقوقی نسبت به حریم خصوصی خود دارند؟
ج- تولیدکنندگان ویدئوها، تصاویر و سایر محتوای دیپفیک، از چه حقوقی در چهارچوب قانون اساسی (آزادی بیان) برخوردارند؟
دیپفیکها ابزارهایی قدرتمند برای سوءاستفاده و انتشار اطلاعات نادرست هستند. با پیشرفتهایی که باعث سختتر شدن شناسایی آنها شده، این فناوریها نیازمند بررسی عمیق هستند.
نتیجه بحث
با توجه به سرعت پیشرفت فناوریهای مبتنی بر هوش مصنوعی، از جمله دیپفیک، میتوان گفت این ابزارها بخشی جدانشدنی از زندگی دیجیتال انسانها هستند. در حالی که این فناوریها ظرفیتهای چشمگیر برای نوآوری و خلق محتوا دارند، چالشهای عمیق نیز در زمینه حریم خصوصی، حقوق فردی و امنیت اطلاعات ایجاد کردهاند. دیپفیکها نهتنها میتوانند اعتماد عمومی را تضعیف کنند، بلکه با بهرهگیری از چهره یا صدای افراد، بدون رضایت آنها بهراحتی میتوانند دروغ، جعل یا حتی سوءاستفادههای جدی در پی داشته باشند.
بنابراین لازم است دولتها، نهادهای قانونگذار، شرکتهای فناوری و جوامع مدنی بهطور همزمان وارد عمل شوند و برای مواجهه با این فناوری برنامهریزی دقیق و چندبعدی داشته باشند. نخستین گام، تدوین چهارچوبهای قانونی روشن برای استفاده و تولید محتوای دیپفیک است که مرز میان خلاقیت مشروع و استفاده مضر مشخص شود. دوم اینکه، سرمایهگذاری در ابزارهای شناسایی محتوای جعلی و توسعه الگوریتمهای مقابله با دیپفیک باید در اولویت قرار گیرد. همسو با این موارد، آموزش عمومی نیز اهمیت زیادی دارد. توانمندسازی مردم برای تشخیص محتوای واقعی از جعلی، بهویژه در فضای مجازی، میتواند مانع گسترش اخبار جعلی، سوءاستفاده از شهرت افراد و فریب افکار عمومی شود. همانطور که فناوری دیپفیک بخشی از آینده است، سیاستگذاری، اخلاق حرفهای و تفکر انتقادی نیز باید بخشی از مواجهه فعالانه با این پدیده باشد. آینده ایمنتر در گرو پذیرش این واقعیت است که به چالشهای فناوری نه با «انکار»، بلکه با «شناخت» باید پاسخ داد.