شناسه خبر : 49299 لینک کوتاه
تاریخ انتشار:

دستکاری‌های بزرگ

دیپ‌فیک‌ها چگونه کار می‌کنند؟

 

آزاده خرمی‌مقدم / نویسنده نشریه 

فناوری دیپ‌فیک چیست؟

عبارت «دیپ‌فیک» از ترکیب دو واژه «یادگیری عمیق» (Deep Learning) و «جعلی» (Fake) به‌وجود آمده است. اگرچه تعریف یکسان و رسمی برای آن وجود ندارد، اما معمولاً دیپ‌فیک‌ها ویدئوها، تصاویر یا کلیپ‌های صوتی‌ هستند که با استفاده از یادگیری ماشین و هوش مصنوعی ساخته می‌شوند که واقعی به نظر برسند. دیپ‌فیک با ویدئوهایی که صرفاً با نرم‌افزارهای ویرایش ویدئو اصلاح شده‌اند، فرق دارد. این نوع ویدئوها معمولاً از طریق برنامه‌ها یا الگوریتم‌های خاصی تولید می‌شود که ترکیبی از ویدئوی قدیمی و ویدئوی جدید ساخته‌شده هستند. برنامه‌های دیپ‌فیک که مبتنی بر یادگیری ماشین هستند، ویژگی‌های ظریف چهره یک فرد را تجزیه‌وتحلیل کرده و یاد می‌گیرند چطور آنها را براساس شرایط خاص ویدئو دستکاری کنند. سپس این دستکاری‌ها در ویدئوی دیگری ادغام می‌شود و محتوایی کاملاً جدید می‌سازد. از آنها می‌توان برای سرگرمی یا حتی پژوهش‌های علمی استفاده کرد، اما گاهی برای جعل هویت افرادی همانند سیاستمداران یا رهبران جهان به‌کار می‌روند که عمداً مردم را گمراه کنند.

دیپ‌فیک‌ها چگونه کار می‌کنند؟

عملکرد داخلی الگوریتم دیپ‌فیک پیچیده است. اما «رمز موفقیت» این الگوریتم‌ها دو مولفه مهم است: اول اینکه، آنها درک عمیقی از چهره یک فرد پیدا می‌کنند و یاد می‌گیرند چگونه ویژگی‌های آن چهره را روی چهره فرد دیگری اعمال کنند. چون بیشتر افراد دهان، چشم و بینی‌شان در محل‌هایی نسبتاً مشابه قرار دارد، الگوریتم دیپ‌فیک می‌تواند ویژگی‌های آناتومی (کالبدشناسی) چهره را با دقت بالا تحلیل کند و یاد بگیرد. سپس این ویژگی‌ها را در ویدئوی دوم به‌گونه‌ای دستکاری می‌کند که با چهره فرد اول همخوانی داشته باشد، در حالی‌ که سبک کلی ویدئو حفظ می‌شود. این فناوری می‌تواند حرکت‌های صورت یک فرد را از روی ویدئوهای او، یا حتی فقط از روی یک عکس از چهره‌اش تقلید کند. ویژگی جالب دیگر در الگوریتم‌های دیپ‌فیک این است که آنها از اجزایی تشکیل شده‌اند که برخلاف یکدیگر عمل می‌کنند. یک بخش، داده‌های جعلی تولید می‌کند و بخش دیگر برای شناسایی این داده‌های جعلی آموزش دیده است و با این کار باعث بهبود نتیجه نهایی می‌شود. در واقع، برنامه دیپ‌فیک خودش نقش مربی و معلم را ایفا می‌کند که خروجی بهتر تولید کند. با استفاده از هوش مصنوعی، دیپ‌فیک‌ها می‌توانند صدای یک شخص و ویژگی‌های چهره او را تقلید کنند. این فناوری از یک فایل صوتی ضبط‌شده از صدای یک نفر استفاده می‌کند و جملاتی را به زبان بیاورد که آن فرد ممکن است هرگز نگفته باشد. بسیاری از ویدئوها یا تصاویر دیپ‌فیک ممکن است عجیب به نظر برسند، بنابراین تشخیص اینکه جعلی هستند می‌تواند آسان باشد. با این‌ حال، گاهی اوقات آنها واقعی به نظر می‌رسند و فناوری‌ که برای ساخت آنها استفاده می‌شود، به‌طور مداوم در حال پیشرفت است. نتیجه نهایی، ویدئویی غیرواقعی است که می‌تواند با نیت خوب یا بد مورد استفاده قرار گیرد.

دیپ‌فیک‌ها چه زمانی می‌توانند مفید باشند؟

پژوهشگران دانشگاه ساوت‌همپتون می‌گویند فناوری دیپ‌فیک می‌تواند به افرادی کمک کند که اغلب به دلیل یک بیماری یا درمان پزشکی دیگر قادر به صحبت کردن نیستند تا دوباره صدای خود را بشنوند. یادگیری بدون نظارت (Unsupervised learning) که در الگوریتم‌های دیپ‌فیک توسعه یافته، کاربردهای مفیدی هم دارد. دانشمندان از هوش مصنوعی برای جست‌وجوی حیات فرازمینی استفاده می‌کنند. 

همچنین یادگیری ماشینی مشابه با تکنولوژی دیپ‌فیک می‌تواند به خودروهای خودران کمک کند محیط اطراف (از جمله عابران پیاده) را بهتر بشناسند و همچنین باعث بهبود در جست‌وجوی صوتی و برنامه‌های واقعیت مجازی شود. گاهی اوقات از دیپ‌فیک‌ها برای سرگرمی هم استفاده می‌شود. ممکن است ویدئوهایی را دیده باشید که با هوش مصنوعی ساخته شده‌اند که به آنها می‌خندید. همانند کاربر تیک‌تاکی که دیپ‌فیک‌هایی از تام کروز می‌سازد. اما در برخی موارد، این کار با نیت بدخواهانه و سوءاستفاده‌گرانه انجام می‌شود.

چرا دیپ‌فیک‌ها می‌توانند خطرناک باشند؟

دیپ‌فیک‌ها می‌توانند برای پخش اطلاعات نادرست استفاده شوند. «اطلاعات نادرست» واژه‌ای است که برای توصیف اطلاعات اشتباه به‌کار می‌رود که به‌صورت عمدی منتشر می‌شود. اگر ویدئوی دیپ‌فیک شخص معروف یا سیاستمداری را نشان دهد که چیزی می‌گوید که هرگز نگفته، ممکن است مردم را گمراه کند. این می‌تواند بر نحوه رای دادن مردم و تصمیم‌گیری‌های مهم آنها تاثیر بگذارد. همچنین ممکن است اعتبار فرهنگی یا جایگاه اجتماعی آن فرد برای انتشار شایعه یا اطلاعات نادرست مورد استفاده قرار گیرد. یا به‌طور ساده، باعث آسیب رساندن به شهرت و اعتبار آن فرد شود که در بسیاری از کشورها، جرم محسوب می‌شود. از آنجا که دیپ‌فیک‌ها می‌توانند واقعی به نظر برسند، گاهی تشخیص اینکه یک ویدئو واقعی است یا نه، دشوار می‌شود. به‌ویژه اگر ندانید دنبال چه چیزی باید بگردید. وقتی با ویدئویی مصنوعی مواجه می‌شویم، تصور خطر آن چندان دشوار نیست. واضح‌ترین خطر این است که گفته‌ها یا رفتارهای جعلی یک فرد می‌تواند دیگران را به انجام کار خطرناک تحریک کند. خطر دیگر این است که این ویدئوهای مصنوعی ممکن است باعث شود اعتماد مردم به ویدئوهای واقعی هم از بین برود.

کارشناسان حریم خصوصی به‌درستی نگران آن هستند که از دیپ‌فیک برای پخش اطلاعات نادرست در شبکه‌های اجتماعی یا برای دور زدن سیستم‌های امنیتی همانند تشخیص چهره و احراز هویت بیومتریک استفاده شود. انتظار می‌رود فناوری پشت دیپ‌فیک‌ها در آینده پیشرفته‌تر هم بشود. با این وصف، این موضوع باعث می‌شود کلاهبرداران راحت‌تر بتوانند با استفاده از هویت‌های جعلی یا دزدیده‌شده مرتکب جرم شوند، حتی وقتی بررسی‌های KYC (احراز هویت مشتری) شامل تصویر، صدا یا ویدئو انجام می‌شود. برای مثال، اگر فردی اطلاعات حساس یک شخص را بدزدد و نمونه‌هایی کافی از ظاهر و صدای او داشته باشد، می‌تواند با کمک دیپ‌فیک، مدارک شناسایی جعلی، واقعی به نظر برسد که تشخیص جعلی بودن آنها دشوار است. این موضوع به‌ویژه نگران‌کننده است چون دیپ‌فیک فقط تصویر ثابت را دستکاری نمی‌کند، بلکه می‌تواند ویدئو و صدا را نیز طوری تغییر دهد که فرد موجود در آنها، شخص دیگری به نظر برسد. بنابراین، دیپ‌فیک می‌تواند فرآیندهای احراز هویت پیشرفته همانند بیومتریک (تشخیص چهره یا صدا) و تشخیص زنده بودن را نیز فریب دهد. همچنین ویدئو یا صدای دیپ‌فیک ممکن است در کلاهبرداری مهندسی اجتماعی استفاده شود؛ مثلاً مجرمی خود را به‌طور قانع‌کننده‌ای شبیه فرد معتبر یا مسئول نشان دهد و از قربانی بخواهد به او پول یا اطلاعات حساس بدهد.

نگرانی‌های دیگر چیست؟

نگرانی‌ها فقط به دیپ‌فیک محدود نمی‌شود. چهره‌های ترکیبی (Morphs) نوعی روش حمله بیومتریک هستند که در آن چهره دو یا چند نفر با هم ترکیب و چهره منحصربه‌فردی ساخته می‌شود. چون این چهره ترکیبی ممکن است شامل ویژگی‌هایی از فرد مجاز و غیرمجاز باشد، سیستم‌های تشخیص چهره ممکن است فریب خورده و به صورتِ جعلی، دسترسی بدهند. از چهره‌های ترکیبی همچنین می‌توان برای ساخت مدارک هویت جعلی همانند گذرنامه استفاده کرد، برای کسانی که به‌طور قانونی اجازه دریافت آن را ندارند یا نمی‌توانند از مرزها عبور کنند. در این حالت، تصویر ترکیبی از چهره کسی که مجاز است، ساخته می‌شود. این تصویر ترکیبی می‌تواند برای ثبت‌نام در دریافت گذرنامه استفاده شود. پس از دریافت گذرنامه، فرد غیرمجاز ممکن است تلاش کند با آن از مرز عبور کند. یکی از دلایلی که دیپ‌فیک‌ها بیشتر روی چهره افراد مشهور و شخصیت‌های تاریخی تمرکز دارند، این است که اطلاعات پس‌زمینه زیادی درباره آنها در دسترس است. یک الگوریتم یادگیری ماشینی (مثل آنهایی که در پردازش دیپ‌فیک استفاده می‌شود) باید درک عمیق از ظاهر فرد مورد نظر داشته باشد. این یعنی الگوریتم باید داده‌های تصویری آن فرد را از زوایای مختلف، در نورپردازی‌های متفاوت و در شرایط گوناگون تحلیل کند. بنابراین برای افراد عادی، معمولاً داده‌های کافی وجود ندارد که هدف حمله دیپ‌فیک قرار بگیرند. نگرانی برای سازمان‌ها یا افرادی که از احراز هویت بیومتریک برای حفاظت از دارایی‌های خود استفاده می‌کنند، کمتر است، چرا که چهارچوب‌های بیومتریک پیشرفته از فناوری تشخیص زنده بودن (liveness detection) بهره می‌برد- یعنی این فناوری بررسی می‌کند آیا کاربر یک فرد زنده و واقعی است که مستقیم مقابل دوربین حضور دارد یا اینکه تصویر تقلبی یا حمله‌ای جعلی، برای فریب سیستم در جریان است. سیستم‌های احراز هویت بیومتریک معتبر توانایی بالایی در تشخیص تفاوت میان یک فرد واقعی و نسخه جعلی از آن دارند.

آمادگی برای مقابله با آسیب‌های احتمالی

با گسترش روزافزون فناوری‌های مبتنی بر هوش مصنوعی، پدیده «دیپ‌فیک» به یکی از چالش‌های جدی در حوزه‌های امنیتی، رسانه‌ای و اجتماعی تبدیل شده است. دیپ‌فیک‌ها که از ترکیب الگوریتم‌های پیشرفته یادگیری ماشین برای تولید تصاویر، ویدئوها یا صداهای جعلی بهره می‌برند، می‌توانند مرز میان واقعیت و جعل را به طرز نگران‌کننده‌ای محو کنند. با وجود تهدیدهای نگران‌کننده، اخبار درباره دیپ‌فیک‌ها، چهره‌های ترکیبی و تهدیدهای مشابه، کاملاً منفی نیست. با این‌ حال یادتان باشد همیشه چیزهایی را که در اینترنت می‌بینید با دقت بررسی کنید. به‌ویژه اگر به نظرتان عجیب یا غیرعادی می‌رسند. به توصیه‌های کارشناسان توجه کنید و از خودتان بپرسید چرا ممکن است کسی ویدئو یا تصویر خاصی را منتشر کرده باشد. این موضوع نشان می‌دهد داشتن استراتژی چندجانبه مقابله با تقلب، بیش از هر زمان دیگری اهمیت دارد. تیم مبارزه با تقلب باید وجود داشته باشد که بتواند نشانه‌های مشکوک را ردیابی کند. به‌طور مثال یکی از این موارد می‌تواند نشانه‌ای از سوءاستفاده یا جرم مالی در موسسه مالی یا بازار آنلاین باشند. تاکنون در کشورهایی که استفاده از هوش مصنوعی کاربرد بیشتری دارد، راهکارهایی برای شناسایی و پیشگیری از تقلب با هوش مصنوعی (Synthetic ID) که با دیپ‌فیک و سایر فناوری‌های هوش مصنوعی و یادگیری ماشین مرتبط‌ هستند، صورت گرفته است. در چنین شرایطی، آگاهی از نحوه ساخت دیپ‌فیک و تفاوت میان روش‌های ساده و پیچیده تولید آن، نقشی کلیدی در درک تهدیدات احتمالی، طراحی راهکارهای مقابله‌ای و ارتقای سواد رسانه‌ای می‌تواند ایفا می‌کند. دانستن اینکه تولید دیپ‌فیک‌ها از طریق اپلیکیشن‌های ساده در مدت زمان کوتاه ممکن است، هشدار مهمی در مورد سهولت و سرعت انتشار محتوای جعلی و مخرب ارائه می‌دهد. این موضوع به‌ویژه در حوزه‌هایی نظیر «جعل هویت»، «کلاهبرداری» و «دستکاری اطلاعات» عمومی مهم است. درک تفاوت میان دیپ‌فیک‌هایی که با نرم‌افزارهای ساده و بدون داده زیاد، تولید می‌شوند، با دیپ‌فیک‌هایی که بر پایه الگو‌های پیچیده و حجم بالایی از داده‌های آموزش‌دیده ساخته شده‌اند، به تحلیلگران و سیاست‌گذاران کمک می‌کند میزان تهدید و اعتبار این محتواها را بهتر ارزیابی کنند. نهادهای مالی، رسانه‌ای و امنیتی با شناخت عمیق از فرآیند تولید دیپ‌فیک، می‌توانند راهکارهای دقیقی برای شناسایی و مقابله با آن طراحی کنند. این آگاهی، سنگ‌بنای توسعه سامانه‌های تشخیص محتوای جعلی و ارتقای سامانه‌های احراز هویت است. افزایش سواد رسانه‌ای در جامعه نیز اهمیت دارد. درک عمومی از سازوکار تولید دیپ‌فیک باعث افزایش حساسیت و دقت کاربران در مواجهه با محتوای بصری و صوتی می‌شود. این موضوع، نقش مهمی در جلوگیری از گمراهی عمومی و انتشار شایعه‌ها ایفا می‌کند. پژوهشگران و شرکت‌ها در کشورهایی که استفاده بیشتری از هوش مصنوعی دارند، روش‌های مختلف و متفاوت را برای شناسایی دیپ‌فیک‌ها آزمایش کرده‌اند. این روش‌ها معمولاً با استفاده از هوش مصنوعی، ویدئوها را از نظر نشانه‌های دیجیتالی یا جزئیاتی که دیپ‌فیک‌ها قادر به تقلید واقعی آنها نیستند -مانند پلک زدن یا حرکات ظریف صورت- تحلیل می‌کنند. با این‌ حال، حتی با وجود مداخله شرکت‌های فناوری، هنوز پرسش‌های مهمی درباره نوع مواجهه و سیاست‌گذاری درباره دیپ‌فیک‌ها باقی مانده است که باید به آنها پاسخ داده شود. برای مثال:

الف- چه اقدام‌هایی می‌توان برای آموزش عمومی درباره دیپ‌فیک‌ها انجام داد که مردم در برابر آنها محافظت شوند و بتوانند محتوای واقعی را از محتوای جعلی تشخیص دهند؟

ب- افراد در برابر استفاده از فناوری دیپ‌فیک، چه حقوقی نسبت به حریم خصوصی خود دارند؟

ج- تولیدکنندگان ویدئوها، تصاویر و سایر محتوای دیپ‌فیک، از چه حقوقی در چهارچوب قانون اساسی (آزادی بیان) برخوردارند؟

دیپ‌فیک‌ها ابزارهایی قدرتمند برای سوءاستفاده و انتشار اطلاعات نادرست هستند. با پیشرفت‌هایی که باعث سخت‌تر شدن شناسایی آنها شده، این فناوری‌ها نیازمند بررسی عمیق هستند.

79

نتیجه بحث

با توجه به سرعت پیشرفت فناوری‌های مبتنی بر هوش مصنوعی، از جمله دیپ‌فیک، می‌توان گفت این ابزارها بخشی جدانشدنی از زندگی دیجیتال انسان‌ها هستند. در حالی ‌که این فناوری‌ها ظرفیت‌های چشمگیر برای نوآوری و خلق محتوا دارند، چالش‌های عمیق نیز در زمینه حریم خصوصی، حقوق فردی و امنیت اطلاعات ایجاد کرده‌اند. دیپ‌فیک‌ها نه‌تنها می‌توانند اعتماد عمومی را تضعیف کنند، بلکه با بهره‌گیری از چهره یا صدای افراد، بدون رضایت آنها به‌راحتی می‌توانند دروغ، جعل یا حتی سوءاستفاده‌های جدی در پی داشته باشند.

بنابراین لازم است دولت‌ها، نهادهای قانون‌گذار، شرکت‌های فناوری و جوامع مدنی به‌طور همزمان وارد عمل شوند و برای مواجهه با این فناوری برنامه‌ریزی دقیق و چندبعدی داشته باشند. نخستین گام، تدوین چهارچوب‌های قانونی روشن برای استفاده و تولید محتوای دیپ‌فیک است که مرز میان خلاقیت مشروع و استفاده مضر مشخص شود. دوم اینکه، سرمایه‌گذاری در ابزارهای شناسایی محتوای جعلی و توسعه الگوریتم‌های مقابله با دیپ‌فیک باید در اولویت قرار گیرد. همسو با این موارد، آموزش عمومی نیز اهمیت زیادی دارد. توانمندسازی مردم برای تشخیص محتوای واقعی از جعلی، به‌ویژه در فضای مجازی، می‌تواند مانع گسترش اخبار جعلی، سوءاستفاده از شهرت افراد و فریب افکار عمومی شود. همان‌طور که فناوری دیپ‌فیک بخشی از آینده است، سیاست‌گذاری، اخلاق حرفه‌ای و تفکر انتقادی نیز باید بخشی از مواجهه فعالانه با این پدیده باشد. آینده‌ ایمن‌تر در گرو پذیرش این واقعیت است که به چالش‌های فناوری نه با «انکار»، بلکه با «شناخت» باید پاسخ داد. 

دراین پرونده بخوانید ...