bato-adv

جعل در دنیای دیجیتال؛ چگونه دیپ‌فیک را تشخیص دهیم؟

جعل در دنیای دیجیتال؛ چگونه دیپ‌فیک را تشخیص دهیم؟
«اخبار جعلی» از ۲۰۱۶ به بعد به موضوعی تکراری و ازمدافتاده تبدیل شد و بار دیگر در ۲۰۲۳ ویدئو‌ها و صدا‌های جعلی ساخته‌شده با هوش مصنوعی که به «جعل عمیق» (دیپ فیک) شناخته می‌شوند، موجی از تهدیدات جدید به راه انداخت و در مواردی آسیب‌هایی را در ابعاد مختلف ملی یا جهانی به بار آورد. گزارش پیش رو که از نظر می‌گذرانید برگردان گزارش ساینس در خصوص جعل عمیق است.
تاریخ انتشار: ۰۰:۵۶ - ۰۲ اسفند ۱۴۰۲

جعل ویدئو، عکس و صدا با استفاده از فناوری هوش مصنوعی به‌ویژه برای افراد سرشناس به دردسری جدی تبدیل شده است.

به گزارش آنا؛ «اخبار جعلی» از ۲۰۱۶ به بعد به موضوعی تکراری و ازمدافتاده تبدیل شد و بار دیگر در ۲۰۲۳ ویدئو‌ها و صدا‌های جعلی ساخته‌شده با هوش مصنوعی که به «جعل عمیق» (دیپ فیک) شناخته می‌شوند، موجی از تهدیدات جدید به راه انداخت و در مواردی آسیب‌هایی را در ابعاد مختلف ملی یا جهانی به بار آورد. گزارش پیش رو که از نظر می‌گذرانید برگردان گزارش ساینس در خصوص جعل عمیق است.

در محتوا‌های جعل عمیق از الگوریتم‌هایی استفاده می‌شود که با استفاده از تصویر یا صدای افراد نسخه‌ای جعلی می‌سازند و صدایی را تولید می‌کنند که هرگز آن فرد به زبان نیاورده و یا ویدئویی از او می‌سازند که فرد هرگز در آن حضور نداشته است. ساخت محتوای جعل عمیق مدام ارزان‌تر و آسان‌تر می‌شود و به طور معمول همیشه در آستانه انتخابات مهم در کشور‌های مختلف موج جدیدی از آن به راه می‌افتد. تهیه شواهد و مدارک تقلبی، ایجاد اطلاعات غلط برای تخریب سیاستمداران و افراد سرشناس، دستکاری اسناد مالی و فرستادن پیام‌های متنی برای اهداف خلافکارانه از جمله کاربرد‌های مخرب فناوری جعل عمیق هستند.

باورپذیری محتوای جعلی توسط مخاطب

اگرچه روایت‌های نادرست در شبکه‌های اجتماعی سال‌های سال مشکل‌ساز بوده است، اما محتوا‌های ساخته‌شده با جعل عمیق آسیب جدی‌تری دارند. تصاویر و ویدئو‌ها بیشتر از متن‌ها در ذهن مخاطب باقی می‌مانند، قانع‌کننده به نظر می‌رسند و می‌توان آن‌ها را در سطح گسترده به اشتراک گذاشت.

مردم در شناسایی جعل عمیق مهارت چندانی ندارند

محتوای جعل عمیق همچنین می‌تواند باعث عدم قطعیت شود، زیرا ممکن است افراد زیادی آن را باور کنند. با این حال، مطالعات نشان داده‌اند که مردم در شناسایی جعل عمیق مهارت چندانی ندارند و اغلب نمی‌توانند جعل را از واقعیت تشخیص دهند، به ویژه آنکه تشخیص صوت‌های جعلی به مراتب سخت‌تر از ویدئو‌های جعلی است.

بیشتر مردم تصور می‌کنند که می‌توانند ویدئو‌های جعلی را به راحتی تشخیص دهند، اما این باور چندان دقیق نیست. بر اساس مطالعه‌ای که در ژورنال آی‌ساینس منتشر شد، ۲۱۰ داوطلب شرکت‌کننده در آزمایش تشخیص محتوای جعلی با نظارت هیئتی از دانشگاه آمستردام شرکت کردند و نتایج نشان داد که داوطلبان تنها در ۵۰ درصد از موارد توانستند ویدئو‌ها و صدا‌های جعلی را تشخیص دهند.

توانایی مغز در شناسایی محتوای جعلی

تیجل گروتسوِیجرز (Tijl Grootswagers) عصب‌شناس محاسباتی از دانشگاه وسترن سیدنی می‌گوید: «عجیب نیست که فریب محتوا‌های جعلی را می‌خوریم چرا به ما آموزش نداده‌اند که چگونه واقعیت و جعل را از یکدیگر تشخیص دهیم. این مهارت را نداریم.»

با این حال، به نظر می‌رسد که مغز از ویژگی شناسایی محتوا‌های جعلی برخوردار است. گروتسوِیجرز در آزمایشی از ۲۲ داوطلب خواست تا به تصویری جعلی از یک چهره مشهور نگاه کنند و سپس متوجه شد که وقتی افراد به آن تصاویر نگاه می‌کنند یک سیگنال الکتریکی متمایز در قشر بینایی آن‌ها برانگیخته می‌شود که با سیگنال تولیدشده در هنگام نگاه کردن به تصویر واقعی متفاوت بود. یا این وجود، داوطلبان نتوانستند به درستی تشخیص دهند که کدام تصاویر واقعی هستند. دلیل این امر نامشخص است، اما شاید به دلیل تداخل سایر مناطق مغز با سیگنال‌های قشر بینایی باشد، یا شاید این سیگنال‌ها را تا کنون جدی نگرفته باشیم.

ماجرای ویدئوی جعلی تام کروز

انتشار ویدئویی از تام کروز، بازیگر مشهور هالیوود که در سال ۲۰۲۱ به سرعت در شبکه‌های اجتماعی جهان دست‌به‌دست شد نمون‌های مشهور و بسیار نزدیک به واقعیت به نظر می‌رسید نمونه‌ای معروف از ساخت ویدئو با فناوری جعل عمیق بود که واکنش‌های زیادی را در تمام دنیا برانگیخت. در این ویدئو ابتدا یک بازیگر مشهور کمدی به نام بیل هیدر (Bill Hader) ادای تام کروز را درمی‌آورد و حرف‌هایی را از او نقل قول می‌کند و چند لحظه بعد با استفاده از فناوری جعل عمیق، چهره تام کروز را می‌بینیم که در حال گفتن همان حرف‌ها و انجام همان ادا‌ها است. این تغییر چهره به حدی طبیعی انجام می‌شود که گویا واقعاً خود تام کروز است که دارد آن حرف‌ها را می‌زند.

کریس اومه (Chris Ume) از حرفه‌ای‌های مشهور در حوزه جلوه‌های بصری که اِفکت‌های بصری فوق‌العاده‌ای از تام کروز را در شبکه اجتماعی تیک‌تاک منتشر کرده است می‌گوید: «ساخت ویدئو‌های جعل عمیق فقط با فشردن یک دکمه انجام نمی‌شود. این پیام مهم من برای مردم و علاقه‌مندان است؛ هر کلیپ کوتاه جعل عمیق هفته‌ها کار می‌برد و سازندۀ آن باید به الگوریتم متن باز در نرم‌افزار «دیپ فیس لب» DeepFaceLab آشنایی کافی داشته باشد و کارکردن با ابزار ویرایش پیشرفتۀ ویدئو را نیز بداند. برای ساخت چنین ویدئوهایی، معمولاً از ترکیب جلوه‌های بصری (VFX) و تصاویر تولیدشده توسط کامپیوتر (CGI) استفاده می‌شود؛ در نهایت برای بهبود آن به سراغ ترفند‌های جعل عمیق می‌رویم تا به ویدئویی کامل و بی‌نقص برسیم.»

روش‌های تشخیص جعل عمیق ویدئویی

حالت غیرعادی صورت، حرکت غیرطبیعی صورت یا بدن، رنگ‌های غیرطبیعی، ویدئو‌هایی که با بزرگ‌نمایی یا کوچک‌نمایی غیرعادی و عجیب به نظر می‌رسند، صدا‌های ناسازگار، نگاه ثابت و پلک نزدن افراد از جمله نشانه‌های احتمالی جعل عمیق در محتوای ویدئویی هستند.

روش‌های تشخیص جعل عمیق متنی

وجود غلط املایی، جملاتی که نگارش طبیعی و روان ندارند یا اطلاعات آن‌ها نادرست است، آدرس ایمیل مشکوک، عبارات و مفاهیمی که با لحن و گفتار فرستنده فرضی مطابقت ندارد و پیام‌های خارج از متن که به هیچ بحث، رویداد یا موضوعی مرتبط نیستند در ردۀ شاخص‌های شناسایی جعل عمیق متنی هستند. با این حال، با پیشرفت هوش مصنوعی، بعضی از این شاخص‌های شناسایی دیگر به کار نمی‌آیند. برای مثال، ابزار‌هایی که پلک زدن طبیعی در تصویر ایجاد می‌کنند.

اگرچه جعل عمیق در بسیاری از موارد برای کار‌های غیرقانونی و تقلب استفاده می‌شود، اما در صنایعی مانند فیلم‌سازی، هنر و ارتباط با مشتری نیز کاربرد‌های بسیار مفیدی دارد و می‌تواند در زمان و هزینه‌های برند‌ها صرفه‌جویی کند. برای مثال، استفاده از این فناوری در پویانمایی شخصیت‌ها و یا در فیلم‌های دوبله‌شده باعث می‌شود لب زدن بازیگران حین بیان دیالوگ‌ها، بسیار طبیعی‌تر به نظر برسد.

مجله خواندنی ها
مجله فرارو
bato-adv
bato-adv
bato-adv
bato-adv
پرطرفدارترین عناوین