ردیاب Deepfake ویدیوهای جعلی زلنسکی رئیس جمهور اوکراین را مشاهده کرد

یک ردیاب دیپ فیک می تواند ویدیوهای جعلی ولودیمیر زلنسکی، رئیس جمهور اوکراین را با دقت بالایی شناسایی کند. این سیستم تشخیص نه تنها می‌تواند از زلنسکی که در ماه‌های اول تهاجم روسیه به اوکراین هدف یک تلاش دیپ‌فیک بود، محافظت کند، بلکه می‌تواند برای پرچم‌گذاری دیپ‌فیک‌های دیگر رهبران جهان و سرمایه‌گذاران تجاری آموزش ببیند.

تجزیه و تحلیل کل نگر سر و قسمت بالایی بدنه آشکارساز دیپ فیک مخصوصاً برای تشخیص ویدیوهای دستکاری شده مناسب است و می تواند مکمل آشکارسازهای دیپ فیک موجود تجاری باشد که عمدتاً بر روی تشخیص الگوهای کمتر بصری شامل پیکسل ها و دیمرها تمرکز می کنند. سیوی لیو در دانشگاه بوفالو در نیویورک، که در این مطالعه شرکت نداشت.

کریستینا کوخانوا/آلامی

آگوست 2022 - کیف، اوکراین.  تماشای سخنرانی آنلاین رئیس جمهور ولودیمیر زلنسکی در تلفن هوشمند در پس زمینه میز چوبی.  اخبار از جبهه

ردیاب دیپ‌فیک هنگام آزمایش بر روی سه ویدیوی دیپ‌فیک از Zelenskyy که حرکات دهان و گفتار او را تغییر می‌داد، به دقت ۱۰۰ درصد دست یافت. به همین ترتیب، آشکارساز کاملاً در برابر دیپ فیک واقعی که در مارس 2022 منتشر شد، کار کرد.

فرید با او کار می کرد ماتیاس بوهاچک در ورزشگاه یوهانس کپلر در جمهوری چک برای توسعه مهارت‌های تشخیص چهره، صداها، حرکات دست و حرکات بالاتنه. تحقیقات آنها بر اساس کارهای قبلی است که در آن سیستمی برای تشخیص چهره و حرکات سر رهبران جهان مانند رئیس جمهور سابق باراک اوباما آموزش دیده بود.

سیستم تشخیص چندین کلیپ 10 ثانیه ای گرفته شده از یک ویدیو را بررسی می کند و تا 780 ویژگی رفتاری را تجزیه و تحلیل می کند. اگر چندین کلیپ از یک ویدیو را به عنوان جعلی علامت گذاری کند، این سیگنالی است که تحلیلگران انسانی باید نگاه دقیق تری داشته باشند.

لیو می‌گوید: «تا کنون، ما حتی یک نمونه از الگوریتم‌های تولید دیپ‌فیک را ندیده‌ایم که بتواند دست‌های واقعی انسان را خلق کند و انعطاف‌پذیری و حرکات یک انسان واقعی را نشان دهد.» این به جدیدترین آشکارساز برتری در تشخیص دیپ‌فیک‌های امروزی می‌دهد که نمی‌توانند به‌طور قانع‌کننده پیوندهای بین حالات چهره و سایر حرکات بدن را هنگام صحبت کردن یک شخص ثبت کنند – و به طور بالقوه از سرعت سریع پیشرفت در فناوری دیپ‌فیک جلوتر می‌مانند.

ویدیوی تلفن هوشمند از سخنرانی واقعی ولودیمیر زلنسکی، رئیس جمهور اوکراین

ما مجبور نیستیم شما را از یک میلیارد نفر جدا کنیم، فقط باید شما را از یک میلیارد نفر جدا کنیم [the deepfake made by] کسی که سعی می کند از شما تقلید کند.» هانی فرید در دانشگاه کالیفرنیا، برکلی.

درباره این موضوعات بیشتر بدانید:


منبع: https://www.newscientist.com/article/2350644-deepfake-detector-spots-fake-videos-of-ukraines-president-zelenskyy/?utm_campaign=RSS%7CNSNS&utm_source=NSNS&utm_medium=RSS&utm_content=home

اما فرآیند آموزش زمان‌بر که نیازمند ساعت‌ها ویدیو برای هر فرد علاقه‌مند است، برای شناسایی دیپ‌فیک‌های مربوط به افراد عادی یا ویدیوهای غیر توافقی از اعمال جنسی مناسب نیست. بوهاچک می‌گوید: «هدف آینده‌نگرتر این است که چگونه می‌توان این فناوری‌ها را برای افرادی که کمتر در معرض دید قرار دارند و داده‌های ویدیویی زیادی ندارند، کارآیی کرد.

بوهاچک و فرید یک مدل کامپیوتری را بر روی بیش از 8 ساعت ویدیو با حضور Zelenskyy که قبلاً به صورت عمومی منتشر شده بود آموزش دادند.

یک ردیاب دیپ فیک طراحی شده برای شناسایی حالات چهره و حرکات دست منحصر به فرد می تواند ویدیوهای دستکاری شده رهبران جهان مانند ولادیمیر زلنسکی و ولادیمیر پوتین را مشاهده کند.

فن آوری


7 دسامبر 2022

مرجع مجله: PNAS، DOI: 10.1073/pnas.2216035119

بر اساس ویدیوهای واقعی که هوش مصنوعی روی آنها آموزش داده شده است، می تواند تشخیص دهد که چیزی از عادات معمول فرد پیروی نمی کند. “[It] فرید می‌گوید: «آه، چیزی که مشاهده کردیم این است که در رئیس‌جمهور زلنسکی، وقتی دست چپش را بالا می‌برد، ابروی راستش بالا می‌رود و ما این را نمی‌بینیم». ما همیشه تصور می‌کنیم که انسان‌هایی، چه روزنامه‌نگار و چه تحلیل‌گران آژانس امنیت ملی، در این حلقه وجود خواهند داشت که باید بتوانند به این موضوع نگاه کنند، «چرا فکر می‌کنی این اشتباه است؟»

محققان قبلاً یک ردیاب دیپ‌فیک دیگر را ساخته‌اند که بر روی یافتن ویدیوهای جعلی از جو بایدن، رئیس‌جمهور ایالات متحده متمرکز شده است و قصد دارند مدل‌های مشابهی را برای شخصیت‌های عمومی مانند ولادیمیر پوتین از روسیه، شی جین پینگ چینی و ایلان ماسک میلیاردر ایجاد کنند. آنها قصد دارند این آشکارساز را در اختیار خبرگزاری ها و دولت ها قرار دهند.

توسط احمد گل کار

احمد گل کار