هوش مصنوعی ویدیوهای دیپ فیک رئیس جمهور اوکراین ولودیمیر زلنسکی را مشاهده می کند
یک ردیاب دیپ فیک می تواند ویدیوهای جعلی رئیس جمهور اوکراین ولودیمیر زلنسکی را با تجزیه و تحلیل ترکیبی از صداها، حالات چهره و حرکات بالاتنه با دقت بالایی شناسایی کند. این سیستم تشخیص نه تنها میتواند از زلنسکی که در ماههای اول تهاجم روسیه به اوکراین هدف یک تلاش دیپفیک بود، محافظت کند، بلکه میتواند برای پرچمگذاری دیپفیکهای دیگر رهبران جهان و سرمایهگذاران تجاری آموزش ببیند.
ویدیوی تلفن هوشمند از سخنرانی واقعی ولودیمیر زلنسکی، رئیس جمهور اوکراین
فرید توضیح میدهد: «میتوانیم بگوییم آه، آنچه مشاهده کردیم این است که با رئیسجمهور زلنسکی، وقتی دست چپش را بالا میبرد، ابروی راستش بالا میرود و ما آن را نمیبینیم». ما همیشه تصور میکنیم که انسانهایی، چه روزنامهنگار و چه تحلیلگران آژانس امنیت ملی، در این حلقه وجود خواهند داشت، که باید بتوانند به این موضوع نگاه کنند، «چرا فکر میکنی این اشتباه است؟»
محققان قبلاً یک ردیاب دیپفیک دیگر را ساختهاند که بر روی یافتن ویدیوهای جعلی از جو بایدن، رئیسجمهور ایالات متحده متمرکز است، و قصد دارند مدلهای مشابهی را برای چهرههای عمومی مانند ولادیمیر پوتین از روسیه، شی جین پینگ چینی و ایلان ماسک میلیاردر ایجاد کنند. آنها قصد دارند این آشکارساز را در اختیار خبرگزاری ها و دولت ها قرار دهند.
لیو میگوید: «تاکنون، ما حتی یک نمونه از الگوریتمهای تولید دیپفیک را ندیدهایم که بتواند دستهای واقعی انسان را خلق کند و انعطافپذیری و حرکات یک انسان واقعی را نشان دهد.» این به جدیدترین آشکارساز برتری در تشخیص دیپفیکهای امروزی میدهد که نمیتوانند بهطور قانعکننده ارتباط بین حالات چهره و سایر حرکات بدن را هنگام صحبت کردن یک شخص ثبت کنند – و به طور بالقوه از سرعت سریع پیشرفت در فناوری دیپفیک جلوتر میمانند.
یک ردیاب دیپ فیک طراحی شده برای شناسایی حالات چهره و حرکات دست منحصر به فرد می تواند ویدیوهای دستکاری شده رهبران جهان مانند ولادیمیر زلنسکی و ولادیمیر پوتین را مشاهده کند.
فن آوری
7 دسامبر 2022
ردیاب دیپفیک هنگام آزمایش بر روی سه ویدیوی دیپفیک از Zelenskyy که حرکات دهان و گفتار او را تغییر میداد، به دقت ۱۰۰ درصد دست یافت. به همین ترتیب، آشکارساز کاملاً در برابر دیپ فیک واقعی که در مارس 2022 منتشر شد، کار کرد.
بوهاچک و فرید یک مدل کامپیوتری را بر روی بیش از 8 ساعت ویدیو با حضور Zelenskyy که قبلاً به صورت عمومی منتشر شده بود آموزش دادند.
کریستینا کوخانوا/آلامی
سیستم تشخیص چندین کلیپ 10 ثانیه ای گرفته شده از یک ویدیو را بررسی می کند و تا 780 ویژگی رفتاری را تجزیه و تحلیل می کند. اگر چندین کلیپ از یک ویدیو را به عنوان جعلی علامت گذاری کند، این سیگنالی است که تحلیلگران انسانی باید نگاه دقیق تری داشته باشند.
توسط جرمی هسو
ما مجبور نیستیم شما را از یک میلیارد نفر جدا کنیم، فقط باید شما را از یک میلیارد نفر جدا کنیم [the deepfake made by] کسی که سعی می کند از شما تقلید کند.» هانی فرید در دانشگاه کالیفرنیا، برکلی.
تجزیه و تحلیل کل نگر سر و قسمت بالایی بدنه آشکارساز دیپ فیک مخصوصاً برای تشخیص ویدیوهای دستکاری شده مناسب است و می تواند مکمل آشکارسازهای دیپ فیک موجود تجاری باشد که عمدتاً بر روی تشخیص الگوهای کمتر بصری شامل پیکسل ها و دیمرها تمرکز می کنند. سیوی لیو در دانشگاه بوفالو در نیویورک، که در این مطالعه شرکت نداشت.
اما فرآیند آموزش زمانبر که به ساعتها ویدیو برای هر فرد مورد علاقه نیاز دارد، برای شناسایی دیپفیکهای مربوط به افراد عادی مناسب نیست. بوهاچک میگوید: «هدف آیندهنگرتر این است که چگونه میتوان این فناوریها را برای افرادی که کمتر در معرض دید هستند و دادههای ویدیویی زیادی ندارند، کارآیی کرد.
فرید با او کار می کرد ماتیاس بوهاچک در ورزشگاه یوهانس کپلر در جمهوری چک برای توسعه مهارتهای تشخیص چهره، صداها، حرکات دست و حرکات بالاتنه. تحقیقات آنها بر اساس کارهای قبلی است که در آن یک سیستم هوش مصنوعی برای تشخیص چهره و حرکات سر رهبران جهان مانند رئیس جمهور سابق باراک اوباما آموزش دیده است.