بوهاچک و فرید یک مدل کامپیوتری را بر روی بیش از 8 ساعت ویدیو با حضور Zelenskyy که قبلاً به صورت عمومی منتشر شده بود آموزش دادند.
ویدیوی تلفن هوشمند از سخنرانی واقعی ولودیمیر زلنسکی، رئیس جمهور اوکراین
سیستم تشخیص چندین کلیپ 10 ثانیه ای گرفته شده از یک ویدیو را بررسی می کند و تا 780 ویژگی رفتاری را تجزیه و تحلیل می کند. اگر چندین کلیپ از یک ویدیو را به عنوان جعلی علامت گذاری کند، این سیگنالی است که تحلیلگران انسانی باید نگاه دقیق تری داشته باشند.
تجزیه و تحلیل کل نگر سر و قسمت بالایی بدنه آشکارساز دیپ فیک مخصوصاً برای تشخیص ویدیوهای دستکاری شده مناسب است و می تواند مکمل آشکارسازهای دیپ فیک موجود تجاری باشد که عمدتاً بر روی تشخیص الگوهای کمتر بصری شامل پیکسل ها و دیمرها تمرکز می کنند. سیوی لیو در دانشگاه بوفالو در نیویورک، که در این مطالعه شرکت نداشت.
ردیاب دیپفیک هنگام آزمایش بر روی سه ویدیوی دیپفیک از Zelenskyy که حرکات دهان و گفتار او را تغییر میداد، به دقت ۱۰۰ درصد دست یافت. به همین ترتیب، آشکارساز کاملاً در برابر دیپ فیک واقعی که در مارس 2022 منتشر شد، کار کرد.
ما مجبور نیستیم شما را از یک میلیارد نفر جدا کنیم، فقط باید شما را از یک میلیارد نفر جدا کنیم [the deepfake made by] کسی که سعی می کند از شما تقلید کند.» هانی فرید در دانشگاه کالیفرنیا، برکلی.
فرید با او کار می کرد ماتیاس بوهاچک در ورزشگاه یوهانس کپلر در جمهوری چک برای توسعه مهارتهای تشخیص چهره، صداها، حرکات دست و حرکات بالاتنه. تحقیقات آنها بر اساس کارهای قبلی است که در آن سیستمی برای تشخیص چهره و حرکات سر رهبران جهان مانند رئیس جمهور سابق باراک اوباما آموزش دیده بود.
بر اساس ویدیوهای واقعی که هوش مصنوعی روی آنها آموزش داده شده است، می تواند تشخیص دهد که چیزی از عادات معمول فرد پیروی نمی کند. “[It] فرید میگوید: «آه، چیزی که مشاهده کردیم این است که در رئیسجمهور زلنسکی، وقتی دست چپش را بالا میبرد، ابروی راستش بالا میرود و ما این را نمیبینیم». ما همیشه تصور میکنیم که انسانهایی، چه روزنامهنگار و چه تحلیلگران آژانس امنیت ملی، در این حلقه وجود خواهند داشت که باید بتوانند به این موضوع نگاه کنند، «چرا فکر میکنی این اشتباه است؟»
اما فرآیند آموزش زمانبر که نیازمند ساعتها ویدیو برای هر فرد علاقهمند است، برای شناسایی دیپفیکهای مربوط به افراد عادی یا ویدیوهای غیر توافقی از اعمال جنسی مناسب نیست. بوهاچک میگوید: «هدف آیندهنگرتر این است که چگونه میتوان این فناوریها را برای افرادی که کمتر در معرض دید قرار دارند و دادههای ویدیویی زیادی ندارند، کارآیی کرد.
توسط جرمی هسو
محققان قبلاً یک ردیاب دیپفیک دیگر را ساختهاند که بر روی یافتن ویدیوهای جعلی از جو بایدن، رئیسجمهور ایالات متحده متمرکز شده است و قصد دارند مدلهای مشابهی را برای شخصیتهای عمومی مانند ولادیمیر پوتین از روسیه، شی جین پینگ چینی و ایلان ماسک میلیاردر ایجاد کنند. آنها قصد دارند این آشکارساز را در اختیار خبرگزاری ها و دولت ها قرار دهند.
کریستینا کوخانوا/آلامی
لیو میگوید: «تا کنون، ما حتی یک نمونه از الگوریتمهای تولید دیپفیک را ندیدهایم که بتواند دستهای واقعی انسان را خلق کند و انعطافپذیری و حرکات یک انسان واقعی را نشان دهد.» این به جدیدترین آشکارساز برتری در تشخیص دیپفیکهای امروزی میدهد که نمیتوانند بهطور قانعکننده پیوندهای بین حالات چهره و سایر حرکات بدن را هنگام صحبت کردن یک شخص ثبت کنند – و به طور بالقوه از سرعت سریع پیشرفت در فناوری دیپفیک جلوتر میمانند.
یک ردیاب دیپ فیک می تواند ویدیوهای جعلی ولودیمیر زلنسکی، رئیس جمهور اوکراین را با دقت بالایی شناسایی کند. این سیستم تشخیص نه تنها میتواند از زلنسکی که در ماههای اول تهاجم روسیه به اوکراین هدف یک تلاش دیپفیک بود، محافظت کند، بلکه میتواند برای پرچمگذاری دیپفیکهای دیگر رهبران جهان و سرمایهگذاران تجاری آموزش ببیند.
یک ردیاب دیپ فیک طراحی شده برای شناسایی حالات چهره و حرکات دست منحصر به فرد می تواند ویدیوهای دستکاری شده رهبران جهان مانند ولادیمیر زلنسکی و ولادیمیر پوتین را مشاهده کند.