بر اساس ویدیوهای واقعی که هوش مصنوعی روی آنها آموزش داده شده است، می تواند تشخیص دهد که چیزی از عادات معمول فرد پیروی نمی کند. “[It] فرید میگوید: «آه، چیزی که مشاهده کردیم این است که در رئیسجمهور زلنسکی، وقتی دست چپش را بالا میبرد، ابروی راستش بالا میرود و ما این را نمیبینیم». ما همیشه تصور میکنیم که انسانهایی، چه روزنامهنگار و چه تحلیلگران آژانس امنیت ملی، در این حلقه وجود خواهند داشت که باید بتوانند به این موضوع نگاه کنند، «چرا فکر میکنی این اشتباه است؟»
فرید با او کار می کرد ماتیاس بوهاچک در ورزشگاه یوهانس کپلر در جمهوری چک برای توسعه مهارتهای تشخیص چهره، صداها، حرکات دست و حرکات بالاتنه. تحقیقات آنها بر اساس کارهای قبلی است که در آن سیستمی برای تشخیص چهره و حرکات سر رهبران جهان مانند رئیس جمهور سابق باراک اوباما آموزش دیده بود.
لیو میگوید: «تا کنون، ما حتی یک نمونه از الگوریتمهای تولید دیپفیک را ندیدهایم که بتواند دستهای واقعی انسان را خلق کند و انعطافپذیری و حرکات یک انسان واقعی را نشان دهد.» این به جدیدترین آشکارساز برتری در تشخیص دیپفیکهای امروزی میدهد که نمیتوانند بهطور قانعکننده پیوندهای بین حالات چهره و سایر حرکات بدن را هنگام صحبت کردن یک شخص ثبت کنند – و به طور بالقوه از سرعت سریع پیشرفت در فناوری دیپفیک جلوتر میمانند.
تجزیه و تحلیل کل نگر سر و قسمت بالایی بدنه آشکارساز دیپ فیک مخصوصاً برای تشخیص ویدیوهای دستکاری شده مناسب است و می تواند مکمل آشکارسازهای دیپ فیک موجود تجاری باشد که عمدتاً بر روی تشخیص الگوهای کمتر بصری شامل پیکسل ها و دیمرها تمرکز می کنند. سیوی لیو در دانشگاه بوفالو در نیویورک، که در این مطالعه شرکت نداشت.
ردیاب دیپفیک هنگام آزمایش بر روی سه ویدیوی دیپفیک از Zelenskyy که حرکات دهان و گفتار او را تغییر میداد، به دقت ۱۰۰ درصد دست یافت. به همین ترتیب، آشکارساز کاملاً در برابر دیپ فیک واقعی که در مارس 2022 منتشر شد، کار کرد.
اما فرآیند آموزش زمانبر که نیازمند ساعتها ویدیو برای هر فرد علاقهمند است، برای شناسایی دیپفیکهای مربوط به افراد عادی یا ویدیوهای غیر توافقی از اعمال جنسی مناسب نیست. بوهاچک میگوید: «هدف آیندهنگرتر این است که چگونه میتوان این فناوریها را برای افرادی که کمتر در معرض دید قرار دارند و دادههای ویدیویی زیادی ندارند، کارآیی کرد.
منبع: https://www.newscientist.com/article/2350644-deepfake-detector-spots-fake-videos-of-ukraines-president-zelenskyy/?utm_campaign=RSS%7CNSNS&utm_source=NSNS&utm_medium=RSS&utm_content=home
یک ردیاب دیپ فیک می تواند ویدیوهای جعلی ولودیمیر زلنسکی، رئیس جمهور اوکراین را با دقت بالایی شناسایی کند. این سیستم تشخیص نه تنها میتواند از زلنسکی که در ماههای اول تهاجم روسیه به اوکراین هدف یک تلاش دیپفیک بود، محافظت کند، بلکه میتواند برای پرچمگذاری دیپفیکهای دیگر رهبران جهان و سرمایهگذاران تجاری آموزش ببیند.
ما مجبور نیستیم شما را از یک میلیارد نفر جدا کنیم، فقط باید شما را از یک میلیارد نفر جدا کنیم [the deepfake made by] کسی که سعی می کند از شما تقلید کند.» هانی فرید در دانشگاه کالیفرنیا، برکلی.
سیستم تشخیص چندین کلیپ 10 ثانیه ای گرفته شده از یک ویدیو را بررسی می کند و تا 780 ویژگی رفتاری را تجزیه و تحلیل می کند. اگر چندین کلیپ از یک ویدیو را به عنوان جعلی علامت گذاری کند، این سیگنالی است که تحلیلگران انسانی باید نگاه دقیق تری داشته باشند.
بوهاچک و فرید یک مدل کامپیوتری را بر روی بیش از 8 ساعت ویدیو با حضور Zelenskyy که قبلاً به صورت عمومی منتشر شده بود آموزش دادند.
کریستینا کوخانوا/آلامی
یک ردیاب دیپ فیک طراحی شده برای شناسایی حالات چهره و حرکات دست منحصر به فرد می تواند ویدیوهای دستکاری شده رهبران جهان مانند ولادیمیر زلنسکی و ولادیمیر پوتین را مشاهده کند.
فن آوری
7 دسامبر 2022