هوش مصنوعی ویدیوهای دیپ فیک رئیس جمهور اوکراین ولودیمیر زلنسکی را مشاهده می کند


یک ردیاب دیپ فیک طراحی شده برای شناسایی حالات چهره و حرکات دست منحصر به فرد می تواند ویدیوهای دستکاری شده رهبران جهان مانند ولادیمیر زلنسکی و ولادیمیر پوتین را مشاهده کند.

فن آوری


7 دسامبر 2022

آگوست 2022 - کیف، اوکراین.  تماشای سخنرانی آنلاین رئیس جمهور ولودیمیر زلنسکی در تلفن هوشمند در پس زمینه میز چوبی.  اخبار از جبهه

ویدیوی تلفن هوشمند از سخنرانی واقعی ولودیمیر زلنسکی، رئیس جمهور اوکراین

کریستینا کوخانوا/آلامی

یک ردیاب دیپ فیک می تواند ویدیوهای جعلی رئیس جمهور اوکراین ولودیمیر زلنسکی را با تجزیه و تحلیل ترکیبی از صداها، حالات چهره و حرکات بالاتنه با دقت بالایی شناسایی کند. این سیستم تشخیص نه تنها می‌تواند از زلنسکی که در ماه‌های اول تهاجم روسیه به اوکراین هدف یک تلاش دیپ‌فیک بود، محافظت کند، بلکه می‌تواند برای پرچم‌گذاری دیپ‌فیک‌های دیگر رهبران جهان و سرمایه‌گذاران تجاری آموزش ببیند.

ما مجبور نیستیم شما را از یک میلیارد نفر جدا کنیم، فقط باید شما را از یک میلیارد نفر جدا کنیم [the deepfake made by] کسی که سعی می کند از شما تقلید کند.» هانی فرید در دانشگاه کالیفرنیا، برکلی.

فرید با او کار می کرد ماتیاس بوهاچک در ورزشگاه یوهانس کپلر در جمهوری چک برای توسعه مهارت‌های تشخیص چهره، صداها، حرکات دست و حرکات بالاتنه. تحقیقات آنها بر اساس کارهای قبلی است که در آن یک سیستم هوش مصنوعی برای تشخیص چهره و حرکات سر رهبران جهان مانند رئیس جمهور سابق باراک اوباما آموزش دیده است.

بوهاچک و فرید یک مدل کامپیوتری را بر روی بیش از 8 ساعت ویدیو با حضور Zelenskyy که قبلاً به صورت عمومی منتشر شده بود آموزش دادند.

سیستم تشخیص چندین کلیپ 10 ثانیه ای گرفته شده از یک ویدیو را بررسی می کند و تا 780 ویژگی رفتاری را تجزیه و تحلیل می کند. اگر چندین کلیپ از یک ویدیو را به عنوان جعلی علامت گذاری کند، این سیگنالی است که تحلیلگران انسانی باید نگاه دقیق تری داشته باشند.

فرید توضیح می‌دهد: «می‌توانیم بگوییم آه، آنچه مشاهده کردیم این است که با رئیس‌جمهور زلنسکی، وقتی دست چپش را بالا می‌برد، ابروی راستش بالا می‌رود و ما آن را نمی‌بینیم». ما همیشه تصور می‌کنیم که انسان‌هایی، چه روزنامه‌نگار و چه تحلیل‌گران آژانس امنیت ملی، در این حلقه وجود خواهند داشت، که باید بتوانند به این موضوع نگاه کنند، «چرا فکر می‌کنی این اشتباه است؟»

تجزیه و تحلیل کل نگر سر و قسمت بالایی بدنه آشکارساز دیپ فیک مخصوصاً برای تشخیص ویدیوهای دستکاری شده مناسب است و می تواند مکمل آشکارسازهای دیپ فیک موجود تجاری باشد که عمدتاً بر روی تشخیص الگوهای کمتر بصری شامل پیکسل ها و دیمرها تمرکز می کنند. سیوی لیو در دانشگاه بوفالو در نیویورک، که در این مطالعه شرکت نداشت.

لیو می‌گوید: «تاکنون، ما حتی یک نمونه از الگوریتم‌های تولید دیپ‌فیک را ندیده‌ایم که بتواند دست‌های واقعی انسان را خلق کند و انعطاف‌پذیری و حرکات یک انسان واقعی را نشان دهد.» این به جدیدترین آشکارساز برتری در تشخیص دیپ‌فیک‌های امروزی می‌دهد که نمی‌توانند به‌طور قانع‌کننده ارتباط بین حالات چهره و سایر حرکات بدن را هنگام صحبت کردن یک شخص ثبت کنند – و به طور بالقوه از سرعت سریع پیشرفت در فناوری دیپ‌فیک جلوتر می‌مانند.

ردیاب دیپ‌فیک هنگام آزمایش بر روی سه ویدیوی دیپ‌فیک از Zelenskyy که حرکات دهان و گفتار او را تغییر می‌داد، به دقت ۱۰۰ درصد دست یافت. به همین ترتیب، آشکارساز کاملاً در برابر دیپ فیک واقعی که در مارس 2022 منتشر شد، کار کرد.

اما فرآیند آموزش زمان‌بر که به ساعت‌ها ویدیو برای هر فرد مورد علاقه نیاز دارد، برای شناسایی دیپ‌فیک‌های مربوط به افراد عادی مناسب نیست. بوهاچک می‌گوید: «هدف آینده‌نگرتر این است که چگونه می‌توان این فناوری‌ها را برای افرادی که کمتر در معرض دید هستند و داده‌های ویدیویی زیادی ندارند، کارآیی کرد.

محققان قبلاً یک ردیاب دیپ‌فیک دیگر را ساخته‌اند که بر روی یافتن ویدیوهای جعلی از جو بایدن، رئیس‌جمهور ایالات متحده متمرکز است، و قصد دارند مدل‌های مشابهی را برای چهره‌های عمومی مانند ولادیمیر پوتین از روسیه، شی جین پینگ چینی و ایلان ماسک میلیاردر ایجاد کنند. آنها قصد دارند این آشکارساز را در اختیار خبرگزاری ها و دولت ها قرار دهند.

مرجع مجله: PNAS، DOI: 10.1073/pnas.2216035119

درباره این موضوعات بیشتر بدانید:


منبع: https://www.newscientist.com/article/2350644-ai-spots-deepfake-videos-of-ukrainian-president-volodymyr-zelenskyy/?utm_campaign=RSS%7CNSNS&utm_source=NSNS&utm_medium=RSS&utm_content=home

توسط احمد گل کار

احمد گل کار