کلیپ ویدیویی بازسازی شده توسط یک هوش مصنوعی که مغز موش ها را هنگام تماشا می خواند


فعالیت مغز موش می تواند نشانه ای از آنچه می بیند را نشان دهد

EPFL/Hillary Sancuary/Alain Herzog/Allen Institute/Roddy Grieves

یک فیلم سیاه و سفید تقریباً به طور کامل از سیگنال های مغز موش با استفاده از ابزار هوش مصنوعی استخراج شد.

مکنزی ماتیس در Ecole polytechnique fédérale de Lozanne و همکارانش داده های فعالیت مغزی حدود 50 موش را در حالی که یک کلیپ ویدئویی 30 ثانیه ای را 9 بار تماشا می کردند، بررسی کردند. سپس محققان یک هوش مصنوعی را آموزش دادند تا این داده ها را به کلیپ 600 فریمی مرتبط کند، که در آن مردی به سمت یک ماشین می دود و صندوق عقب آن را باز می کند.

این داده‌ها قبلاً توسط محققان دیگری جمع‌آوری شده بود که کاوشگرهای فلزی را که تکانه‌های الکتریکی از نورون‌ها را ضبط می‌کنند، در قشر بینایی اولیه موش‌ها، ناحیه‌ای از مغز که در پردازش اطلاعات بصری نقش دارد، وارد کردند. برخی از داده ها در مورد فعالیت مغز نیز با تصویربرداری از مغز موش ها با استفاده از میکروسکوپ جمع آوری شد.

در مرحله بعد، ماتیس و تیمش توانایی هوش مصنوعی آموزش دیده خود را برای پیش بینی ترتیب فریم ها در کلیپ با استفاده از داده های فعالیت مغزی جمع آوری شده از موش ها هنگام تماشای فیلم برای دهمین بار آزمایش کردند.

این نشان داد که هوش مصنوعی در 95 درصد مواقع می تواند تصویر صحیح را در یک ثانیه پیش بینی کند.

سایر ابزارهای هوش مصنوعی که برای بازسازی تصاویر از سیگنال‌های مغزی طراحی شده‌اند، زمانی بهترین عملکرد را دارند که بر روی داده‌های مغزی تک تک ماوس‌هایی که برای آن پیش‌بینی می‌کنند آموزش ببینند.

برای آزمایش اینکه آیا این روی هوش مصنوعی آنها صدق می کند یا خیر، محققان آن را بر روی داده های مغزی تک تک موش ها آموزش دادند. سپس فریم های فیلم مشاهده شده را با دقت بین 50 تا 75 درصد پیش بینی کرد.

متیس می‌گوید: «آموزش هوش مصنوعی بر روی داده‌های چند حیوان، پیش‌بینی‌ها را قوی‌تر می‌کند، بنابراین نیازی نیست هوش مصنوعی را بر روی داده‌های افراد خاص آموزش دهید تا برای آنها کار کند.»

ماتیس می‌گوید با آشکار کردن پیوندهای بین الگوهای فعالیت مغز و ورودی‌های بصری، این ابزار به طور بالقوه می‌تواند راه‌هایی را برای ایجاد احساسات بصری در افراد کم‌بینا نشان دهد.

او می‌گوید: «می‌توانید سناریویی را تصور کنید که در آن واقعاً بخواهید به یک فرد کم بینا کمک کنید تا با بازی در فعالیت‌های عصبی که به آن حس دیدن می‌دهد، دنیا را به شیوه‌ای جالب ببیند.

این پیشرفت می‌تواند ابزار مفیدی برای درک کدهای عصبی که زیربنای رفتار ما هستند باشد و باید برای داده‌های انسانی قابل اجرا باشد. شینجی نیشیموتو در دانشگاه اوزاکا ژاپن

موضوعات:


منبع: https://www.newscientist.com/article/2371943-movie-clip-reconstructed-by-an-ai-reading-mices-brains-as-they-watch/?utm_campaign=RSS%7CNSNS&utm_source=NSNS&utm_medium=RSS&utm_content=home

توسط احمد گل کار

احمد گل کار