هوش مصنوعی با تجزیه و تحلیل اسکن مغز، تصاویری از آنچه مردم می بینند ایجاد می کند

چندین گروه تحقیقاتی قبلاً تصاویری از سیگنال های مغزی با استفاده از مدل های هوش مصنوعی پرقدرت تولید کرده اند که نیاز به تنظیم دقیق میلیون ها تا میلیاردها پارامتر دارند.

لین می‌گوید در آینده، نسخه‌های عملی بیشتری از این رویکرد می‌تواند به افراد اجازه دهد تا هنر بسازند یا تصاویر را با تخیلات خود تغییر دهند یا عناصر جدیدی به بازی اضافه کنند.

نیشیموتو می‌گوید، با این حال، این مطالعه فقط این رویکرد را روی چهار نفر آزمایش کرد و هوش مصنوعی ذهن‌خوان روی برخی افراد بهتر از دیگران کار می‌کند.

با استفاده از حدود 90 درصد داده‌های تصویربرداری مغز، این زوج مدلی را آموزش دادند تا بین داده‌های fMRI از ناحیه‌ای از مغز که سیگنال‌های بینایی به نام قشر بینایی اولیه را پردازش می‌کند و تصاویری که مردم تماشا می‌کردند، ارتباط برقرار کند.

هنگامی که به طور معمول استفاده می شود، Stable Diffusion یک پیام متنی را با شروع با نویز بصری تصادفی و تنظیم آن برای تولید تصاویری شبیه به داده های آموزشی خود که دارای شرح متنی مشابه هستند، به تصویر تبدیل می کند.

نیشیموتو و تاکاگی دو مدل مکمل برای کارکرد هوش مصنوعی با سیگنال‌های مغزی ساختند. این جفت از داده‌های چهار نفری استفاده کردند که در مطالعه قبلی شرکت کرده بودند که از تصویربرداری تشدید مغناطیسی عملکردی (fMRI) برای اسکن مغز آنها در حین مشاهده 10000 تصویر جداگانه از مناظر، اشیا و افراد استفاده کردند.

اکنون، شینجی نیشیموتو و یو تاکاگی در دانشگاه اوزاکا در ژاپن با استفاده از Stable Diffusion، یک تولیدکننده متن به تصویر که توسط Stability AI در آگوست 2022 منتشر شد، رویکرد بسیار ساده‌تری ایجاد کرده‌اند. روش جدید آن‌ها شامل هزاران پارامتر و نه میلیون‌ها پارامتر است.

اصلاح یک هوش مصنوعی محبوب تولید متن به تصویر به آن اجازه می دهد سیگنال های مغز را مستقیماً به تصویر تبدیل کند. با این حال، این سیستم نیاز به آموزش گسترده با استفاده از تجهیزات تصویربرداری بزرگ و گران قیمت دارد، بنابراین خواندن ذهن روزانه با واقعیت فاصله زیادی دارد.

تاکاگی می‌گوید: «چشم‌هایم را باور نمی‌کردم، به حمام رفتم و در آینه نگاه کردم، سپس به سمت میزم برگشتم تا نگاهی دیگر بیندازم.

تصاویر در ردیف پایین از اسکن مغز فردی که به کسانی که در ردیف بالا نگاه می‌کنند بازآفرینی شده‌اند.

پس از آموزش، این دو مدل – که باید برای هر فرد شخصی سازی می شدند – می توانستند داده های تصویربرداری مغز را به فرم هایی تبدیل کنند که مستقیماً به مدل انتشار پایدار تغذیه می شود. سپس می تواند حدود 1000 تصویر را که مردم دیده اند با دقت 80 درصد بازسازی کند، بدون اینکه روی تصاویر اصلی آموزش دیده باشند. این سطح از دقت مشابه آنچه قبلاً در a به دست آمده بود مطالعه ای که همان داده ها را با استفاده از یک رویکرد بسیار خسته کننده تر تجزیه و تحلیل کرد.

تصاویر مغز هوش مصنوعی

یو تاکاگی و شینجی نیشیموتو/دانشگاه اوزاکا، ژاپن

موضوعات:


منبع: https://www.newscientist.com/article/2363330-ai-creates-pictures-of-what-people-are-seeing-by-analysing-brain-scans/?utm_campaign=RSS%7CNSNS&utm_source=NSNS&utm_medium=RSS&utm_content=home

آنها از همان مجموعه داده برای آموزش مدل دوم استفاده کردند تا پیوندهایی بین توضیحات متنی تصاویر – ساخته شده توسط پنج حاشیه نویس در مطالعه قبلی – و داده های fMRI از ناحیه ای از مغز که معنای تصاویر را پردازش می کند، ایجاد کند. تصاویر به نام بصری شکمی. قشر

علاوه بر این، از آنجایی که مدل‌ها باید متناسب با مغز هر فرد باشد، این رویکرد به جلسات طولانی تصویربرداری مغز و دستگاه‌های بزرگ fMRI نیاز دارد. سیکون لین در دانشگاه کالیفرنیا او می گوید: «این برای استفاده روزمره اصلاً کاربردی نیست.

توسط احمد گل کار

احمد گل کار