اگر هوش مصنوعی ها از سایر هوش مصنوعی ها یاد بگیرند بی فایده خواهند شد

این شکست به دلیل نحوه نمایش آماری مدل‌های هوش مصنوعی متن است. هوش مصنوعی که یک عبارت یا عبارت را چندین بار می بیند، احتمالاً آن عبارت را در یک خروجی تکرار می کند، و احتمال کمتری دارد که چیزی را تولید کند که به ندرت دیده است. هنگامی که مدل‌های جدید بر روی متن سایر AIها آموزش داده می‌شوند، تنها بخش کوچکی از خروجی‌های احتمالی هوش مصنوعی اصلی را می‌بینند. بعید است که این زیرمجموعه حاوی نسخه‌های کمیاب‌تر باشد، بنابراین هوش مصنوعی جدید آنها را در نسخه‌های احتمالی خود گنجانده نیست.

فقدان داده‌های آموزشی به اندازه کافی متنوع با کاستی‌هایی در خود مدل‌ها و نحوه آموزش آن‌ها ترکیب می‌شود، که همیشه در وهله اول داده‌های اساسی را به‌طور کامل نشان نمی‌دهند. Shumailov و تیم او نشان داده اند که این منجر به فروپاشی مدل برای انواع مدل های مختلف هوش مصنوعی می شود. شومیلوف می‌گوید: «از آنجایی که این روند تکرار می‌شود، ما در نهایت به آن حالت جنون می‌رسیم که در آن فقط اشتباهات، اشتباهات و اشتباهات وجود دارد و بزرگی اشتباهات بسیار بیشتر از هر چیز دیگری است.

هوش مصنوعی هایی مانند ChatGPT که به مدل های زبان بزرگ (LLM) معروف هستند، از مخازن بزرگی از متن نوشته شده توسط انسان از اینترنت برای ایجاد یک مدل آماری از زبان انسان استفاده می کنند، بنابراین می توانند پیش بینی کنند که کدام کلمات به احتمال زیاد در یک جمله قرار می گیرند. . از زمانی که آنها در دسترس قرار گرفتند، اینترنت مملو از متن های تولید شده توسط هوش مصنوعی شد، اما اینکه چه تاثیری بر هوش مصنوعی آینده خواهد داشت، مشخص نیست.

چت بات ها از مدل های آماری زبان انسان برای پیش بینی کلمات بعدی استفاده می کنند

مدل نیز هیچ راهی برای گفتن ندارد آیا متن تولید شده توسط هوش مصنوعی که می بیند مطابقت دارد یا خیر، که می تواند حتی بیشتر از مدل های فعلی اطلاعات نادرست ایجاد کند.

توضیح می‌دهد که برخی از خطاها را می‌توان با درخواست از هوش مصنوعی برای اولویت دادن به داده‌های آموزشی از قبل از هجوم محتوای AI به وب کاهش داد. وینو ساداسیوان در دانشگاه مریلند

سرعت این فرآیند به میزان محتوای تولید شده توسط هوش مصنوعی در داده‌های آموزشی هوش مصنوعی و نوع مدلی که استفاده می‌کند بستگی دارد، اما همه مدل‌هایی که در معرض داده‌های هوش مصنوعی قرار می‌گیرند در نهایت به نظر می‌رسند که در حال فروپاشی هستند.

هوش مصنوعی که با استفاده از متن و تصاویر سایر هوش مصنوعی ها آموزش داده می شود، که خود بر روی خروجی های هوش مصنوعی آموزش دیده اند، در نهایت می توانند از نظر عملکردی بی فایده شوند.

شومیلوف می‌گوید تنها راه حل این مشکل، برچسب‌گذاری و حذف خروجی‌های تولید شده توسط هوش مصنوعی است. اما انجام این کار به طور قابل اعتماد غیرممکن است مگر اینکه رابطی داشته باشید که در آن انسان‌ها برای وارد کردن متن شناخته شده باشند، مانند رابط Google یا ChatGPT OpenAI – پویایی که می‌تواند مزایای مالی و فناوری اطلاعات را افزایش دهد. برای شرکت‌های فناوری بزرگ مهم است.

لارنس داتون/گتی ایماژ

همچنین ممکن است که انسان ها محتوای هوش مصنوعی را بدون ویرایش خود ابتدا در اینترنت پست نکنند. فلوریان ترامر در موسسه فناوری فدرال سوئیس در زوریخ. او می‌گوید: «حتی اگر خود LLM به جهاتی مغرضانه باشد، فرآیند تحریک و غربالگری انسانی می‌تواند این موضوع را کاهش دهد تا نتایج نهایی به سوگیری اولیه انسان نزدیک‌تر باشد».

اکنون، ایلیا شومیلوف در دانشگاه آکسفورد و همکارانش دریافتند که مدل‌های هوش مصنوعی که با استفاده از خروجی‌های هوش مصنوعی دیگر آموزش دیده‌اند، به شدت مغرضانه، ساده‌سازی شده و از واقعیت جدا می‌شوند – مشکلی که آنها آن را فروپاشی مدل می‌نامند.

موضوعات:


منبع: https://www.newscientist.com/article/2378706-ais-will-become-useless-if-they-keep-learning-from-other-ais/?utm_campaign=RSS%7CNSNS&utm_source=NSNS&utm_medium=RSS&utm_content=home

توسط احمد گل کار

احمد گل کار