این شکست به دلیل نحوه نمایش آماری مدلهای هوش مصنوعی متن است. هوش مصنوعی که یک عبارت یا عبارت را چندین بار می بیند، احتمالاً آن عبارت را در یک خروجی تکرار می کند، و احتمال کمتری دارد که چیزی را تولید کند که به ندرت دیده است. هنگامی که مدلهای جدید بر روی متن سایر AIها آموزش داده میشوند، تنها بخش کوچکی از خروجیهای احتمالی هوش مصنوعی اصلی را میبینند. بعید است که این زیرمجموعه حاوی نسخههای کمیابتر باشد، بنابراین هوش مصنوعی جدید آنها را در نسخههای احتمالی خود گنجانده نیست.
فقدان دادههای آموزشی به اندازه کافی متنوع با کاستیهایی در خود مدلها و نحوه آموزش آنها ترکیب میشود، که همیشه در وهله اول دادههای اساسی را بهطور کامل نشان نمیدهند. Shumailov و تیم او نشان داده اند که این منجر به فروپاشی مدل برای انواع مدل های مختلف هوش مصنوعی می شود. شومیلوف میگوید: «از آنجایی که این روند تکرار میشود، ما در نهایت به آن حالت جنون میرسیم که در آن فقط اشتباهات، اشتباهات و اشتباهات وجود دارد و بزرگی اشتباهات بسیار بیشتر از هر چیز دیگری است.
هوش مصنوعی هایی مانند ChatGPT که به مدل های زبان بزرگ (LLM) معروف هستند، از مخازن بزرگی از متن نوشته شده توسط انسان از اینترنت برای ایجاد یک مدل آماری از زبان انسان استفاده می کنند، بنابراین می توانند پیش بینی کنند که کدام کلمات به احتمال زیاد در یک جمله قرار می گیرند. . از زمانی که آنها در دسترس قرار گرفتند، اینترنت مملو از متن های تولید شده توسط هوش مصنوعی شد، اما اینکه چه تاثیری بر هوش مصنوعی آینده خواهد داشت، مشخص نیست.
چت بات ها از مدل های آماری زبان انسان برای پیش بینی کلمات بعدی استفاده می کنند
مدل نیز هیچ راهی برای گفتن ندارد آیا متن تولید شده توسط هوش مصنوعی که می بیند مطابقت دارد یا خیر، که می تواند حتی بیشتر از مدل های فعلی اطلاعات نادرست ایجاد کند.
توضیح میدهد که برخی از خطاها را میتوان با درخواست از هوش مصنوعی برای اولویت دادن به دادههای آموزشی از قبل از هجوم محتوای AI به وب کاهش داد. وینو ساداسیوان در دانشگاه مریلند
سرعت این فرآیند به میزان محتوای تولید شده توسط هوش مصنوعی در دادههای آموزشی هوش مصنوعی و نوع مدلی که استفاده میکند بستگی دارد، اما همه مدلهایی که در معرض دادههای هوش مصنوعی قرار میگیرند در نهایت به نظر میرسند که در حال فروپاشی هستند.
هوش مصنوعی که با استفاده از متن و تصاویر سایر هوش مصنوعی ها آموزش داده می شود، که خود بر روی خروجی های هوش مصنوعی آموزش دیده اند، در نهایت می توانند از نظر عملکردی بی فایده شوند.
شومیلوف میگوید تنها راه حل این مشکل، برچسبگذاری و حذف خروجیهای تولید شده توسط هوش مصنوعی است. اما انجام این کار به طور قابل اعتماد غیرممکن است مگر اینکه رابطی داشته باشید که در آن انسانها برای وارد کردن متن شناخته شده باشند، مانند رابط Google یا ChatGPT OpenAI – پویایی که میتواند مزایای مالی و فناوری اطلاعات را افزایش دهد. برای شرکتهای فناوری بزرگ مهم است.
لارنس داتون/گتی ایماژ