
آیا دستگاه ها از انسان باهوش تر می شوند؟
Chan2545 / istockphoto / Getty Images
اگر رهبران جوامع هوش مصنوعی را به گفتار خود برسانید ، محصولات آنها به این معنی است که دهه آینده با تاریخ بشر کاملاً متفاوت خواهد بود: عصری از طلا از “فراوانی رادیکال” ، جایی که فیزیک انرژی بالا “برطرف شده” است و ما آغاز استعمار فضا را می بینیم. اما محققانی که با قدرتمندترین سیستم های هوش مصنوعی امروز کار می کنند ، واقعیت متفاوتی پیدا می کنند ، که در آن حتی بهترین مدل ها معماهای اساسی را که اکثر انسانها بی اهمیت می دانند حل نمی کنند ، در حالی که وعده هوش مصنوعی که می تواند “استدلال” اغراق آمیز به نظر می رسد. پس چه کسی را باید باور کنید؟
سام آلتمن و دمیس حصابیس ، مدیرعامل Openai و Google Deepmind ، به ترتیب ، ادعاهای اخیر را مطرح کرده اند که براساس آن سیستم های هوش مصنوعی قدرتمند و اصلاح شده در جهان روی درهای ما هستند. در یک مقاله وبلاگآلتمن می نویسد که “دهه 2030 احتمالاً با هر زمان قبل از آن بسیار متفاوت خواهد بود” ، گمان می کند که ما می توانیم “یک پیشرفت بزرگ در یک سال در سال را به واسطهای رایانه ای مغزی واقعی در سال آینده” خرج کنیم.
Hasbisis ، در مصاحبه با کابلهمچنین گفت که در دهه 2030 ، هوش مصنوعی عمومی (AGA) شروع به حل مشکلاتی از قبیل “شفابخشی بیماریهای وحشتناک” می کند و منجر به “زندگی بسیار سالم تر و طولانی تر زندگی” و همچنین یافتن منابع جدید انرژی می شود. “اگر همه چیز اتفاق بیفتد” در مصاحبه گفت: “پس باید دوران حداکثر شکوفایی انسان باشد ، وقتی به ستاره ها و کلونیسون ها کهکشان می رویم.”
این دیدگاه به شدت مبتنی بر این فرضیه است که مدل های زبان عالی (LLM) به عنوان چتپت توانایی بیشتری پیدا می کنند ، داده های آموزش و قدرت رایانه ای که ما آنها را پرتاب کرده ایم بیشتر است. به نظر می رسد این “قانون مقیاس” در سالهای اخیر صادق بوده است ، اما سرنخ های گرسنه ای وجود داشته است. به عنوان مثال ، مدل اخیر GPT-4.5 از OpenAI ، که احتمالاً صدها میلیون دلار برای آموزش هزینه داشته است ، در مقایسه با سلف GPT-4 خود فقط به پیشرفت های متوسط رسیده است. و این هزینه در مقایسه با هزینه های آینده چیزی نیست ، با گزارش هایی که حاکی از آن است متا در حال اعلام سرمایه گذاری 15 میلیارد دلار است در تلاش برای رسیدن به “سرپرست”.
پول تنها تلاش برای حل این مشکل نیست ، با این حال شرکت های IA نیز به مدل های “استدلال” مانند O1 OpenAi که سال گذشته منتشر شد ، روی آورده اند. این مدل ها از زمان رایانه بیشتری استفاده می کنند و بنابراین زمان بیشتری را برای تولید پاسخ می گیرند و باعث می شوند که سفرهای خود را به خودی خود تقویت کنند. این فرایند تکراری به منظور مقایسه با روشی که شخص می تواند در مورد مشکلات مرحله -مرحله ای فکر کند ، “زنجیره ای افکار” برچسب خورده است. نوام براون به Openai گفت: “دلایل قانونی برای نگرانی در مورد مجموعه هوش مصنوعی وجود داشت.” دانشمند جدید وی گفت که سال گذشته ، اما O1 و مدل ها به این معنی بودند که “قانون مقیاس” می تواند ادامه یابد.
با این حال ، تحقیقات اخیر نشان داده است که این مدل های استدلال می توانند حتی به معماهای منطقی ساده سفر کنند. به عنوان مثال ، محققان اپل چینی مورد آزمایش قرار گرفت مدل های استدلال شرکت Ai Deepseek و مدل های تفکر Claude d’Anthropic ، که به عنوان O1-Family از مدل های OpenAi کار می کنند. محققان نوشتند كه محققان “محدودیت های دقیق محاسبه را دارند: آنها از الگوریتم های صریح و دلایل ناسازگار از طریق معماها استفاده نمی كنند.”
این تیم هوش مصنوعی را بر روی چندین معمای آزمایش کرده است ، مانند سناریویی که در آن شخص باید با کمترین مراحل ، اشیاء را از طریق یک رودخانه حمل کند ، و برج هانوی ، بازی ای که در آن شما باید یک به یک بین سه پست را بدون قرار دادن یک حلقه بزرگتر بالاتر از یک کوچکتر حرکت دهید. اگرچه این مدل ها می توانند پازل ها را با ساده ترین محیط خود حل کنند ، اما در افزایش تعداد حلقه ها یا مواردی که برای حمل و نقل وجود دارد ، مشکل داشتند. اگرچه ما وقت بیشتری را صرف فکر کردن در مورد یک مشکل پیچیده تر کردیم ، محققان دریافتند که مدل های هوش مصنوعی از “تراشه” کمتری استفاده می کنند – از اطلاعات بیشتر – به عنوان پیچیدگی مشکلات افزایش می یابد ، که نشان می دهد زمان “فکر” نمایش داده شده یک توهم است.
می گوید: “بخش مضر این است که اینها به راحتی وظایف حل می شوند.” آرتور گارس در سیتی ، دانشگاه لندن. “ما قبلاً 50 سال پیش می دانستیم که چگونه می توان از استدلال AI نمادین برای حل آنها استفاده کرد.” این امکان وجود دارد که این سیستم های جدید بتوانند برطرف و بهبود یابند تا بتوانند از طریق مشکلات پیچیده استدلال کنند ، اما این تحقیق نشان می دهد که بعید است که این تنها با افزایش اندازه مدل ها یا منابع محاسبه ای که به آنها داده می شود ، رخ دهد.
همچنین یادآوری است که این مدل ها هنوز هم حل و فصل سناریوهایی را که آنها در خارج از داده های آموزش خود ندیده اند ، دشوار می دانند. نیکوس آلتراس در دانشگاه شفیلد. آتراس توضیح می دهد: “آنها در بسیاری از موارد بسیار خوب کار می کنند ، مانند یافتن ، جمع آوری اطلاعات ، سپس خلاصه کردن آن ، اما این مدل ها برای انجام این نوع کارها آموزش دیده اند و این جادویی به نظر می رسد ، اما این طور نیست – آنها برای انجام این کار آموزش دیده اند.” “اکنون فکر می کنم تحقیقات در مورد اپل یک نقطه کور پیدا کرده است.”
در همین حال ، تحقیقات دیگر نشان می دهد که افزایش زمان “بازتاب” در واقع می تواند به عملکرد یک مدل AI آسیب برساند. سومیا سوورا قوزال و همکارانش در دانشگاه مریلند مدل های Deepseek را آزمایش کردند و دریافتند که فرآیندهای طولانی تر “زنجیره اندیشه” منجر به کاهش دقت تست های استدلال ریاضی شدبشر به عنوان مثال ، برای یک مرجع ریاضی ، آنها دریافتند که سه برابر مقدار نشانه های مورد استفاده توسط یک مدل می تواند عملکرد آن را حدود 5 ٪ افزایش دهد. اما با استفاده از 10 تا 15 برابر بیشتر توکن ها ، نمره مرجع حدود 17 ٪ دوباره کاهش یافته است.
در بعضی موارد ، به نظر می رسد که انتشار “زنجیره اندیشه” تولید شده توسط یک هوش مصنوعی با پاسخ احتمالی که ارائه می دهد رابطه کمی ندارد. کی آزمایش مدل های Deepseek در مورد امکان پیمایش در هزارتوی ساده، سوبارائو کامامپاتی در دانشگاه ایالتی آریزونا و همکارانش دریافتند که حتی وقتی هوش مصنوعی مشکل را حل کند ، تولید آن “زنجیره اندیشه” حاوی خطاهایی است که در راه حل نهایی منعکس نشده است. علاوه بر این ، تغذیه هوش مصنوعی ، “زنجیره ای از اندیشه” معنای معنا می تواند پاسخ های بهتری ایجاد کند.
کاممامپاتی توضیح می دهد: “نتایج ما این فرضیه غالب را زیر سوال می برد که نشانه های میانی یا” زنجیره های فکری “را می توان به صورت معنایی به عنوان اثری از استدلال داخلی مدلهای هوش مصنوعی تعبیر کرد و از این طریق احتیاط در برابر انسان شناسی کرد.”
در واقع ، همه مطالعات نشان می دهد که برچسب های “تأمل” یا “استدلال” برای این مدل های هوش مصنوعی یک اصطلاح نامناسب است. آنا راجرز در دانشگاه رایانه کپنهاگ در دانمارک. “تا زمانی که من در این زمینه بوده ام ، هر تکنیک محبوب من می توانم فکر کنم برای اولین بار توسط یک قیاس مبهم با همخوانی شناختی ، که [was] سپس سرانجام معلوم شد.
آندریاس ولاچوس در دانشگاه کمبریج ، تأکید می کند که LLM هنوز کاربردهای روشنی در تولید متن و سایر کارها دارد ، اما می گوید که آخرین تحقیقات حاکی از آن است که ما ممکن است در حل آنها در نوع مشکلات پیچیده ای که آلتمن و هاسابی ها قول داده اند ، مشکل داشته باشیم که فقط در چند سال حل می شوند.
ولاچوس توضیح می دهد: “اساساً ، بین آنچه این مدل ها شکل می گیرند ، شکافی وجود دارد ، این یک پیش بینی کلمات زیر است ، بر خلاف آنچه ما سعی می کنیم آنها را انجام دهیم ، یعنی می گویند برای ایجاد استدلال.”
با این حال ، Openai موافق نیست. سخنگوی توضیح می دهد: “کار ما نشان می دهد که روشهای استدلال مانند زنجیره افکار می تواند عملکرد مشکلات پیچیده را به میزان قابل توجهی بهبود بخشد ، و ما به لطف آموزش بهتر ، ارزیابی و طراحی مدل به طور جدی در تلاش هستیم تا این ظرفیت ها را گسترش دهیم.” Deepseek به درخواست نظرات پاسخ نداد.
سوژه ها:
منبع: https://www.newscientist.com/article/2484169-is-superintelligent-ai-just-around-the-corner-or-just-a-sci-fi-dream/?utm_campaign=RSS%7CNSNS&utm_source=NSNS&utm_medium=RSS&utm_content=home