مقالات علمی-تحلیلی

هوش مصنوعی در 2025: پیش بینی هوش مصنوعی در سال جاری

هوش مصنوعی عمومی (AGI) و تکینگی در سال ۲۰۲۵ به واقعیت نمی‌پیوندند. این دو موضوع همیشه جزو بحث‌های داغ هوش مصنوعی بوده‌اند و هم ترس و هم هیجان زیادی را برانگیخته‌اند. سم آلتمن اخیراً پیش‌بینی کرده است که AGI در سال ۲۰۲۵ به وقوع می‌پیوندد و ایلان ماسک سال ۲۰۲۶ را مطرح کرده است. اما این ادعاها بیشتر جنبه هیاهو و جو دارند تا واقعیت.

در سال ۲۰۲۵، AGI وجود نخواهد داشت، اما مدل‌های زبانی بزرگ (LLM) احتمالاً کاربرد ویژه و برجسته‌ای پیدا خواهند کرد. این اولین پیش‌بینی از میان ۱۰ پیش‌بینی من درباره هوش مصنوعی در سال ۲۰۲۵ است. در این پیش‌بینی، دلایل فنی ناکارآمدی LLM‌ها را توضیح می‌دهم و نشان می‌دهم چرا آن‌ها برای دستیابی به AGI مناسب نیستند. با این مقاله از Lutz Finger از دانشگاه کورنل، منتشر شده در فوربز همراه باشید.

AGI و تکینگی چیست؟

  • هوش مصنوعی عمومی (AGI): به نوعی هوش مصنوعی اشاره دارد که می‌تواند مانند یک انسان در طیف گسترده‌ای از وظایف، فکر کند، یاد بگیرد و مشکلات را حل کند.
  • تکینگی: ایده‌ای است که طبق آن، هوش مصنوعی از هوش انسانی پیشی می‌گیرد، خود را به‌صورت مداوم بهبود می‌بخشد و تغییرات عظیم و غیرقابل پیش‌بینی در جامعه ایجاد می‌کند.

پیش‌بینی من: هیچ‌کدام از این دو در سال ۲۰۲۵ محقق نخواهند شد. بیایید فناوری را بررسی کنیم تا بفهمیم چرا هنوز فاصله زیادی با این اهداف داریم.

کامل کردن جملات هوش نیست و AGI هم نیست

هوش مصنوعی مولد، مانند مدل‌های GPT از OpenAI، می‌توانند مکالماتی شبیه به انسان برقرار کنند که به نظر شگفت‌انگیز می‌آید. اما این سیستم‌ها به شناسایی و تکرار الگوها محدود هستند. ChatGPT و سیستم‌های مشابه بر پایه مدل‌های زبانی بزرگ ساخته شده‌اند. این مدل‌ها با پیش‌بینی محتمل‌ترین کلمه یا نشانه بعدی بر اساس داده‌های آموزشی خود کار می‌کنند.

نمونه‌ای ساده از عملکرد مدل‌های هوش مصنوعی مولد:

ورودی: «زندگی مثل یک جعبه…»
پیش‌بینی: «شکلات‌ها» (با الهام از فیلم فارست گامپ).

این در واقع فهمیدن نیست—بلکه صرفاً تطبیق الگوهاست. هوش مصنوعی مولد گزینه‌های دیگر، مانند «جعبه‌ای از شگفتی‌ها»، را در نظر نمی‌گیرد. اگرچه ممکن است به نظر برسد که این سیستم هوشمند است، زیرا پاسخ‌هایی روان و دقیق می‌دهد، اما به هیچ وجه خودآگاهی ندارد؛ درست مانند یک کامپیوتر شطرنج که برایش اهمیتی ندارد بازی را ببازد یا ببرد.

آیا OpenAI’s O1 اولین قدم برای دستیابی به AGI است؟

خیر، این‌طور نیست. بیایید ببینیم این سیستم چیست. مدلO1 که در سال ۲۰۲۴ عرضه شد (و جایگزین آن، O3)، به‌جای پاسخ مستقیم به یک سؤال، ابتدا یک برنامه‌ریزی انجام می‌دهد تا بهترین راه برای پاسخ‌گویی را پیدا کند. سپس پاسخ خود را نقد کرده، بهبود می‌بخشد و به اصلاح مداوم ادامه می‌دهد. این خروجی زنجیره‌ای واقعاً شگفت‌انگیز است.

نقد جمله: «زندگی مثل یک جعبه شکلات‌هاست.»

  1. کلیشه‌ای بودن: بیش‌ازحد استفاده شده است.
  2. محدودیت در مفهوم: تنها به غیرقابل‌پیش‌بینی بودن اشاره می‌کند.
  3. تعصب فرهنگی: ممکن است برای همه فرهنگ‌ها قابل‌درک نباشد.

این تحلیل بد نیست… حالا هوش مصنوعی می‌تواند براساس این نقد، جمله‌ای بهتر و جامع‌تر بسازد.

سال ۲۰۲۵ شاهد بسیاری از این «زنجیره‌ها» خواهد بود، اما خبری از AGI نخواهد بود

من اخیراً یک دوره آنلاین در eCornell راه‌اندازی کردم که هدف آن آموزش دانشجویان برای طراحی محصولات با استفاده از هوش مصنوعی و داده است. برای اینکه این دوره فنی و تخصصی به شکل یک دوره بدون نیاز به کدنویسی قابل دسترسی باشد، همان فرآیند تکراری که در O1 دیده می‌شود را پیاده‌سازی کردم:

  1. ابتدا دانشجویان مفهوم محصول را طراحی می‌کنند (برنامه‌ریزی).
  2. سپس ابزار هوش مصنوعی به طور خودکار کد تولید می‌کند (تولید).
  3. هنگام اجرا ممکن است خطاهایی رخ دهد (آزمایش).
  4. ابزار هوش مصنوعی خروجی خود را نقد کرده (نقد) و به‌صورت تکراری آن را اصلاح می‌کند.

نوآوری اصلی در توانایی OpenAI برای عبور مکرر از این چرخه و بهبود پاسخ است. اما آیا این هوش واقعی است؟ خیر. این یک چارچوب ثابت است و انعطاف‌پذیری ندارد. همچنین این روش مقیاس‌پذیر نیست؛ هرچه چرخه‌های نقد بیشتری به مدل اختصاص دهید، جنبه‌های بیشتری از مسئله را می‌تواند پوشش دهد، اما این کار زمان بیشتری می‌طلبد.

منظورم را اشتباه برداشت نکنید. O1 OpenAI شگفت‌انگیز است، اما در عین حال، به چالش بنیادی فناوری در مسیر دستیابی به AGI نیز اشاره دارد.

موانع دستیابی به AGI

  • انسان‌ها می‌توانند هم سریع و غریزی فکر کنند (سیستم ۱) و هم آرام و منطقی (سیستم ۲)، اما هوش مصنوعی تنها از طریق شناسایی الگوها عمل می‌کند و این تعادل را ندارد.
  • هوش مصنوعی در درک زمینه موضوعات مشکل دارد و اغلب جزئیات مهمی را که انسان‌ها به طور طبیعی متوجه می‌شوند، از دست می‌دهد.
  • مدل‌های فعلی هوش مصنوعی بر اساس خروجی‌های قبلی خود عمل می‌کنند (مدل‌های اوتورگرسیو – autoregressive)، بنابراین اشتباهات می‌توانند به صورت زنجیره‌ای گسترش یابند.

بسیاری از پژوهشگران معتقدند که بسیاری از این مسائل قابل حل هستند. اما چه زمانی؟ سال ۲۰۵۰؟ ۲۰۳۰؟ نمی‌دانیم. اما مطمئنیم که امسال نخواهد بود.

چه چیزی در سال ۲۰۲۵ رخ خواهد داد؟

در سال ۲۰۲۵، شاهد راه‌حل‌های محدودتر هوش مصنوعی خواهیم بود که به صورت زنجیره‌هایی مشابه رویکرد O1 OpenAI ادغام می‌شوند. این سیستم‌ها برای انجام وظایف خاص طراحی می‌شوند و با ترکیب آن‌ها، بهره‌وری افزایش یافته و در بسیاری از زمینه‌ها عملکرد انسانی را پشت سر خواهند گذاشت. این پیشرفت‌ها هیجان‌انگیز خواهد بود، اما باید تأکید کرد که این‌ها به معنای دستیابی به AGI نیستند.

به جای اینکه در بحث‌های مربوط به AGI و اینکه آیا جایگزین انسان خواهد شد یا نه غرق شویم، بهتر است بر روی فرصت‌ها و خطرات واقعی هوش مصنوعی تمرکز کنیم. در اینجا یک ویدئوی کوتاه از دیدگاه من قرار دارد. خلاصه: چنین چیزی فعلاً اتفاق نمی‌افتد.

و اما ادعای سم آلتمن درباره AGI؟

این بیشتر یک تاکتیک بازاریابی است. ادعاهای بزرگ و جسورانه توجه‌ها را جلب می‌کنند. وعده دستیابی به AGI توجه بسیاری را به خود جلب می‌کند.
در آینده، پیش‌بینی بعدی خود برای سال ۲۰۲۵ را به اشتراک خواهم گذاشت که بر بزرگ‌ترین کاربرد مدل‌های زبانی بزرگ متمرکز است. اگرچه پیش‌بینی آلتمان ممکن است اغراق‌آمیز به نظر برسد، اما این استراتژی در راستای بزرگ‌ترین کاربرد احتمالی این مدل‌ها، یا همان «برنامه کاربردی کلیدی» است. منتظر باشید.

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *