هوش مصنوعی در 2025: پیش بینی هوش مصنوعی در سال جاری
هوش مصنوعی عمومی (AGI) و تکینگی در سال ۲۰۲۵ به واقعیت نمیپیوندند. این دو موضوع همیشه جزو بحثهای داغ هوش مصنوعی بودهاند و هم ترس و هم هیجان زیادی را برانگیختهاند. سم آلتمن اخیراً پیشبینی کرده است که AGI در سال ۲۰۲۵ به وقوع میپیوندد و ایلان ماسک سال ۲۰۲۶ را مطرح کرده است. اما این ادعاها بیشتر جنبه هیاهو و جو دارند تا واقعیت.
در سال ۲۰۲۵، AGI وجود نخواهد داشت، اما مدلهای زبانی بزرگ (LLM) احتمالاً کاربرد ویژه و برجستهای پیدا خواهند کرد. این اولین پیشبینی از میان ۱۰ پیشبینی من درباره هوش مصنوعی در سال ۲۰۲۵ است. در این پیشبینی، دلایل فنی ناکارآمدی LLMها را توضیح میدهم و نشان میدهم چرا آنها برای دستیابی به AGI مناسب نیستند. با این مقاله از Lutz Finger از دانشگاه کورنل، منتشر شده در فوربز همراه باشید.
AGI و تکینگی چیست؟
- هوش مصنوعی عمومی (AGI): به نوعی هوش مصنوعی اشاره دارد که میتواند مانند یک انسان در طیف گستردهای از وظایف، فکر کند، یاد بگیرد و مشکلات را حل کند.
- تکینگی: ایدهای است که طبق آن، هوش مصنوعی از هوش انسانی پیشی میگیرد، خود را بهصورت مداوم بهبود میبخشد و تغییرات عظیم و غیرقابل پیشبینی در جامعه ایجاد میکند.
پیشبینی من: هیچکدام از این دو در سال ۲۰۲۵ محقق نخواهند شد. بیایید فناوری را بررسی کنیم تا بفهمیم چرا هنوز فاصله زیادی با این اهداف داریم.
کامل کردن جملات هوش نیست و AGI هم نیست
هوش مصنوعی مولد، مانند مدلهای GPT از OpenAI، میتوانند مکالماتی شبیه به انسان برقرار کنند که به نظر شگفتانگیز میآید. اما این سیستمها به شناسایی و تکرار الگوها محدود هستند. ChatGPT و سیستمهای مشابه بر پایه مدلهای زبانی بزرگ ساخته شدهاند. این مدلها با پیشبینی محتملترین کلمه یا نشانه بعدی بر اساس دادههای آموزشی خود کار میکنند.
نمونهای ساده از عملکرد مدلهای هوش مصنوعی مولد:
ورودی: «زندگی مثل یک جعبه…»
پیشبینی: «شکلاتها» (با الهام از فیلم فارست گامپ).
این در واقع فهمیدن نیست—بلکه صرفاً تطبیق الگوهاست. هوش مصنوعی مولد گزینههای دیگر، مانند «جعبهای از شگفتیها»، را در نظر نمیگیرد. اگرچه ممکن است به نظر برسد که این سیستم هوشمند است، زیرا پاسخهایی روان و دقیق میدهد، اما به هیچ وجه خودآگاهی ندارد؛ درست مانند یک کامپیوتر شطرنج که برایش اهمیتی ندارد بازی را ببازد یا ببرد.
آیا OpenAI’s O1 اولین قدم برای دستیابی به AGI است؟
خیر، اینطور نیست. بیایید ببینیم این سیستم چیست. مدلO1 که در سال ۲۰۲۴ عرضه شد (و جایگزین آن، O3)، بهجای پاسخ مستقیم به یک سؤال، ابتدا یک برنامهریزی انجام میدهد تا بهترین راه برای پاسخگویی را پیدا کند. سپس پاسخ خود را نقد کرده، بهبود میبخشد و به اصلاح مداوم ادامه میدهد. این خروجی زنجیرهای واقعاً شگفتانگیز است.
نقد جمله: «زندگی مثل یک جعبه شکلاتهاست.»
- کلیشهای بودن: بیشازحد استفاده شده است.
- محدودیت در مفهوم: تنها به غیرقابلپیشبینی بودن اشاره میکند.
- تعصب فرهنگی: ممکن است برای همه فرهنگها قابلدرک نباشد.
این تحلیل بد نیست… حالا هوش مصنوعی میتواند براساس این نقد، جملهای بهتر و جامعتر بسازد.
سال ۲۰۲۵ شاهد بسیاری از این «زنجیرهها» خواهد بود، اما خبری از AGI نخواهد بود
من اخیراً یک دوره آنلاین در eCornell راهاندازی کردم که هدف آن آموزش دانشجویان برای طراحی محصولات با استفاده از هوش مصنوعی و داده است. برای اینکه این دوره فنی و تخصصی به شکل یک دوره بدون نیاز به کدنویسی قابل دسترسی باشد، همان فرآیند تکراری که در O1 دیده میشود را پیادهسازی کردم:
- ابتدا دانشجویان مفهوم محصول را طراحی میکنند (برنامهریزی).
- سپس ابزار هوش مصنوعی به طور خودکار کد تولید میکند (تولید).
- هنگام اجرا ممکن است خطاهایی رخ دهد (آزمایش).
- ابزار هوش مصنوعی خروجی خود را نقد کرده (نقد) و بهصورت تکراری آن را اصلاح میکند.
نوآوری اصلی در توانایی OpenAI برای عبور مکرر از این چرخه و بهبود پاسخ است. اما آیا این هوش واقعی است؟ خیر. این یک چارچوب ثابت است و انعطافپذیری ندارد. همچنین این روش مقیاسپذیر نیست؛ هرچه چرخههای نقد بیشتری به مدل اختصاص دهید، جنبههای بیشتری از مسئله را میتواند پوشش دهد، اما این کار زمان بیشتری میطلبد.
منظورم را اشتباه برداشت نکنید. O1 OpenAI شگفتانگیز است، اما در عین حال، به چالش بنیادی فناوری در مسیر دستیابی به AGI نیز اشاره دارد.
موانع دستیابی به AGI
- انسانها میتوانند هم سریع و غریزی فکر کنند (سیستم ۱) و هم آرام و منطقی (سیستم ۲)، اما هوش مصنوعی تنها از طریق شناسایی الگوها عمل میکند و این تعادل را ندارد.
- هوش مصنوعی در درک زمینه موضوعات مشکل دارد و اغلب جزئیات مهمی را که انسانها به طور طبیعی متوجه میشوند، از دست میدهد.
- مدلهای فعلی هوش مصنوعی بر اساس خروجیهای قبلی خود عمل میکنند (مدلهای اوتورگرسیو – autoregressive)، بنابراین اشتباهات میتوانند به صورت زنجیرهای گسترش یابند.
بسیاری از پژوهشگران معتقدند که بسیاری از این مسائل قابل حل هستند. اما چه زمانی؟ سال ۲۰۵۰؟ ۲۰۳۰؟ نمیدانیم. اما مطمئنیم که امسال نخواهد بود.
چه چیزی در سال ۲۰۲۵ رخ خواهد داد؟
در سال ۲۰۲۵، شاهد راهحلهای محدودتر هوش مصنوعی خواهیم بود که به صورت زنجیرههایی مشابه رویکرد O1 OpenAI ادغام میشوند. این سیستمها برای انجام وظایف خاص طراحی میشوند و با ترکیب آنها، بهرهوری افزایش یافته و در بسیاری از زمینهها عملکرد انسانی را پشت سر خواهند گذاشت. این پیشرفتها هیجانانگیز خواهد بود، اما باید تأکید کرد که اینها به معنای دستیابی به AGI نیستند.
به جای اینکه در بحثهای مربوط به AGI و اینکه آیا جایگزین انسان خواهد شد یا نه غرق شویم، بهتر است بر روی فرصتها و خطرات واقعی هوش مصنوعی تمرکز کنیم. در اینجا یک ویدئوی کوتاه از دیدگاه من قرار دارد. خلاصه: چنین چیزی فعلاً اتفاق نمیافتد.
و اما ادعای سم آلتمن درباره AGI؟
این بیشتر یک تاکتیک بازاریابی است. ادعاهای بزرگ و جسورانه توجهها را جلب میکنند. وعده دستیابی به AGI توجه بسیاری را به خود جلب میکند.
در آینده، پیشبینی بعدی خود برای سال ۲۰۲۵ را به اشتراک خواهم گذاشت که بر بزرگترین کاربرد مدلهای زبانی بزرگ متمرکز است. اگرچه پیشبینی آلتمان ممکن است اغراقآمیز به نظر برسد، اما این استراتژی در راستای بزرگترین کاربرد احتمالی این مدلها، یا همان «برنامه کاربردی کلیدی» است. منتظر باشید.