مقالات علمی-تحلیلی

هوش مصنوعی نجات ماست، نابودی ماست یا فقط تکرار مکررات است؟

هوش مصنوعی مولد اخیراً هیجان عمومی را برانگیخته است: ماشین‌ها یاد گرفته‌اند فکر کنند! اما واقعاً هوش مصنوعی تا چه اندازه هوشمند است؟

اینجا مسئله‌ای وجود دارد: آیا ما به نجات دست یافته‌ایم و به دنیایی از راحتی و لوکسی که تاکنون تجربه نکرده‌ایم، وارد شده‌ایم؟ یا اینکه با نابودی خود روبرو شده‌ایم، به دنیایی غم‌انگیز که جامعه‌ای که می‌شناسیم را ویران می‌کند؟ این تناقض‌ها حداقل تا حدودی به تناقض دیگری مربوط می‌شوند که به‌گونه‌ای نهان باقی مانده است. ما به خروجی‌های هوش مصنوعی (چیستی آن) در سطحی سطحی علاقه‌مندیم، اما غالباً اگر کمی عمیق‌تر بکاویم یا درک کنیم که هوش مصنوعی چگونه کار می‌کند (چگونگی آن)، ناامید می‌شویم. این تردید هرگز به‌این اندازه آشکار نبوده است، به خصوص در دوران هوش مصنوعی مولد. ما از شکل عالی خروجی‌های تولیدشده توسط مدل‌های زبانی بزرگ (LLM) مانند ChatGPT شگفت‌زده هستیم، در حالی که از بیان‌های مغرضانه و غیرواقعی که تولید می‌کنند، نگرانیم. به همین ترتیب، هنر هوش مصنوعی برای ما بسیار جذاب است ولی در عین حال نگران از فقدان معنای عمیق و نیز دغدغه‌های مربوط به سرقت ادبی نبوغ‌های گذشته هستیم.

نگرانی‌ها در زمینه هوش مصنوعی مولد، که ما را وادار به تعامل مستقیم با این فناوری می‌کند، به‌هیچ وجه تصادفی نیست. مکالمات انسانی دارای لایه‌ها و نوع‌های مختلف معنایی هستند. حتی یک سؤال ساده مانند «چای یا قهوه بخوریم؟» دارای چندین معنی ضمنی است که به اطلاعات مشترک درباره زمان روز، نیت ناپیدا برای یک گفتگوی راحت و حدس‌هایی درباره سلیقه‌های نوشیدنی و دسترسی به فروشگاه‌های نزدیک و … مربوط می‌شود. اگر اثر هنری‌ای با عنوان «ویتنام دهه ۱۹۷۰» ببینیم، احتمالاً انتظار داریم هنرمند قصد دارد چیزی درباره زندگی در آن کشور در دوران پس از جنگ و پایان جنگ منتقل کند – هنگام تعامل با انسان‌ها و خروجی‌های انسانی، بسیاری از معانی به‌طور ناگفته باقی می‌مانند. در مقابل، مدل‌های زبانی بزرگ با پاسخ‌های انسانی‌مانند مواجه‌مان می‌کنند که فاقد هرگونه عمق معنایی هستند. این عدم همخوانی بین ارائه انسانی و روح ماشینی نیز در دل مسئله هوش مصنوعی نهفته است.

با این حال، تصور اینکه اشتیاق هوش مصنوعی به تقلید سطحی امری جدید است، اشتباه است. الگوی تقلید از ابتدا در هسته هوش مصنوعی ریشه دار بوده است. برای باز کردن و درک چگونگی اینکه فرهنگ معاصر به یک فناوری متمرکز بر تقلید ارادت می‌ورزد، باید به روزهای اولیه تاریخ هوش مصنوعی بازگردیم و تحول آن را در طول دهه‌ها ردیابی کنیم.

آلن تورینگ(۱۹۱۲-۱۹۵۴)، که به‌طور گسترده‌ای به عنوان پدر هوش مصنوعی شناخته می‌شود، به توسعه افکار بنیادین این حوزه اعتبار داده می‌شود. در حالی که هوش مصنوعی در طول ۷۰ سال پس از مرگ تیورینگ به‌طور قابل توجهی تکامل یافته است، یک جنبه از میراث او همچنان در کانون مباحثات معاصر هوش مصنوعی قرار دارد. این جنبه، آزمون تیورینگ است، یک آزمون مفهومی که می‌پرسد آیا یک فناوری می‌تواند خروجی خود را به‌عنوان انسانی جا بزند؟

تصور کنید یک فناوری در حال گفتگو آنلاین با یک انسان است؛ اگر این فناوری بتواند طرف مقابل را متقاعد کند که با یک انسان در حال چت است، آزمون تیورینگ را پشت سر گذاشته است. رابط کاربری چت که امروزه مدل‌های زبانی بزرگ از آن استفاده می‌کنند، باعث احیای علاقه به آزمون تیورینگ در فرهنگ عامه شده است. همچنین، آزمون تیورینگ به قدری در جامعه علمی معاصر هوش مصنوعی جا افتاده که به‌عنوان آزمون نهایی هوش مطرح می‌شود، که ممکن است حتی بیان آنکه این آزمون تنها به‌طرز غیرمستقیم به سنجش هوش مرتبط است، جنجالی به نظر بیاید. اما این دقیقاً همان چیزی است که تیورینگ در مقاله اولیه‌اش که این آزمون را معرفی کرده، مد نظر داشت.

قابل توجه است که تیورینگ این آزمون را “بازی تقلید” نامیده بود. تنها بعداً بود که جامعه هوش مصنوعی آن را “آزمون تیورینگ” نام‌گذاری کرد. برای درک تفاوت میان “بازی تقلید” و قضاوت در مورد اینکه آیا یک ماشین هوشمند است یا نه، لازم نیست از پاراگراف اول مقاله تیورینگ با عنوان “ماشین‌های محاسباتی و هوش” (۱۹۵۰) فراتر برویم. در پاراگراف ابتدایی این مقاله، تیورینگ از ما می‌خواهد که به سؤال “آیا ماشین‌ها می‌توانند فکر کنند؟” توجه کنیم و از سردرگمی خود در این زمینه سخن می‌گوید.

او پس از مقداری سرگردانی، پاراگراف اول مقاله را به‌طور قطعی با این جمله پایان می‌دهد: «من این سؤال را با سؤال دیگری جایگزین می‌کنم که به‌طور نزدیکی با آن مرتبط است و با کلمات نسبتا واضح بیان شده است.»

او سپس به توضیح بازی تقلید می‌پردازد که آن را “شکل جدیدی از مشکل” می‌نامد. به عبارت دیگر، تیورینگ به‌روشنی بیان می‌کند که “بازی تقلید” پاسخ به سؤال “آیا ماشین‌ها می‌توانند فکر کنند؟” نیست، بلکه شکل جدیدی از سؤال جایگزین است.

متأسفانه، جامعه هوش مصنوعی به‌طرز غم‌انگیزی، ظاهراً “بازی تقلید” را به‌عنوان مکانیزمی برای پاسخ به سؤال هوش ماشین‌ها (یا اینکه آیا می‌توانند فکر کنند یا هوش را به کار بگیرند) درک کرده است. نام‌گذاری “بازی تقلید” به‌عنوان “آزمون تیورینگ” احتمالاً به این آزمون اعتبار خاصی بخشیده و شاید باعث شده است که پژوهشگران نسل‌های مختلف هوش مصنوعی از بررسی انتقادی آن پرهیز کنند، با توجه به تبعیت عظیمی که تیورینگ در جامعه محاسباتی دارد. به‌تازگی در سال ۲۰۲۳، رهبران چندین کشور در انگلستان، در پارک بلچلی – که زمانی محل کار تیورینگ بود – گرد هم آمدند تا درباره ایمنی هوش مصنوعی بحث کنند. در این زمینه، این حقیقت که تیورینگ به‌وضوح بازی تقلید را به‌عنوان آزمونی برای سنجش هوش نمی‌دانست، باید آرامش و شجاعت بیشتری برای بررسی انتقادی آن فراهم کند.

در سایه بیان تیورینگ از “بازی تقلید” در اوایل دهه ۱۹۵۰ در انگلستان، علاقه به ایده ماشین‌های متفکر در آن سوی اقیانوس آتلانتیک به سرعت در حال افزایش بود. جان مک‌کارتی، که در آن زمان استادیار جوان ریاضیات در کالج دارتموث در نیوهمپشایر بود، تأمین مالی را برای برگزاری یک کارگاه آموزشی هشت هفته‌ای در تابستان ۱۹۵۶ دریافت کرد. این کارگاه بعدها به‌عنوان “رویداد بنیادین” هوش مصنوعی شناخته شد و مدارک نشان می‌دهند که اولین استفاده واقعی از اصطلاح “هوش مصنوعی” در پیشنهاد تأمین مالی مک‌کارتی برای این کارگاه، که به بنیاد راکفلر ارسال شده بود، وجود دارد.

لحظه‌ای تصور کنید که “هوش مصنوعی” به شکل کنونی خود وجود ندارد و به این سؤال فکر کنید: کدام رشته‌ها به طور طبیعی باید در تلاش برای توسعه ماشین‌های هوشمند درگیر شوند؟ ممکن است بدیهی باشد که این جست‌وجو باید بر رشته‌هایی متمرکز باشد که به درک و توصیف هوش به همان صورتی که می‌شناسیم، مربوط می‌شوند – مانند علوم شناختی، فلسفه، نوروبیولوژی و غیره. سایر رشته‌ها ممکن است به‌عنوان ابزارهای اجرایی عمل کنند، اما تلاش کلی نیاز به پایه‌گذاری بر دانش رشته‌هایی دارد که به ذهن مربوط می‌شوند. در واقع، انتخاب تیورینگ برای انتشار مقاله تأثیرگذار خود در نشریه “Mind”، که نشریه‌ای فلسفی با همپوشانی قابل توجه با علوم شناختی است، تصادفی نبود. کارگاه دارتموث به طور قابل توجهی از سوی بخش تحقیقات بیولوژیکی و پزشکی بنیاد راکفلر تأمین مالی شده بود که این نشان می‌دهد حدس‌های فوق ممکن است چندان هم بی‌پایه نباشند. با این حال، ساختار کارگاه مک‌کارتی به‌طور رادیکالی متفاوت بود.

این کارگاه تحت سلطه ریاضیدانان و مهندسان بود و حضور قابل توجهی از شرکت‌های فناوری مانند IBM داشت؛ و حضور پژوهشگران از سایر رشته‌ها کم بود. تاریخچه‌ای بیوگرافیک شامل یادداشت‌های ری سولومونف، یکی از شرکت‌کنندگان کارگاه، که توسط همسرش گریس سولومونوف گردآوری شده، شواهد کافی از این مسئله ارائه می‌دهد که پروژه “هوش مصنوعی” به‌طور فعال به سمت جهت مهندسی سوق داده شده و از سمت نوروكشيدگي-شناختی-فلسفی دور شده است. به‌طور خاص، یادداشت‌های سولومونوف بیان می‌کند که یکی از سازمان‌دهندگان اصلی، ماروین مینسکی، که بعدها به یکی از شخصیت‌های کلیدی در هوش مصنوعی تبدیل شد، در نامه‌ای پیش از کارگاه اظهار کرده است:

«تا زمان شروع پروژه، همه ما، شرط می‌بندم، توافق بی‌سابقه‌ای در مسائل فلسفی و زبانی خواهیم داشت، به‌طوری‌که زمان کمی بر روی چنین کم‌اهمیتی‌ها تلف خواهد شد.»

ممکن است سایر شرکت‌کنندگان دیدگاه مینسکی درباره مسائل فلسفی و زبانی را به‌عنوان مسائلی وقت‌گیر به اشتراک گذاشته باشند، اما نتوانسته باشند به‌صورت صریح (یا به‌طور رک) آن را بیان کنند.

در توصیفی از بحث‌های منتهی به کارگاه، تاریخ‌نگار علم، رونالد کلاین، نشان می‌دهد که این رویداد، که در ابتدا فضایی قابل توجه برای اهدافی مانند مدل‌سازی مغز تصور شده بود، به تدریج به سمت یک پروژه مدل‌سازی ریاضی گرایش پیدا کرد. نتیجه علمی اصلی این پروژه، همان‌طور که در گزارش‌های سولومونوف و کلاین ذکر شده، برقراری دستکاری نمادهای ریاضی – چیزی که بعدها به عنوان هوش مصنوعی نمادین شناخته شد – به‌عنوان مسیری بود که هوش مصنوعی باید از آن پیش برود. این موضوع زمانی که مشاهده می‌شود دو سال بعد، در کنفرانس ۱۹۵۸ تحت عنوان “مکانیزه کردن فرآیندهای تفکر” (نامی که هر خواننده‌ای را به این سمت می‌برد که آن را به‌عنوان یک سمپوزیوم نوروكشيدگي-شناختی-فلسفی تصور کند)، بسیاری از شرکت‌کنندگان کارگاه دارتموث مقالات و بیان‌هایی درباره مدل‌سازی ریاضی ارائه می‌دهند، روشن می‌شود.

عنوان مقالات کارگاه از “برنامه‌نویسی هیوریستیک” تا “کامپیوتر احتمال شرطی” متغیر است. با نگاهی به گذشته، می‌توان قضاوت کرد که کارگاه دارتموث توسعه ماشین‌های متفکر را به‌عنوان تلاشی در حوزه‌های مهندسی و علوم ریاضی تقویت کرده است، نه تلاشی که باید از ایده‌های رشته‌هایی که به درک هوش به همان صورتی که می‌شناسیم بپردازند، هدایت شود. با حمایت محققان دارتموث، محققان ریاضی دیگر نیازی به احساس تنهایی، شرمندگی یا تدافعی در هنگام صحبت درباره ماشین‌های متفکر به‌عنوان محاسبات نداشتند – حاشیه‌نشینی علوم اجتماعی در توسعه هوش مصنوعی مصنوعی به رویکرد اصلی تبدیل شده بود.

اما همچنان این سؤال باقی مانده است: چگونه گروهی از افراد باهوش می‌توانند قانع شوند که پیگیری “هوش مصنوعی” نباید وقت خود را صرف فلسفه، زبان و البته سایر جنبه‌ها مانند شناخت و نوروبیولوژی کند؟ با نگاهی به گذشته، می‌توانیم تنها حدس بزنیم که این موضوع به نوعی به تفسیر محلی‌گرایانه‌ای از آزمون تیورینگ برمی‌گردد که تحت تأثیر تحولات فکری در غرب طی چهار یا پنج قرن اخیر شکل گرفته است. اگر کسی بر این باور باشد که “تفکر” یا “هوش” تنها از خلال یک ارگانیزم زنده و متجسم ممکن است، پرسش “آیا ماشین‌ها می‌توانند فکر کنند؟” که تیورینگ در مقاله تأثیرگذار خود مطرح کرد، به نظر مضحک می‌رسد.

بنابراین، حتی تصور هوش مصنوعی به‌عنوان یک مفهوم، نیازمند این است که باور داشته باشید که هوش یا تفکر می‌تواند خارج از یک ارگانیزم زنده و متجسم وجود داشته باشد. رنه دکارت، فیلسوف قرن هفدهم که در فرهنگ عمومی معاصر با جملۀ معروف “فکر می‌کنم، پس وجود دارم” شناخته می‌شود، نظریه‌ای مطرح کرد که محل تفکر در بدن انسان ذهن است و بدن نمی‌تواند فکر کند. این ایده، که دوالیزم کارتی‌ای نامیده می‌شود، سلسله‌مراتبی بین ذهن (قسمتی که فکر می‌کند) و بدن (قسمتی که فکر نمی‌کند) ایجاد می‌کند و گامی به‌سوی محلی‌سازی هوش درون ارگانیزم زنده محسوب می‌شود.

مدتی پس از درگذشت دکارت، در سوی دیگر کانال انگلیسی، فیلسوف دیگری به نام توماس هابز در اثر بزرگش “لاویه‌تان” (۱۶۵۱) نوشت که “عقل… چیزی جز حساب و کتاب نیست.” حساب و کتاب باید به‌عنوان شامل عملیات ریاضی مانند جمع و تفریق تفسیر شود. دکارت و هابز اختلافات قابل توجهی داشتند، با این حال، ایده‌های آن‌ها به خوبی با یکدیگر هم‌افزایی داشتند؛ یکی به تفکر در ذهن اقتدار می‌بخشد و دیگری تفکر را به‌صورت تقلیل‌گرایانه به محاسبات تعبیر می‌کند. قدرت هم‌افزایی این دو در افکار گوتفرید لایب‌نیتس مشهود است، فیلسوفی که احتمالاً در دوران جوانی با دوالیزم دکارت و مادی‌گرایی هابز آشنا بود و ديدگاه تقلیل‌گرایی تفکر انسانی را به سمت جلو برد. او در سال ۱۶۸۵ نوشت: «زمانی که بین افراد اختلافاتی وجود دارد، می‌توانیم به سادگی بگوییم، ‘بیایید حساب کنیم’ و بدون هیچ‌گونه تأخیر دیگری ببینیم که کدام یک درست است.»

برای لایب‌نیتس، همه چیز را می‌توان به محاسبات تقلیل داد. بر اساس این پیش‌زمینه از تفکر غربی، تیورینگ سه قرن بعد سؤال “آیا ماشین‌ها می‌توانند فکر کنند؟” را طرح کرد. جالب اینجاست که چنین ایده‌هایی بدون مخالف نیستند؛ شناخت متجسم اخیراً احیا شده است، اما هنوز در حاشیه‌ها باقی مانده است.

در حالی که قرن‌ها چنین زیرساخت فلسفی زمینه‌ای حاصلخیز برای تصور هوش مصنوعی به‌عنوان محاسبات فراهم می‌کند، پروژه‌ای ریاضی یا مهندسی برای توسعه هوش مصنوعی مصنوعی نمی‌تواند بدون راه‌هایی برای اندازه‌گیری موفقیت راه‌اندازی شود. بیشتر تلاش‌های علمی و مهندسی همراه با معیارهای طبیعی موفقیت هستند. معیار موفقیت در توسعه هواپیما این است که ببینیم چقدر خوب پرواز می‌کند – از نظر مدت زمان، ارتفاع و پایداری – که همه این‌ها قابل اندازه‌گیری کمی هستند. با این حال، پروژه سطح بالای هوش مصنوعی هیچ معیار طبیعی برای موفقیت ندارد. اینجا است که “بازی تقلید” نقطه شروع بسیار ضروری را فراهم کرد؛ این بازی تأکید می‌کند که موفقیت در توسعه هوش مصنوعی می‌تواند به سادگی با اندازه‌گیری این‌که آیا می‌تواند خروجی‌هایی به نظر هوشمندانه تولید کند که به‌عنوان تولید یک انسان پذیرفته شود، سنجیده شود.

از این نظر، مشابه با ایده‌های دکارت که پیشنهاد می‌کرد برای بررسی تفکر نیازی به نگرانی درباره بدن نیست، و در روحیه‌ای تقلیل‌گرایانه، ساختار “بازی تقلید” پیشنهاد کرد که هوش مصنوعی نیازی به نگرانی درباره فرآیند (چگونگی) ندارد و می‌تواند تنها بر خروجی (چیستی) تمرکز کند. این قاعده به‌طور قابل توجهی از زمان ظهور هوش مصنوعی را شکل داده است؛ اگر یک فناوری بتواند به خوبی انسان‌ها را تقلید کند، “هوشمند” محسوب می‌شود.

پس از این‌که تأیید شد تقلید برای نشان دادن هوش کافی است، جامعه هوش مصنوعی به‌طور طبیعی هدف بعدی را انتخاب کرده است. آزمون تیورینگ می‌گوید که انسان باید توسط فناوری فریب داده شود تا باور کند که با یک انسان دیگر در حال تعامل است تا هوش را اثبات کند، اما این معیار انتزاعی، کیفی و ذهنی است. برخی انسان‌ها ممکن است در شناسایی نشانه‌های ظریف یک ماشین از دیگران بهتر باشند، دقیقاً مانند برخی از چک‌کنندگان حقایق امروزی که استعداد شناسایی نشانه‌های کوچک عدم اعتبار در دیپ فیک ها را دارند. جامعه هوش مصنوعی باید راه‌های قابل اعتمادی برای توسعه تقلیدهای فناوری پیدا کند که به‌طور کلی توسط انسان‌ها به‌عنوان هوشمند در نظر گرفته شوند – به عبارت ساده، نیاز به یک ساختار عمومی وجود دارد که قادر به جعل هوش باشد. این موضوع در سخنان خود مک‌کارتی در سال ۱۹۸۳ واضح است، زمانی که هوش مصنوعی را به‌عنوان “علم و مهندسی حل مسائل توسط کامپیوترها و رفتارهایی که به‌طور کلی به‌عنوان هوشمند در نظر گرفته می‌شوند” توصیف می‌کند – از این دو چیز، مورد اول نوآورانه نیست، اما دومی هست. ما به دو مسیر غالب در دهه‌های ۱۹۶۰ تا ۱۹۸۰ خواهیم پرداخت که به پیشرفت هوش مصنوعی از طریق طراحی فناوری تقلیدی کمک کردند.

در دهه ۱۹۶۰، جوزف ویزنباوم یک چت‌بات ساده در زمینه روان‌درمانی راجرین توسعه داد که ایده آن تشویق بیمار به تفکر درباره وضعیت خود بود. این چت‌بات که ELIZA نامیده می‌شود، از قوانین تبدیل ساده استفاده می‌کرد، معمولاً فقط برای بازگرداندن مسئولیت به انسان؛ هرچند داخلی‌های آن به شدت با مدل‌های زبانی بزرگ (LLM) تفاوت داشت، ظهور LLMها منجر به روایت‌هایی شده است که به مقایسه و تضاد این دو می‌پردازند.

یک مثال از تبدیل، که در مقاله خود ویزنباوم درباره این سیستم آمده است، شامل پاسخ به “من (X) هستم” با این پرسش است که “چقدر طول کشیده است که (X) باشید؟” با وجود پردازش داخلی ساده، کاربران ELIZA، به تفریح ویزنباوم، اغلب آن را انسانی می‌پنداشتند.

در مقاله‌ای که در سال ۱۹۶۶ در نشریه “Communications of the ACM”، یکی از مهم‌ترین نشریات در حوزه محاسبات، منتشر شد، او نوشت: «برخی از موضوعات بسیار سخت قانع شدند که الیزا (با سناریوی حاضرش) انسان نیست» (چاپ به‌خط متمایز اصل)،

این موضوع با یک مشاهده کلی که به نظر می‌رسد در دیدگاه به گذشته مانند پیشگویی به نظر برسد، که توسط راس اشبی در کنفرانس دارتموث بیان شد، هم‌خوانی دارد: زمانی که بخشی از یک مکانیزم از دید پنهان می‌ماند، رفتار ماشین به‌نظر شگفت‌انگیز می‌آید.»

امروزه، «اثر الیزا» برای اشاره به نوعی اشتباه به‌کار می‌رود که در آن دستکاری نمادها به‌عنوان قابلیت شناختی اشتباه گرفته می‌شود. چند سال بعد، دانشمند شناختی داگلاس هافستادر اثر الیزا را «غیرقابل زدودن» توصیف کرد و پیشنهاد داد که یک نوع سادگی ذاتی در انسان‌ها ممکن است برای اهداف هوش مصنوعی کافی باشد. اثر الیزا – یا کفایت دستکاری‌های نمادین مبهم به‌گونه‌ای که به کاربران انسانی هوشمند به نظر برسد – به توسعه هوش مصنوعی در دو یا سه دهه آینده شتاب بخشید.

موج هوش مصنوعی نمادین به توسعه چندین سیستم هوش مصنوعی – که غالباً «سیستم‌های خبره» نامیده می‌شوند – منجر شد که توسط مجموعه قوانین دستکاری نمادها با اندازه‌ها و پیچیدگی‌های متفاوت تقویت شدند. یکی از موفقیت‌های عمده، سیستمی بود که در دهه ۱۹۷۰ در دانشگاه استنفورد توسعه یافت و MYCIN نام داشت، که از حدود ۶۰۰ قاعده برای توصیه آنتی‌بیوتیک‌ها استفاده می‌کرد (بسیاری از آن‌ها با  mycin به پایان می‌رسند، بنابراین این نام انتخاب شده است). یکی از موفقیت‌های بزرگ هوش مصنوعی در قرن ۲۰، پیروزی کامپیوتر شطرنجی «دیپ بلو» شرکت IBM در برابر قهرمان جهان (انسانی) در سال ۱۹۹۷ نیز بر اساس موفقیت هوش مصنوعی نمادین مبتنی بر قوانین بود.

در حالی که هوش مصنوعی نمادین مبهم فراگیر بوده است، مکانیزم سطح بالای دومی نیز یافت شده که برای ایجاد ظاهری از هوش مفید است. برای درک این موضوع، یک دماسنج یا گیج فشار ساده را در نظر بگیرید – این‌ها برای اندازه‌گیری دما و فشار طراحی شده‌اند و به‌وضوح ارتباطی با «هوش» به‌طور خاص ندارند.

اما اکنون بیایید یک مکانیزم تصمیم‌گیری ساده را به دماسنج متصل کنیم: اگر دما از یک آستانه مشخص بالاتر برود، کولر روشن می‌شود (و بالعکس). این مکانیزم‌های تنظیم‌کننده کوچک، که غالباً به آن‌ها ترموستات گفته می‌شود، در دستگاه‌های الکترونیکی امروزی، از جمله فرها، آب‌گرم‌کن‌ها، کولرها و حتی در کامپیوترها برای جلوگیری از گرم شدن بیش از حد استفاده می‌شوند. سایبرنتیک، علمی که با دستگاه‌هایی مبتنی بر بازخورد مانند ترموستات و اقوام پیچیده‌تر آن‌ها سر و کار دارد، به‌عنوان یک مسیر به سمت هوش ماشینی به‌طور گسترده‌ای شناخته می‌شود. گریس سولومونوف «سایبرنتیک» را به‌عنوان نامی که مک‌کارتی برای کارگاه دارتموث در نظر گرفته بود (علاوه بر نام نهایی «هوش مصنوعی») ثبت کرده است؛ نام دیگر «نظریه اتوماتا» بود. نکته کلیدی این است که مکانیزم حس-سپس-پاسخ خودتنظیمی که در دستگاه‌هایی مانند ترموستات به‌کار می‌رود، می‌تواند به‌عنوان نوعی هوش به‌نظر برسد. ما فقط می‌توانیم درباره دلایل اینکه چرا ممکن است چنین پنداری داشته باشیم حدس بزنیم؛ شاید این به این دلیل است که ما حواس را به‌طور ذاتی با انسان بودن مرتبط می‌دانیم (از دست دادن ظرفیت حسی – حتی به سادگی از دست دادن حس چشایی، که بیشتر ما در طول همه گیری کرونا تجربه کردیم – می‌تواند بسیار ضعیف‌کننده باشد)، یا اینکه بدن تعادل هموستاتیک را حفظ می‌کند، که یکی از پیچیده‌ترین نسخه‌های خودتنظیمی زنده‌مان است.

اما بعید به نظر می‌رسد که ما ترموستات‌های ساده را به ماشین‌های متفکر اشتباه بگیریم، درست است؟ خوب، این فرض در صورتی درست است که مانند مک‌کارتی فکر نکنیم. بیش از دو دهه پس از برگزاری کارگاه دارتموث، یکی از سازمان‌دهندگان پیشگام آن در مقاله‌ای تحت عنوان «نسبت دادن ویژگی‌های ذهنی به ماشین‌ها» (۱۹۷۹) نوشت که ترموستات‌ها «باورهایی» دارند.

او می‌نویسد: «زمانی که ترموستات معتقد است دما در اتاق خیلی سرد یا خیلی گرم است، پیامی به بخارسان می‌فرستد که این وضعیت را گزارش می‌دهد.» در برخی از قسمت‌های مقاله، به نظر می‌رسد که مک‌کارتی به وجود منتقدانی که «نسبت دادن باورها به ماشین‌ها را به‌عنوان صرفاً بی‌دقتی فکری می‌نگرند» اعتراف می‌کند، اما ادامه می‌دهد که «ما بر این باوریم که نسبت دادن چنین باورهایی به ماشین‌ها مشروع است.»

مک‌کارتی اعتراف می‌کند که ترموستات‌ها باورهای عمیق‌تری ندارند، مانند باورهای بازتابی، به‌عبارتی «آن‌ها نمی‌گویند که خودشان معتقدند اتاق خیلی گرم است» – این یک عقبگرد بزرگ است! در دنیای آکادمیک، برخی از مقاله‌های تحریک‌آمیز معمولاً تنها از روی اشتیاق و راحتی نوشته می‌شوند، به‌ویژه زمانی که غافل‌گیر می‌شوند. خواننده‌ای که شاهد نوسانات نادرست اشتیاق بوده است و به مقالات منجر شده‌اند، ممکن است بر این باور باشد که نباید مقاله مک‌کارتی را به‌دقت تحلیل کرد – شاید، این فقط یک استدلال یک‌باره بوده است.

با این حال، سوابق تاریخی به ما می‌گویند که این‌گونه نیست؛ چهار سال بعد، مک‌کارتی مقاله‌ای به نام «اندیشه‌های کوچک ماشین‌های متفکر» (۱۹۸۳) را می‌نویسد. در این مقاله، او بار دیگر درباره باورهای ترموستات سخن می‌گوید و حتی منطق را به خودپردازهای خودکار گسترش می‌دهد، که احتمالاً در آن زمان شروع به تبدیل شدن به یک تکنولوژی جالب کرده بود. او می‌نویسد: «خودپرداز خودکار یک مثال دیگر است. آن باورهایی دارد مانند: «در حساب پول کافی وجود دارد و من نمی‌توانم این مقدار پول را پرداخت کنم.»

امروزه، مکانیزم حس-سپس-پاسخ به‌طور گسترده‌ای در ربات‌ها استفاده می‌شود و ربات‌های انسان‌نما غالباً تصویر هوش مصنوعی در نمایش‌های عمومی را تسخیر کرده‌اند، همان‌طور که با یک جست‌وجوی سریع تصویری در گوگل می‌توان آن را مشاهده کرد. استفاده از صفت «هوشمند» برای اشاره به سیستم‌های هوش مصنوعی می‌تواند به فراوانی مکانیزم‌های حس-سپس-پاسخ مربوط باشد: دستگاه‌های پوشیدنی هوشمند شامل سنسورهایی هستند که در سطح فردی تعبیه شده‌اند، خانه‌های هوشمند دارای چندین سنسور متصل در سراسر خانه هستند و شهرهای هوشمند شامل شهرهایی با نظارت سنسوری فراوان هستند. موج جدید هوش مصنوعی مبتنی بر سنسور، که معمولاً به «اینترنت اشیاء» اشاره می‌شود، از سنسورها قدرت می‌گیرد.

هوش مصنوعی نمادین مبهم و سایبرنتیک مبتنی بر سنسور، مسیرهای مفیدی برای طراحی سیستم‌هایی هستند که به‌گونه‌ای رفتار می‌کنند که به‌طور کلی هوشمند در نظر گرفته می‌شوند، اما هنوز باید تلاشی برای طراحی این سیستم‌ها انجام دهیم. آیا نیاز به طراحی موانعی را ایجاد می‌کند؟ این سؤال ما را به دوره بعدی تحقیقات هوش مصنوعی هدایت می‌کند.

دامنه فعالیت‌های هوش مصنوعی که به سرعت در حال گسترش بود، در برخی از وظایف در دهه ۱۹۸۰ با چالش‌های جدی مواجه شد. این موضوع به بهترین شکل در کتاب «فرزندان ذهن» نوشته هانس موراوه (۱۹۸۸) به تصویر کشیده شده است که به پارادوکس موراوه شناخته می‌شود:

«ترکیب کردن عملکرد بزرگسالان در آزمون‌های هوش یا بازی چکرز برای کامپیوترها نسبتا آسان است، اما دادن مهارت‌های یک کودک یک ساله در زمینه ادراک و جابجایی دشوار یا حتی غیرممکن است.»

هوش مصنوعی که با استفاده از روش‌های نمادین در بازی چکرز و شطرنج به موفقیت‌هایی دست یافته بود، نتوانست در شناسایی کاراکترهای دست‌نویس یا شناسایی چهره‌های انسانی پیشرفت کند. این نوع وظایف به دسته فعالیت‌های ذاتاً انسانی (یا به‌عبارتی حیوانی) تعلق دارد – کارهایی که ما به‌طور سریع و غریزی انجام می‌دهیم اما نمی‌توانیم توضیح دهیم چگونه. بیشتر ما می‌توانیم به‌طور آنی احساسات را از چهره‌های مردم با دقت بالا تشخیص دهیم، اما تمایلی به آغاز پروژه‌ای برای ایجاد مجموعه‌ای از قواعد برای شناسایی احساسات از تصاویر افراد نداریم. این موضوع به پارادوکس پولانی مربوط می‌شود: «ما بیشتر از آنچه می‌توانیم بگوییم، می‌دانیم»

ما به دانش ضمنی تکیه داریم که اغلب قابل بیان به‌صورت کلامی نیست، چه برسد به اینکه به‌عنوان یک برنامه کدگذاری شود. کاروان هوش مصنوعی به دیواری برخورد کرده است.

یک تشبیه نسبتاً صریح (و عمداً تحریک‌آمیز) ممکن است در اینجا مناسب باشد تا درک کنیم چگونه تحقیقات هوش مصنوعی از این معما بیرون آمده است. در مدرسه، هر یک از ما باید امتحاناتی را بگذرانیم تا درک خود را از موضوع و دستیابی به نتایج یادگیری نشان دهیم. اما برخی از دانش‌آموزان آنقدر تنبل هستند که از انجام کار سخت امتناع می‌کنند؛ آن‌ها به سادگی از ورق‌های پاسخ همسایه‌های خود در سالن امتحان کپی می‌کنند.

ما این را تقلب می‌نامیم یا، به زبان ملایم‌تر و پیچیده‌تر، سوءعملکرد آکادمیک. برای تکمیل تشبیه، قهرمان داستان ما آزمون تیورینگ است و تحقیقات هوش مصنوعی تنبل نیست، بلکه راهی برای گسترش به منظور رسیدگی به وظایفی که ما بر اساس دانش ضمنی انجام می‌دهیم، پیدا نکرده است. به سادگی ناتوان است. اگر خواننده از لحن تلویحی عذرخواهی کند، باید بگویم که هوش مصنوعی همان مسیر دانش‌آموز تنبل را پیموده است: کپی‌برداری از دیگران – در اینجا، از ما انسان‌ها.

برای درک بهتر این الگوی کپی‌برداری، یک وظیفه ساده، یعنی شناسایی چهره‌ها در تصاویر را در نظر بگیرید. برای انسان‌ها، این یک کار ادراکی آسان است. ما یک تصویر را می‌بینیم و به‌طور آنی چهره موجود در آن را شناسایی می‌کنیم، اگر چهره‌ای وجود داشته باشد – تقریباً هر بار که تصویری را می‌بینیم، نمی‌توانیم این کار را انجام ندهیم (تست کنید). پلک زدن چشم حتی زمان بیشتری می‌برد.

اگر امروز این کار را به یک مهندس هوش مصنوعی بسپارید، او بدون تردید از یک روش مبتنی بر داده یا یادگیری ماشین برای انجام آن استفاده خواهد کرد. این فرآیند با جمع‌آوری تعدادی تصویر آغاز می‌شود و سپس ناظران انسانی تصاویر را برچسب‌گذاری می‌کنند – آیا هر یک چهره‌ای دارد یا ندارد؟ این منجر به ایجاد دو دسته از تصاویر می‌شود؛ یکی با چهره‌ها و دیگری بدون چهره‌ها. تصاویر برچسب‌گذاری شده برای آموزش ماشین‌ها استفاده می‌شوند و این‌گونه است که این ماشین‌ها یاد می‌گیرند تا تطابق را شناسایی کنند.

این مجموعه داده‌های برچسب‌گذاری شده از تصاویر، به‌عنوان داده‌های آموزشی شناخته می‌شود. هر چه مدل یادگیری ماشین پیشرفته‌تر باشد، تعداد بیشتری از تصاویر، قوانین و عملیات‌ها را برای تصمیم‌گیری در مورد اینکه آیا تصویر دیگری جلوی آن چهره‌ای دارد یا ندارد، به کار خواهد گرفت. اما اصل بنیادی این است که این کار به کپی‌برداری از داده‌های برچسب‌گذاری شده از طریق یک مدل آماری مربوط می‌شود، که می‌تواند به سادگی یک شباهت باشد یا ممکن است مجموعه‌ای بسیار پیچیده و به‌دقت تنظیم شده از «پارامترها» (همانند مدل‌های یادگیری عمیق که در حال حاضر محبوب‌تر هستند) باشد.

مدل‌های ابتدایی، یادگیرندگان تنبلی هستند زیرا تا زمانی که لازم نباشد، به داده‌های آموزشی مراجعه نمی‌کنند، در حالی که مدل‌های یادگیری عمیق یادگیرندگان مشتاقی هستند زیرا این داده‌ها را از ابتدا در مدل‌های آماری پالایش می‌کنند تا بتوانند سریع‌تری تصمیم‌گیری کنند.

در حالی که در انواع وظایف و مدل‌های تصمیم‌گیری پیچیدگی و تنوع زیادی وجود دارد، اصل بنیادی همچنان یکسان است: اشیاء داده‌ای مشابه برای اهداف مشابه مفید هستند. اگر یادگیری ماشین یک کلیسا داشت، نمای آن می‌توانست این عبارت (به زبان لاتین، همان‌طور که برای کلیساها انجام می‌دهند) را بر خود داشته باشد: Similia objectum, similia proposita. اگر کنجکاو هستید که این عبارت چه معنی دارد، لطفاً به یک هوش مصنوعی مبتنی بر داده که متخصص در ترجمه زبان است، مراجعه کنید.

دسترس‌پذیری مدل‌های زبانی بزرگ (LLM) از زمان انتشار ChatGPT در اواخر ۲۰۲۲، موجی جهانی از هیجان هوش مصنوعی را به‌وجود آورد که همچنان ادامه دارد. این موضوع در فرهنگ عمومی به‌عنوان یک نقطه عطف بزرگ تلقی شد که به‌ویژه در سطح اجتماعی، نیز می‌تواند چنین باشد، زیرا هوش مصنوعی هرگز به اندازه اکنون در تخیل عمومی نفوذ نکرده بود. با این حال، در سطح فنی، LLMها در هسته خود یادگیری ماشین دارند و به‌طور تکنولوژیکی نوع جدیدی از تقلید را تولید می‌کنند – تقلید از داده‌ها؛ که این با الگوی سنتی که شامل تقلید از تصمیمات انسانی در مورد داده‌ها می‌شود، در تضاد است.

از طریق LLMها، تقلید به شکلی جدید و عمومی‌تر تبدیل شده است – به‌عنوان شخصی همه‌چیزدان ارائه می‌شود که همواره آماده پاسخ‌گویی به هر سوالی در هر موضوعی است. اما این روند همان مسیر کپی‌برداری آشنایی را دنبال می‌کند که در هسته یادگیری ماشین ریشه دارد. همان‌طور که تحقیقات پیشرفته هوش مصنوعی، امیلی بندر و همکارانش در زمینه اخلاق هوش مصنوعی، مطرح می‌کنند، این‌ها «طوطی‌های تصادفی» هستند؛ در حالی که طوطی‌هایی که صرفاً آنچه را می‌شنوند تکرار می‌کنند به خودی خود قابل توجه هستند، تولیدات تصادفی – یا تصادفی وابسته به پرسش – و انتخابی از داده‌های آموزشی به‌عنوان الگوی ایجاد توهمی از کنش و در نتیجه، هوش شناخته شده است. خواننده ممکن است به یاد بیاورد که شیوه‌های دستکاری نمادهای مبهم و سایبرنتیک مبتنی بر سنسور در دهه‌های ۱۹۶۰ و ۷۰ به اوج خود رسیدند – حالا نوبت به کپی‌برداری تصادفی از داده‌ها رسیده است.

ارزش مورد توجه LLMها در تولید خروجی‌های بی‌نقص است: متونی خوش‌ساخت و خوشایند. ممکن است این سؤال پیش آید که چگونه LLMها می‌توانند متون خوب و باکیفیت تولید کنند در حالی که بسیاری از متون در وب کیفیت خوبی ندارند و ممکن است حتی تصور شود که این یک merit ذاتی فناوری است. اینجا جالب می‌شود که درک کنیم LLMها چگونه از اشکال مختلف ورودی انسانی استفاده می‌کنند. گزارش‌ها نشان می‌دهند که محبوب‌ترین LLM تجاری، ChatGPT، از هزاران ناظر کم‌دستمزد در کنیا استفاده کرده است تا کیفیت متون انسانی را ارزیابی کرده و به‌ویژه متونی را که به‌عنوان سمی محسوب می‌شوند حذف کند. بنابراین، کیفیت بالاتر مشاهده‌شده در متن‌های LLM نیز نتیجه‌ای از الگوی تقلید است که در هسته هوش مصنوعی ریشه دارد.

وقتی این نکته را درک کنید، فهم این موضوع آسان‌تر می‌شود که چرا LLMها می‌توانند خروجی‌هایی به طور معنادار مبتنی بر تعصب تولید کنند، از جمله خروجی‌هایی که بر مبنای جنسیت و نژاد باشد، همان‌گونه که در تحقیقات اخیر مشاهده شده است. الگوی کپی‌برداری تصادفی داده‌ها شامل ترکیب و تطبیق الگوها از بخش‌های مختلف داده‌های آموزشی است – که داستان‌هایی ایجاد می‌کند که با یکدیگر هماهنگی ندارند و در نتیجه متون احمقانه و غیرمنطقی تولید می‌کنند که اغلب به‌عنوان «توهم» شناخته می‌شوند. با درک این‌که LLMها نوعی تقلید قوی‌تر هستند، روشن است که تعصب‌ها و توهم‌ها ویژگی‌ها هستند، نه اشکالات. امروز، موفقیت LLM به انواع دیگری از داده‌ها نیز گسترش یافته و آغازگر ظهور هوش مصنوعی مولد در زمینه تولید تصاویر و ویدئوها شده است، که همه آن‌ها با مسائلی از قبیل تعصب و توهم دست‌وپنجه نرم می‌کنند، همان‌طور که انتظار می‌رود.

بیایید از یک زاویه مخالف به روایت تا کنون نگاه کنیم. هوش مصنوعی، همان‌طور که امروز است، ممکن است برای تولید تقلیدهایی طراحی شده باشد که به شبیه‌سازی هوش بپردازد. اما اگر این کار را به‌خوبی انجام می‌دهد، چرا باید این‌قدر نگران جزئیات شویم؟

اینجا است که مسائل کمی پیچیده و در عین حال جالب می‌شود. تصور کنید یک رادیولوژیست که در تشخیص بیماری‌ها از روی اشعه ایکس تخصص دارد. تصمیم‌گیری او به‌طور فراوانی از دانشش درباره زیست‌شناسی انسان تغذیه می‌کند. می‌توانیم تعداد زیادی از این رادیولوژیست‌های خبره را جمع آوری کنیم تا اشعه ایکس‌ها را با تشخیص مناسب برچسب‌گذاری کنند. وقتی تعداد کافی از جفت‌های تشخیص اشعه ایکس ایجاد شود، می‌توان این داده‌ها را به یک هوش مصنوعی مبتنی بر داده انتقال داد و سپس از آن برای تشخیص اشعه ایکس‌های جدید استفاده کرد. همه چیز خوب به نظر می‌رسد. حالا صحنه برای این فراهم است که بعضی رادیولوژیست‌ها نامه‌های اخطار بیکار شدن دریافت کنند.

سال‌ها می‌گذرد.

به خوش‌شانسی، جهان به بیماری پاندمی تنفسی COVID-27 دچار می‌شود، پاندمی‌ای که به اندازه عظیم مشابه پیشینی خود است. این هوش مصنوعی هیچ اطلاعی از COVID-27 ندارد و بنابراین، نمی‌تواند بیماری را تشخیص دهد. پس از اینکه بسیاری از رادیولوژیست‌ها به سایر بخش‌ها منتقل شده‌اند، دیگر تعداد کافی از کارشناسان برای تشخیص باقی نمانده است. هوش مصنوعی هیچ دانشی درباره زیست‌شناسی انسان ندارد و «دانش» آن نمی‌تواند برای COVID-27 بازسازی شود – اما تعداد زیادی اشعه ایکس برچسب‌گذاری شده برای COVID-27، شامل تمامی واریانت‌های آن، وجود دارد که می‌توان از آن‌ها برای آموزش مجدد مدل آماری استفاده کرد.

همان هوش مصنوعی که رادیولوژیست‌ها را از شغل‌هایشان بیرون کرده، اکنون به آن‌ها نیاز دارد تا به این هوش یاد بدهند که چگونه تصمیماتی درباره COVID-27 بگیرد. حتی اگر هیچ COVID-27 هم وجود نداشته باشد، ویروس‌ها تغییر ماهیت می‌دهند، بیماری‌ها تغییر می‌کنند و دنیا هرگز ثابت نمی‌ماند. مدل هوش مصنوعی همیشه در معرض خطر ناکارآمدی قرار دارد. بنابراین، وجود مستمر داده‌های برچسب‌گذاری شده توسط انسان، خون حیات هوش مصنوعی مبتنی بر داده است، اگر بخواهد به زمان‌های در حال تغییر مربوط بماند. این وابستگی پیچیده به داده‌ها یک جنبه نهفته از هوش مصنوعی است که ما معمولاً آن را دست‌کم می‌گیریم و این کار ممکن است سرنوشت ما را به خطر بیندازد.

اگر رادیولوژی را با حوزه‌هایی مانند پلیس، ارزیابی‌های دانشگاهی، استخدام و حتی تصمیم‌گیری در مورد عوامل محیطی همچون پیش‌بینی آب و هوا یا کاربردهای هوش مصنوعی مثل تولید ویدئو و نوشتن خودکار مقالات جایگزین کنیم، منطق کلی هنوز هم یکسان باقی می‌ماند. الگوی هوش مصنوعی – که جالب است به‌وسیله منتقد معروف هوش مصنوعی، کتی او نیل، در کتاب «سلاح‌های تخریب ریاضی» (۲۰۱۶) به‌عنوان «پروژه کردن گذشته به آینده» توصیف شده است – به سادگی برای حوزه‌هایی که تغییر یا تکامل می‌یابند، کارایی ندارد. در اینجا، باید به یاد آوریم هراکلیتوس، فیلسوف یونانی که ۲۵ قرن پیش زندگی می‌کرد – او می‌گفت «تغییر تنها ثابت است».

همان‌طور که تاریخ‌نگار یوال نوح هراری می‌گوید، اعتقاد به اینکه هوش مصنوعی همه‌چیز را می‌داند و واقعاً هوشمند است و به نجات ما آمده، ایدئولوژی «داده‌گرایی» را ترویج می‌کند که به معنای اختصاص ارزش برتر به جریان‌های اطلاعاتی است. علاوه بر این، با توجه به اینکه برچسب‌گذاری انسانی – به‌ویژه در تصمیم‌گیری‌های اجتماعی همچون پلیس و استخدام – با تعصب و کلیشه‌های گوناگون همراه است (نظیر تعصب جنسیتی، نژادی، سنی و غیره)، مدل‌های آماری هوش مصنوعی این تعصب‌ها را کدگذاری کرده و آن‌ها را با ظاهری از بی‌طرفی محاسباتی تولید می‌کنند. روشن کردن ماهیت روابط دقیق‌تر بین الگوی تقلید و مشکل تعصب در هوش مصنوعی داستانی برای روز دیگر است.

اگر تقلیدها این‌قدر مشکل‌زا هستند، پس چه فایده‌ای دارند؟ برای درک این موضوع، می‌توانیم به مطالعه کارل مارکس در زمینه نقد اقتصاد سیاسی سرمایه‌داری مراجعه کنیم، سرمایه به‌عنوان زیرساخت فکری سیستم اقتصادی استثماری که ما آن را سرمایه‌داری می‌نامیم. مارکس می‌گوید که سرمایه تنها به ارزش‌های کاربردی اشیاء تا زمانی توجه می‌کند که آن‌ها شکل عمومی کالایی داشته باشند و بتوانند در بازارها برای پیشبرد منافع مالی معامله شوند. به زبان ساده، برای افزایش سود، تلاش برای بهبود ارائه – از طریق راه‌های مختلفی مانند بسته‌بندی، تبلیغات و غیره – اهمیت بسیار بیشتری نسبت به تلاش برای بهبود کارکرد (یا ارزش استفاده) کالاست.

متأسفانه، تحت تسلط قرار دادن محتوا به ارائه بدین‌گونه، گرایشی در دنیای سرمایه‌داری است. اگر استدلال مارکس را به هوش مصنوعی گسترش دهیم، این الگوی تقلید که در هوش مصنوعی نهفته است، برای سرمایه کافی است. بر اساس این درک، تفسیر بازی تقلید – یا بهتر بگوییم، آزمون تیورینگ – به‌عنوان جام مقدس هوش مصنوعی با سیستم اقتصادی سرمایه‌داری عجین است. از این منظر، مشاهده این موضوع که چرا هوش مصنوعی به خوبی با بازارها هم‌سو شده و چرا به‌عنوان یک رشته توسط بازیگران بزرگ بازار مانند غول‌های فناوری سیلیکون ولی تبدیل شده است، چندان دشوار نیست. این وابستگی به بازار در هوش مصنوعی در مقاله‌ای که نشان می‌دهد چگونه تحقیقات در این زمینه به‌طور فزاینده‌ای به شرکتی شدن گرایش داشته است، به‌ویژه زمانی که الگوی تقلید با ظهور یادگیری عمیق رونق گرفت، تبیین شده است.

موج هوش مصنوعی مولد بحث‌های عمومی عظیمی درباره ظهور هوش عمومی مصنوعی واقعی را به‌وجود آورده است. با این حال، درک هوش مصنوعی به‌عنوان یک تقلید به ما کمک می‌کند تا این هیجان را بهتر بشناسیم. برای استفاده از یک تشبیه بسیار ساده اما آموزنده، کودکان ممکن است در اپلیکیشن‌های تقلیدی مانند «توم حرف می‌زند» نشانه‌هایی از کنش‌وری ببینند – اما به روشنی مشخص است که یک توم حرف زن هرگز به یک گربه واقعی حرف‌زن تبدیل نخواهد شد، هرچقدر هم که کودک تلاش کند. بازار ممکن است تقلیدهای پیچیده و به‌ظاهر هوشمندانه‌ای به ما ارائه دهد، اما این بهبودها به‌طور ساختاری ناتوان از انتقال کیفی از تقلید به هوش واقعی هستند. همان‌طور که هوبرت درایفوس در کتاب «کامپیوترها چه کاری نمی‌توانند انجام دهند» (۱۹۷۲) نوشت: «نخستین کسی که درختی را بالا می‌رود می‌تواند ادعا کند که پیشرفت ملموسی در رسیدن به ماه داشته است» – اما رسیدن واقعی به ماه نیازمند روش‌های کیفی متفاوتی نسبت به بالا رفتن از درخت است. اگر بخواهیم به حل مشکلات واقعی و ایجاد پیشرفت‌های پایدار تکنولوژیکی بپردازیم، شاید به چیزی فراتر از یک وسواس به تقلید نیاز داشته باشیم.

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *