هوش مصنوعی نجات ماست، نابودی ماست یا فقط تکرار مکررات است؟
هوش مصنوعی مولد اخیراً هیجان عمومی را برانگیخته است: ماشینها یاد گرفتهاند فکر کنند! اما واقعاً هوش مصنوعی تا چه اندازه هوشمند است؟
اینجا مسئلهای وجود دارد: آیا ما به نجات دست یافتهایم و به دنیایی از راحتی و لوکسی که تاکنون تجربه نکردهایم، وارد شدهایم؟ یا اینکه با نابودی خود روبرو شدهایم، به دنیایی غمانگیز که جامعهای که میشناسیم را ویران میکند؟ این تناقضها حداقل تا حدودی به تناقض دیگری مربوط میشوند که بهگونهای نهان باقی مانده است. ما به خروجیهای هوش مصنوعی (چیستی آن) در سطحی سطحی علاقهمندیم، اما غالباً اگر کمی عمیقتر بکاویم یا درک کنیم که هوش مصنوعی چگونه کار میکند (چگونگی آن)، ناامید میشویم. این تردید هرگز بهاین اندازه آشکار نبوده است، به خصوص در دوران هوش مصنوعی مولد. ما از شکل عالی خروجیهای تولیدشده توسط مدلهای زبانی بزرگ (LLM) مانند ChatGPT شگفتزده هستیم، در حالی که از بیانهای مغرضانه و غیرواقعی که تولید میکنند، نگرانیم. به همین ترتیب، هنر هوش مصنوعی برای ما بسیار جذاب است ولی در عین حال نگران از فقدان معنای عمیق و نیز دغدغههای مربوط به سرقت ادبی نبوغهای گذشته هستیم.
نگرانیها در زمینه هوش مصنوعی مولد، که ما را وادار به تعامل مستقیم با این فناوری میکند، بههیچ وجه تصادفی نیست. مکالمات انسانی دارای لایهها و نوعهای مختلف معنایی هستند. حتی یک سؤال ساده مانند «چای یا قهوه بخوریم؟» دارای چندین معنی ضمنی است که به اطلاعات مشترک درباره زمان روز، نیت ناپیدا برای یک گفتگوی راحت و حدسهایی درباره سلیقههای نوشیدنی و دسترسی به فروشگاههای نزدیک و … مربوط میشود. اگر اثر هنریای با عنوان «ویتنام دهه ۱۹۷۰» ببینیم، احتمالاً انتظار داریم هنرمند قصد دارد چیزی درباره زندگی در آن کشور در دوران پس از جنگ و پایان جنگ منتقل کند – هنگام تعامل با انسانها و خروجیهای انسانی، بسیاری از معانی بهطور ناگفته باقی میمانند. در مقابل، مدلهای زبانی بزرگ با پاسخهای انسانیمانند مواجهمان میکنند که فاقد هرگونه عمق معنایی هستند. این عدم همخوانی بین ارائه انسانی و روح ماشینی نیز در دل مسئله هوش مصنوعی نهفته است.
با این حال، تصور اینکه اشتیاق هوش مصنوعی به تقلید سطحی امری جدید است، اشتباه است. الگوی تقلید از ابتدا در هسته هوش مصنوعی ریشه دار بوده است. برای باز کردن و درک چگونگی اینکه فرهنگ معاصر به یک فناوری متمرکز بر تقلید ارادت میورزد، باید به روزهای اولیه تاریخ هوش مصنوعی بازگردیم و تحول آن را در طول دههها ردیابی کنیم.
آلن تورینگ(۱۹۱۲-۱۹۵۴)، که بهطور گستردهای به عنوان پدر هوش مصنوعی شناخته میشود، به توسعه افکار بنیادین این حوزه اعتبار داده میشود. در حالی که هوش مصنوعی در طول ۷۰ سال پس از مرگ تیورینگ بهطور قابل توجهی تکامل یافته است، یک جنبه از میراث او همچنان در کانون مباحثات معاصر هوش مصنوعی قرار دارد. این جنبه، آزمون تیورینگ است، یک آزمون مفهومی که میپرسد آیا یک فناوری میتواند خروجی خود را بهعنوان انسانی جا بزند؟
تصور کنید یک فناوری در حال گفتگو آنلاین با یک انسان است؛ اگر این فناوری بتواند طرف مقابل را متقاعد کند که با یک انسان در حال چت است، آزمون تیورینگ را پشت سر گذاشته است. رابط کاربری چت که امروزه مدلهای زبانی بزرگ از آن استفاده میکنند، باعث احیای علاقه به آزمون تیورینگ در فرهنگ عامه شده است. همچنین، آزمون تیورینگ به قدری در جامعه علمی معاصر هوش مصنوعی جا افتاده که بهعنوان آزمون نهایی هوش مطرح میشود، که ممکن است حتی بیان آنکه این آزمون تنها بهطرز غیرمستقیم به سنجش هوش مرتبط است، جنجالی به نظر بیاید. اما این دقیقاً همان چیزی است که تیورینگ در مقاله اولیهاش که این آزمون را معرفی کرده، مد نظر داشت.
قابل توجه است که تیورینگ این آزمون را “بازی تقلید” نامیده بود. تنها بعداً بود که جامعه هوش مصنوعی آن را “آزمون تیورینگ” نامگذاری کرد. برای درک تفاوت میان “بازی تقلید” و قضاوت در مورد اینکه آیا یک ماشین هوشمند است یا نه، لازم نیست از پاراگراف اول مقاله تیورینگ با عنوان “ماشینهای محاسباتی و هوش” (۱۹۵۰) فراتر برویم. در پاراگراف ابتدایی این مقاله، تیورینگ از ما میخواهد که به سؤال “آیا ماشینها میتوانند فکر کنند؟” توجه کنیم و از سردرگمی خود در این زمینه سخن میگوید.
او پس از مقداری سرگردانی، پاراگراف اول مقاله را بهطور قطعی با این جمله پایان میدهد: «من این سؤال را با سؤال دیگری جایگزین میکنم که بهطور نزدیکی با آن مرتبط است و با کلمات نسبتا واضح بیان شده است.»
او سپس به توضیح بازی تقلید میپردازد که آن را “شکل جدیدی از مشکل” مینامد. به عبارت دیگر، تیورینگ بهروشنی بیان میکند که “بازی تقلید” پاسخ به سؤال “آیا ماشینها میتوانند فکر کنند؟” نیست، بلکه شکل جدیدی از سؤال جایگزین است.
متأسفانه، جامعه هوش مصنوعی بهطرز غمانگیزی، ظاهراً “بازی تقلید” را بهعنوان مکانیزمی برای پاسخ به سؤال هوش ماشینها (یا اینکه آیا میتوانند فکر کنند یا هوش را به کار بگیرند) درک کرده است. نامگذاری “بازی تقلید” بهعنوان “آزمون تیورینگ” احتمالاً به این آزمون اعتبار خاصی بخشیده و شاید باعث شده است که پژوهشگران نسلهای مختلف هوش مصنوعی از بررسی انتقادی آن پرهیز کنند، با توجه به تبعیت عظیمی که تیورینگ در جامعه محاسباتی دارد. بهتازگی در سال ۲۰۲۳، رهبران چندین کشور در انگلستان، در پارک بلچلی – که زمانی محل کار تیورینگ بود – گرد هم آمدند تا درباره ایمنی هوش مصنوعی بحث کنند. در این زمینه، این حقیقت که تیورینگ بهوضوح بازی تقلید را بهعنوان آزمونی برای سنجش هوش نمیدانست، باید آرامش و شجاعت بیشتری برای بررسی انتقادی آن فراهم کند.
در سایه بیان تیورینگ از “بازی تقلید” در اوایل دهه ۱۹۵۰ در انگلستان، علاقه به ایده ماشینهای متفکر در آن سوی اقیانوس آتلانتیک به سرعت در حال افزایش بود. جان مککارتی، که در آن زمان استادیار جوان ریاضیات در کالج دارتموث در نیوهمپشایر بود، تأمین مالی را برای برگزاری یک کارگاه آموزشی هشت هفتهای در تابستان ۱۹۵۶ دریافت کرد. این کارگاه بعدها بهعنوان “رویداد بنیادین” هوش مصنوعی شناخته شد و مدارک نشان میدهند که اولین استفاده واقعی از اصطلاح “هوش مصنوعی” در پیشنهاد تأمین مالی مککارتی برای این کارگاه، که به بنیاد راکفلر ارسال شده بود، وجود دارد.
لحظهای تصور کنید که “هوش مصنوعی” به شکل کنونی خود وجود ندارد و به این سؤال فکر کنید: کدام رشتهها به طور طبیعی باید در تلاش برای توسعه ماشینهای هوشمند درگیر شوند؟ ممکن است بدیهی باشد که این جستوجو باید بر رشتههایی متمرکز باشد که به درک و توصیف هوش به همان صورتی که میشناسیم، مربوط میشوند – مانند علوم شناختی، فلسفه، نوروبیولوژی و غیره. سایر رشتهها ممکن است بهعنوان ابزارهای اجرایی عمل کنند، اما تلاش کلی نیاز به پایهگذاری بر دانش رشتههایی دارد که به ذهن مربوط میشوند. در واقع، انتخاب تیورینگ برای انتشار مقاله تأثیرگذار خود در نشریه “Mind”، که نشریهای فلسفی با همپوشانی قابل توجه با علوم شناختی است، تصادفی نبود. کارگاه دارتموث به طور قابل توجهی از سوی بخش تحقیقات بیولوژیکی و پزشکی بنیاد راکفلر تأمین مالی شده بود که این نشان میدهد حدسهای فوق ممکن است چندان هم بیپایه نباشند. با این حال، ساختار کارگاه مککارتی بهطور رادیکالی متفاوت بود.
این کارگاه تحت سلطه ریاضیدانان و مهندسان بود و حضور قابل توجهی از شرکتهای فناوری مانند IBM داشت؛ و حضور پژوهشگران از سایر رشتهها کم بود. تاریخچهای بیوگرافیک شامل یادداشتهای ری سولومونف، یکی از شرکتکنندگان کارگاه، که توسط همسرش گریس سولومونوف گردآوری شده، شواهد کافی از این مسئله ارائه میدهد که پروژه “هوش مصنوعی” بهطور فعال به سمت جهت مهندسی سوق داده شده و از سمت نوروكشيدگي-شناختی-فلسفی دور شده است. بهطور خاص، یادداشتهای سولومونوف بیان میکند که یکی از سازماندهندگان اصلی، ماروین مینسکی، که بعدها به یکی از شخصیتهای کلیدی در هوش مصنوعی تبدیل شد، در نامهای پیش از کارگاه اظهار کرده است:
«تا زمان شروع پروژه، همه ما، شرط میبندم، توافق بیسابقهای در مسائل فلسفی و زبانی خواهیم داشت، بهطوریکه زمان کمی بر روی چنین کماهمیتیها تلف خواهد شد.»
ممکن است سایر شرکتکنندگان دیدگاه مینسکی درباره مسائل فلسفی و زبانی را بهعنوان مسائلی وقتگیر به اشتراک گذاشته باشند، اما نتوانسته باشند بهصورت صریح (یا بهطور رک) آن را بیان کنند.
در توصیفی از بحثهای منتهی به کارگاه، تاریخنگار علم، رونالد کلاین، نشان میدهد که این رویداد، که در ابتدا فضایی قابل توجه برای اهدافی مانند مدلسازی مغز تصور شده بود، به تدریج به سمت یک پروژه مدلسازی ریاضی گرایش پیدا کرد. نتیجه علمی اصلی این پروژه، همانطور که در گزارشهای سولومونوف و کلاین ذکر شده، برقراری دستکاری نمادهای ریاضی – چیزی که بعدها به عنوان هوش مصنوعی نمادین شناخته شد – بهعنوان مسیری بود که هوش مصنوعی باید از آن پیش برود. این موضوع زمانی که مشاهده میشود دو سال بعد، در کنفرانس ۱۹۵۸ تحت عنوان “مکانیزه کردن فرآیندهای تفکر” (نامی که هر خوانندهای را به این سمت میبرد که آن را بهعنوان یک سمپوزیوم نوروكشيدگي-شناختی-فلسفی تصور کند)، بسیاری از شرکتکنندگان کارگاه دارتموث مقالات و بیانهایی درباره مدلسازی ریاضی ارائه میدهند، روشن میشود.
عنوان مقالات کارگاه از “برنامهنویسی هیوریستیک” تا “کامپیوتر احتمال شرطی” متغیر است. با نگاهی به گذشته، میتوان قضاوت کرد که کارگاه دارتموث توسعه ماشینهای متفکر را بهعنوان تلاشی در حوزههای مهندسی و علوم ریاضی تقویت کرده است، نه تلاشی که باید از ایدههای رشتههایی که به درک هوش به همان صورتی که میشناسیم بپردازند، هدایت شود. با حمایت محققان دارتموث، محققان ریاضی دیگر نیازی به احساس تنهایی، شرمندگی یا تدافعی در هنگام صحبت درباره ماشینهای متفکر بهعنوان محاسبات نداشتند – حاشیهنشینی علوم اجتماعی در توسعه هوش مصنوعی مصنوعی به رویکرد اصلی تبدیل شده بود.
اما همچنان این سؤال باقی مانده است: چگونه گروهی از افراد باهوش میتوانند قانع شوند که پیگیری “هوش مصنوعی” نباید وقت خود را صرف فلسفه، زبان و البته سایر جنبهها مانند شناخت و نوروبیولوژی کند؟ با نگاهی به گذشته، میتوانیم تنها حدس بزنیم که این موضوع به نوعی به تفسیر محلیگرایانهای از آزمون تیورینگ برمیگردد که تحت تأثیر تحولات فکری در غرب طی چهار یا پنج قرن اخیر شکل گرفته است. اگر کسی بر این باور باشد که “تفکر” یا “هوش” تنها از خلال یک ارگانیزم زنده و متجسم ممکن است، پرسش “آیا ماشینها میتوانند فکر کنند؟” که تیورینگ در مقاله تأثیرگذار خود مطرح کرد، به نظر مضحک میرسد.
بنابراین، حتی تصور هوش مصنوعی بهعنوان یک مفهوم، نیازمند این است که باور داشته باشید که هوش یا تفکر میتواند خارج از یک ارگانیزم زنده و متجسم وجود داشته باشد. رنه دکارت، فیلسوف قرن هفدهم که در فرهنگ عمومی معاصر با جملۀ معروف “فکر میکنم، پس وجود دارم” شناخته میشود، نظریهای مطرح کرد که محل تفکر در بدن انسان ذهن است و بدن نمیتواند فکر کند. این ایده، که دوالیزم کارتیای نامیده میشود، سلسلهمراتبی بین ذهن (قسمتی که فکر میکند) و بدن (قسمتی که فکر نمیکند) ایجاد میکند و گامی بهسوی محلیسازی هوش درون ارگانیزم زنده محسوب میشود.
مدتی پس از درگذشت دکارت، در سوی دیگر کانال انگلیسی، فیلسوف دیگری به نام توماس هابز در اثر بزرگش “لاویهتان” (۱۶۵۱) نوشت که “عقل… چیزی جز حساب و کتاب نیست.” حساب و کتاب باید بهعنوان شامل عملیات ریاضی مانند جمع و تفریق تفسیر شود. دکارت و هابز اختلافات قابل توجهی داشتند، با این حال، ایدههای آنها به خوبی با یکدیگر همافزایی داشتند؛ یکی به تفکر در ذهن اقتدار میبخشد و دیگری تفکر را بهصورت تقلیلگرایانه به محاسبات تعبیر میکند. قدرت همافزایی این دو در افکار گوتفرید لایبنیتس مشهود است، فیلسوفی که احتمالاً در دوران جوانی با دوالیزم دکارت و مادیگرایی هابز آشنا بود و ديدگاه تقلیلگرایی تفکر انسانی را به سمت جلو برد. او در سال ۱۶۸۵ نوشت: «زمانی که بین افراد اختلافاتی وجود دارد، میتوانیم به سادگی بگوییم، ‘بیایید حساب کنیم’ و بدون هیچگونه تأخیر دیگری ببینیم که کدام یک درست است.»
برای لایبنیتس، همه چیز را میتوان به محاسبات تقلیل داد. بر اساس این پیشزمینه از تفکر غربی، تیورینگ سه قرن بعد سؤال “آیا ماشینها میتوانند فکر کنند؟” را طرح کرد. جالب اینجاست که چنین ایدههایی بدون مخالف نیستند؛ شناخت متجسم اخیراً احیا شده است، اما هنوز در حاشیهها باقی مانده است.
در حالی که قرنها چنین زیرساخت فلسفی زمینهای حاصلخیز برای تصور هوش مصنوعی بهعنوان محاسبات فراهم میکند، پروژهای ریاضی یا مهندسی برای توسعه هوش مصنوعی مصنوعی نمیتواند بدون راههایی برای اندازهگیری موفقیت راهاندازی شود. بیشتر تلاشهای علمی و مهندسی همراه با معیارهای طبیعی موفقیت هستند. معیار موفقیت در توسعه هواپیما این است که ببینیم چقدر خوب پرواز میکند – از نظر مدت زمان، ارتفاع و پایداری – که همه اینها قابل اندازهگیری کمی هستند. با این حال، پروژه سطح بالای هوش مصنوعی هیچ معیار طبیعی برای موفقیت ندارد. اینجا است که “بازی تقلید” نقطه شروع بسیار ضروری را فراهم کرد؛ این بازی تأکید میکند که موفقیت در توسعه هوش مصنوعی میتواند به سادگی با اندازهگیری اینکه آیا میتواند خروجیهایی به نظر هوشمندانه تولید کند که بهعنوان تولید یک انسان پذیرفته شود، سنجیده شود.
از این نظر، مشابه با ایدههای دکارت که پیشنهاد میکرد برای بررسی تفکر نیازی به نگرانی درباره بدن نیست، و در روحیهای تقلیلگرایانه، ساختار “بازی تقلید” پیشنهاد کرد که هوش مصنوعی نیازی به نگرانی درباره فرآیند (چگونگی) ندارد و میتواند تنها بر خروجی (چیستی) تمرکز کند. این قاعده بهطور قابل توجهی از زمان ظهور هوش مصنوعی را شکل داده است؛ اگر یک فناوری بتواند به خوبی انسانها را تقلید کند، “هوشمند” محسوب میشود.
پس از اینکه تأیید شد تقلید برای نشان دادن هوش کافی است، جامعه هوش مصنوعی بهطور طبیعی هدف بعدی را انتخاب کرده است. آزمون تیورینگ میگوید که انسان باید توسط فناوری فریب داده شود تا باور کند که با یک انسان دیگر در حال تعامل است تا هوش را اثبات کند، اما این معیار انتزاعی، کیفی و ذهنی است. برخی انسانها ممکن است در شناسایی نشانههای ظریف یک ماشین از دیگران بهتر باشند، دقیقاً مانند برخی از چککنندگان حقایق امروزی که استعداد شناسایی نشانههای کوچک عدم اعتبار در دیپ فیک ها را دارند. جامعه هوش مصنوعی باید راههای قابل اعتمادی برای توسعه تقلیدهای فناوری پیدا کند که بهطور کلی توسط انسانها بهعنوان هوشمند در نظر گرفته شوند – به عبارت ساده، نیاز به یک ساختار عمومی وجود دارد که قادر به جعل هوش باشد. این موضوع در سخنان خود مککارتی در سال ۱۹۸۳ واضح است، زمانی که هوش مصنوعی را بهعنوان “علم و مهندسی حل مسائل توسط کامپیوترها و رفتارهایی که بهطور کلی بهعنوان هوشمند در نظر گرفته میشوند” توصیف میکند – از این دو چیز، مورد اول نوآورانه نیست، اما دومی هست. ما به دو مسیر غالب در دهههای ۱۹۶۰ تا ۱۹۸۰ خواهیم پرداخت که به پیشرفت هوش مصنوعی از طریق طراحی فناوری تقلیدی کمک کردند.
در دهه ۱۹۶۰، جوزف ویزنباوم یک چتبات ساده در زمینه رواندرمانی راجرین توسعه داد که ایده آن تشویق بیمار به تفکر درباره وضعیت خود بود. این چتبات که ELIZA نامیده میشود، از قوانین تبدیل ساده استفاده میکرد، معمولاً فقط برای بازگرداندن مسئولیت به انسان؛ هرچند داخلیهای آن به شدت با مدلهای زبانی بزرگ (LLM) تفاوت داشت، ظهور LLMها منجر به روایتهایی شده است که به مقایسه و تضاد این دو میپردازند.
یک مثال از تبدیل، که در مقاله خود ویزنباوم درباره این سیستم آمده است، شامل پاسخ به “من (X) هستم” با این پرسش است که “چقدر طول کشیده است که (X) باشید؟” با وجود پردازش داخلی ساده، کاربران ELIZA، به تفریح ویزنباوم، اغلب آن را انسانی میپنداشتند.
در مقالهای که در سال ۱۹۶۶ در نشریه “Communications of the ACM”، یکی از مهمترین نشریات در حوزه محاسبات، منتشر شد، او نوشت: «برخی از موضوعات بسیار سخت قانع شدند که الیزا (با سناریوی حاضرش) انسان نیست» (چاپ بهخط متمایز اصل)،
این موضوع با یک مشاهده کلی که به نظر میرسد در دیدگاه به گذشته مانند پیشگویی به نظر برسد، که توسط راس اشبی در کنفرانس دارتموث بیان شد، همخوانی دارد: زمانی که بخشی از یک مکانیزم از دید پنهان میماند، رفتار ماشین بهنظر شگفتانگیز میآید.»
امروزه، «اثر الیزا» برای اشاره به نوعی اشتباه بهکار میرود که در آن دستکاری نمادها بهعنوان قابلیت شناختی اشتباه گرفته میشود. چند سال بعد، دانشمند شناختی داگلاس هافستادر اثر الیزا را «غیرقابل زدودن» توصیف کرد و پیشنهاد داد که یک نوع سادگی ذاتی در انسانها ممکن است برای اهداف هوش مصنوعی کافی باشد. اثر الیزا – یا کفایت دستکاریهای نمادین مبهم بهگونهای که به کاربران انسانی هوشمند به نظر برسد – به توسعه هوش مصنوعی در دو یا سه دهه آینده شتاب بخشید.
موج هوش مصنوعی نمادین به توسعه چندین سیستم هوش مصنوعی – که غالباً «سیستمهای خبره» نامیده میشوند – منجر شد که توسط مجموعه قوانین دستکاری نمادها با اندازهها و پیچیدگیهای متفاوت تقویت شدند. یکی از موفقیتهای عمده، سیستمی بود که در دهه ۱۹۷۰ در دانشگاه استنفورد توسعه یافت و MYCIN نام داشت، که از حدود ۶۰۰ قاعده برای توصیه آنتیبیوتیکها استفاده میکرد (بسیاری از آنها با mycin به پایان میرسند، بنابراین این نام انتخاب شده است). یکی از موفقیتهای بزرگ هوش مصنوعی در قرن ۲۰، پیروزی کامپیوتر شطرنجی «دیپ بلو» شرکت IBM در برابر قهرمان جهان (انسانی) در سال ۱۹۹۷ نیز بر اساس موفقیت هوش مصنوعی نمادین مبتنی بر قوانین بود.
در حالی که هوش مصنوعی نمادین مبهم فراگیر بوده است، مکانیزم سطح بالای دومی نیز یافت شده که برای ایجاد ظاهری از هوش مفید است. برای درک این موضوع، یک دماسنج یا گیج فشار ساده را در نظر بگیرید – اینها برای اندازهگیری دما و فشار طراحی شدهاند و بهوضوح ارتباطی با «هوش» بهطور خاص ندارند.
اما اکنون بیایید یک مکانیزم تصمیمگیری ساده را به دماسنج متصل کنیم: اگر دما از یک آستانه مشخص بالاتر برود، کولر روشن میشود (و بالعکس). این مکانیزمهای تنظیمکننده کوچک، که غالباً به آنها ترموستات گفته میشود، در دستگاههای الکترونیکی امروزی، از جمله فرها، آبگرمکنها، کولرها و حتی در کامپیوترها برای جلوگیری از گرم شدن بیش از حد استفاده میشوند. سایبرنتیک، علمی که با دستگاههایی مبتنی بر بازخورد مانند ترموستات و اقوام پیچیدهتر آنها سر و کار دارد، بهعنوان یک مسیر به سمت هوش ماشینی بهطور گستردهای شناخته میشود. گریس سولومونوف «سایبرنتیک» را بهعنوان نامی که مککارتی برای کارگاه دارتموث در نظر گرفته بود (علاوه بر نام نهایی «هوش مصنوعی») ثبت کرده است؛ نام دیگر «نظریه اتوماتا» بود. نکته کلیدی این است که مکانیزم حس-سپس-پاسخ خودتنظیمی که در دستگاههایی مانند ترموستات بهکار میرود، میتواند بهعنوان نوعی هوش بهنظر برسد. ما فقط میتوانیم درباره دلایل اینکه چرا ممکن است چنین پنداری داشته باشیم حدس بزنیم؛ شاید این به این دلیل است که ما حواس را بهطور ذاتی با انسان بودن مرتبط میدانیم (از دست دادن ظرفیت حسی – حتی به سادگی از دست دادن حس چشایی، که بیشتر ما در طول همه گیری کرونا تجربه کردیم – میتواند بسیار ضعیفکننده باشد)، یا اینکه بدن تعادل هموستاتیک را حفظ میکند، که یکی از پیچیدهترین نسخههای خودتنظیمی زندهمان است.
اما بعید به نظر میرسد که ما ترموستاتهای ساده را به ماشینهای متفکر اشتباه بگیریم، درست است؟ خوب، این فرض در صورتی درست است که مانند مککارتی فکر نکنیم. بیش از دو دهه پس از برگزاری کارگاه دارتموث، یکی از سازماندهندگان پیشگام آن در مقالهای تحت عنوان «نسبت دادن ویژگیهای ذهنی به ماشینها» (۱۹۷۹) نوشت که ترموستاتها «باورهایی» دارند.
او مینویسد: «زمانی که ترموستات معتقد است دما در اتاق خیلی سرد یا خیلی گرم است، پیامی به بخارسان میفرستد که این وضعیت را گزارش میدهد.» در برخی از قسمتهای مقاله، به نظر میرسد که مککارتی به وجود منتقدانی که «نسبت دادن باورها به ماشینها را بهعنوان صرفاً بیدقتی فکری مینگرند» اعتراف میکند، اما ادامه میدهد که «ما بر این باوریم که نسبت دادن چنین باورهایی به ماشینها مشروع است.»
مککارتی اعتراف میکند که ترموستاتها باورهای عمیقتری ندارند، مانند باورهای بازتابی، بهعبارتی «آنها نمیگویند که خودشان معتقدند اتاق خیلی گرم است» – این یک عقبگرد بزرگ است! در دنیای آکادمیک، برخی از مقالههای تحریکآمیز معمولاً تنها از روی اشتیاق و راحتی نوشته میشوند، بهویژه زمانی که غافلگیر میشوند. خوانندهای که شاهد نوسانات نادرست اشتیاق بوده است و به مقالات منجر شدهاند، ممکن است بر این باور باشد که نباید مقاله مککارتی را بهدقت تحلیل کرد – شاید، این فقط یک استدلال یکباره بوده است.
با این حال، سوابق تاریخی به ما میگویند که اینگونه نیست؛ چهار سال بعد، مککارتی مقالهای به نام «اندیشههای کوچک ماشینهای متفکر» (۱۹۸۳) را مینویسد. در این مقاله، او بار دیگر درباره باورهای ترموستات سخن میگوید و حتی منطق را به خودپردازهای خودکار گسترش میدهد، که احتمالاً در آن زمان شروع به تبدیل شدن به یک تکنولوژی جالب کرده بود. او مینویسد: «خودپرداز خودکار یک مثال دیگر است. آن باورهایی دارد مانند: «در حساب پول کافی وجود دارد و من نمیتوانم این مقدار پول را پرداخت کنم.»
امروزه، مکانیزم حس-سپس-پاسخ بهطور گستردهای در رباتها استفاده میشود و رباتهای انساننما غالباً تصویر هوش مصنوعی در نمایشهای عمومی را تسخیر کردهاند، همانطور که با یک جستوجوی سریع تصویری در گوگل میتوان آن را مشاهده کرد. استفاده از صفت «هوشمند» برای اشاره به سیستمهای هوش مصنوعی میتواند به فراوانی مکانیزمهای حس-سپس-پاسخ مربوط باشد: دستگاههای پوشیدنی هوشمند شامل سنسورهایی هستند که در سطح فردی تعبیه شدهاند، خانههای هوشمند دارای چندین سنسور متصل در سراسر خانه هستند و شهرهای هوشمند شامل شهرهایی با نظارت سنسوری فراوان هستند. موج جدید هوش مصنوعی مبتنی بر سنسور، که معمولاً به «اینترنت اشیاء» اشاره میشود، از سنسورها قدرت میگیرد.
هوش مصنوعی نمادین مبهم و سایبرنتیک مبتنی بر سنسور، مسیرهای مفیدی برای طراحی سیستمهایی هستند که بهگونهای رفتار میکنند که بهطور کلی هوشمند در نظر گرفته میشوند، اما هنوز باید تلاشی برای طراحی این سیستمها انجام دهیم. آیا نیاز به طراحی موانعی را ایجاد میکند؟ این سؤال ما را به دوره بعدی تحقیقات هوش مصنوعی هدایت میکند.
دامنه فعالیتهای هوش مصنوعی که به سرعت در حال گسترش بود، در برخی از وظایف در دهه ۱۹۸۰ با چالشهای جدی مواجه شد. این موضوع به بهترین شکل در کتاب «فرزندان ذهن» نوشته هانس موراوه (۱۹۸۸) به تصویر کشیده شده است که به پارادوکس موراوه شناخته میشود:
«ترکیب کردن عملکرد بزرگسالان در آزمونهای هوش یا بازی چکرز برای کامپیوترها نسبتا آسان است، اما دادن مهارتهای یک کودک یک ساله در زمینه ادراک و جابجایی دشوار یا حتی غیرممکن است.»
هوش مصنوعی که با استفاده از روشهای نمادین در بازی چکرز و شطرنج به موفقیتهایی دست یافته بود، نتوانست در شناسایی کاراکترهای دستنویس یا شناسایی چهرههای انسانی پیشرفت کند. این نوع وظایف به دسته فعالیتهای ذاتاً انسانی (یا بهعبارتی حیوانی) تعلق دارد – کارهایی که ما بهطور سریع و غریزی انجام میدهیم اما نمیتوانیم توضیح دهیم چگونه. بیشتر ما میتوانیم بهطور آنی احساسات را از چهرههای مردم با دقت بالا تشخیص دهیم، اما تمایلی به آغاز پروژهای برای ایجاد مجموعهای از قواعد برای شناسایی احساسات از تصاویر افراد نداریم. این موضوع به پارادوکس پولانی مربوط میشود: «ما بیشتر از آنچه میتوانیم بگوییم، میدانیم»
ما به دانش ضمنی تکیه داریم که اغلب قابل بیان بهصورت کلامی نیست، چه برسد به اینکه بهعنوان یک برنامه کدگذاری شود. کاروان هوش مصنوعی به دیواری برخورد کرده است.
یک تشبیه نسبتاً صریح (و عمداً تحریکآمیز) ممکن است در اینجا مناسب باشد تا درک کنیم چگونه تحقیقات هوش مصنوعی از این معما بیرون آمده است. در مدرسه، هر یک از ما باید امتحاناتی را بگذرانیم تا درک خود را از موضوع و دستیابی به نتایج یادگیری نشان دهیم. اما برخی از دانشآموزان آنقدر تنبل هستند که از انجام کار سخت امتناع میکنند؛ آنها به سادگی از ورقهای پاسخ همسایههای خود در سالن امتحان کپی میکنند.
ما این را تقلب مینامیم یا، به زبان ملایمتر و پیچیدهتر، سوءعملکرد آکادمیک. برای تکمیل تشبیه، قهرمان داستان ما آزمون تیورینگ است و تحقیقات هوش مصنوعی تنبل نیست، بلکه راهی برای گسترش به منظور رسیدگی به وظایفی که ما بر اساس دانش ضمنی انجام میدهیم، پیدا نکرده است. به سادگی ناتوان است. اگر خواننده از لحن تلویحی عذرخواهی کند، باید بگویم که هوش مصنوعی همان مسیر دانشآموز تنبل را پیموده است: کپیبرداری از دیگران – در اینجا، از ما انسانها.
برای درک بهتر این الگوی کپیبرداری، یک وظیفه ساده، یعنی شناسایی چهرهها در تصاویر را در نظر بگیرید. برای انسانها، این یک کار ادراکی آسان است. ما یک تصویر را میبینیم و بهطور آنی چهره موجود در آن را شناسایی میکنیم، اگر چهرهای وجود داشته باشد – تقریباً هر بار که تصویری را میبینیم، نمیتوانیم این کار را انجام ندهیم (تست کنید). پلک زدن چشم حتی زمان بیشتری میبرد.
اگر امروز این کار را به یک مهندس هوش مصنوعی بسپارید، او بدون تردید از یک روش مبتنی بر داده یا یادگیری ماشین برای انجام آن استفاده خواهد کرد. این فرآیند با جمعآوری تعدادی تصویر آغاز میشود و سپس ناظران انسانی تصاویر را برچسبگذاری میکنند – آیا هر یک چهرهای دارد یا ندارد؟ این منجر به ایجاد دو دسته از تصاویر میشود؛ یکی با چهرهها و دیگری بدون چهرهها. تصاویر برچسبگذاری شده برای آموزش ماشینها استفاده میشوند و اینگونه است که این ماشینها یاد میگیرند تا تطابق را شناسایی کنند.
این مجموعه دادههای برچسبگذاری شده از تصاویر، بهعنوان دادههای آموزشی شناخته میشود. هر چه مدل یادگیری ماشین پیشرفتهتر باشد، تعداد بیشتری از تصاویر، قوانین و عملیاتها را برای تصمیمگیری در مورد اینکه آیا تصویر دیگری جلوی آن چهرهای دارد یا ندارد، به کار خواهد گرفت. اما اصل بنیادی این است که این کار به کپیبرداری از دادههای برچسبگذاری شده از طریق یک مدل آماری مربوط میشود، که میتواند به سادگی یک شباهت باشد یا ممکن است مجموعهای بسیار پیچیده و بهدقت تنظیم شده از «پارامترها» (همانند مدلهای یادگیری عمیق که در حال حاضر محبوبتر هستند) باشد.
مدلهای ابتدایی، یادگیرندگان تنبلی هستند زیرا تا زمانی که لازم نباشد، به دادههای آموزشی مراجعه نمیکنند، در حالی که مدلهای یادگیری عمیق یادگیرندگان مشتاقی هستند زیرا این دادهها را از ابتدا در مدلهای آماری پالایش میکنند تا بتوانند سریعتری تصمیمگیری کنند.
در حالی که در انواع وظایف و مدلهای تصمیمگیری پیچیدگی و تنوع زیادی وجود دارد، اصل بنیادی همچنان یکسان است: اشیاء دادهای مشابه برای اهداف مشابه مفید هستند. اگر یادگیری ماشین یک کلیسا داشت، نمای آن میتوانست این عبارت (به زبان لاتین، همانطور که برای کلیساها انجام میدهند) را بر خود داشته باشد: Similia objectum, similia proposita. اگر کنجکاو هستید که این عبارت چه معنی دارد، لطفاً به یک هوش مصنوعی مبتنی بر داده که متخصص در ترجمه زبان است، مراجعه کنید.
دسترسپذیری مدلهای زبانی بزرگ (LLM) از زمان انتشار ChatGPT در اواخر ۲۰۲۲، موجی جهانی از هیجان هوش مصنوعی را بهوجود آورد که همچنان ادامه دارد. این موضوع در فرهنگ عمومی بهعنوان یک نقطه عطف بزرگ تلقی شد که بهویژه در سطح اجتماعی، نیز میتواند چنین باشد، زیرا هوش مصنوعی هرگز به اندازه اکنون در تخیل عمومی نفوذ نکرده بود. با این حال، در سطح فنی، LLMها در هسته خود یادگیری ماشین دارند و بهطور تکنولوژیکی نوع جدیدی از تقلید را تولید میکنند – تقلید از دادهها؛ که این با الگوی سنتی که شامل تقلید از تصمیمات انسانی در مورد دادهها میشود، در تضاد است.
از طریق LLMها، تقلید به شکلی جدید و عمومیتر تبدیل شده است – بهعنوان شخصی همهچیزدان ارائه میشود که همواره آماده پاسخگویی به هر سوالی در هر موضوعی است. اما این روند همان مسیر کپیبرداری آشنایی را دنبال میکند که در هسته یادگیری ماشین ریشه دارد. همانطور که تحقیقات پیشرفته هوش مصنوعی، امیلی بندر و همکارانش در زمینه اخلاق هوش مصنوعی، مطرح میکنند، اینها «طوطیهای تصادفی» هستند؛ در حالی که طوطیهایی که صرفاً آنچه را میشنوند تکرار میکنند به خودی خود قابل توجه هستند، تولیدات تصادفی – یا تصادفی وابسته به پرسش – و انتخابی از دادههای آموزشی بهعنوان الگوی ایجاد توهمی از کنش و در نتیجه، هوش شناخته شده است. خواننده ممکن است به یاد بیاورد که شیوههای دستکاری نمادهای مبهم و سایبرنتیک مبتنی بر سنسور در دهههای ۱۹۶۰ و ۷۰ به اوج خود رسیدند – حالا نوبت به کپیبرداری تصادفی از دادهها رسیده است.
ارزش مورد توجه LLMها در تولید خروجیهای بینقص است: متونی خوشساخت و خوشایند. ممکن است این سؤال پیش آید که چگونه LLMها میتوانند متون خوب و باکیفیت تولید کنند در حالی که بسیاری از متون در وب کیفیت خوبی ندارند و ممکن است حتی تصور شود که این یک merit ذاتی فناوری است. اینجا جالب میشود که درک کنیم LLMها چگونه از اشکال مختلف ورودی انسانی استفاده میکنند. گزارشها نشان میدهند که محبوبترین LLM تجاری، ChatGPT، از هزاران ناظر کمدستمزد در کنیا استفاده کرده است تا کیفیت متون انسانی را ارزیابی کرده و بهویژه متونی را که بهعنوان سمی محسوب میشوند حذف کند. بنابراین، کیفیت بالاتر مشاهدهشده در متنهای LLM نیز نتیجهای از الگوی تقلید است که در هسته هوش مصنوعی ریشه دارد.
وقتی این نکته را درک کنید، فهم این موضوع آسانتر میشود که چرا LLMها میتوانند خروجیهایی به طور معنادار مبتنی بر تعصب تولید کنند، از جمله خروجیهایی که بر مبنای جنسیت و نژاد باشد، همانگونه که در تحقیقات اخیر مشاهده شده است. الگوی کپیبرداری تصادفی دادهها شامل ترکیب و تطبیق الگوها از بخشهای مختلف دادههای آموزشی است – که داستانهایی ایجاد میکند که با یکدیگر هماهنگی ندارند و در نتیجه متون احمقانه و غیرمنطقی تولید میکنند که اغلب بهعنوان «توهم» شناخته میشوند. با درک اینکه LLMها نوعی تقلید قویتر هستند، روشن است که تعصبها و توهمها ویژگیها هستند، نه اشکالات. امروز، موفقیت LLM به انواع دیگری از دادهها نیز گسترش یافته و آغازگر ظهور هوش مصنوعی مولد در زمینه تولید تصاویر و ویدئوها شده است، که همه آنها با مسائلی از قبیل تعصب و توهم دستوپنجه نرم میکنند، همانطور که انتظار میرود.
بیایید از یک زاویه مخالف به روایت تا کنون نگاه کنیم. هوش مصنوعی، همانطور که امروز است، ممکن است برای تولید تقلیدهایی طراحی شده باشد که به شبیهسازی هوش بپردازد. اما اگر این کار را بهخوبی انجام میدهد، چرا باید اینقدر نگران جزئیات شویم؟
اینجا است که مسائل کمی پیچیده و در عین حال جالب میشود. تصور کنید یک رادیولوژیست که در تشخیص بیماریها از روی اشعه ایکس تخصص دارد. تصمیمگیری او بهطور فراوانی از دانشش درباره زیستشناسی انسان تغذیه میکند. میتوانیم تعداد زیادی از این رادیولوژیستهای خبره را جمع آوری کنیم تا اشعه ایکسها را با تشخیص مناسب برچسبگذاری کنند. وقتی تعداد کافی از جفتهای تشخیص اشعه ایکس ایجاد شود، میتوان این دادهها را به یک هوش مصنوعی مبتنی بر داده انتقال داد و سپس از آن برای تشخیص اشعه ایکسهای جدید استفاده کرد. همه چیز خوب به نظر میرسد. حالا صحنه برای این فراهم است که بعضی رادیولوژیستها نامههای اخطار بیکار شدن دریافت کنند.
سالها میگذرد.
به خوششانسی، جهان به بیماری پاندمی تنفسی COVID-27 دچار میشود، پاندمیای که به اندازه عظیم مشابه پیشینی خود است. این هوش مصنوعی هیچ اطلاعی از COVID-27 ندارد و بنابراین، نمیتواند بیماری را تشخیص دهد. پس از اینکه بسیاری از رادیولوژیستها به سایر بخشها منتقل شدهاند، دیگر تعداد کافی از کارشناسان برای تشخیص باقی نمانده است. هوش مصنوعی هیچ دانشی درباره زیستشناسی انسان ندارد و «دانش» آن نمیتواند برای COVID-27 بازسازی شود – اما تعداد زیادی اشعه ایکس برچسبگذاری شده برای COVID-27، شامل تمامی واریانتهای آن، وجود دارد که میتوان از آنها برای آموزش مجدد مدل آماری استفاده کرد.
همان هوش مصنوعی که رادیولوژیستها را از شغلهایشان بیرون کرده، اکنون به آنها نیاز دارد تا به این هوش یاد بدهند که چگونه تصمیماتی درباره COVID-27 بگیرد. حتی اگر هیچ COVID-27 هم وجود نداشته باشد، ویروسها تغییر ماهیت میدهند، بیماریها تغییر میکنند و دنیا هرگز ثابت نمیماند. مدل هوش مصنوعی همیشه در معرض خطر ناکارآمدی قرار دارد. بنابراین، وجود مستمر دادههای برچسبگذاری شده توسط انسان، خون حیات هوش مصنوعی مبتنی بر داده است، اگر بخواهد به زمانهای در حال تغییر مربوط بماند. این وابستگی پیچیده به دادهها یک جنبه نهفته از هوش مصنوعی است که ما معمولاً آن را دستکم میگیریم و این کار ممکن است سرنوشت ما را به خطر بیندازد.
اگر رادیولوژی را با حوزههایی مانند پلیس، ارزیابیهای دانشگاهی، استخدام و حتی تصمیمگیری در مورد عوامل محیطی همچون پیشبینی آب و هوا یا کاربردهای هوش مصنوعی مثل تولید ویدئو و نوشتن خودکار مقالات جایگزین کنیم، منطق کلی هنوز هم یکسان باقی میماند. الگوی هوش مصنوعی – که جالب است بهوسیله منتقد معروف هوش مصنوعی، کتی او نیل، در کتاب «سلاحهای تخریب ریاضی» (۲۰۱۶) بهعنوان «پروژه کردن گذشته به آینده» توصیف شده است – به سادگی برای حوزههایی که تغییر یا تکامل مییابند، کارایی ندارد. در اینجا، باید به یاد آوریم هراکلیتوس، فیلسوف یونانی که ۲۵ قرن پیش زندگی میکرد – او میگفت «تغییر تنها ثابت است».
همانطور که تاریخنگار یوال نوح هراری میگوید، اعتقاد به اینکه هوش مصنوعی همهچیز را میداند و واقعاً هوشمند است و به نجات ما آمده، ایدئولوژی «دادهگرایی» را ترویج میکند که به معنای اختصاص ارزش برتر به جریانهای اطلاعاتی است. علاوه بر این، با توجه به اینکه برچسبگذاری انسانی – بهویژه در تصمیمگیریهای اجتماعی همچون پلیس و استخدام – با تعصب و کلیشههای گوناگون همراه است (نظیر تعصب جنسیتی، نژادی، سنی و غیره)، مدلهای آماری هوش مصنوعی این تعصبها را کدگذاری کرده و آنها را با ظاهری از بیطرفی محاسباتی تولید میکنند. روشن کردن ماهیت روابط دقیقتر بین الگوی تقلید و مشکل تعصب در هوش مصنوعی داستانی برای روز دیگر است.
اگر تقلیدها اینقدر مشکلزا هستند، پس چه فایدهای دارند؟ برای درک این موضوع، میتوانیم به مطالعه کارل مارکس در زمینه نقد اقتصاد سیاسی سرمایهداری مراجعه کنیم، سرمایه بهعنوان زیرساخت فکری سیستم اقتصادی استثماری که ما آن را سرمایهداری مینامیم. مارکس میگوید که سرمایه تنها به ارزشهای کاربردی اشیاء تا زمانی توجه میکند که آنها شکل عمومی کالایی داشته باشند و بتوانند در بازارها برای پیشبرد منافع مالی معامله شوند. به زبان ساده، برای افزایش سود، تلاش برای بهبود ارائه – از طریق راههای مختلفی مانند بستهبندی، تبلیغات و غیره – اهمیت بسیار بیشتری نسبت به تلاش برای بهبود کارکرد (یا ارزش استفاده) کالاست.
متأسفانه، تحت تسلط قرار دادن محتوا به ارائه بدینگونه، گرایشی در دنیای سرمایهداری است. اگر استدلال مارکس را به هوش مصنوعی گسترش دهیم، این الگوی تقلید که در هوش مصنوعی نهفته است، برای سرمایه کافی است. بر اساس این درک، تفسیر بازی تقلید – یا بهتر بگوییم، آزمون تیورینگ – بهعنوان جام مقدس هوش مصنوعی با سیستم اقتصادی سرمایهداری عجین است. از این منظر، مشاهده این موضوع که چرا هوش مصنوعی به خوبی با بازارها همسو شده و چرا بهعنوان یک رشته توسط بازیگران بزرگ بازار مانند غولهای فناوری سیلیکون ولی تبدیل شده است، چندان دشوار نیست. این وابستگی به بازار در هوش مصنوعی در مقالهای که نشان میدهد چگونه تحقیقات در این زمینه بهطور فزایندهای به شرکتی شدن گرایش داشته است، بهویژه زمانی که الگوی تقلید با ظهور یادگیری عمیق رونق گرفت، تبیین شده است.
موج هوش مصنوعی مولد بحثهای عمومی عظیمی درباره ظهور هوش عمومی مصنوعی واقعی را بهوجود آورده است. با این حال، درک هوش مصنوعی بهعنوان یک تقلید به ما کمک میکند تا این هیجان را بهتر بشناسیم. برای استفاده از یک تشبیه بسیار ساده اما آموزنده، کودکان ممکن است در اپلیکیشنهای تقلیدی مانند «توم حرف میزند» نشانههایی از کنشوری ببینند – اما به روشنی مشخص است که یک توم حرف زن هرگز به یک گربه واقعی حرفزن تبدیل نخواهد شد، هرچقدر هم که کودک تلاش کند. بازار ممکن است تقلیدهای پیچیده و بهظاهر هوشمندانهای به ما ارائه دهد، اما این بهبودها بهطور ساختاری ناتوان از انتقال کیفی از تقلید به هوش واقعی هستند. همانطور که هوبرت درایفوس در کتاب «کامپیوترها چه کاری نمیتوانند انجام دهند» (۱۹۷۲) نوشت: «نخستین کسی که درختی را بالا میرود میتواند ادعا کند که پیشرفت ملموسی در رسیدن به ماه داشته است» – اما رسیدن واقعی به ماه نیازمند روشهای کیفی متفاوتی نسبت به بالا رفتن از درخت است. اگر بخواهیم به حل مشکلات واقعی و ایجاد پیشرفتهای پایدار تکنولوژیکی بپردازیم، شاید به چیزی فراتر از یک وسواس به تقلید نیاز داشته باشیم.