چرا توهم هوش مصنوعی ذاتی است؟
تمایل به ساختن اطلاعات نادرست، چتباتها را محدود میکند. اما توهم هوش مصنوعی ، واقعیت چت بات ها است.
چتبات جدید سازمان بهداشت جهانی (WHO) در تاریخ ۲ آوریل با بهترین نیتها آغاز به کار کرد. این آواتار مجازی نوپا که توسط GPT-3.5 پشتیبانی میشود و به نام سارا (Smart AI Resource Assistant for Health) شناخته میشود، به میلیونها نفر در سراسر جهان به صورت ۲۴ ساعته و در هشت زبان مختلف، راهنماییهای بهداشتی در مورد تغذیه صحیح، ترک سیگار، کاهش استرس و غیره ارائه میدهد.
اما مانند تمام چتباتها، سارا نیز ممکن است پاسخهای اشتباهی بدهد و دچار توهم هوش مصنوعی شود. به سرعت مشخص شد که این چت بات اطلاعات نادرستی ارائه میدهد. در یک مورد، فهرستی از نامها و آدرسهای جعلی برای کلینیکهای سان فرانسیسکو ارائه کرد. سازمان بهداشت جهانی در وبسایت خود هشدار میدهد که سارا همیشه ممکن است دقیق نباشد.
چتباتهای ناکام حالا به یک شوخی آشنا تبدیل شدهاند. چتبات علمی متا با نام گالاکتیکا مقالات علمی ساختگی ایجاد کرد و مقالات ویکی در مورد تاریخ حضور خرسها در فضا تولید کرد.
در فوریه، شرکت هواپیمایی کانادا مجبور شد سیاست بازپرداختی را که توسط چتبات خدمات مشتریانش ابداع شده بود، رعایت کند. سال گذشته، یک وکیل به دلیل ارائه مدارک دادگاهی پر از نظرات قضایی و استنادات قانونی جعلی که توسط ChatGPT ساخته شده بودند، جریمه شد.
مشکل اینجاست که مدلهای زبانی بزرگ به قدری در کار خود خوب هستند که آنچه میسازند اغلب درست به نظر میرسد. و این امر اعتماد به آنها را دشوار میکند.
این تمایل به ساختن اطلاعات که بعضا به عنوان توهم شناخته میشود، یکی از بزرگترین موانع بر سر راه گسترش استفاده از چتباتها است. چرا این اتفاق میافتد؟ و چرا نمیتوانیم آن را رفع کنیم؟
توپ 8 جادویی
برای درک اینکه چرا مدلهای زبانی بزرگ دچار توهم میشوند، باید نگاهی به نحوه کار آنها بیاندازیم. اولین نکتهای که باید به آن توجه کرد این است که ساختن اطلاعات بخشی از طراحی این مدلهاست. وقتی شما از یک چتبات سوالی میپرسید، پاسخ آن از مدل زبانی بزرگی که پایه آن است استخراج میشود. اما این فرآیند شبیه جستجو در یک پایگاه داده یا استفاده از یک موتور جستجوی وب نیست.
وقتی به درون یک مدل زبانی بزرگ نگاه کنیم، اطلاعات از قبل آماده برای بازیابی نمیبینیم. در عوض، میلیاردها عدد را مشاهده خواهیم کرد. این اعداد برای محاسبه پاسخها از هیچ استفاده میشود و دنبالههای جدید از کلمات را به صورت خودکار تولید میکند.
بخش بزرگی از متنی که یک مدل زبانی بزرگ تولید میکند، طوری به نظر میرسد که انگار از یک پایگاه داده یا صفحه وب واقعی کپی شده است. اما همانند بیشتر آثار داستانی، شباهتها تصادفی هستند. یک مدل زبانی بزرگ بیشتر شبیه به یک توپ جادویی بینهایت است تا یک دانشنامه.
مدلهای زبانی بزرگ متن را با پیشبینی کلمه بعدی در یک دنباله تولید میکنند. اگر مدلی عبارت the cat sat (گربه نشست) را ببیند، ممکن است on (روی) را حدس بزند. این دنباله جدید به مدل بازگردانده میشود که ممکن است اکنون the را حدس بزند. دوباره این روند تکرار میشود و ممکن است mat (زیرانداز) را حدس بزند—و به همین ترتیب.
این یک ترفند میتواند هر نوع متنی که به ذهن شما میرسد تولید کند، از لیستهای آمازون گرفته تا هایکو، داستانهای طرفداران، کدهای کامپیوتری، مقالات مجله و خیلی چیزهای دیگر. همانطور که آندری کارپاتی، دانشمند رایانه و یکی از بنیانگذاران OpenAI، میگوید:« مدلهای زبانی بزرگ یاد میگیرند که اسناد اینترنتی را در رویاهایشان ببینند.»
میتوانید میلیاردها عدد درون یک مدل زبانی بزرگ را به عنوان یک فایل اکسل عظیم تصور کنید که احتمال آماری ظاهر شدن کلمات خاص در کنار کلمات دیگر را ثبت میکند. مقادیر در این صفحه گسترده هنگام آموزش مدل تعیین میشوند. فرآیندی که این مقادیر را بارها و بارها تنظیم میکند تا حدسیات مدل منعکسکننده الگوهای زبانی موجود در ترابایتها متن گرفتهشده از اینترنت باشد.
برای حدس زدن یک کلمه، مدل به سادگی اعداد خود را اجرا میکند. برای هر کلمه در واژگان خود یک امتیاز محاسبه میکند که نشان میدهد آن کلمه چقدر محتمل است که در دنباله حاضر بعدی باشد. کلمهای که بهترین امتیاز را دارد، انتخاب میشود. به طور خلاصه، مدلهای زبانی بزرگ مانند ماشینهای بخت آزمایی آماری هستند. دسته را بکشید و یک کلمه بیرون میآید.
همه چیز تماماً توهم هوش مصنوعی است
نتیجه؟ همه چیز تماماً توهم هوش مصنوعی است. اما ما فقط وقتی آن را اینگونه مینامیم که متوجه اشتباهش شویم. مشکل اینجاست که مدلهای زبانی بزرگ به قدری در کار خود خوب هستند که آنچه میسازند اغلب درست به نظر میرسد. و این امر اعتماد به آنها را دشوار میکند.
آیا میتوانیم تولیدات مدلهای زبانی بزرگ را کنترل کنیم تا متنی که تولید میکنند حتماً دقیق باشد؟ این مدلها بیش از حد پیچیده هستند تا اعدادشان با دست دستکاری شوند. اما بعضی محققان معتقدند که آموزش آنها با متنهای بیشتر میتواند به کاهش نرخ خطای آنها ادامه دهد. این روندی است که با بزرگتر و بهتر شدن مدلهای زبانی بزرگ مشاهده کردهایم.
رویکرد دیگری که استفاده میشود این است که از مدلها بخواهیم کار خود را همانطور که پیش میروند بررسی کنند، بهصورتی که پاسخها را مرحله به مرحله تحلیل کنند. این روش به عنوان پرومتینگ زنجیرهای از افکار (chain-of-thought prompting) شناخته میشود. این روش نیز نشان داده که دقت خروجی یک چتبات را افزایش میدهد.
مدلهای زبانی بزرگ آینده ممکن است بتوانند متنی که تولید میکنند را بررسی کنند و حتی زمانی که میخواهند از مسیر خارج شوند، به عقب برگردند. هرچند این امکان فعلاً وجود ندارد.
اما هیچکدام از این تکنیکها نمیتوانند به طور کامل توهم هوش مصنوعی را متوقف کنند. تا زمانی که مدلهای زبانی بزرگ احتمالی باشند، همیشه عنصری از شانس در تولیدات آنها وجود دارد. اگر ۱۰۰ تاس را بیندازید، یک الگو به دست خواهید آورد. اگر دوباره آنها را بیندازید، الگوی دیگری خواهید داشت.
حتی اگر تاسها مثل مدلهای زبانی بزرگ، به گونهای طراحی شده باشند که برخی الگوها را خیلی بیشتر از حالتهای دیگر تولید کنند، نتایج هر بار یکسان نخواهند بود. حتی یک خطا در هر ۱۰۰۰ یا ۱۰۰,۰۰۰ بار هم با توجه به تعداد دفعات استفاده از این تکنولوژی در روز، جمع میشود و مقدار زیادی خطا ایجاد میکند.
هرچه این مدلها دقیقتر شوند، گارد خود را پایینتر خواهیم آورد. مطالعات نشان میدهند که هرچه چتباتها بهتر شوند، مردم با احتمال کمتری متوجه خطای مدل ها و توهم هوش مصنوعی می شوند.
شاید بهترین راهحل برای توهمات، مدیریت انتظارات ما از این ابزارها باشد. زمانی که وکیلی که از ChatGPT برای تولید اسناد جعلی استفاده کرده بود، از او خواسته شد توضیح دهد، او به اندازه هر کس دیگری از آنچه اتفاق افتاده بود شگفتزده بود.
او به قاضی گفت:« من در مورد این سایت جدید شنیده بودم و به اشتباه فکر کردم که مثل یک موتور جستجوی فوقالعاده است. نمیدانستم که ChatGPT میتواند مواردی را جعل کند.»