مقالات علمی-تحلیلی

چرا توهم هوش مصنوعی ذاتی است؟

تمایل به ساختن اطلاعات نادرست، چت‌بات‌ها را محدود می‌کند. اما توهم هوش مصنوعی ، واقعیت چت بات ها است.

چت‌بات جدید سازمان بهداشت جهانی (WHO) در تاریخ ۲ آوریل با بهترین نیت‌ها آغاز به کار کرد. این آواتار مجازی نوپا که توسط GPT-3.5 پشتیبانی می‌شود و به نام سارا (Smart AI Resource Assistant for Health) شناخته می‌شود، به میلیون‌ها نفر در سراسر جهان به صورت ۲۴ ساعته و در هشت زبان مختلف، راهنمایی‌های بهداشتی در مورد تغذیه صحیح، ترک سیگار، کاهش استرس و غیره ارائه می‌دهد.

اما مانند تمام چت‌بات‌ها، سارا نیز ممکن است پاسخ‌های اشتباهی بدهد و دچار توهم هوش مصنوعی شود. به سرعت مشخص شد که این چت بات اطلاعات نادرستی ارائه می‌دهد. در یک مورد، فهرستی از نام‌ها و آدرس‌های جعلی برای کلینیک‌های سان فرانسیسکو ارائه کرد. سازمان بهداشت جهانی در وب‌سایت خود هشدار می‌دهد که سارا همیشه ممکن است دقیق نباشد.

چت‌بات‌های ناکام حالا به یک شوخی آشنا تبدیل شده‌اند. چت‌بات علمی متا با نام گالاکتیکا مقالات علمی ساختگی ایجاد کرد و مقالات ویکی در مورد تاریخ حضور خرس‌ها در فضا تولید کرد.

در فوریه، شرکت هواپیمایی کانادا مجبور شد سیاست بازپرداختی را که توسط چت‌بات خدمات مشتریانش ابداع شده بود، رعایت کند. سال گذشته، یک وکیل به دلیل ارائه مدارک دادگاهی پر از نظرات قضایی و استنادات قانونی جعلی که توسط ChatGPT ساخته شده بودند، جریمه شد.

مشکل اینجاست که مدل‌های زبانی بزرگ به قدری در کار خود خوب هستند که آنچه می‌سازند اغلب درست به نظر می‌رسد. و این امر اعتماد به آن‌ها را دشوار می‌کند.

این تمایل به ساختن اطلاعات که بعضا به عنوان توهم شناخته می‌شود، یکی از بزرگ‌ترین موانع بر سر راه گسترش استفاده از چت‌بات‌ها است. چرا این اتفاق می‌افتد؟ و چرا نمی‌توانیم آن را رفع کنیم؟

توپ 8 جادویی

برای درک اینکه چرا مدل‌های زبانی بزرگ دچار توهم می‌شوند، باید نگاهی به نحوه کار آن‌ها بیاندازیم. اولین نکته‌ای که باید به آن توجه کرد این است که ساختن اطلاعات بخشی از طراحی این مدل‌هاست. وقتی شما از یک چت‌بات سوالی می‌پرسید، پاسخ آن از مدل زبانی بزرگی که پایه آن است استخراج می‌شود. اما این فرآیند شبیه جستجو در یک پایگاه داده یا استفاده از یک موتور جستجوی وب نیست.

وقتی به درون یک مدل زبانی بزرگ نگاه کنیم، اطلاعات از قبل آماده برای بازیابی نمی‌بینیم. در عوض، میلیاردها عدد را مشاهده خواهیم کرد. این اعداد برای محاسبه پاسخ‌ها از هیچ استفاده می‌شود و دنباله‌های جدید از کلمات را به صورت خودکار تولید می‌کند.

بخش بزرگی از متنی که یک مدل زبانی بزرگ تولید می‌کند، طوری به نظر می‌رسد که انگار از یک پایگاه داده یا صفحه وب واقعی کپی شده است. اما همانند بیشتر آثار داستانی، شباهت‌ها تصادفی هستند. یک مدل زبانی بزرگ بیشتر شبیه به یک توپ جادویی بی‌نهایت است تا یک دانشنامه.

مدل‌های زبانی بزرگ متن را با پیش‌بینی کلمه بعدی در یک دنباله تولید می‌کنند. اگر مدلی عبارت the cat sat (گربه نشست) را ببیند، ممکن است on (روی) را حدس بزند. این دنباله جدید به مدل بازگردانده می‌شود که ممکن است اکنون the را حدس بزند. دوباره این روند تکرار می‌شود و ممکن است mat (زیرانداز) را حدس بزند—و به همین ترتیب.

این یک ترفند می‌تواند هر نوع متنی که به ذهن شما می‌رسد تولید کند، از لیست‌های آمازون گرفته تا ها‌ی‌کو، داستان‌های طرفداران، کدهای کامپیوتری، مقالات مجله و خیلی چیزهای دیگر. همانطور که آندری کارپاتی، دانشمند رایانه و یکی از بنیان‌گذاران OpenAI، می‌گوید:« مدل‌های زبانی بزرگ یاد می‌گیرند که اسناد اینترنتی را در رویاهایشان ببینند.»

می‌توانید میلیاردها عدد درون یک مدل زبانی بزرگ را به عنوان یک فایل اکسل عظیم تصور کنید که احتمال آماری ظاهر شدن کلمات خاص در کنار کلمات دیگر را ثبت می‌کند. مقادیر در این صفحه گسترده هنگام آموزش مدل تعیین می‌شوند. فرآیندی که این مقادیر را بارها و بارها تنظیم می‌کند تا حدسیات مدل منعکس‌کننده الگوهای زبانی موجود در ترابایت‌ها متن گرفته‌شده از اینترنت باشد.

برای حدس زدن یک کلمه، مدل به سادگی اعداد خود را اجرا می‌کند. برای هر کلمه در واژگان خود یک امتیاز محاسبه می‌کند که نشان می‌دهد آن کلمه چقدر محتمل است که در دنباله حاضر بعدی باشد. کلمه‌ای که بهترین امتیاز را دارد، انتخاب می‌شود. به طور خلاصه، مدل‌های زبانی بزرگ مانند ماشین‌های بخت آزمایی آماری هستند. دسته را بکشید و یک کلمه بیرون می‌آید.

همه چیز تماماً توهم هوش مصنوعی است

نتیجه؟ همه چیز تماماً توهم هوش مصنوعی است. اما ما فقط وقتی آن را این‌گونه می‌نامیم که متوجه اشتباهش شویم. مشکل اینجاست که مدل‌های زبانی بزرگ به قدری در کار خود خوب هستند که آنچه می‌سازند اغلب درست به نظر می‌رسد. و این امر اعتماد به آن‌ها را دشوار می‌کند.

آیا می‌توانیم تولیدات مدل‌های زبانی بزرگ را کنترل کنیم تا متنی که تولید می‌کنند حتماً دقیق باشد؟ این مدل‌ها بیش از حد پیچیده هستند تا اعدادشان با دست دستکاری شوند. اما بعضی محققان معتقدند که آموزش آن‌ها با متن‌های بیشتر می‌تواند به کاهش نرخ خطای آن‌ها ادامه دهد. این روندی است که با بزرگ‌تر و بهتر شدن مدل‌های زبانی بزرگ مشاهده کرده‌ایم.

رویکرد دیگری که استفاده می‌شود این است که از مدل‌ها بخواهیم کار خود را همان‌طور که پیش می‌روند بررسی کنند، به‌صورتی که پاسخ‌ها را مرحله به مرحله تحلیل کنند. این روش به عنوان پرومتینگ زنجیره‌ای از افکار (chain-of-thought prompting) شناخته می‌شود. این روش نیز نشان داده که دقت خروجی یک چت‌بات را افزایش می‌دهد.

مدل‌های زبانی بزرگ آینده ممکن است بتوانند متنی که تولید می‌کنند را بررسی کنند و حتی زمانی که می‌خواهند از مسیر خارج شوند، به عقب برگردند. هرچند این امکان فعلاً وجود ندارد.

اما هیچ‌کدام از این تکنیک‌ها نمی‌توانند به طور کامل توهم هوش مصنوعی  را متوقف کنند. تا زمانی که مدل‌های زبانی بزرگ احتمالی باشند، همیشه عنصری از شانس در تولیدات آن‌ها وجود دارد. اگر ۱۰۰ تاس را بیندازید، یک الگو به دست خواهید آورد. اگر دوباره آن‌ها را بیندازید، الگوی دیگری خواهید داشت.

حتی اگر تاس‌ها مثل مدل‌های زبانی بزرگ، به گونه‌ای طراحی شده باشند که برخی الگوها را خیلی بیشتر از حالت‌های دیگر تولید کنند، نتایج هر بار یکسان نخواهند بود. حتی یک خطا در هر ۱۰۰۰ یا ۱۰۰,۰۰۰ بار هم با توجه به تعداد دفعات استفاده از این تکنولوژی در روز، جمع می‌شود و مقدار زیادی خطا ایجاد می‌کند.

هرچه این مدل‌ها دقیق‌تر شوند، گارد خود را پایین‌تر خواهیم آورد. مطالعات نشان می‌دهند که هرچه چت‌بات‌ها بهتر شوند، مردم با احتمال کمتری متوجه خطای مدل ها و توهم هوش مصنوعی می شوند.

شاید بهترین راه‌حل برای توهمات، مدیریت انتظارات ما از این ابزارها باشد. زمانی که وکیلی که از ChatGPT برای تولید اسناد جعلی استفاده کرده بود، از او خواسته شد توضیح دهد، او به اندازه هر کس دیگری از آنچه اتفاق افتاده بود شگفت‌زده بود.

او به قاضی گفت:« من در مورد این سایت جدید شنیده بودم و به اشتباه فکر کردم که مثل یک موتور جستجوی فوق‌العاده است. نمی‌دانستم که ChatGPT می‌تواند مواردی را جعل کند.»

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *