مقالات علمی-تحلیلی

نتایج عجیب هوش مصنوعی گوگل: از چسب ریختن در پیتزا تا منافع قربانی کردن انسان ها

بالاخره گوگل نتایج جستجوی مبتنی بر هوش مصنوعی خود را به صورت عمومی عرضه کرد. گوگل به دنبال تغییر چهره ی اینترنت با استفاده از مدل های زبانی است. اما با توجه به نتایج عجیب هوش مصنوعی گوگل، این شرکت در مرحله اول این کار با شکست جدی همراه شده است.

مشابه سایر مدلهای زبانی، کاربران با نتایج عجیب هوش مصنوعی گوگل مواجه شدند. به عنوان مثال، برخی از پاسخ های بسیار نادرست این سیستم اینگونه هستند: بله، یک سگ در لیگ ملی هاکی (NHL) بازی کرده است، دویدن با قیچی مزایای سلامتی دارد و ۱۷ رئیس‌جمهور ایالات‌متحده در دانشگاه ویسکانسین تحصیل کرده‌اند.

اما خنده‌دارترین پاسخ تجربه یک کاربر در توییتر بود: «اگر از گوگل درباره نچسبیدن پنیر به پیتزا بپرسید، هوش مصنوعی یک پاسخ بسیار مفید در چنته دارد: افزودن چسب به پنیر پیتزا!»

خطر جدی ارائه نتایج عجیب هوش مصنوعی گوگل

باور نمی‌کنید که گوگل برای کاربرانی که از قابلیت جدید آن استفاده می کنند، چطور دیده می شود. اوایل این ماه، جایی که غالب جستجوهای اینترنتی در آن انجام می شود یک تغییر اساسی را تجربه کرد. برای بسیاری از پرسش‌ها گوگل پاسخ‌های مبتنی بر هوش مصنوعی را بالاتر از نتایج واقعی جستجو قرار داد.

در حالی که این مسئله برای ناشرانی که برای ادامه کسب و کار خود به کلیک‌های مردم بر روی سایت‌هایشان وابسته‌اند، خبر خوبی نیست، با نتایج عجیب هوش مصنوعی گوگل خبر بدتری برای کاربران محسوب می‌شود.

هنگامی که مرور کلی هوش مصنوعی گوگل (که قبلاً به نام Google SGE شناخته می‌شد) در نسخه بتا بود، برخی از منتقدین آن را به آش شله قلمکار سرقت ادبی تشبیه کردند. چرا که گاهی کلمه به کلمه، محتوا را از سایت‌های مختلف کپی کرده و به گونه‌ای ترکیب می‌کند که اغلب بی‌معنا هستند. اکنون این قابلیت برای تمام کاربران در ایالات متحده فعال شده است، این ترکیب بی معنا به شدت سمی شده است: پر از اطلاعات غلط خطرناک، اشتباهات خنده‌دار یا سوگیری های آشکار.

این پاسخ‌های وحشتناک، مشکلات ذاتی تصمیم گوگل را برای منابع اطلاعاتی آموزش مدل زبانی خود بر اساس تمام محتوای اینترنت، آن هم بدون اولویت دادن به منابع معتبر نسبت به غیر معتبر، برجسته می کند. تصمیمی که نهایتا به نتایج عجیب هوش مصنوعی گوگل منتهی شده.

هوش مصنوعی گوگل هنگام راهنمایی کاربران در مورد اینکه به چه فکری کنند یا چه کاری انجام دهند، به توصیه‌های کاربران ناشناس ردیت (یک فاروم بزرگ، مشابه نی نی سایت) همان وزنی را می‌دهد که صفحات رسمی از سازمان‌های دولتی (مثلا وزارت بهداشت)، انتشارات تخصصی یا پزشکان، تاریخ‌نگاران، آشپزها، تکنسین‌ها و غیره دارند.

هوش مصنوعی گوگل دیدگاه‌های توهین‌آمیز یا نامناسب را به همان اندازه دیدگاه‌های متعارف نمایش می‌دهد. بنابراین یک خبرنگار که معتقد است جنگ هسته‌ای برای جامعه مفید است، به خوبی دیده می‌شود و یک پزشک که توصیه می‌کند چرک بینی خود را بخورید، نظر پزشکی خود را با صدای بلندتر اعلام می‌کند.

اگر این اطلاعات نادرست یا بحث‌برانگیز فقط در وب‌سایت‌های دیگری ظاهر شوند که گوگل در نتایج جستجوی خود نمایش می‌دهد، این ایده‌ها فقط نظرات نویسندگان خود هستند و گوگل تنها نقش یک کتابدار را بازی می‌کند. اما بخش مرور کلی هوش مصنوعی به عنوان صدای گوگل که مستقیماً با کاربر صحبت می‌کند ارائه می‌شود.

این قابلیت از تمام اعتمادی که کاربران در طول ۲۵ سال به این شرکت داشته‌اند بهره می‌برد. فرض کنید اگر با گوگل تماس بگیرید و یک کارمند انسانی به شما این پاسخ‌ها را بدهد، آیا شغل خود را حفظ خواهد کرد؟ در این ماجرا کار تا آنجا بیخ پیدا کرد که گوگل به دنبال حذف نتایج عجیب به صورت تک به تک است. یعنی دست به دامن همان کارمندهای انسانی خواهد شد.

لیستی از نتایج عجیب هوش مصنوعی گوگل

در ادامه برخی از بدترین نتایج گوگل را آورده ایم. زحمت جمع آوری این نتایج را سایت TomsHardware کشیده است. توجه کنید نتایج نسبتا عجیب، در تمام مدل های زبانی بزرگ قابل مشاهده خواهند بود. لازم است در هنگام استفاده از این مدل ها، حتما نتایج را شخصا بررسی کنید.

در پیتزا چسب بریزید!

یکی از عجیب ترین پاسخ های گوگل، دستور ریختن چسب در پنیر پیتزا بود. دستوری که در تبلیغات تلویزیونی به تصاویر جذاب پنیر پیتزا منتهی می شود. اما در واقعیت یک محصول سمی را تحویل می دهد. آش این پاسخ آنقدر شور شد که خبرنگار بیزنس اینسایدر دستورالعمل گوگل را درست کرده و امتحان کرد.

این پاسخ که در واقع یک پست قدیمی از رددیت بود. نکته‌ی عجیب این است که گوگل این نتیجه را بسیار جلوتر از نتایج جدی از سایت های آشپزی معتبر قرار داده است.

پاسخ عجیب هوش مصنوعی گوگل - ریختن چسب در پیتزا
پاسخ عجیب هوش مصنوعی گوگل – ریختن چسب در پیتزا

درمان آپاندیس در خانه

یکی از نتایج بسیار بد دیگر، درمان آپاندیسیت بود. به طور کلی، آپاندیسیت یک وضعیت بسیار خطرناک ولی قابل حل در آپاندیس است. در صورتی که علائم مختلف آن را مشاهده کردید، حتما در اسرع وقت به پزشک مراجعه کنید. اما پاسخ گوگل در این مورد، خوردن نعنا، آب سبزیجات و رژیم غذایی با فیبر بالا بود!

پاسخ عجیب هوش مصنوعی گوگل - درمان آپاندیسیت

خوردن روزانه یک سنگ!

گوگل در پاسخ به سوال روزانه چند سنگ باید بخورم؟ گفته بود:« هر روز حداقل یک سنگ کوچک باید بخورید.»

این پاسخ که درواقع از یک مقاله از ResFrac که یک شوخی را از سایت طنز Onion منتشر کرده است، یک شوخی با متخصصان استخراج نفت است. اما گوگل به عنوان یک پاسخ جدی آن را عرضه کرده است. در اینجا هوش مصنوعی گوگل متوجه تفاوت معنای Consume به عنوان مصرف کردن برای یک کار و خوردن یک خوراکی نشده است.

پاسخ عجیب هوش مصنوعی گوگل - خوردن روزانه یک سنگ

منافع جنگ هسته‌ای و قربانی کردن انسان ها

یکی از عجیب ترین نتایج هوش مصنوعی گوگل، ارائه نتایجی برای پرسش منافع اجتماعی جنگ هسته ای بود. این نتایج را گوگل از یک مقاله هجو از گاردین برداشته بود.

پاسخ عجیب هوش مصنوعی گوگل - منافع جنگ هسته ای

تغییرات جدی اینترنت

مدل های زبانی بزرگ قابلیت اجرای تغییرات بسیار جدی در اینترنت را دارند. تا کنون اینترنت به صورت صفحه ی موتور جستجو برای کاربران تعریف شده بود. اما اندک اندک، این صفحه به نتیجه ی یک مدل زبانی بزرگ تغییر خواهد کرد. بینگ هم اکنون با استفاده از ChatGPT این کار را انجام می دهد.

استفاده از این مدل ها نیازمند مراقبت فراوان در نتایج و وظایف مدل ها است. هر شرکت به طریقی این کار را انجام می دهد. برای مثال OpenAI با کنترل داده هایی که برای آموزش مدل های خود استفاده می کند، در کنار فیلترهای جدی این کار را انجام داده است. با این حال همچنان مشکل فوق در مدل های گوگل وجود دارد.

اجرای تغییرات فوق بدون در نظر گرفتن خطاهای این مدل‌ها، می تواند نتایج فاجعه باری مثل مثال های فوق را ناشی شود. هم اکنون تمام مدل های زبانی از این دست مشکلات رنج می برند. با این حال با توسعه بیشتر این مدل ها، این دست از مشکلات نیز کمرنگ خواهند شد و اینترنت چهره ی دیگری خواهد یافت.

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *