نتایج عجیب هوش مصنوعی گوگل: از چسب ریختن در پیتزا تا منافع قربانی کردن انسان ها
بالاخره گوگل نتایج جستجوی مبتنی بر هوش مصنوعی خود را به صورت عمومی عرضه کرد. گوگل به دنبال تغییر چهره ی اینترنت با استفاده از مدل های زبانی است. اما با توجه به نتایج عجیب هوش مصنوعی گوگل، این شرکت در مرحله اول این کار با شکست جدی همراه شده است.
مشابه سایر مدلهای زبانی، کاربران با نتایج عجیب هوش مصنوعی گوگل مواجه شدند. به عنوان مثال، برخی از پاسخ های بسیار نادرست این سیستم اینگونه هستند: بله، یک سگ در لیگ ملی هاکی (NHL) بازی کرده است، دویدن با قیچی مزایای سلامتی دارد و ۱۷ رئیسجمهور ایالاتمتحده در دانشگاه ویسکانسین تحصیل کردهاند.
اما خندهدارترین پاسخ تجربه یک کاربر در توییتر بود: «اگر از گوگل درباره نچسبیدن پنیر به پیتزا بپرسید، هوش مصنوعی یک پاسخ بسیار مفید در چنته دارد: افزودن چسب به پنیر پیتزا!»
خطر جدی ارائه نتایج عجیب هوش مصنوعی گوگل
باور نمیکنید که گوگل برای کاربرانی که از قابلیت جدید آن استفاده می کنند، چطور دیده می شود. اوایل این ماه، جایی که غالب جستجوهای اینترنتی در آن انجام می شود یک تغییر اساسی را تجربه کرد. برای بسیاری از پرسشها گوگل پاسخهای مبتنی بر هوش مصنوعی را بالاتر از نتایج واقعی جستجو قرار داد.
در حالی که این مسئله برای ناشرانی که برای ادامه کسب و کار خود به کلیکهای مردم بر روی سایتهایشان وابستهاند، خبر خوبی نیست، با نتایج عجیب هوش مصنوعی گوگل خبر بدتری برای کاربران محسوب میشود.
هنگامی که مرور کلی هوش مصنوعی گوگل (که قبلاً به نام Google SGE شناخته میشد) در نسخه بتا بود، برخی از منتقدین آن را به آش شله قلمکار سرقت ادبی تشبیه کردند. چرا که گاهی کلمه به کلمه، محتوا را از سایتهای مختلف کپی کرده و به گونهای ترکیب میکند که اغلب بیمعنا هستند. اکنون این قابلیت برای تمام کاربران در ایالات متحده فعال شده است، این ترکیب بی معنا به شدت سمی شده است: پر از اطلاعات غلط خطرناک، اشتباهات خندهدار یا سوگیری های آشکار.
این پاسخهای وحشتناک، مشکلات ذاتی تصمیم گوگل را برای منابع اطلاعاتی آموزش مدل زبانی خود بر اساس تمام محتوای اینترنت، آن هم بدون اولویت دادن به منابع معتبر نسبت به غیر معتبر، برجسته می کند. تصمیمی که نهایتا به نتایج عجیب هوش مصنوعی گوگل منتهی شده.
هوش مصنوعی گوگل هنگام راهنمایی کاربران در مورد اینکه به چه فکری کنند یا چه کاری انجام دهند، به توصیههای کاربران ناشناس ردیت (یک فاروم بزرگ، مشابه نی نی سایت) همان وزنی را میدهد که صفحات رسمی از سازمانهای دولتی (مثلا وزارت بهداشت)، انتشارات تخصصی یا پزشکان، تاریخنگاران، آشپزها، تکنسینها و غیره دارند.
هوش مصنوعی گوگل دیدگاههای توهینآمیز یا نامناسب را به همان اندازه دیدگاههای متعارف نمایش میدهد. بنابراین یک خبرنگار که معتقد است جنگ هستهای برای جامعه مفید است، به خوبی دیده میشود و یک پزشک که توصیه میکند چرک بینی خود را بخورید، نظر پزشکی خود را با صدای بلندتر اعلام میکند.
اگر این اطلاعات نادرست یا بحثبرانگیز فقط در وبسایتهای دیگری ظاهر شوند که گوگل در نتایج جستجوی خود نمایش میدهد، این ایدهها فقط نظرات نویسندگان خود هستند و گوگل تنها نقش یک کتابدار را بازی میکند. اما بخش مرور کلی هوش مصنوعی به عنوان صدای گوگل که مستقیماً با کاربر صحبت میکند ارائه میشود.
این قابلیت از تمام اعتمادی که کاربران در طول ۲۵ سال به این شرکت داشتهاند بهره میبرد. فرض کنید اگر با گوگل تماس بگیرید و یک کارمند انسانی به شما این پاسخها را بدهد، آیا شغل خود را حفظ خواهد کرد؟ در این ماجرا کار تا آنجا بیخ پیدا کرد که گوگل به دنبال حذف نتایج عجیب به صورت تک به تک است. یعنی دست به دامن همان کارمندهای انسانی خواهد شد.
لیستی از نتایج عجیب هوش مصنوعی گوگل
در ادامه برخی از بدترین نتایج گوگل را آورده ایم. زحمت جمع آوری این نتایج را سایت TomsHardware کشیده است. توجه کنید نتایج نسبتا عجیب، در تمام مدل های زبانی بزرگ قابل مشاهده خواهند بود. لازم است در هنگام استفاده از این مدل ها، حتما نتایج را شخصا بررسی کنید.
در پیتزا چسب بریزید!
یکی از عجیب ترین پاسخ های گوگل، دستور ریختن چسب در پنیر پیتزا بود. دستوری که در تبلیغات تلویزیونی به تصاویر جذاب پنیر پیتزا منتهی می شود. اما در واقعیت یک محصول سمی را تحویل می دهد. آش این پاسخ آنقدر شور شد که خبرنگار بیزنس اینسایدر دستورالعمل گوگل را درست کرده و امتحان کرد.
این پاسخ که در واقع یک پست قدیمی از رددیت بود. نکتهی عجیب این است که گوگل این نتیجه را بسیار جلوتر از نتایج جدی از سایت های آشپزی معتبر قرار داده است.
درمان آپاندیس در خانه
یکی از نتایج بسیار بد دیگر، درمان آپاندیسیت بود. به طور کلی، آپاندیسیت یک وضعیت بسیار خطرناک ولی قابل حل در آپاندیس است. در صورتی که علائم مختلف آن را مشاهده کردید، حتما در اسرع وقت به پزشک مراجعه کنید. اما پاسخ گوگل در این مورد، خوردن نعنا، آب سبزیجات و رژیم غذایی با فیبر بالا بود!
خوردن روزانه یک سنگ!
گوگل در پاسخ به سوال روزانه چند سنگ باید بخورم؟ گفته بود:« هر روز حداقل یک سنگ کوچک باید بخورید.»
این پاسخ که درواقع از یک مقاله از ResFrac که یک شوخی را از سایت طنز Onion منتشر کرده است، یک شوخی با متخصصان استخراج نفت است. اما گوگل به عنوان یک پاسخ جدی آن را عرضه کرده است. در اینجا هوش مصنوعی گوگل متوجه تفاوت معنای Consume به عنوان مصرف کردن برای یک کار و خوردن یک خوراکی نشده است.
منافع جنگ هستهای و قربانی کردن انسان ها
یکی از عجیب ترین نتایج هوش مصنوعی گوگل، ارائه نتایجی برای پرسش منافع اجتماعی جنگ هسته ای بود. این نتایج را گوگل از یک مقاله هجو از گاردین برداشته بود.
تغییرات جدی اینترنت
مدل های زبانی بزرگ قابلیت اجرای تغییرات بسیار جدی در اینترنت را دارند. تا کنون اینترنت به صورت صفحه ی موتور جستجو برای کاربران تعریف شده بود. اما اندک اندک، این صفحه به نتیجه ی یک مدل زبانی بزرگ تغییر خواهد کرد. بینگ هم اکنون با استفاده از ChatGPT این کار را انجام می دهد.
استفاده از این مدل ها نیازمند مراقبت فراوان در نتایج و وظایف مدل ها است. هر شرکت به طریقی این کار را انجام می دهد. برای مثال OpenAI با کنترل داده هایی که برای آموزش مدل های خود استفاده می کند، در کنار فیلترهای جدی این کار را انجام داده است. با این حال همچنان مشکل فوق در مدل های گوگل وجود دارد.
اجرای تغییرات فوق بدون در نظر گرفتن خطاهای این مدلها، می تواند نتایج فاجعه باری مثل مثال های فوق را ناشی شود. هم اکنون تمام مدل های زبانی از این دست مشکلات رنج می برند. با این حال با توسعه بیشتر این مدل ها، این دست از مشکلات نیز کمرنگ خواهند شد و اینترنت چهره ی دیگری خواهد یافت.