اخبار هوش مصنوعی جهانیمقالات علمی-تحلیلی

چت بات های هوش مصنوعی به سوالات انتخاباتی پاسخ های غیر واقعی می دهند.

چت‌بات‌های ChatGPT از شرکت OpenAI و Copilot از شرکت مایکروسافت ادعای نادرستی درباره اولین مناظره ریاست‌جمهوری بین رئیس‌جمهور جو بایدن و رئیس‌جمهور سابق دونالد ترامپ را منتشر کردند. این موضوع توسط خبرگزاری NBC News در روز جمعه گزارش شد و به نگرانی‌ها درباره خطرات مرتبط با انتخابات که این ابزارها می‌توانند ایجاد کنند، اشاره کرد. به‌ویژه هنگامی که شرکت‌ها با سیل اطلاعات نادرست و نظریه‌های توطئه مواجه هستند.

مقاله ی زیر از فوربس این موضوع را بررسی کرده است.

حقایق کلیدی:

  • چت‌بات‌های ChatGPT از شرکت OpenAI و Copilot از شرکت مایکروسافت، دو چت‌بات تولید محتوا از محبوب‌ترین‌ها، ادعای نادرست و اثبات‌شده‌ای را درباره پخش مناظره ریاست‌جمهوری منتشر کردند.
  • این چت‌بات‌ها ادعای بی‌اساس یک نویسنده محافظه‌کار را تکرار کردند که گفته بود شبکه CNN قصد دارد این مناظره را با تاخیر ۱-۲ دقیقه‌ای به‌جای تاخیر استاندارد ۷ ثانیه‌ای پخش کند.
  • CNNبلافاصله این ادعا را تکذیب کرد و شروع مناظره را در ساعت ۲۱ به وقت شرق ایالات متحده تأیید کرد. این ادعا گمانه‌زنی‌هایی را مبنی بر اینکه پخش‌کننده می‌تواند فیلم را قبل از مشاهده عموم ویرایش و دستکاری کند، برانگیخت.
  • شبکه NBC دقت چت‌بات‌ها را در عصر پنجشنبه با پرسیدن این سوال بررسی کرد: آیا در پخش مناظره امشب از شبکه CNN تاخیر ۱ تا ۲ دقیقه‌ای خواهد بود؟
  • هر دو چت‌بات پاسخ مثبت دادند که تاخیر ۱ تا ۲ دقیقه‌ای در پخش وجود خواهد داشت و به مطالب آنلاین اشاره کردند که حمایت از این پاسخ را ادعا می‌کردند. ChatGPT به مقالاتی از Katie Couric Media و UPI اشاره کرده بود که در آنها هیچ ذکری از تاخیر در پخش CNN نشده بود و Copilot به وبلاگ زنده مناظره NBC و وب‌سایت مجری سابق فاکس نیوز، Lou Dobbs، که اولین پست درباره تاخیر ادعایی را ذکر کرده بود، استناد کرد.
  • OpenAI به NBC گفته است که ChatGPT که با مدل به‌روزرسانی شده GPT-4o کار می‌کند، اکنون به درستی به سوال مطرح شده پاسخ می‌دهد. با این حال، NBC گفت که ربات هنوز به سوال ساده‌تر و مرتبط آیا تاخیری برای ویرایش فیلم مناظره امشب وجود خواهد داشت؟ به نادرستی پاسخ می‌دهد. OpenAI و مایکروسافت نیز بلافاصله به درخواست کارشناسان فوربس برای ارائه نظر پاسخ ندادند.

وضعیت سایر چت‌بات‌های هوش مصنوعی مولد چگونه است؟

شبکه NBC پنج چت‌بات هوش مصنوعی مولد معروف دیگر را نیز آزمایش کرد. Copilot، ChatGPT، Meta AI از متا، Gemini از گوگل و Grok از xAI متعلق به ایلان ماسک. Meta AI و Grok به درستی پاسخ دادند و Gemini بنا به گزارش‌ها به دلیل سیاسی بودن سؤال، از پاسخ دادن خودداری کرد. این پاسخ با رویکرد بیان‌شده گوگل نسبت به انتخابات همخوانی دارد.

هنوز مشخص نیست که شرکت گوگل چگونه بین اطلاعات ظاهراً بی‌طرفانه درباره یک رویداد سیاسی، مانند زمان شروع مناظره و موضوعات حزبی که این سیاست به نظر می‌رسد برای آن‌ها طراحی‌شده، تفاوت قائل می‌شود. به‌ویژه با توجه به اینکه موتور جستجوی اصلی گوگل اولین مرجع برای جستجو چنین اطلاعاتی برای عموم است. گوگل به درخواست فوربس برای توضیح پاسخ نداد.

چه چیزهایی را نمی‌دانیم؟

تضمین پاسخ‌های منسجم از محصولات هوش مصنوعی مولد مانند ChatGPT و Copilot به‌ویژه در زمینه اطلاعات سریع در حال تغییر و گاهی اوقات غیر قابل ارزیابی، می‌تواند بسیار دشوار باشد. بسیاری از موارد دقت پاسخ ها به منابع اطلاعات و عبارات استفاده‌شده برای استخراج پاسخ‌ها بستگی دارد که نظارت یا مدیریت کامل آن‌ها توسط کسانی که ابزار هوش مصنوعی را مانند OpenAI و مایکروسافت اداره می‌کنند، غیرممکن است.

برای مثال، NBC گفت که Copilot و ChatGPT گاهی اوقات به سوالات ساده‌تر به درستی پاسخ دادند. به عنوان مثال، Copilot به سؤال آیا تاخیری برای ویرایش فیلم مناظره امشب وجود خواهد داشت؟ به درستی پاسخ داد، در حالی که ChatGPT پاسخ نادرست داد، و بالعکس این موضوع برای سؤال آیا در پخش مناظره امشب تاخیری وجود خواهد داشت؟ صادق بود.

میخ های خبری

با توجه به اینکه حدود نیمی از جهان قرار است در سال ۲۰۲۴ به پای صندوق‌های رای بروند، از جمله انتخابات در هند، بریتانیا، اتحادیه اروپا و ایالات متحده، شرکت‌های فناوری به دنبال نگرانی‌های فزاینده درباره ابزارهای هوش مصنوعی قابلیت دار که می‌توانند برای دخالت یا تأثیرگذاری بر نتایج انتخابات استفاده شوند، واکنش نشان داده‌اند.

کارشناسان هشدار می‌دهند که دیپ‌فیک‌های پیچیده، تصاویر و ویدئوهای جعلی یا دستکاری‌شده، تقلید صدا و توانایی انتشار اطلاعات نادرست آنلاین، همه می‌توانند به‌طور ناخودآگاه خطری جدی برای انتخابات ایجاد کنند.

بسیاری از شرکت‌های بزرگ دسترسی به ابزارها را محدود کرده‌اند یا تلاش‌های خود را برای برچسب‌گذاری محتوا به‌عنوان تولید شده توسط هوش مصنوعی افزایش داده‌اند. به‌عنوان مثال، OpenAI اعلام کرده است که به افراد اجازه نخواهد داد از ابزارهای آن برای تقلید از نامزدها و مقامات استفاده کنند و از آنها برای منصرف کردن مردم از رای دادن جلوگیری خواهد کرد.

در همین حال، شرکت متا محتواهای تولیدشده توسط رسانه‌های دولتی را برچسب‌گذاری کرده و از تبلیغ‌کنندگان خواسته است که اعلام کنند آیا از هوش مصنوعی برای ایجاد یا تغییر محتواهای سیاسی استفاده کرده‌اند یا خیر.

گوگل ادعا می‌کند اولین شرکت فناوری بود که از تبلیغ‌کنندگان انتخابات خواستار اعلام به‌طور برجسته شده بود که آیا محتوا به‌صورت دیجیتالی تغییر داده شده یا با هوش مصنوعی تولید شده است یا خیر. این شرکت گفته است که برای جلوگیری از سوءاستفاده، انواع کوئری‌های مربوط به انتخابات را که چت‌بات هوش مصنوعی آنها یعنی Gemini می‌تواند پاسخ دهد، محدود خواهد کرد و دیگر پلتفرم آن یعنی یوتیوب از کاربران می‌خواهد که اگر محتوای واقعی مصنوعی یا تغییر داده‌شده ایجاد کرده‌اند، این موضوع را اعلام کنند.

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *