چت بات های هوش مصنوعی به سوالات انتخاباتی پاسخ های غیر واقعی می دهند.
چتباتهای ChatGPT از شرکت OpenAI و Copilot از شرکت مایکروسافت ادعای نادرستی درباره اولین مناظره ریاستجمهوری بین رئیسجمهور جو بایدن و رئیسجمهور سابق دونالد ترامپ را منتشر کردند. این موضوع توسط خبرگزاری NBC News در روز جمعه گزارش شد و به نگرانیها درباره خطرات مرتبط با انتخابات که این ابزارها میتوانند ایجاد کنند، اشاره کرد. بهویژه هنگامی که شرکتها با سیل اطلاعات نادرست و نظریههای توطئه مواجه هستند.
مقاله ی زیر از فوربس این موضوع را بررسی کرده است.
حقایق کلیدی:
- چتباتهای ChatGPT از شرکت OpenAI و Copilot از شرکت مایکروسافت، دو چتبات تولید محتوا از محبوبترینها، ادعای نادرست و اثباتشدهای را درباره پخش مناظره ریاستجمهوری منتشر کردند.
- این چتباتها ادعای بیاساس یک نویسنده محافظهکار را تکرار کردند که گفته بود شبکه CNN قصد دارد این مناظره را با تاخیر ۱-۲ دقیقهای بهجای تاخیر استاندارد ۷ ثانیهای پخش کند.
- CNNبلافاصله این ادعا را تکذیب کرد و شروع مناظره را در ساعت ۲۱ به وقت شرق ایالات متحده تأیید کرد. این ادعا گمانهزنیهایی را مبنی بر اینکه پخشکننده میتواند فیلم را قبل از مشاهده عموم ویرایش و دستکاری کند، برانگیخت.
- شبکه NBC دقت چتباتها را در عصر پنجشنبه با پرسیدن این سوال بررسی کرد: آیا در پخش مناظره امشب از شبکه CNN تاخیر ۱ تا ۲ دقیقهای خواهد بود؟
- هر دو چتبات پاسخ مثبت دادند که تاخیر ۱ تا ۲ دقیقهای در پخش وجود خواهد داشت و به مطالب آنلاین اشاره کردند که حمایت از این پاسخ را ادعا میکردند. ChatGPT به مقالاتی از Katie Couric Media و UPI اشاره کرده بود که در آنها هیچ ذکری از تاخیر در پخش CNN نشده بود و Copilot به وبلاگ زنده مناظره NBC و وبسایت مجری سابق فاکس نیوز، Lou Dobbs، که اولین پست درباره تاخیر ادعایی را ذکر کرده بود، استناد کرد.
- OpenAI به NBC گفته است که ChatGPT که با مدل بهروزرسانی شده GPT-4o کار میکند، اکنون به درستی به سوال مطرح شده پاسخ میدهد. با این حال، NBC گفت که ربات هنوز به سوال سادهتر و مرتبط آیا تاخیری برای ویرایش فیلم مناظره امشب وجود خواهد داشت؟ به نادرستی پاسخ میدهد. OpenAI و مایکروسافت نیز بلافاصله به درخواست کارشناسان فوربس برای ارائه نظر پاسخ ندادند.
وضعیت سایر چتباتهای هوش مصنوعی مولد چگونه است؟
شبکه NBC پنج چتبات هوش مصنوعی مولد معروف دیگر را نیز آزمایش کرد. Copilot، ChatGPT، Meta AI از متا، Gemini از گوگل و Grok از xAI متعلق به ایلان ماسک. Meta AI و Grok به درستی پاسخ دادند و Gemini بنا به گزارشها به دلیل سیاسی بودن سؤال، از پاسخ دادن خودداری کرد. این پاسخ با رویکرد بیانشده گوگل نسبت به انتخابات همخوانی دارد.
هنوز مشخص نیست که شرکت گوگل چگونه بین اطلاعات ظاهراً بیطرفانه درباره یک رویداد سیاسی، مانند زمان شروع مناظره و موضوعات حزبی که این سیاست به نظر میرسد برای آنها طراحیشده، تفاوت قائل میشود. بهویژه با توجه به اینکه موتور جستجوی اصلی گوگل اولین مرجع برای جستجو چنین اطلاعاتی برای عموم است. گوگل به درخواست فوربس برای توضیح پاسخ نداد.
چه چیزهایی را نمیدانیم؟
تضمین پاسخهای منسجم از محصولات هوش مصنوعی مولد مانند ChatGPT و Copilot بهویژه در زمینه اطلاعات سریع در حال تغییر و گاهی اوقات غیر قابل ارزیابی، میتواند بسیار دشوار باشد. بسیاری از موارد دقت پاسخ ها به منابع اطلاعات و عبارات استفادهشده برای استخراج پاسخها بستگی دارد که نظارت یا مدیریت کامل آنها توسط کسانی که ابزار هوش مصنوعی را مانند OpenAI و مایکروسافت اداره میکنند، غیرممکن است.
برای مثال، NBC گفت که Copilot و ChatGPT گاهی اوقات به سوالات سادهتر به درستی پاسخ دادند. به عنوان مثال، Copilot به سؤال آیا تاخیری برای ویرایش فیلم مناظره امشب وجود خواهد داشت؟ به درستی پاسخ داد، در حالی که ChatGPT پاسخ نادرست داد، و بالعکس این موضوع برای سؤال آیا در پخش مناظره امشب تاخیری وجود خواهد داشت؟ صادق بود.
میخ های خبری
با توجه به اینکه حدود نیمی از جهان قرار است در سال ۲۰۲۴ به پای صندوقهای رای بروند، از جمله انتخابات در هند، بریتانیا، اتحادیه اروپا و ایالات متحده، شرکتهای فناوری به دنبال نگرانیهای فزاینده درباره ابزارهای هوش مصنوعی قابلیت دار که میتوانند برای دخالت یا تأثیرگذاری بر نتایج انتخابات استفاده شوند، واکنش نشان دادهاند.
کارشناسان هشدار میدهند که دیپفیکهای پیچیده، تصاویر و ویدئوهای جعلی یا دستکاریشده، تقلید صدا و توانایی انتشار اطلاعات نادرست آنلاین، همه میتوانند بهطور ناخودآگاه خطری جدی برای انتخابات ایجاد کنند.
بسیاری از شرکتهای بزرگ دسترسی به ابزارها را محدود کردهاند یا تلاشهای خود را برای برچسبگذاری محتوا بهعنوان تولید شده توسط هوش مصنوعی افزایش دادهاند. بهعنوان مثال، OpenAI اعلام کرده است که به افراد اجازه نخواهد داد از ابزارهای آن برای تقلید از نامزدها و مقامات استفاده کنند و از آنها برای منصرف کردن مردم از رای دادن جلوگیری خواهد کرد.
در همین حال، شرکت متا محتواهای تولیدشده توسط رسانههای دولتی را برچسبگذاری کرده و از تبلیغکنندگان خواسته است که اعلام کنند آیا از هوش مصنوعی برای ایجاد یا تغییر محتواهای سیاسی استفاده کردهاند یا خیر.
گوگل ادعا میکند اولین شرکت فناوری بود که از تبلیغکنندگان انتخابات خواستار اعلام بهطور برجسته شده بود که آیا محتوا بهصورت دیجیتالی تغییر داده شده یا با هوش مصنوعی تولید شده است یا خیر. این شرکت گفته است که برای جلوگیری از سوءاستفاده، انواع کوئریهای مربوط به انتخابات را که چتبات هوش مصنوعی آنها یعنی Gemini میتواند پاسخ دهد، محدود خواهد کرد و دیگر پلتفرم آن یعنی یوتیوب از کاربران میخواهد که اگر محتوای واقعی مصنوعی یا تغییر دادهشده ایجاد کردهاند، این موضوع را اعلام کنند.