اخبار هوش مصنوعی جهانیمقالات علمی-تحلیلی

خطر ابزارهای هوش مصنوعی در گسترش محتوای جعلی انتخاباتی

با نزدیک شدن به انتخابات پر اهمیت در ایالات متحده و اتحادیه اروپا، ابزارهای هوش مصنوعی که به طور عمومی در دسترس هستند، به راحتی می‌توانند برای تولید محتوای جعلی انتخابات در صدای رهبران سیاسی برجسته مورد استفاده قرار گیرند.

محققان در «مرکز مقابله با نفرت پراکنی دیجیتال» مستقر در واشنگتن شش ابزار محبوب تقلید صدای هوش مصنوعی را آزمایش کردند تا ببینند آیا این ابزارها می‌توانند کلیپ‌های صوتی حاوی پنج ادعای نادرست درباره انتخابات را در صدای هشت سیاستمدار معروف آمریکایی و اروپایی تولید کنند.

شش ابزار هوش مصنوعی صوتی تولید محتوای جعلی انتخاباتی

از مجموع ۲۴۰ آزمایش، ابزارها در ۱۹۳ مورد، یعنی ۸۰ درصد مواقع، صوت‌هایی قانع‌کننده تولید کرده‌اند. در یکی از کلیپ‌ها، صدای جعلی از رئیس‌جمهور ایالات متحده جو بایدن ادعا می‌کند که مقامات انتخاباتی هر یک از آرای او را دو بار شمارش می‌کنند. در دیگری، صدای جعلی از رئیس‌جمهور فرانسه امانوئل مکرون به شهروندان هشدار می‌دهد که به دلیل تهدیدات بمب‌گذاری در محل‌های رای‌گیری، رای ندهند.

این یافته‌ها نشان‌دهنده خلا قابل‌توجه در تدابیر امنیتی برای جلوگیری از استفاده از صوت‌های تولید شده توسط هوش مصنوعی جهت گمراه کردن رأی‌دهندگان است، تهدیدی که با پیشرفت و دسترسی آسان‌تر این فناوری، کارشناسان را نگران کرده است. در حالی که برخی از این ابزارها قوانین یا موانع فنی برای جلوگیری از تولید اطلاعات نادرست انتخاباتی دارند، محققان بسیاری از این موانع را به راحتی با روش‌های سریع دور زدند.

تنها یکی از شرکت‌هایی که ابزارهایشان توسط محققان استفاده شد، پس از درخواست‌های متعدد برای اظهار نظر پاسخ داد. شرکت ElevenLabs اعلام کرد که به طور مداوم در حال یافتن راه‌های جدید برای تقویت تدابیر امنیتی خود است.

با توجه به قوانین محدودی که برای جلوگیری از سوء استفاده از این ابزارها وجود دارد، فقدان خودتنظیمی شرکت‌ها، رأی‌دهندگان در معرض فریب‌های تولید شده توسط هوش مصنوعی قرار دارند. رأی‌دهندگان اتحادیه اروپا کمتر از کمی پیش برای انتخابات پارلمانی به پای صندوق‌های رأی رفتند. انتخابات مقدماتی در آمریکا هم‌اکنون در جریان است تا پیش از انتخابات ریاست‌جمهوری در پاییز امسال نامزدهای احزاب اصلی مشخص شوند.

عمران احمد، مدیرعامل مرکز، گفت:« استفاده از این پلتفرم‌ها برای خلق دروغ‌ها و مجبور کردن سیاستمداران به نفی مکرر این دروغ‌ها بسیار آسان است. متأسفانه، طمع خالص شرکت‌های هوش مصنوعی که برای اولین بودن در بازار تلاش می‌کنند، باعث می شود که انتخابات های ما به حراج گذاشته شوند. با وجود اینکه مالکان این پلتفرم ها می‌دانند پلتفرم‌هایشان امن نیستند.»

این مرکز که یک سازمان غیرانتفاعی با دفاتری در ایالات متحده، بریتانیا و بلژیک است، این تحقیق را در ماه مه انجام داد. محققان از ابزار آنلاین تحلیل وب Semrush استفاده کردند تا شش ابزار تقلید صدای هوش مصنوعی با بیشترین کاربران را شناسایی کنند: ElevenLabs، Speechify، PlayHT، Descript، Invideo AI و Veed.

سپس، کلیپ‌های صوتی واقعی از سخنرانی سیاستمداران را ارسال کردند. آنها ابزارها را ترغیب کردند تا صدای سیاستمداران را به گونه‌ای تقلید کنند که پنج اظهارنظر بی‌پایه و اساس را بیان کنند. به این ترتیب چند سری محتوای جعلی انتخاباتی تولید کردند.

یکی از این اظهارات رای‌دهندگان را به خاطر تهدیدات بمب‌گذاری از حضور در پای صندوق‌های رأی هشدار می‌داد. چهار اظهارنظر دیگر شامل اعترافات مختلفی بود – از دستکاری انتخابات، دروغ‌گویی، استفاده از بودجه کمپین‌ها برای هزینه‌های شخصی و مصرف داروهای قوی که باعث از دست رفتن حافظه می‌شود.

علاوه بر بایدن و مکرون، این ابزارها نسخه‌های واقع‌گرایانه‌ای از صدای کامالا هریس معاون رئیس‌جمهور ایالات متحده، دونالد ترامپ رئیس‌جمهور پیشین ایالات متحده، ریشی سوناک نخست‌وزیر بریتانیا، کی‌یر استارمر رهبر حزب کارگر بریتانیا، اورسولا فون در لاین رئیس کمیسیون اروپا و تیری برتون کمیسر بازار داخلی اتحادیه اروپا ایجاد کردند.

یک ربات که با تولید محتوای جعلی انتخاباتی یک شهر را به دست گرفته است - تولید شده با هوش مصنوعی

فقدان فیلترهای کافی برای محتوای جعلی

گزارش اذعان داشت:« هیچ‌کدام از ابزارهای تقلید صدای هوش مصنوعی اقدامات ایمنی کافی برای جلوگیری از تقلید صدای سیاستمداران یا تولید اطلاعات نادرست انتخاباتی نداشتند.»

برخی از ابزارها مانند Descript، Invideo AI و Veed، از کاربران می‌خواهند یک نمونه صوتی منحصر به فرد قبل از تقلید صدا آپلود کنند، که این تدبیر ایمنی برای جلوگیری از تقلید صدای دیگران است. با این حال، محققان دریافتند که این مانع با استفاده از یک ابزار تقلید صدای هوش مصنوعی دیگر برای تولید نمونه منحصر به فرد، به راحتی قابل عبور بود.

یکی از ابزارها به نام Invideo AI، نه تنها اظهارات جعلی درخواستی مرکز را ایجاد کرد، بلکه آن‌ها را گسترش داد و اطلاعات نادرست بیشتری تولید کرد.

این ابزار به صدای جعلی بایدن را به اخطار درباره تهدید بمب‌گذاری در پای صندوق‌های رأی وادار می‌کرد، چند جمله دیگر نیز اضافه کرد.

در این کلیپ صوتی جعلی به صدای بایدن گفته شد:« این یک دعوت برای ترک دموکراسی نیست بلکه یک درخواست برای اطمینان از ایمنی اول است. انتخابات، جشن حقوق دموکراتیک ما، فقط به تأخیر افتاده و لغو نشده است.»

به‌طور کلی، از نظر ایمنی، ابزارهای Speechify و PlayHT بدترین عملکرد را داشتند و در تمامی ۴۰ آزمون خود، صدای جعلی قابل‌باوری تولید کردند.

ابزار ElevenLabs بهترین عملکرد را داشت و تنها ابزاری بود که از تقلید صدای سیاستمداران بریتانیایی و آمریکایی جلوگیری کرد. و عملا با تولید محتوای جعلی انتخاباتی مخالفت کرد. با این حال، این ابزار همچنان اجازه ایجاد صدای جعلی در مورد سیاستمداران برجسته اتحادیه اروپا را داده است.

الکساندرا پدراشوسکا، رئیس بخش ایمنی هوش مصنوعی در ElevenLabs، در بیانیه‌ای ایمیلی اظهار داشت که این شرکت از گزارش و افزایش آگاهی عمومی نسبت به سوءاستفاده از هوش مصنوعی مولد استقبال می‌کند.

او گفت که ElevenLabs می‌داند کارهای بیشتری برای انجام دادن وجود دارد و به‌طور مستمر قابلیت‌های حفاظتی خود را بهبود می‌بخشد، از جمله ویژگی مسدود‌کننده شرکت.

او افزود:« امیدواریم سایر پلتفرم‌های هوش مصنوعی صوتی این روند را دنبال کنند و اقدامات مشابهی را بدون تأخیر اجرا کنند.»

سایر شرکت‌هایی که در این گزارش ذکر شده‌اند، به درخواست‌های ایمیلی برای اظهار نظر پاسخ ندادند.

این یافته‌ها در حالی منتشر می‌شود که کلیپ‌های صوتی تولید شده توسط هوش مصنوعی پیش از این در تلاش برای تأثیرگذاری بر رأی‌دهندگان در انتخابات سراسر جهان استفاده شده‌اند.

مثال هایی از رشد چشمگیر محتوای جعلی انتخاباتی

در پاییز ۲۰۲۳ و تنها چند روز قبل از انتخابات پارلمانی اسلواکی، کلیپ‌های صوتی که به صدای رئیس حزب لیبرال شبیه بودند، به طور گسترده‌ای در شبکه‌های اجتماعی منتشر شدند. این دیپ‌فیک‌ها ادعا می‌کردند که او درباره افزایش قیمت آبجو و تقلب در انتخابات صحبت می‌کند.

اوایل امسال، تماس‌های خودکاری که با استفاده از هوش مصنوعی تولید شده بودند و صدای بایدن را تقلید می‌کردند، به رأی‌دهندگان انتخابات مقدماتی نیوهمپشایر می‌گفتند که در خانه بمانند و رأی‌هایشان را برای نوامبر ذخیره کنند. یک شعبده‌باز اهل نیواورلئان که این فایل صوتی را برای یک مشاور سیاسی دموکرات ایجاد کرده بود، به خبرگزاری AP نشان داد که چگونه با استفاده از نرم‌افزار ElevenLabs آن را ساخته است.

کارشناسان می‌گویند صوت‌های تولید شده توسط هوش مصنوعی به دلیل پیشرفت سریع تکنولوژی، تبدیل به ابزار اولیه برای عاملان بد شده‌اند. تنها چند ثانیه صوت واقعی کافی است تا یک صدای جعلی و واقع‌گرایانه ایجاد شود.

به هر حال، اشکال دیگر رسانه‌های تولید شده توسط هوش مصنوعی نیز نگرانی‌های کارشناسان، قانون‌گذاران و رهبران صنعت فناوری را برانگیخته است. OpenAI، شرکت پشت ChatGPT و دیگر ابزارهای محبوب هوش مصنوعی مولد، روز پنجشنبه اعلام کرد که پنج کمپین آنلاین را که از فناوری این شرکت برای تأثیرگذاری بر افکار عمومی در موضوعات سیاسی استفاده می‌کردند، شناسایی و متوقف کرده است.

احمد، مدیرعامل مرکز مقابله با نفرت دیجیتال، گفت امیدوار است که پلتفرم‌های تقلید صدای هوش مصنوعی تدابیر امنیتی خود را تقویت کرده و در مورد شفافیت بیشتر پیش‌دستی کنند، از جمله انتشار کتابخانه‌ای از کلیپ‌های صوتی که تولید کرده‌اند تا بتوان آنها را هنگام انتشار صوت‌های مشکوک در اینترنت بررسی کرد.

او همچنین تأکید کرد که قانون‌گذاران نیز باید فعال شوند. کنگره ایالات متحده هنوز قانونی برای مدیریت استفاده از هوش مصنوعی در انتخابات تصویب نکرده است. در حالی که اتحادیه اروپا یک قانون گسترده هوش مصنوعی وضع کرده که قرار است در طول دو سال آینده اعمال شود، اما این قانون به طور خاص ابزارهای تقلید صدا را پوشش نمی‌دهد.

احمد همچنین افزود قانون‌گذاران باید اطمینان حاصل کنند که حداقل استانداردهایی وجود دارد. او هشدار داد که تهدید اطلاعات نادرست برای انتخابات ما فقط به پتانسیل ایجاد یک حادثه کوچک سیاسی محدود نمی‌شود، بلکه باعث می‌شود مردم به آنچه می‌بینند و می‌شنوند بی‌اعتماد شوند.

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *