خطر ابزارهای هوش مصنوعی در گسترش محتوای جعلی انتخاباتی
با نزدیک شدن به انتخابات پر اهمیت در ایالات متحده و اتحادیه اروپا، ابزارهای هوش مصنوعی که به طور عمومی در دسترس هستند، به راحتی میتوانند برای تولید محتوای جعلی انتخابات در صدای رهبران سیاسی برجسته مورد استفاده قرار گیرند.
محققان در «مرکز مقابله با نفرت پراکنی دیجیتال» مستقر در واشنگتن شش ابزار محبوب تقلید صدای هوش مصنوعی را آزمایش کردند تا ببینند آیا این ابزارها میتوانند کلیپهای صوتی حاوی پنج ادعای نادرست درباره انتخابات را در صدای هشت سیاستمدار معروف آمریکایی و اروپایی تولید کنند.
شش ابزار هوش مصنوعی صوتی تولید محتوای جعلی انتخاباتی
از مجموع ۲۴۰ آزمایش، ابزارها در ۱۹۳ مورد، یعنی ۸۰ درصد مواقع، صوتهایی قانعکننده تولید کردهاند. در یکی از کلیپها، صدای جعلی از رئیسجمهور ایالات متحده جو بایدن ادعا میکند که مقامات انتخاباتی هر یک از آرای او را دو بار شمارش میکنند. در دیگری، صدای جعلی از رئیسجمهور فرانسه امانوئل مکرون به شهروندان هشدار میدهد که به دلیل تهدیدات بمبگذاری در محلهای رایگیری، رای ندهند.
این یافتهها نشاندهنده خلا قابلتوجه در تدابیر امنیتی برای جلوگیری از استفاده از صوتهای تولید شده توسط هوش مصنوعی جهت گمراه کردن رأیدهندگان است، تهدیدی که با پیشرفت و دسترسی آسانتر این فناوری، کارشناسان را نگران کرده است. در حالی که برخی از این ابزارها قوانین یا موانع فنی برای جلوگیری از تولید اطلاعات نادرست انتخاباتی دارند، محققان بسیاری از این موانع را به راحتی با روشهای سریع دور زدند.
تنها یکی از شرکتهایی که ابزارهایشان توسط محققان استفاده شد، پس از درخواستهای متعدد برای اظهار نظر پاسخ داد. شرکت ElevenLabs اعلام کرد که به طور مداوم در حال یافتن راههای جدید برای تقویت تدابیر امنیتی خود است.
با توجه به قوانین محدودی که برای جلوگیری از سوء استفاده از این ابزارها وجود دارد، فقدان خودتنظیمی شرکتها، رأیدهندگان در معرض فریبهای تولید شده توسط هوش مصنوعی قرار دارند. رأیدهندگان اتحادیه اروپا کمتر از کمی پیش برای انتخابات پارلمانی به پای صندوقهای رأی رفتند. انتخابات مقدماتی در آمریکا هماکنون در جریان است تا پیش از انتخابات ریاستجمهوری در پاییز امسال نامزدهای احزاب اصلی مشخص شوند.
عمران احمد، مدیرعامل مرکز، گفت:« استفاده از این پلتفرمها برای خلق دروغها و مجبور کردن سیاستمداران به نفی مکرر این دروغها بسیار آسان است. متأسفانه، طمع خالص شرکتهای هوش مصنوعی که برای اولین بودن در بازار تلاش میکنند، باعث می شود که انتخابات های ما به حراج گذاشته شوند. با وجود اینکه مالکان این پلتفرم ها میدانند پلتفرمهایشان امن نیستند.»
این مرکز که یک سازمان غیرانتفاعی با دفاتری در ایالات متحده، بریتانیا و بلژیک است، این تحقیق را در ماه مه انجام داد. محققان از ابزار آنلاین تحلیل وب Semrush استفاده کردند تا شش ابزار تقلید صدای هوش مصنوعی با بیشترین کاربران را شناسایی کنند: ElevenLabs، Speechify، PlayHT، Descript، Invideo AI و Veed.
سپس، کلیپهای صوتی واقعی از سخنرانی سیاستمداران را ارسال کردند. آنها ابزارها را ترغیب کردند تا صدای سیاستمداران را به گونهای تقلید کنند که پنج اظهارنظر بیپایه و اساس را بیان کنند. به این ترتیب چند سری محتوای جعلی انتخاباتی تولید کردند.
یکی از این اظهارات رایدهندگان را به خاطر تهدیدات بمبگذاری از حضور در پای صندوقهای رأی هشدار میداد. چهار اظهارنظر دیگر شامل اعترافات مختلفی بود – از دستکاری انتخابات، دروغگویی، استفاده از بودجه کمپینها برای هزینههای شخصی و مصرف داروهای قوی که باعث از دست رفتن حافظه میشود.
علاوه بر بایدن و مکرون، این ابزارها نسخههای واقعگرایانهای از صدای کامالا هریس معاون رئیسجمهور ایالات متحده، دونالد ترامپ رئیسجمهور پیشین ایالات متحده، ریشی سوناک نخستوزیر بریتانیا، کییر استارمر رهبر حزب کارگر بریتانیا، اورسولا فون در لاین رئیس کمیسیون اروپا و تیری برتون کمیسر بازار داخلی اتحادیه اروپا ایجاد کردند.
فقدان فیلترهای کافی برای محتوای جعلی
گزارش اذعان داشت:« هیچکدام از ابزارهای تقلید صدای هوش مصنوعی اقدامات ایمنی کافی برای جلوگیری از تقلید صدای سیاستمداران یا تولید اطلاعات نادرست انتخاباتی نداشتند.»
برخی از ابزارها مانند Descript، Invideo AI و Veed، از کاربران میخواهند یک نمونه صوتی منحصر به فرد قبل از تقلید صدا آپلود کنند، که این تدبیر ایمنی برای جلوگیری از تقلید صدای دیگران است. با این حال، محققان دریافتند که این مانع با استفاده از یک ابزار تقلید صدای هوش مصنوعی دیگر برای تولید نمونه منحصر به فرد، به راحتی قابل عبور بود.
یکی از ابزارها به نام Invideo AI، نه تنها اظهارات جعلی درخواستی مرکز را ایجاد کرد، بلکه آنها را گسترش داد و اطلاعات نادرست بیشتری تولید کرد.
این ابزار به صدای جعلی بایدن را به اخطار درباره تهدید بمبگذاری در پای صندوقهای رأی وادار میکرد، چند جمله دیگر نیز اضافه کرد.
در این کلیپ صوتی جعلی به صدای بایدن گفته شد:« این یک دعوت برای ترک دموکراسی نیست بلکه یک درخواست برای اطمینان از ایمنی اول است. انتخابات، جشن حقوق دموکراتیک ما، فقط به تأخیر افتاده و لغو نشده است.»
بهطور کلی، از نظر ایمنی، ابزارهای Speechify و PlayHT بدترین عملکرد را داشتند و در تمامی ۴۰ آزمون خود، صدای جعلی قابلباوری تولید کردند.
ابزار ElevenLabs بهترین عملکرد را داشت و تنها ابزاری بود که از تقلید صدای سیاستمداران بریتانیایی و آمریکایی جلوگیری کرد. و عملا با تولید محتوای جعلی انتخاباتی مخالفت کرد. با این حال، این ابزار همچنان اجازه ایجاد صدای جعلی در مورد سیاستمداران برجسته اتحادیه اروپا را داده است.
الکساندرا پدراشوسکا، رئیس بخش ایمنی هوش مصنوعی در ElevenLabs، در بیانیهای ایمیلی اظهار داشت که این شرکت از گزارش و افزایش آگاهی عمومی نسبت به سوءاستفاده از هوش مصنوعی مولد استقبال میکند.
او گفت که ElevenLabs میداند کارهای بیشتری برای انجام دادن وجود دارد و بهطور مستمر قابلیتهای حفاظتی خود را بهبود میبخشد، از جمله ویژگی مسدودکننده شرکت.
او افزود:« امیدواریم سایر پلتفرمهای هوش مصنوعی صوتی این روند را دنبال کنند و اقدامات مشابهی را بدون تأخیر اجرا کنند.»
سایر شرکتهایی که در این گزارش ذکر شدهاند، به درخواستهای ایمیلی برای اظهار نظر پاسخ ندادند.
این یافتهها در حالی منتشر میشود که کلیپهای صوتی تولید شده توسط هوش مصنوعی پیش از این در تلاش برای تأثیرگذاری بر رأیدهندگان در انتخابات سراسر جهان استفاده شدهاند.
مثال هایی از رشد چشمگیر محتوای جعلی انتخاباتی
در پاییز ۲۰۲۳ و تنها چند روز قبل از انتخابات پارلمانی اسلواکی، کلیپهای صوتی که به صدای رئیس حزب لیبرال شبیه بودند، به طور گستردهای در شبکههای اجتماعی منتشر شدند. این دیپفیکها ادعا میکردند که او درباره افزایش قیمت آبجو و تقلب در انتخابات صحبت میکند.
اوایل امسال، تماسهای خودکاری که با استفاده از هوش مصنوعی تولید شده بودند و صدای بایدن را تقلید میکردند، به رأیدهندگان انتخابات مقدماتی نیوهمپشایر میگفتند که در خانه بمانند و رأیهایشان را برای نوامبر ذخیره کنند. یک شعبدهباز اهل نیواورلئان که این فایل صوتی را برای یک مشاور سیاسی دموکرات ایجاد کرده بود، به خبرگزاری AP نشان داد که چگونه با استفاده از نرمافزار ElevenLabs آن را ساخته است.
کارشناسان میگویند صوتهای تولید شده توسط هوش مصنوعی به دلیل پیشرفت سریع تکنولوژی، تبدیل به ابزار اولیه برای عاملان بد شدهاند. تنها چند ثانیه صوت واقعی کافی است تا یک صدای جعلی و واقعگرایانه ایجاد شود.
به هر حال، اشکال دیگر رسانههای تولید شده توسط هوش مصنوعی نیز نگرانیهای کارشناسان، قانونگذاران و رهبران صنعت فناوری را برانگیخته است. OpenAI، شرکت پشت ChatGPT و دیگر ابزارهای محبوب هوش مصنوعی مولد، روز پنجشنبه اعلام کرد که پنج کمپین آنلاین را که از فناوری این شرکت برای تأثیرگذاری بر افکار عمومی در موضوعات سیاسی استفاده میکردند، شناسایی و متوقف کرده است.
احمد، مدیرعامل مرکز مقابله با نفرت دیجیتال، گفت امیدوار است که پلتفرمهای تقلید صدای هوش مصنوعی تدابیر امنیتی خود را تقویت کرده و در مورد شفافیت بیشتر پیشدستی کنند، از جمله انتشار کتابخانهای از کلیپهای صوتی که تولید کردهاند تا بتوان آنها را هنگام انتشار صوتهای مشکوک در اینترنت بررسی کرد.
او همچنین تأکید کرد که قانونگذاران نیز باید فعال شوند. کنگره ایالات متحده هنوز قانونی برای مدیریت استفاده از هوش مصنوعی در انتخابات تصویب نکرده است. در حالی که اتحادیه اروپا یک قانون گسترده هوش مصنوعی وضع کرده که قرار است در طول دو سال آینده اعمال شود، اما این قانون به طور خاص ابزارهای تقلید صدا را پوشش نمیدهد.
احمد همچنین افزود قانونگذاران باید اطمینان حاصل کنند که حداقل استانداردهایی وجود دارد. او هشدار داد که تهدید اطلاعات نادرست برای انتخابات ما فقط به پتانسیل ایجاد یک حادثه کوچک سیاسی محدود نمیشود، بلکه باعث میشود مردم به آنچه میبینند و میشنوند بیاعتماد شوند.