مقالات علمی-تحلیلی

دیپ فیک ها در انتخابات: چگونه یک فاجعه در هند رخ نداد؟

با توجه به نزدیک شدن هرچه بیشتر به انتخابات ایران، توجه ها به محتوای منتشر شده در فضای مجازی بیشتر می شود. هم اکنون انواع هوش مصنوعی توانایی تولید محتوای جعلی صوتی و ویدئویی را با کیفیت بسیار خوبی دارا هستند. انتشار گسترده دیپ فیک ها در انتخابات می تواند به یک بحران منجر شود.

انتخابات هند که کمی پیشتر برگزار شد، آماده وقوع بحران انتشار اطلاعات جعلی از طریق هوش مصنوعی بود، ولی این بحران رخ نداد. با شبکه فناوران هوش مصنوعی با این مقاله از آتلانتیک همراه باشید تا چگونگی رخ ندادن این بحران را مشاهده کنیم.

امکانات گسترده دیپ فیک ها در انتخابات

قبل از شروع انتخابات عمومی هند در آوریل، یکی از کاندیداهای برجسته که می‌خواست جای نخست‌وزیر نارندرا مودی را بگیرد، فرصتی برای کمپین تبلیغاتی برای جلب رأی‌دهندگان نداشت. او در زندان بود. آرویند کجریوال، وزیر ارشد دهلی و رهبر یک حزب سیاسی که به دلیل پلتفرم ضد فسادش مشهور است، در اواخر مارس به دلیل اتهامات فساد دستگیر شد. طرفداران او به خیابان‌ها ریختند و دستگیری او را به عنوان حرکتی سیاسی توسط مودی که هدف آن تضعیف یک رقیب بود، محکوم کردند. کجریوال همواره بی‌گناهی خود را حفظ کرده و دولت هند هر گونه قصد سیاسی در این دستگیری را رد کرده است.

کمی بعد از دستگیری، کجریوال از طرفدارانش خواست که قوی بمانند. او در یک کلیپ ۳۴ ثانیه‌ای که توسط یکی از اعضای حزبش در شبکه‌های اجتماعی منتشر شد، گفت:« برخی نیروها هستند که سعی می‌کنند کشور و دموکراسی ما را تضعیف کنند. ما باید این نیروها را شناسایی و با آن‌ها مبارزه کنیم.»

این صدای واقعی کجریوال نبود، بلکه یک کلون صدای هوش مصنوعی که پیام واقعی کجریوال را که از پشت میله‌های زندان نوشته بود، می‌خواند. چند روز بعد، طرفداران مودی به بدبختی کجریوال با انتشار واکنش خود مبتنی بر هوش مصنوعی خندیدند:« یک مونتاژ از تصاویری که در آن کجریوال در یک سلول زندان گیتار می‌نوازد و یک آهنگ غم‌انگیز هندی می‌خواند. در سبک کلاسیک هوش مصنوعی، انگشتان خراب و یک کلاژ از چهره‌های انسان در این تصاویر وجود داشت.»

در طول این دوره انتخاباتی هندی‌ها زیر بار رسانه‌های مصنوعی دیپ فیک ها در انتخاباتقرار گرفته بودند. کلون‌های صدا، ویدئوهای ساختگی قانع‌کننده از سیاستمداران مرده‌ای که کاندیداها را تأیید می‌کردند، تماس‌های تلفنی خودکار که رأی‌دهندگان را به نام خطاب می‌کردند، و آهنگ‌ها و میم‌های تولید شده توسط هوش مصنوعی که کاندیداها را تجلیل و مخالفان را تمسخر می‌کردند. اما باوجود همه نگرانی‌ها درباره اینکه چگونه هوش مصنوعی مولد و دیپ فیک ها در انتخاباتبه عنوان یک بمب اتمی آینده نزدیک که واقعیت را مختل و ترجیحات رأی‌دهندگان را تغییر خواهد داد، انتخابات هند آینده‌ی متفاوت و عجیب‌تری را پیش‌بینی می‌کند.

خطر ابزارهای هوش مصنوعی و محتوای جعلی انتخاباتی

نگرانی هند از دیپ فیک ها در انتخابات ملی

پیش از این انتخابات، هند به‌درستی نگران دیپ فیک ها در انتخابات بود. با وجود ابزارهای ارزان و در دسترس هوش مصنوعی مانند کلون‌سازی صدا که امکان ایجاد شوخی‌های سیاسی را برای تقریباً هر کسی فراهم کرده است، هند قبلاً شاهد رسوایی‌های هوش مصنوعی بوده است. به گفته کارن ربولو، معاون سردبیر نشریه فکت‌چکینگ Boom Live، در آستانه چهار انتخابات ایالتی در اواخر سال گذشته، این نشریه حدود ۱۰ دیپ‌فیک صوتی مرتبط با انتخابات را ثبت کرد. ربولو فکر می‌کرد اگر در چند انتخابات ایالتی ده‌ها دیپ‌فیک صوتی ظاهر شود، انتخابات ملی شاهد حجم بی‌سابقه‌ای خواهد بود. او گفت:«این واقعاً ترسناک بود. من فکر می‌کردم، قرار است روزی یک یا حتی هر ساعت یکی را شاهد باشیم.»

و به‌راستی دیپ فیک ها، به‌ویژه کلون‌های صوتی، در طول دوره انتخاباتی ۲۰۲۴ پدیدار شدند، از جمله پیش‌بینی‌های اشتباه نتایج انتخابات، مکالمات تلفنی شبیه‌سازی شده، و انتقادات جعلی از افراد مشهور. در اولین هفته رأی‌گیری، کلیپ‌های دیپ فیک از ستارگان بالیوود، عامر خان و رانوی سینگ که مودی را نقد می‌کردند، به سرعت وایرال شد—اتفاق بزرگی چون ستارگان سینمای هند اغلب در سیاست اظهار نظر نمی‌کنند. اما ترس‌های شدید ربولو و دیگران به وقوع نپیوست.

از مجموع ۲۵۸ فکت‌چک انتخاباتی که Boom Live انجام داد، تنها ۱۲ مورد مربوط به اطلاعات نادرست تولید شده توسط هوش مصنوعی بود. برخی دیگر تعداد بیش از ۱۲ دیپ فیک هوش مصنوعی را شمارش کردند. دیگویای سینگ، یکی از بنیان‌گذاران Contrails.ai، شرکت تشخیص دیپ فیک در هند، به من گفت که او به فکت‌چکرها کمک کرده تا کمی بیش از ۳۰ قطعه رسانه‌ای تولید شده توسط هوش مصنوعی را در آوریل و مه بررسی و رد کنند.

استفاده از ابزار تخصصی برای تشخیص دیپ فیک در انتخابات - تشخیص دیپ فیک ترامپ

ممکن است تنها یک دیپ فیک واقعاً باورپذیر برای ایجاد خشونت یا بدنام کردن یک رقیب سیاسی کافی باشد، اما ظاهراً هیچ‌یک از موارد در هند چنین تأثیری نداشته‌اند. نزدیک‌ترین وضعیتی که هند تجربه کرد، وقتی بود که ویدئویی از وزیر داخلی هند، آمیت شاه، به‌دروغ اعلام کرد که اقدام تأییدی برای طبقات پایین را لغو کرده است که منجر به دستگیری‌ها و تهدید به خشونت شد. برخی رسانه‌ها این کلیپ را به‌عنوان دیپ فیک اشتباه گزارش کردند، اما در واقع فقط ویرایش شده بود.

گاهی اوقات هم دیپ فیک ها به خاطر خود فناوری موفق نشدند. ویدئوها و تصاویر کیفیت خیلی بالایی نداشتند و کلیپ‌های صوتی، با اینکه گاهی از مرزهای دره‌ شگفتی عبور می‌کردند، توسط ابزارهای تشخیص شرکت‌هایی مانند Contrails.ai بررسی شدند. اگرچه کامل نبودند، اما می‌توانستند علائم دستکاری را شناسایی کنند. ربولو گفت:« این‌ها به‌راحتی قابل رد بودند، چون ما ابزارهای لازم را داشتیم. من می‌توانستم بلافاصله آن‌ها را بررسی کنم.»

هدف اصلی استفاده از هوش مصنوعی و دیپ فیک ها در انتخابات هند، تولید محتوایی است که بیننده را گمراه کند. یعنی یک شوخی هوش مصنوعی از یک کاندیدا که در حال گفتن یا انجام کاری بد باشد و با ابهام در مورد واقعی یا جعلی بودن آن همراه باشد. برای مثال، چند روز قبل از انتخابات اسلواکی در پاییز گذشته، یک کلیپ جعلی از یک کاندیدای اصلی که در مورد تقلب در انتخابات صحبت می‌کرد، منتشر شد.

چگونه هوش مصنوعی در انتخابات هند استفاده شد؟

در عوض، در هند، سیاستمداران و کمپین‌های انتخاباتی هوش مصنوعی را به خدمت گرفتن پیام‌های خود منتقل کردند. شاید عجیب‌ترین استفاده از هوش مصنوعی طی انتخابات هند را تیم یکی از کاندیداهای حزب کنگره، حزب مخالف ملی هند، انجام داده باشد: آن‌ها از هوش مصنوعی برای بازسازی ویدئویی از پدر سیاسی درگذشته او در یک ویدئوی تبلیغاتی استفاده کردند.

در این کلیپ، اچ. واسانتاکومار، که تا زمان فوتش در سال ۲۰۲۰ عضو پارلمان بود، پسر خود را به عنوان وارث قانونی خود معرفی می‌کند. این ویدیوی فوق‌العاده پر کیفیت که در آن واسانتاکومار در یک پیراهن سفید و شالی سه‌رنگ دیده می‌شود، بیش از ۳۰۰ هزار بازدید در اینستاگرام و تعداد بیشتری در واتساپ دریافت کرد.

هم‌زمان، حساب‌های رسمی رسانه‌های اجتماعی احزاب سیاسی ده‌ها پست دستکاری شده با هوش مصنوعی را در قالب شوخی، ترول و طنز منتشر کرده‌اند. علی‌رغم نام بردن از دیپ فیک ها در انتخابات به عنوان یک بحران قبل از شروع انتخابات، مودی یک ویدیوی آشکاراً ساخته شده با هوش مصنوعی از خودش را که در حال رقصیدن با یک آهنگ بالیوودی بود، بازتوییت کرد.

میم دیگری صورت و صدای مودی را روی یک هنرمند در یک موزیک ویدیو به نام دزد قرار داد تا روابط نزدیک او با میلیاردرها را نقد کند. اینکه آیا این میم‌ها باورپذیر هستند یا نه، اهمیت ندارد. فریب هدف اصلی نیست. رأی‌دهندگان هندی به راحتی می‌توانند تشخیص دهند که مودی واقعاً در یک موزیک ویدیو آواز نمی‌خواند. هدف رساندن یک پیام در شبکه‌های اجتماعی است.

پوستر گزارش دهی روبوکالها منتشر شده از سوی FTC در ایالات متحده
پوستر گزارش دهی روبوکالها منتشر شده از سوی FTC در ایالات متحده

رسانه‌های مصنوعی به ویژه در تماس‌های روبوکال هوش مصنوعی شخصی‌سازی شده نقش مهمی ایفا کرده‌اند. همزمان مشکلات واضحی نیز وجود دارد: پس از آنکه ساکنان نیوهمپشایر تماس‌هایی با صدای رئیس‌جمهور جو بایدن دریافت کردند که از آن‌ها می‌خواست در انتخابات مقدماتی رأی ندهند، ایالات متحده استفاده از صداهای تولید شده با هوش مصنوعی در تماس‌های تلفنی ناخواسته را غیرقانونی کرده است.

اما در هند، تماس‌های روبوکال هوش مصنوعی اکنون یک صنعت ۶۰ میلیون دلاری است و تاکنون بیشتر توسط سیاستمداران واقعی استفاده شده است. برای یک رهبر ملی مانند مودی، که زبان اصلی او هندی است اما بر کشوری با ۲۲ زبان رسمی و صدها گویش ریاست می‌کند، تماس‌های تولید شده با هوش مصنوعی این امکان را به او می‌داد تا به زبان تلوگو، زبان جنوب هند که او نمی‌تواند صحبت کند، نامزدهای حزب خود را تأیید کند.

رهبران محلی نیز از هوش مصنوعی برای ارسال تماس‌های تبلیغاتی شخصی‌سازی شده به گویش‌های محلی به حوزه‌های انتخاباتی خود استفاده کردند، تا جایی که که رای‌دهندگان را با نام خودشان خطاب می‌کردند. گزارش‌ها نشان می‌دهد که بیش از ۵۰ میلیون تماس تولید شده با هوش مصنوعی در دو ماه منتهی به انتخابات هند در آوریل انجام شده و میلیون‌ها تماس دیگر نیز در ماه می صورت گرفته است.

دیپ فیک ها در انتخابات هند به اندازه‌ای که بسیاری از آن‌ها ترس داشتند مخرب نبوده‌اند. اما استفاده از هوش مصنوعی مولد برای خنده، ایجاد جاذبه‌های احساسی برای رأی‌دهندگان و متقاعد کردن مردم با پیام‌های شخصی‌سازی شده فوق‌العاده می تواند آثار مخربی نیز داشته باشد. دانشگاهیان این خطر را خطر تجمع تدریجی مشکلات کوچک می‌نامند، کمک می‌کند و اعتماد را تضعیف می‌کند.

سیاستمدارانی که هوش مصنوعی مولد را با نیت خوب می‌پذیرند، ممکن است با آتش بازی کنند. تظاهر به داشتن ارتباط شخصی با رأی‌دهندگان از طریق هوش مصنوعی، می‌تواند به عنوان پلکانی به سوی خطر واقعی مهندسی اجتماعی هدفمند عمل کند. اگر کلون‌های صوتی شخصی‌سازی شده عادی شوند، استفاده‌های نگران‌کننده‌تر از این فناوری دیگر دور از دسترس نخواهد بود.

به همین ترتیب، یک هجوم از محتوای هوش مصنوعی که عمدتاً بی‌ضرر است، می‌تواند با کشیدن خط بین آنچه واقعی است و آنچه نیست به اعتماد به نهادهای دموکراتیک و ساختارهای سیاسی آسیب بزند. هند شاهد بسیاری از مواردی بوده است که سیاستمداران به‌دروغ تلاش کرده‌اند کلیپ‌های ادیت نشده را به‌عنوان دیپ فیک نمایش دهند. وقتی سیاستمداران خودشان پیام‌های هوش مصنوعی را به اشتراک می‌گذارند،‌ این ویدئوها خیلی باورپذیرتر می‌شود.

حتی در دوران هوش مصنوعی، ویرایش‌های قدیمی و سنتی ممکن است همچنان مؤثرترین حمله باشند.

همزمان با اینکه در انتخابات ایران، ایالات متحده و سایر کشورها امسال به پای صندوق‌های رأی می‌روند و با پیامدهای سیاسی هوش مصنوعی مواجه می‌شوند، ممکن است چیزی شبیه به آنچه در هند اتفاق افتاد، ببینند. کمیته ملی دموکراتیک، به‌طور مثال، کلیپی از لارا ترامپ که آواز می‌خواند را مسخره کرده و یک ترک انتقادی تولید شده با هوش مصنوعی ایجاد کرد.

دیپ فیک ها، حتی با پیشرفت فناوری، ممکن است همچنان در آینده مشکل‌ساز باشند. سم گرگوری، مدیر اجرایی سازمان حقوق بشر Witnessگفت:« سؤال این است که آیا حجم و اثربخشی استفاده‌های مخرب و گمراه‌کننده با این ویدئو زیاد می شود؟ تمامی روندهای تولید رسانه‌ی مصنوعی به این سمت اشاره دارند.»

در حال حاضر، هنوز نگرانی‌های بزرگ‌تری در زمینه اطلاعات نادرست نسبت به دیپ فیک ها وجود دارد. در تاریخ ۱۵ مه، تیم ربولو در Boom Live یک ویدئو که در شبکه‌های اجتماعی می‌چرخید را فکت‌چک کرد که رقیب اصلی مودی، راهول گاندی، را نشان می‌داد که پیش‌بینی می‌کرد نخست‌وزیر برای دوره دیگری پیروز خواهد شد.

آزمایش کلیپ صوتی در Contrails.ai نشان داد که هیچ دستکاری با هوش مصنوعی صورت نگرفته بود. با این حال، ویدئو همچنان جعلی بود:‌ کسی یک ویدئوی گاندی را که ادعا می‌کرد مودی در دفتر نمی‌ماند، گرفته و با بریدن‌های متعدد آن را به شدت تغییر داده بود. دیگویای سینگ از Contrails.ai  گفت: حتی در دوران هوش مصنوعی، ویرایش‌های قدیمی و سنتی ممکن است همچنان مؤثرترین حمله باشند.

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *