دیپ فیک ها در انتخابات: چگونه یک فاجعه در هند رخ نداد؟
با توجه به نزدیک شدن هرچه بیشتر به انتخابات ایران، توجه ها به محتوای منتشر شده در فضای مجازی بیشتر می شود. هم اکنون انواع هوش مصنوعی توانایی تولید محتوای جعلی صوتی و ویدئویی را با کیفیت بسیار خوبی دارا هستند. انتشار گسترده دیپ فیک ها در انتخابات می تواند به یک بحران منجر شود.
انتخابات هند که کمی پیشتر برگزار شد، آماده وقوع بحران انتشار اطلاعات جعلی از طریق هوش مصنوعی بود، ولی این بحران رخ نداد. با شبکه فناوران هوش مصنوعی با این مقاله از آتلانتیک همراه باشید تا چگونگی رخ ندادن این بحران را مشاهده کنیم.
امکانات گسترده دیپ فیک ها در انتخابات
قبل از شروع انتخابات عمومی هند در آوریل، یکی از کاندیداهای برجسته که میخواست جای نخستوزیر نارندرا مودی را بگیرد، فرصتی برای کمپین تبلیغاتی برای جلب رأیدهندگان نداشت. او در زندان بود. آرویند کجریوال، وزیر ارشد دهلی و رهبر یک حزب سیاسی که به دلیل پلتفرم ضد فسادش مشهور است، در اواخر مارس به دلیل اتهامات فساد دستگیر شد. طرفداران او به خیابانها ریختند و دستگیری او را به عنوان حرکتی سیاسی توسط مودی که هدف آن تضعیف یک رقیب بود، محکوم کردند. کجریوال همواره بیگناهی خود را حفظ کرده و دولت هند هر گونه قصد سیاسی در این دستگیری را رد کرده است.
کمی بعد از دستگیری، کجریوال از طرفدارانش خواست که قوی بمانند. او در یک کلیپ ۳۴ ثانیهای که توسط یکی از اعضای حزبش در شبکههای اجتماعی منتشر شد، گفت:« برخی نیروها هستند که سعی میکنند کشور و دموکراسی ما را تضعیف کنند. ما باید این نیروها را شناسایی و با آنها مبارزه کنیم.»
این صدای واقعی کجریوال نبود، بلکه یک کلون صدای هوش مصنوعی که پیام واقعی کجریوال را که از پشت میلههای زندان نوشته بود، میخواند. چند روز بعد، طرفداران مودی به بدبختی کجریوال با انتشار واکنش خود مبتنی بر هوش مصنوعی خندیدند:« یک مونتاژ از تصاویری که در آن کجریوال در یک سلول زندان گیتار مینوازد و یک آهنگ غمانگیز هندی میخواند. در سبک کلاسیک هوش مصنوعی، انگشتان خراب و یک کلاژ از چهرههای انسان در این تصاویر وجود داشت.»
در طول این دوره انتخاباتی هندیها زیر بار رسانههای مصنوعی دیپ فیک ها در انتخاباتقرار گرفته بودند. کلونهای صدا، ویدئوهای ساختگی قانعکننده از سیاستمداران مردهای که کاندیداها را تأیید میکردند، تماسهای تلفنی خودکار که رأیدهندگان را به نام خطاب میکردند، و آهنگها و میمهای تولید شده توسط هوش مصنوعی که کاندیداها را تجلیل و مخالفان را تمسخر میکردند. اما باوجود همه نگرانیها درباره اینکه چگونه هوش مصنوعی مولد و دیپ فیک ها در انتخاباتبه عنوان یک بمب اتمی آینده نزدیک که واقعیت را مختل و ترجیحات رأیدهندگان را تغییر خواهد داد، انتخابات هند آیندهی متفاوت و عجیبتری را پیشبینی میکند.
خطر ابزارهای هوش مصنوعی و محتوای جعلی انتخاباتی |
نگرانی هند از دیپ فیک ها در انتخابات ملی
پیش از این انتخابات، هند بهدرستی نگران دیپ فیک ها در انتخابات بود. با وجود ابزارهای ارزان و در دسترس هوش مصنوعی مانند کلونسازی صدا که امکان ایجاد شوخیهای سیاسی را برای تقریباً هر کسی فراهم کرده است، هند قبلاً شاهد رسواییهای هوش مصنوعی بوده است. به گفته کارن ربولو، معاون سردبیر نشریه فکتچکینگ Boom Live، در آستانه چهار انتخابات ایالتی در اواخر سال گذشته، این نشریه حدود ۱۰ دیپفیک صوتی مرتبط با انتخابات را ثبت کرد. ربولو فکر میکرد اگر در چند انتخابات ایالتی دهها دیپفیک صوتی ظاهر شود، انتخابات ملی شاهد حجم بیسابقهای خواهد بود. او گفت:«این واقعاً ترسناک بود. من فکر میکردم، قرار است روزی یک یا حتی هر ساعت یکی را شاهد باشیم.»
و بهراستی دیپ فیک ها، بهویژه کلونهای صوتی، در طول دوره انتخاباتی ۲۰۲۴ پدیدار شدند، از جمله پیشبینیهای اشتباه نتایج انتخابات، مکالمات تلفنی شبیهسازی شده، و انتقادات جعلی از افراد مشهور. در اولین هفته رأیگیری، کلیپهای دیپ فیک از ستارگان بالیوود، عامر خان و رانوی سینگ که مودی را نقد میکردند، به سرعت وایرال شد—اتفاق بزرگی چون ستارگان سینمای هند اغلب در سیاست اظهار نظر نمیکنند. اما ترسهای شدید ربولو و دیگران به وقوع نپیوست.
از مجموع ۲۵۸ فکتچک انتخاباتی که Boom Live انجام داد، تنها ۱۲ مورد مربوط به اطلاعات نادرست تولید شده توسط هوش مصنوعی بود. برخی دیگر تعداد بیش از ۱۲ دیپ فیک هوش مصنوعی را شمارش کردند. دیگویای سینگ، یکی از بنیانگذاران Contrails.ai، شرکت تشخیص دیپ فیک در هند، به من گفت که او به فکتچکرها کمک کرده تا کمی بیش از ۳۰ قطعه رسانهای تولید شده توسط هوش مصنوعی را در آوریل و مه بررسی و رد کنند.
ممکن است تنها یک دیپ فیک واقعاً باورپذیر برای ایجاد خشونت یا بدنام کردن یک رقیب سیاسی کافی باشد، اما ظاهراً هیچیک از موارد در هند چنین تأثیری نداشتهاند. نزدیکترین وضعیتی که هند تجربه کرد، وقتی بود که ویدئویی از وزیر داخلی هند، آمیت شاه، بهدروغ اعلام کرد که اقدام تأییدی برای طبقات پایین را لغو کرده است که منجر به دستگیریها و تهدید به خشونت شد. برخی رسانهها این کلیپ را بهعنوان دیپ فیک اشتباه گزارش کردند، اما در واقع فقط ویرایش شده بود.
گاهی اوقات هم دیپ فیک ها به خاطر خود فناوری موفق نشدند. ویدئوها و تصاویر کیفیت خیلی بالایی نداشتند و کلیپهای صوتی، با اینکه گاهی از مرزهای دره شگفتی عبور میکردند، توسط ابزارهای تشخیص شرکتهایی مانند Contrails.ai بررسی شدند. اگرچه کامل نبودند، اما میتوانستند علائم دستکاری را شناسایی کنند. ربولو گفت:« اینها بهراحتی قابل رد بودند، چون ما ابزارهای لازم را داشتیم. من میتوانستم بلافاصله آنها را بررسی کنم.»
هدف اصلی استفاده از هوش مصنوعی و دیپ فیک ها در انتخابات هند، تولید محتوایی است که بیننده را گمراه کند. یعنی یک شوخی هوش مصنوعی از یک کاندیدا که در حال گفتن یا انجام کاری بد باشد و با ابهام در مورد واقعی یا جعلی بودن آن همراه باشد. برای مثال، چند روز قبل از انتخابات اسلواکی در پاییز گذشته، یک کلیپ جعلی از یک کاندیدای اصلی که در مورد تقلب در انتخابات صحبت میکرد، منتشر شد.
چگونه هوش مصنوعی در انتخابات هند استفاده شد؟
در عوض، در هند، سیاستمداران و کمپینهای انتخاباتی هوش مصنوعی را به خدمت گرفتن پیامهای خود منتقل کردند. شاید عجیبترین استفاده از هوش مصنوعی طی انتخابات هند را تیم یکی از کاندیداهای حزب کنگره، حزب مخالف ملی هند، انجام داده باشد: آنها از هوش مصنوعی برای بازسازی ویدئویی از پدر سیاسی درگذشته او در یک ویدئوی تبلیغاتی استفاده کردند.
در این کلیپ، اچ. واسانتاکومار، که تا زمان فوتش در سال ۲۰۲۰ عضو پارلمان بود، پسر خود را به عنوان وارث قانونی خود معرفی میکند. این ویدیوی فوقالعاده پر کیفیت که در آن واسانتاکومار در یک پیراهن سفید و شالی سهرنگ دیده میشود، بیش از ۳۰۰ هزار بازدید در اینستاگرام و تعداد بیشتری در واتساپ دریافت کرد.
همزمان، حسابهای رسمی رسانههای اجتماعی احزاب سیاسی دهها پست دستکاری شده با هوش مصنوعی را در قالب شوخی، ترول و طنز منتشر کردهاند. علیرغم نام بردن از دیپ فیک ها در انتخابات به عنوان یک بحران قبل از شروع انتخابات، مودی یک ویدیوی آشکاراً ساخته شده با هوش مصنوعی از خودش را که در حال رقصیدن با یک آهنگ بالیوودی بود، بازتوییت کرد.
میم دیگری صورت و صدای مودی را روی یک هنرمند در یک موزیک ویدیو به نام دزد قرار داد تا روابط نزدیک او با میلیاردرها را نقد کند. اینکه آیا این میمها باورپذیر هستند یا نه، اهمیت ندارد. فریب هدف اصلی نیست. رأیدهندگان هندی به راحتی میتوانند تشخیص دهند که مودی واقعاً در یک موزیک ویدیو آواز نمیخواند. هدف رساندن یک پیام در شبکههای اجتماعی است.
رسانههای مصنوعی به ویژه در تماسهای روبوکال هوش مصنوعی شخصیسازی شده نقش مهمی ایفا کردهاند. همزمان مشکلات واضحی نیز وجود دارد: پس از آنکه ساکنان نیوهمپشایر تماسهایی با صدای رئیسجمهور جو بایدن دریافت کردند که از آنها میخواست در انتخابات مقدماتی رأی ندهند، ایالات متحده استفاده از صداهای تولید شده با هوش مصنوعی در تماسهای تلفنی ناخواسته را غیرقانونی کرده است.
اما در هند، تماسهای روبوکال هوش مصنوعی اکنون یک صنعت ۶۰ میلیون دلاری است و تاکنون بیشتر توسط سیاستمداران واقعی استفاده شده است. برای یک رهبر ملی مانند مودی، که زبان اصلی او هندی است اما بر کشوری با ۲۲ زبان رسمی و صدها گویش ریاست میکند، تماسهای تولید شده با هوش مصنوعی این امکان را به او میداد تا به زبان تلوگو، زبان جنوب هند که او نمیتواند صحبت کند، نامزدهای حزب خود را تأیید کند.
رهبران محلی نیز از هوش مصنوعی برای ارسال تماسهای تبلیغاتی شخصیسازی شده به گویشهای محلی به حوزههای انتخاباتی خود استفاده کردند، تا جایی که که رایدهندگان را با نام خودشان خطاب میکردند. گزارشها نشان میدهد که بیش از ۵۰ میلیون تماس تولید شده با هوش مصنوعی در دو ماه منتهی به انتخابات هند در آوریل انجام شده و میلیونها تماس دیگر نیز در ماه می صورت گرفته است.
دیپ فیک ها در انتخابات هند به اندازهای که بسیاری از آنها ترس داشتند مخرب نبودهاند. اما استفاده از هوش مصنوعی مولد برای خنده، ایجاد جاذبههای احساسی برای رأیدهندگان و متقاعد کردن مردم با پیامهای شخصیسازی شده فوقالعاده می تواند آثار مخربی نیز داشته باشد. دانشگاهیان این خطر را خطر تجمع تدریجی مشکلات کوچک مینامند، کمک میکند و اعتماد را تضعیف میکند.
سیاستمدارانی که هوش مصنوعی مولد را با نیت خوب میپذیرند، ممکن است با آتش بازی کنند. تظاهر به داشتن ارتباط شخصی با رأیدهندگان از طریق هوش مصنوعی، میتواند به عنوان پلکانی به سوی خطر واقعی مهندسی اجتماعی هدفمند عمل کند. اگر کلونهای صوتی شخصیسازی شده عادی شوند، استفادههای نگرانکنندهتر از این فناوری دیگر دور از دسترس نخواهد بود.
به همین ترتیب، یک هجوم از محتوای هوش مصنوعی که عمدتاً بیضرر است، میتواند با کشیدن خط بین آنچه واقعی است و آنچه نیست به اعتماد به نهادهای دموکراتیک و ساختارهای سیاسی آسیب بزند. هند شاهد بسیاری از مواردی بوده است که سیاستمداران بهدروغ تلاش کردهاند کلیپهای ادیت نشده را بهعنوان دیپ فیک نمایش دهند. وقتی سیاستمداران خودشان پیامهای هوش مصنوعی را به اشتراک میگذارند، این ویدئوها خیلی باورپذیرتر میشود.
حتی در دوران هوش مصنوعی، ویرایشهای قدیمی و سنتی ممکن است همچنان مؤثرترین حمله باشند.
همزمان با اینکه در انتخابات ایران، ایالات متحده و سایر کشورها امسال به پای صندوقهای رأی میروند و با پیامدهای سیاسی هوش مصنوعی مواجه میشوند، ممکن است چیزی شبیه به آنچه در هند اتفاق افتاد، ببینند. کمیته ملی دموکراتیک، بهطور مثال، کلیپی از لارا ترامپ که آواز میخواند را مسخره کرده و یک ترک انتقادی تولید شده با هوش مصنوعی ایجاد کرد.
دیپ فیک ها، حتی با پیشرفت فناوری، ممکن است همچنان در آینده مشکلساز باشند. سم گرگوری، مدیر اجرایی سازمان حقوق بشر Witnessگفت:« سؤال این است که آیا حجم و اثربخشی استفادههای مخرب و گمراهکننده با این ویدئو زیاد می شود؟ تمامی روندهای تولید رسانهی مصنوعی به این سمت اشاره دارند.»
در حال حاضر، هنوز نگرانیهای بزرگتری در زمینه اطلاعات نادرست نسبت به دیپ فیک ها وجود دارد. در تاریخ ۱۵ مه، تیم ربولو در Boom Live یک ویدئو که در شبکههای اجتماعی میچرخید را فکتچک کرد که رقیب اصلی مودی، راهول گاندی، را نشان میداد که پیشبینی میکرد نخستوزیر برای دوره دیگری پیروز خواهد شد.
آزمایش کلیپ صوتی در Contrails.ai نشان داد که هیچ دستکاری با هوش مصنوعی صورت نگرفته بود. با این حال، ویدئو همچنان جعلی بود: کسی یک ویدئوی گاندی را که ادعا میکرد مودی در دفتر نمیماند، گرفته و با بریدنهای متعدد آن را به شدت تغییر داده بود. دیگویای سینگ از Contrails.ai گفت: حتی در دوران هوش مصنوعی، ویرایشهای قدیمی و سنتی ممکن است همچنان مؤثرترین حمله باشند.