جيش صغير يكافح طوفانًا من التزييف العميق في الانتخابات الهندية
في منتصف انتخابات عالية المخاطر تُجرى خلال موجة حارة تذوب العقول، تهب عاصفة من التزييف العميق المربك في جميع أنحاء الهند. يبدو التنوع لا نهاية له: التقليد المدعوم بالذكاء الاصطناعي، والتحدث من البطن، وتأثيرات التحرير الخادعة. بعضها فظ، وبعضها مضحك، وبعضها مزيف بشكل واضح لدرجة أنه لا يمكن توقع أن ينظر إليها على أنها حقيقية.
التأثير الإجمالي محير، ويضيف إلى مشهد وسائل التواصل الاجتماعي الغارق بالفعل في المعلومات المضللة. إن حجم المخلفات عبر الإنترنت أكبر بكثير من أن تتمكن أي لجنة انتخابية من تتبعه، ناهيك عن فضح زيفه.
وقد ظهرت مجموعة متنوعة من هيئات التحقق من الحقائق لملء الثغرة. وبينما تتحرك عجلات القانون ببطء وبشكل غير متساو، فقد تولى مئات الموظفين الحكوميين ومجموعات التحقق من الحقائق الخاصة المتمركزة في الهند مهمة تعقب التزييف العميق.
قال سوريا سين، ضابط الغابات في ولاية كارناتاكا، والذي تم تعيينه خلال الانتخابات لإدارة فريق مكون من 70 شخصًا لمطاردة المحتوى المخادع الناتج عن الذكاء الاصطناعي: “علينا أن نكون مستعدين”. “وسائل التواصل الاجتماعي هي ساحة معركة هذا العام.” عندما يجد فريق السيد سين محتوى يعتقدون أنه غير قانوني، فإنهم يطلبون من منصات وسائل التواصل الاجتماعي إزالته أو نشر الخداع أو حتى المطالبة بتوجيه تهم جنائية.
لقد أصبح المشاهير مادة مألوفة للحيل السياسية، ومن بينهم رانفير سينغ، نجم السينما الهندية.
وخلال مقابلة مسجلة بالفيديو مع وكالة أنباء هندية على نهر الجانج في فاراناسي، أشاد سينغ برئيس الوزراء القوي ناريندرا مودي لاحتفاله “بتراثنا الثقافي الغني”. لكن هذا لم يكن ما سمعه المشاهدون عندما انتشرت نسخة معدلة من الفيديو، بصوت يشبه صوت السيد سينغ ومزامنة شفاه مثالية تقريبًا، على وسائل التواصل الاجتماعي.
قال بامبوش راينا، الذي يقود وحدة تحليل Deepfakes، وهي مجموعة من دور الإعلام الهندية التي فتحت خط معلومات على WhatsApp حيث يمكن للأشخاص إرسال مقاطع فيديو وتسجيلات صوتية مشبوهة ليتم فحصها: “نحن نسميها التزييف العميق لمزامنة الشفاه”. وقالت إن مقطع الفيديو الخاص بالسيد سينغ كان مثالاً نموذجيًا للقطات أصلية تم تحريرها بصوت مستنسخ من الذكاء الاصطناعي. قدم الممثل شكوى إلى وحدة الجرائم الإلكترونية التابعة لشرطة مومباي.
وفي هذه الانتخابات، لا يحق لأي حزب احتكار المحتوى المخادع. تم افتتاح مقطع آخر تم التلاعب به بلقطات أصلية تظهر راهول غاندي، الخصم الأبرز للسيد مودي، وهو يشارك في طقوس أداء اليمين كمرشح. ثم تم دمجها مع مسار صوتي تم إنشاؤه بواسطة الذكاء الاصطناعي.
ولم يستقيل السيد غاندي فعليا من حزبه. يحتوي هذا المقطع على انتقادات شخصية أيضًا، مما يجعل السيد غاندي يبدو وكأنه يقول إنه “لم يعد بإمكانه التظاهر بأنه هندوسي”. ويقدم حزب بهاراتيا جاناتا الحاكم نفسه على أنه مدافع عن العقيدة الهندوسية، ويقدم معارضيه على أنهم خونة أو محتالون.
في بعض الأحيان، تتجه التزييفات السياسية العميقة إلى ما هو خارق للطبيعة. لدى السياسيين الموتى طريقة للعودة إلى الحياة من خلال التشابهات الغريبة التي يولدها الذكاء الاصطناعي والتي تؤيد الحملات الواقعية لأحفادهم.
في مقطع فيديو ظهر قبل أيام قليلة من بدء التصويت في أبريل، تحدث ه. فاسانثاكومار، الذي توفي بسبب كوفيد-19 في عام 2020، بشكل غير مباشر عن وفاته وبارك ابنه فيجاي، الذي يترشح لمقعد والده البرلماني السابق في ولاية تاميل نادو الجنوبية. اتبع هذا الظهور مثالًا وضعه اثنان من عمالقة السياسة التاميل المتوفين الآخرين، موثوفيل كارونانيدهي وجاياالاليثها جايارام.
تعمل حكومة السيد مودي على صياغة القوانين التي من المفترض أن تحمي الهنود من التزييف العميق وأنواع أخرى من المحتوى المضلل. إن قانون “قواعد تكنولوجيا المعلومات” لعام 2021 يجعل المنصات عبر الإنترنت، على عكس الولايات المتحدة، مسؤولة عن جميع أنواع المحتوى غير المرغوب فيه، بما في ذلك انتحال الشخصية التي تهدف إلى التسبب في الإهانة. وتقوم مؤسسة حرية الإنترنت، وهي مجموعة هندية معنية بالحقوق الرقمية، والتي قالت إن هذه السلطات واسعة للغاية، بتتبع 17 تحديًا قانونيًا للقانون.
لكن يبدو أن رئيس الوزراء نفسه يتقبل بعض أنواع المحتوى الناتج عن الذكاء الاصطناعي. يُظهر مقطعا فيديو تم إنتاجهما باستخدام أدوات الذكاء الاصطناعي اثنين من أكبر السياسيين في الهند، السيد مودي وماماتا بانيرجي، أحد أشد معارضيه، وهما يحاكيان مقطع فيديو انتشر على موقع يوتيوب لمغني الراب الأمريكي ليل يختي وهو يقوم “بأصعب خروج على الإطلاق”.
شارك السيد مودي الفيديو على X، قائلًا إن هذا الإبداع كان “مبهجًا”. وقد وصفها مسؤولو الانتخابات مثل السيد سين في ولاية كارناتاكا بأنها هجاء سياسي: “إن نجم موسيقى الروك مودي بخير وليس انتهاكًا. يعرف الناس أن هذا مزيف.
أرسلت الشرطة في ولاية البنغال الغربية، حيث تتولى السيدة بانيرجي منصب رئيس الوزراء، إخطارات إلى بعض الأشخاص لنشر محتوى “مسيء وخبيث وتحريضي”.
أثناء البحث عن التزييف العميق، قال السيد سين إن فريقه في ولاية كارناتاكا، الذي يعمل لصالح حكومة ولاية تسيطر عليها المعارضة، يتنقل بيقظة عبر منصات التواصل الاجتماعي مثل Instagram وX، ويبحث عن الكلمات الرئيسية ويحدث حسابات المؤثرين المشهورين بشكل متكرر.
تضم وحدة تحليل Deepfakes 12 شريكًا لتدقيق الحقائق في وسائل الإعلام، بما في ذلك زوجان قريبان من حكومة السيد مودي الوطنية. وقالت السيدة راينا إن وحدتها تعمل مع مختبرات الطب الشرعي الخارجية أيضًا، بما في ذلك مختبر في جامعة كاليفورنيا، بيركلي. ويستخدمون برنامج الكشف عن الذكاء الاصطناعي مثل TrueMedia، الذي يقوم بفحص ملفات الوسائط وتحديد ما إذا كان ينبغي الوثوق بها.
يعمل بعض المهندسين المتمرسين في مجال التكنولوجيا على تحسين برامج الطب الشرعي للذكاء الاصطناعي لتحديد أي جزء من الفيديو تم التلاعب به، وصولاً إلى وحدات البكسل الفردية.
وقال براتيك سينها، مؤسس موقع Alt News، وهو أحد مواقع التحقق من الحقائق المستقلة في الهند، إن إمكانيات التزييف العميق لم يتم تسخيرها بالكامل بعد. وقال إنه في يوم من الأيام، قد تظهر مقاطع الفيديو السياسيين ليس فقط يقولون أشياء لم يقولوها، بل يفعلون أيضًا أشياء لم يفعلوها.
يقوم الدكتور هاني فريد بتدريس الطب الشرعي الرقمي في جامعة بيركلي منذ 25 عامًا ويتعاون مع وحدة تحليل Deepfakes في بعض الحالات. وقال إنه بينما “نقوم بالقبض على التزييف العميق السيئ”، إذا دخلت المنتجات المزيفة الأكثر تطوراً إلى الساحة، فقد لا يتم اكتشافها.
في الهند كما هو الحال في أي مكان آخر، يدور سباق التسلح بين المزيفين العميقين ومدققي الحقائق، حيث يتقاتلون من جميع الجهات. وصف الدكتور فريد ذلك بأنه “العام الأول الذي أود أن أقول فيه أننا بدأنا بالفعل في رؤية تأثير الذكاء الاصطناعي بطرق مثيرة للاهتمام وأكثر شناعة”.
اكتشاف المزيد من موقع علم
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.