Jannah Theme License is not validated, Go to the theme options page to validate the license, You need a single license for each domain name.
اخبار

ديمقراطية التزييف العميق: وراء خداع الذكاء الاصطناعي الذي يشكل انتخابات الهند لعام 2024 | أخبار الانتخابات


نيودلهي، الهند – بينما اصطف الناخبون في وقت مبكر من صباح يوم 30 نوفمبر من العام الماضي للتصويت في الانتخابات التشريعية لاختيار الحكومة المقبلة لولاية تيلانجانا بجنوب الهند، بدأ مقطع مدته سبع ثوان ينتشر على وسائل التواصل الاجتماعي.

تم نشرها على X من قبل حزب المؤتمر، الذي كان في المعارضة على المستوى الوطني، وكان في الولاية في ذلك الوقت، وأظهرت الصورة كي تي راما راو، زعيم حزب بهارات راشترا ساميتي الذي كان يحكم الولاية، يدعو الناس إلى التصويت لصالح المؤتمر.

وقام الكونجرس بمشاركتها على نطاق واسع على مجموعة من مجموعات الواتساب “التي يديرها الحزب بشكل غير رسمي”، وفقًا لقائد كبير طلب عدم الكشف عن هويته. وانتهى به الأمر في النهاية على حساب X الرسمي للحزب، والذي تمت مشاهدته أكثر من 500000 مرة.

لقد كانت مزيفة.

وقال زعيم حزب المؤتمر لقناة الجزيرة: “بالطبع، تم إنتاجه بواسطة الذكاء الاصطناعي رغم أنه يبدو حقيقيًا تمامًا”. لكن الناخب العادي لن يكون قادراً على التمييز؛ بدأ التصويت [when the video was posted] ولم يكن هناك وقت ل [the opposition campaign] للسيطرة على الأضرار.”

كان التزييف العميق الذي تم توقيته بذكاء علامة على طوفان وسائل الإعلام التي أنشأها الذكاء الاصطناعي، أو تم التلاعب بها، والتي شابت سلسلة من الانتخابات في الولايات الهندية في الأشهر الأخيرة، وهذا يهدد الآن بتشكيل الانتخابات العامة المقبلة في البلاد بشكل أساسي.

في الفترة من مارس/آذار إلى مايو/أيار، سوف يختار ما يقرب من مليار ناخب في الهند حكومتهم الوطنية المقبلة في أكبر انتخابات يشهدها العالم في التاريخ. جذبت التهديدات التي تشكلها وسائل الإعلام الخادعة التي ينشئها الذكاء الاصطناعي انتباه العالم عندما ظهرت صور جنسية صريحة مزيفة للفنانة تايلور سويفت على منصات التواصل الاجتماعي في يناير/كانون الثاني. في نوفمبر/تشرين الثاني، وصف أشويني فايشناو، وزير تكنولوجيا المعلومات الهندي، التزييف العميق بأنه “تهديد للديمقراطية”، وردد رئيس الوزراء ناريندرا مودي هذه المخاوف.

ولكن مع زيادة توافر أدوات الذكاء الاصطناعي سهلة الاستخدام، فإن الفرق عبر الأحزاب السياسية الهندية، بما في ذلك حزب مودي بهاراتيا جاناتا والكونغرس، تنشر صورًا مزيفة للتأثير على الناخبين، حسبما قال مديرو ما يقرب من 40 حملة انتخابية حديثة لقناة الجزيرة. في حين أن العديد من أدوات الذكاء الاصطناعي المستخدمة لإنشاء التزييف العميق مجانية، إلا أن أدوات أخرى متاحة عند الاشتراك مقابل مبلغ زهيد يصل إلى 10 سنتات لكل مقطع فيديو.

“خلق الإدراك”

وكان حزب بهاراتيا جاناتا، الذي يمكن اعتباره الحزب الأكثر تطورا من الناحية التكنولوجية في الهند، في طليعة استخدام الأوهام في الحملات الانتخابية. منذ عام 2012، استخدم الحزب إسقاطات ثلاثية الأبعاد لمودي حتى يتمكن من “حملة” في عشرات الأماكن في نفس الوقت. وقد تم نشر هذه الاستراتيجية على نطاق واسع خلال الانتخابات العامة لعام 2014 التي أوصلت مودي إلى السلطة.

لم يكن هناك سوى القليل من الخداع، ولكن في فبراير 2020، أصبح مانوج تيواري، عضو البرلمان عن حزب بهاراتيا جاناتا، من بين أول من استخدم التزييف العميق في العالم في الحملات الانتخابية. في ثلاثة مقاطع فيديو، خاطب تيواري الناخبين في دلهي قبل انتخابات المجلس التشريعي في العاصمة باللغات الهندية والهاريانفي والإنجليزية – حيث وصل إلى ثلاثة جماهير متميزة في المدينة المتعددة الثقافات. كان الفيديو الهندي فقط هو الحقيقي: أما الفيديوان الآخران فكانا مزيفين للغاية، حيث تم استخدام الذكاء الاصطناعي لتوليد صوته وكلماته وتغيير تعبيراته وحركة الشفاه لجعل من المستحيل تقريبًا اكتشاف أنها غير أصلية بمجرد المشاهدة.

في الأشهر الأخيرة، استخدمت حركة درافيدا مونيترا كازاجام (DMK)، التي تحكم ولاية تاميل نادو الجنوبية، الذكاء الاصطناعي لإحياء زعيمها الشهير إم كارونانيدهي من بين الأموات، باستخدام مقاطع فيديو واقعية للكاتب السينمائي السابق والسياسي المخضرم في فعاليات الحملة الانتخابية.

الآن، يقول المستشارون ومديرو الحملات إن انتخابات عام 2024 يمكن أن تزيد من استخدام التزييف العميق بشكل أكبر.

«السياسة تدور حول خلق الإدراك؛ باستخدام أدوات الذكاء الاصطناعي [of voice and video modulation] وقال آرون ريدي، المنسق الوطني لوسائل التواصل الاجتماعي في الكونجرس، والذي أشرف على انتخابات تيلانجانا التي نظمها الحزب، والتي تتسم بالذكاء التكنولوجي: “بنقرة واحدة، يمكنك قلب هذا التصور رأسًا على عقب في دقيقة واحدة”. وأضاف أن الفريق كان مليئًا بالأفكار لدمج الذكاء الاصطناعي في الحملات، لكن لم يكن لديهم ما يكفي من “الأشخاص المدربين” لتنفيذها جميعًا.

يعمل ريدي على تعزيز فريقه – كما هو الحال مع الأطراف الأخرى.

وقال ريدي لقناة الجزيرة: “سيكون للذكاء الاصطناعي تأثير مدوي في خلق السرد”. “سيزداد المحتوى السياسي الذي يتم التلاعب به بواسطة الذكاء الاصطناعي أضعافًا مضاعفة، أكثر بكثير مما كان عليه في أي وقت مضى.”

“الحملات أصبحت أكثر غرابة”

من بلدة بوشكار الصحراوية في غرب الهند، يدير ديفيندرا سينغ جادون البالغ من العمر 30 عامًا شركة ناشئة تعمل في مجال الذكاء الاصطناعي، The Indian Deepfaker. تم إطلاق شركته في أكتوبر 2020، حيث قامت باستنساخ صوت المرشح لمنصب رئيس وزراء الكونجرس في ولاية راجاستان أشوك غيلوت لفريقه لإرسال رسائل شخصية على واتساب، مخاطبة كل ناخب باسمه، خلال انتخابات الجمعية في نوفمبر. يعمل Deepfaker الهندي حاليًا مع فريق رئيس وزراء سيكيم، بريم سينغ تامانغ، للحصول على صور ثلاثية الأبعاد خلال الحملات القادمة. سيكيم هي إحدى أصغر ولايات الهند في شمال شرق البلاد، وتقع على جبال الهيمالايا بين الهند وبوتان والصين.

وقال إن هذا هو العمل الرسمي النظيف. لكن في الأشهر الأخيرة، غرق في ما وصفه بـ “الطلبات غير الأخلاقية” من الحملات السياسية. وقال جادون لقناة الجزيرة في مقابلة عبر الهاتف: “إن الأحزاب السياسية تتواصل بشكل غير مباشر عبر الأرقام الدولية على واتساب، أو على إنستغرام، أو التواصل على تيليغرام”.

وقال إنه في انتخابات تشرين الثاني/نوفمبر، رفضت شركته أكثر من 50 طلبًا من هذا القبيل، حيث أراد العملاء المحتملون تعديل مقاطع الفيديو والتسجيلات الصوتية لاستهداف المعارضين السياسيين، بما في ذلك المواد الإباحية. كشركة ناشئة، قال جدون أن شركته حريصة بشكل خاص على تجنب أي مشاكل قانونية. وأضاف: “وهذا استخدام غير أخلاقي للغاية للذكاء الاصطناعي”. “لكنني أعرف العديد من الأشخاص الذين يقومون بذلك بأسعار منخفضة جدًا وهم متاحون بسهولة الآن.”

خلال الحملات الانتخابية للمجالس التشريعية لولاية ماديا براديش في وسط الهند وراجستان في الغرب في نوفمبر الماضي، سجلت الشرطة حالات متعددة لمقاطع فيديو مزيفة استهدفت كبار السياسيين بما في ذلك مودي وشيفراج سينغ تشوهان وكايلاش فيجايفارجيا (جميعهم من حزب بهاراتيا جاناتا) وكمال ناث (الكونغرس). ). غالبًا ما يتم الاستعانة بمصادر خارجية لإنتاج المحتوى المزيف العميق لشركات استشارية خاصة، والتي تعتمد على شبكات التواصل الاجتماعي للتوزيع، وعلى رأسها واتساب.

قال مستشار سياسي طلب عدم الكشف عن هويته لقناة الجزيرة إن أعدادًا من المواطنين العاديين الذين ليس لديهم ملف شخصي عام مسجلون على WhatsApp ويستخدمون في الحملات لجعل من الصعب على أي شخص تتبعهم مباشرة إلى الأحزاب والمرشحين والاستشاريين وشركات الذكاء الاصطناعي.

أدار هذا المستشار ست حملات في انتخابات الجمعية العام الماضي لكل من حزب بهاراتيا جاناتا والكونغرس. وقالوا: “في راجاستان، كنا نستخدم أرقام هواتف عمال البناء لتشغيل شبكتنا على واتساب، حيث تم تداول التزييف العميق في المقام الأول”.

وفي الوقت نفسه، تعد التسجيلات الصوتية التي يتم التلاعب بها بواسطة الذكاء الاصطناعي أدوات قيمة بشكل خاص في الدوائر الانتخابية الأصغر حجمًا، حيث “تستهدف المرشحين بتسجيلات مكالمات مزورة حول ترتيب “أموال سوداء” للانتخابات أو تهديد شخص ما لشراء الأصوات”، كما قال المستشار، الذي تم استهداف مرشحه بأحد هذه التسجيلات. . وعادة ما يتم إخفاء التسجيلات بأصوات المرشحين لتقديمها كدليل على الفساد.

وأضافوا أن “التلاعب بالناخبين بواسطة الذكاء الاصطناعي لا يعتبر خطيئة من قبل أي حزب”. “إنها مجرد جزء من استراتيجية الحملة.”

يوجد في الهند 760 مليون مستخدم للإنترنت – أكثر من 50% من السكان – خلف الصين فقط.

ومن بين جميع الطلبات، برز جادون من دائرة انتخابية في جنوب راجاستان. وقبل انتخابات الولاية في تشرين الثاني/نوفمبر، طلب المتصل من جادون تغيير مقطع فيديو مثير للإشكال ولكنه أصلي لمرشحهم – الذي لم يكشف عن حزبه – لعمل تزييف عميق واقعي. الهدف: الادعاء بأن الأصل كان مزيفًا عميقًا، وأن التزييف العميق هو الأصل.

وأضاف: “كان لدى المعارضة مقطع فيديو مثير للقلق لمرشحها وأرادوا نشره بشكل أسرع على وسائل التواصل الاجتماعي للادعاء بأنه مزيف للغاية”. “الحملات السياسية أصبحت أكثر غرابة.”

تهديدات لنزاهة الانتخابات

وقالت أنوشكا جاين، باحثة السياسات في مختبر Digital Futures Lab ومقره جوا، إن القوانين الهندية لا تحدد حاليًا “التزييف العميق” بشكل واضح. تستخدم الشرطة قوانين مكافحة التشهير أو الأخبار الكاذبة أو انتهاك حياء الشخص، إلى جانب قانون تكنولوجيا المعلومات، لمحاولة معالجة الحالات الفردية. لكن في كثير من الأحيان، يلعبون لعبة الضرب بالخلد.

وقالت: “تقاضي الشرطة بناءً على تأثير التزييف العميق وليس لأنه تزييف عميق في حد ذاته”.

ويقول المحللون إن لجنة الانتخابات الهندية (ECI)، وهي هيئة مستقلة تجري الاقتراع، تحتاج إلى مواكبة الطبيعة المتغيرة للحملات السياسية.

في الأيام التي سبقت التصويت في انتخابات ولاية تيلانجانا العام الماضي، تكرر زعماء حزب بهارات راشترا ساميثي الحاكم حذر متابعيهم على وسائل التواصل الاجتماعي للبقاء في حالة تأهب ضد التزييف العميق الذي ينشره حزب المؤتمر. كما ناشدوا لجنة الانتخابات الهندية ضد مقطع التزييف العميق الذي شاركه الكونجرس في صباح يوم التصويت.

لكن الفيديو بقايا عبر الإنترنت ولم يتلق الحزب أبدًا إشعارًا من اللجنة الانتخابية المستقلة، حسبما قال اثنان من قادة الكونجرس على علم بالقضية لقناة الجزيرة.

طلبت الجزيرة تعليقات من لجنة الانتخابات الهندية لكنها لم تتلق ردًا بعد.

وقال إس.إي قريشي، كبير مفوضي الانتخابات السابقين في الهند: “حتى لو تم تضليل شخص ما وجعله يصدق شيئًا ما ويغير رأيه، فإن ذلك يفسد نقاء العملية الانتخابية”. “لقد جعلت تقنية التزييف العميق مشكلة ترويج الشائعات خلال صناديق الاقتراع أكثر خطورة بألف مرة.”

وقال قريشي إن التزييف العميق يحتاج إلى الإشراف عليه في الوقت الفعلي لتقليل الضرر الذي يمكن أن يسببه للديمقراطية الهندية.

وأضاف: “على لجنة الانتخابات المركزية أن تتخذ إجراءات قبل وقوع الضرر”. “إنهم بحاجة إلى أن يكونوا أكثر سرعة.”

“الحقيقة بعيدة المنال”

وتضغط الحكومة الهندية على شركات التكنولوجيا الكبرى، بما في ذلك Google وMeta، لبذل جهود فعالة لتخفيف التزييف العميق على منصاتها. وقد التقى وزير تكنولوجيا المعلومات راجيف شاندراسيخار بمسؤولين من هذه الشركات كجزء من المداولات حول التهديدات التي تشكلها التزييف العميق.

ومن خلال مطالبة قطاع التكنولوجيا بأخذ زمام المبادرة، تتجنب الحكومة أي انتقادات بأنها تحاول فرض رقابة انتقائية على التزييف العميق الانتقائي، أو أنها تحاول قمع تقنيات الذكاء الاصطناعي الناشئة على نطاق أوسع.

وقال براتيك واغر، المدير التنفيذي لمؤسسة حرية الإنترنت الهندية، وهي مؤسسة فكرية رائدة في مجال سياسات التكنولوجيا مقرها نيودلهي، إن الحكومة، من خلال تمرير المسؤولية إلى الشركات الخاصة، تثير تساؤلات حول صدق نيتها في تنظيم المحتوى المتلاعب. وأضاف: “إنه أمر يكاد يكون مجرد أمنيات”.

وبحجة أن شركات التكنولوجيا لم تكن قادرة على التعامل مع المشاكل الحالية فيما يتعلق بالإشراف على المحتوى، قال واغر إن “صعود الذكاء الاصطناعي الآن” أدى إلى تفاقم التحديات. وقال إن النهج الحالي للإشراف على المحتوى يتجاهل جوهر المشكلة حقًا.

وقال: “أنتم لا تحلون المشكلة”. “التصميم [of algorithms] معيبة فقط.”

في 16 فبراير/شباط، وقعت شركات التكنولوجيا الكبرى اتفاقا في مؤتمر ميونيخ الأمني ​​لتبني طوعا “احتياطات معقولة” لمنع استخدام أدوات الذكاء الاصطناعي لتعطيل الانتخابات الديمقراطية في جميع أنحاء العالم. لكن الاتفاق الذي تمت صياغته بشكل غامض أصاب العديد من المؤيدين والمنتقدين بخيبة أمل.

أعلن موقع YouTube أنه سيمكن الأشخاص من طلب إزالة المحتوى الذي تم إنشاؤه أو تعديله بواسطة الذكاء الاصطناعي والذي يحاكي شخصًا يمكن التعرف عليه، بما في ذلك وجهه أو صوته، باستخدام عملية طلب الخصوصية الخاصة به.

وقال رافي آير، المدير الإداري لمركز نيلي للقيادة الأخلاقية وصنع القرار في كلية مارشال للأعمال بجامعة جنوب كاليفورنيا: “لست متفائلاً للغاية بشأن قدرات المنصة على اكتشاف التزييف العميق”. “مع انخفاض المعرفة الرقمية وارتفاع استهلاك مقاطع الفيديو، فإن هذا يشكل خطرًا جسيمًا على نزاهة الانتخابات في الهند.”

وقال آير إن تحديد كل الوسائط التي يتم التلاعب بها بواسطة الذكاء الاصطناعي ليس مهمة معقولة، لذلك تحتاج الشركات إلى إعادة تصميم الخوارزميات التي لا تروج للمحتوى الاستقطابي. وقال: “الشركات هي التي تمتلك المال والموارد، وعليها اتخاذ خطوات معقولة لمعالجة صعود التزييف العميق”.

نشرت مؤسسة حرية الإنترنت رسالة مفتوحة تحث المرشحين والأحزاب الانتخابية على الامتناع طوعًا عن استخدام تكنولوجيا التزييف العميق قبل الانتخابات الوطنية. واغري غير واثق من أن الكثيرين سوف يعضون، لكنه قال إن الأمر يستحق المحاولة.

ومن ناحية أخرى، تعمل الحملات السياسية على تعزيز ترسانتها من الذكاء الاصطناعي ــ ويعترف البعض، مثل ريدي، المنسق الوطني لوسائل الإعلام الاجتماعية في الكونجرس، بأن المستقبل يبدو مظلما.

“معظم الأشخاص الذين يستخدمون الذكاء الاصطناعي موجودون لتشويه الحقائق. قال ريدي: “إنهم يريدون خلق تصور لا يستند إلى الحقيقة”. “بالجمع بين تغلغل وسائل التواصل الاجتماعي في الهند وصعود الذكاء الاصطناعي، فإن الحقيقة ستكون بعيدة عن متناول الناس في الانتخابات الآن”.




اكتشاف المزيد من موقع علم

اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى

اكتشاف المزيد من موقع علم

اشترك الآن للاستمرار في القراءة والحصول على حق الوصول إلى الأرشيف الكامل.

Continue reading