حكومة مودي الهندية تسارع إلى تنظيم الذكاء الاصطناعي قبل الانتخابات الوطنية | أخبار الانتخابات الهندية 2024
نيودلهي، الهند – وقد طلبت الحكومة الهندية من شركات التكنولوجيا الحصول على موافقة صريحة قبل إطلاق نماذج أو أدوات ذكاء اصطناعي توليدية “غير موثوقة” أو “غير مختبرة” علناً. كما حذرت الشركات من أن منتجات الذكاء الاصطناعي الخاصة بها لا ينبغي أن تولد ردودًا “تهدد نزاهة العملية الانتخابية” بينما تستعد البلاد لإجراء تصويت وطني.
تمثل جهود الحكومة الهندية لتنظيم الذكاء الاصطناعي تراجعًا عن موقفها السابق المتمثل في نهج عدم التدخل عندما أبلغت البرلمان في أبريل 2023 أنها لا تتطلع إلى أي تشريع لتنظيم الذكاء الاصطناعي.
صدرت هذه النصيحة الأسبوع الماضي من قبل وزارة الإلكترونيات وتكنولوجيا المعلومات الهندية (MeitY) لفترة وجيزة بعد أن واجهت شركة Gemini التابعة لشركة Google رد فعل عنيفًا من اليمين بسبب ردها على استفسار: “هل مودي فاشي؟”
وردت بأن رئيس الوزراء الهندي ناريندرا مودي “متهم بتنفيذ سياسات وصفها بعض الخبراء بالفاشية”، مشيرة إلى “حملة القمع التي تشنها حكومته على المعارضة واستخدامها للعنف ضد الأقليات الدينية”.
ورد راجيف شاندراسيخار، وزير الدولة لتكنولوجيا المعلومات، باتهام شركة جيميني التابعة لشركة جوجل بانتهاك قوانين الهند. وأضاف: “عذرًا، كلمة “غير موثوق بها” لا تعفي من القانون”. وزعم شاندراشيكار أن جوجل اعتذرت عن الرد، قائلة إنه كان نتيجة لخوارزمية “غير موثوقة”. وردت الشركة بالقول إنها تعالج المشكلة وتعمل على تحسين النظام.
وفي الغرب، كثيرا ما واجهت شركات التكنولوجيا الكبرى اتهامات بالتحيز الليبرالي. وقد انتقلت ادعاءات التحيز هذه إلى منتجات الذكاء الاصطناعي التوليدية، بما في ذلك ChatGPT من OpenAI وMicrosoft Copilot.
وفي الوقت نفسه، في الهند، أثارت المشورة الحكومية مخاوف بين رواد الأعمال في مجال الذكاء الاصطناعي من أن صناعتهم الناشئة يمكن أن تتعرض للاختناق بسبب الكثير من التنظيم. ويشعر آخرون بالقلق من أنه مع الإعلان عن الانتخابات الوطنية قريبا، يمكن أن تعكس الاستشارة محاولة من جانب حكومة مودي لاختيار تطبيقات الذكاء الاصطناعي التي تسمح بها، وتلك التي يجب حظرها، مما يمنحها فعليا السيطرة على المساحات على الإنترنت حيث تكون هذه الأدوات مؤثرة.
“مشاعر الترخيص راج”
إن الاستشارة ليست تشريعًا ملزمًا تلقائيًا للشركات. ومع ذلك، فإن عدم الامتثال يمكن أن يؤدي إلى الملاحقة القضائية بموجب قانون تكنولوجيا المعلومات الهندي، حسبما قال المحامون للجزيرة. وقال ميشي شودري، مؤسس المركز القانوني لحرية البرمجيات في الهند: “يبدو أن هذه النصيحة غير الملزمة هي موقف سياسي أكثر من كونها عملية صنع سياسة جادة”. “سنرى مشاركة أكثر جدية بعد الانتخابات. وهذا يعطينا نظرة خاطفة على تفكير صناع القرار السياسي.”
ومع ذلك، فإن الاستشارة ترسل بالفعل إشارة يمكن أن تكون خانقة للابتكار، خاصة في الشركات الناشئة، كما قال هارش شودري، المؤسس المشارك لشركة سنترا وورلد، وهي شركة لحلول الذكاء الاصطناعي مقرها بنغالورو. وقال: “إذا كان كل منتج من منتجات الذكاء الاصطناعي يحتاج إلى موافقة، فإن ذلك يبدو مهمة مستحيلة بالنسبة للحكومة أيضًا”. وأضاف ضاحكًا: “قد يحتاجون إلى روبوت GenAI (ذكاء اصطناعي توليدي) آخر لاختبار هذه النماذج”.
كما انتقد العديد من القادة الآخرين في صناعة الذكاء الاصطناعي التوليدي هذه الاستشارات باعتبارها مثالاً على التجاوز التنظيمي. كتب مارتن كاسادو، الشريك العام في شركة الاستثمار أندريسن هورويتز ومقرها الولايات المتحدة، على منصة التواصل الاجتماعي X أن هذه الخطوة كانت “مهزلة”، و”مناهضة للابتكار” و”مناهضة للجمهور”.
كتب بيندو ريدي، الرئيس التنفيذي لشركة Abacus AI، أنه مع الاستشارة الجديدة، “قبلت الهند للتو وداع مستقبلها!”
وسط رد الفعل العنيف هذا، أصدر تشاندراشيكار توضيحًا بشأن X مضيفًا أن الحكومة ستعفي الشركات الناشئة من الحصول على إذن مسبق لنشر أدوات الذكاء الاصطناعي التوليدية على “الإنترنت الهندي” وأن الاستشارة لا تنطبق إلا على “المنصات المهمة”.
لكن سحابة من عدم اليقين لا تزال قائمة. “إن الاستشارة مليئة بالمصطلحات الغامضة مثل “غير موثوق به”، و”غير مُختبر”، و”غير مُختبر”، [and] “الإنترنت الهندي”. وقال ميشي شودري: “إن حقيقة أن هناك حاجة إلى العديد من التوضيحات لشرح النطاق والتطبيق والنية هي علامات واضحة على العمل المستعجل”. “الوزراء أشخاص أكفاء ولكن ليس لديهم الإمكانيات اللازمة لتقييم النماذج لإصدار أذونات العمل”.
“لا عجب في ذلك [has] وأضافت: “لقد استحضرت مشاعر الثمانينات بشأن الترخيص”، في إشارة إلى النظام البيروقراطي الذي يتطلب الحصول على تصاريح حكومية للأنشطة التجارية، والذي كان سائدًا حتى أوائل التسعينيات، والذي خنق النمو الاقتصادي والابتكار في الهند.
في الوقت نفسه، فإن الإعفاءات من الاستشارة المخصصة فقط للشركات الناشئة المختارة بعناية يمكن أن تأتي مع مشاكلها – فهي أيضًا عرضة لإنتاج استجابات متحيزة سياسيًا، والهلوسة، عندما يولد الذكاء الاصطناعي مخرجات خاطئة أو ملفقة. وقال ميشي إنه نتيجة لذلك، فإن الإعفاء “يثير أسئلة أكثر مما يجيب”.
وقال هارش شودري إنه يعتقد أن نية الحكومة من وراء اللائحة هي مساءلة الشركات التي تستثمر أدوات الذكاء الاصطناعي عن الاستجابات غير الصحيحة. وأضاف: “لكن نهج الإذن أولاً قد لا يكون أفضل طريقة للقيام بذلك”.
ظلال التزييف العميق
وقال شروتي شريا، مدير برنامج تنظيم المنصات في The Dialogue، وهو مركز أبحاث لسياسات التكنولوجيا، إن تحرك الهند لتنظيم محتوى الذكاء الاصطناعي سيكون له أيضًا تداعيات جيوسياسية.
وقالت: “مع النمو السريع لقاعدة مستخدمي الإنترنت، يمكن لسياسات الهند أن تشكل سابقة لكيفية تعامل الدول الأخرى، وخاصة في العالم النامي، مع تنظيم محتوى الذكاء الاصطناعي وإدارة البيانات”.
وقال محللون إن التعامل مع لوائح الذكاء الاصطناعي يمثل بالنسبة للحكومة الهندية عملية موازنة صعبة.
ومن المقرر أن يدلي ملايين الهنود بأصواتهم في الانتخابات الوطنية التي من المرجح أن تجرى في أبريل ومايو. ومع ظهور أدوات الذكاء الاصطناعي التوليدية المتاحة بسهولة، والمجانية غالبا، أصبحت الهند بالفعل ملعبا لوسائل الإعلام التي تم التلاعب بها، وهو السيناريو الذي ألقى بظلاله على نزاهة الانتخابات. تواصل الأحزاب السياسية الرئيسية في الهند نشر التزييف العميق في الحملات الانتخابية.
وقال كاميش شيكار، كبير مديري البرامج مع التركيز على إدارة البيانات والذكاء الاصطناعي في مركز أبحاث The Dialogue، إن الاستشارة الأخيرة يجب أن يُنظر إليها أيضًا على أنها جزء من الجهود المستمرة التي تبذلها الحكومة لصياغة لوائح تنظيمية شاملة للذكاء الاصطناعي.
في وقت سابق، في نوفمبر وديسمبر 2023، طلبت الحكومة الهندية من شركات التكنولوجيا الكبرى إزالة العناصر المزيفة العميقة في غضون 24 ساعة من تقديم الشكوى، وتصنيف الوسائط التي تم التلاعب بها، وبذل جهود استباقية لمعالجة المعلومات الخاطئة – على الرغم من أنها لم تذكر أي عقوبات صريحة على عدم الالتزام بالتوجيه.
لكن شيكار قال أيضًا إن السياسة التي بموجبها يجب على الشركات الحصول على الموافقات الحكومية قبل إطلاق منتج ما من شأنها أن تمنع الابتكار. وقال: “يمكن للحكومة أن تفكر في إنشاء بيئة اختبارية – بيئة اختبار مباشر حيث يمكن لحلول الذكاء الاصطناعي والكيانات المشاركة اختبار المنتج دون طرحه على نطاق واسع لتحديد موثوقيته”.
ومع ذلك، لا يتفق جميع الخبراء مع الانتقادات الموجهة للحكومة الهندية.
مع استمرار تطور تكنولوجيا الذكاء الاصطناعي بوتيرة سريعة، غالبًا ما يكون من الصعب على الحكومات مواكبة ذلك. وقال حافظ مالك، أستاذ هندسة الكمبيوتر في جامعة ميشيغان والمتخصص في اكتشافات التزييف العميق، إنه في الوقت نفسه، تحتاج الحكومات إلى التدخل من أجل التنظيم. وقال إن ترك الشركات تنظم نفسها سيكون أمرا غبيا، مضيفا أن نصيحة الحكومة الهندية كانت خطوة في الاتجاه الصحيح.
وقال: “يجب أن تضع الحكومات اللوائح التنظيمية، لكن لا ينبغي أن تأتي على حساب الابتكار”.
وأضاف مالك أن المطلوب في نهاية المطاف هو زيادة الوعي العام.
“قال مالك: “إن رؤية شيء ما والإيمان به لم يعد مطروحًا الآن”. “ما لم يكن لدى الجمهور وعي، لا يمكن حل مشكلة التزييف العميق. الوعي هو الأداة الوحيدة لحل مشكلة معقدة للغاية.
اكتشاف المزيد من موقع علم
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.