الميزانية وفشل الديون الآلية يجعل الحكومة الأسترالية مترددة بشأن مواجهة المواطنين للذكاء الاصطناعي – TechToday
النشرة الإخبارية
Sed ut perspiciatis unde.
ترى الحكومة الأسترالية قيمة الذكاء الاصطناعي التوليدي عبر الحكومات المحلية وحكومات الولايات والحكومات الفيدرالية. ومع ذلك، فإن قيود الإنفاق الطويلة غير المعقولة والمخاوف بشأن كوارث الأتمتة تعمل على إبطاء اعتماد الذكاء الاصطناعي، على الأقل فيما يتعلق بالحلول التي تواجه المواطنين.
وفقًا لاستطلاع أجرته مؤسسة جارتنر لمديري تكنولوجيا المعلومات عبر حكومات منطقة آسيا والمحيط الهادئ (مع وجود أستراليا في منتصف الاتجاه)، فإن الذكاء الاصطناعي/التعلم الآلي والذكاء الاصطناعي التوليدي هما أكبر أولويتين يجب تنفيذهما بحلول عام 2026 (الشكل أ). ومع ذلك، هناك ضغوط أخرى تجعل الوكالات الحكومية مترددة في اعتماد الذكاء الاصطناعي في المجالات التي تعتبرها الحكومة الأسترالية ذات أهمية بالغة.
على سبيل المثال، في حين يُظهر بحث جارتنر أن 84% من مديري تكنولوجيا المعلومات يعتبرون الاستثمار في التفوق في تجربة المواطن أولوية قصوى (الشكل ب)، أقل من 25% من المؤسسات الحكومية سيكون لديها خدمات إنتاجية موجهة للمواطنين مدعومة بالذكاء الاصطناعي بحلول عام 2027.
انفصال الحكومة الأسترالية بين الرغبة في تنفيذ الذكاء الاصطناعي والقدرة على التنفيذ
وكما قال دين لاتشيكا، نائب رئيس محلل Gartner، في مقابلة مع TechRepublic، هناك شكوك عامة حول نماذج التعلم العامة الكبيرة، مع وجود مخاوف بشأن الخصوصية والأمن وجاهزية البيانات التي تؤثر على سرعة اعتماد الذكاء الاصطناعي. وهذه مسألة شائكة بشكل خاص في أستراليا، حيث تسببت الأتمتة، بما في ذلك الذكاء الاصطناعي، داخل الخدمات الحكومية في أضرار مادية. وبالتالي، هناك عدم ثقة متأصل في أي تطبيقات يُنظر إليها على أنها تعمل على أتمتة التفاعلات مع المواطنين عبر الحكومة بأكملها.
والأمر الأكثر أهمية هو أنه على الرغم من أن الأمر لم يكن تطبيقًا للذكاء الاصطناعي، إلا أن فضيحة “الديون الآلية” التي أثرت بشكل كبير على الأستراليين أدت إلى تشكيل لجنة ملكية بعد تغيير الحكومة. إن الأتمتة التي كانت في قلب هذا الجدل جعلت العديد من الوكالات الحكومية مترددة في الإعلان للجمهور أنها تستكشف استخدام الذكاء الاصطناعي.
وقال لاتشيكا: “لم يتم التعبير عن هذا الارتباط بالأتمتة بشكل صريح، ولكن الشعور الأساسي هو أن الوكالات الحكومية تدرك أن هناك الكثير من مخاطر السمعة هنا إذا أخطأت في التعامل معها”. “هناك بعض الإحباط على المستوى التنفيذي بشأن سبب عدم قدرتهم على التحرك بشكل أسرع في مجال الذكاء الاصطناعي، ولكن هناك صلاحية في النهج المحافظ تجاه الخطوات القليلة الأولى والتفكير بشكل كامل في حالات الاستخدام.”
إن تشديد الميزانيات له تأثير على اعتماد الحكومة الأسترالية للذكاء الاصطناعي أيضًا
وتتفاقم هذه النزعة المحافظة بسبب التقشف المطول في الإنفاق الحكومي على تكنولوجيا المعلومات، والذي قال لاتشيكا إنه يؤثر على أنواع المشاريع التي تم منحها الضوء الأخضر. وقال إن هناك فهمًا للحاجة إلى الاستثمار، لكن القادة الذين لديهم مشاريع الضوء الأخضر يركزون بشكل كامل على الإنتاجية والفعالية وعائد الاستثمار السريع.
نظرًا لكون الذكاء الاصطناعي مجالًا جديدًا للعديد من مديري تكنولوجيا المعلومات وفرقهم في الحكومة، ولأن الذكاء الاصطناعي يتطلب التحول وأساليب جديدة للتكنولوجيا، فإن العثور على المشاريع المناسبة التي يمكن تسليمها بسرعة ثم توضيحها يمكن أن يكون أمرًا صعبًا.
قال لاتشيكا: “نظرًا لأن أهداف المشاريع تميل إلى أن تكون متواضعة نسبيًا، في السعي للحصول على عائد استثمار سريع، هناك أيضًا جزء تعليمي يجب على فرق تكنولوجيا المعلومات القيام به مع المدير التنفيذي”. “كثيرًا ما نسمع عناصر من الإحباط على غرار “ابني المراهق في المنزل يستخدم ChatGPT، لماذا تجعل الأمر أكثر تعقيدًا بالنسبة لنا؟”
“لذا فإن إدارة التوقعات بشأن ما يمكن تحقيقه باستخدام التكنولوجيا بالنظر إلى التركيز على الأهداف المباشرة والتغلب على التردد بشأن الخدمات التي تواجه المواطنين هي جزء من عملية اعتماد الحكومة للذكاء الاصطناعي في الوقت الحالي.”
حل Gartner: التركيز على تقديم التطبيقات الداخلية أولاً
وفقًا لشركة Gartner، فإن الحل لهذه التحديات من خلال اعتماد الذكاء الاصطناعي هو البدء بتقديم تطبيقات لا تستهدف المواطنين ولكنها يمكن أن تدعم مكاسب الإنتاجية داخل المنظمة الداخلية. وتسمح هذه الثمرة “الدانية” للوكالات والإدارات الحكومية بتجنب المخاطر المتصورة المرتبطة بالذكاء الاصطناعي في الخدمات التي تواجه المواطنين، في حين تعمل على بناء المعرفة والمهارات المهمة اللازمة لتطوير استراتيجيات أكثر طموحا في مجال الذكاء الاصطناعي.
وتضيف توجيهات جارتنر أنه يجب على الوكالات أيضًا بناء الثقة والتخفيف من المخاطر المرتبطة بها من خلال إنشاء أطر حوكمة وضمانات شفافة للذكاء الاصطناعي لكل من قدرات الذكاء الاصطناعي المطورة والمشتراة داخليًا.
وقال لاتشيكا: “هناك الكثير الذي يتعين على المنظمات الحكومية القيام به لاتخاذ خطوات في مجال الذكاء الاصطناعي”. “في حالة استخدام واحدة، على سبيل المثال، قد ترغب إحدى الوكالات في تلخيص مجموعة من البيانات، ولكن هذه البيانات تحتوي على معلومات شخصية وربما لا تحتوي على علامات البيانات الوصفية الصحيحة. قد يرغبون في تحليل ذلك.
“يتطلع البعض الآخر إلى الحلول السحابية حيث لا تترك البيانات عالمهم أبدًا، ويتطلع آخرون إلى نهج “الزجاج الملون” الذي سيضمن مستوى من التعتيم على البيانات عند الخروج كاستراتيجية لحماية الخصوصية. وأضاف: “هناك قدر كبير من النضج المعماري في كيفية تنفيذ استراتيجيات الذكاء الاصطناعي، ولهذا السبب يجب على المؤسسات أن تتطلع إلى تطوير هذه القدرات قبل تطبيقها على عمليات النشر العامة”.
كيف ينبغي للشركاء أن يتطلعوا إلى إشراك الحكومة الأسترالية في مجال الذكاء الاصطناعي
وستؤثر هذه التوترات الداخلية أيضًا على شركاء وكالات الحكومة الأسترالية. هناك شهية للذكاء الاصطناعي، ولكن الحصول على الحلول والمساعدة في نشر الحلول يعني فهم أن التقشف في الميزانيات الحكومية طويل بشكل غير عادي وأن النزعة المحافظة بشأن العواقب المحتملة أكثر حساسية مما قد تكون عليه الحال في قطاعات أخرى.
وقال لاتشيكا: “الخطوات التالية التي يمكن أن تتخذها الحكومة ربما تكون أبطأ بكثير من بعض نظيراتها التجارية، لأن شهيتها للمخاطرة يجب أن تكون مختلفة”.
بالنسبة لمحترفي تكنولوجيا المعلومات الذين يعملون في الوكالات الحكومية وبالشراكة معها، فإن توصيات Gartner حول كيفية المضي قدمًا في استخدام الذكاء الاصطناعي تتلخص في القدرة على إظهار عائد سريع على الاستثمار مع الحد الأدنى من المخاطر على البيانات والتفاعلات العامة. وسيكون الشركاء القادرون على تحقيق ذلك في وضع قوي عندما تبدأ الحكومة في وقت لاحق في تسريع اعتماد هذه البرامج لتلبية طموحاتهم على المدى الطويل.
اكتشاف المزيد من موقع علم
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.