شركات الذكاء الاصطناعي في العالم تقتل الثقة في التكنولوجيا
“إن أداة الذكاء الاصطناعي تكون أخلاقية بقدر المطورين الذين قاموا بإنشائها والمواد المصدرية التي تم تدريبها عليها. أنت، الإنسان الموجود في الحلقة، هو نذير الاستخدام الأخلاقي للذكاء الاصطناعي.
كنت أتصفح موجز LinkedIn الخاص بي مؤخرًا ولاحظت أن أحد الزملاء السابقين قد نشر أنه حصل على شهادة في “أخلاقيات الذكاء الاصطناعي” من إحدى أكبر شركات التكنولوجيا في العالم. لقد لاحظت أن هذا المصطلح أصبح أكثر انتشارًا في الآونة الأخيرة، وهو أمر محير.
الأخلاقية في نظر من؟ الأخلاقية مقارنة بماذا؟ من هو الرمز الأخلاقي الذي نستخدمه لتحديد ما إذا كانت تقنية معينة أخلاقية؟ ما هي المعايير التي يمكننا من خلالها قياس ما إذا كانت الصورة أو الأغنية أو المقالة أو القطعة الفكرية أو غيرها من الأصول التي يتم إنشاؤها بواسطة الذكاء الاصطناعي “أخلاقية؟”
هناك إجابة بسيطة: الذكاء الاصطناعي الأخلاقي أصبح موضة. قد يبدو الأمر رائعًا في بيان صحفي، لكن الواقع هو أنه يفتقر إلى الجوهر. إنه ليس أكثر من مصطلح تسويقي مصمم لجعل المشترين يشعرون بالأمان عند الاستثمار في هذه التكنولوجيا. وربما تتساءل، لماذا تشعر الشركات – وخاصة المؤسسات المالية في حالتنا – التي تسعى إلى تمكين استخدام الذكاء الاصطناعي، بعدم الأمان أو التحفظ عندما يتعلق الأمر بالاستثمار في حلول الذكاء الاصطناعي؟ هناك عدة أسباب.
قتلة الثقة
من المؤكد أن تكنولوجيا الذكاء الاصطناعي ناشئة وتتغير يوميًا، مما لا يترك لفرق الأمن وقتًا كافيًا لفحص نقاط الضعف في هذه الأدوات. ولكن في نهاية المطاف، تتردد الصناعات الخاضعة للتنظيم في استخدام حلول الذكاء الاصطناعي حيث يُنظر إليها على أنها صناديق سوداء ذات شفافية محدودة، مما يجعل التحقق من الامتثال التنظيمي صعبًا ومرهقًا. عندما يتعلق الأمر بتطوير وتنفيذ حلول أخلاقية للذكاء الاصطناعي العام، فقد أثبتت الشركات التي تتصدر هذا الجيل الجديد من تكنولوجيا الذكاء الاصطناعي أنها غير قادرة وغير راغبة في التنظيم الذاتي بفعالية وتوفير الشفافية التي تتطلبها الصناعات الخاضعة للتنظيم.
وبدون الشفافية، لا يمكن أن تكون هناك مساءلة، وبدون مساءلة، تصبح ضمانات الاستخدام الأخلاقي للذكاء الاصطناعي بلا معنى. وهنا يمكن للتنظيم المعقول أن يحدث فرقًا على الفور.
بدون اللوائح الحكومية (مثل قانون الاتحاد الأوروبي للذكاء الاصطناعي، على سبيل المثال) التي تهدف إلى توفير التوجيه، وحواجز الحماية، والمساءلة لضمان عدم تأثر المستهلكين بشركات التكنولوجيا التي تطلق نماذج ذكاء اصطناعي مدربة على عجل، والتي تم اختبارها بشكل سيئ في الإنتاج، فإننا نتغذى بتدفق مستمر من الأخبار التي تبدو مثل هذا:
عناوين مثل هذه تقتل الثقة.
إن الشركات الكبيرة مثل Google، وMicrosoft، وMeta، وOpenAI مدفوعة بحرصها وطموحها للسيطرة على السوق في صناعة الذكاء الاصطناعي سريعة التوسع والتي تبلغ قيمتها تريليون دولار. غالبًا ما يقودهم هذا الحماس إلى اتباع طرق مختصرة في عمليات التطوير الخاصة بهم. ونتيجة لذلك، عندما يفشل هؤلاء العمالقة في الوفاء بوعودهم النبيلة في مجال الذكاء الاصطناعي، فلن تتأثر سمعتهم فقط. تتحمل الشركات الناشئة والشركات الصغيرة وشركات التكنولوجيا الناشئة التي تستثمر في تطوير منتجات الذكاء الاصطناعي الذكية والآمنة والمدربة أخلاقيا وطأة التداعيات. ويتعين على هذه الكيانات المسؤولة أن تتعامل مع الضرر الواسع النطاق الذي لحق بسمعتها نتيجة لفشل الشركات الأكبر حجما، والذي يؤدي غالبا إلى ظهور عناوين رئيسية أكثر تكرارا وتكلفة وإحراجا.
الذكاء الاصطناعي الأخلاقي هو ملكنا وظيفة
لقد عملت في مجال التكنولوجيا لفترة كافية لفهم دورات الضجيج، ونحن بالتأكيد في منتصف دورة مع Gen AI. عندما تطالب كل شركة بجذب الاهتمام في عالم الذكاء الاصطناعي الجديد، فإن مصطلحات مثل “الذكاء الاصطناعي الأخلاقي” و”الذكاء الاصطناعي المسؤول” تلعب على الخوف بدلاً من القيمة. يبدو أن هذه الرسائل تنادي: “أنت خائف من الذكاء الاصطناعي، ولكن إذا كنت تستخدم منتجنا، فلا داعي للخوف”. ينبغي على المسوقين للتكنولوجيا أن يتركوا إثارة المخاوف للسياسيين وأن يلتزموا بالحقائق.
أخلاقيات الذكاء الاصطناعي كخدمة هي الموز. إذا وعدت شركة ما بـ “الذكاء الاصطناعي الأخلاقي”، فاهرب. تعتبر أداة الذكاء الاصطناعي أخلاقية بقدر المطورين الذين قاموا بإنشائها والمواد المصدرية التي تم تدريبها عليها. أنت، الإنسان الموجود في الحلقة، هو نذير الاستخدام الأخلاقي للذكاء الاصطناعي.
لذا، عندما تتطلع إلى الشراكة مع شركة تقدم شيئًا مشابهًا للذكاء الاصطناعي “الأخلاقي” أو “المسؤول”، تذكر فقط أن هذا لك وظيفة. وبدلاً من الحصول على شهادة من إحدى هذه الشركات التي لا يمكن الوثوق بها فيما يتعلق بالتنظيم الذاتي، ربما عليك قضاء هذا الوقت في التعمق في مصطلح “السخرية” بدلاً من ذلك.
مصدر الصورة: إيداع الصور
معرف الصورة: 6496641
حقوق الطبع والنشر: ستيوارتمايلز
اكتشاف المزيد من موقع علم
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.