Jannah Theme License is not validated, Go to the theme options page to validate the license, You need a single license for each domain name.
تقنية وتكنولوجيا

ارتفاع التزييف العميق للذكاء الاصطناعي باعتباره خطرًا على مؤسسات منطقة آسيا والمحيط الهادئ – TechToday


لم تكن تقنية التزييف العميق للذكاء الاصطناعي على رادار المخاطر بالنسبة للمنظمات منذ فترة قصيرة فقط، ولكن في عام 2024، فإنها سترتقي في الرتب. مع قدرة الذكاء الاصطناعي على التسبب في أي شيء بدءًا من انخفاض سعر السهم إلى فقدان ثقة العلامة التجارية من خلال المعلومات الخاطئة، فمن المرجح أن تظهر كخطر لبعض الوقت.

قال روبرت هوبر، كبير مسؤولي الأمن ورئيس قسم الأبحاث في شركة الأمن السيبراني Tenable، في مقابلة مع موقع TechRepublic إن التزييف العميق للذكاء الاصطناعي يمكن أن يستخدمه مجموعة من الجهات الخبيثة. وفي حين أن أدوات الكشف لا تزال في مرحلة النضج، يمكن لشركات منطقة آسيا والمحيط الهادئ الاستعداد عن طريق إضافة التزييف العميق إلى تقييمات المخاطر الخاصة بها وحماية المحتوى الخاص بها بشكل أفضل.

في نهاية المطاف، من المحتمل توفير المزيد من الحماية للمؤسسات عندما تتلاقى المعايير الدولية حول الذكاء الاصطناعي. ودعا هوبر اللاعبين الكبار في مجال التكنولوجيا إلى تكثيف التحديد الأقوى والأكثر وضوحًا للمحتوى الناتج عن الذكاء الاصطناعي، بدلاً من ترك هذا الأمر للمستخدمين الفرديين غير الخبراء.

تمثل تقنية التزييف العميق للذكاء الاصطناعي خطرًا متزايدًا على المجتمع والشركات

إن خطر المعلومات الخاطئة والمعلومات المضللة التي يولدها الذكاء الاصطناعي آخذ في الظهور كخطر عالمي. في عام 2024، وبعد إطلاق موجة من أدوات الذكاء الاصطناعي التوليدية في عام 2023، كانت فئة المخاطر ككل ثاني أكبر خطر في تقرير المخاطر العالمية لعام 2024 الصادر عن المنتدى الاقتصادي العالمي (الشكل أ).

الشكل أ

من المحتمل أن تشكل المعلومات الخاطئة المرتبطة بالذكاء الاصطناعي “أزمة مادية على نطاق عالمي” في عام 2024، وفقًا لتقرير المخاطر العالمية 2024. الصورة: المنتدى الاقتصادي العالمي

وصف أكثر من نصف المشاركين (53%)، الذين كانوا من قطاع الأعمال والأوساط الأكاديمية والحكومة والمجتمع المدني، المعلومات الخاطئة والمعلومات المضللة التي ينتجها الذكاء الاصطناعي، والتي تشمل التزييف العميق، بأنها خطر. كما تم تصنيف المعلومات الخاطئة كأكبر عامل خطر على مدى العامين المقبلين (الشكل ب).

الشكل ب

من المتوقع أن يكون خطر المعلومات المضللة والمعلومات المضللة مرتفعًا على المدى القصير وأن يظل في المراكز الخمسة الأولى على مدى 10 سنوات.
من المتوقع أن يكون خطر المعلومات المضللة والمعلومات المضللة مرتفعًا على المدى القصير وأن يظل في المراكز الخمسة الأولى على مدى 10 سنوات. الصورة: المنتدى الاقتصادي العالمي

لم تكن الشركات سريعة جدًا في التفكير في مخاطر التزييف العميق للذكاء الاصطناعي. على سبيل المثال، لم يذكر مسح إدارة المخاطر العالمية الذي أجرته شركة Aon ذلك، على الرغم من أن المنظمات تشعر بالقلق إزاء انقطاع الأعمال أو الإضرار بعلامتها التجارية وسمعتها، وهو ما قد يكون ناجماً عن الذكاء الاصطناعي.

وقال هوبر إن خطر التزييف العميق للذكاء الاصطناعي لا يزال ناشئًا، ويتحول مع حدوث التغيير في الذكاء الاصطناعي بمعدل سريع. ومع ذلك، قال إن هذا خطر يجب أن تأخذه منظمات منطقة آسيا والمحيط الهادئ في الاعتبار. “هذا ليس بالضرورة خطرًا إلكترونيًا. وقال: “إنها مخاطرة مؤسسية”.

توفر تقنية التزييف العميق باستخدام الذكاء الاصطناعي أداة جديدة لأي جهة تهديد تقريبًا

من المتوقع أن يكون التزييف العميق للذكاء الاصطناعي خيارًا آخر يمكن لأي خصم أو جهة تهديد استخدامه لتحقيق أهدافه. وقال هوبر إن ذلك يمكن أن يشمل الدول القومية ذات الأهداف الجيوسياسية والمجموعات الناشطة ذات الأجندات المثالية، مع دوافع تشمل المكاسب المالية والنفوذ.

“ستقوم بتشغيل النطاق الكامل هنا، من مجموعات الدول القومية إلى مجموعة واعية بيئيًا إلى المتسللين الذين يريدون فقط تحقيق الدخل من عمليات إزالة التزييف. وأوضح هوبر: “أعتقد أنها أداة أخرى في متناول أي جهة ضارة”.

أنظر كيف يمكن للذكاء الاصطناعي التوليدي أن يزيد من التهديد العالمي الناتج عن برامج الفدية

إن التكلفة المنخفضة للتزييف العميق تعني انخفاض الحواجز التي تحول دون دخول الجهات الخبيثة

إن سهولة استخدام أدوات الذكاء الاصطناعي والتكلفة المنخفضة لإنتاج مواد الذكاء الاصطناعي تعني أن هناك القليل من العوائق في طريق الجهات الخبيثة التي ترغب في الاستفادة من الأدوات الجديدة. وقال هوبر إن أحد الاختلافات عن الماضي هو مستوى الجودة الذي أصبح الآن في متناول الجهات التهديدية.

“قبل بضع سنوات، كان [cost] قال هوبر: “كان حاجز الدخول منخفضًا، لكن الجودة كانت سيئة أيضًا”. “الآن لا يزال الشريط منخفضًا، ولكن [with generative AI] تم تحسين الجودة بشكل كبير. لذا، بالنسبة لمعظم الأشخاص، يصبح من الصعب عليهم التعرف على التزييف العميق بأنفسهم دون أي إشارات إضافية.

ما هي المخاطر التي تتعرض لها المؤسسات من التزييف العميق للذكاء الاصطناعي؟

قال هوبر إن مخاطر التزييف العميق للذكاء الاصطناعي “ناشئة للغاية”، لدرجة أنها ليست مدرجة في جداول أعمال تقييم المخاطر التنظيمية في منطقة آسيا والمحيط الهادئ. ومع ذلك، وبالإشارة إلى الهجوم الإلكتروني الأخير الذي رعته الدولة على شركة مايكروسوفت، والذي أبلغت عنه شركة مايكروسوفت نفسها، دعا الناس إلى التساؤل: ماذا لو كان هذا الهجوم مزيفًا عميقًا؟

“سواء كان الأمر عبارة عن معلومات مضللة أو تأثير، فإن Microsoft تقدم عطاءات للحصول على عقود كبيرة لمؤسستها مع حكومات وأسباب مختلفة حول العالم. وهذا من شأنه أن يؤكد على مصداقية مؤسسة مثل مايكروسوفت، أو يطبق ذلك على أي مؤسسة تقنية كبيرة.

خسارة عقود المنشأة

يمكن أن تتأثر المؤسسات الربحية من أي نوع بمواد الذكاء الاصطناعي العميق. على سبيل المثال، يمكن أن يؤدي إنتاج معلومات مضللة إلى إثارة أسئلة أو فقدان العقود حول العالم أو إثارة مخاوف أو ردود أفعال اجتماعية تجاه منظمة ما قد تضر بآفاقها.

مخاطر الأمن المادي

يمكن أن تضيف تقنية التزييف العميق للذكاء الاصطناعي بعدًا جديدًا للمخاطر الرئيسية المتمثلة في تعطيل الأعمال. على سبيل المثال، يمكن أن تتسبب المعلومات الخاطئة التي يتم الحصول عليها من الذكاء الاصطناعي في حدوث أعمال شغب أو حتى تصور حدوث أعمال شغب، مما يسبب إما خطرًا على الأشخاص الطبيعيين أو العمليات، أو مجرد إدراك الخطر.

تأثيرات العلامة التجارية والسمعة

أصدرت شركة Forrester قائمة بعمليات الاحتيال المحتملة للتزييف العميق. وتشمل هذه المخاطر التي تهدد سمعة المنظمة وعلامتها التجارية أو تجربة الموظف والموارد البشرية. كان أحد المخاطر هو التضخيم، حيث يتم استخدام التزييف العميق للذكاء الاصطناعي لنشر التزييف العميق الآخر للذكاء الاصطناعي، والوصول إلى جمهور أوسع.

التأثيرات المالية

تشمل المخاطر المالية القدرة على استخدام تقنية التزييف العميق للذكاء الاصطناعي للتلاعب بأسعار الأسهم ومخاطر الاحتيال المالي. في الآونة الأخيرة، تم خداع موظف مالي في شركة متعددة الجنسيات في هونغ كونغ لدفع مبلغ 25 مليون دولار أمريكي (40 مليون دولار أسترالي) للمجرمين بعد أن استخدموا عملية احتيال متطورة للذكاء الاصطناعي العميق للتظاهر بأنهم المدير المالي للشركة في مكالمة جماعية عبر الفيديو.

الحكم الفردي ليس حلاً عميقًا للمؤسسات

المشكلة الكبرى التي تواجه مؤسسات منطقة آسيا والمحيط الهادئ هي أن اكتشاف التزييف العميق بواسطة الذكاء الاصطناعي أمر صعب على الجميع. وفي حين تتكيف الهيئات التنظيمية ومنصات التكنولوجيا مع نمو الذكاء الاصطناعي، فإن قدرا كبيرا من المسؤولية يقع على عاتق المستخدمين الأفراد أنفسهم لتحديد التزييف العميق، بدلا من الوسطاء.

وقد يؤدي هذا إلى تأثير معتقدات الأفراد والحشود على المنظمات. يُطلب من الأفراد أن يقرروا في الوقت الفعلي ما إذا كانت القصة الضارة حول علامة تجارية أو موظف قد تكون حقيقية، أو مزيفة، في بيئة يمكن أن تتضمن معلومات مضللة في وسائل الإعلام ووسائل التواصل الاجتماعي.

المستخدمون الأفراد ليسوا مجهزين لتمييز الحقيقة عن الخيال

وقال هوبر إن توقع أن يميز الأفراد ما هو التزييف العميق الناتج عن الذكاء الاصطناعي وما هو غير ذلك هو أمر “إشكالي”. وقال إنه في الوقت الحاضر، قد يكون من الصعب تمييز التزييف العميق للذكاء الاصطناعي حتى بالنسبة لمحترفي التكنولوجيا، كما أن الأفراد ذوي الخبرة القليلة في التعرف على التزييف العميق للذكاء الاصطناعي سيواجهون صعوبات.

“إن الأمر يشبه القول: سنقوم بتدريب الجميع على فهم الأمن السيبراني.” الآن، يقدم المركز الأسترالي للأمن السيبراني (ACSC) الكثير من الإرشادات الرائعة للأمن السيبراني، ولكن من يقرأ ذلك حقًا بخلاف الأشخاص الموجودين بالفعل في مجال الأمن السيبراني؟ سأل.

التحيز هو أيضا عاملا. “إذا كنت تشاهد مادة مهمة بالنسبة لك، فإنك تجلب معك التحيز؛ من غير المرجح أن تركز على الفروق الدقيقة في الحركات أو الإيماءات، أو ما إذا كانت الصورة ثلاثية الأبعاد. أنت لا تستخدم تلك الحواس العنكبوتية وتبحث عن الحالات الشاذة إذا كان المحتوى هو ما يثير اهتمامك.

أدوات الكشف عن التزييف العميق للذكاء الاصطناعي تلعب دورًا في اللحاق بالركب

تتحرك شركات التكنولوجيا لتوفير الأدوات اللازمة لمواجهة الارتفاع في التزييف العميق للذكاء الاصطناعي. على سبيل المثال، تم تصميم أداة FakeCatcher من شركة إنتل للتعرف على التزييف العميق من خلال تقييم البشر في مقاطع الفيديو من حيث تدفق الدم باستخدام وحدات بكسل الفيديو، وتحديد المنتجات المزيفة باستخدام “ما يجعلنا بشرا”.

وقال هوبر إن قدرات الأدوات اللازمة لاكتشاف وتحديد التزييف العميق للذكاء الاصطناعي لا تزال في طور الظهور. وبعد فحص بعض الأدوات المتاحة في السوق، قال إنه لا يوجد شيء يمكن أن يوصي به على وجه الخصوص في الوقت الحالي لأن “المساحة تتحرك بسرعة كبيرة”.

ما الذي سيساعد المؤسسات على مكافحة مخاطر التزييف العميق للذكاء الاصطناعي؟

وقال هوبر إنه من المرجح أن يؤدي ظهور التزييف العميق للذكاء الاصطناعي إلى لعبة “القط والفأر” بين الجهات الفاعلة الخبيثة التي تنتج التزييف العميق وأولئك الذين يحاولون اكتشافها وإحباطها. ولهذا السبب، من المرجح أن تتغير الأدوات والقدرات التي تساعد في الكشف عن التزييف العميق للذكاء الاصطناعي بسرعة، حيث يؤدي “سباق التسلح” إلى خلق حرب من أجل الواقع.

هناك بعض المنظمات الدفاعية التي قد تكون تحت تصرفها.

تشكيل القواعد التنظيمية الدولية للذكاء الاصطناعي

تعد أستراليا إحدى الولايات القضائية التي تبحث في تنظيم محتوى الذكاء الاصطناعي من خلال تدابير مثل العلامات المائية. ومع تحرك الولايات القضائية الأخرى في جميع أنحاء العالم نحو توافق في الآراء بشأن إدارة الذكاء الاصطناعي، فمن المرجح أن يكون هناك تقارب حول أفضل الممارسات لدعم تحديد محتوى الذكاء الاصطناعي بشكل أفضل.

وقال هوبر إنه على الرغم من أهمية هذا الأمر، إلا أن هناك فئات من الجهات الفاعلة التي لن تتبع المعايير الدولية. “يجب أن يكون هناك فهم ضمني أنه سيظل هناك أشخاص سيفعلون ذلك بغض النظر عن اللوائح التي نضعها أو كيف نحاول التقليل منها.”

يرى: ملخص لقواعد الاتحاد الأوروبي الجديدة التي تحكم الذكاء الاصطناعي

منصات تقنية كبيرة تحدد التزييف العميق للذكاء الاصطناعي

ستكون الخطوة الأساسية هي أن تقوم وسائل التواصل الاجتماعي الكبيرة ومنصات التكنولوجيا مثل Meta وGoogle بمحاربة محتوى الذكاء الاصطناعي العميق بشكل أفضل وتحديده بشكل أكثر وضوحًا للمستخدمين على منصاتهم. إن تحمل المزيد من هذه المسؤولية يعني أن المستخدمين النهائيين غير الخبراء مثل المؤسسات والموظفين والجمهور لديهم عمل أقل للقيام به في محاولة تحديد ما إذا كان هناك شيء ما مزيف بعمق.

وقال هوبر إن هذا سيساعد أيضًا فرق تكنولوجيا المعلومات. إن وجود منصات تكنولوجية كبيرة تحدد التزييف العميق للذكاء الاصطناعي في المقدمة وتسليح المستخدمين بمزيد من المعلومات أو الأدوات من شأنه أن يأخذ المهمة بعيدًا عن المؤسسات؛ ستكون هناك حاجة إلى تقليل الاستثمار في تكنولوجيا المعلومات المطلوب لدفع تكاليف أدوات الكشف عن التزييف العميق وإدارتها وتخصيص الموارد الأمنية لإدارتها.

إضافة تقنية التزييف العميق للذكاء الاصطناعي إلى تقييمات المخاطر

قد تحتاج مؤسسات منطقة آسيا والمحيط الهادئ قريبًا إلى التفكير في جعل المخاطر المرتبطة بالتزييف العميق للذكاء الاصطناعي جزءًا من إجراءات تقييم المخاطر المنتظمة. على سبيل المثال، قال هوبر إن المنظمات قد تحتاج إلى أن تكون أكثر استباقية فيما يتعلق بمراقبة وحماية المحتوى الذي تنتجه المؤسسات داخليًا وخارجيًا، بالإضافة إلى توثيق هذه الإجراءات لأطراف ثالثة.

“تقوم معظم شركات الأمن الناضجة بإجراء تقييمات للمخاطر التي يتعرض لها البائعون من طرف ثالث. وقال: “لم أر قط أي فئة من الأسئلة المتعلقة بكيفية حماية المحتوى الرقمي الخاص بهم”. ويتوقع هوبر أن تقييمات مخاطر الطرف الثالث التي تجريها شركات التكنولوجيا قد تحتاج قريبًا إلى تضمين أسئلة تتعلق بتقليل المخاطر الناشئة عن التزييف العميق.


اكتشاف المزيد من موقع علم

اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى

اكتشاف المزيد من موقع علم

اشترك الآن للاستمرار في القراءة والحصول على حق الوصول إلى الأرشيف الكامل.

Continue reading