Jannah Theme License is not validated, Go to the theme options page to validate the license, You need a single license for each domain name.
علم واختراعات

تقسيم الأخطاء على أساس النية في انتهاك حقوق الطبع والنشر لمنظمة العفو الدولية


“استجابة لمعضلة التقسيم، من المتوقع أن تقوم شركات الذكاء الاصطناعي بتطوير سياسات لتخفيف المسؤولية وربما تحويلها.”

شهدت أنظمة الذكاء الاصطناعي (AI)، مثل Copilot وChatGPT من Microsoft، زيادة كبيرة في اعتماد المستهلكين لها. ومع ذلك، فقد صاحب هذا الارتفاع في الاستخدام تحديات في تطبيق مبادئ حقوق الطبع والنشر التقليدية في هذا المجال الجديد. لكي يكون العمل محميًا بحقوق الطبع والنشر في الولايات المتحدة، يجب أن يكون نتاجًا للتأليف البشري. اتخذ مكتب حقوق الطبع والنشر الأمريكي (“المكتب”) مؤخرًا الموقف القائل بأن “[w]عندما تحدد تقنية الذكاء الاصطناعي العناصر التعبيرية لمخرجاتها، فإن المادة الناتجة ليست نتاج التأليف البشري. وبالتالي، إذا لم تكن المادة نتاج تأليف بشري، فلن يقوم المكتب بتسجيلها. ومع ذلك، فقد أدى هذا الموقف إلى تعقيد مجالات أخرى من قانون حقوق الطبع والنشر من حيث صلتها بالذكاء الاصطناعي التوليدي. والأهم من ذلك، إذا اتخذ المكتب موقفًا مفاده أن المخرجات لا يمكن أن يكون لها مؤلف بشري، فإن السؤال الذي يطرح نفسه: كيف يمكن توزيع المسؤولية إذا أنشأ الذكاء الاصطناعي الإنتاجي مخرجات تنتهك المواد المحمية بحقوق الطبع والنشر؟

الذكاء الاصطناعي التوليدي ومخاوف حقوق النشر

يتم إنشاء أنظمة الذكاء الاصطناعي و”تدريبها” من قبل منشئيها من خلال عملية تسمى التعلم الآلي، والتي تستخدم الخوارزميات لتحليل كميات كبيرة من البيانات، والتعلم من الأفكار، ثم اتخاذ قرارات مستنيرة. يمكن تدريب الذكاء الاصطناعي باستخدام مجموعات البيانات التي تأتي من منصات على الإنترنت مثل Google Images أو من تقنيات “التجميع” التي تزحف إلى الويب بحثًا عن محتوى يمكن التعرف عليه. من المحتمل أن تتضمن مجموعات البيانات هذه صورًا محمية بحقوق الطبع والنشر من جميع أنحاء الإنترنت. وبالتالي، عندما يأخذ الذكاء الاصطناعي تلك البيانات ويستخدمها لإنشاء مخرجات بعد مطالبات المستخدم، فإن هذه المخرجات قد تشبه إلى حد كبير المواد المحمية بحقوق الطبع والنشر. والنتيجة هي أن المستخدم النهائي يتوقع عملاً فريدًا من إنتاج الذكاء الاصطناعي ولكنه بدلاً من ذلك يتلقى عملاً ينتهك حقوق الطبع والنشر الحالية. في هذه الحالة، قد يتعرض كل من المستخدم وشركة الذكاء الاصطناعي للمسؤولية عن العمل المخالف، لكن التقسيم يصبح أكثر صعوبة.

التزام عملاء Microsoft بحقوق الطبع والنشر

واستجابة لمعضلة التقسيم، من المتوقع أن تقوم شركات الذكاء الاصطناعي بتطوير سياسات لتخفيف المسؤولية وربما تحويلها. نشرت Microsoft مؤخرًا تقرير الشفافية المسؤول عن الذكاء الاصطناعي. في هذا التقرير، تتعهد Microsoft “بالدفاع عن العملاء التجاريين الذين رفعت عليهم دعوى قضائية من قبل طرف ثالث بسبب انتهاك حقوق الطبع والنشر لاستخدام خدمة Azure OpenAI، [their] مساعدو الطيارين، أو المخرجات التي ينشئونها، ويدفعون أي أحكام أو تسويات سلبية ناتجة، طالما أن العميل يستوفي الشروط الأساسية مثل عدم محاولة إنشاء محتوى مخالف عمدًا واستخدام [their] الدرابزين ومرشحات المحتوى المطلوبة. بمعنى آخر، تتعهد Microsoft باستيعاب مسؤولية انتهاك حقوق الطبع والنشر لمستخدميها مع بعض الاستثناءات والقيود المحيطة بنية المستخدم.

نية المستخدم

نظرًا لأن المستخدمين عرضة لانتهاك حقوق الطبع والنشر من خلال الذكاء الاصطناعي، فإن نية المستخدم يمكن أن تكون عاملاً حاسمًا في توزيع المسؤولية بين شركة الذكاء الاصطناعي والمستخدم. يمكن أن يحدث الانتهاك لكل من المستخدمين المتعمدين وغير المتعمدين. أنشأت Microsoft ضمانات تحمي من الانتهاك غير المقصود من قبل المستخدمين. تتضمن هذه الضمانات تنفيذ حواجز الحماية وإجراءات التخفيف، مثل مرشحات المحتوى. ويبدو أن Microsoft واثقة من أن إجراءات الحماية التي تطبقها متطورة بما يكفي لمنع الانتهاك غير المقصود. ويبدو أن Microsoft مستعدة للوقوف وراء المستخدمين الذين ينتهكون ببراءة في حالة فشل هذه الضمانات.

إذا قدم أحد العملاء مطالبة إلى Microsoft للدفاع، فيجب على العميل إثبات الامتثال لجميع الضمانات ذات الصلة. وتخدم هذه الضمانات أيضًا غرضًا آخر. وفي حين أن هذا يوفر أساسًا لشركة Microsoft لرفض الدفاع والتعويض بموجب التزام حقوق الطبع والنشر الخاص بالعميل، فإنه يوفر أيضًا إطارًا لتحويل المسؤولية من Microsoft إلى المستهلك عندما ينتهك المستهلك عمدًا. إذا لم يستخدم المستخدم الضمانات التي توفرها Microsoft وحاول عمدًا إنشاء مواد تمثل انتهاكًا، فقد يبدأ توزيع المسؤولية عن الانتهاك في التحول بعيدًا عن Microsoft وإلى المستخدم. من المحتمل ألا يعفي هذا شركة Microsoft من المسؤولية تمامًا ولكنه يوفر أساسًا لشركة Microsoft للقول بأن نظام الذكاء الاصطناعي الخاص بها قد أسيء استخدامه.

النية هي عامل تحدي للتفسير. على سبيل المثال، هناك تمييز واضح في سهولة فك شفرة نية المستخدم بين المدخلين: “سنوبي” مقابل “كلب أبيض في منزل أحمر”. لم تقدم Microsoft مزيدًا من المعلومات حول كيفية تحديد نية المستخدم. في برنامج Copilot Studio الخاص بشركة Microsoft، قامت الشركة بتطوير برنامج يسمى “إثارة المواضيع”، والمعروف أيضًا باسم التعرف على النوايا. في هذا البرنامج، يستخدم الذكاء الاصطناعي كلام المستخدم ويبحث عن موضوعات تتوافق مع نية المستخدم. وبما أنه من غير الواضح كيف سيتم تطبيق التزام العميل بحقوق الطبع والنشر عمليًا، فقد يكون من دواعي القلق أن تحاول Microsoft، مثل أي شركة أخرى، تجنب المسؤولية من خلال معاييرها الشخصية لتحديد نية المستخدم.

الحاجة إلى التنظيم

ويبدو أن اللوائح المستقبلية أصبحت ضرورية بشكل متزايد. أصبحت كولورادو أول ولاية أمريكية تقر قانونًا يحمي المستهلكين من الضرر الناجم عن استخدامهم لأنظمة الذكاء الاصطناعي. سيدخل مشروع قانون مجلس الشيوخ رقم 24-205، والمعروف أيضًا باسم قانون كولورادو للذكاء الاصطناعي (CAIA)، حيز التنفيذ في 1 فبراير 2026، ويفرض التزامات إضافية على أصحاب العمل في كولورادو فيما يتعلق باستخدامهم لأنظمة الذكاء الاصطناعي. يركز CAIA على استخدام أنظمة الذكاء الاصطناعي المتعلقة بقرارات التوظيف، مثل “التمييز الخوارزمي”، لكنه يفرض واجب العناية المعقولة على منشئي أنظمة الذكاء الاصطناعي ومستخدمي هذه الأنظمة. إن واجب الرعاية والالتزامات التي يفرضها CAIA يخلق فرصًا للدول الأخرى لسن قوانين مماثلة داخل قطاع التوظيف وخارجه.

مصدر الصورة: إيداع الصور
المؤلف: أولانستوك
معرف الصورة: 315653592

صورة كاثرين ديميتروفيتش

صورة كاثرين ديميتروفيتش

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى