ما هو مصدرك؟ الانتحال والذكاء الاصطناعي والفوضى التي خلقناها
“إن GAI هي أداة جديدة ذات إمكانات كبيرة، ولكننا بحاجة إلى تعلم كيفية استخدامها دون التضحية بمعاييرنا الأخلاقية ونزاهتنا، أو التضحية بأساسيات حقوق الطبع والنشر وحمايتها.”
السرقة الأدبية تعني أخذ عمل شخص آخر وتمريره على أنه عمل خاص بك. يمكن أن تكون السرقة الأدبية نسخًا صارخًا لعمل شخص آخر أو إعادة صياغة عمل شخص آخر بشكل طفيف دون مدخلات أو رؤية أصلية. في الأساس، السرقة الأدبية هي سرقة أدبية ومسألة أخلاقية ونزاهة للمتهمين بها، أو يفعلونها. اليوم، تبدو الأدلة على احتمالية السرقة الأدبية شائعة في العديد من جوانب الحياة، سواء كان ذلك في التعليم أو الصحافة أو القانون، على الرغم من أنها تعتبر غير مقبولة بشكل عام.
مع انفجار قدرات الذكاء الاصطناعي التوليدي (GAI) (مثل ChatGPT) وقدرته على إنتاج النصوص والفيديو والصور وغيرها من البيانات، فإن استخدام GAI يؤيد بشكل مثير للسخرية النسخ بالجملة للمحتوى “لإبلاغ” تحليله وإكمال المهام. ، بينما تقدم نفسها كأداة مفيدة لاكتشاف الانتحال من قبل الآخرين. في هذه الأيام، يمكنك أن تطلب من خدمة GAI صياغة المستندات (ChatGPT) والتحقق من الأخطاء الإملائية أو إرشادك بشأن وضوح كتابتك (Grammarly). لقد فعل الذكاء الاصطناعي العجائب من أجل كفاءة الناس، لكنه لديه القدرة على طمس الخطوط الأخلاقية والنزاهة من خلال الانتحال وخلق قضايا ومخاوف قانونية بموجب قانون حقوق الطبع والنشر.
على سبيل المثال، حددت TurnItIn (الشركة الرائدة في مجال توفير برامج الكشف عن الذكاء الاصطناعي)، بعد السنة الأولى من الخدمة، أنه من بين 200 مليون ورقة بحثية قامت بمراجعتها، كان 11% منها يحتوي على 20% على الأقل من الكتابة باستخدام الذكاء الاصطناعي، و3% كان لديه 80% على الأقل. الكتابة بالذكاء الاصطناعي موجودة. تعرضت دقة تحليل Turnitin لانتقادات شديدة، حيث يستخدم الطلاب الذين يقدمون أوراقهم إلى Turnitin أيضًا برنامج تصحيح القواعد النحوية Grammarly، على النحو الموصى به من قبل المدارس التي يذهبون إليها. قد تؤدي مراجعة Turnitin اللاحقة لمثل هذه الورقة إلى وضع علامة زائفة على وجود كتابة الذكاء الاصطناعي، في حين أن الكتابة في الواقع هي من إنشاء الطالب. أدت هذه النتائج إلى تردد الطلاب والجامعات في الاعتماد على Turnitin.
مشكلة في منحنى (التعلم): تأثيرات المحتوى الناتج عن الذكاء الاصطناعي
تم تصميم الذكاء الاصطناعي لجعل الحياة أسهل بالنسبة لنا. تعمل القدرة على إدخال مطالبة بسيطة والحصول على استجابة مفصلة على تبسيط المهام الأكثر صعوبة. ومع ذلك، يجب على المرء أن يتصرف بحذر. يخلق المحتوى الذي تنتجه نماذج الذكاء الاصطناعي هذه بعض المشكلات لأن النتائج غالبًا ما تكون غير دقيقة وأحيانًا تكون مختلقة. إن قصص الرعب الأخيرة المحيطة بالمحتوى الناتج عن الذكاء الاصطناعي مثيرة للقلق، على أقل تقدير.
على سبيل المثال، لنأخذ حالة مبكرة استخدم فيها أحد المحامين في نيويورك ChatGPT لمساعدته في رفع دعوى أمام المحكمة الفيدرالية. ما هو الخطأ في هذا؟ الحالات التي أنشأها ChatGPT للمساعدة في تقديمه لم تكن موجودة. وفقًا لمجلة فوربس، فإن ستيفن أ. شوارتز – المحامي المعني – لم يستخدم ChatGPT من قبل مطلقًا وعندما سأل ChatGPT عما إذا كانت الحالات حقيقية، قال برنامج الدردشة الآلي إنها كذلك. اعتمد شوارتز، مع عدد قليل من المحامين الآخرين في شركته، على هذه المعلومات في قضيتهم. لكل رويترز، فرضت المحكمة عقوبات على شوارتز وشركاه وأمرت بدفع غرامة قدرها 5000 دولار. وبغض النظر عن الاستراتيجية المشكوك فيها وراء قرار شوارتز، فإن خلاصة القول هي أن الذكاء الاصطناعي قد يخلق مصادر غير دقيقة وغير موجودة في الواقع والتي يعتمد عليها الناس بشكل أعمى يوميا.
في الآونة الأخيرة، في مايو 2024، أطلقت Google لأول مرة ميزة البحث الجديدة المدعومة بـ GAI والتي سمحت لبرنامج الذكاء الاصطناعي من Google بالإجابة على سؤال المستخدم بدلاً من مجرد إدراج مواقع الويب ذات الصلة. كما أشار ال واشنطن بوست، كانت الميزة تنتج استجابات غريبة تراوحت بين “سخيفة وخطيرة” مثل اقتراح أن يقوم المستخدمون بخلط الغراء في مكونات البيتزا حتى لا ينزلق الجبن وإخبار المستخدمين أنه لا يوجد بلد في أفريقيا يبدأ بالحرف “K”. ” (إذا كنت تفكر في ذلك – إنها كينيا). إن GAI لا يمكن التنبؤ به بطبيعته وقد ينتج محتوى خاطئًا تمامًا.
بدأ الناس يدركون المشاكل المتعلقة بالمحتوى الذي ينشئه الذكاء الاصطناعي، وأصبح التصور العام للذكاء الاصطناعي موضع شك بشكل متزايد. وفقًا لاستطلاع أجراه معهد سياسات الذكاء الاصطناعي (AIPI)، فإن 64% من الناخبين يؤيدون قيام الحكومة بإنشاء منظمة مكلفة بمراجعة الذكاء الاصطناعي بينما يعارضها 14% فقط. بالإضافة إلى ذلك، أجرى مركز سياسات الذكاء الاصطناعي استطلاعًا أظهر أن 78% من الأمريكيين يعتقدون أن الذكاء الاصطناعي يجب أن يكون أكثر تنظيمًا، بينما قال 52% منهم إنه يجب تنظيم الذكاء الاصطناعي “بشكل أكبر بكثير”. لقد أصبح الناس محبطين من الوضع الحالي للذكاء الاصطناعي والتأثيرات المحتملة. في حين أن منصات GAI تبشر بأن تكون أداة مفيدة، إلا أن هناك أسبابًا كافية للتشكيك.
داخل أوراكل: كيف يعمل الذكاء الاصطناعي وبرامج الكشف عن الانتحال (وإلى أي مدى؟)
أدى ظهور برامج GAI إلى زيادة المخاطر عندما يتعلق الأمر بالتحقق من مصادر ومؤلف (مؤلفي) العمل المكتوب. وقد أدى هذا إلى زيادة أهمية كل من برامج الكشف عن الانتحال والذكاء الاصطناعي. إن معرفة أن هذه الأنواع من البرامج تعمل بشكل مختلف هو المفتاح لفهم حدود كل منها. تصف Scribbr، وهي شركة تقدم برامج الذكاء الاصطناعي وبرامج الانتحال، الاختلافات بين النوعين.
كيف يعمل برنامج الكشف بالذكاء الاصطناعي؟
يقيس برنامج الكشف بالذكاء الاصطناعي خاصيتين محددتين للنص المحدد – “الحيرة” و”الانفجار”. يمكن تعريف الحيرة على أنها مقياس لمدى احتمالية إرباك القارئ العادي بالنص المحدد. يقيس الانفجار التباين في بنية الجملة وطولها. المثير للدهشة هو أن هذا البرنامج لا يعتمد على قاعدة بيانات. إنه يقيس فقط الحيرة والانفجار – أسلوب كتابة المؤلف ومحتوى النص المقدم.
كيف يعمل برنامج كشف الانتحال؟
يختلف برنامج كشف الانتحال عن نظيره القائم على الذكاء الاصطناعي. يعتمد هذا البرنامج على قاعدة بيانات للأعمال المنشورة مسبقًا لتحديد ما إذا كان النص المقدم مسروقًا. يقوم البرنامج بتمشيط بياناته لتحديد ما إذا كان النص المقدم مشابهًا جدًا لأي عمل منشور سابق موجود في الملف. ومع ذلك، فهو لا يقيس الخصائص المحددة للنص المقدم.
ما مدى جودة عمل كل برنامج؟
بحثت دراسة في فعالية برامج الكشف عن الذكاء الاصطناعي. وبعد اختبار 16 برنامجًا مختلفًا، أظهرت النتائج أن ثلاثة فقط من البرامج (Copyleaks، وOriginality.ai، وTurnItIn) تتمتع بدقة “عالية جدًا” عند اكتشاف أوراق GPT-4. إجمالاً، حددت البرامج الستة عشر المستخدمة في الدراسة بشكل صحيح فقط 61% من أوراق GPT-4. تساعد النتائج المتباينة في تفسير سبب إعلان برنامج TurnItIn، وهو أحد البرامج ذات الدقة العالية جدًا في الدراسة، علنًا أن برنامجه ليس دقيقًا دائمًا.
أما بالنسبة لبرامج الكشف عن الانتحال، فقد وجدت دراسة نشرت في مجلة المعلوماتية الطبية التطبيقية ذلك لا أحد من البرامج المستخدمة كانت قادرة على اكتشاف النص المعاد صياغته. وبالتالي، ذكر الباحثون أن الإشراف البشري يجب أن يكون مطلوبًا حتى عند استخدام برامج كشف الانتحال.
دقة كل من برامج الكشف عن الانتحال والذكاء الاصطناعي مهمة. يمكن أن يكون لفكرة مسروقة أو نتيجة إيجابية كاذبة آثار واسعة النطاق على أي شخص في الأوساط الأكاديمية أو الصحافة أو القانون. فقط اسأل مارلي ستيفنز، وهو طالب جامعي في جامعة شمال جورجيا. وقد علمت مؤخرًا أنه تم وضع علامة على ورقتها لاستخدام الذكاء الاصطناعي. المشكلة؟ لم تستخدمه قط. وفقًا لـ MSN، استخدمت ستيفنز Grammarly قبل تقديم ورقتها البحثية، مما دفع برنامج الكشف عن الذكاء الاصطناعي بالمدرسة إلى الإبلاغ عن عملها. حصلت على صفر في الورقة، وبالتالي وجدت نفسها تحت المراقبة الأكاديمية. وقد حذرت مجلة Inside Higher Ed، وهي مطبوعة لمجتمع التعليم العالي، الأساتذة من التعامل مع نتائج اكتشاف الذكاء الاصطناعي بحذر لأن “الحدود أصبحت أكثر ضبابية الآن”. مع ظهور “حرب الانتحال” والذكاء الاصطناعي، أصبحت دقة برامج الكشف مهمة أكثر من أي وقت مضى.
الملكية الفكرية (والقانونية) الآثار المترتبة على الذكاء الاصطناعي والانتحال
يحمي قانون حقوق الطبع والنشر الأمريكي جميع أعمال التأليف المثبتة في وسيلة تعبير ملموسة يمكن من خلالها إدراكها أو إعادة إنتاجها أو نقلها بطريقة أخرى، إما بشكل مباشر أو بمساعدة آلة أو جهاز. 17. USC§ 102. إن ظهور الذكاء الاصطناعي يدفع هذا القانون إلى أقصى حدوده. إن الكثير من برامج الذكاء الاصطناعي للبيانات التي تم التدريب عليها محمية بحقوق الطبع والنشر. اضطر العديد من مطوري الذكاء الاصطناعي إلى معالجة مشكلات حقوق الطبع والنشر المحتملة الناتجة عن استخدام برامج GAI هذه من خلال تقديم التزامات وحماية حقوق الطبع والنشر. ومع ذلك، لا يقدم جميع مطوري GAI مثل هذه الحماية. على الرغم من أنه قد تكون هناك حماية فيما يتعلق بحقوق الطبع والنشر مع استخدام الذكاء الاصطناعي، إلا أنها لا تحمي من القضايا الأخلاقية والنزاهة المرتبطة بالسرقة الفكرية – أو مجرد النسخ البسيط.
حتى ممارسة القانون شهدت مشكلات مرتبطة بالنسخ. يعتمد المحامون في ممارساتهم عادة على السوابق، سواء كان ذلك في الدعاوى القضائية أو المعاملات. إن الاستفادة من الملخصات السابقة، وخاصة تلك التي تحتوي على حجج ناجحة، أمر مشجع، إن لم يكن كذلك مطلوب في ممارسة القانون. ومع ذلك، يمكن للمحامين نسخ الكثير من الموجز. وتوضح الدعوى القضائية المرفوعة مؤخرًا بين مكتبي محاماة هذه المشكلة. يزعم المدعي أن المدعى عليه قام بنسخ طلبه الخاص بالقاعدة 12 بالكامل من موجزه. لدعم قضيتهم، يستشهد المدعي شركة Newegg ضد عزرا ساتون، بنسلفانيا، التي منحت حكمًا مستعجلًا جزئيًا يقضي بأن المدعى عليه فشل في إثبات مطالبة الاستخدام العادل لأن المدعي سجل ملخصه لدى مكتب حقوق الطبع والنشر بالولايات المتحدة قبل تقديمه إلى المحكمة. شركة Newegg ضد عزرا ساتون، بنسلفانيا, 2016 الولايات المتحدة حي. LEXIS 124981 (CD Cal. 13 سبتمبر 2016). لا يزال من غير المؤكد ما إذا كان هذا الادعاء قائمًا، لكنه يوضح سبب ربط قانون الملكية الفكرية بالانتحال والذكاء الاصطناعي.
لا يستخدم المحامون تقنية GAI في عملهم اليومي فحسب، بل يستخدمها القضاة أيضًا. تصدر القاضي كيفين نيوسوم من الدائرة الحادية عشرة عناوين الأخبار بعد موافقته في قراره الأخير. كتب نيوسوم، الذي وافق على رأي الأغلبية بالكامل، موافقة من 32 صفحة حول كيفية استخدامه لـ ChatGPT للمساعدة في اتخاذ قراره في القضية. كان السؤال المطروح أمام المحكمة هو ما إذا كان تركيب الترامبولين على الأرض يفي بالمعنى العادي لـ “المناظر الطبيعية”. سنيل ضد شركة United Specialty Ins. شركة، رقم 22-12581 (الدائرة الحادية عشرة، 28 مايو 2024). طرح نيوسوم على ChatGPT السؤال الملح، وجاء الرد الذي يوضح بالتفصيل لماذا يمكن اعتبار تركيب الترامبولين على الأرض جزءًا من تنسيق الحدائق. بطاقة تعريف. في 9 (نيوسوم، ج.، متفق عليه). يؤكد نيوسوم أن نماذج تعلم اللغة (LLMs) “يتم تدريسها” حرفيًا باستخدام البيانات التي تهدف إلى عكس وتسجيل كيفية استخدام الأفراد للغة في حياتهم اليومية. بطاقة تعريف. في 11 (نيوسوم، ج.، متفق عليه). يشعر نيوسوم أن LLMs هي أدوات مهمة لتوجيه الاستفسارات إلى المعنى العادي ويحث المجتمع القانوني على أن يحذو حذوه ويتبنى هذه التكنولوجيا في الممارسة العملية.
غالبية القضاة لا يفضلون استخدام GAI إلى حد أنهم يقيدون قدرة المحامين على استخدامه. لكن يبدو أن القاضي نيوسوم من الأقلية هنا. من المؤكد أن استخدامه لـ GAI في هذه الحالة مثير للجدل، ولكنه من المحتمل جدًا أن يكون مبتكرًا. ومع ذلك، فهذه مجرد أحدث قصة تثبت أن هذه التكنولوجيا تشق طريقها إلى كل جانب من جوانب الحياة والعمل – والقانون ليس استثناءً. على الرغم من أن الآثار المترتبة على تصرفات القاضي نيوسوم لم تظهر بعد، إلا أن القضايا المتعلقة بالذكاء الاصطناعي والسرقة الأدبية لا تزال تلوح في الأفق على تكنولوجيا الأجيال هذه.
الطريق إلى الأمام: إلى أين سيتجه الذكاء الاصطناعي والملكية الفكرية والسرقة الفكرية من هنا؟
مع تطور الذكاء الاصطناعي والتقنيات المستقبلية الأخرى (يرى الاحصاء الكمية) كيف ندير قضايا الذكاء الاصطناعي والانتحال وحقوق النشر في التعليم والصحافة والبحث وفي ممارسة القانون؟ إن GAI هي أداة جديدة ذات إمكانات كبيرة، ولكننا بحاجة إلى تعلم كيفية استخدامها دون التضحية بمعاييرنا الأخلاقية ونزاهتنا، أو التضحية بأساسيات حقوق الطبع والنشر وحمايتها. وبينما نمضي قدمًا، يجب علينا إيجاد توازن بين الذكاء الاصطناعي وبرامج كشف الانتحال – التي قد تكون صحيحة أو غير صحيحة – والتعليم الإضافي لطلابنا والمعلمين والصحفيين وحتى المحامين حول ما هو صواب وما هو خطأ.
ملحوظة: نود أن نتقدم بالشكر والعرفان إلى درو إنجل ولوجان وودوارد لمساعدتهما في البحث وصياغة هذه المقالة.
مصدر الصورة: إيداع الصور
المؤلف: يوري موتوف
معرف الصورة: 394981892
اكتشاف المزيد من موقع علم
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.