Jannah Theme License is not validated, Go to the theme options page to validate the license, You need a single license for each domain name.
علم واختراعات

لقد حان الوقت للشركات لكي تتباطأ ولصانعي السياسات ليعملوا على تسريع وتيرة أعمالهم


“إننا نشهد اندفاعًا كبيرًا نحو الذهب مع رغبة هذه الشركات في إطلاق هذه الأنظمة قبل أن تصبح جاهزة للعرض في وقت الذروة. يتعين على الشركات أن تضغط على المكابح.” – مارتين راسر، Datena في IPWatchdog’s AI Masters

مارتين راسر (يسار) والقاضي بول ميشيل

رسم المشاركون في اليوم الأول من برنامج IPWatchdog’s Artificial Intelligence Masters 2024 صورة قاتمة أحيانًا للوضع الحالي لأدوات الذكاء الاصطناعي التوليدية (GAI) والطرق التي يتم بها نشرها حاليًا في الولايات المتحدة، لكنهم بدوا مقتنعين بشكل عام بأن مكامن الخلل سيتم حل هذه المشكلة بمجرد أن يلحق المشرعون والمحاكم بالركب، كما فعلوا مع التقنيات التخريبية السابقة.

في العام الماضي، عقدت IPWatchdog أول برنامج ماجستير في الذكاء الاصطناعي وكان أعضاء اللجنة هناك قلقين بشكل رئيسي بشأن كيفية تكيف مكاتب الملكية الفكرية مع السماح بحماية حقوق الطبع والنشر وبراءات الاختراع للإبداعات التي تم إنشاؤها باستخدام أدوات GAI. منذ ذلك الحين، أوضح مكتب براءات الاختراع والعلامات التجارية الأمريكي (USPTO) ومكتب حقوق الطبع والنشر قواعدهما المتعلقة بالذكاء الاصطناعي في مواجهة الدعاوى القضائية والطعون الإدارية المختلفة. لكن العام الماضي شهد مجموعة من الدعاوى القضائية الجديدة التي رفعها أصحاب حقوق الطبع والنشر ضد شركة OpenAI وغيرها بسبب الطريقة التي تدرب بها هذه الشركات أنظمة الذكاء الاصطناعي الخاصة بها.

إحراج الذكاء الاصطناعي

خلال الجلسة الأولى من اليوم، ناقش أعضاء اللجنة التقاطع بين القانون والتكنولوجيا، وسردوا بعض الأخطاء الفادحة التي ارتكبتها أنظمة GAI وآثارها القانونية. قال جيسون آلان سنايدر، الرئيس التنفيذي العالمي للتكنولوجيا في شركة Momentum Worldwide، إن دوره تغير مؤخرًا مع تطور تقنيات الذكاء الاصطناعي. قال سنايدر: “أقضي الآن قدرًا أقل بكثير من وقتي كخبير تكنولوجي ومستقبلي وأكثر مع المحامين”، حيث أصبحت الخصوصية والآثار الأخلاقية لـ GAI ذات أهمية قصوى. ولكن – بالعودة إلى تعليقه العام الماضي بأن الأمر سيستغرق حوالي 15 عامًا قبل أن يصبح الذكاء الاصطناعي واعيًا بشكل كامل – قال سنايدر إنه لا يزال أمامنا طريق طويل لنقطعه قبل أن نحتاج إلى الخوف حقًا. “[AI] بالتأكيد ليس لديها القدرة، ومن المؤكد أنها لن تسيطر على العالم غدًا”.

ومع ذلك، فإن هذا لم يجعل جين كوين، المؤسس والرئيس التنفيذي لشركة IPWatchdog، يشعر بأي تحسن، لأن “هذا النوع من الدلالة يعني أنه يمكن أن يسيطر على العالم في نهاية المطاف”، أجاب كوين، فأجاب سنايدر: “بلا شك”.

لكن GAI ونماذج اللغات الكبيرة (LLM) التي تعتمد عليها لا يزال أمامها الكثير لتتعلمه إذا كانت ستصبح السباق المتفوق. وتثبت أمثلة مثل ظاهرة “الهلوسة” الخاصة بالذكاء الاصطناعي والقدرة على خداع أنظمة الذكاء الاصطناعي العام للكشف عن معلومات سرية عبر “هجمات التباعد”، أن هذه الأدوات لا تزال في مهدها إلى حد كبير.

ومن أمثلة هذه الزلات ما يلي:

  • تشير التقارير الأخيرة إلى أن برنامج Chatbot التابع لشركة Google، Gemini، عندما طُلب منه إنتاج صورة لجورج واشنطن، أعاد نسخة سوداء من أول رئيس أمريكي؛
  • كما ادعى جيميني مؤخرًا أنه “من المستحيل القول” ما إذا كان إيلون ماسك أسوأ بالنسبة للعالم من أدولف هتلر.
  • أشار مالك بن سالم، أحد أعضاء لجنة ماجستير الذكاء الاصطناعي، المدير الإداري في مكتب المدير التنفيذي للتكنولوجيا لشركة Accenture Security، إلى أنه في دراسة أجرتها جامعة ستانفورد والتي نظرت في جميع ماجستير إدارة الأعمال الحاليين وعدد الهلوسة التي تولدها داخل القطاع القانوني، 75٪ من الناتج هلوسة خالصة؛
  • قال كريتون فرومر، كبير مستشاري الملكية الفكرية والتكنولوجيا والمشتريات في RELX، إن ChatGPT كان ضحية لما يسمى “هجمات الاختلاف” حيث يطلب المستخدم من النظام تكرار نفس الكلمة مرارًا وتكرارًا حتى يكشف عن معلومات سرية . في إحدى الحالات الأخيرة، قام برنامج الدردشة الآلي OpenAI في النهاية بإصدار بيانات تدريب سرية.
  • لقد تم مؤخرًا عرض برنامج Copilot من Microsoft لسخرية المستخدمين الذين يسألون عما إذا كان ينبغي عليهم إنهاء حياتهم.

الحلول لهذه المشاكل ليست بسيطة، لكن أعضاء اللجنة قالوا إن إحدى طرق المضي قدمًا قد تكون البدء في ربط محركات الذكاء الاصطناعي المختلفة بنقاط قوة مختلفة معًا لتحسين نتائجها. وقال بن سالم إن الشركات تحتاج أيضًا إلى القيام بالعمل الشاق. وأوضحت أن نماذج GAI لها طبقة أساسية حيث يتعلمون فقط من أنماط اللغة البسيطة التي تعرضوا لها. لكن في الطبقة التالية، يجب إضافة تعليمات إضافية و”حواجز أمان”، مثل “لا تنشئ محتوى يلحق الضرر” على سبيل المثال. قال بن سالم: “هنا يأتي العمل”. وقال سنايدر أيضًا إن الحوسبة الكمومية ستلعب دورًا كبيرًا في تحسين تقنية GAI بينما نمضي قدمًا، وأنه يتوقع أن يكون هذا هو الموضوع الكبير التالي في الفضاء.

لكن فيما يتعلق بالمخاوف الكبرى، قالت بن سالم إن العدد الصغير من الكيانات التي تسيطر على هذه التقنيات وما ينتج عن ذلك من “القوة الهائلة التي ستسيطر عليها بعض الكيانات على بقيتنا” هو ما يخيفها حقًا. ووافقه سنايدر على ذلك، وقال: “عليكم أن تتذكروا أن أغلب بلدان العالم لا تتمتع بقدرة موثوقة على الوصول إلى الكهرباء أو المياه النظيفة. يمتلك الـ 1% هذه القوة الحسابية التي يمكنها تعزيز الذكاء وأتمتة العمليات، وهذا ليس بالأمر التافه.

هناك شاغل رئيسي آخر حدده أعضاء اللجنة وهو عدم القدرة الكاملة على فهم المحتوى الذي يتم تدريب أنظمة GAI عليه، والذي يبدو أنه يتكون أساسًا من كل ما يمكن العثور عليه على الإنترنت بواسطة شركات استخراج البيانات. إن نهج “القمامة في الداخل والخارج” له آثار كبيرة على سمعة أصحاب حقوق الطبع والنشر، كما أنه يؤدي إلى تفاقم الميل إلى “الهلوسة”، من بين قضايا أخرى. وقال كوين إنه يبدو أنه في مرحلة ما، سيتعين التخلص من بعض هذه الأدوات والبدء من جديد من الصفر بسبب التعقيدات المحيطة بمحو المعلومات السيئة.

المحامون: إنها وظيفتك التثقيف

في الجلسة الثانية من اليوم، ناشد القاضي بول ميشيل مهنة المحاماة تثقيف القانون وصانعي السياسات لضمان لحاق الولايات المتحدة بأوروبا والصين في الوقت المناسب عندما يتعلق الأمر بتنظيم الذكاء الاصطناعي والاستثمار فيه.

قدمت جينيفر كون، المستشار العام المساعد في Tricentis، لمحة عامة قصيرة عن قانون الذكاء الاصطناعي للاتحاد الأوروبي، والذي من المرجح أن يتم نشره في أبريل ويصبح ساري المفعول بعد ذلك بوقت قصير. لا يتوافق القانون مع النهج الأمريكي تجاه التنظيم، وستحتاج الشركات إلى تصميم ممارساتها وسياساتها لتلبية معايير الاتحاد الأوروبي إذا كانت تخطط للانضمام إلى الاتحاد الأوروبي على الإطلاق، مما يعني أن أوروبا ستضع المعايير بشكل أساسي عندما يتعلق الأمر بسياسة الذكاء الاصطناعي. . بالنسبة لأنواع معينة من المنتجات، سيطلب الاتحاد الأوروبي من الشركات أن يكون لديها “رقابة بشرية هادفة” على أدوات الذكاء الاصطناعي، خاصة عندما يتعلق الأمر بمجالات مثل التعليم. سيتم حظر التقنيات الأخرى، مثل تحديد الهوية البيومترية عن بعد وأنظمة التسجيل الاجتماعي التي تعتمد على الذكاء الاصطناعي، تمامًا.

قال القاضي ميشيل إن هناك حاجة فورية لتحقيق التوازن المناسب بين الإفراط في التنظيم، من ناحية، ومكانة الولايات المتحدة حاليًا، من ناحية أخرى:

“إن المنافسة هي بين سيادة القانون المرتكزة على الهيكل السياسي للبلد مقابل الحرية للجميع من قبل أي شخص لديه السلطة أو المال للقيام بكل ما يقرر أنه في مصلحته الخاصة. والسؤال هو ما إذا كان نظام سيادة القانون الذي يرتبط بالهياكل السياسية يمكن أن يتعلم بسرعة كافية ليكون بناء في توفير المعالم الإرشادية والحدود وطرق تقييم السلوك بحيث يؤدي في النهاية إلى السيطرة مقابل الحرية للجميع. وهذا بدوره سيعتمد على مدى سرعة الأشخاص في هذه الغرفة وأقرانك في أماكن أخرى ممن لديهم المعرفة في تعليم صناع السياسات وأولئك الذين يؤثرون عليهم بالقدر الكافي والسرعة الكافية للتغلب على هذه المشكلة.

وأضاف ميشيل أن المشرعين ومسؤولي السلطة التنفيذية، إذا تُركوا لأجهزتهم الخاصة، “غير مستعدين على الإطلاق للقيام بما يبدو حيوياً للغاية”، وسيحتاجون إلى أكبر قدر ممكن من المساعدة.

قال Martijn Rasser، كبير مسؤولي العلاقات والمدير الإداري في Datena، إن وزارة الدفاع نجحت في نشر أدوات GAI الموثوقة وأنه “من الممكن جدًا مع التوجيه الصحيح أن يكون لديك أنظمة ذكاء اصطناعي يمكنك الوثوق بها”. ومع ذلك، أضاف: “معظم التطوير يقع في القطاع الخاص، حيث لا توجد حواجز حماية على الإطلاق في الوقت الحالي”. وقال إنها مسألة تباطؤ للحد من بعض المشاكل التي نشأت. وقال راسر: “إننا نشهد اندفاعاً كبيراً نحو الذهب مع رغبة هذه الشركات في إطلاق هذه الأنظمة قبل أن تصبح جاهزة للعرض في أوقات الذروة”. “تحتاج الشركات إلى الضغط على المكابح لأنه بمجرد ظهورها في العلن، لا يمكنك إلغاء اختراع هذه النماذج.

استكشفت لجنتان أخريان يوم الاثنين الاستخدام العادل ومستقبل قانون حقوق الطبع والنشر فيما يتعلق بالذكاء الاصطناعي وتقييم مخاطر الذكاء الاصطناعي. سيتضمن غدًا يومًا كاملاً من ست حلقات نقاش تستكشف آثار الذكاء الاصطناعي على الأسرار التجارية ومكافحة الاحتكار والممارسات القانونية للملكية الفكرية وغير ذلك الكثير. سجل هنا للحضور.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى