الذكاء الاصطناعى يحتاج إلى التوازن الصحيح في الابتكار والتنظيم لتزدهر

يقول البعض أن الإفراط في تنظيم الذكاء الاصطناعى سيعيق التنمية. يعتقد أحد خبراء سياسة الابتكار أن كلا من حقوق الذكاء الاصطناعى و IP يحتاج إلى سياق أوضح لعلم الذكاء الاصطناعى للعمل بشكل منتج. في الحلقة الحالية من فهم مسائل IP (UIPM) ، Dr. Brandie M. Nonnecke ، خبير السياسة في خلفية في الصحافة ، يناقش ما ينبغي أن يكون عليه الذكاء الاصطناعى المسؤول ويقول إن تنظيم الذكاء الاصطناعى ضروري ، وإذا تم القيام به بشكل صحيح ، فلن يخنق الابتكار. يعرف Nonnecke التردد في التنظيم هو “رد فعل رعشة الركبة من قبل الشركات [and] وتقول: “لكن دعنا نتذكر أن المستثمرين للتهرب من الإشراف ، مضيفًا أن اللائحة يمكن أن يحفز في الواقع بيئة أكثر تنافسية ، وهو سوق أكثر تنافسية لهم للعمل في الداخل.”
Nonnecke هو المدير المؤسس لمركز أبحاث تكنولوجيا المعلومات في مختبر سياسة المجتمع (CITRIS) ، ومقره في جامعة كاليفورنيا في بيركلي. وهي أستاذة مساعدة مشاركة في كلية جولدمان للسياسة العامة (GSPP) حيث توجه مبادرة السياسة التقنية ، والتعاون بين Citris و GSPP لتعزيز تعليم السياسة التقنية والبحث والتأثير. Nonnecke هي مديرة مشاركة في هيئة التدريس في مركز بيركلي للقانون والتكنولوجيا في قانون بيركلي حيث تقود المشروع في الذكاء الاصطناعي والمنصات والمجتمع. كما شاركت في توجيه مركز سياسة UC Berkeley AI ، وهو باحثون في التدريب على المبادرة متعددة التخصصات لتطوير أطر فعالة من حوكمة الذكاء الاصطناعي والسياسة.
في هذه الحلقة من UIPM ، مناقشة مضيفة Nonnecke و UIPM Bruce Berman:
- – الوضع الحالي لتنظيم الذكاء الاصطناعى: “هكذا ، أقر الاتحاد الأوروبي التشريع الأكثر شمولاً من الذكاء الاصطناعي حتى الآن ، قانون الاتحاد الأوروبي الذكاء الاصطناعي ، الذي أصبح الآن ساري المفعول” ، لكن “الولايات المتحدة قصة أخرى كاملة”.
- -لا يمنح غير ذلك الفضل في الولايات المتحدة للمشرعين فيما يتعلق بـ AI. وتقول: “أعتقد بقوة أنهم بذلوا الكثير من الجهد لمعرفة المزيد عن التكنولوجيا وخاصة وجود موظفيهم في معرفة المزيد. لقد استضافت أنا شخصياً إحاطاتها قبل أن يقوم أعضاء الكونغرس بفضح سوء الفهم حول ما يمكن أن تفعله التكنولوجيا بالفعل”.
- – على الرغم من أننا “ليس لدينا قانون شامل يحكم الذكاء الاصطناعي ، فلن ننسى أننا قد أنشأنا قوانين تنطبق. إذا قمت بتطوير نظام AI يسبب الضرر ، كمطور ، فيمكنك مقاضاتك بموجب ضرر المسؤولية عن المنتج ، أو إذا قمت بتطوير أداة AI لمراجعة السيرة الذاتية ، كما أنه يمكن أن تكون محددًا على قوانين غير التمييز”.
- -قد تفضل بعض الدول نماذج منظمة العفو الدولية مفتوحة المصدر ، بدلاً من نماذج الذكاء الاصطناعي المغلقة ، لأن “لن يكونوا قادرين على مواكبة الولايات المتحدة. لذلك أنا بالتأكيد أرى أن الدول الأوروبية تدفع أكثر من أجل المفتوحة”.
- – الصحافة والسياسة تآزرية. “من المهم التواصل مع الجمهور ، كيف تنجح التكنولوجيا فعليًا؟ ما هي القوانين والسياسات الناشئة التي تشكل هذه التكنولوجيا؟ لذلك أنا فخور بأنني تواصل جيد لجمهور متنوع ويحصل الفضل على درجة الماجستير في الصحافة.”
الردود الرئيسية
تتطور التكنولوجيا بسرعة ، ولكن ليس دائمًا في خط مستقيم. لم يكن من السهل فصل التكنولوجيا الجيدة عن السيئة. منظمة العفو الدولية تجعل الأمر أكثر صعوبة. كيف يجب أن نحدد منظمة العفو الدولية المسؤولة؟
nonnecke: “هذا هو السؤال الكبير تمامًا. أعتقد أن تحديد الذكاء الاصطناعى المسؤول أمر سياقي للغاية. أيضًا ، التكنولوجيا هي الاستخدام المزدوج ، ويمكن أن يكون لها آثار إيجابية على مجتمعنا ، وتسبب في وقت واحد العوامل الخارجية السلبية. ما هو الأكثر أهمية في تطوير الذكاء الاصطناعى المسؤول هو تقييم هذا التوازن الدقيق بين الفوائد والمخاطر وضمان وضع التدخلات التقنية المناسبة أو تدخلات الحكم المناسبة لصالح التوازن لصالح”.
هل المصدر المفتوح شيء يعانقه سياسة الذكاء الاصطناعي؟ هل هم أكثر راحة مع رمز الملكية؟ ما هو تفكيرهم العام؟
nonnecke: “أود أن أقول إنه منقسمة إلى حد ما ، بصراحة. هناك فائدة من نماذج AI المفتوحة التي يمكن أن تحفز الشركات الناشئة الأخرى ، والشركات الأخرى ، وتساعد الاقتصاد. على الجانب الآخر ، هناك قلق من أن هذه النماذج المفتوحة يمكن أن تختارها ممثلين شائين في الوقت الحالي ، حيث يجب أن تفتح الخطر ، وينظرون إلى الخطر ، والاستفادة من الديمقراطيين. من الواضح جدًا أنهم يريدون أن يكونوا قادرين على استخدام هذه النماذج محليًا. “
يتم تأسيس الكثير من الذكاء الاصطناعي التوليدي على نموذج انتهاك مفترس. ماذا تفعل للابتكار؟ ما الذي يفعله حقًا هنا على المدى الطويل؟
nonnecke: “هذا هو السؤال الذي نواجهه جميعًا في الوقت الحالي. إذا نظرت إلى كيفية قيام Openai ببناء ChatGpt ، فقد قاموا بتجميع الإنترنت وهو يسحب محتوى محميًا ، أليس كذلك؟[violates copyright law]، على الرغم من أن هذا لا ينتهك ، فإن قانون الاحتيال وسوء المعاملة على الكمبيوتر لأن المحتوى متاح للجمهور. “
المزيد من النقاط البارزة
يقول Nonnecke أننا في وقت مثير للاهتمام للغاية ، وهذا “”[d]في إطار إدارة ترامب الأولى ، رأينا عملًا كبيرًا نحو ضمان أفضل ما في الولايات المتحدة لتبني هذه التكنولوجيا بطريقة تفيد الجميع “، وأنه يجب علينا أن نراقب بشكل خاص في كاليفورنيا” لقيادة الطريق.
استمع إلى الحلقة بأكملها للتعلم:
- ما هو الاستخدام العادل الذي يمكن أن يكون في عالم الذكاء الاصطناعى التوليدي: “هل يمكن أن ندير هذا رأسه ونقول أيضًا ، هل يجب أن أشير إلى أداة الذكاء الاصطناعى التوليدي لإنشاء صورة؟ هناك الكثير من الفن والمهارة التي تدخل في المطالبات. هناك مجال مزدهر من المهندسين الفوريين”.
- Nonnecke هو “رؤية الابتعاد عن هذه النماذج الكبيرة جدًا إلى النماذج الأصغر ، حيث يستخدمون طريقة تسمى RAG ، والتي تعزز الجيل المعزز.” هذه النماذج الأصغر لها أوجه تشابه مع chatgpt ، ولكن عندما تقوم بالاستعلام عن النماذج الأصغر “، فقد سمحت فقط بتدريبها على مجموعة محددة من البيانات.”
- أن كل من القطاعين العام والخاص خوف من فقدان الذكاء الاصطناعى التوليدي ، أن الجميع الآن “يسارعون إلى أن يكونوا قادرين على تبني هذه التكنولوجيا أو بناء خاصة بهم. حتى في ولاية كاليفورنيا ، ولاية واشنطن ، لدينا أوامر تنفيذية ركزت على وجه التحديد على أدوات الذكاء الاصطناعي وتبنيها داخل حكومتنا.”
- إن التقييمات لشركات الذكاء الاصطناعى مرتفعة بشكل كبير وأن “الفقاعة ستنفجر في مرحلة ما ، تمامًا كما كان لدينا [with] نقطية كوم بوم. أنا أضمن. “
اكتشاف المزيد من موقع علم
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.