أوروبا تشدد قواعد عمل النماذج القوية للذكاء الاصطناعي التوليدي

اللوائح الجديدة تقسم الأنظمة إلى 3 فئات حسب قدرات التكنولوجيا وعدد المستتخدمين

شعار العملية التشغيلية للذكاء الاصطناعي في قاعة خاصة بشركة "سامسونغ إلكترونيكس" بمعرض آي أف إيه التجاري للإلكترونيات الاستهلاكية والأجهزة المنزلية في برلين في ألمانيا بتاريخ 31 أغسطس 2022
شعار العملية التشغيلية للذكاء الاصطناعي في قاعة خاصة بشركة "سامسونغ إلكترونيكس" بمعرض آي أف إيه التجاري للإلكترونيات الاستهلاكية والأجهزة المنزلية في برلين في ألمانيا بتاريخ 31 أغسطس 2022 المصدر: بلومبرغ
المصدر: بلومبرغ
تعديل مقياس القراءة
ع ع ع

يعمل الاتحاد الأوروبي على دراسة نهج يتكون من 3 مستويات لتنظيم نماذج وأنظمة الذكاء الاصطناعي التوليدي، بحسب مقترح اطلعت عليه بلومبرغ، يأتي ضمن جهود غير مسبوقة للسيطرة على هذه التكنولوجيا سريعة التقدم.

ستضع المستويات الثلاث قواعد العمل بالنسبة لنماذج الأساس المختلفة -أنظمة الذكاء الاصطناعي التي يمكن تكييفها للقيام بمجموعة من المهام -تتطلب اختبارات خارجية إضافية لأقوى تكنولوجيا، بحسب وثيقة المقترح.

قواعد ملزمة

يوشك الاتحاد الأوروبي أن يصبح أول الحكومات الغربية التي تضع قواعد إلزامية لعمل الذكاء الاصطناعي. وفقاً للتشريع المقترح المعروف باسم قانون الذكاء الاصطناعي، ينبغي أن تخضع الأنظمة التي تتنبأ بالجريمة أو تصنف طلبات العمل لتقييم المخاطر، من بين متطلبات أخرى. يريد المفاوضون الانتهاء من وضع هذا التشريع خلال الاجتماع المقبل المقرر في 25 أكتوبر الجاري، وذلك بهدف إصداره مع نهاية السنة.

برامج الذكاء الاصطناعي المجانية عرضة للمخاطر الأمنية

وبموجب القواعد المقترحة، ستشمل الفئة الأولى جميع نماذج الأساس. سيكون المستوى الثاني خاصاً بالأنظمة ذات "القدرة العالية" بحسب مقدار قوة الحوسبة المستخدمة لتدريب نماذجها اللغوية الكبيرة، والخوارزميات التي تستخدم مجموعات بيانات ضخمة لتطوير قدرات الذكاء الاصطناعي. وبحسب المقترح، يمكن لهذه النماذج "تجاوز القدرات التكنولوجية الحالية وقد لا تُفهم بطريقة كاملة".

أخيراً، ستشمل الفئة الثالثة المعروفة باسم أنظمة الذكاء الاصطناعي للأغراض العامة واسعة النطاق أدوات الذكاء الاصطناعي الأكثر انتشاراً وستُقاس بعدد المستخدمين الإجمالي.

لم تكن المفوضية الأوروبية متاحة للاتصال للتعليق على الموضوع.

"تشات جي بي تي"

منذ إصدار شركة "أوبن إيه آي" تطبيق "تشات جي بي تي" السنة الماضية، انتشر استخدام أدوات الذكاء الاصطناعي التوليدي، وبدأ جزء كبير من قطاع التكنولوجيا الاندفاع نحو تطوير إصدارات خاصة به. وقد يستجيب برنامج الذكاء الاصطناعي التوليدي للأوامر البسيطة الخاصة بنص وصورة وفيديو استناداً لنماذجه اللغوية الكبيرة، وغالباً بمستوى مخيف من المهارة.

إليك كل ما تحتاج معرفته عن "ChatGPT-4" الجديد

ما يزال الاتحاد الأوروبي يتصدى لعدد من القضايا المهمة المتعلقة بطريقة التعامل مع التكنولوجيا، بما فيها أسلوب تنظيم الذكاء الاصطناعي التوليدي تحديداً وما إذا كان سيحظر تقنية مسح الوجه وسط الحشود أثناء البث الحي. وقد تعرضت خطط البرلمان والمجلس الأوروبي لانتقادات تشير إلى أن الحكومة ربما تعطل قدرة الشركات الأصغر على التنافس مع عمالقة قطاع التكنولوجيا.

أيد ممثلون من مؤسسات الاتحاد الأوروبي الثلاث عموماً تبني نهج متدرج خلال اجتماع في وقت سابق من الشهر الحالي، لكن الخبراء التقنيين توصلوا إلى اقتراح أكثر واقعية. بناء على وثيقة 16 أكتوبر الحالي التي اطلعت عليها بلومبرغ، بدأت الأفكار تتبلور حالياً، رغم أنها قد تتغير مع بدء المفاوضات.

نستعرض فيما يلي الطرق الممكنة لمعالجة الاتحاد الأوروبي للمستويات الثلاثة:

1. جميع النماذج التأسيسية

من المقرر أن تخضع شركات تطوير الذكاء الاصطناعي لشروط الشفافية قبل طرح أي نموذج بالسوق. سيتوجب عليها توثيق النموذج وعملية تدريبه، بما فيها نتائج جهود "الفريق الأحمر" الداخلية، حيث يحاول الخبراء المستقلون دفع النماذج إلى القيام بسلوك سيئ. سيجري أيضاً تقييم يستند إلى بروتوكولات قياسية واحدة.

ستحتاج الشركات بعد طرح النموذج بالسوق إلى توفير معلومات للشركات المستخدمة للتكنولوجيا وتمكينها من اختبار النماذج الأساسية.

رئيس "غوغل" يتعهد بالتأني في مقاربة الذكاء الاصطناعي

ستكون الشركات ملزمة بتضمين ملخص "مفصل بما يكفي" للمحتوى الذي استخدمته لتطوير نماذجها وطريقة إدارتها لقضايا حقوق النشر، بما فيها ضمان إمكانية انسحاب أصحاب الحقوق من استخدام محتواهم لتدريب نماذج الذكاء الاصطناعي. وينبغي على الشركات أيضاً التأكد من إمكانية التمييز بين محتوى الذكاء الاصطناعي والمواد الأخرى.

اقترح المفاوضون تعريف نموذج الأساس على أنه ذلك النظام الذي بمقدوره "القيام بمجموعة واسعة من المهام المتمايزة بكفاءة".

2. نماذج أساس ذات قدرة عالية

ستلتزم الشركات التي تنتج هذا المستوى من التكنولوجيا بقواعد أشد صرامة. قبل طرحها في السوق، سيتعين على هذه النماذج الخضوع لعمليات "الفريق الأحمر" بطريقة منتظمة من قبل خبراء خارجيين سيتم التدقيق فيهم من قبل مكتب للذكاء الاصطناعي أنشأه الاتحاد الأوروبي حديثاً. وسترسل نتائج هذه الاختبارات إلى ذلك المكتب.

سيتوجب على الشركات أيضاً إدخال أنظمة للمساعدة في اكتشاف المخاطر داخل المنظومة. بعد طرح هذه النماذج بالسوق، سيكون هناك مدققون من قبل الاتحاد الأوروبي مستقلون وسيقوم الباحثون بتطبيق ضوابط الامتثال للمعايير، بما فيها التحقق مما إذا كانت الشركات ملتزمة بقواعد الشفافية.

يدرس المفاوضون أيضاً إنشاء منتدى للشركات لمناقشة أفضل الممارسات ومدونة سلوك طوعية من المقرر أن تصدرها المفوضية الأوروبية.

على الذكاء الاصطناعي وضع قاموسه الخاص بالمصطلحات

ستُصنف نماذج الأساس ذات القدرة العالية استناداً لقوة الحوسبة اللازمة لتدريبها، باستخدام مقياس يعرف باسم "فلوبس" أو (FLOPS)، أو عمليات فاصلة الكسور العشرية في الثانية. سيحدد الحد الأدنى الدقيق من قبل المفوضية في مرحلة لاحقة على أن يُحدَّث تبعاً للحاجة لذلك.

يتاح أمام الشركات إمكانية الطعن على هذا التقييم. وفي المقابل، يمكن للمفوضية أن تعتبر نموذجاً ما أنه عالي القدرة حتى لو لم يستوف الحد الأدنى بعد الدراسة. يدرس المفاوضون أيضاً استخدام "التأثير المحتمل" للنموذج -استناداً لعدد تطبيقات الذكاء الاصطناعي عالية المخاطر القائمة عليه- باعتباره وسيلة لتصنيف التكنولوجيا.

3. أنظمة الذكاء الاصطناعي للأغراض العامة واسعة النطاق

ينبغي للمنظومات أيضاً أن تخضع لاختبار "الفريق الأحمر" من قبل خبراء خارجيين للكشف عن نقاط الضعف، وسترسل النتائج إلى مكتب الذكاء الاصطناعي التابع للمفوضية. سيتوجب على الشركات أيضاً إدخال نظام تقييم المخاطر والحد من شدتها.

سيعتبر الاتحاد الأوروبي أي نظام يضم 10 آلاف مستخدم تجاري مسجل أو 45 مليون مستخدم نهائي مسجل منظومة ذكاء اصطناعي لأغراض عامة واسعة النطاق. ستحدد اللجنة لاحقاً طريقة احتساب أعداد المستخدمين.

من يتحمل مسؤولية أضرار الذكاء الاصطناعي؟

يمكن للشركات أن تتقدم بطلب استئناف على اعتبارها في وضع نظام ذكاء اصطناعي للأغراض العامة واسعة النطاق، وعلى نفس المنوال، يستطيع الاتحاد الأوروبي أن يجعل أنظمة أو نماذج أخرى تلتزم بهذه القواعد الإضافية، حتى لو لم تبلغ الحدود الدنيا ولكن يمكن أن "ينجم عنها مخاطر".

توجد حاجة لمناقشات أكثر لتحديد مسارات الحماية لضمان عدم إنشاء محتوى غير قانوني وضار بواسطة كافة أنظمة الذكاء الاصطناعي للأغراض العامة وأنظمة الذكاء الاصطناعي ذات القدرة العالية.

مهمة المكتب

من المقرر أن يشرف مكتب الذكاء الاصطناعي الجديد على القواعد الإضافية للذكاء الاصطناعي للأغراض العامة واسعة النطاق ونماذج الأساس ذات القدرة العالية. وبحسب الوثيقة، يمكن للمكتب طلب الوثائق وتنظيم اختبارات الامتثال وإنشاء سجل لمختبري عمل الفرق الحمراء الذين فُحصوا، وإجراء التحقيقات. ويستطيع المكتب وقف أحد النماذج باعتباره "إجراءً أخيراً بعد استنفاد الوسائل الأخرى".

هذا المكتب سيكون "مستقلاً بذاته" أثناء استضافة المفوضية له. ويمكن للاتحاد الأوروبي الحصول على أموال لتوظيف أشخاص للعمل بالمكتب باستخدام رسوم من شركات الذكاء الاصطناعي للأغراض العامة واسعة النطاق ونماذج الأساس ذات القدرة العالية.