بريطانيا قد تطلق العنان لروبوتات الذكاء الاصطناعي دون ضمانات بشرية

تتجه بريطانيا لتقليل التدخل البشري في عمليات يقوم بها الذكاء الاصطناعي عبر الإنترنت وهو نهج مخالف للاتحاد الأوروبي الأكثر حذراً فيما يتعلق باستخدامات الذكاء الاصطناعي
تتجه بريطانيا لتقليل التدخل البشري في عمليات يقوم بها الذكاء الاصطناعي عبر الإنترنت وهو نهج مخالف للاتحاد الأوروبي الأكثر حذراً فيما يتعلق باستخدامات الذكاء الاصطناعي المصدر: بلومبرغ
المصدر: بلومبرغ
تعديل مقياس القراءة
ع ع ع

تدرس بريطانيا تخفيف قواعد استخدام الذكاء الاصطناعي في نظام بيانات ما بعد خروج بريطانيا من الاتحاد الأوروبي، وهي خطوة من شأنها أن تُمثل انفصالاً عن الاتحاد الأوروبي.

في وثيقة استشارية من 146 صفحة نُشرت يوم الجمعة، قالت الحكومة إنها تدرس ما إذا كان سيتم إلغاء الحق في القيام بمراجعة بشرية لأي قرار آلي، مثل الموافقة على قرض عبر الإنترنت، أو اختبار كفاءة التوظيف الذي يستخدم خوارزميات ومعايير مبرمجة مسبقاً.

يعدّ الحق في الحصول على مراجعة بشرية مشمولاً بالمادة 22 من نظام حماية البيانات في الاتحاد الأوروبي، والذي تم تحويله إلى قانون في المملكة المتحدة بعد خروج بريطانيا من الاتحاد الأوروبي.

كانت حكومة بوريس جونسون تبحث عن طرقٍ للابتعاد عن موقف الاتحاد الأوروبي من تعزيز النمو الاقتصادي والابتكار.

اقترحت ورقة شارك في تأليفها نواب مؤيدون للبريكست من حزب المحافظين في مايو، إلغاء أو تعديل المادة 22، والتي تقيد أيضاً صنع القرار الآلي ما لم يمنح الأفراد موافقة صريحة.

وقالت الورقة إن قاعدة المادة 22 "تجعل استخدام الذكاء الاصطناعي لأتمتة العمليات الروتينية أمراً مرهقاً ومكلفاً وغير عملي. يجب التركيز على ما إذا كان التنميط الآلي يحقق معايير الشرعية أو المصلحة العامة".

نهجٌ حذر

يتخذ الاتحاد الأوروبي نهجاً حذراً نحو الذكاء الاصطناعي، وقد صاغ تشريعات جديدة تدعو إلى فرض قيود صارمة على التكنولوجيا.

بموجب القواعد المقترحة، سيتم حظر تطبيق القانون في العديد من السيناريوهات، بدءاً من استخدام تقنية التعرف على الوجه وأنظمة تحديد الهوية البيومترية الأخرى في الوقت الفعلي.

ستخضع التطبيقات عالية المخاطر الخاصة بالتكنولوجيا، بما في ذلك التطبيقات التي قد تُعرض السلامة أو الحقوق الأساسية للخطر، لفحوصات صارمة.

في هذه الاستشارة، قالت حكومة المملكة المتحدة إن الحاجة إلى الحفاظ على قدرة للمراجعة البشرية "قد لا تكون عملية أو متناسبة". كما أنها تساءلت عما إذا كانت المادة 22 "شديدة التقييد" بالنظر إلى "تطور تقنيات التعلم الآلي والذكاء الاصطناعي".