برامج الذكاء الاصطناعي المجانية عرضة للمخاطر الأمنية

محللون يحذرون من الاعتماد على التكنولوجيا مفتوحة المصدر لسهولة اختراقها

لوحة مفاتيح جهاز حاسب آلي
لوحة مفاتيح جهاز حاسب آلي المصدر: غيتي إيمجز
المصدر: بلومبرغ
تعديل مقياس القراءة
ع ع ع

شدد باحثون في مجال الأمن السيبراني على أن الشركات التي تهرع للاعتماد على أنواع جديدة من الذكاء الاصطناعي ينبغي لها أن تتوخى الحذر عند استخدام الإصدارات مفتوحة المصدر من التكنولوجيا، والتي قد لا يعمل بعض منها حسبما تم الإعلان عنه، أو تنطوي على ثغرات يمكن استغلالها من قبل قراصنة.

أوضح هيروم أندرسون، المهندس الشهير من شركة "روبوست إنتليجنس" (Robust Intelligence)، وهي شركة أمن سيبراني للتعلّم الآلي تدرج وزارة الدفاع الأميركية باعتبارها أحد عملائها، أنه توجد طرق محدودة لمعرفة ما إذا كان نموذج ذكاء اصطناعي محدد، وهو برنامج مكون من خوارزميات يمكنه القيام بأمور على غرار توليد النصوص والصور والتنبؤات، آمن.

أضاف أندرسون، أنه أثبت أن نصف النماذج المتاحة للجمهور لتبويب الصور أخفقت في اجتياز 40% من اختباراته. وكان الهدف من الفحص تحديد ما إذا كان بإمكان عنصر ضار تعديل مخرجات برامج الذكاء الاصطناعي بأسلوب يمكن أن يمثل خطراً أمنياً، أو الإمداد بمعلومات مغلوطة.

اكتشاف الثغرات

أشار أندرسون إلى أن النماذج تستعمل في أحيان كثيرة أنواع ملفات عرضة بشكل خاص لثغرات أمنية. وهو ما يُعدّ مشكلة، إذ تقتنص شركات عديدة نماذج من المصادر المتاحة للجمهور دون إدراك تام للتكنولوجيا الأساسية، بدلاً من ابتكار نماذجها الخاصة. نوه أندرسون إلى أن 90% من الشركات التي تعمل معها "روبوست إنتليجنس" تُحمِّل نماذج من "هاغينغ فيس" (Hugging Face)، الذي يُعدّ مركزاً لنماذج الذكاء الاصطناعي.

وتابع أندرسون: "يستخدم الجميع نماذج قام بتطويرها أشخاص آخرون".

إنفوغراف: أمازون أكثر توظيفاً لخبراء الذكاء الاصطناعي بأكبر 5 شركات تكنولوجية

من المقرر أن تعلن شركة "روبوست إنتليجنس" عن أداة جديدة ومجانية لفحص نماذج الذكاء الاصطناعي بحثاً عن ثغرات أمنية، علاوة على اختبار ما إذا كانت فعالة حسبما هو معلن، وما إذا كانت تنطوى على مشكلات مرتبطة بانحراف في النتائج. تستعمل الأداة معلومات تحصل عليها من قاعدة بيانات مخاطر الذكاء الاصطناعي التي جمعتها "روبوست إنتليجنس". تكمن الفكرة في أن الشركات الراغبة باستعمال برنامج ذكاء اصطناعي متاح للجمهور يمكنها فحصه عن طريق هذه الأداة لتقييم ما إذا كان يتمتع بالأمان والفاعلية، بجانب استغلال هذه البيانات لمساعدتها على انتقاء الخيارات الأفضل.

صُممت الأداة على غرار "فيروس توتال" (VirusTotal)، الذي تملكه "غوغل" التابعة لشركة "ألفابت"، ويدمج مجموعة هائلة من منتجات البحث عن الفيروسات المختلفة ويُمكِّن المستخدمين من فحص المشكلات التي أفلتت من برامجهم لمكافحة الفيروسات. أكد أندرسون أن "روبوست إنتليجنس" تطمح إلى أن أداتها ستمكنها أيضاً من الاستعانة بمصادر خارجية لجمع معلومات لتقارير أخرى تتناول ثغرات من المجتمع الأمني الأوسع نطاقاً.

المصادر المفتوحة

في ظل الشعبية الطاغية التي حظي بها روبوت الدردشة "تشات جي بي تي" التابع لشركة "أوبن أيه آي" وبرنامج "دال-إي" لإنشاء الصور، يهرع العملاء من المؤسسات وشركات تطوير تطبيقات الإنترنت إلى إضافة ما يطلق عليه قدرات الذكاء الاصطناعي التوليدية لعملياتهم ومنتجاتهم الخاصة بأنشطتهم التجارية. يتمثل أحد الخيارات في سداد مقابل لـ"أوبن أيه آي" للحصول على أدواته، لكن عملاء عديدين يلجؤون لاستخدام إصدارات مجانية مفتوحة المصدر متاحة على الإنترنت. علاوة على ذلك، مع استعمال أدوات مفتوحة المصدر، يستطيع المستخدمون تحميل النموذج بينما تحتفظ "أوبن أيه آي" بسرية نماذجها وتوفر عوضاً عن ذلك حق الوصول لاستخدامها.

قال أندرسون عن الأدوات مفتوحة المصدر: "تجعل الذكاء الاصطناعي متاحاً للجميع بشكل لا مثيل له". لكنه أضاف أنه يوجد عنصر "مخيفٌ" فيها، والذي بيَّنه من خلال عرض نموذج للذكاء الاصطناعي وضعه على "هاغنيغ فيس". عندما يُحمَّل النموذج، فإنه يُشغل في الخلفية شفرة على جهاز المستخدم دون الحصول على إذن منه. تمثل هذه مخاطرة أمنية، لأن العنصر الضار قد يستخدم تنفيذ تعليمات البرمجة في القيام بأمر خطير أو الاستيلاء على حاسب آلي.

موديز: 20 تريليون دولار معرّضة لمخاطر سيبرانية "عالية"

أضاف أن "هاغينغ فيس" ترصد مشكلات عديدة، ولكن ليس جميعها، و"ينبغي للأشخاص أن يدركوا أنه عند تحميلهم لأشياء من الإنترنت يمكن أن تحدث أموراً من هذا النوع".

يمكن أن تعاني منتجات "أوبن أيه آي" أيضاً من وجود ثغرات. فخلال الأسبوع الماضي، أوقفت "أوبن أيه آي" بشكل مؤقت "تشات جي بي تي" لإصلاح ثغرة تسمح لبعض المستخدمين باستعراض عناوين سجلات محادثات خاصة بآخرين. أعلن مختبر بحوث الذكاء الاصطناعي لاحقاً أن الثغرة الأمنية أسفرت عن الكشف عن بعض بيانات المدفوعات ومعلومات شخصية أيضاً.

أداة "هاغينغ فيس"

تنشر بعض من أكبر الشركات، على غرار "مايكروسوفت" و"غوغل"، نماذجاً على "هاغينغ فيس" وتستخدم الشركات الضخمة أيضاً برامج الذكاء الاصطناعي المستضافة عليه. تعمل أداة "هاغينغ فيس" مع فريق تحليلي للكشف عن التهديدات في "مايكروسوفت" على تصميم أداة تقوم بمسح برامج الذكاء الاصطناعي بحثاً عن نوع معين من التهديدات الأمنية، وكان أندرسون يشارك نتائجه مع "هاغينغ فيس".

كيف تتعامل الشركات الأميركية الكبرى مع الذكاء الاصطناعي؟

علاوة على ذلك، تدير "هاغينغ فيس" برنامجاً مضاداً للفيروسات للكشف عن مشكلات في برامج الذكاء الاصطناعي التي تستضيفها، حسبما أوضح لوك جورج، مهندس التعلّم الآلي والبرمجيات الذي يعمل على الأمن في "هاغينغ فيس". ولكن هناك تهديدات أخرى من الصعب اكتشافها، على غرار ما إذا كان النموذج يقوم بعمله بالطريقة التي يُفترض أنه يعمل بها، أو يعلن أنه يُطبِّق استخداماً مشروعاً، ولكن تبين أنّه شائنٌ.

نوه جورج إلى أن أداة "هاغينغ فيس" لم تتعرض لأي هجمات حتى الآن.

تابع: "تكمن قيمة (هاغينغ فيس) في البرمجيات المفتوحة والتعاون والشفافية، وما زال هناك الكثير من العمل يتطلب إنجازه".

التعاون مع "مايكروسوفت"

أوضح رام شانكار سيفا كومار، الذي يقود فريق العمل، أن "مايكروسوفت" تواصلت مع "هاغينغ فيس" بعد أن اكتشف فريقها المختص بتهديدات الذكاء الاصطناعي أن بعضاً من النماذج الموجودة على الموقع كانت عرضة لأعمال قراصنة. أضاف أن الهدف كان البحث عن السبل التي قد يسلكها القراصنة لاستغلال برامج الذكاء الاصطناعي عبر استخدام أدوات تقليدية.

"مايكروسوفت" تتيح مساعد الذكاء الاصطناعي للأمن السيبراني

قال سيفا كومار: "عندما تقاسمنا هذا الأمر مع (هاغينغ فيس)، كان لسان حالنا جميعا أننا نشكر الله لعدم تعرضنا لهجوم ضارٍ". رغم ذلك، أوضح أن الشركات التي قد تستعمل هذه النماذج لا تولي لذلك الكثير من الاهتمام بهذا القدر، وأضاف: "عندما تحدثنا مع العملاء، اكتشفنا أنهم ليسوا على دراية حتى بالهجمات على أنظمة التعلّم الآلي".

على صعيد البرمجيات التقليدية، يوجد نظام كامل للحكومة والأوساط الأكاديمية والشركات تم تطويره على مدى العقدين الماضيين للكشف عن الثغرات والإبلاغ عنها ونشرها. ذكر أندرسون أن هذا النظام يُعدّ وليداً بالنسبة للتعامل مع نماذج الذكاء الاصطناعي، كما أن الأدوات التقليدية التي تفحص مشكلات الأمان في البرمجيات التقليدية غير قادرة على الكشف عنها وهي مدفونة داخل برامج الذكاء الاصطناعي، وفقاً لأندرسون.

الوقاية من إساءة الاستخدام

توقع سام كروثر، المؤسس والرئيس التنفيذي لشركة "كاسادا" (Kasada)، التي كانت تتعقب إساءة استخدام تطبيق "تشات جي بي تي" التابع لـ"أوبن أيه آي"، أن تتأسس شركات جديدة للتصدي لبعض من هذه التحديات، على غرار تنظيف البيانات المستخدمة في النماذج من أي مشكلات أمنية، بينما سيتوجب على مصممي النماذج أن يجعلوها أكثر تعقيداً.

اختتم: "سيفرز ذلك جيلاً من الشركات المتخصصة في تنظيف المدخلات التي ستعمل داخل النماذج" وأضاف أن ذلك سيشجع مصممي النماذج ليصبحوا أفضل في إدراك كيف يمكن إساءة استخدامها، وكيف يمكن تعليمها ألا يتم إساءة استخدامها على هذا النحو؟ حيث إنها بالوقت الراهن، يسهل للغاية خداعها.