تطبيقات تستغل الذكاء الاصطناعي لتزييف صور نساء عاريات

24 مليون شخص زاروا مواقع تحول صور النساء إلى صور عارية خلال سبتمبر فقط

أحد المارة يستخدم هاتفاَ ذكياً
أحد المارة يستخدم هاتفاَ ذكياً المصدر: بلومبرغ
المصدر: بلومبرغ
تعديل مقياس القراءة
ع ع ع

حذّر باحثون من تفاقم استخدام التطبيقات والمواقع الإلكترونية التي تستخدم الذكاء الاصطناعي لإظهار النساء بصور عارية.

خلال سبتمبر فقط، زار 24 مليون شخص مواقع تحوّل صور النساء إلى صور عاريات، بحسب شركة تحليل وسائل التواصل الاجتماعي "غرافيكا" (Graphika).

وفق تحليل "غرافيكا"، تستخدم تلك التطبيقات، مواقع التوصل الاجتماعي الشهيرة، للترويج لخدمات "التعرية" التي تقدمها عبر أدوات خاصة بها. على سبيل المثال، منذ بداية السنة الجارية، ارتفع عدد الروابط التي تعلن عن تطبيقات "التعرية" بما يفوق 2400% على وسائل التواصل الاجتماعي، بما فيها منصتي "إكس" و"ريديت"، حسبما ذكر باحثون. يستخدم مقدمو هذه الخدمة الذكاء الاصطناعي لإعادة إنشاء صورة بحيث يظهر الشخص فيها عارياً. يستهدف العديد من مقدمي هذه الخدمات النساء فقط.

الذكاء الاصطناعي

تمثل هذه التطبيقات جزءاً من اتجاه مثير للقلق لتطوير وتوزيع المواد الإباحية دون رضاء المتضررين نتيجة التقدم على صعيد الذكاء الاصطناعي، فيما يعد أحد أشكال الوسائط المفبركة المعروفة باسم المواد الإباحية القائمة على التزييف العميق. يصطدم انتشار هذا الاستخدام مع عقبات قانونية وأخلاقية جسيمة، إذ غالباً ما يتم انتقاء الصور من وسائل التواصل الاجتماعي ونشرها دون موافقة أو تحكم أو معرفة أصحابها بالموضوع من الأساس.

من يتحمل مسؤولية أضرار الذكاء الاصطناعي؟

أرجعت "غرافيكا" تفاقم الاستخدام لإصدار نماذج عديدة مفتوحة المصدر منتشرة على نطاق واسع، أو الذكاء الاصطناعي الذي يمكنه إنشاء صور أكثر جودة للغاية، مقارنة بما كان عليه الأمر قبل بضعة أعوام ماضية فقط. أوضح سانتياغو لاكاتوس، محلل "غرافيكا"، أنه بالنظر إلى أنها مفتوحة المصدر، فإن التطبيقات متاحة مجاناً، ما يعزز جاذبيتها.

أضاف "لاكاتوس": "بمقدورك إنشاء شيء يبدو حقيقياً فعلياً بعد أن كانت عمليات التزييف العميق السابقة غير واضحة في أحيان كثيرة".

استُخدمت إحدى الصور المنشورة على منصة "إكس" للإعلان عن تطبيق التعرية صياغة تبين أنه يمكن للعملاء إنشاء صور عارية ثم إرسالها للشخص الذي تمت تعريته في الصورة باستخدام التكنولوجيا الرقمية، ما يعد تحريضاً على المضايقات. في هذه الأثناء، دفع أحد التطبيقات مقابل المحتوى الممول على "يوتيوب" التابع لشركة "غوغل"، ويظهر في صفحة البحث الأولى عند البحث بكلمة "تعري".

التزييف العميق

ذكر متحدث باسم "غوغل" أن الشركة لا تسمح بالإعلانات "ذات المحتوى الجنسي الصريح. وراجعنا الإعلانات ذات الصلة ونحذف تلك التي تنتهك سياساتنا". لم ترد منصتي "إكس" و"ريديت" لطلبات للتعليق على الموضوع.

كثيراً ما كانت المواد الإباحية المنشورة دون رضاء للشخصيات العامة آفة شبكة الإنترنت، لكن القلق يساور خبراء الخصوصية بطريقة متزايدة من أن تطور تكنولوجيا الذكاء الاصطناعي جعل من برامج التزييف العميق أسهل في الاستخدام، إذ تبدو حقيقية بشكل أكبر.

انتحال الشخصية بـ"التزييف العميق" يقود موجة جديدة من جرائم الاحتيال

قالت إيفا غالبرين، مديرة الأمن السيبراني في مؤسسة "إلكترونيك فورنتير فاونديشن"( Electronic Frontier Foundation): "نشاهد تزايد فعل أشخاص عاديين لتحقيق أهداف عادية، ونشاهد ذلك بين أطفال المدارس الثانوية والأشخاص الموجودين في الكلية".

أضافت "غالبرين" أن العديد من الضحايا لا يعلمون مطلقاً بأمر الصور، لكن حتى أولئك الذين يعرفون بها يواجهون صعوبة في جعل سلطات إنفاذ القانون تحقق أو تجد مالاً لمواصلة اتخاذ إجراءات قانونية.

ملاحقة الجناة

ليس هناك في الوقت الحاضر قانون فيدرالي يحظر إنشاء مواد إباحية قائمة على تقنية التزييف العميق، رغم أن الحكومة الأميركية تحظر توليد هذه الأنواع من صور القاصرين. خلال نوفمبر الماضي، حُكم على طبيب نفسي للأطفال في ولاية كارولينا الشمالية بالسجن 40 سنة لاستخدامه تطبيقات لتعرية صور لمرضاه، في أول محاكمة من نوعها وفق قانون يحظر توليد مواد الاستغلال الجنسي للأطفال بتقنية التزييف العميق.

حظرت منصة "تيك توك" كلمة بحثية رئيسية "تعرية" بالإنجليزية أو (undress) -مصطلح بحث شائع مرتبط بهذه الخدمات- محذرة أي شخص يبحث عن الكلمة من أنها ربما "ترتبط بسلوك أو محتوى ينتهك توجيهاتنا"، بحسب التطبيق. امتنع ممثل "تيك توك" عن تقديم تفاصيل أكثر. رداً على استفسارات.

بدأت شركة "ميتا بلاتفورمز" أيضاً حظر الكلمات الرئيسية المرتبطة بالبحث عن تطبيقات تعرية الصور. رفض متحدث باسم الشركة التعليق على هذا الشأن.