تيمنيت غيبرو، واحدة من الشخصيات القيادية التي تعمل على أخلاقيات الذكاء الاصطناعي. كشف بحثها النقاب عن سبل لمكافحة التحيّزات، مثل العنصرية والتمييز على أساس الجنس، التي تتسلَّل إلى الذكاء الاصطناعي من خلال البيانات المعيبة، ومنشئي المحتوى.
في "غوغل"، أدارت هي وزميلتها مارغريت ميتشل، فريقاً يركِّز على هذا الأمر، وقد حاولتا نشر ورقة تنتقد منتجات "غوغل". وطُردت من العمل. (تقول غيبرو، إنَّ "غوغل" فصلتها، في حين أنَّ الشركة تقول، إنَّها استقالت).
والآن غيبرو، مؤسسة مجموعة التقارب "بلاك إن إيه آي" (Black in AI) -تُعرف أيضاً باسم "أصحاب البشرة السوداء في الذكاء الاصطناعي"- تحشد المؤيدين لمجموعة أبحاث الذكاء الاصطناعي المستقلة. وتقول، إنَّ الدعوات المطالبة بمساءلة شركات التكنولوجيا الكبرى عن منتجاتها وممارساتها لا يمكن إتمامها كلها من الداخل.
اقرأ أيضاً: "أبل" تحرز تقدماً في إلزام مورديها بأخلاقيات العمل ووقف استغلال الأطفال
الأساس هو حماية العمال، وحماية كاشفي المخالفات، وقوانين مكافحة التمييز، وأي شيء نفعله دون هذا النوع من الحماية سيكون مجرد أمر سطحي في الأساس، لأنَّه في اللحظة التي تدفع فيها قليلاً، ستعرب الشركات عن اعتراضها. أما أولئك الذين يدفعون أكثر نحو هذه الحماية، فسيكونون دائماً أشخاصاً في مجتمعات معينة عانوا من بعض هذه المشكلات.
علينا إعادة تصوُّر ما هي الأهداف التي نسعى إليها؟. إذا كان الهدف هو تحقيق شركتي "غوغل"، أو "أمازون" أقصى قدر من المال، فبغضِّ النظر عما نفعله؛ سيكون ذلك مجرد أهداف أولية. هناك افتراض في الصناعة، مفاده أنَّنا نقوم بأشياء على نطاق واسع، وكل شيء آلي، ومن الواضح أنَّنا لا نستطيع ضمان السلامة، فكيف يمكننا تعديل كل شيء يكتبه الناس على وسائل التواصل الاجتماعي؟ يمكننا الإبلاغ عن المحتوى الخاص بك بشكل عشوائي على أنَّه غير آمن، أو يمكن أن يكون لدينا كل أنواع المعلومات المضللة، كيف تتوقَّع منَّا التعامل مع ذلك؟
هذه هي الطريقة التي يتصرَّفون بها، وكأنَّهم قادرون فقط على جني ما يريدون من المال من المنتجات غير الآمنة بالمرة، لكن يجب إجبارهم على تغيير ذلك.
دعونا نلقي نظرة على السيارات، إذ لا يُسمح لك ببيع سيارة، وأن تتبع فكرة مثل، نحن نبيع ملايين السيارات، لذلك لا يمكننا ضمان سلامة كل واحدة منها. أو نحن نبيع السيارات في جميع أنحاء العالم، لذلك لا يوجد مكان يمكنك الذهاب إليه لتقديم شكوى بشأن وجود مشكلة في سيارتك، حتى لو كانت تشتعل ذاتياً، أو ترميك في خندق. إنَّهم يخضعون لمعايير أعلى بكثير، وعليهم إنفاق الكثير، بشكل متناسب، على السلامة.
لا بدَّ من تنظيم المنتجات، وتوسيع نطاق وظائف الوكالات الحكومية للتحقيق في شؤون هذه الشركات ومراجعتها، ولا بدَّ أيضاً من وجود معايير لاتباعها إذا كنت ستستخدم الذكاء الاصطناعي في سيناريوهات عالية المخاطر. حالياً، تستخدم الهيئات الحكومية نفسها منتجات غير خاضعة للتنظيم الرقابي بدرجة كبيرة عندما لا ينبغي لها ذلك. إنَّهم يستخدمون ترجمة "غوغل" عند فحص منشورات اللاجئين على وسائل التواصل الاجتماعي.
يجب على الناس التحدُّث علناً، وقول لا. يمكننا أن نقرر أن ما يجب أن ننفق عليه طاقتنا وأموالنا هو كيف لا نتسبَّب في حريق كاليفورنيا بسبب تغيّر المناخ، وكيفية توفير شبكات آمنة للأشخاص، وتحسين صحتنا، وأمننا الغذائي. بالنسبة إلي؛ الهجرة حقٌّ من حقوق الإنسان، فأنت تغادر مكاناً غير آمن. إذا لم أكن قادرة على الهجرة، فلا أعرف أين سأكون.
نعم، مئة بالمئة. من المستحيل أن أذهب إلى شركة تقنية كبيرة أخرى، وأفعل ذلك مرة أخرى، فمهما فعلت لن تتمتَّع بالحرية الكاملة، وسيتمُّ تكميم فمك بطريقة أو بأخرى، لكن على الأقل يمكن أن يكون لديك بعض التنوع في كيفية إسكاتك.
أنشأت كل مجموعات التقارب -"كوير إن إيه آي" (Queer in AI)، و"بلاك إن إيه آي"، و"لاتينكس إن إيه آي" (Latinx in AI)، و "إنديجينس إيه أي" (Indigenous AI)- شبكات فيما بينها وبين بعضها. أعتقد أنَّ هذا أمر واعد، وأنَّ تنظيم العمل، من وجهة نظري، واعد للغاية. لكن يجب إجبار الشركات على التغيير. إنَّها تفضِّل طرد أشخاص مثلي على أن يكون لديها أي قدر ضئيل من التغيير.