"الخوارزميات" التي تتحكم في حياتك.. قد تكون منحازة أيضاً

الخوارزميات
الخوارزميات تصوير: جيوليا مارشي / بلومبرغ
المصدر: بلومبرغ
تعديل مقياس القراءة
ع ع ع

في كل دقيقة، تقرِّر الآلات مستقبلك، فوظيفة برامج الكمبيوتر لا تقتصر على اقتراح الكتب والأفلام التي قد تعجبك، بل إنها تحدِّد أيضاً سعر الفائدة الذي ستدفعه على قرض ما، وما إذا كنت ستحصل على الوظيفة التي تحلم بها، أو حتى احتمال ارتكابك جريمة ما.

وقد كان الأمل أن تتخذ أجهزة الكمبيوتر المدربة على العثور على أنماط معينة وسط مجموعات كبيرة من البيانات، مثل هذه القرارات بطريقة أكثر موضوعية، مما يفعل البشر. ولكن بدلاً من ذلك، يجد الباحثون أنَّ الخوارزميات – (لغة المنطق في البرمجيات) - يمكنها أن تكرر، وتبالغ أيضاً في تحيُّزات أولئك الذين يبتكرونها. وقد أصبحت شركتا "آبل" و"غولدمان ساكس غروب" مثار جدل، إذ فتح أحد المراقبين في "وول ستريت" تحقيقاً حول ما إذا كانت الخوارزمية التي تتحكَّم في مشروعهما المشترك "آبل كارد" تُميِّز ضد النساء.

1. ما هي الخوارزمية؟

هذا سؤال بسيط، فالخوارزميات عبارة عن صيغة لمعالجة المعلومات، أو أداء مهمة معينة. فمثلاً، يعدُّ ترتيب الأسماء بالترتيب الأبجدي نوعاً من الخوارزميات، وكذلك وصفة عمل الكوكيز بالشوكولاتة، لكنها عادة ما تكون أكثر تعقيداً، إذ أنفقت شركات مثل "فيسبوك" المحدودة و"غوغل" التابعة لشركة "ألفا بيت" مليارات الدولارات على تطوير الخوارزميات التي تستخدمها لفرز كميات هائلة من المعلومات، وحماية أسرار برامجها بلا هوادة.

2. كيف يمكن أن تصبح الخوارزميات متحيِّزة؟

في حالات قد لا يتوقعها مهندسو البرامج، وذلك عندما تميِّز برامجهم ضد الأشخاص عن غير قصد. فعلى سبيل المثال، تعرَّضت "فيسبوك" للإحراج في عام 2015، عندما مُنع بعض الأمريكيين من السكان الأصليين من الاشتراك، وإنشاء حسابات، لأنَّ البرنامج المسؤول اعتقد أنَّ أسماءهم، بما في ذلك أسماء مثل "لانس براون آيز" و"دانا لون هيل" أسماء مزيفة. كما واجهت "أمازون. كوم" مشكلات في عام 2015، عندما كانت بصدد اختبار إمكانية فحص نظام الذكاء الاصطناعي مبدئياً للمتقدمين للوظائف، وعلَّم نفسه إقصاء النساء من خلال البحث عن كلمات رئيسية معيَّنة في السير الذاتية.

3. من أين تحصل الخوارزميات على بياناتها؟

في كل مرة تسجِّل الدخول إلى أحد التطبيقات، أو شراء شيء ما عبر الإنترنت، أو مشاهدة إعلان على هاتفك، فإنَّك تترك وراءك مجموعة من المعلومات حول أنشطتك واهتماماتك، ومِن ثَمَّ تتمسَّك الشركات في كل مكان بهذه البيانات، وكلما زاد استخدامك للإنترنت والشبكات الاجتماعية، زاد حجم المعلومات التي تعرفها شركات "غوغل" و"فيسبوك" وشركات الإنترنت الأخرى عنك. وهناك بالطبع بيانات جُمِعَت عبر وسائل أكثر تقليدية، مثل قوائم الناخبين، وتراخيص القيادة، واشتراكات المجلات، والمشتريات التي تدفع ثمنها ببطاقات الائتمان، التي يمكن ربطها بالمعلومات المتاحة عبر الإنترنت لرسم صورة كاملة للأفراد.

4. كيف يمكن أن يؤدي ذلك إلى التحيُّز؟

إنَّ البيانات نفسها ليست تمييزية بطبيعتها، ولكن تكمن المشكلة في كيفية استخدامها وتفسيرها، خصوصاً عندما تميِّز الخوارزميات الأشخاص عبر الارتباطات أو بيانات "الوكيل". على سبيل المثال، فإنَّه من غير القانوني في الولايات المتحدة اتخاذ قرارات التوظيف أو الإقراض على أساس العرق أو الجنس أو العمر أو الميول الجنسية، ولكن هناك وكلاء لهذه السمات في مجموعات البيانات الكبيرة، إذ يمكن أن تقترح الموسيقى التي تبثها على "يوتيوب" الفئة العمرية التي تنتمي إليها، في حين تكشف العضوية في نادٍ نسائيٍّ عن جنسك. وكذلك قد يشير العيش في مناطق معينة من التعداد السكاني إلى تراثك العرقي أو الإثني. وقد وجدت دراسة نُشرت في عام 2017 أنَّ "فيسبوك" قد صنَّف بعض المستخدمين كمثليين، استنادًا إلى المنشورات التي "أعجبتهم"، حتى لو لم يعرِّف الأشخاص عن أنفسهم علناً على هذا النحو.

5. ما المشكلة مع الوكلاء؟

لنأخذ على سبيل المثال خدمات البحث عن الوظائف عبر الإنترنت. لقد وثَّق الباحثون احتمالات ضئيلة، بأن ترشح تلك الخدمات النساء والأشخاص الملوَّنين لشغل وظائف ذات رواتب عالية، لأنَّ أولئك الباحثين عن عمل لا تتطابق مواصفاتهم مع الصورة النمطية للأشخاص الذين يشغلون تلك الوظائف، فمعظمهم من الرجال البيض. وتستخدم هذه الأنظمة تقنية تسمى "نمذجة التنبؤ"، تُبنى استنتاجاتها استناداً إلى أنماط البيانات التاريخية، ومِن ثَمَّ يمكن أن يجانبهم الصواب عند استخدام البيانات بشكل خاطئ، أو كونها لا تمثِّل المجتمع المعني بدقة. وقد وجدت دراسة من جامعة كاليفورنيا في بيركلي أنَّ أنظمة الإقراض الخوارزمية كانت أقل تميٌزاً بنسبة 40% من التفاعلات وجهاً لوجه، لكنها لا تزال تميل إلى فرض أسعار فائدة أعلى على المقترضين اللاتينيين والأمريكيين من أصل إفريقي. ومن الممكن أن يكون أحد الأسباب هو أنَّ ملفاتهم الشخصية، تشير إلى أنَّهم لا يتسوقون بالقدر نفسه كالآخرين.

6. كيف يتضخَّم التحيُّز في الخوارزميات؟

عندما يُساء استخدام البيانات، يمكن للبرنامج تجميع الصور النمطية أو التوصل إلى استنتاجات خاطئة، فقد أعلنت مدينة "شيكاغو" في عام 2017 عن خططها لتوظيف برمجيات "شرطة التنبؤ" لتعيين ضباط إضافيين في المناطق الأكثر عرضة للجريمة العنيفة. وكانت المشكلة أنَّ النموذج وجَّه الموارد إلى الأحياء التي كانت تتمتع بالفعل بأكبر وجود للشرطة، مما يعزِّز التحُّزات البشرية الموجودة لدى رجال الشرطة في الواقع. كما ظهرت مشكلات مماثلة مع البرامج التي تقيِّم المجرمين، إذ استخدمت الشرطة في "دور هام" بإنجلترا بيانات من وكالة "إكسبريان" الائتمانية، بما في ذلك مستويات الدخل، وأنماط الشراء، للتنبؤ بمعدلات النكوص للأشخاص الذين قُبض عليهم. وتشير النتائج، بشكل غير دقيق، إلى أنَّ الأشخاص من خلفيات اجتماعية واقتصادية أقل حظاً، كانوا أكثر عرضة لاحتمالات ارتكاب مزيد من الجرائم.

7. ماذا عن أنظمة التعرُّف على الوجه؟

كانت أنظمة التعرُّف على الوجه، التي تستخدم الكاميرات الرقمية، وقواعد البيانات من الصور المخزنة للتعرف على الأشخاص، قد واجهت كثيراً من الاتهامات بالتحيز. وتمثَّلت الشكوى الأكثر شيوعاً في أنً تلك الأنظمة تفشل في التعرف على الأشخاص ذوي البشرة الداكنة بشكل صحيح، لأنهم "تلقوا تدريبات" باستخدام صور أغلبها لأشخاص من البيض وفق العادة. كما وجدت دراسة "معهد ماساتشوستس للتكنولوجيا" أنَّ تنوُّع العينات غير الكافي، قوَّض أنظمة التعرف على الوجه الخاصة بشركات "آي بي إم" و"مايكروسوفت" و"فيس بلس بلس"، إذ كانت النساء ذوات البشرة الداكنة أكثر المجموعات التي انطوى تصنيفها على أخطاء، فبلغت معدلات الخطأ نحو 35%، بالمقارنة مع معدل الخطأ الأقصى لمجموعة الرجال أصحاب البشرة الفاتحة، الذي كان أقل من 1%.

8. ماذا حدث في قضية "آبل كارد"؟

انتقد ديفيد هاينماير هانسون، مطوِّر برمجيات بارز، بطاقة "آبل" على "تويتر" لتزويدها بعشرين ضعفاً من الحدِّ الائتماني الذي حصلت عليه زوجته، على الرغم من حصولها على تصنيف ائتمانيٍّ أفضل، بالإضافة إلى أنَّ الزوجين يقدمان إقرارات ضريبية مشتركة. وقالت إدارة الخدمات المالية في نيويورك، إنها ستفتح تحقيقاً بشأن ممارسات الائتمان لدى "غولدمان ساكس"، المسؤولة عن القرارات الائتمانية الخاصة بالبطاقة. ورداً على تعليقات هانسون، نشر ستيف وزنياك، أحد مؤسسي شركة "آبل"، تغريدة على موقع "تويتر"، قائلاً، إنه حصل على عشرة أضعاف الحد الائتماني الذي حصلت عليه زوجته، على الرغم من حقيقة أنَّ الزوجين يشتركان في حسابات مصرفية، وبطاقات ائتمان. وقال متحدِّث باسم شركة "غولدمان ساكس" إنَّ "آبل كارد" تقدِّم حسابات فردية فقط، وإنه من الممكن أن يتلقى اثنان من أفراد الأسرة الواحدة قرارات ائتمانية مختلفة بشكل كبير. ومن ناحية أخرى، يزوِّد المقرضون التقليديون استخدامهم للأنظمة الآلية لاتخاذ قراراتٍ، بخصوص من يحق له الحصول على قرض ائتماني، وبأي مقدار، كجزء من استراتيجية تستهدف خفض التكاليف، وزيادة طلبات التقدم للحصول على القروض.

9. ما الذي يجري لمراقبة التحيُّز؟

تُبذَل الجهود في جميع أنحاء العالم لمكافحة التحيز الذي ينتج عن استخدام الخوارزميات. وفي الولايات المتحدة تراجع لجان مجلس النواب، ومجلس الشيوخ مشروع قانون يسمى قانون محاسبة الخوارزميات لعام 2019، إذ يتطلب من الشركات اختبار الخوارزميات للكشف عن تحيزها. كما يعمل "مركز أخلاقيات البيانات والابتكار" في المملكة المتحدة، وهي مجموعة حكومية تتألف من خبراء التكنولوجيا، وصانعي السياسات والمحامين، على إعداد تقرير يُتوقَّع صدوره في مارس القادم، ويدعو لتنظيم أقوى، ووضع معايير أخلاقية عالمية لضمان نزاهة الخوارزميات. وبالمثل، تمنح اللائحة العامة لحماية البيانات في الاتحاد الأوروبي، التي دخلت حيِّز التنفيذ هذا العام، المواطنين الحقَّ في اختيار البيانات التي يزوِّدون بها الخوارزميات، وكذلك توفير الوسائل اللازمة للحصول على تفسيرات للقرارات التي اتخذتها تلك الخوارزميات. وقالت إدارة الخدمات المالية بنيويورك، إنَّها ستجري تحقيقاً لتحديد ما إذا كان قد انتُهِك قانون نيويورك في قضية "آبل كارد".