تعثّر "غوغل" في طرح "جيميناي" جاء في مصلحة العالم

إخفاقات "جيميناي" في توليد الصور تثبت أن "الحقائق" التي يقدمها الذكاء الاصطناعي ليست دوماً حقيقية

شاشة هاتف عليها جملة ترحب بالمستخدمين على موقع "غوغل ديب مايند"
شاشة هاتف عليها جملة ترحب بالمستخدمين على موقع "غوغل ديب مايند" المصدر: بلومبرغ
Clive Crook
Clive Crook

Clive Crook is a Bloomberg Opinion columnist and writes editorials on economics, finance and politics. He was chief Washington commentator for the Financial Times, a correspondent and editor for the Economist and a senior editor at the Atlantic.

تعديل مقياس القراءة
ع ع ع

يحق لمستثمري "غوغل" أن يسخطوا بشأن العجز المذهل الذي شاب طرح الشركة لنظام الذكاء الاصطناعي "جيميناي" (Gemini). لكن بالنسبة لبقية الناس، بمن فيهم أنا مستخدم "غوغل" الممتن والمتفائل دوماً بالتقنية، فقد كان ذلك الأمر نعمة.

قدّمت الإخفاقات المضحكة في الصور التي ولّدها روبوت الدردشة الخاص بـ"جيميناي"، مثل صور جنود نازيين متنوعين عرقياً، لمحة مفيدة عن عالمٍ قاتم يشبه ما صوره الكاتب جورج أورويل ملامحه في إحدى أشهر رواياته. وبذلك، سلطت هذه الصور أيضاً الضوء على أسئلة مهمة عن الضبابية والثقة ونطاق التطبيق والحقيقة وهي تستحق مزيداً من الاهتمام فيما نتفكر بالمسار الذي سيقودنا الذكاء الاصطناعي نحوه.

إن الذكاء الاصطناعي ابتكار ثوري قد يساهم في تحولات جذرية. وكما هو حال هذا الضرب من الابتكارات، فهو قادر على تحقيق تقدم هائل فيما يتعلق برفاه الإنسان. ما يحتاجه العالم هو عقد أو عقدان من النمو الاقتصادي المدفوع بالذكاء الاصطناعي. مع ذلك، فإن التهليل بشأن الذكاء الاصطناعي القائم فعلاً سابق لأوانه.

إن فكرة الذكاء الاصطناعي حماسية جداً والإنجاز الفكري وراؤه مذهل لدرجة أن المرء قد ينجرف نحوه بسهولة. لكن المبتكرين والمستخدمين الفعليين والمستقبليين والجهات التنظيمية بحاجة لأن يمعنوا النظر بحرص أكبر في ما يحدث، خصوصاً فيما يتعلق بالأغراض التي قد يخدمها الذكاء الاصطناعي بشكل مفيد.

من المتكلم؟

ينطوي جانب من الصعوبة في التعامل مع كل النتائج التي سيتمخض عنها الذكاء الاصطناعي على الجهد الهائل المبذول في تصميم نماذج الذكاء الاصطناعي التي تعبر عن نفسها مثلما يفعل البشر، على الأرجح لأسباب تسويقية. يقول الذكاء الاصطناعي مثلاً: "نعم، أنا بإمكاني أن أساعدك في ذلك". شكراً، ولكن من المقصود بكلمة "أنا"؟.

الفكرة هي أن الذكاء الاصطناعي يمكن فهمه والتعامل معه بالقدر نفسه الذي يمكن به فهم شخص والتعامل معه، لكن الفارق هو أن الذكاء الاصطناعي أذكى وأكثر علماً بشكل لا محدود. لهذا السبب، حين يتعلق الأمر باتخاذ قرارات، يفرض الذكاء الاصطناعي قدراً من السلطة على مستخدميه من ذوي القدرات الذهنية الضعيفة.

ثمّة فارق رئيسي بين الذكاء الاصطناعي كأداة يستخدمها البشر لتحسين قراراتهم، وهي القرارات التي سيستمرون بتحمل مسؤوليتها، والذكاء الاصطناعي كأداة تصنع القرار.

"غوغل" تطرح نسخة محدّثة من "جيميناي" للذكاء الاصطناعي

في الوقت المناسب، يُرجّح أن ينال الذكاء الاصطناعي سلطة صنع القرار على نطاق أوسع كثيراً، ليس فقط فيما يخص المعلومات (على هيئة نصوص ومقاطع فيديو وهكذا) التي يمررها إلى مستخدميه من البشر، ولكن أيضاً فيما يخص الأفعال. في نهاية المطاف، فإن سيارة "تسلا" التي توصف بأنها "ذاتية القيادة بالكامل" ستكون في الواقع سيارة ذاتية القيادة بالكامل.

في تلك المرحلة، ستقع مسؤولية القرارات السيئة أثناء القيادة على عاتق "تسلا". ما بين الذكاء الاصطناعي الاستشاري والذكاء الاصطناعي المستقل، يصعب تحديد من أو ما الذي ينبغي أن يتحمل المسؤولية حين تتسبب الأنظمة في أخطاء لها تبعات. لا شك أن المحاكم ستتعامل مع هذه القضية.

تقييم الكفاءة

إذا وضعنا المسؤولية جانباً، فنحن سنرغب بأن نُقيّم مدى كفاءة الذكاء الاصطناعي في اتخاذ القرارات كلما ازداد تقدماً. لكن هذه مشكلة أيضاً. لأسباب لا أفهمها لا يقال إن نماذج الذكاء الاصطناعي تُخطئ، بل يقال إنها "تهلوس". لكن كيف نعلم أنها تهلوس؟.

نحن نتأكد من ذلك يقيناً حين تُقدم هذه النماذج نتائج عبثية لدرجة أن البشر ذوي المعلومات المحدودة يضحكون. لكن حين تختلق أنظمة الذكاء الاصطناعي أموراً، فهي لن تكون بهذه الحماقة في كل الحالات. حتى أن مصممي هذه الأنظمة لا يمكنهم تفسير كل هذه الأخطاء، كما أن اكتشافها قد يفوق قدرات البشر. بإمكاننا أن نطرح ذلك السؤال على أحد أنظمة الذكاء الاصطناعي، ولكنها تهلوس.

كيف تنفع هلوسات الذكاء الاصطناعي المبدعين؟

حتى لو كان اكتشاف الأخطاء وحصرها بشكل موثوق ممكناً، فإن المعايير الخاصة بتقييم أداء نماذج الذكاء الاصطناعي غير واضحة. يرتكب البشر الأخطاء طوال الوقت. إذا كانت أخطاء الذكاء الاصطناعي أقل من أخطاء البشر، هل سيكون ذلك جيداً بما يكفي؟ سأميل إلى الإجابة بنعم فيما يتعلق بدواعٍ عدة، بما فيها القيادة الذاتية بالكامل، لكن لا بد أن يكون مجال الأسئلة المطروحة على الذكاء الاصطناعي ضيقاً إلى حد ملائم.

هذا السؤال من بين الأسئلة التي لا أود أن يجيب عليها الذكاء الاصطناعي: "إذا ارتكب الذكاء الاصطناعي أخطاءً أقل من تلك التي يرتكبها البشر، هل سيكون ذلك جيداً بما يكفي؟".

الحقائق والقيم

الفكرة هي أن أحكاماً كهذه لا تتعلق مباشرةً بالحقائق، وهذا فارق في صميم المسألة. إن التقييم إن كان رأياً ما أو تصرفاً مبرراً، فهو يعتمد غالباً على القيم. ربما تتأثر تلك القيم بهذا التصرف في حد ذاته (على سبيل المثال، هل أنا أنتهم حقوق شخص ما؟) أو بعواقبه (هل تُعتبر تلك النتيجة ذات فائدة اجتماعية أكبر من البديل؟).

يتعامل الذكاء الاصطناعي مع هذه التعقيدات عبر إضافة قيمٍ للأفعال و/أو عواقبها ضمناً، لكن عليه أن يستنبط هذه القيم من خلال ما يشبه الإجماع المُضمَن في المعلومات التي تدرب عليها أو من خلال تعليمات يتلقاها من مستخدميه و/أو مصمميه.

المشكلة هي أن لا الإجماع ولا التعليمات لها أي سلطة أخلاقية. حين يقدم الذكاء الاصطناعي رأياً، فهو ما يزال مجرد رأي.

"ألفابت" تكافح في سباقها مع "مايكروسوفت" بسلاح "جيميناي"

لهذا السبب، فإن الذكاء الاصطناعي قد جاء في وقته للأسف. إن الفارق بين الحقائق والقيم، الذي كان واضحاً في السابق، أضحى يتعرض لانتقادات من جميع الجهات. قال صحفيون بارزون إنهم لم يفهموا حقاً معنى كلمة "موضوعي".

يتناول "المنظّرون النقديون" الذين يهيمنون على عديد من برامج الدراسات الاجتماعية في الكليات "الوعي الزائف" و"البناء الاجتماعي" والحقيقة باعتبارها "تجربة معاشة"، وكلها تشكك في وجود الحقائق وترى القيم باعتبارها أدوات قمع.

أما أصحاب مبدأ الإيثار الفعال، فهم يتعاملون مع القيم بطريقة مختلفة تماماً، إذ يزعمون أنه يمكن أن نحكم على العواقب من زاوية واحدة، وهو ما يلغي كل القيم الأخرى إلا "المنفعة". فليبتهج من يتفقون مع أخلاق الخوارزميات.

أحكام قيمية

فيما تتغلغل هذه الأفكار إلى ما يدّعي الذكاء الاصطناعي أنه يعرفه، مدفوعاً أكثر من مصممين يروجون لإعادة تصحيح ثقافية فيما يخص العرق والجنس والعدالة، توقَّعوا أن تطرح أنظمة الذكاء الاصطناعي أحكاماً قيمية على أنها حقائق (تماماً كما يفعل البشر) وتحجب عنك معلومات قد تقودك نحو ارتكاب خطأ أخلاقي (تماماً كما يفعل البشر).

كما يشير أندرو ساليفان، أكدت "غوغل" في البداية أنّ نتائج بحثها "غير منحازة وموضوعية"، أما الآن فهدفها الرئيسي هو أن تكون "مفيدة اجتماعياً". قد تُقدّر أنظمة الذكاء الاصطناعي أو قد تُوجه إلى أنه إذا كان عليها الاختيار بين ما هو حقيقي وما له فائدة اجتماعية، فهي عليها أن تختار ما له فائدة اجتماعية، ثم تكذب على المستخدمين بشأن اتخاذها تلك الخطوة.

في نهاية المطاف، الذكاء الاصطناعي ذكي جداً، لذا ينبغي أن تكون "الحقيقة" التي يقدمها حقيقية فعلاً. أثبت "جيميناي" على نحو لا يُنسى أن الحقيقة التي يقدمها ليست صادقة. شكراً "غوغل" على هذا الإخفاق الكبير.