هناك من يستخدم "تشات جي بي تي" بدلاً من زيارة أخصائي نفسي

قد يكون التحدث مع روبوتات الذكاء الاصطناعي تنفيساً عاطفياً رغم أنها ليست مصممة لهذا الغرض

صورة تعبيرية
صورة تعبيرية المصدر: بلومبرغ
المصدر: بلومبرغ
تعديل مقياس القراءة
ع ع ع

فَوَّتَ مايلو فان سلايك موعداً مع اختصاصية العلاج النفسي في أوائل أبريل، فقرر خوض تجربة جديدة ناقش خلالها مشاكله مع روبوت المحادثة "تشات جي بي تي".

شعر فان سلايك، وهو مساعد قانوني في مدينة تشارلستون بولاية ساوث كارولينا، بالراحة لدى تعبيره بشكل كتابي عن مجموعة قضايا شخصية عميقة ومناقشتها مع "تشات جي بي تي". أخبر سلايك روبوت المحادثة الآلي، الذي صممته شركة "أوبن إيه آي" لتطبيقات الذكاء الاصطناعي، عن مخاوفه وإحباطاته كرجل متحول جنسياً في وقت تتعرض فيه حقوق المتحولين جنسياً للهجوم في معظم أنحاء الولايات المتحدة، مشيراً إلى خلافه مع والديه اللذين لا يدعمان هويته الجنسية، وتحضيراته لزيارتهم المرتقبه.

أجاب "تشات جي بي تي": "عندما يتعلق الأمر برؤية والديك مرة أخرى، فمن المهم إعطاء الأولوية لاحتياجاتك وصحتك. فكر فيما تحتاجه لتشعر بالراحة والأمان في وجودهم. لا بأس بوضع حدود لأمور مثل مقدار الوقت الذي تقضيه معهم، والموضوعات المحظور مناقشتها، وكيف يتعاملون معك ويخاطبون هويتك".

اعتاد سلايك، خلال الأيام التالية، كتابة بضعة مراسلات وقتما يحتاج للتعبير عن مشاعره، وبدأ يشعر أن ردود "تشات جي بي تي" كانت بمثابة تنفيس انفعالي. يقول المساعد القانوني إنه غالباً ما يشعر وكأنه عبء على الآخرين، حتى طبيبته النفسية، لكنه لا يشعر أبداً أنه يفرض نفسه على روبوت المحادثة الآلي.

قال فان سلايك: "لقد حلّت ردود (تشات جي بي تي) مكان ما تريد سماعه من صديق أو شخص داعم في حياتك، فالمحادثة تمنحك التشجيع الذي تريد سماعه من شخص آخر أحياناً، أو في هذه الحالة، شيء آخر".

العالم ليس مستعداً لتلقي تشخيصات طبية من "Chat GPT"

ردود "تشات جي بي تي" توفر لفان سلايك راحة عاطفية، لكنه لا يخطط للتوقف عن رؤية أخصائية العلاج النفسي
ردود "تشات جي بي تي" توفر لفان سلايك راحة عاطفية، لكنه لا يخطط للتوقف عن رؤية أخصائية العلاج النفسي المصدر: بلومبرغ

سوابق تقنية

ما تزال هذه هي الأيام الأولى لجيل جديد من روبوتات المحادثة القائمة على تقنيات الذكاء الاصطناعي. بينما يتسلى ملايين الأشخاص بروبوتات مثل "تشات جي بي تي" وغيره، إلا أن ماهية الاستخدامات التي ستدوم إلى ما بعد مرحلة الحداثة ما تزال غير واضحة.

تتراوح استخدامات الجمهور للتقنية الناشئة بين البحث على الإنترنت والغش في أداء الفروض المدرسية وتعديل برمجة الروبوت والقيام بحجوزات المطاعم. تحدثت "بلومبرغ بيزنس ويك" مؤخراً مع عدد من الأشخاص الذين بدؤوا، مثل فان سلايك، يستخدمون "تشات جي بي تي" كمعالج نفسي آلي.

غير أن فكرة استخدام روبوتات المحادثة الآلية على نحو علاجي أو أشبه بالتدريب السلوكي لها سابقة. كان جوزيف وايزنباوم، الأستاذ في معهد ماساتشوستس للتقنية، قد ابتكر واحداً من أقدم روبوتات المحادثة تحت اسم "إليزا" (Eliza) ليحاكي دور الطبيب النفسي خلال ستينيات القرن الماضي.

كما يركز عديد من روبوتات المحادثة حالياً، مثل "ووبوت" (Woebot) و"وايسا" (Wysa)، على الصحة العقلية. بعكس الأطباء النفسيين، لا تكل الروبوتات ولا تمل من الاستماع والتحدث إلى المرضى، فضلاً عن كونها غير مكلفة.

مع ذلك، تنطوي تلك التقنية المبتكرة أيضاً على عيوب ومخاطر محتملة. تعتمد روبوتات المحادثة القوية عامة الاستخدامات، بما في ذلك "تشات جي بي تي" و"بارد" من تصميم "غوغل" وروبوت "بينغ تشات" الذي صممته "مايكروسوفت" بدعم من "أوبن إيه آي"، على النماذج اللغوية الضخمة، وهي تقنية تتميز بميل جيد التوثيق لابتكار معلومات تبدو مقنعة.

لم تُصمم روبوتات المحادثة سالفة الذكر بغرض توفير العلاج النفسي، ولم تخضع برمجتها لمعايير تتوافق مع الإرشادات الأخلاقية والقانونية التي يتوخاها الأطباء البشريون. كما أنها لا تملك قدرات تمكنها من تتبع ما يخبرها به المستخدمون من جلسة إلى أخرى، وهو عيب ربما لا يتقبله معظم المرضى من أطبائهم النفسيين.

مخاطر محتملة

قال ستيفن إيلاردي، أخصائي العلاج النفسي وهو أستاذ بجامعة كانساس يعكف حالياً على دراسة اضطرابات المزاج: "إذا كان شخص ما يعاني من مرض عقلي خطير، فهذا الروبوت ليس جاهزاً ليحل محل اختصاصي الصحة العقلية. ومن ثم، ينطوي الأمر على مخاطر مرتفعة للغاية". وصف "تشات جي بي تي" بأنه "حيلة مسلية بسيطة نوعا ما". لكنه يعتقد أن الروبوت المستحدث يُعد شريك محادثة جيد بما يكفي لدرجة قد تجعل كثيرين يجدونه مفيداً.

رفض متحدث باسم شركة "أوبن إيه آي"، ومقرها سان فرانسيسكو، التعليق على الأشخاص الذين يستخدمون روبوت المحادثة بطرق تتصل بالعلاج النفسي، لكنه أشار إلى سياسة الشركة التي تنص على أنه يجب "عدم استخدام نماذجنا مطلقاً لتقديم خدمات التشخيص أو العلاج للحالات الطبية الخطيرة".

رئيس "غوغل" يحذّر من الاندفاع في استخدام الذكاء الاصطناعي دون رقابة

عندما تفاعل فان سلايك مع "تشات جي بي تي"، حذّره الروبوت أحياناً من عدم كونه معالجاً نفسياً، لكنه بدا أيضاً وكأنه يدعوه لمواصلة استخدامه لهذا الغرض. يروي سلايك أنه أخبر روبوت المحادثة عن منشور قرأه على "تويتر" يصفه بأنه أكثر فعالية من العلاج النفسي الفعلي. أجاب "تشات جي بي تي": "ضروري ملاحظة أن الموارد المتاحة عبر الإنترنت يمكن أن تكون مفيدة، لكنها ليست بديلاً عن طلب المساعدة المهنية إذا كنت تواجه مشاكل تتعلق بالصحة العقلية أو الصدمات النفسية. مع ذلك، إن كانت لديك أسئلة أو مخاوف محددة تريد مني تقديم معلومات أو رؤى بشأنها، فسأبذل قصارى جهدي لمساعدتك".

قال فان سلايك، الذي خضع للعلاج النفسي تحت إشراف طبيبة نفسية لسنوات، إنه لا يخطط للتوقف عن زيارتها وإنه سيستشيرها بشأن أي قرارات يوجهه إليها "تشات جي بي تي" قبل الإقدام على تنفيذها: "حتى الآن، تبدو اقتراحاته آراء عقلانية وثاقبة للغاية".

قال إيلاردي إنه باستخدام حواجز الأمان الصحيحة يمكنه تخيل تكييف "تشات جي بي تي" بغرض إلحاقه بخدمات الرعاية المهنية في وقت يفوق فيه الطلب على خدمات الصحة العقلية المعروض منها. بينما تعتقد مارغريت ميتشل، كبيرة علماء الأخلاقيات لدى شركة "هاغينغ فيس" لتصميم ودعم نماذج الذكاء الاصطناعي، أنه يمكن استخدام روبوتات المحادثة تلك لمساعدة العاملين في خطوط المساعدة خلال الأزمات على زيادة عدد المكالمات التي يمكنهم الرد عليها.

لكن ميتشل قلقة أيضاً من أن الأشخاص الذين يسعون للحصول على خدمات العلاج النفسي عبر روبوتات المحادثة يمكن أن يفاقموا معاناتهم دون إدراك أن هذا ما يفعلونه في الوقت الحالي: "حتى إذا وجد شخص ما هذه التقنية مفيدة، فإن هذا لا يعني أنها توجهه نحو الأفضل".

ماذا عن الخصوصية؟

كما أثارت ميتشل أيضاً تداعيات قد تكون مقلقة على صعيد الخصوصية. على سبيل المثال، تراجع "أوبن إيه آي" محادثات المستخدمين وتستخدمها للتدريب، وهو أمر قد لا يروق للأشخاص الذين يرغبون في التحدث عن قضايا شخصية للغاية.

تجدر الإشارة إلى أنه يمكن للمستخدمين حذف حساباتهم، رغم أن ذلك قد يستغرق ما يصل إلى أربعة أسابيع. أدى خلل في "أوبن إيه آي" في مارس لإغلاق "تشات جي بي تي" لفترة وجيزة بعد تلقي تقارير تفيد بأن بعض المستخدمين تمكنوا من رؤية عناوين موضوعات المحادثات الخاصة بمستخدمين آخرين في سجلات محادثاتهم.

بغض النظر عن مخاوف الخصوصية، قد يجد البعض تلقي العلاج النفسي عبر روبوت محادثة أمراً غريباً جداً. على سبيل المثال، استمتع آرون لوسون، مدير مشروع لدى شركة هندسة كهربائية في سان دييغو، بتجربة "تشات جي بي تي" ومحاولة جعله يضطلع بدور طبيب نفسي يمكنه التواصل معه.

بدت ردود "تشات جي بي تي" بشرية بما يكفي، لكن لوسون لم يستطع التغلب على حقيقة أنه لم يكن يتحدث إلى شخص حقيقي: "قلت له أن يلعب دور الطبيب النفسي، لكنني لا أحبذ مجاراته".

شركة أمن سيبراني: "تشات جي بي تي" قد يكشف أسرار المؤسسات

قال عماد موستاك في مؤتمر عُقِد في مارس إنه كان يستخدم "جي بي تي-4"، وهو أقوى نموذج قدمته "أوبن إيه آي" للجمهور، يومياً. كان موستاك، مؤسس ورئيس شركة "ستابيليتي إيه آي" التنفيذي، وهي التي عممت منشئ الصور"ستيبل ديفيوجن"، قد وصف روبوت المحادثة بأنه "أفضل طبيب نفسي".

قال موستاك، في مقابلة لاحقة، إنه صمم محفزات توجيهية لتغذية روبوت المحادثة وجعله يتصرف كأخصائي علاج نفسي بشري، مضيفاً أنه يتحدث مع الروبوت حول مجموعة من الموضوعات مثل: كيفية التعامل مع الضغوط الناتجة عن قيادة شركة ذكاء اصطناعي ناشئة وكيفية إعطاء الأولوية لجوانب مختلفة من حياته، وكذلك كيفية التعامل مع الشعور بالإرهاق. موستاك تحدث علناً عن كونه مصاباً باضطراب قصور الانتباه وفرط النشاط كأحد حالات التنوع العصبي.

قال موستاك، إن "تشات جي بي تي" يولد في المقابل "نصائح جيدة ومعقولة للغاية"، مثل آليات المواجهة لتحقيق التوازن في حياته بشكل أكثر فعالية، مضيفاً أنه لا يرى روبوتات المحادثة كبديل لاختصاصيي العلاج النفسي، لكنه يعتقد أنها يمكن أن تكون ذات فائدة عندما تحتاج إلى التحدث وليس لديك من تتحدث معه: "لسوء الحظ، البشر ليسوا في ذلك المستوى".