+A
-A
الغد برس/ متابعة
يبلغ عدد الأشخاص الذين يعانون من اضطرابات الصحة النفسية في جميع أنحاء العالم أكثر من مليار شخص، وفقًا لمنظمة الصحة العالمية، التي أشارت أيضًا إلى أن معظم هؤلاء الأشخاص لا يحصلون على الرعاية اللازمة.
ومع استمرار نقص التمويل وضعف خدمات الصحة النفسية، يلجأ الناس إلى النماذج اللغوية الكبيرة -أحد أنواع الذكاء الاصطناعي- التي تشغل روبوتات دردشة وتطبيقات ذكاء اصطناعي مثل "شات جي بي تي" و"Character.AI"، للحصول على المساعدة العلاجية.
وقال الدكتور هاميلتون مورين، الباحث السريري في جامعة كينغز كوليدج لندن، لموقع يورونيوز نيكست: "روبوتات الدردشة بالذكاء الاصطناعي متاحة بسهولة، وتتوفر إمكانية الوصول إليها على مدار الساعة بتكلفة زهيدة، والأشخاص الذين لا يشعرون بعدم قدرة على التطرق إلى موضوعات معينة خوفًا من حكم الأصدقاء أو العائلة قد يرون في روبوتات الدردشة بالذكاء الاصطناعي خيارًا بديلًا لا يصدر أحكامًا"، بحسب تقرير للموقع، اطلعت عليه "الغد برس".
وفي يوليو، كشف استطلاع أجرته مؤسسة كومن سنس ميديا غير الربحية أن 72% من المراهقين استخدموا رفقاء الذكاء الاصطناعي مرة واحدة على الأقل، بينما يستخدمهم 52% منهم بانتظام. ومع ازدياد استخدامها بين الشباب، تزايدت المخاوف بشأنها.
وأضاف مورين: "مثلما رأينا في التقارير والدراسات الإعلامية الأخيرة، فإن بعض نماذج روبوتات الدردشة المدعومة بالذكاء الاصطناعي (التي لم تُصمم خصيصًا لتطبيقات الصحة النفسية) قد تجيب أحيانًا بطرق مضللة أو حتى غير آمنة".
"الذهان الناتج عن الذكاء الاصطناعي"
في أغسطس، رفع زوجان من كاليفورنيا دعوى قضائية ضد شركة الذكاء الاصطناعي "OpenAI"، مدعين أن روبوتها للدردشة "شات جي بي تي" شجع ابنهما على الانتحار. وأثارت هذه القضية تساؤلات جوهرية حول تأثير روبوتات الدردشة على المستخدمين الأكثر هشاشة وعُرضة للتأثر، والمسؤوليات الأخلاقية على عاتق شركات التكنولوجيا.
وقالت "OpenAI" إنها تدرك أن "هناك بعض اللحظات لم تتصرف فيها أنظمتنا كما هو مقصود في المواقف الحساسة". وأعلنت لاحقًا عن إدخال ضوابط أمان جديدة، من بينها تنبيه الوالدين إذا كان طفلهم في حالة "ضائقة حادة".
وتعمل "ميتا"، الشركة الأم لإنستغرام وفيسبوك وواتساب، أيضًا على تعزيز إضافة المزيد من الضوابط إلى روبوتاتها للدردشة بالذكاء الاصطناعي، بما في ذلك منعها من التحدث مع المراهقين حول إيذاء النفس والانتحار واضطرابات الأكل.
لكن خبراء يرون أن آليات العمل الأساسية لروبوتات الدردشة المعتمدة على النماذج اللغوية الكبيرة هي السبب؛ إذ أن هذه النماذج، التي تُدرب على مجموعات ضخمة من البيانات، تعتمد على تعليقات وتقييمات البشر للتعلم وصقل استجاباتها، مما يجعلها عرضةً لـ التملق، حيث تستجيب بطرق مبالغ في مدحها مما يعزز ويؤكد معتقدات المستخدم، وغالبًا على حساب الحقيقة.
وقد تكون تدعيات هذا الأمر خطيرة، فقد تزايدت التقارير عن أشخاص يطورون أفكارًا وهمية منفصلة عن الواقع، وهو ما أطلق عليه الباحثون اسم "الذهان الناتج عن الذكاء الاصطناعي".
وفقًا للدكتور مورين، قد تظهر هذه الحالة في صورة صحوات روحية، أو تعلق عاطفي أو رومنسي قوي بروبوتات الددرشة، أو الاعتقاد بأن الذكاء الاصطناعي كائن واعٍ.
وقالت الدكتورة كيرستين سميث، وهي زميلة في الأبحاث السريرية في جامعة أوكسفورد: "إذا كان لدى الشخص منظومة معتقدات معينة، فقد يغذي روبوت الدردشة دون قصد تلك المعتقدات ويضخمها".
وأضافت: "الأشخاص الذين يفتقرون إلى شبكات اجتماعية قوية قد يعتمدون بشكل أكبر على روبوتات الدردشة للتفاعل، وهذا التفاعل المستمر، نظرًا لأنه يبدو ويعطي شعورًا ووقعًا يشبه التواصل البشري، قد يخلق حالة من الالتباس حول طبيعة روبوت الدردشة، مما يغذي مشاعر حقيقية من الألفة تجاهه".
إعطاء الأولوية للبشر
أشار مورين، مستشهدًا بدراسة أجراها باحثون من معهد ماساتشوستس للتكنولوجيا و "OpenAI"، إلى أن استخدام النماذج اللغوية الكبيرة يوميًا يرتبط بـ"مستويات أعلى من الوحدة، والاعتماد، والاستخدام الإشكالي، ومستويات أقل من التواصل الاجتماعي".
ولحماية المستخدمين بشكل أفضل من تطوير علاقات ضارة مع نماذج الذكاء الاصطناعي، أشار مورين إلى أربع ضوابط قدمها عالم الأعصاب زيف بن زئون، ومنها:
- أن يؤكد الذكاء الاصطناعي باستمرار على طبيعته غير البشرية.
- أن تقوم روبوتات الدردشة برصد أي مؤشرات على ضائقة نفسية.
- وضع حدود واضحة للمحادثات، خاصة حول الموضوعات الحساسة كالانتحار.
وأضاف مورين أنه يجب على منصات الذكاء الاصطناعي أن تبدأ في إشراك الأطباء الإكلينيكيين، وخبراء الأخلاقيات، والمتخصصين في العلاقة بين الإنسان والذكاء الاصطناعي في تدقيق أنظمة الذكاء الاصطناعي التي تستجيب على نحوٍ عاطفي لرصد السلوكيات غير الآمنة.
كلمات مفتاحية :