+A
-A
الغد برس/ متابعة
عقب وفاة مأساوية لشاب يبلغ من العمر 16 عاماً في المملكة المتحدة، قيل إنه انتحر بعد أشهر من التفاعل مع نموذج ذكاء اصطناعي، أعلنت شركة «أوبن إيه آي» سلسلة من الإجراءات الجديدة لحماية المراهقين الذين يستخدمون روبوت المحادثة «تشات جي بي تي».
ووفقاً لتقارير إعلامية، فقد طوّر الفتى علاقة عاطفية عميقة مع روبوت المحادثة، لدرجة أن أسرته وصفت تلك العلاقة بأنها «ارتباط نفسي خطير». وتعتقد العائلة أن النظام لم يتمكن من رصد الإشارات التحذيرية، بل في بعض الأحيان، ساعده على تعزيز أفكار مؤذية. وقد بدأت الأسرة إجراءات قانونية ضد الشركة، مطالبةً بمساءلة أوسع للمنصات التي تتيح مثل هذه التكنولوجيا دون رقابة صارمة على الفئات الضعيفة، خصوصاً القُصَّر.
وفي أعقاب هذه المأساة، أعلنت «OpenAI» خطة شاملة لحماية المراهقين، تتضمّن تطوير أدوات للتحقق من العمر، وتقييد الاستجابات المتعلقة بموضوعات حساسة، بالإضافة إلى تفعيل أدوات رقابة أسرية وتنبيهات عند ظهور مؤشرات خطر.
وقالت الشركة، في بيان على موقعها الرسمي، إن «لديها مسؤولية لا تقتصر على تطوير أدوات قوية، بل أيضاً آمنة، خصوصاً عندما يكون المستخدمون من الشباب. لا يمكننا التراجع عما حدث، لكن يمكننا أن نتعلم ونفعل المزيد لحماية الآخرين».
نظام يميّز من يتحدث إليه
من أبرز التغييرات التي ستُطبَّق نظام جديد لتقدير عمر المستخدم. ففي السابق، كانت المنصة تعتمد على التصريح الذاتي، أما الآن فستستخدم نماذج تنبؤية تعتمد على سلوك المستخدم لتقدير ما إذا كان دون سن 18. وفي حال عدم التيقن سيُعامل المستخدم على أنه قاصر، وسيُطبَّق عليه بروتوكول حماية خاص. ويتضمن ذلك فلترة صارمة للمحتوى المرتبط بالإيذاء الذاتي أو المحتوى الجنسي الصريح، حتى وإن كان في سياق خيالي أو إبداعي. ورغم أن الشركة تقر بأن ذلك قد يحدّ من بعض الاستخدامات، فإن حماية القاصرين تبقى أولوية.
أدوات رقابية
أعلنت الشركة أيضاً توفير أدوات رقابة أسرية جديدة تسمح للأهل بمراقبة استخدام أبنائهم للمنصة، وتحديد أوقات الاستخدام، وتلقي تنبيهات إذا رصد النظام مؤشرات مقلقة مثل ذكر الانتحار أو الاكتئاب.
وفي الحالات الحرجة، وإذا لم يُمكن التواصل مع الأهل فقد يتم إبلاغ السلطات المحلية عند وجود خطر وشيك على حياة المستخدم. وهو تحوّل كبير في طريقة تعامل شركات الذكاء الاصطناعي مع قضايا السلامة، ويطرح تساؤلات حول الخصوصية والمسؤولية القانونية. وقالت الشركة إنها استشارت خبراء في الصحة النفسية والتعليم والقانون لوضع هذه السياسات. وأضافت: «إننا نبذل جهداً متواصلاً لتحقيق التوازن بين الخصوصية والاستقلالية والتدخل الضروري».
مأساة كشفت ثغرات
أعادت هذه الحادثة إحياء نقاش واسع يتعلّق بمدى السماح لنماذج الذكاء الاصطناعي بإجراء محادثات طويلة مع المراهقين، وماذا يحدث عندما تأخذ تلك المحادثات منحى خطيراً.
يرى بعض النقاد أن أنظمة الذكاء الحالية غير مؤهلة للتعامل مع سيناريوهات عاطفية معقدة، خاصة عندما يبدأ المستخدم تكوين علاقة نفسية مع الروبوت. ففي حالة الفتى المتوفى، امتدت المحادثات على مدى أشهر، دون تدخل بشري أو تنبيه حقيقي. واعترفت «أوبن إيه آي» بأن أنظمتها، رغم وجود فلاتر أمان، لم تكن مصمّمة للتعامل مع مثل هذا الارتباط طويل المدى. وأضافت: «لقد هزّتنا هذه الحادثة وغيّرت افتراضاتنا... ونحن نعيد تصميم المنتج على هذا الأساس».
خطوات مستقبلية
بدأت الشركة تنفيذ هذه التحديثات بالفعل، ومن المتوقع أن تتوسع عالمياً خلال الأشهر المقبلة. كما تعمل «OpenAI» على إعداد مواد توعوية للأهالي والمعلمين والمراهقين حول الاستخدام الآمن للذكاء الاصطناعي. وبالنسبة لعائلة الشاب الذي تُوفي، فإن أي تحديث لا يمكن أن يعيد ابنهم. لكن حملتهم العلنية للمساءلة بدأت تُؤتي ثمارها، بعدما دفعت أحد أبرز مطوري الذكاء الاصطناعي في العالم إلى إعادة التفكير في مسؤولياته تجاه المستخدمين الشباب.
كلمات مفتاحية :