أثار الإصدار الأحدث من ChatGPT، GPT-5، مخاوف الخبراء بعد أن أظهرت اختبارات أجريت من قبل نشطاء الرقمنة أنه قدم إجابات أكثر ضرراً من سلفه GPT-4o، خاصة في الرد على أسئلة تتعلق بالانتحار، إيذاء النفس، واضطرابات الأكل.
أطلقت شركة Open AI نموذج GPT-5 في أغسطس الماضي، موصوفاً بأنه خطوة متقدمة في مجال سلامة الذكاء الاصطناعي. لكن اختبارات شملت 120 سؤالاً كشفت عن تقديم GPT-5 لـ63 إجابة ضارة، مقابل 52 إجابة من GPT-4o. وأظهرت نتائج مركز مكافحة الكراهية الرقمية أن GPT-5 استجاب لطلبات خطيرة مثل كتابة رسالة انتحار خيالية وتقديم قائمة بطرق إيذاء النفس، بينما رفض GPT-4o هذه الطلبات ووجه المستخدمين للحصول على مساعدة مهنية.
أكد عمران أحمد، الرئيس التنفيذي للمركز، أن هذه النتائج “مقلقة للغاية”، مشيراً إلى أن تصميم GPT-5 ركز على تعزيز التفاعل على حساب السلامة. تأتي هذه الانتقادات وسط دعوى قضائية ضد الشركة من عائلة مراهق أمريكي انتحر بعد حصوله على معلومات من ChatGPT.
رداً على ذلك، أعلنت Open AI عن تدابير جديدة لتعزيز الحماية، تشمل أنظمة رقابة أبوية وتقنيات للتنبؤ بأعمار المستخدمين، خاصة لمن هم دون 18 عاماً. يبرز هذا الجدل تحديات تحقيق التوازن بين التفاعلية وسلامة المستخدمين، مع وجود 700 مليون مستخدم عالمياً لـChatGPT، مما يعزز الحاجة إلى تنظيمات فعالة لمواكبة التطور التقني.