أجرت دراسة دولية واسعة النطاق، بقيادة 22 منظمة إعلام عامة، بما في ذلك الإذاعة الألمانية DW والـBBC البريطانية، كشفت أن أربعة من أكثر مساعدي الذكاء الاصطناعي استخدامًا على نطاق واسع—ChatGPT، وCopilot من مايكروسوفت، وGemini من جوجل، وPerplexity AI—يشوهون محتوى الأخبار في ما يقارب نصف ردودهم.
قيّمت البحوث 3,000 إجابة مولدة بالذكاء الاصطناعي عبر 18 دولة، مع التركيز على الدقة، والمصادر، والسياق، وقدرة التمييز بين الحقيقة والرأي. ووجدت أن 45% من الردود تضمنت عيبًا كبيرًا واحدًا على الأقل، مع 31% تظهر مشكلات خطيرة في المصادر، و20% تحتوي على أخطاء واقعية.
ذكرت Deutsche Welle أن 53% من الردود التي راجعتها كانت تعاني من مشكلات جوهرية، بما في ذلك أخطاء مثل تسمية أولاف شولتز مستشارًا ألمانيًا رغم تولي فريدريش ميرتز المنصب بالفعل.
وفقًا لتقرير الـReuters Institute للأخبار الرقمية لعام 2025، يعتمد 7% من مستخدمي الإنترنت بالفعل على روبوتات الدردشة بالذكاء الاصطناعي للحصول على الأخبار، وترتفع هذه النسبة إلى 15% بين الشباب دون سن 25 عامًا.
مشكلة هيكلية
قال جان فيليب دي تيندر، نائب المدير العام للاتحاد الأوروبي للإذاعة والتلفزيون (EBU)، الذي نسق الدراسة، إن النتائج تكشف عن مشكلة هيكلية: “These failings are not isolated incidents. They are cross-border and multilingual, and they risk eroding public trust in journalism.”
في حين أفادت دراسة سابقة للـBBC في فبراير 2025 بنتائج مشابهة، وجدت البحوث الجديدة تحسنًا طفيفًا فقط. وكان Gemini الأسوأ أداءً، حيث تضمنت 72% من ردوده مشكلات كبيرة في المصادر.
يدعو الـEBU وشركاؤه الحكومات والجهات التنظيمية إلى تعزيز الإشراف على أنظمة الذكاء الاصطناعي، وفرض قوانين تحمي سلامة المعلومات. كما أطلقوا حملة عالمية بعنوان Facts In: Facts Out، تدعو مطوري الذكاء الاصطناعي إلى تحمل مسؤولية أكبر حول كيفية تعامل أنظمتهم مع توزيع الأخبار.