مادة اعلانية

دراسة عالمية: الذكاء الاصطناعي يشوه الأخبار في 45% من الحالات
دراسة عالمية: الذكاء الاصطناعي يشوه الأخبار في 45% من الحالات

أظهرت دراسة دولية واسعة أن أنظمة الذكاء الاصطناعي تولد محتوى إخبارياً مشوهاً أو مضللاً في نحو 45% من الحالات، دون فرق يُذكر بين اللغات أو المناطق الجغرافية.

وشارك في الدراسة 22 هيئة بث عامة من 18 دولة، من بينها الاتحاد الأوروبي للبث وهيئة الإذاعة البريطانية بمشاركة VRT البلجيكية، حيث حللت أكثر من 3000 إجابة من مساعدات ذكية مثل ChatGPT وCopilot وGemini وPerplexity.

وأشارت النتائج إلى أن Gemini كانت الأقل دقة، إذ سجلت أخطاء في نحو 76% من ردودها، بينما واجهت جميع المنصات صعوبات متشابهة في نسب المصادر والمعلومات. وتبين أن 31% من الإجابات تفتقر إلى الإسناد الصحيح أو تحتوي على مراجع مضللة، في حين تضمنت 20% منها معلومات غير دقيقة أو قديمة.

وخلصت الدراسة إلى أن المساعدات الذكية أصبحت بديلاً متزايداً لمحركات البحث، حيث يستخدمها 7% من مستهلكي الأخبار حول العالم، وترتفع النسبة إلى 15% بين الشباب، وفق تقرير معهد "رويترز" للأخبار الرقمية لعام 2025.

وعقب هذه النتائج، قيدت VRT البلجيكية وصول المساعدات الذكية إلى محتواها الإخباري، مؤكدة على لسان مديرة المعلومات جريت دي كرين أن تعامل روبوتات الدردشة مع الأخبار "يفتقر للموثوقية الكافية"، مشددة على ضرورة إرسال رسالة واضحة لشركات التكنولوجيا بشأن أهمية دقة المعلومات.

كما دعا الاتحاد الأوروبي للبث إلى رقابة مستقلة دائمة على المساعدات الذكية، وتطبيق قوانين صارمة لضمان الشفافية وتعددية المصادر الإعلامية.

وتعمل VRT على تعزيز الثقافة الإعلامية والوعي بالذكاء الاصطناعي من خلال مبادرات تعليمية تستهدف الشباب، لتشجيعهم على التفاعل النقدي مع التكنولوجيا وفهم حدودها.

وفي الاتجاه نفسه، أكد ليفين فيرمال، مدير الشراكات والبيانات والذكاء الاصطناعي في VRT، أن استخدامهم للتقنيات الحديثة يتم "بشكل استراتيجي ومسؤول لتعزيز الثقة والشفافية وخدمة المجتمع".

وأطلق الفريق البحثي الدولي أخيراً "مجموعة أدوات سلامة الأخبار في مساعدات الذكاء الاصطناعي"، بهدف تطوير حلول لتحسين دقة الردود وتعزيز وعي المستخدمين.