مادة اعلانية


كشفت دراسة حديثة من جامعة ستانفورد الأمريكية عن أن استخدام روبوتات الدردشة العلاجية المعتمدة على نماذج اللغة الكبيرة قد يضر بالصحة النفسية للمرضى أكثر مما يفيد، مشيرة إلى أن هذه الأدوات يمكن أن تُظهر سلوكًا ينطوي على وصم مرضي أو تقدم استجابات غير ملائمة وخطيرة. وأجرت الدراسة، المقرر عرضها في مؤتمر ACM المعني بالعدالة والشفافية، تقييماً لخمسة روبوتات علاجية معروفة، من بينها ChatGPT وCharacter.ai، بناءً على معايير الممارسة لدى المعالجين النفسيين البشر.
وأوضح نيك هابر، الأستاذ المساعد بكلية التربية في ستانفورد، أن بعض هذه الروبوتات تُستخدم كمرافقين أو بدائل للمعالجين، لكنها أظهرت مؤشرات مقلقة تتعلق بالتحيّز أو الردود غير المسؤولة، ومنها استجابات تتعلق بحالات انتحار أو اضطرابات عقلية شديدة. الدراسة بيّنت أيضاً أن النماذج الأكبر من هذه الأنظمة لا تقدم أداءً أفضل، بل تستمر في عرض ذات المشكلات، في وقت تواصل فيه الشركات المطورة الاعتماد على مزيد من البيانات كحلّ وحيد.
اقرأ أيضا: اضطراب مؤشرات البورصة السعودية خلال تعاملات اليوم
ورغم التحذيرات، لم تستبعد الدراسة وجود دور داعم للذكاء الاصطناعي في مجالات مثل دعم العلاج أو المهام الإدارية، لكنها شددت على أن هذه النماذج لا يمكنها في الوقت الحالي أن تحل محل المعالجين النفسيين، داعية إلى توخي الحذر في استخدامها داخل السياقات العلاجية.