مادة اعلانية

خطر خفي يهدد الذكاء الاصطناعي: “تسمم رقمي” يعبث بعقل الآلة
خطر خفي يهدد الذكاء الاصطناعي: “تسمم رقمي” يعبث بعقل الآلة

لم تعد كلمة "تسمم" حكرًا على الإنسان أو البيئة، إذ دخلت مؤخرًا إلى عالم التكنولوجيا لتصف خطرًا جديدًا يواجه الذكاء الاصطناعي. هذا الخطر المعروف بـ"تسمم الذكاء الاصطناعي" يشير إلى إدخال بيانات مضللة أثناء تدريب النماذج الذكية، ما يؤدي إلى تشويه سلوكها أو تحويلها لأداء مهام غير متوقعة.

أبحاث أجراها علماء من المعهد البريطاني لأمن الذكاء الاصطناعي، ومعهد “آلان تورينج”، وشركة Anthropic، كشفت أن إدخال نحو 250 مثالًا ضارًا فقط في بيانات تدريب أحد النماذج العملاقة يمكن أن يؤدي إلى خلل خفي في أدائه، وهو ما نُشر في مجلة “علوم الحاسوب”.

ويصنف الخبراء هذا النوع من الهجمات إلى نوعين: الأول “الباب الخلفي”، ويهدف إلى جعل النموذج يتفاعل بطريقة معينة عند ظهور محفز سري، والثاني “تسميم المحتوى”، الذي يقوم على نشر معلومات كاذبة في الإنترنت ليتم استخدامها في تدريب النماذج لاحقًا.

تجربة حديثة أثبتت خطورة الظاهرة، إذ أدى استبدال 0.001% فقط من بيانات التدريب بمعلومات طبية مضللة إلى أن يقدم النموذج نصائح خاطئة تمامًا، ما يؤكد أن التسمم الرقمي قادر على تقويض ثقة المستخدمين بنتائج الذكاء الاصطناعي.