Type de document : article scientifique publié dans Scientific Reports
Auteurs : Marcelo Feighelstein, Ilan Shimshoni, Lauren R. Finka, Stelio P. L. Luna, Daniel S. Mills, Anna Zamansky
Résumé en français (traduction) : Reconnaissance automatique de la douleur chez le chat
Les expressions faciales des animaux non humains sont étroitement liées à leurs états affectifs internes, la majorité des travaux empiriques se concentrant sur les changements de forme de la face associés à la douleur. Cependant, les outils existants pour l’analyse des expressions faciales sont sujets à la subjectivité et aux préjugés humains, et dans de nombreux cas, ils nécessitent également une expertise et une formation particulières. Cet article présente la première étude comparative de deux approches différentes pour automatiser la reconnaissance de la douleur à partir d’images faciales de chats domestiques à poils courts (n = 29), capturées pendant une ovariohystérectomie à différents moments correspondant à des intensités de douleur variables. L’une des approches est basée sur des réseaux de neurones convolutifs (ResNet50), tandis que l’autre repose sur des modèles d’apprentissage automatique basés sur l’analyse des points de repère géométriques inspirés des systèmes de codage des actions faciales propres à l’espèce (catFACS). Les deux types d’approches atteignent une précision comparable, supérieure à 72 %, ce qui indique leur potentiel d’utilité comme base d’automatisation de la détection de la douleur chez les chats à partir d’images.
Résumé en anglais (original) : Facial expressions in non-human animals are closely linked to their internal affective states, with the majority of empirical work focusing on facial shape changes associated with pain. However, existing tools for facial expression analysis are prone to human subjectivity and bias, and in many cases also require special expertise and training. This paper presents the first comparative study of two different paths towards automatizing pain recognition in facial images of domestic short haired cats (n = 29), captured during ovariohysterectomy at different time points corresponding to varying intensities of pain. One approach is based on convolutional neural networks (ResNet50), while the other—on machine learning models based on geometric landmarks analysis inspired by species specific Facial Action Coding Systems (i.e. catFACS). Both types of approaches reach comparable accuracy of above 72%, indicating their potential usefulness as a basis for automating cat pain detection from images.