Type de document : article scientifique publié dans Veterinary Sciences
Auteurs : Su Min Kim, Gil Jae Cho
Résumé en français (traduction) : Analyse à l’aide de l’apprentissage profond de diverses expressions faciales de chevaux en tant qu’indicateurs de bien-être
Cette étude vise à prouver que l’apprentissage profond peut être utilisé efficacement pour identifier diverses expressions faciales de chevaux en tant qu’indicateurs de bien-être. Dans cette étude, un total de 749 chevaux (sains : 586 et douloureux : 163) ont été étudiés. En outre, un modèle de reconnaissance des expressions faciales basé sur des images et leur classification en quatre catégories, à savoir les chevaux au repos (CR), les chevaux douloureux (CD), les chevaux immédiatement après l’exercice (CE) et les chevaux en train de se faire ferrer (CH), a été mis au point. La normalisation de la posture faciale des équidés a révélé que la précision du profil (99,45 %) était supérieure à celle de la partie frontale (97,59 %). Le modèle de détection yeux-nez-oreilles a atteint une précision de 98,75 % en phase de formation, 81,44 % en phase de validation et 88,1 % en phase de test, avec une précision moyenne de 89,43 %. Dans l’ensemble, la précision moyenne de la classification est élevée, mais la précision de la classification de la douleur est faible. Ces résultats impliquent que diverses expressions faciales, en plus de la douleur, peuvent exister chez les chevaux en fonction de la situation, du degré de douleur et du type de douleur ressentie par les chevaux. En outre, la reconnaissance automatique de la douleur et du stress améliorerait considérablement l’identification de la douleur et d’autres états émotionnels, améliorant ainsi la qualité du bien-être équin.
Résumé en anglais (original) : This study aimed to prove that deep learning can be effectively used for identifying various equine facial expressions as welfare indicators. In this study, a total of 749 horses (healthy: 586 and experiencing pain: 163) were investigated. Moreover, a model for recognizing facial expressions based on images and their classification into four categories, i.e., resting horses (RH), horses with pain (HP), horses immediately after exercise (HE), and horseshoeing horses (HH), was developed. The normalization of equine facial posture revealed that the profile (99.45%) had higher accuracy than the front (97.59%). The eyes–nose–ears detection model achieved an accuracy of 98.75% in training, 81.44% in validation, and 88.1% in testing, with an average accuracy of 89.43%. Overall, the average classification accuracy was high; however, the accuracy of pain classification was low. These results imply that various facial expressions in addition to pain may exist in horses depending on the situation, degree of pain, and type of pain experienced by horses. Furthermore, automatic pain and stress recognition would greatly enhance the identification of pain and other emotional states, thereby improving the quality of equine welfare.