Type de document : article publié dans Science
Auteur : Christa Lesté-Lasserre
Extrait en français (traduction) : L’IA peut-elle lire la douleur et les autres émotions sur le visage de votre chien ?
Les scientifiques du monde entier se tournent vers l’IA pour déchiffrer les expressions faciales des animaux, des moutons aux chevaux en passant par les chats. Certains ont déjà mis au point des algorithmes qui sont plus rapides et plus précis que les humains les plus attentifs pour reconnaître les signes de douleur et de détresse. Ces outils pourraient inaugurer une nouvelle ère de soins aux animaux qui accorde une plus grande priorité à leur santé, leur bien-être et leur protection […]. Il y a des indices alléchants qui suggèrent qu’ils pourraient aller encore plus loin. À terme, l’IA pourrait même surpasser les humains dans l’interprétation d’une gamme d’émotions plus complexes telles que le bonheur, la sérénité, la frustration ou la peur […] – des sentiments qu’il est tout aussi important de comprendre si nous voulons offrir aux animaux la meilleure vie possible. Mais comme la plupart des scientifiques qui s’intéressent aux pouvoirs de l’IA, les chercheurs en comportement animal craignent de trop se fier aux machines, surtout lorsque le bien-être des animaux est en jeu. […]Les experts dans le domaine sont devenus habiles à coder manuellement […] les mouvements faciaux des animaux, ce qui pourrait – en théorie – permettre de vérifier leur bien-être. Mais c’est un travail incroyablement fastidieux […]. Les codeurs humains ont besoin en moyenne de 100 secondes pour identifier les différents muscles faciaux et coder leurs positions dans une seule image, ou de 2 à 3 heures pour 30 secondes de vidéo. L’IA, en revanche, peut accomplir la même tâche presque instantanément, mais il faut d’abord la former. […]L’informaticienne Anna Zamansky […] rêve de développer une intelligence artificielle capable d’interpréter une gamme d’émotions chez les chiens […] Zamansky a commencé par développer un logiciel de reconnaissance faciale pour aider les gens à retrouver leurs chiens perdus. Les propriétaires téléchargent une photo du visage de leur chien dans le logiciel, qui recherche une correspondance dans une base de données d’images d’animaux errants soumises par des inconnus inquiets. Zamansky […] a fait don de cette technologie à des organisations humanitaires travaillant en Ukraine et dans les zones inondées du Brésil, où elle a permis de réunir des dizaines de chiens perdus avec leurs propriétaires. Plus récemment, l’équipe s’est tournée vers une tâche plus difficile : utiliser l’IA pour repérer les signes souvent subtils d’inconfort sur le visage des animaux. […] [Ils] ont repéré « des milliers et des milliers » de visages d’une variété d’espèces, y compris des chats, des chiens, des chevaux et des primates. […] Une fois le repérage des points de référence terminé, l’IA peut identifier des expressions faciales spécifiques en analysant les distances entre ces points de référence. […] En croisant ces expressions avec les échelles de grimaces déjà créées par les chercheurs, l’IA peut rechercher des signes révélateurs de douleur ou de détresse. […]Le résultat de tout cet entraînement minutieux est des systèmes d’IA capables de diagnostiquer les atteintes au bien-être avec une précision impressionnante. […] Bien qu’efficaces, ces outils dépendent encore des humains pour déterminer ce qu’il faut rechercher dans l’expression d’un animal. Récemment, les chercheurs ont donc confié encore plus de responsabilités à l’IA. Plutôt que d’apprendre aux systèmes informatiques à rechercher des expressions prédéterminées de douleur ou de stress, certains scientifiques se contentent de donner à leur IA des images d’animaux dans différentes situations et de les laisser repérer eux-mêmes les signes révélateurs, grâce à un processus appelé apprentissage profond. […] Et plus tôt cette année, le groupe de Zamansky a publié des résultats montrant qu’une IA laissée libre était systématiquement plus efficace pour détecter la douleur chez les moutons que des vétérinaires et des experts en comportement hautement qualifiés. […]
Le fait de ne pas savoir comment l’IA prend réellement ses décisions inquiète les chercheurs. « Tout le monde s’inquiète de la boîte noire, car ils ne savent pas ce que la machine décide, ni pourquoi », déclare Zamansky, dont l’étudiante Tali Shitrit a consacré sa thèse à comprendre ce que l’IA du groupe recherche exactement dans les visages des animaux. Elle utilise un outil appelé Class Activation Mapping (ou GradCAM) à gradient pondéré, qui produit des cartes thermiques montrant les zones du visage sur lesquelles l’IA se concentre lorsqu’elle prend ses décisions. Jusqu’à présent, elle a constaté que la machine considère généralement la zone des yeux comme la plus informative, quels que soient les ensembles de données et les espèces. […] Pour tirer parti de ces succès, Martvel et Zamansky sont en train de constituer des bases de données de visages de chiens, de chats, de chevaux et de primates dans différents états émotionnels. L’équipe parcourt Internet à la recherche de photos dont les propriétaires ont fourni une description claire du contexte, et donc des émotions probables des animaux. En soumettant les photos à l’IA, ils espèrent déchiffrer les différentes expressions faciales qu’une espèce présente dans chaque scénario émotionnel unique. Le « rêve » de Zamansky, dit-elle, est d’avoir un « lecteur de visage de chien » qui révèle les états émotionnels de base tels que le bonheur, la tristesse et le stress – un défi particulier pour l’IA étant donné la grande variété de formes de visage et d’oreilles chez les races de chiens. […]Et les expressions faciales ne disent pas tout, explique Elodie Briefer, spécialiste de la communication animale à l’université de Copenhague, qui a développé l’IA pour interpréter les émotions dans les cris des porcs et des zèbres. Pour sonder les émotions des animaux, l’IA doit regarder au-delà du visage pour prendre en compte des facteurs tels que le battement de queue ou une posture voûtée, explique Suresh Neethirajan, ingénieur agronome à l’université Dalhousie. Son propre système d’IA de contrôle du bien-être des animaux de ferme analyse même les émissions de chaleur corporelle, un indice important pour les poulets et autres espèces dont les expressions faciales sont limitées. Malgré ces limites, l’IA faciale offre déjà des possibilités « pragmatiques et réalistes », affirme Mme Zamansky. Son équipe s’apprête à lancer une application basée sur l’IA qui permettra aux propriétaires de chats de scanner le visage de leur animal pendant 30 secondes et d’obtenir immédiatement des messages faciles à lire tels que « Tension considérable détectée autour de la bouche ; niveau de douleur modéré ». Des chercheurs néerlandais ont développé une application similaire qui scanne le visage et le corps des chevaux au repos pour estimer leur niveau de douleur. L’IA pourrait éventuellement être utilisée lors des compétitions équestres, suggère Lencioni, pour récompenser les cavaliers dont les chevaux sont heureux et à l’aise et améliorer le bien-être et l’équité dans ce sport.
Lire l’article complet ici
Extrait en anglais (original) : Scientists around the world are turning to AI to decipher the facial expressions of animals, from sheep to horses to cats. Some have already developed algorithms that are faster and more accurate at recognizing signs of pain and distress than the most attentive humans. These tools could usher in a new era of caring for animals that gives higher priority to their health, welfare, and protection […]. There are tantalizing hints that they could go even further. Eventually, AI might even outshine humans in interpreting a range of more complex emotions akin to happiness, serenity, frustration, or fear […]—feelings that are equally important to understand if we are to give animals the best possible lives. But like most scientists contemplating the powers of AI, animal behavior researchers worry about putting too much stock in machines, especially when animal welfare is at stake. […] Experts in the field have become skilled at manually coding […] facial movements in animals, which could—in theory—allow for welfare checks. But it’s incredibly tedious work […]. Human coders need an average of 100 seconds to identify the various facial muscles and code their positions in a single image, or 2 to 3 hours for 30 seconds of video. AI, on the other hand, can do the same task almost instantaneously—but first, it has to be taught. […]Computer scientist Anna Zamansky […] dreams of developing an artificial intelligence that can interpret a range of emotions in dogs […] Zamansky began by developing facial recognition software to help people find their lost dogs. Owners upload a picture of their dog’s face to the software, which scans for a match in a database of images of strays submitted by concerned strangers. Zamansky […] have donated the technology to relief organizations working in Ukraine and in flood zones in Brazil, where it has helped reunite dozens of lost dogs with their owners. More recently, the team has turned to a more difficult task: using AI to pinpoint the often subtle signs of discomfort in animals’ faces. […]Read complete article here
