Newtech
L’IA veut désormais détecter les émotions humaines…
Par Laurent Delattre & IT Social, publié le 23 octobre 2018
Aider les personnes en détresse, améliorer les interactions homme-machine, mais aussi proposer des produits en fonction de l’état émotionnel des consommateurs, l’IA cherche aujourd’hui à détecter les états émotionnels et physiques des humains…
L’IA, quelle que soit la technologie portée par ce terme désormais galvaudé, n’en est encore qu’à ses débuts. Combien même les progrès réalisés ces dernières années – notamment via les réseaux de convolution et autres approches Deep Learning – sont spectaculaires, l’essentiel du chemin reste encore parcourir. Si les trois domaines fondamentaux (tels que définis par John McCarthy en 1955) que sont le langage, la vision et le raisonnement sont très largement explorés aujourd’hui, il demeure un domaine encore bien trop peu défriché : l’intelligence émotionnelle. Certes, en matière de raisonnement, il reste également tout à faire : aucune IA actuelle ne raisonne de manière complexe même si les expériences d’OpenAI en matière d’IA collaborative ont ouvert d’intéressantes perspectives. D’une manière générale, les intelligences artificielles actuelles ne répondent qu’à des problèmes monolithiques. Mais avec des approches collaboratives d’IA, on peut imaginer progresser rapidement sur la résolution de problèmes complexes.
L’intelligence émotionnelle reste en revanche un sujet pauvre. Si la détection des émotions humaines est déjà intégrée dans bien des API de reconnaissances de visage (comme celle d’Amazon Rekognition, celle d’Azure Cognitive Services Vision/Content Moderator ou celle plus spécialisée d’analyse de spectateurs de Datakalab), dans certaines API d’analyse du langage (notamment pour repérer les messages diffamatoires, de mécontentement, etc. via des services comme IBM Watson Tone Analyzer), dans certaines solutions d’analyse de la voix (comme chez les frenchies de Cognitive Matchbox ou de Natural Talk), et même dans des processeurs (avec l’Emotion Processing Unit de la startup Emoshape), l’interprétation des émotions humaines et l’intégration de ces émotions dans les raisonnement d’IA restent des sujets très peu explorés.
Pourtant l’intégration des émotions humaines reste essentielle à l’amélioration des interactions homme-machine. IT Social s’est intéressé à un nouveau brevet d’Amazon autour d’une technologie qui devrait permettre à termes à Alexa de détecter les états émotionnels, physiques et comportementaux des utilisateurs. Objectif, étendre le champ de compétences des objets d’informatique ambiante « Amazon Echo » pour qu’ils puissent réagir en fonction des états détectés (pour lancer une alerte par exemple en cas de malaise) mais également permettre aux partenaires d’Amazon d’interagir avec les utilisateurs en fonction de leurs émotions.
Pour en savoir plus sur le brevet d’Amazon > IT Social : L’intelligence des assistants numériques se fait émotionnelle