Écrit par : Lexie

Editeur : Lu

Dans le grand débat sur l'IA, le rôle que les gens lui attribuent est soit notre assistant le plus puissant et le plus efficace, soit c'est « l'armée des machines » qui va nous subvertir. Qu'elle soit un ennemi ou un ami, l'IA ne doit pas seulement en être capable. pour accomplir les tâches assignées par les humains, vous devez également être capable de « lire » le cœur des gens, et cette capacité de lecture dans les pensées est également le point culminant du domaine de l'IA cette année.

Dans le rapport de recherche sur les technologies émergentes d'entreprise Saas publié par PitchBook cette année, « l'IA émotionnelle » est devenue un point culminant technologique majeur. Elle fait référence à l'utilisation de l'informatique émotionnelle et de la technologie de l'intelligence artificielle pour percevoir, comprendre et interagir avec les émotions humaines, en essayant d'analyser. Les textes, expressions faciales, sons et autres signaux physiologiques sont utilisés pour comprendre les émotions humaines. En termes simples, l'IA émotionnelle espère que les machines peuvent « lire » les émotions comme les humains, ou même mieux que les humains.

Ses principales technologies comprennent :

  • Analyse des expressions faciales : Détectez les micro-expressions et les mouvements des muscles du visage grâce aux caméras, à la vision par ordinateur et au deep learning.

  • Analyse vocale : identifiez les états émotionnels grâce à l'empreinte vocale, à l'intonation et au rythme.

  • Analyse de texte : interprétez les phrases et le contexte à l'aide de la technologie de traitement du langage naturel (NLP).

  • Surveillance des signaux physiologiques : utilisez des appareils portables pour analyser la fréquence cardiaque, les réactions cutanées, etc. afin d'améliorer la personnalisation des interactions et la richesse émotionnelle.

IA émotionnelle

Le prédécesseur de l'IA émotionnelle est la technologie d'analyse émotionnelle. Elle analyse principalement via l'interaction textuelle, comme l'analyse et l'extraction des émotions des utilisateurs via le texte sur les réseaux sociaux, et intègre plusieurs méthodes de saisie telles que les promesses de l'IA émotionnelle. une analyse des sentiments plus précise et complète.

01 VC jette de l'argent et les startups reçoivent un financement énorme

Silicon Rabbit a observé que le potentiel de l'IA émotionnelle a attiré l'attention de nombreux investisseurs, et certaines startups se concentrant sur ce domaine, comme Uniphore et MorphCast, ont reçu d'importants investissements dans cette piste.

Uniphore, de Californie, explore les solutions de dialogue automatisé pour les entreprises depuis 2008. Elle a développé plusieurs gammes de produits, notamment U-Self Serve, U-Assist, U-Capture et U-Analyze, pour aider les clients à utiliser les technologies d'IA vocale, textuelle, visuelle et émotionnelle. pour des interactions plus personnalisées et riches en émotions. U-Self Serve se concentre sur l'identification précise des émotions et du ton des conversations, permettant aux entreprises de fournir des services plus personnalisés pour améliorer la satisfaction de la participation des utilisateurs ;

U-Libre-service

U-Assist peut améliorer l'efficacité du travail des agents du service client grâce à des conseils en temps réel et à l'automatisation des flux de travail ; U-Capture peut fournir aux entreprises des informations approfondies sur les besoins et la satisfaction des clients grâce à la collecte et à l'analyse automatisées de données émotionnelles et U-Analyse ; aider les clients à identifier les tendances clés et les changements émotionnels dans les interactions et fournir une aide à la décision basée sur les données pour renforcer la fidélité à la marque.

La technologie d'Uniphore ne permet pas seulement aux machines de comprendre le langage, mais espère qu'elles pourront capturer et interpréter les émotions cachées derrière le ton et l'expression lors de l'interaction avec les humains. Cette capacité permet aux entreprises de ne plus simplement répondre mécaniquement lorsqu'elles interagissent avec les clients, mais de mieux répondre aux besoins émotionnels des clients. En utilisant Uniphore, les entreprises peuvent atteindre 87 % de satisfaction des utilisateurs et améliorer les performances du service client de 30 %.

Uniphore a réalisé jusqu'à présent plus de 620 millions de dollars de financement. Le dernier cycle d'investissement provenait de 400 millions de dollars menés par NEA en 2022. Des investisseurs existants tels que March Capital ont également participé à l'investissement. Après ce cycle, la valorisation a atteint 25 milliards. dollars.

Uniphore

Hume AI a lancé la première IA vocale empathique au monde, fondée par l'ancien scientifique de Google Alan Cowen, célèbre pour avoir été le pionnier de la théorie de l'espace sémantique, qui révèle les nuances des voix, des visages et des gestes. Pour comprendre l'expérience et l'expression émotionnelles, les recherches de Cowen ont été. publié dans de nombreuses revues, dont Nature and Trends in Cognitive Science, et implique la gamme la plus large et la plus diversifiée d’échantillons d’émotions étudiés à ce jour.

Poussé par cette recherche, Hume a développé une API de parole conversationnelle - EVI, qui combine un grand modèle de langage et un algorithme d'empathie pour comprendre et analyser en profondeur les états émotionnels humains. Elle peut non seulement reconnaître les émotions dans la parole, mais également fournir des informations plus nuancées et personnalisées. réponses aux interactions des utilisateurs, et les développeurs peuvent utiliser ces fonctionnalités avec seulement quelques lignes de code et les intégrer dans n'importe quelle application.

Hume AI

L’une des principales limites de la plupart des systèmes d’IA actuels est que leurs instructions sont principalement données par des humains. Ces instructions et invites sont sujettes à des erreurs et ne peuvent pas exploiter l’énorme potentiel de l’intelligence artificielle (eLLM) développé par Hume It. peut ajuster les mots et l'intonation en fonction du contexte et de l'expression émotionnelle de l'utilisateur. En prenant le bonheur humain comme premier principe d'apprentissage automatique, d'ajustement et d'interaction, il peut être utilisé dans de multiples scénarios tels que la santé mentale, l'éducation et la formation, les appels d'urgence. et l'analyse de la marque. Tout cela peut offrir aux utilisateurs une expérience plus naturelle et réaliste.

En mars de cette année seulement, Hume AI a finalisé une ronde de financement de série B de 50 millions de dollars dirigée par EQT Ventures, avec des investisseurs tels que Union Square Ventures, Nat Friedman & Daniel Gross, Metaplanet et Northwell Holdings.

Dans ce domaine se trouve également Entropik, spécialisé dans la mesure des réponses cognitives et émotionnelles des consommateurs. Grâce à Decode, une fonction qui combine la puissance globale de l'IA émotionnelle, de l'IA comportementale, de l'IA générative et de l'IA prédictive, elle peut mieux comprendre le comportement et les préférences des consommateurs. Afin de fournir des recommandations marketing plus personnalisées, Entropik a récemment clôturé une ronde de financement de série B de 25 millions de dollars en février 2023 auprès d'investisseurs dont SIG Venture Capital et Bessemer Venture Partners.

Entropique

02 Les géants ont participé et une mêlée a éclaté

S’appuyant sur leurs propres avantages, les grandes entreprises technologiques ont également élaboré des projets dans le domaine de l’IA émotionnelle.

Inclut l'API d'émotion de Microsoft Azure Cognitive Services, qui peut identifier la joie, la colère, la tristesse, la surprise et d'autres émotions dans les images et les vidéos en analysant les expressions faciales et les émotions ;

L'API de compréhension du langage naturel d'IBM Watson peut traiter de grandes quantités de données textuelles et identifier les tendances émotionnelles (telles que positives, négatives ou neutres) qui les sous-tendent pour interpréter plus précisément les intentions des utilisateurs ;

L'API Cloud Vision de Google Cloud AI dispose de puissantes capacités d'analyse d'images, peut identifier rapidement les expressions émotionnelles dans les images et prend en charge la reconnaissance de texte et l'association d'émotions ;

Rekognition d'AWS peut également détecter les émotions, identifier les traits du visage et suivre les changements d'expression. Il peut également être utilisé en conjonction avec d'autres services AWS pour devenir une analyse complète des médias sociaux ou une application de marketing émotionnel basée sur l'IA.

API Cloud Vision

Certaines start-up se développent plus rapidement dans le domaine de l'IA émotionnelle, au point même que les géants de la technologie « braconnent » les gens. Par exemple, la licorne Inflection AI a été privilégiée par l'investisseur Microsoft pour son équipe et son modèle d'IA. en collaboration avec Bill Gates Après, Eric Schmidt et NVIDIA ont investi conjointement 1,3 milliard de dollars dans Inflection AI, ils ont offert un rameau d'olivier à Mustafa Suleyman, un leader de l'IA et l'un des co-fondateurs d'Inflection AI. Par la suite, Suleyman et plus de 70 employés. est passé à Microsoft, et Microsoft a également payé près de 650 millions de dollars pour cela.

Cependant, Inflection AI s'est également rapidement regroupée et a formé une nouvelle équipe avec des compétences en traduction Google, en conseil en IA et en AR pour continuer à travailler sur son produit principal Pi. Pi est un assistant personnel capable de comprendre et de répondre aux émotions des utilisateurs. Contrairement à l'IA traditionnelle, Pi accorde plus d'attention à l'établissement de liens émotionnels avec les utilisateurs, à la détection des émotions en analysant la voix, le texte et d'autres entrées, et à faire preuve d'empathie dans les conversations. Inflection AI traite Pi comme un coach, un confident, un auditeur et un partenaire créatif plutôt que comme un simple assistant IA. De plus, Pi dispose d'une fonction de mémoire puissante qui peut mémoriser les multiples historiques de conversations de l'utilisateur pour améliorer la continuité des interactions et l'expérience personnalisée.

Inflection AI Pi

03 Sur le chemin du développement, les inquiétudes et les doutes cohabitent

Bien que l’IA émotionnelle réponde à nos attentes en matière d’interaction plus humaine, comme toutes les technologies d’IA, sa promotion s’accompagne d’inquiétudes et de doutes. Premièrement, l’IA émotionnelle peut-elle vraiment interpréter avec précision les émotions humaines ? En théorie, cette technologie peut effectivement enrichir l'expérience des services, des appareils et de la technologie, mais d'un point de vue pratique, les émotions humaines sont intrinsèquement vagues et subjectives. Dès 2019, des chercheurs en ont discuté. Cette technologie a soulevé des questions, affirmant que les expressions faciales. ne peut pas refléter de manière fiable les émotions humaines réelles. Par conséquent, il existe certaines limites à s’appuyer uniquement sur des machines pour simuler les expressions faciales, les postures et les intonations humaines afin de comprendre les émotions.

Deuxièmement, une surveillance réglementaire stricte a toujours été une pierre d'achoppement au développement de l'IA. Par exemple, la loi européenne sur l'IA interdit l'utilisation de systèmes de détection des émotions par vision artificielle dans des domaines tels que l'éducation, ce qui peut limiter la promotion de certaines solutions d'IA émotionnelle ; comme les États-Unis, comme l'Illinois, il existe également des lois interdisant la collecte de données biométriques sans autorisation, ce qui limite directement l'utilisation de certaines technologies d'IA émotionnelle. Dans le même temps, la confidentialité et la protection des données constituent une question importante. L'IA émotionnelle est généralement utilisée dans des domaines tels que l'éducation, la santé et les assurances, qui ont des exigences particulièrement strictes en matière de confidentialité des données. Il est donc important de garantir la sécurité et l'utilisation légale des données émotionnelles. exigence pour chaque entreprise d’IA émotionnelle confrontée à des problèmes.

Enfin, la communication et l’interprétation émotionnelle entre des personnes de différentes régions culturelles constituent des problèmes difficiles et constituent encore plus un test pour l’IA. Par exemple, différentes régions ont des manières différentes de comprendre et d’exprimer les émotions, ce qui peut affecter l’efficacité de l’IA émotionnelle. Sexualité et intégrité En outre, l’IA émotionnelle peut également rencontrer des difficultés pour faire face aux préjugés raciaux, de genre et d’identité de genre.

L'IA émotionnelle promet non seulement l'efficacité de la réduction des effectifs, mais aussi la prévenance de lire dans le cœur des gens, mais peut-elle vraiment devenir une solution universelle dans l'interaction humaine, ou deviendra-t-elle un assistant intelligent similaire à Siri dans des tâches qui nécessitent une véritable compréhension émotionnelle ? Des performances médiocres ? Peut-être qu’à l’avenir, la « lecture mentale » de l’IA bouleversera l’interaction homme-machine et même humaine, mais au moins pour l’instant, comprendre réellement les émotions humaines et y répondre peut encore nécessiter davantage de participation et de prudence humaines.

Sources de référence :

Uniphore annonce une levée de fonds de série E de 400 millions de dollars (Uniphore)

Hume AI annonce une levée de fonds de 50 millions de dollars et une interface vocale empathique (Yahoo Finance)

Présentation de Pi, votre IA personnelle (Inflection AI)

L’IA émotionnelle pourrait être la prochaine tendance pour les logiciels d’entreprise, et cela pourrait être problématique (TechCrunch)

RECHERCHE SUR LES TECHNOLOGIES ÉMERGENTES Rapport sur les SaaS d'entreprise (PitchBook)