Scritto da: Lexie

Redattore: Lu

Nella grande discussione sull'intelligenza artificiale, il ruolo che le persone le assegnano è o quello del nostro assistente più potente ed efficiente, oppure quello di "esercito di macchine" che ci sovvertirà. Che si tratti di un nemico o di un amico, l'intelligenza artificiale non deve solo essere in grado per portare a termine i compiti assegnati dagli esseri umani, bisogna anche essere in grado di "leggere" il cuore delle persone, e questa capacità di lettura del pensiero è anche il fiore all'occhiello del campo dell'IA quest'anno.

Nel rapporto sulla ricerca sulle tecnologie emergenti Saas pubblicato quest'anno da PitchBook, l'"intelligenza artificiale emotiva" è diventata uno dei principali highlight tecnologici. Si riferisce all'uso dell'informatica emotiva e della tecnologia dell'intelligenza artificiale per percepire, comprendere e interagire con le emozioni umane, cercando di analizzare attraverso testo, espressioni facciali, suoni e altri segnali fisiologici vengono utilizzati per comprendere le emozioni umane. In poche parole, l'intelligenza artificiale emotiva spera che le macchine possano "leggere" le emozioni come gli umani, o anche meglio degli umani.

Le sue principali tecnologie includono:

  • Analisi delle espressioni facciali: rileva microespressioni e movimenti dei muscoli facciali attraverso telecamere, visione artificiale e deep learning.

  • Analisi vocale: identifica gli stati emotivi attraverso l'impronta vocale, l'intonazione e il ritmo.

  • Analisi del testo: interpreta frasi e contesto con l'aiuto della tecnologia di elaborazione del linguaggio naturale (NLP).

  • Monitoraggio del segnale fisiologico: utilizzare dispositivi indossabili per analizzare la frequenza cardiaca, le reazioni cutanee, ecc. per migliorare la personalizzazione dell'interazione e la ricchezza emotiva.

Emozione AI

Il predecessore dell’intelligenza artificiale emotiva è la tecnologia di analisi emotiva. Analizza principalmente attraverso l’interazione del testo, ad esempio analizzando ed estraendo le emozioni degli utenti attraverso il testo sui social media, integra molteplici metodi di input come le promesse dell’intelligenza artificiale emotiva analisi del sentiment più accurata e completa.

01 VC butta soldi e le startup ricevono enormi finanziamenti

Silicon Rabbit ha osservato che il potenziale dell’intelligenza artificiale emotiva ha attirato l’attenzione di molti investitori e alcune startup focalizzate su questo campo, come Uniphore e MorphCast, hanno ricevuto grandi investimenti in questo percorso.

Uniphore, azienda californiana, esplora soluzioni di dialogo automatizzato per le aziende dal 2008. Ha sviluppato diverse linee di prodotti tra cui U-Self Serve, U-Assist, U-Capture e U-Analyze per aiutare i clienti a utilizzare tecnologie di intelligenza artificiale vocale, di testo, visiva ed emotiva. per interazioni più personalizzate ed emotivamente ricche. U-Self Serve si concentra sull'identificazione accurata delle emozioni e del tono delle conversazioni, consentendo alle aziende di fornire servizi più personalizzati per migliorare la soddisfazione della partecipazione degli utenti;

Servizio self-service

U-Assist può migliorare l'efficienza lavorativa degli agenti del servizio clienti attraverso la guida in tempo reale e l'automazione del flusso di lavoro; U-Capture può fornire alle aziende informazioni approfondite sulle esigenze e sulla soddisfazione dei clienti attraverso la raccolta e l'analisi automatizzata dei dati emotivi e U-Analyse aiutare i clienti a identificare le tendenze chiave e i cambiamenti emotivi nelle interazioni e fornire supporto decisionale basato sui dati per migliorare la fedeltà al marchio.

La tecnologia di Uniphore non solo consente alle macchine di comprendere il linguaggio, ma spera che possano catturare e interpretare le emozioni nascoste dietro il tono e l'espressione quando interagiscono con gli esseri umani. Questa capacità consente alle aziende non più solo di rispondere meccanicamente quando interagiscono con i clienti, ma di soddisfare meglio le esigenze emotive dei clienti. Utilizzando Uniphore, le aziende possono raggiungere l'87% di soddisfazione degli utenti e migliorare le prestazioni del servizio clienti del 30%.

Finora Uniphore ha completato finanziamenti per oltre 620 milioni di dollari. L'ultimo round di investimenti è arrivato da 400 milioni di dollari guidato da NEA nel 2022. All'investimento hanno partecipato anche investitori esistenti come March Capital. Dopo questo round, la valutazione ha raggiunto i 25 miliardi dollari.

Uniforo

Hume AI ha lanciato la prima intelligenza artificiale vocale empatica al mondo, fondata dall'ex scienziato di Google Alan Cowen, famoso per aver aperto la strada alla teoria dello spazio semantico, che rivela le sfumature di voci, volti e gesti. Per comprendere l'esperienza e l'espressione emotiva, la ricerca di Cowen è stata pubblicato in numerose riviste, tra cui Nature e Trends in Cognitive Science, e coinvolge la gamma più ampia e diversificata di campioni di emozioni studiati fino ad oggi.

Spinto da questa ricerca, Hume ha sviluppato un'API per il parlato conversazionale - EVI, che combina un ampio modello linguistico e un algoritmo di empatia per comprendere e analizzare profondamente gli stati emotivi umani. Può non solo riconoscere le emozioni nel parlato, ma anche fornire informazioni più sfumate e personalizzate risposte alle interazioni degli utenti e gli sviluppatori possono utilizzare queste funzionalità con solo poche righe di codice e integrarle in qualsiasi applicazione.

HumeAI

Uno dei principali limiti della maggior parte dei sistemi di intelligenza artificiale attuali è che le loro istruzioni sono impartite principalmente da esseri umani. Queste istruzioni e suggerimenti sono soggetti a errori e non possono sfruttare l’enorme potenziale dell’intelligenza artificiale può regolare le parole e l'intonazione in base al contesto e all'espressione emotiva dell'utente. Prendendo la felicità umana come primo principio per l'apprendimento automatico, la regolazione e l'interazione, può essere utilizzato in molteplici scenari come salute mentale, istruzione e formazione, chiamate di emergenza. e l'analisi del marchio possono offrire agli utenti un'esperienza più naturale e reale.

Proprio nel marzo di quest’anno, Hume AI ha completato un round di finanziamento di serie B da 50 milioni di dollari guidato da EQT Ventures, con investitori tra cui Union Square Ventures, Nat Friedman & Daniel Gross, Metaplanet e Northwell Holdings.

Anche in questo campo c'è Entropik, specializzata nella misurazione delle risposte cognitive ed emotive dei consumatori. Attraverso Decode, una funzione che combina la potenza globale dell'intelligenza artificiale emotiva, dell'intelligenza artificiale comportamentale, dell'intelligenza artificiale generativa e dell'intelligenza artificiale predittiva, può comprendere meglio il comportamento e le preferenze dei consumatori Per fornire consigli di marketing più personalizzati, Entropik ha recentemente chiuso un round di finanziamento di serie B da 25 milioni di dollari nel febbraio 2023 da parte di investitori tra cui SIG Venture Capital e Bessemer Venture Partners.

Entropico

02 I giganti hanno partecipato ed è scoppiata una mischia

Facendo affidamento sui propri vantaggi, le principali aziende tecnologiche hanno fatto progetti anche nel campo dell’intelligenza artificiale emotiva.

Include l'API emozionale dei Servizi cognitivi di Microsoft Azure, in grado di identificare gioia, rabbia, tristezza, sorpresa e altre emozioni in immagini e video analizzando le espressioni facciali e le emozioni;

L'API di comprensione del linguaggio naturale di IBM Watson è in grado di elaborare grandi quantità di dati di testo e identificare le tendenze emotive (come positivo, negativo o neutro) dietro di esso per interpretare in modo più accurato le intenzioni dell'utente;

L'API Cloud Vision di Google Cloud AI ha potenti funzionalità di analisi delle immagini, può identificare rapidamente le espressioni emotive nelle immagini e supporta il riconoscimento del testo e l'associazione delle emozioni;

Rekognition di AWS può anche rilevare le emozioni, identificare le caratteristiche del viso e tenere traccia dei cambiamenti di espressione. Può anche essere utilizzato insieme ad altri servizi AWS per diventare un'analisi completa dei social media o un'applicazione di marketing emozionale basata sull'intelligenza artificiale.

API di Cloud Vision

Alcune start-up si stanno sviluppando più velocemente nel campo dell'intelligenza artificiale emotiva, fino al punto in cui i giganti della tecnologia stanno "bracconando" le persone. Ad esempio, l'unicorno Inflection AI è stato favorito dall'investitore Microsoft per il suo team e modello di intelligenza artificiale che Microsoft sta funzionando con Bill Gates Dopo aver investito congiuntamente 1,3 miliardi di dollari in Inflection AI, Eric Schmidt e NVIDIA hanno offerto un ramoscello d'ulivo a Mustafa Suleyman, leader dell'intelligenza artificiale e uno dei cofondatori di Inflection AI. Successivamente, Suleyman e più di 70 dipendenti hanno cambiato azienda a Microsoft, e anche a Microsoft Per questo sono stati pagati quasi 650 milioni di dollari.

Tuttavia, anche Inflection AI si è rapidamente raggruppata e ha formato un nuovo team con esperienza in Google Translation, consulenza AI e AR per continuare a lavorare sul suo prodotto principale Pi. Pi è un assistente personale in grado di comprendere e rispondere alle emozioni degli utenti. A differenza dell'intelligenza artificiale tradizionale, Pi presta maggiore attenzione a stabilire connessioni emotive con gli utenti, a percepire le emozioni analizzando la voce, il testo e altri input e a mostrare empatia nelle conversazioni. Inflection AI tratta Pi come un allenatore, un confidente, un ascoltatore e un partner creativo piuttosto che un semplice assistente AI. Inoltre, Pi ha una potente funzione di memoria in grado di ricordare la cronologia di molteplici conversazioni dell'utente per migliorare la continuità delle interazioni e l'esperienza personalizzata.

Inflessione AI Pi

03 La strada verso lo sviluppo, preoccupazioni e dubbi convivono

Sebbene l’intelligenza artificiale emotiva mantenga le nostre aspettative per un’interazione più umana, come tutte le tecnologie di intelligenza artificiale, la sua promozione è accompagnata da preoccupazioni e dubbi. Innanzitutto, l’intelligenza artificiale emotiva è davvero in grado di interpretare accuratamente le emozioni umane? In teoria, questa tecnologia può effettivamente rendere più ricca l'esperienza di servizi, dispositivi e tecnologia, ma dal punto di vista pratico, le emozioni umane sono intrinsecamente vaghe e soggettive. Già nel 2019 i ricercatori hanno discusso di questo. Questa tecnologia ha sollevato interrogativi, affermando che le espressioni facciali non possono riflettere in modo affidabile le reali emozioni umane. Pertanto, ci sono alcune limitazioni nel fare affidamento esclusivamente sulle macchine per simulare le espressioni facciali, le posture e le intonazioni umane per comprendere le emozioni.

In secondo luogo, la rigorosa supervisione normativa è sempre stata un ostacolo allo sviluppo dell’intelligenza artificiale. Ad esempio, la legge sull’intelligenza artificiale dell’UE vieta l’uso di sistemi di rilevamento delle emozioni tramite visione artificiale in campi come l’istruzione, il che potrebbe limitare la promozione di determinate soluzioni di intelligenza artificiale emotiva; come gli Stati Uniti, anche gli Stati Uniti come l’Illinois hanno leggi che vietano la raccolta di dati biometrici senza autorizzazione, il che limita direttamente l’uso di determinate tecnologie di intelligenza artificiale emotiva. Allo stesso tempo, la privacy e la protezione dei dati sono una questione importante. L’intelligenza artificiale emotiva viene solitamente utilizzata in settori come l’istruzione, la sanità e le assicurazioni che hanno requisiti di privacy dei dati particolarmente severi. Pertanto, garantire la sicurezza e l’uso legale dei dati emotivi è una questione importante requisito per ogni azienda di intelligenza artificiale emotiva affrontata.

Infine, la comunicazione e l’interpretazione emotiva tra persone di diverse regioni culturali sono problemi difficili, ed è ancor più un test per l’intelligenza artificiale. Ad esempio, diverse regioni hanno modi diversi di comprendere ed esprimere le emozioni, il che può influenzare l’efficacia dell’intelligenza artificiale emotiva Sessualità e integrità Inoltre, l'intelligenza artificiale emotiva può anche incontrare difficoltà nel gestire i pregiudizi razziali, di genere e di identità di genere.

L’intelligenza artificiale emotiva non solo promette l’efficienza della riduzione della manodopera, ma anche la premurosità di leggere i cuori delle persone, ma può davvero diventare una soluzione universale nell’interazione umana, o diventerà un assistente intelligente simile a Siri in compiti che richiedono una vera comprensione emotiva? Prestazioni mediocri? Forse in futuro, la “lettura del pensiero” dell’intelligenza artificiale sovvertirà l’interazione uomo-macchina e persino l’interazione umana, ma almeno per ora, comprendere e rispondere veramente alle emozioni umane potrebbe ancora richiedere maggiore partecipazione e prudenza umana.

Fonti di riferimento:

Uniphore annuncia la serie E da 400 milioni di dollari (Uniphore)

Hume AI annuncia una raccolta fondi da 50 milioni di dollari e un'interfaccia vocale empatica (Yahoo Finance)

Presentazione di Pi, la tua intelligenza artificiale personale (Inflection AI)

“Emotion AI” potrebbe essere la prossima tendenza per il software aziendale, e questo potrebbe essere problematico (TechCrunch)

RICERCA SULLE TECNOLOGIE EMERGENTI Rapporto Saas aziendale (PitchBook)