Microespressioni facciali per migliorare la brand awareness e la shopping experience. È l’ora dell’intelligenza artificiale emotiva.

«È impossibile non comunicare», recita il primo dei celebri assiomi della comunicazione formulati negli anni ‘60 dalla Scuola di psicoterapia di Palo Alto. Perché qualsiasi nostro atteggiamento – intenzionale o involontario – non può che portare sempre con sé uno specifico significato. Anche il silenzio, una non-azione, vuol dire qualcosa.

La nostra attitudine a comunicare è talmente connaturata in noi che non ci rendiamo conto di farlo in continuazione, anche quando non ne siamo consapevoli. Un esempio è il caso delle microespressioni facciali, quei movimenti del volto di brevissima durata che tradiscono ogni nostra emozione (ne abbiamo parlato qui). Insomma, anche non esprimere i propri sentimenti è impossibile.

Ecco perché sempre più società stanno investendo in soluzioni tecnologiche da applicare al mondo della comunicazione non verbale: catturare l’alfabeto di questo linguaggio, costruendo una sempre più ampia raccolta di dati per interpretarne il senso, significa oggi accedere a una conoscenza diretta e incontrovertibile, dagli svariati campi di applicazione: dalla criminologia al marketing.

Leader nella fornitura di tecnologie di intelligenza artificiale emotiva, Affectiva è l’azienda pioniera nell’Emotion AI (anche detta emotion recognition o emotion detection technology): una delle nuove frontiere dell’intelligenza artificiale. La sua mission è riportare l’emotional intelligence – propria del mondo reale – nel mondo digitale. Basandosi su computer vision e deep learning, Affectiva analizza le espressioni facciali e le emozioni. Affectiva ha creato in questo modo la più grande raccolta al mondo di dati emotivi mai registrati: più di 9 milioni di volti analizzati, provenienti da 75 paesi diversi per un totale di 2 miliardi di frame facciali. A oggi i paesi con maggiori dati emotivi raccolti sono USA (956.000), Brasile (176.000), Messico (117.000), Regno Unito (265.000), Germania (126.000), India (1.065.000), Tailandia (162.000), Indonesia (284.000), Cina (502.000), Giappone (52.000), Vietnam (131.000), Filippine (133.000).

Come funziona Affectiva?

L’analisi delle espressioni facciali utilizzata da Affectiva si basa su algoritmi di visione artificiale che identificano i punti chiave del viso. Gli algoritmi di machine learning analizzano i pixel nelle regioni facciali identificate e classificano le espressioni in categorie di emozioni. Curiosi di vedere con i nostri occhi il funzionamento di Affectiva, abbiamo chiesto ad alcuni colleghi di effettuare il download dell’app AffdexMe, l’applicazione open source che permette di vedere, analizzare e conoscere le metriche che descrivono le espressioni facciali di un’emozione direttamente sul proprio smartphone in tempo reale.

Affectiva app per capire le micro espressioni

Da sinistra verso destra i nostri colleghi in Spindox mostrano l’utilizzo di AffdexMe di Affectiva: Michel Murabito (Developer Sr); Irene Vitari (Recruiter Jr) e Armando Picariello (Project Office Jr).

In alcuni casi, AffdexMe ha riscontrato alcune difficoltà nel riconoscimento di “rabbia” (anger) e “paura” (fear), al contrario “gioia” (joy) e “disgusto” (disgust) sono state identificate rapidamente.

Microespressioni facciali e ricerche di mercato

Un terzo delle prime cento società di ricerche di mercato utilizza già Affectiva per scovare nuovi insight e studiarne gli analytics. Le emozioni sono infatti alla base del ricordo, e questo le rende la più potente arma di marketing: attraverso un’emozione si può influenzare l’awareness di un brand o guidare le decisioni d’acquisto dei consumatori. Con Affectiva, i brand possono agilmente quantificare il coinvolgimento emotivo dei consumatori nel momento in cui questi entrano in contatto con la marca e i suoi contenuti. Attraverso Affdex Market Research di Affectiva, è possibile misurare il coinvolgimento emotivo di chi, per esempio, guarda uno spot pubblicitario. Si può testare l’efficacia della voce fuoricampo o cogliere il disinteresse dello spettatore osservandone i segni che ne indicano la distrazione.

I dati relativi alle emozioni provate permettono così di migliorare il flusso narrativo. Grazie all’analisi delle reazioni dello spettatore momento per momento, si possono infatti creare spot pubblicitari più brevi ed efficaci – ideali per web e social – prevedendo l’inserimento nei video dei soli frame che hanno dimostrato il maggior impatto sul pubblico. Una vera e propria manna, considerando che gli annunci pubblicitari con dinamiche emotive positive possono favorire un aumento nei volumi di vendita. Secondo statistiche elaborate da Affectiva, i dati emotivi consentono di prevedere cambiamenti nei comportamenti di acquisto con il 76% dell’accuratezza.

Questi sono solo alcuni dei risultati mostrati durante il webcast di Affectiva “Let’s Get Emotional: How to Incorporate Facial Responses in Your Market Research Methodology“. L’evento ha visto la partecipazione di Ian Forrester, Global SVP Insight di Unruly, società acquisita nel 2015 da News Corp per 90 milioni di dollari, che offre soluzioni di emotional intelligence per campagne di programmatic advertising. L’obiettivo dell’azienda è che i video, oltre a essere guardati e condivisi sul web, possano informare, stimolare e ispirare persone in tutto il mondo, perché emotivamente coinvolte. Per raggiungere questo scopo, Unruly si avvale delle tecnologie di Affectiva, in grado di interpretare le emozioni suscitate da un video attraverso la codifica facciale e gli analytics emotivi.

Durante il webcast, Ian Forrester ha presentato uno studio sull’impatto degli spot pubblicitari mandati in onda durante il Super Bowl (a dir poco costosi: per un totale di 500 milioni di dollari spesi in advertising). Attraverso l’analisi delle microespressioni facciali, è stata registrata la reazione degli spettatori alla visione dello spot We Accept di Airbnb.

Spot pubblicitario di Airbnb per la campagna pubblicitaria We Accept.

L’immagine di seguito indica in quali momenti e in corrispondenza di quali dei testi apparsi in video, gli utenti abbiano provato una determinata emozione. L’ordine in cui sono state registrate manifestazioni di concentrazione, gioia e stupore ci rivela così informazioni utili per comprendere il processo di decodifica del pubblico e individuare i passaggi narrativi dello spot fondamentali. Nei primi istanti è evidente che le persone siano più concentrate: sono impegnate a decifrare il messaggio. Successivamente, chiarita l’intenzione e compreso il messaggio pubblicitario, gli spettatori mostrano un sorriso: il contenuto del video è di loro gradimento.

Grafico di airbnb

Fonte: Affectiva. Dati: “Facial coding for Airbnb’s We Accept”, mostrati da Ian Forrester di Unruly durante il webcast “Let’s Get Emotional: How to Incorporate Facial Responses in Your Market Research Methodology”.

“Next Generation in Retail – Emotion AI” James Davis, Director Emotion Insights in Affectiva

Nel secondo webcast organizzato da Affectiva, Gordon Davidson – CEO di Cloverleaf, retail technology company – ha presentato Cloverleaf ShelfPoint: la prima soluzione di scaffalature dotate di intelligenza artificiale emotiva per i rivenditori in-store. ShelfPoint è stata annunciata all’inizio del 2017 e permetterebbe di raddoppiare le vendite nei negozi attraverso la comprensione dell’engagement e delle emozioni suscitate da un determinato prodotto durante l’esperienza di acquisto.

Cloverleaf ShelfPoint è infatti uno scaffale in grado di riconoscere le espressioni facciali dei consumatori, senza memorizzare informazioni sensibili. Attraverso la tecnologia di Emotional AI di Affectiva e l’utilizzo di sensori ottici applicati tra i ripiani, l’innovativo sistema riesce a classificare le reazioni dei clienti in cinque categorie di sentiment: gioia, tristezza, rabbia, paura, sorpresa. Gli stessi sensori permettono anche la raccolta di diversi dati demografici – come l’età, il sesso e il gruppo etnico –, fornendo un identikit completo di chi si trova davanti lo scaffale.

ShelfPoint è inoltre capace di interagire con gli utenti. Ogni mensola dello scaffale è infatti dotata di piccoli schermi LED ad alta definizione, sui cui possono essere trasmessi video ads differenti in base al livello di coinvolgimento mostrato dai clienti e alla loro distanza dallo scaffale. ShelfPoint permette così a retailer e brand di ottenere una panoramica dettagliata sia sui clienti sia sull’efficacia delle campagne marketing.

Scaffale intelligente

Gordon Davidson mostra il funzionamento di Cloverleaf ShelfPoint durante il webcast.

Il sistema è stato testato negli Stati Uniti attraverso un progetto pilota di dieci settimane condotto in un importante negozio di alimentari. Ernst & Young ha verificato i dati raccolti e i risultati ottenuti sono apparsi più che positivi: le vendite sono aumentate del 37%, con una risposta positiva dei consumatori pari al 75%.

Emotion AI Summit “Building Deep Connections” by Affectiva

Il 13 settembre al MIT Media Lab si terrà il primo Emotion AI Summit “Building Deeper Connections” di Affectiva, lì dov’è tutto è iniziato nel 2009. In quell’occasione neuroscienziati, professori, scrittori, esperti del settore si confronteranno su questa nuova frontiera, per capire gli sviluppi futuri e le implicazioni etiche e morali di una tecnologia che indaga ciò che, in nessun modo, possiamo nascondere: le nostre emozioni.

«Many if not most of our communication with each other as humans is now mediated through technology. While we have never been more connected, the quality of these connections is lacking in nuanced, nonverbal communications that is at the core of what makes us humans.» Parola di Rana el Kaliouby, CEO di Affectiva.

Invito personale da Rana el Kaliouby, CEO di Affectiva, a partecipare all’Emotion AI Summit il 13 settembre 2017. Registrati qui.