A che punto siamo con le intelligenze artificiali che (non) percepiscono le emozioni?

Un’azienda americana ha raccolto le immagini di oltre 5 milioni di facce e le usa per insegnare alle macchine a capire gli umani. Si può fare? Lo abbiamo chiesto ad Alessandra Sciutti, ricercatrice dell’Iit di Genova.

Nel 1968, lo scrittore Philip Dick si (ci) domandava se «gli androidi sognano pecore elettriche», immaginando che i robot, come gli umani, abbiano un’attività cerebrale anche inconscia: questo (quello che raccontava Dick) lo sappiamo. Alle soglie del 2020, quello che non sappiamo è se esista un’altra faccia della medaglia, ovvero se gli automi e le macchine siano capaci di percepirla, quest’attività cerebrale inconscia. Cioè: le intelligenze artificiali sono in grado di capire i sentimenti e le emozioni umane?

I primi approcci al tema risalgono all’inizio degli anni Duemila e si devono all’industria dell’automobile: nel 2001, la Toyota svelò al Motor Show di Tokyo la Pod, il prototipo di una vetturetta da città in grado di cambiare colore dentro e fuori per riflettere le emozioni del guidatore. Nella teoria, molto fantascientifico. Nella pratica, più semplicemente, l’auto usava sensori per monitorare gli occhi del conducente, ne analizzava lo stile e le abitudini di guida (presa sul volante, posizione del piede sull’acceleratore, intensità delle frenate e così via) e accendeva o spegneva di conseguenza alcuni led colorati: toni del rosso in caso di comportamento “aggressivo”, sfumature di verde e giallo in relazione a un atteggiamento più tranquillo. Era un approccio primitivo, ancora non si parlava di intelligenza artificiale, ma era comunque un inizio.

C’era un database con 5 milioni di facce
Da allora di strada se n’è fatta, e parecchia. Nel mondo, sono al momento 2 le aziende impegnate nel capire se sia possibile (e come) fare riconoscere ai robot quello che provano gli umani, un business che secondo gli analisti ha attualmente un valore di mercato di circa 12 miliardi di dollari, che potrebbero superare i 90 (miliardi) entro i prossimi 5 anni: sono l’americana Affectiva (nata all’interno del Mit di Boston) e la giapponese Empath.

Lavorano come lavorano più o meno tutte le compagnie che si occupano di I.A.: raccolgono dati e poi li usano per nutrire, allenare, migliorare le intelligenze artificiali. E di dati ne raccolgono una quantità impressionante: Affectiva, che si vanta di avere «il più grande database di emozioni», ha immagazzinato quasi 40 mila ore di video di oltre 5 milioni di facce, catturate riprendendo le persone nelle situazioni più disparate, mentre guidano, guardano un film, un cartellone pubblicitario, vagano in un negozio o sono a passeggio. Che se ne fa? Le usa appunto per addestrare i computer a capire gli umani: il sorriso è felicità, le labbra in giù sono tristezza, gli occhi socchiusi sono rabbia, la bocca spalancata è sorpresa e così via.

A che cosa serve, tutto questo? Nel mondo dell’auto, e nello specifico per le ormai tantissime vetture che sono in grado di muoversi da sole, a capire come sta il conducente, se è stanco, ha sonno, è arrabbiato e dunque potrebbe essere imprudente, se è (troppo) rilassato, per poi agire di conseguenza. Più in generale, serve a migliorare le interazioni uomo-macchina. Non (solo) oggi, ma soprattutto domani, quando avremo a che fare con intelligenze artificiali non solo a casa, negli assistenti vocali, ma magari su un taxi a guida autonoma, nell’ascensore di un palazzo, nel commesso di un centro commerciale, nel cameriere di un ristorante: l’idea è che se il robot capisce che cosa prova la persona che ha di fronte (o di fianco, accanto, seduta dietro), allora è in grado di offrire un servizio migliore. E anche di sembrare più… umano.

Funziona? Sì, no, forse: dipende a chi lo si chiede. Secondo i report di Affectiva ed Empath, non ancora, ma funzionerà presto. Secondo la comunità scientifica, non tanto presto. O forse mai. Uno studio pubblicato a luglio 2019 e firmato da 5 diversi professori di diverse università e con differenti specializzazioni (dalla psicologia alle scienze umane, all’ingegneria), che hanno studiato e analizzato un migliaio di documenti pubblicati sull’argomento, ha concluso che l’animo umano è troppo complesso perché le macchine siano in grado di capirlo: «I nostri sentimenti non sono solo un sopracciglio che si alza, una lacrima che scende, un sorriso – ha chiarito nel testo la dottoressa Lisa Feldman Barrett, docente di Psicologia alla Northeastern University di Boston – Le emozioni non sono solo nel viso, quello che si vede lì è solo l’effetto finale di una cascata di cambiamenti interiori». Insomma: analizzare solo gli occhi, o solo gli occhi e la bocca, o solo gli occhi, la bocca e il battito del cuore (sì, viene considerato pure questo) non sarebbe sufficiente per capire davvero un essere umano.

L’Iit: «I robot dovranno capire anche il contesto»
Più o meno così la pensa anche Alessandra Sciutti, ricercatrice dell’Istituto italiano di Tecnologia di Genova, dove è a capo del laboratorio Contact: «Il legame tra espressioni facciali e stato emotivo è molto più elusivo di quanto si creda. Sono molti i fattori, tra cui in particolare il contesto, che possono influenzare l’espressione adottata da una persona a parità di emozione provata. Per quanto sia possibile riconoscere accuratamente differenti espressioni e movimenti del viso, questo non garantisce automaticamente la comprensione dello stato emotivo della persona».

E però, come ci spiega la Sciutti, che nel 2018 ha vinto un fondo europeo Erc proprio per proseguire le ricerche nel campo dell’interazione uomo-robot, «in futuro, approfondendo le diverse teorie e includendo nell’analisi anche gli aspetti contestuali e culturali, possiamo auspicare di avere macchine che siano in grado di comprenderci più a fondo. Per esempio, avere un robot in grado di comprendere se qualcosa che ha fatto ci ha infastidito o ci ha fatto innervosire, garantisce un’interazione più fruttuosa ed efficace e la possibilità per la macchina di correggersi più rapidamente e fare procedere meglio il lavoro in comune». È questo l’obiettivo più facilmente raggiungibile rispetto a un riconoscitore “universale” di emozioni, perché «si parte dal presupposto che si possano conoscere e definire gli aspetti contestuali e culturali di una specifica collaborazione, in modo da avere basi sufficienti per comprendere le reazioni (come espressioni facciali e comportamenti non verbali) della persona».

Serve tempo, insomma. Del resto, qualche anno fa si pensava che fosse impossibile fare guidare le macchine da sole, farci chiacchierare con un soprammobile per avere le previsioni del tempo, sapere le ultime notizie, correggere i compiti dei nostri figli o farci servire una birra da un cameriere robot. E invece tutto questo è successo. Perché se è vero che gli essere umani sono imprevedibili, lo sono evidentemente pure le macchine…

Vendita online di batterie, caricabatteria, batterie ricaricabili. Consegna rapida e gratuita da 22€! | Noi siamo Lo specialista della batteria.‎