In una scuola del Cairo una ventina di studentesse analizzano le espressioni del viso sui loro pc portatili per insegnare ai computer a riconoscere, rabbia, tristezza e frustrazione. Alla Cambridge University, un prototipo di robot chiamato Charlie è seduto in un simulatore di guida mostrando interesse o confusione, a seconda dei casi. In diverse scuole medie degli Stati Uniti sono stati installati computer in grado di monitorare l’atteggiamento degli studenti per capire quando il loro interesse per una lezione cala o è particolarmente vivace. Sono solo alcuni degli esempi di una nuova frontiera digitale chiamata «affective computing», ovvero la tecnologia che consente agli elaboratori elettronici di capire e interpretare le emozioni delle persone. In pratica un modo per rendere le macchine più umane con l’obiettivo ultimo di aiutare le persone stesse. Avendo a disposizione macchine in grado di supportare queste funzioni, infatti, si è in grado di percepire lo stato d’animo di chi non riesce a esprimersi in maniera chiara, come chi è affetto da autismo, ad esempio, o chi ha bisogno di una persona di sostegno.
«L’universo digitale ad oggi non è ben provvisto di modi per esprimere le nostre emozioni», spiega al New York Times, Rosalind Picard, responsabile del gruppo di studio del Media Lab al Massachusetts Technology Institute. La ricercatrice ha lavorato per oltre due decenni su un programma in grado di trasformare le emozioni dell’uomo nel linguaggio binario, quello che utilizza combinazioni dei numeri uno e zero. Di recente Picard ha messo a punto un altro sistema applicativo che permette di fare una mappatura di 24 punti del viso umano per individuare, tramite computer, le emozioni umane. In passato i programmi basati sull’impiego di algoritmi hanno avuto difficoltà nel distinguere risate spontanee, sorrisi di circostanza o volti corrucciati, perché sfuggivano alla percezione del computer. Un sistema in grado di percepire questi cambi di umore potrebbe essere ad esempio utilizzato durante le lezioni a scuola per misurare il grado di attenzione degli studenti. Picard, assieme alla collega Rana el Kaliouby, sta inoltre lavorando a un sistema chiamato «Sensore Q», una specie di orologio da polso in grado di percepire i mutamenti emozionali attraverso gli impulsi elettrici della pelle e la temperatura del corpo. Questo consentirebbe ad esempio di facilitare l’interpretazione e i rapporti con le persone affette da autismo.
Il robot realizzato all’Università di Cambridge invece è una creatura di Peter Robinson, nata quasi per gioco. Il professore era stanco di affidarsi a un Gps che lo portava sempre su strade trafficate, ed ha così pensato a un sistema in grado di evitare gli ingorghi quando il conducente del veicolo mostrava fretta o ansia di arrivare a destinazione. E’ nato così Charles, il primo esempio di «testa elettronica» in grado di capire e reagire agli stati d’animo delle persone. Ma non è tutto, perché il professor Robinson sta studiando un sistema in grado di spegnere il motore della vettura quando intuisce che chi la guida è confuso, distratto, insonnolito o eccessivamente teso. L’idea di avere computer in grado di capire e reagire alle emozioni umane non piace, però, a tutti. «Vorremmo mantenere un certo controllo su come ci mostriamo agli altri», dice Nick Bostrom, direttore dell’Istituto «Futuro dell’umanità» dell’Università di Boston. Per il professore il fatto che si insegni a una macchina - che sia essa un computer o un robot - a leggere le nostre emozioni «non è detto che si renda il mondo migliore».