L’era dei social robot – Le persone provano emozioni come felicità, rabbia, tristezza, paura; le macchine stanno diventando sempre più intelligenti, e saranno forse in grado di sviluppare intelligenza emotiva, ma saranno mai in grado di provare emozioni?

Pepper the robot sviluppato dall’azienda giapponese Softbank e lanciato su mercato nel 2016, è in grado di riconoscere e interpretare le emozioni umane, analizzando espressioni facciali e tono della voce, tanto da essere impiegato come receptionist in alcune aziende nel Regno Unito e in Giappone e in ambito scolastico e accademico nella ricerca dell’interazione uomo-robot.

Fino a qualche anno fa si pensava ai robot, come macchine in grado di sostituire la forza lavoro umana, oggi invece la ricerca sta puntando alla realizzazione di “social robot”, col compito di assistere le persone in qualità di tutor, assistenti all’infanzia o agli anziani e funzionalità di virtual coaching.

In ambito RPA, Crafter.ai, ad esempio, sta lavorando allo sviluppo di chatbot conversazionali in grado di assistere vocalmente i pazienti in percorsi di recupero fisioterapico, nell’ambito del progetto di medicina riabilitativa Re-hub-ility, finanziato dalla Regione Lombardia, in collaborazione con l’Istituto Maugeri e un pool di imprese innovative sul territorio lombardo.

L’ERA DEI SOCIAL ROBOT: I PERSONAL ROBOT

L’era dei social robot – Mabu realizzato da Catalia Health, è un sorridente robottino giallo “da scrivania” che funge da  “smart home companion” il cui compito è quello di ricordare ai suoi utenti a rischio infarto di prendere le proprie medicine, di fatto lavorando come estensione del medico, dando suggerimenti sulla dieta ipocalorica, ricordando gli appuntamenti medici o ingaggiando brevi conversazioni. A chi argomenta che  la stessa funzione potrebbe essere svolta da un tablet, Cory Kidd, CEO di Catania Health risponde che l’aspetto antropomorfo del robottino aiuta a stabilire una relazione più stabile con il paziente.

Milo, è il robot realizzato da Robokind progettato per assistere i bambini con disturbo dello spettro autistico. Milo è in grado di manifestare diverse espressioni facciali, interagire verbalmente e mostrare sullo schermo del proprio petto simboli che aiutano nella comprensione di quanto viene detto. A quanto pare la capacità di ripetere le stesse cose diverse volte con lo stesso tono, sembra aiutare nell’apprendimento i bambini affetti da autismo, ma anche con sindrome di Down, ADHD e altre diagnosi da disturbo emotivo o di apprendimento.

Affectiva azienda di “intelligenza emozionale artificiale”, ha sviluppato algoritmi sulla base di oltre 6 milioni di espressioni facciali da 87 paesi diversi nel mondo, in grado di rilevare 7 emozioni: rabbia, disgusto, paura, gioia, felicità sorpresa, disprezzo.

I ricercatori di robotica personale del MIT Media Lab hanno integrato il set emozionale di Affectiva in Tega, un robot a supporto  di interazioni a scopo educativo con i bambini, in grado di comprendere e rispondere sulla base delle espressioni facciali dei piccoli, oltre a rinforzare il proprio algoritmo di apprendimento.

Tega – Social assistive robot

emozioni e robotica

Il progresso della robotica nel campo dell’intelligenza emotiva, apre alla questione etica, che non riguarda solo calcoli razionali, ma anche la capacità di empatia, che ci permette di capire ciò che le persone provano e preoccuparci per loro. Per agire eticamente, dunque i robot avrebbero bisogno non solo di riconoscere, ma anche di provare emozioni.

Ci sono tre teorie sulle emozioni basate su valutazione, fisiologia e costrutti sociali.

Secondo la teoria cognitiva sulla valutazione, le emozioni sono giudizi sulla rilevanza di una determinata situazione o di un cambiamento per una persona; secondo la teoria fisiologica le emozioni sono correlate a cambiamenti fisici come il battito cardiaco, la frequenza di respiro, il livello di ormoni come il cortisolo; la teoria dei costrutti sociali, invece, riconduce le emozioni al linguaggio e al contesto culturale, che cambia il modo di reagire di una persona nei confronti di una situazione a seconda della percezione culturale che si ha di esso.

Queste tre teorie agiscono in maniera complementare nel cervello umano, mentre solo la prima potrebbe trovare applicazione nella robotica. 

Alcuni robot sono attualmente sviluppati simulando meccanismi cerebrali tramite l’impiego di chip neuromorfici , cioè chip che mimano il cervello implementando milioni di neuroni, quindi forse si potrebbe arrivare a un’approssimazione delle emozioni umane, attraverso una combinazione di valutazione, approssimazioni fisiologiche e sofisticazioni linguistiche e culturali.

La capacità dei robot di riconoscere e gestire le emozioni umane potrebbe portarci a un nuovo livello di relazione con le macchine?

Entro il 2050, 1,6 miliardi di persone nel mondo avranno superato i 65 anni di età, affidando a forme di intelligenza artificiale il compito di assistenza agli anziani.

L’azienda ENRICHME, abbreviazione di “ENabling Robot and assisted living environment for Independent Care and Health Monitoring of the Elderly”, ha sviluppato un robot in grado di assistere le persone in età avanzata negli esercizi fisici o nel ricordare dove sono stati riposti gli oggetti. I test condotti nelle case di riposo di tre paesi in Europa, hanno mostrato come le persone abbiano accettato di buon grado i robot e come questi li abbiano aiutati a restare fisicamente e cognitivamente attivi, migliorandone la qualità di vita.

Ben vengano dunque, i social robot che si fanno carico dell’assistenza agli anziani, ma la speranza è che non stiamo insegnando ai robot a riconoscere le emozioni, perché siamo troppo concentrati su noi stessi per pensare agli altri…

Fonti:

https://www.psychologytoday.com/us/blog/hot-thought/201712/will-robots-ever-have-emotions

https://www.pbs.org/wgbh/nova/article/robots-emotional-intelligence/

https://www.affectiva.com/success-story/mit-media-lab/

Potrebbe anche interessarti:

https://crafter.ai/it/2021/01/14/intelligenza-artificiale-a-scuola/