Il filone fantascientifico in letteratura come al cinema ha spesso dipinto l’intelligenza artificiale come “qualcosa” che avrebbe dominato o addirittura schiavizzato gli esseri umani.

Oggi l’AI è parte integrante delle nostre attività quotidiane, se pensiamo all’assistente vocale del nostro telefono, ai dispositivi di domotica, ai chatbot di assistenza virtuale o agli algoritmi in grado di personalizzare le nostre esperienze di consumo.

Tuttavia, gli aspetti legati alla reale capacità di empatia delle macchine o la possibilità di replicare bias cognitivi, fanno sì che ci sia ancora chi guarda con sospetto l’intelligenza artificiale.

Uno studio di Pegasystems su un campione di 6.000 consumatori di diversi paesi tra cui Nord America, Regno Unito, Australia, Giappone, Germania e Francia ha rilevato la visione comune sul tema “Intelligenza artificiale ed empatia”, evidenziando i punti di maggiore preoccupazione.

Partiamo dal presupposto che l’empatia non contraddistingue di certo la strategia di approccio al cliente di molte aziende. Basti pensare alla mole di e-mail che riceviamo quotidianamente da parte di brand che ci propongono la vendita di beni o servizi, che spesso hanno poco a che vedere con ciò di cui abbiamo veramente bisogno o con i nostri reali interessi.

Anche le aziende che pensano di fornire esperienze utente personalizzate, infatti, vedono i propri clienti come “segmenti” o “categorie” piuttosto che “individui”: un approccio dunque lontano dal potersi definire “empatico”.

Nella survey di Pegasystems anche se il 68% degli intervistati preferirebbe interagire con una persona piuttosto che con una macchina, il 40% è concorde sul fatto che l’AI abbia il potenziale per migliorare le interazioni con il servizio clienti.

Se l’empatia è parte della strategia di customer care di un’azienda, infatti, anche i sistemi di intelligenza artificiale come i chatbot, ad esempio, gestiranno in maniera empatica la conversazione con i clienti.

Tornando al report di Pegasystems, uno dei timori più comuni espressi dal 35% del campione intervistato è che l’AI sostituisca le persone nel lavoro.

Non dimentichiamo che l’automazione impatta su tipologie di attività che risultano in realtà noiose e ripetitive per le persone.

Pensiamo a Google Translate o ai suggerimenti di Netflix: quante persone ci vorrebbero per processare ogni richiesta di traduzione in ogni lingua esistente o per analizzare le preferenze su Netflix al fine di produrre i relativi suggerimenti?

Un’altra preoccupazione riguarda, invece, la presenza di “bias”. Il 54% del campione intervistato pensa che i bias cognitivi delle persone possano essere trasferiti e dunque influenzare il modo in cui i sistemi di AI interagiscono e rispondono nei confronti di determinate categorie di persone o situazioni. Per questo, l’abilità dei sistemi di intelligenza artificiale di imparare e dunque di assorbire anche eventuali bias sulla base dei dati raccolti nel contesto di interazione, necessita di controllo e set up di linee guida.

Il 38% degli intervistati non crede che l’intelligenza artificiale possa mai arrivare a comprendere le proprie preferenze, come farebbe una persona, anche se il 30% afferma che si sentirebbe a proprio agio ad interagire con sistemi di AI.

Su questo punto, c’è da aggiungere che i livelli di sofisticazione che la tecnologia sta raggiungendo, rende a volte difficoltoso per le persone comprendere se stiano interagendo con una macchina o con delle persone reali…proprio come aveva predetto Alan Turing.

intelligenza artificiale ed empatia: principi di etica e trasparenza

Intelligenza artificiale ed empatia – L’empatia non è un terreno su cui mettere a confronto uomini e macchine. Si tratta, invece, di mettere entrambi nelle condizioni di poter interagire con l’utente al meglio delle proprie capacità. Il futuro delle decisioni basate sull’AI è una combinazione di insights e dati forniti dalla tecnologia, ma analizzati eticamente ed empaticamente dalle persone.

Ad esempio, il criterio della trasparenza può essere un fattore su cui far leva per aiutare i clienti a comprendere come funziona un sistema di AI: questo significa sviluppare macchine in grado di spiegare esattamente il processo attraverso cui è stata presa una data decisione.

Parlare di intelligenza artificiale “empatica” non significa dotare le macchine di capacità di sentimento, ma utilizzare l’AI e i principi etici e di empatia per determinare la migliore azione da compiere nei confronti di un cliente.

Ad esempio, una strategia di interazione basata sull’empatia non significa solo restituire l’offerta migliore per il cliente, ma mettere in atto la migliore risposta che il cliente si aspetta, come porsi in modalità di ascolto degli effettivi bisogni del cliente o semplicemente rispondere con un “grazie”.

In conclusione, sono le persone ad essere responsabili delle tecnologie, riconoscendone e compensandone i limiti, applicandole responsabilmente e direzionandole verso obiettivi di miglioramento.

Fonte:

https://www.pega.com/system/files/resources/2019-11/pega-ai-empathy-study.pdf

Potrebbe anche interessarti:

https://crafter.ai/it/2021/02/11/lera-dei-social-robot/