//Bing Web master tools

AI Etica: Di Chi È la Colpa Quando l’AI Sbaglia? (webinar)

La discussione sull’intelligenza artificiale (AI) e la necessità di un’AI etica si è intensificata con l’avvento di sistemi come ChatGPT, portando a un’esplorazione approfondita non solo delle loro capacità tecnologiche ma anche delle loro implicazioni umanistiche ed etiche. Il webinar Athics “Letture AI per l’estate” ha ospitato il Professor Luca Mari, ordinario di Scienza della Misurazione presso la Scuola di Ingegneria Industriale dell’Università Cattaneo e autore del libro “L’intelligenza artificiale di Dostoevskij”, per affrontare proprio questi temi cruciali.

AI Etica e responsabilità

Con l’integrazione sempre maggiore dell’AI nella nostra quotidianità, sorge spontanea la domanda fondamentale: di chi è la responsabilità quando un sistema di intelligenza artificiale commette un errore? O, più direttamente, di chi è la colpa? Come possiamo garantire un’AI etica? Questa è una delle questioni centrali affrontate dal Professor Mari, che la definisce “probabilmente il tema più importante” del suo libro.

Tradizionalmente, l’essere umano è stato definito come “animale dotato di parola” (zoon logon echon), ma oggi esistono entità non viventi che possiedono questa capacità. Ciò solleva un interrogativo cruciale: in cosa rimaniamo diversi dalle macchine? La risposta, secondo Mari, risiede nella responsabilità.

A differenza degli esseri umani, le AI non sono vive nel senso biologico del termine: non hanno un metabolismo, non nascono e non muoiono, e possono essere clonate perfettamente. Questa mancanza di vita implica che non operano in un contesto di “risorse scarse” come il tempo, che per gli esseri umani è prezioso e finito. La consapevolezza di questa finitezza è ciò che ci spinge a giustificare l’uso del nostro tempo e, in ultima analisi, a sviluppare un senso di responsabilità e il “senso della vita”.

Le AI, pur essendo attive, autonome e capaci di prendere decisioni anche critiche, non sono animate da questa stessa consapevolezza esistenziale. Non esiste un’AI etica di per sé. Quando un software viene spento e riacceso, torna identico a prima, a differenza di un essere umano. Pertanto, la responsabilità di ciò che le AI fanno ricade sempre sull’essere umano che le progetta, le usa o ne delega i compiti. “Sarà sempre meno importante chi o che cosa fa le cose, e sarà sempre più importante chi ne è responsabile, chi ci mette la faccia, chi ci mette la firma,” afferma il Professor Mari.

Le Sfide Etiche ed Educative

L’uso quotidiano di strumenti AI solleva anche importanti sfide etiche ed educative. Alcuni studi, seppur con campioni limitati, suggeriscono che l’eccessiva dipendenza da questi strumenti potrebbe avere ripercussioni sulla nostra capacità di apprendere, pensare e ricordare. Questo “AI divide” è una preoccupazione significativa, dove chi sa usare bene l’AI può ottenere un potenziamento delle proprie capacità (“empowerment”), mentre altri possono rimanere indietro.

Per affrontare questa sfida, e quella di una AI etica, il Professor Mari sottolinea l’importanza della sperimentazione e dello sviluppo di “schemi interpretativi generali, concettuali” che possano guidarci nell’uso appropriato dell’AI. Un esempio è la Teoria dell’Autodeterminazione di Deci e Ryan, che identifica tre bisogni fondamentali per il benessere umano e la motivazione intrinseca: competenza, relazioni significative e autonomia.

L’AI, se usata bene, può potenziare questi bisogni: può aumentare la nostra competenza, migliorare le nostre relazioni significative con gli altri e accrescere la nostra autonomia. Al contrario, un uso improprio può minare queste stesse dimensioni, portando a una perdita di competenza (delegando tutto), un isolamento nelle relazioni (interagendo solo con l’AI) e una diminuzione dell’autonomia (perdita di autostima). La scuola e la formazione, pertanto, hanno un ruolo cruciale nel ripensare il loro scopo, promuovendo l’uso della tecnologia come strumento per lo sviluppo di questi obiettivi e garantire una AI etica.

Una Terza Rivoluzione Culturale 

Il Professor Mari descrive l’era dell’AI come una “terza rivoluzione culturale”. Le prime due rivoluzioni, in sintesi, ci hanno portato a perdere la nostra centralità cosmologica (con Copernico) e la nostra unicità biologica (con Darwin). Oggi, con l’emergere di AI capaci di dialogare e ragionare in modi che prima consideravamo esclusivamente umani, stiamo perdendo anche la nostra presunta unicità cognitiva. Chatbot come ChatGPT superano sempre più spesso il Test di Turing, rendendo difficile distinguere se si sta interagendo con una macchina o un essere umano, ma lasciano a noi essere umani la responsabilità di una AI etica.

Questi sistemi sono definiti “cognitivamente alieni” perché, pur essendo frutto del nostro addestramento, non comprendiamo fino in fondo le ragioni del loro comportamento. Gli errori che commettono non sono “bug” nel senso tradizionale del termine, ma piuttosto “errori di opinione” o “opinioni sbagliate”, derivanti dall’impossibilità di garantire una coerenza perfetta nei vasti set di dati su cui vengono addestrati. Questo li rende simili a “adolescenti” che, se non controllati, possono deviare.

Superare il Divario tra Cultura Umanistica e Tecnico-Scientifica

Il libro “L’intelligenza artificiale di Dostoevskij” promuove l’idea che l’AI, e in particolare i chatbot, possano fungere da ponte tra la cultura umanistica e quella tecnico-scientifica. Questa distinzione artificiale tra le “due culture” ostacola una visione olistica della conoscenza. I chatbot offrono un’opportunità strategica per mostrare che “le due culture sono due facce della stessa medaglia che si chiama buona umanità o buona vita, a garanzia di una AI etica”.

Per usare questi strumenti in modo consapevole, sono necessarie competenze sia umanistiche (come il “prompt engineering” e, più recentemente, il “context engineering”, ovvero la capacità di formulare domande appropriate e di ingegnerizzare l’intero contesto del dialogo) sia una conoscenza di base di come funzionano internamente (ad esempio, la comprensione di concetti come i parametri delle reti neurali o la Retrieval Augmented Generation – RAG). Questo permette di diventare utenti più consapevoli e di cogliere le opportunità che la tecnologia offre per “parlare il linguaggio naturale con la tecnologia“.

Ai etica in conclusione

In conclusione, parlare di AI etica ci costringe a ridefinire cosa significhi essere umani in un mondo in cui le macchine possono emulare le nostre capacità cognitive. La responsabilità emerge come il tratto distintivo fondamentale che ci separa dai “cosi” artificiali. L’invito finale è a usare questi “superpoteri cognitivi” per diventare più consapevoli del valore della nostra vita e a costruire un futuro in cui un’AI etica sia al nostro servizio, promuovendo una buona vita armoniosa con gli altri e con l’ambiente.