Secondo l’ultimo report McKinsey “The economic potential of generative AI”, il valore dell’AI generativa è stimabile tra i 2,6 trilioni di dollari fino a un massimo di 4,4 trilioni di dollari all’anno: l’equivalente del 4,4% della produzione mondiale. 

Secondo McKinsey, lo sviluppo dell’AI generativa avrebbe un significativo impatto sulla produzione di diversi settori industriali (tra cui banche, high tech, biotecnologie) e contribuirebbe ad aumentare la produttività del lavoro, parzialmente compensando la diminuzione dell’occupazione e contribuendo alla crescita economica.

In particolare, saranno 4 funzioni aziendali a beneficiare dell’incremento in termini di produttività, favorito dall’automazione: Customer Operations, Marketing e Vendite, Software Engineering e Ricerca e Sviluppo.

In ambito Customer Operations, ad esempio, l’AI generativa potrebbe ridurre del 50% la presa in carico delle richieste di assistenza a carico degli agenti, mentre in ambito Sales e Marketing, il contributo dell’AI generativa nella creazione di contenuti contribuirebbe ad aumentare  la produttività tra il 5 e il 15%.

Nel campo del Software Engineering, l’ausilio della Generative AI nelle attività di sviluppo, correzione e re-factoring del codice aumenterebbe la produttività tra il 20% e il 45%.

Tuttavia, la crescente sofisticazione e l’incredibile potenziale di mercato dell’AI generativa non esentano questa tecnologia da alcuni limiti.

Rischi e limiti dell’AI generativa

La ricerca IDC “Generative AI in EMEA: Opportunities, Risks, and Futures” identifica tre aspetti principali dell’IA generativa in cui si concentrano sfide e rischi: le capacità intrinseche (e i limiti) dei sistemi, i processi con cui vengono creati e i modi in cui sono potenzialmente utilizzati.

Ad esempio, in termini di “Capabilities” vengono identificati i rischi legati alle “allucinazioni” dei sistemi di AI, bias e produzione di contenuti generici, mentre in termini di utilizzo è evidenziata l’esposizione al rischio di plagio, di disinformazione, frode e comportamenti non pianificati.

 IDC “Generative AI in EMEA: Opportunities, Risks, and Futures”
Fonte: IDC “Generative AI in EMEA: Opportunities, Risks, and Futures”

L’importanza del controllo

Recentemente abbiamo letto della disavventura di un avvocato di New York che ha affidato a ChatGPT la ricerca delle sentenze a supporto della sua causa, senza preoccuparsi di verificarne l’attendibilità.

E’ vero, infatti, che l’AI basata su modelli linguistici di grandi dimensioni “sa come parlare, ma non sa cosa dice”.

In gergo tecnico si parla di “allucinazioni”, quando l’AI restituisce un’informazione distorta o completamente inventata, nel momento in cui non riesce a trovare risposte.

Per questo è importante mantenere il controllo umano non solo in fase di addestramento dei modelli, ma anche di verifica dell’output generato.

Tra i principali limiti di ChatGPT, ad esempio, troviamo:

  • Il rischio di bias: ChatGPT è addestrato su un ampio set di dati di testo e tali dati possono contenere distorsioni o pregiudizi. Ciò significa che l’intelligenza artificiale a volte può generare risposte che sono involontariamente distorte o discriminatorie.
  • La conoscenza limitata: sebbene ChatGPT abbia accesso a una grande quantità di informazioni, non è in grado di accedere a tutta la conoscenza che abbiamo noi umani. Potrebbe non essere in grado di rispondere a domande su argomenti molto specifici o di nicchia e potrebbe non essere a conoscenza di recenti sviluppi o cambiamenti in determinati campi.

Tuttavia, per quanto “rischioso”, l’uso dei Large Language Models nelle interazioni di business diventerà rapidamente inevitabile.

Quali precauzioni adottare?

Secondo Gartner è indispensabile che le organizzazioni adottino le seguenti “best practice”:

  • Assicurarsi che le persone (dipendenti, clienti, cittadini) siano consapevoli di interagire con una macchina, etichettando chiaramente l’intera conversazione
  • Attivare strumenti di  “due diligence” e controllo della tecnologia per tenere traccia di bias incontrollati e altri problemi di affidabilità nell’uso di LLM
  • Proteggere privacy e sicurezza assicurandosi che i dati sensibili non siano oggetto di prompting né siano derivati ​​dall’utilizzo di LLM, o utilizzati come data set di apprendimento al di fuori dell’organizzazione.

Conclusioni:

L’IA generativa, rappresentata da modelli come ChatGPT, ha aperto nuove prospettive nel campo dell’elaborazione del linguaggio naturale e della creazione di contenuti. Tuttavia, è essenziale riconoscere i suoi potenziali rischi e limiti attuali. Dalla mancanza di contestualizzazione, al rischio di bias, manipolazione e disinformazione, l’IA generativa presenta sfide significative che richiedono un approccio responsabile e consapevole.

Lo scorso 14 giugno 2023, il Parlamento europeo ha approvato gli emendamenti alla legge sull’intelligenza artificiale dell’Unione europea (UE) (AI Act o AIA), adottando un approccio basato sulla percezione del “rischio” associato all’impiego delle tecnologie basate su AI, in particolare nelle seguenti aree:

  • Riconoscimento delle emozioni
  • Acquisizione dei dati biometrici
  • Social scoring
  • Restrizioni per l’AI Generativa
  • Algoritmi di raccomandazione (AI Recommendation Systems)

Alcune delle considerazioni alla base dell’AI Act aprono questioni e dibattiti che saranno affrontati in sede di Consiglio dell’Unione europea e in Commissione europea, prima che il progetto di legge diventi effettivo.

Tuttavia, la necessità di una regolamentazione sancisce, di fatto, il cambiamento epocale che l’intelligenza artificiale sta generando in tutti i campi.

L’adozione di misure di sicurezza, l’etica nell’addestramento dei modelli e l’assunzione di una cittadinanza digitale informata sono tutti elementi chiave per mitigare i rischi associati all’IA generativa e massimizzarne i benefici. Solo attraverso una comprensione consapevole delle capacità e dei limiti attuali di questa tecnologia potremo utilizzarla in modo responsabile e contribuire a un futuro digitale più sicuro e inclusivo.

Fonte:

https://www.harvardonline.harvard.edu/blog/benefits-limitations-generative-ai