//Bing Web master tools

I rischi dell’AI generativa: tra etica, privacy e fiducia digitale (webinar)

Nello scenario evolutivo disegnato dall’intelligenza artificiale è fondamentale comprendere i rischi dell’AI generativa: bias, allucinazioni, scarsa trasparenza, vulnerabilità dei dati e nuovi dilemmi etici.
Questi temi sono stati al centro del webinar “AI, Privacy e Futuro Digitale”, organizzato da Athics, con gli interventi dell’Avv. Maria Elena Iafolla (avvocato e DPO esperta di diritto delle nuove tecnologie) e del Prof. Riccardo Petricca (docente di Intelligenza Artificiale, DPO e Innovation Manager).
Un confronto che ha messo in luce i rischi dell’AI generativa e il ruolo cruciale del Data Protection Officer (DPO) come guida nell’equilibrio tra innovazione e tutela.

Evoluzione normativa e AI Act: limitare i rischi dell’AI generativa con una compliance integrata

Come ha spiegato Maria Elena Iafolla, l’introduzione dell’AI Act europeo segna un punto di svolta nella regolamentazione dell’intelligenza artificiale.
Si tratta di un regolamento pensato per garantire un approccio armonizzato e omogeneo all’interno dell’Unione Europea, stabilendo principi chiari su trasparenza, sicurezza e tutela dei diritti fondamentali.

Accanto all’AI Act, restano pienamente applicabili normative già note come il GDPR, la direttiva NIS2 e il regolamento DORA per la cybersicurezza.
L’elemento comune, ha ricordato Iafolla, è l’approccio risk-based: non più una lista di misure da adottare, ma una valutazione puntuale dei rischi dell’Ai generativa e di quelli legati a ciascun trattamento o applicazione dell’AI.

Questo significa che la compliance non può più essere frammentata (una per il GDPR, una per l’AI Act, una per la sicurezza informatica), ma deve essere integrata, dinamica e sostenibile.
E in questa prospettiva, il DPO diventa il cuore pulsante della governance aziendale, ponte tra innovazione e legalità.

Alcuni esempi: tra bias e allucinazioni

Bias e discriminazione algoritmica, tra i rischi dell’AI generativa

“Un sistema di AI non è per sua natura neutro”, ha ricordato Maria Elena Iafolla durante il webinar.
I modelli generativi apprendono dai dati: se i dati sono incompleti, distorti o culturalmente sbilanciati, anche i risultati lo saranno.

Il bias algoritmico è uno dei rischi dell’AI generativa più insidiosi, perché può generare decisioni discriminatorie in settori sensibili come il lavoro, la finanza o la sanità.
Per questo, le organizzazioni devono adottare un approccio che unisca valutazioni etiche e tecniche, con dataset bilanciati, controlli periodici e formazione specifica su AI fairness e responsabilità algoritmica.

Allucinazioni e contenuti falsi

Tra i rischi più evidenti dell’AI generativa ci sono le allucinazioni, ossia quando il modello inventa informazioni plausibili ma false.
Nel webinar, Iafolla ha citato un caso emblematico: “atti processuali redatti con l’AI che riportavano sentenze inesistenti”.
Un esempio che mostra quanto l’uso improprio dell’AI possa compromettere la credibilità e l’affidabilità delle organizzazioni.

Le hallucinations non sono solo errori tecnici, ma rischi reputazionali e giuridici: un output scorretto può generare conseguenze legali e perdita di fiducia.
La soluzione? Supervisione umana costante e adozione di sistemi di AI validation che permettano di controllare e verificare le informazioni generate dai modelli.

Privacy, sicurezza e governance: il ruolo fondamentale del DPO

L’AI generativa “vive” di dati, ma ogni dato trattato rappresenta anche un potenziale punto di vulnerabilità.
Come ha ricordato il Prof. Riccardo Petricca, “non basta che i dati siano trattati legalmente: occorre capire come vengono utilizzati e se l’algoritmo introduce rischi o discriminazioni”.

Nel suo intervento, Petricca ha citato il caso di una struttura sanitaria che utilizzava l’AI per la diagnostica: “abbiamo vietato l’uso di strumenti generativi comuni e imposto l’adozione di un sistema AI proprietario, con livelli di sicurezza informatica e privacy elevati”.
Un esempio concreto di approccio privacy by design.Ma proteggere i dati non significa solo rispettare le norme: significa anche costruire fiducia e imparare a gestirli in modo etico e consapevole.
Come sottolineato nel webinar, il DPO non è più chi blocca l’innovazione, ma chi aiuta a farla crescere in modo sostenibile.

AI e protezione del dato: AI Cyber Security nel prompt

Con l’utilizzo di modelli generativi e strumenti come chatbot, si aprono nuove problematiche legate al dato. Il contenuto del prompt può contenere informazioni riservate o critiche per l’azienda. È quindi essenziale:

  • Definire linee guida per la scrittura dei prompt.
  • Implementare sistemi di data loss prevention specifici per l’AI.
  • Applicare tecniche di redazione automatica per rimuovere dati sensibili.

Conclusioni: la privacy come leva per innovare

Il webinar “AI, Privacy e Futuro Digitale” si è chiuso con una riflessione che sintetizza il cuore del dibattito:

“La privacy non è un vincolo, ma una leva che possiamo sfruttare per innovare nel miglior modo possibile.”

Gestire i rischi dell’AI generativa non significa rallentare l’innovazione, ma governarla con consapevolezza.
Significa adottare un approccio integrato alla data governance, formare le persone, scegliere con attenzione i partner tecnologici e soprattutto costruire un rapporto di fiducia tra utenti, imprese e tecnologie.

Il DPO si conferma la figura chiave di questo equilibrio: un professionista capace di unire diritto, etica e tecnologia, e di trasformare la tutela dei dati in valore competitivo.
Come ha concluso il Prof. Petricca: “trasparenza, realtà e sincerità sono la base per un futuro digitale sostenibile”.