Intelligenza artificiale e privacy: come tutelarla? Parola ad Agostino Ghiglia, membro del Garante per la protezione dei dati personali

Intelligenza artificiale e privacy: la regolamentazione non è più solo un tema tecnico, ma una questione di diritti fondamentali L’articolo Intelligenza artificiale e privacy: come tutelarla? Parola ad Agostino Ghiglia, membro del Garante per la protezione dei dati personali è tratto da Forbes Italia.

Mar 18, 2025 - 09:23
 0
Intelligenza artificiale e privacy: come tutelarla? Parola ad Agostino Ghiglia, membro del Garante per la protezione dei dati personali

di Antonio Ravenna

L’intelligenza artificiale fa ormai parte della quotidianità. Il recente caso OpenAI – sanzionata dal Garante Privacy per 15 milioni di euro – e il blocco di DeepSeek in Italia segnano un punto di svolta: la regolamentazione non è più solo un tema tecnico, ma una questione di diritti fondamentali. Ne parliamo con Agostino Ghiglia, componente del Garante per la protezione dei dati personali.

Intelligenza artificiale e privacy: l’intervista

In meno di due anni l’Ia è passata da strumento in uso ai tecnici a una diffusione su larga scala. Cosa dovremmo fare per tutelare la nostra privacy in questo scenario? 

Occorre premettere che l’era digitale rappresenta una rivoluzione culturale e sociale e non una semplice evoluzione tecnologica, e questo a causa della velocità e pervasività con cui sta occupando le nostre vite, ridefinendo le dinamiche della conoscenza, del lavoro e delle relazioni interpersonali. Conseguentemente, le personedato che vivono in rete debbono prestare una crescente attenzione ai loro dati personali e per far si che ciò accada è prioritario promuovere l’alfabetizzazione digitale e l’educazione civica digitale come materia obbligatoria di insegnamento scolastico. Ogni persona deve essere in grado di comprendere i meccanismi di raccolta, uso, tipo di trattamento, conservazione e recupero dei propri dati e bisogna chiarire che i cookies non sono biscottini dolci da accettare senza leggere, ma strumenti di targhettizzazione e profilazione dell’individuo a fini commerciali e non solo. I dati sono la nostra umanità trasferita in rete e abbiamo il diritto-dovere di tutelarli.

Quale insegnamento possono trarre le aziende dalla sanzione di 15 milioni comminata ad Open AI? 

La sanzione inflitta a OpenAI rappresenta un monito ma anche una guida per tutte le aziende che operano nel settore dell’intelligenza artificiale, soprattutto generativa. Lo sviluppo tecnologico non può prescindere dal rispetto dei diritti fondamentali delle persone. Nell’era in cui l’Intelligenza artificiale è sempre più parte della quotidianità, le imprese devono garantire: solidi meccanismi di verifica anagrafica, trasparenza e base giuridica nei processi di raccolta e trattamento dei dati, informazione adeguata su quali dati vengono raccolti e per quali finalità. La sanzione evidenzia, inoltre, la necessità di adottare misure adeguate per la gestione dell’ecosistema IA, tra cui meccanismi efficaci per la correzione di errori e per garantire il diritto alla riservatezza. Le aziende dovrebbero, dunque, implementare policy etiche e garantire un maggiore controllo sugli algoritmi per evitare distorsioni e discriminazioni. Il messaggio è chiaro: l’innovazione deve essere bilanciata con il rispetto dei diritti fondamentali e della dignità umana.

Non solo OpenAI, il Garante Privacy ha recentemente anche bloccato DeepSeek in Italia… 

Vi sono molte analogie con la prima versione di ChatGPT che portò alla limitazione del trattamento degli utenti presenti in Italia da parte del chatbot statunitense: mancanza di trasparenza sulla tipologia di dati raccolti, sulle finalità della raccolta, sulle fonti da cui sono stati tratti nonché sulla base giuridica sottostante la raccolta. I dati, oltretutto, potrebbero essere conservati in Cina, nazione con la quale non vi è un accordo di adeguatezza sulla trasmissione, trattamento e conservazione dei dati, a differenza di quanto avviene, finora, con gli USA.

Oltre alla sanzione pecuniaria, per la prima volta il Garante Privacy ha imposto di realizzare una campagna di comunicazione istituzionale. Quanto è importante, oggi, comunicare in modo corretto e trasparente i diritti degli utenti e la loro connessione con la tecnologia?

Per quanto detto prima, oggi è indispensabile comunicare in modo corretto e trasparente agli utenti il funzionamento delle piattaforme, dei chatbot e dei social. L’obbligo imposto a OpenAI di realizzare una campagna di comunicazione istituzionale segna un precedente importante, sottintendendo che la consapevolezza è il primo strumento di autotutela delle persone nel nuovo mondo. Solo utenti informati possono esercitare i propri diritti in modo efficace e adottare comportamenti responsabili nell’uso di questa nuova frontiera tecnologica. La trasparenza non è solo un dovere normativo ma la base essenziale per mantenere un rapporto di fiducia tra imprese, istituzioni e cittadini. Deve maturare in ciascuno di noi la consapevolezza che solo la conoscenza consentirà di tenere l’uomo al centro nel rivoluzionario nuovo rapporto con lemacchineed è imprescindibile che le aziende leader nello sviluppo dell’IA sentano il dovere etico di contribuire a questa conoscenza per garantire sempre la libertà – di scelta – delle persone.

L’articolo Intelligenza artificiale e privacy: come tutelarla? Parola ad Agostino Ghiglia, membro del Garante per la protezione dei dati personali è tratto da Forbes Italia.