Legge sull’intelligenza artificiale: fatti, problemi e scenari

Il Senato ha approvato un disegno di legge sull'intelligenza artificiale che sembra solo l’inizio di una serie di altri interventi normativi e che si aggiunge all’AI Act europeo. Ma oltre a creare problemi di coordinamento e ad accentrare sul governo gli interventi, non rischia di ostacolare lo sviluppo di questa tecnologia nel nostro Paese? L’approfondimento di Laura Turini per Appunti di Stefano Feltri

Apr 5, 2025 - 09:41
 0
Legge sull’intelligenza artificiale: fatti, problemi e scenari

Il Senato ha approvato un disegno di legge sull’intelligenza artificiale che sembra solo l’inizio di una serie di altri interventi normativi e che si aggiunge all’AI Act europeo. Ma oltre a creare problemi di coordinamento e ad accentrare sul governo gli interventi, non rischia di ostacolare lo sviluppo di questa tecnologia nel nostro Paese? L’approfondimento di Laura Turini per Appunti di Stefano Feltri

 

Le imprese hanno appena iniziato ad affrontare il complesso corpo dell’AI Act, il Regolamento UE 1689/2024 sull’intelligenza artificiale entrato in vigore il 2 Agosto 2024, e già si trovano a doversi preoccupare di un’altra normativa, questa volta tutta italiana, con cui rischiano di dovere fare presto i conti, come se l’AI Act non fosse abbastanza.

Lo scorso 20 Marzo il Senato, con una rapidità per certi versi inattesa, ha infatti approvato il Disegno di Legge n. 1146 sull’intelligenza artificiale che sembra solo l’inizio di una serie di altri interventi normativi che pongono problemi di coordinamento con l’AI Act e introducono divieti e obblighi non previsti a livello europeo, obbligando gli operatori italiani a una doppia verifica di conformità.

Lo scopo del nostro governo è sempre quello di garantire l’antropocentrismo, che è una preoccupazione anche dell’AI Act, ma che nel DDL italiano ci si spinge molto avanti con previsioni che rischiano di ostacolare lo sviluppo di questa tecnologia all’interno del nostro paese.

A fianco di questa esigenza emerge anche l’intenzione di accentrare sul governo, piuttosto che sul Parlamento, gli interventi in questo delicato settore.

Gli argomenti trattati dal DDL 1146 sono molti, complessi e variegati.

Un primo nucleo riguarda il trattamento dei dati personali con la previsione di un obbligo di informativa per gli utenti a cui deve essere garantito il diritto di opporsi a trattamenti non corretti. Tutto molto bello in teoria, ma non è chiaro come questo possa valere per i dati di addestramento, a meno che non si voglia ritenere sufficiente un’informativa generica.

Di questa spinosa questione si sta già occupando il Garante della Privacy e, sinceramente, il GDPR (Regolamento UE 2016/679) ci sembrava fosse già più che sufficiente allo scopo.

I minori di 14 anni potranno accedere a tecnologie che utilizzano l’AI solo con il consenso dei genitori o di chi esercita la responsabilità genitoriale, mentre i minori tra i 14 e i 18 anni potranno esprimere autonomamente il consenso al trattamento dei propri dati personali, a condizione che le informazioni fornite siano chiare e comprensibili.

DALLA SANITÀ AI TRIBUNALI

Il fine è quello di prevenire un uso inconsapevole delle tecnologie da parte dei più giovani che potrebbero subire effetti manipolatori, ma restano seri dubbi su come questa norma possa applicarsi in concreto, non essendo chiaro come sia possibile identificare l’età di un utente mentre, all’opposto, un’identificazione massiva potrebbe comportare il rischio di una catalogazione per età anche dei maggiorenni, per consentire loro il libero utilizzo, ipotesi non proprio entusiasmante.

In tema di sanità, l’utilizzo dei sistemi di intelligenza artificiale è valorizzato ma subordinato a precisi obblighi informativi.

Il paziente deve essere messo a conoscenza non solo dell’impiego dell’AI, ma anche dei vantaggi clinici che ne derivano e, soprattutto, della logica decisionale seguita dagli algoritmi. Anche in questo caso il proposito è buono ma la sua attuazione sarà complessa all’atto pratico.

I dati sanitari potranno, però, essere usati per la ricerca in ambito medico, anche senza un consenso esplicito, per scopi di sperimentazione e sviluppo di modelli di AI, farmaci, tecnologie riabilitative e interfacce uomo-macchina. Tali attività sono considerate di interesse pubblico e vincolate al parere preventivo dei comitati etici e alla notifica al Garante Privacy.

È escluso ogni utilizzo discriminatorio della tecnologia, che non potrà in alcun modo influenzare l’accesso alle prestazioni sanitarie sulla base di criteri non equi, previsione che già esiste nell’AI Act. Viene istituita una piattaforma nazionale di intelligenza artificiale per la sanità territoriale affidata all’AGENAS, Agenzia nazionale per i servizi sanitari regionali, che agirà come Agenzia nazionale per la sanità digitale, con lo scopo di fornire supporto operativo soprattutto ai medici.

Il disegno di legge affronta anche il tema dell’uso dell’intelligenza artificiale nel settore giudiziario invitando alla cautela e sottolineando la centralità della figura del magistrato.

L’uso dell’AI è ammessa esclusivamente per finalità di supporto, per l’organizzazione del lavoro e la semplificazione delle attività di ricerca giurisprudenziale e dottrinale, ma è espressamente previsto che ogni decisione deve restare prerogativa esclusiva del giudice.

L’intelligenza artificiale non può in alcun modo sostituirlo, per evitare rischi legati all’opacità delle decisioni automatizzate (black box problem) e per preservare i principi di giusto processo e imparzialità.

Per quanto riguarda il delicato tema delle autorità di controllo nazionali, su cui la Commissione Europea aveva manifestato perplessità, il DDL identifica sempre le stesse due che opereranno in coordinamento con il Garante per la protezione dei dati personali (GDPR) e con un Comitato interministeriale di coordinamento. La prima è l’Agenzia per l’Italia Digitale (AgID) che ha il compito di promuovere l’innovazione e definire procedure di notifica, valutazione e accreditamento dei soggetti che verificano la conformità dei sistemi AI.

La seconda è l’Agenzia per la Cybersicurezza Nazionale (ACN) che è responsabile per la vigilanza e la sicurezza dei sistemi AI con poteri ispettivi e sanzionatori.

LE NOVITÀ SUL DIRITTO D’AUTORE

Per quanto attiene il diritto d’autore, che resta uno dei temi centrali e più delicati del disegno di legge, l’articolo 24 modifica la Legge sul diritto d’autore (L. 633/1941, L.A.), specificando che la tutela prevista da questa legge si applica solo alle opere dell’ingegno umano, anche se create con l’ausilio di strumenti di intelligenza artificiale, ma a condizione che sia il risultato del lavoro intellettuale dell’autore.

Le opere create esclusivamente dall’AI non sono quindi tutelate, ma la formulazione finale della norma ha sostituito la precedente versione che richiedeva un contributo umano « creativo, rilevante e dimostrabile», per cui è probabile che ci possa essere una maggiore apertura nel considerare tutelabili anche quelle opere in cui l’apporto dell’uomo sia marginale purché presente.

In merito all’uso dei dati protetti dal diritto d’autore per l’addestramento, il DDL 1146 richiama gli articoli 70-ter e 70-quater L.A. che regolano le eccezioni per text and data mining all’uso di materiale protetto, limitate a scopi di ricerca, con rispetto delle licenze e dei diritti degli autori. Questa previsione ha fatto tirare un sospiro di sollievo agli editori che si sentono maggiormente esposti al rischio di un uso indiscriminato dei loro materiali, ma non è ancora detto che per loro si tratti di una protezione effettiva, esistendo comunque un’interpretazione diversa della normativa europea.

Resta però confermato che chi sviluppa sistemi AI deve garantire che i dati usati per l’addestramento rispettano il diritto d’autore e che sono stati acquisiti in modo lecito, mentre i titolari devo avere la possibilità di opporre il loro rifiuto all’uso delle loro opere a fini di addestramento, in particolare per usi commerciali, cosa che tra l’altro sta già avvenendo essendo prevista dalla normativa esistenze.

PROTEGGERSI DALLE MANIPOLAZIONI DELLA REALTÀ

Infine il DDL interviene anche sulle deep fake, sebbene in modo un po’ criptico.

L’art. 23 prevede un intervento sul decreto legislativo 208/2021 che si occupa dei servizi di media audiovisivi, come televisione, servizi video on demand come Netflix o Prime Video, piattaforme di condivisione video come YouTube e TikTok e Servizi radiofonici tradizionali e digitali. I giornali, cartacei o digitali, sembrerebbero quindi esclusi, anche se esistono casi in cui possono rientrare nell’ambito di applicazione di alcune norme del decreto, se offrono contenuti audiovisivi in modo strutturato.

In questo ambito, ogni contenuto testuale, fotografico, audiovisivo o radiofonico che sia stato realizzato, anche parzialmente, con l’uso di sistemi AI e che alteri la realtà dei fatti, presentando come veri dati o informazioni che non lo sono, dovrà essere chiaramente identificato.

L’obbligo ricade su autori e titolari dei diritti economici, i quali dovranno inserire un marchio con l’acronimo “IA”, sotto forma di filigrana o marcatura, visibile all’inizio e alla fine del contenuto, nonché dopo ogni interruzione pubblicitaria. Per i contenuti audio, l’identificazione potrà avvenire tramite annunci sonori o altre tecnologie che consentano il riconoscimento da parte dell’ascoltatore.

Le uniche eccezioni a questa regola riguardano le opere manifestamente creative, satiriche, artistiche o fittizie, sempre che non ledano i diritti e le libertà altrui. Inoltre, le piattaforme video dovranno prevedere un sistema che permetta agli utenti di dichiarare se i contenuti caricati sono stati modificati o generati con l’AI e in caso di inottemperanza, l’Autorità per le Garanzie nelle Comunicazioni (AGCOM) potrà comminare loro sanzioni amministrative.

Per arginare il fenomeno delle fake news viene anche introdotto un nuovo reato con l’art. 612-quater c.p. che punisce con la reclusione da 1 a 5 anni la diffusione illecita di contenuti falsificati tramite intelligenza artificiale. Questa norma si applica a «chiunque cagiona un danno ingiusto ad una persona cedendo, pubblicando o altrimenti diffondendo, senza il suo consenso immagini, video o voci falsificati o alterati mediante l’impiego di sistemi di intelligenza artificiale e idonei a indurre in inganno sulla loro genuinità», ampliando molto la sfera dei potenziali responsabili. Il reato è punito a querela di parte della persona offesa per cui sembra limitato a quelle alterazioni di fatti che riguardano solo le persone fisiche.

Le norme e le sanzioni però non finiscono qui.

Viene infatti data al governo ampia delega per adottare “uno o più decreti legislativi” per l’adeguamento della normativa nazionale al Regolamento Europeo sull’intelligenza artificiale e per l’introduzione di una serie di altri provvedimenti inclusa “l’introduzione di una o più autonome fattispecie di reato”, punite a titolo di dolo o di colpa, per l’omessa adozione di misure di sicurezza previste per i sistemi di intelligenza artificiale, nonché introduzione di «ulteriori fattispecie di reato» per tutelare specifici beni giuridici esposti a rischio dall’uso di sistemi di intelligenza artificiale e che non siano adeguatamente tutelati da norme esistenti.

Insomma, le leggi non sembrano davvero finire mai e a noi non resta che prepararci ad affrontare una giungla di decreti al cui interno non sarà banale districarsi.

(Estratto da Appunti di Stefano Feltri)