Intelligenza Artificiale, OpenAI in audizione alla Camera fa le pulci al Governo: ‘Ddl italiano non è in linea con l’AI Act’
OpenAI, il principale player mondiale dell’AI generativa che ha creato ChatGPT, critica diffusamente in audizione in Commissione IX (Trasporti) e X (Attività produttive) alla Camera il disegno di legge n. 2316 “Disposizioni e deleghe del Governo in materia di intelligenza artificiale”. Il Ddl delega è già stato approvato al Senato, ma i rilievi del principale […] The post Intelligenza Artificiale, OpenAI in audizione alla Camera fa le pulci al Governo: ‘Ddl italiano non è in linea con l’AI Act’ appeared first on Key4biz.

OpenAI, il principale player mondiale dell’AI generativa che ha creato ChatGPT, critica diffusamente in audizione in Commissione IX (Trasporti) e X (Attività produttive) alla Camera il disegno di legge n. 2316 “Disposizioni e deleghe del Governo in materia di intelligenza artificiale”. Il Ddl delega è già stato approvato al Senato, ma i rilievi del principale player globale dell’AI potrebbero produrre in effetti qualche scossone nel prosieguo dell’iter parlamentare.
Per OpenAI manca armonizzazione con AI Act, GDPR e NIS 2
Le critiche da parte di OpenAI sono circostanziate.
Il principale appunto al disegno di legge riguarda la mancata armonizzazione con l’AI Act dell’Ue e altre normative europee, in particolare il GDPR in materia di tutela dei dati (soprattutto quelli sanitari) e del NIS2 in tema di cybersecurity.
OpenAI: ‘Un danno potenziale per diffusione dell’AI e investimenti in Italia’
“Riteniamo essenziale che l’Italia contribuisca a tale armonizzazione assicurando l’allineamento della normativa nazionale con quella europea, evitando al contempo l’introduzione di requisiti divergenti che ostacolerebbero l’innovazione e creerebbero incertezza giuridica per gli sviluppatori e gli utenti italiani di IA”, si legge nella nota dell’azienda. Il rischio secondo l’azienda Usa è che venga minata l’integrità del Mercato unico Ue, con un vulnus sul fronte della certezza normativa che colpirebbe in primis gli sviluppatori italiani, con un ulteriore rischio di sovrapposizioni e conflitti normativi “che rallenterebbero l’adozione dell’AI in Italia e scoraggerebbero gli investimenti a vantaggio di giurisdizioni più coerenti e prevedibili all’interno dell’Unione”.
L’incertezza normativa e la mancata aderenza con il quadro giuridico Ue, oltre all’inevitabile frammentazione normativa, causerebbe anche danni economici evidenti al nostro paese scoraggiando gli investimenti esteri, aggiunge l’azienda Usa. Un rilievo che ha tutta l’aria di un non troppo velato avvertimento.
Otto gli articoli del Ddl sotto esame
In totale, sono otto gli articoli finiti nel mirino di OpenAI che di fatto ne boccia la formulazione proponendo modifiche sostanziali. “Sebbene il disegno di legge affermi di dover essere interpretato ‘in conformità con l’AI Act’, diverse disposizioni divergono tuttavia dal testo europeo e da altre normative, compromettendo potenzialmente tali obiettivi. Ad esempio gli articoli 3, 6, 7, 8, 9, 13, 16 e 24 (con particolare riferimento agli articoli 6, 8 e 16)”.
Dalla cybersecurity, ai server su territorio nazionale alla mancata tutela dei dati sanitari: le principali criticità e le proposte di modifica secondo OpenAI
“Articolo 3 – Obblighi di cybersicurezza per tutti i sistemi di IA. Il disegno di legge impone obblighi di cybersicurezza per tutti i sistemi di IA e modelli GPAI, indipendentemente dalla loro classificazione di rischio. Ciò va oltre l’ambito dell’AI Act dell’UE, che prevede tali obblighi solo per i sistemi di IA ad alto rischio (art. 15) e per i modelli GPAI con rischi sistemici (art. 55).
Proposta: limitare gli obblighi di cybersicurezza a quanto previsto dall’AI Act. Evitare requisiti generalizzati e sistemici che comporterebbero oneri sproporzionati per la conformità.
Articolo 6 – Localizzazione dei server per l’IA nella pubblica amministrazione. L’obbligo per le autorità pubbliche di utilizzare sistemi di IA ospitati su server fisicamente localizzati in Italia contrasta con il principio del GDPR sulla libera circolazione dei dati personali all’interno dell’Unione ed è assente nell’AI Act. Inoltre, la promozione dell’uso dell’IA nei settori pubblico e industriale è attualmente oggetto di discussione a livello europeo nell’ambito del Piano d’azione per il continente dell’IA (AI Continent Action Plan), compresi la legge sullo sviluppo del Cloud e dell’IA (Cloud and AI Development Act) e la strategia “Applicare l’IA” (Apply AI Strategy) proposti dalla Commissione Europea.
Proposta: eliminare l’articolo 6 o limitarlo strettamente ad applicazioni connesse alla sicurezza nazionale, facendo affidamento sulle garanzie già previste dal GDPR e dalla direttiva NIS2 per gli altri utilizzi pubblici.
Articolo 7 – Obblighi specifici per l’IA in ambito sanitario. Richiedere che tutti i sistemi di IA in ambito sanitario siano “affidabili, periodicamente verificati e aggiornati” introduce obblighi ampi e ambigui, indipendentemente dal loro livello di rischio ai sensi dell’AI Act.
Proposta: allineare tali obblighi a quelli previsti per i sistemi ad alto rischio, come definiti nell’AI Act, e chiarire che solo i sistemi di IA classificati come ad alto rischio debbano esservi soggetti. Evitare duplicazioni o sovrapposizioni che frenerebbero l’innovazione nel settore sanitario.
Articolo 8 – Trattamento dei dati sensibili per la ricerca in ambito sanitario. Considerare automaticamente tutta la ricerca in ambito sanitario tramite sistemi di intelligenza artificiale come motivo di “rilevante interesse pubblico” ai sensi dell’art. 9 del GDPR rischia di indebolire gli standard di protezione dei dati e di divergere dal calendario e dalle garanzie previste dallo Spazio europeo dei dati sanitari.
Proposta: allinearsi all’art. 9(2)(j) del GDPR, richiedendo una valutazione d’impatto sulla protezione dei dati e, se necessario, un’approvazione di un comitato etico indipendente.
Articolo 9 – Controllo del Ministero della Salute sul trattamento dei dati per finalità di ricerca tramite sistemi di Intelligenza Artificiale. Il disegno di legge attribuisce al Ministero della Salute poteri regolatori sul trattamento dei dati personali per finalità di ricerca tramite sistemi di intelligenza artificiale, inclusi la costituzione e l’utilizzo di spazi speciali di sperimentazione a fini di ricerca. Ciò potrebbe entrare in conflitto con le disposizioni dell’AI Act relative alle sandbox regolatorie e alle basi giuridiche per il trattamento dei dati durante l’addestramento e i test dei modelli.
Proposta: garantire che la normativa nazionale in materia di sandbox regolatorie (regulatory sandboxes) e trattamento dei dati per la ricerca resti coerente con il Capitolo V e il Considerando 72 dell’AI Act.
Articolo 13 – Restrizioni sull’uso dell’IA nelle professioni intellettuali. La formulazione attuale limita l’uso dell’IA da parte delle libere professioni anche quando non vi sia classificazione ad alto rischio, in contrasto con l’approccio basato sul rischio dell’AI Act. Inoltre, impone obblighi di trasparenza non previsti dal regolamento europeo. Ciò penalizzerebbe i professionisti italiani rispetto a quelli di altri Stati membri, danneggiando infine anche i cittadini italiani.
Proposta: riformulare l’articolo 13 per garantire un allineamento rigoroso agli obblighi previsti dall’AI Act.
Articolo 16 – Decreti esecutivi successivi in materia di “obblighi di sicurezza aggiuntivi”. L’articolo 16 delega al Governo ampi poteri per adottare nuovi obblighi dopo l’entrata in vigore della legge. In assenza di limiti definiti, tali decreti potrebbero confliggere con futuri atti di esecuzione europei, generando incertezza normativa e indebolendo la competitività italiana.
Proposta: inserire una clausola di salvaguardia che vieti l’adozione di obblighi eccedenti quelli stabiliti dall’AI Act e richieda consultazione pubblica e verifica di conformità con l’Ufficio europeo per l’IA.
Articolo 24 – Decreti legislativi futuri su uso improprio dell’IA, rimozione e responsabilità. L’articolo 24 prevede nuove disposizioni sull’uso illecito dell’IA, compresi obblighi di rimozione, nuovi reati penali e regimi di responsabilità. Queste misure potrebbero divergere dalle disposizioni armonizzate in materia di sicurezza dei prodotti e sull’applicazione dell’AI Act.
Proposta: includere una clausola che garantisca la piena coerenza di ogni futuro decreto con l’AI Act e ne subordini l’adozione a consultazione con l’Ufficio europeo per l’IA”.
The post Intelligenza Artificiale, OpenAI in audizione alla Camera fa le pulci al Governo: ‘Ddl italiano non è in linea con l’AI Act’ appeared first on Key4biz.