L’AI Act affosserà lo sviluppo dell’intelligenza artificiale in Europa?
"Per chi vuole sviluppare e commercializzare sistemi di intelligenza artificiale, l'Europa è un territorio veramente difficile, se questa difficoltà può essere sfruttata a nostro favore o se sia un ostacolo lo vedremo nei prossimi anni". L’intervista di Stefano Feltri a Laura Turini, avvocato esperto in brevetti e marchi, dalla newsletter Appunti

“Per chi vuole sviluppare e commercializzare sistemi di intelligenza artificiale, l’Europa è un territorio veramente difficile, se questa difficoltà può essere sfruttata a nostro favore o se sia un ostacolo lo vedremo nei prossimi anni”. L’intervista di Stefano Feltri a Laura Turini, avvocato esperto in brevetti e marchi, dalla newsletter Appunti
Laura Turini è un avvocato esperto di tecnologia e intelligenza artificiale, scrive su Appunti e cura la newsletter Lisp sulla piattaforma Substack, in questi giorni è a Parigi all’AI Action Summit. Com’è il clima? C’è più preoccupazione o più ottimismo sul fatto che anche l’Europea possa essere rilevante nella partita dell’intelligenza artificiale?
Credo che nonostante venga manifestato un grande ottimismo, la preoccupazione prevalga, anche perché realisticamente l’Europa è molto indietro rispetto agli Stati Uniti e alla Cina nell’ambito dell’intelligenza artificiale e ovviamente superare questo gap che c’è dal punto di vista tecnico non è assolutamente semplice.
Le istituzioni si stanno muovendo, stanno cercando, mi verrebbe da dire, di correre ai ripari per provare a essere parte di questo nuovo gioco e chiaramente sfoderano i loro migliori sorrisi.
Dal punto di vista delle aziende invece ecco lì vedo molto più ottimismo reale, nel senso che le aziende si stanno impegnando per sviluppare prodotti innovativi che magari utilizzano alla loro base sistemi di LLM già implementati in America, soprattutto ovviamente, però cercano di trovare nuove forme applicative dell’intelligenza artificiale e quindi mettere sul mercato prodotti che possono veramente competere.
D’altro lato la distanza è molta, un tecnico mi diceva che tra l’utilizzare gli LLM che dagli Stati Uniti vengono resi disponibili sul territorio europeo e che quindi converrebbe magari utilizzare dal punto di vista privacy in quanto i dati sarebbero conservati in Europa, però questi sistemi hanno un ritardo nell’evoluzione tecnologica di circa sei mesi rispetto ai gemelli statunitensi.
JD Vance ha criticato la legislazione europea sul digitale, e sembra avercela in particolare con l’AI Act. Qual è il primo bilancio dell’AI act rispetto ad altri tentativi di regolare l’intelligenza artificiale in altri contesti? Troppo stringente? O troppo lasco?
L’AI Act è una normativa molto complessa e articolata che si basa sul concetto di rischio, rischio di violazione dei diritti fondamentali, rispetto al quale classifica i sistemi di intelligenza artificiale tra sistemi di intelligenza artificiale a basso rischio, alto rischio o vietati e quindi a rischio inaccettabile.
Il punto è che essa regolamenta soltanto i sistemi ad alto rischio, perché quelli a rischio inaccettabile sono vietati e quelli a rischio basso sono sostanzialmente non regolamentati salvo un generale obbligo di trasparenza.
Il problema dell’AI Act è che è una normativa talmente complicata e talmente articolata che obbliga le aziende a inevitabilmente compiere un’attività di due diligence e quindi obbliga le aziende a fare esaminare a degli specialisti le proprie tecnologie per capire se rientrano o meno nella normativa e nel caso rientrassero la conseguenza è che l’azienda dovrebbe dotarsi di un apparato burocratico abbastanza consistente, prevedere un organigramma aziendale, prevedere una serie di codici di condotta, manuali operativi, fornirsi di tutta una documentazione veramente copiosa e dispendiosa.
Non esiste a livello mondiale una normativa analoga, ci sono tentativi in alcuni Stati, penso al Brasile, penso al Canada oltre che alla Cina, di regolamentare l’intelligenza artificiale ma l’approccio è completamente diverso nel senso che si tratta di normative molto più snelle che fissano dei principi fondamentali ma che non impongono alle aziende un impegno amministrativo così ampio e complicato come quello dell’AI Act.
Va aggiunto anche che alla base della compliance l’AI Act c’è il rispetto di altre normative europee già in vigore, in particolar modo la normativa sul trattamento dei dati ed è quella di più difficile attuazione quando siamo di fronte a un sistema di intelligenza artificiale perché già i dati su cui un sistema di intelligenza artificiale viene addestrato spesso creano problemi rispetto alla privacy e il garante italiano è già in effetti intervenuto, per cui l’Europa per chi vuole sviluppare e commercializzare sistemi di intelligenza artificiale è un territorio veramente difficile, se questa difficoltà può essere sfruttata a nostro favore o se sia un ostacolo lo vedremo nei prossimi anni.
(Estratto dalla newsletter Appunti di Stefano Feltri: ci si iscrive qui)