Clemente, Ughi e Nunziante: «La corsa alla tecnologia lascia indietro i diritti»
La digitalizzazione è oggi il cuore pulsante di una società sempre più interconnessa. Si trasformano radicalmente comunicazione, diritti, cultura e lavoro. Tuttavia, il progresso tecnologico non è privo di insidie e la velocità dello sviluppo supera spesso la capacità delle normative di adattarvisi, aprendo spiragli di incertezza che possono mettere a rischio diritti fondamentali come […] L'articolo Clemente, Ughi e Nunziante: «La corsa alla tecnologia lascia indietro i diritti» proviene da ilBollettino.

La digitalizzazione è oggi il cuore pulsante di una società sempre più interconnessa. Si trasformano radicalmente comunicazione, diritti, cultura e lavoro. Tuttavia, il progresso tecnologico non è privo di insidie e la velocità dello sviluppo supera spesso la capacità delle normative di adattarvisi, aprendo spiragli di incertezza che possono mettere a rischio diritti fondamentali come la privacy, la libertà di espressione e la democrazia stessa.
«La digitalizzazione non è una semplice trasposizione del mondo analogico, ma una vera e propria rivoluzione culturale», dice Agostino Clemente, avvocato Partner di Ughi e Nunziante e membro del Comitato IGF (Internet Governance Forum) Italia. Una rivoluzione che solleva interrogativi cruciali sul ruolo delle istituzioni, sulla necessità di alfabetizzazione digitale e sulla gestione di strumenti potenti come l’intelligenza artificiale.
Di fronte a un panorama così complesso, è fondamentale ripensare i paradigmi culturali e normativi, conciliando innovazione e rispetto dei diritti umani.
Perché è importante parlare oggi di diritti digitali?
«Perché, soprattutto per le generazioni non native digitali, è comune l’idea, o forse il pregiudizio, che la digitalizzazione consista semplicemente in una diversa trasposizione dei paradigmi e delle culture analogiche cui siamo stati educati e abituati. In realtà, la digitalizzazione, specialmente negli ultimi anni con i social, le nuove modalità di trasmissione delle informazioni e, più di recente, con l’intelligenza artificiale, sta trasformando radicalmente i paradigmi della comunicazione e quelli culturali. Ritengo, quindi, che manchi una piena consapevolezza di ciò che sta accadendo».
Qual è il ruolo delle istituzioni pubbliche nel garantire tali diritti fondamentali online?
«Dovrebbero adottare modalità aggiornate per garantire la circolazione di opinioni e idee, oltre a valorizzare le innovazioni in ogni campo. Al tempo stesso, è fondamentale che riescano a fornire strumenti di tutela adeguati per ciascun individuo. Si tratta di un tema complesso e delicato, che richiederebbe un approccio specifico in ogni ambito: dalla ricerca scientifica alla comunicazione politica, dalla circolazione delle informazioni alla formazione scolastica e universitaria.
I settori coinvolti sono molti. Per fare un esempio, il cosiddetto “inquinamento informativo” rappresenta una questione cruciale: oggi circolano con pari dignità informazioni corrette e obiettive insieme a contenuti completamente falsi, talvolta dichiaratamente artefatti, altre volte in modo più subdolo e nascosto. Le soluzioni tradizionali, come vietare la diffusione di certi contenuti, rischiano di essere peggiori del problema stesso, risultando controproducenti e inefficaci.
Un esempio recente proviene dalla Romania, dove le elezioni politiche sono state annullate sulla base di un rapporto dei servizi segreti, secondo cui erano state manipolate da uno Stato straniero attraverso TikTok. Questa affermazione, a metà tra fantascienza e realtà, ha comunque portato la Corte Costituzionale rumena a invalidare le elezioni. Uno scenario del genere evidenzia problemi di enorme portata, per i quali le soluzioni attuali sembrano inadatte, rischiando di aggravare ulteriormente il contesto anziché migliorarlo».
Quanto è importante promuovere l’alfabetizzazione digitale per combattere la disinformazione?
«Questo aspetto è cruciale, ma temo che ci troviamo di fronte a un duplice deficit: non solo nella formazione, ma anche nei formatori. Questo rappresenta un problema ancora più grave, perché, anche se riuscissimo a individuare correttamente le criticità, non è detto che saremmo in grado di affrontarle facilmente. Anche con la volontà politica e culturale di risolvere la questione, rimarrebbe il problema di tradurre le soluzioni in pratiche operative efficaci.
È noto che il mondo del lavoro e il Mercato richiedano competenze professionali in ambiti su cui il nostro Paese è ancora carente. Partiamo da un deficit nelle competenze matematiche per arrivare a quelle informatiche, fino alle abilità nell’uso degli strumenti e dei diritti digitali.
Questo problema è stato già ampiamente identificato e discusso in molte sedi, con una mole enorme di documentazione che ne illustra i dettagli. Tuttavia, non si riesce ad affrontarlo efficacemente, principalmente perché mancano le competenze necessarie nel campo della formazione. Di conseguenza, molti di noi finiscono per essere autodidatti in settori strategici, senza un percorso strutturato che possa colmare queste lacune».
Come sviluppare competenze che servano ai professionisti del futuro per affrontare le sfide della società digitale?
«Le faccio un esempio. Insegno innovazione e brevetti all’Università dell’Aquila e cerco di strutturare il mio corso con un approccio pratico di tipo learning by doing. Il mio obiettivo è che gli studenti, più che limitarsi a ripetere quanto detto a lezione, si cimentino in attività che permettano loro di applicare concretamente gli studi, le conoscenze e le esperienze. Un’attività tipica, che costituisce anche la base per l’esame finale, consiste nell’immaginare di aver inventato qualcosa e redigere una domanda di brevetto.
Da alcuni anni, il corso si concentra su questo tipo di esperienza, che da un lato spinge gli studenti a sviluppare un’attitudine inventiva e dall’altro li aiuta a condensare questa capacità in un documento tecnico come un brevetto. Con l’avvento delle prime piattaforme di intelligenza artificiale generativa, come ChatGPT, è emerso che gli studenti potrebbero risolvere il problema facendosi scrivere direttamente le domande di brevetto.
La risposta più immediata, adottata da alcuni colleghi in situazioni analoghe – per esempio nella redazione delle tesi di laurea – è stata quella di vietarne l’utilizzo. Il mio approccio, invece, è diametralmente opposto. Nel prossimo corso, chiederò agli studenti di utilizzare queste piattaforme, sperimentando diverse varianti nel prompting per ottenere risultati differenti.
Dovranno poi confrontare questi risultati, selezionando quelli più utili o congeniali alle loro intenzioni, oppure analizzando le differenze tra le soluzioni per evidenziare i pro e i contro di ciascun approccio. In questo modo, l’obiettivo non sarà rifiutare l’innovazione, ma sfruttarla e, se possibile, guidarla. Penso che questo sia un esempio significativo di come siano necessari paradigmi culturali nuovi per affrontare le sfide e le opportunità che l’innovazione pone».
Ritiene che l’intelligenza artificiale sia un mero strumento o una minaccia per la libertà di pensiero e di espressione?
«Come tutti gli strumenti, anche l’intelligenza artificiale può essere usata in modo positivo o negativo. Ho trovato sul web un’espressione che è diventata un po’ il mio mantra, applicabile anche ad altre professioni: alla domanda se gli avvocati verranno sostituiti dall’intelligenza artificiale, la risposta – che ho fatto mia – è che non saranno sostituiti da essa, ma dagli avvocati che sapranno usarla.
Oggi abbiamo a disposizione strumenti estremamente potenti, e l’AI lo è probabilmente più di tutti gli altri, grazie alla sua capacità unica di autoalimentarsi. È fondamentale imparare a utilizzarla al meglio per migliorare il nostro lavoro e renderlo più efficiente. Tuttavia, ci troviamo ancora una volta di fronte a un’innovazione tecnologica che avanza molto più rapidamente rispetto alla regolamentazione».
Come si può affrontare questo squilibrio di diritti, rendendo la tecnologia più trasparente, agli occhi di chi la usa?
«L’AI ha una componente di black box, un’impenetrabilità intrinseca che non possiamo eliminare. Questo perché si basa sull’apprendimento automatico e sulla capacità di correlazione statistica tra le informazioni. Possiamo comprendere il funzionamento generale del sistema, ma non possiamo pretendere di conoscere tutte le implicazioni semplicemente osservandolo dall’esterno. Sarà fondamentale sviluppare strumenti per testare i risultati prodotti dall’intelligenza artificiale, sia per il loro utilizzo pratico sia per predisporre adeguati sistemi di controllo sui diversi modelli. Questa necessità non riguarda solo i modelli linguistici, ma tutte le applicazioni.
Un aspetto chiave sarà quello che potremmo definire anticipatory compliance, ossia la capacità di verificare in anticipo come questi strumenti si comporterebbero di fronte a sfide future, comprese situazioni non ancora affrontate. Un altro elemento fondamentale è che le aziende dovrebbero integrare il rispetto dei diritti fondamentali già nella fase di progettazione delle nuove tecnologie. Nel regolamento sulla privacy del 2016 si parlava di privacy by design, ossia l’incorporazione della tutela della privacy direttamente nella progettazione degli strumenti.
Questo paradigma normativo deve essere applicato costantemente, come avviene anche nel nuovo regolamento sull’AI. Tuttavia, il problema è che i tempi di implementazione risultano essere estremamente lunghi rispetto al ritmo di sviluppo della tecnologia.Il rischio è che, mentre siamo occupati a regolamentare, gli strumenti tecnologici si evolvano autonomamente, rendendo obsolete le norme prima ancora che siano operative. Non si tratta solo di fare leggi più velocemente, ma di adottare un approccio normativo diverso, con norme più snelle e basate su principi di fondo, capaci di essere tempestive e efficaci.
Ad esempio, ancora oggi non sappiamo quali autorità pubbliche o indipendenti saranno incaricate di sovrintendere all’applicazione del nuovo regolamento. Questo non è solo un limite a livello nazionale, ma evidenzia la necessità di una regolamentazione sovranazionale più adeguata e coordinata».
C’è la necessità di sviluppare un’etica digitale che sia condivisa a livello globale?
«Assolutamente sì, ma emerge un problema più ampio, ben presente anche nell’Internet Governance Forum di cui faccio parte. Abbiamo l’onere di trovare soluzioni che siano il più possibile adeguate a un mondo imperfetto. Sarebbe necessario un quadro di regolamentazione non solo europeo, ma globale per affrontare certi fenomeni.
Tuttavia, i punti di vista su queste dinamiche sono estremamente diversi e spesso in contrasto tra loro, anche quando animati da buone intenzioni. Ad esempio, ci sono Stati autoritari che osteggiano una governance multistakeholder, che promuove una rete e una comunicazione aperta e accessibile a tutti, temendo che questa possa minare il loro potere.
Al contempo, alcuni Stati democratici reagiscono a sfide come il terrorismo pretendendo un accesso totale alle informazioni circolanti. E non solo alle comunicazioni dei terroristi, ma anche a quelle di tutti i cittadini e alle tecnologie utilizzate. Questo approccio può avere conseguenze gravi. La vicenda delle elezioni annullate in Romania, di cui parlavo prima, è emblematica: per paura di infiltrazioni da potenze straniere, è stata invalidata l’espressione del voto, comprimendo così i principi democratici».
Come si possono bilanciare l’innovazione tecnologica e il rispetto dei diritti?
«Anche con le migliori intenzioni, si rischia di compromettere valori fondamentali. Non possiamo affidarci al wishful thinking: servono soluzioni valide su scala globale, per quanto difficile possa essere muoversi in queste dinamiche complesse. Tuttavia, ne va del nostro futuro, perché queste questioni riguardano non solo la vita quotidiana, ma anche la ricerca scientifica, la formazione delle decisioni politiche e l’organizzazione degli Stati.
Un altro esempio di uso improprio della tecnologia, sebbene con fini apparentemente positivi, è stato sanzionato di recente dal Garante europeo per la protezione dei dati personali. Una campagna di sensibilizzazione della Commissione Europea, pur mossa dalle migliori intenzioni, ha utilizzato i social network per veicolare messaggi basandosi sull’orientamento politico dei destinatari. Questo ha comportato l’uso della profilazione politica per rendere la campagna più efficiente. Una condotta giustamente censurata dal Garante, in quanto uso improprio della tecnologia, anche se finalizzato a un obiettivo positivo». ©