Quando l’Intelligenza artificiale diventa un collega delle risorse umane: regole, rischi e soluzioni per le startup

Per le aziende grandi e piccole che spesso fanno leva sull’automazione per scalare i processi è fondamentale comprendere le implicazioni legali sull’utilizzo di AI per non incorrere in violazioni normative e danni reputazionali. Le domande degli startupper, le risposte dell'avvocato

Mag 16, 2025 - 04:58
 0
Quando l’Intelligenza artificiale diventa un collega delle risorse umane: regole, rischi e soluzioni per le startup

Negli ultimi anni l’uso dell’intelligenza artificiale (AI) nei processi di selezione del personale ha preso piede, anche tra le startup italiane. Algoritmi e sistemi di AI generativa sono ormai strumenti diffusi per analizzare curricula, predisporre domande di colloquio e persino valutare soft skill tramite simulazioni.

Leggi anche: Quando il mondo è il proprio ufficio. Telelavoro e nomadi digitali: le regole per gli startupper

Tuttavia, l’introduzione dell’AI Act europeo (Regolamento UE 2024/XXX) e la crescente attenzione al tema delle discriminazioni algoritmiche obbligano oggi le startup a rivedere le proprie procedure di reclutamento e i contratti con i fornitori di software HR.

alessandro tarducci avvocato delle startup

Per le startup innovative, che spesso fanno leva sull’automazione per scalare i processi, è fondamentale comprendere le implicazioni legali dell’utilizzo di AI generativa nei processi di hiring, per non incorrere in violazioni normative e danni reputazionali.

Perché l’AI nei processi HR è considerata ad alto rischio

L’AI Act, approvato nel 2024 e in fase di implementazione definitiva nel 2025, classifica i sistemi AI utilizzati nella selezione del personale come sistemi ad alto rischio. Questo significa che l’utilizzo di questi strumenti è legittimo solo se rispettano:

– Requisiti rigorosi di trasparenza (art. 13 AI Act);

– Supervisione umana effettiva (art. 14 AI Act);

– Analisi di conformità e valutazioni d’impatto sui diritti fondamentali (art. 9 AI Act).

L’obiettivo è evitare che l’algoritmo produca discriminazioni indirette o automatizzi decisioni prive di controllo umano.

Le principali criticità per le startup

L’AI Act individua una serie di criticità tipiche dell’uso di AI nei processi di selezione del personale:

Bias nei dati di addestramento: se l’algoritmo è stato addestrato su dataset squilibrati, è probabile che riproduca pregiudizi di genere, etnia o età.

Mancanza di trasparenza: i candidati devono essere informati sul fatto che i loro dati sono trattati da un sistema di intelligenza artificiale.

Assenza di supervisione: l’AI Act impone che il processo decisionale resti sotto controllo umano, con possibilità di revisione e annullamento delle decisioni automatizzate.

Cosa fare per essere in regola

1. Valutazione d’impatto sull’AI (AI Impact Assessment)

La startup deve eseguire una valutazione d’impatto sui diritti fondamentali (obbligo previsto dall’art. 9 AI Act), analizzando:

– La qualità dei dati impiegati.

– I potenziali rischi di discriminazione.

– Le misure adottate per prevenire pregiudizi o esiti ingiustificati.

2. Trasparenza nei confronti dei candidati

È obbligatorio:

– Informare chiaramente i candidati che un algoritmo AI è coinvolto nel processo di selezione.

– Dare la possibilità di chiedere chiarimenti sulle decisioni automatizzate (art. 13 AI Act).

3. Supervisione e intervento umano

Ogni decisione basata su AI deve essere verificabile da un essere umano, che può correggere o revocare l’esito proposto dall’algoritmo (art. 14 AI Act).

Quali obblighi nei contratti con i fornitori di AI HR

Se la startup utilizza un software sviluppato da terzi, è essenziale stipulare un contratto che contenga:

– Obbligo di aggiornamento e audit del software, per garantire la conformità alle normative UE.

– Clausole che regolino la responsabilità in caso di discriminazioni o danni derivanti dall’uso del software.

-Previsioni sulla valutazione dei dati di training, con garanzia che i dataset siano rappresentativi e aggiornati.

Sanzioni per le violazioni dell’AI Act

Le sanzioni per il mancato rispetto degli obblighi relativi ai sistemi di AI ad alto rischio sono molto severe:

– Fino a 30 milioni di euro o il 6% del fatturato mondiale annuo, a seconda di quale valore sia superiore.

– Sospensione o ritiro del sistema AI dal mercato UE.

Caso pratico

Una fintech italiana ha implementato un sistema AI per la pre-selezione dei candidati, scremando automaticamente i CV in base a parametri prestabiliti. Dopo la pubblicazione dell’AI Act, l’azienda ha:

– Rivisto i processi, prevedendo colloqui obbligatori con HR umani per ogni short list generata dall’AI.

– Aggiornato la privacy policy, specificando l’uso di strumenti di intelligenza artificiale e i diritti dei candidati.

– Redatto una AI Impact Assessment, documentando i criteri di non discriminazione.

Risultato? Un miglioramento nella percezione di trasparenza e fiducia da parte dei candidati, con una crescita della retention dei talenti.

Conclusione

L’introduzione di sistemi di AI generativa nei processi HR è un’opportunità, ma anche un terreno minato sotto il profilo legale. Per le startup è fondamentale:

– Documentare ogni fase di selezione e supervisione.

– Prevedere contratti chiari con i fornitori di software.

– Coinvolgere un legale esperto in privacy e AI per la valutazione dei rischi e l’implementazione delle policy.

La tua startup usa AI nei processi di recruiting? È il momento di verificare la compliance e rafforzare le tutele legali.