Unione Europea: La proposta di legge sull’intelligenza artificiale

Home / Blog / Unione Europea: La proposta di legge sull’intelligenza artificiale

Negli ultimi anni si e’ assistito ad un importante sviluppo dell’intelligenza artificiale (IA) in tutto il mondo.

Dal punto di vista dell’occupazione, sono state sollevate preoccupazioni sui rischi potenziali dell’IA, tra cui la minaccia che essa rappresenta per numerosi posti di lavoro e la possibilità di discriminazioni illegali. In particolare, i processi interni, tra cui l’assunzione, la gestione delle prestazioni e le azioni disciplinari, potrebbero esporre i datori di lavoro ad azioni per discriminazione derivanti da presunti problemi con le indicazioni visive o audio o dalla mancata adozione di misure ragionevoli per i candidati con disabilita’. Inoltre, a causa dell’apprendimento automatico, i datori di lavoro corrono il potenziale rischio di non essere in grado di dimostrare una sufficiente trasparenza nell’uso dei sistemi di IA nei loro processi decisionali per contrastare pretese di trattamenti ingiusti. Potrebbero inoltre essere sollevate questioni relative al monitoraggio dei dipendenti di cui i datori di lavoro dovranno essere consapevoli e di cui le autorità di regolamentazione dei dati, tra cui l’ICO del Regno Unito, hanno parlato in tempi recenti.

La possibilità di sviluppare leggi e regolamenti che rispondano adeguatamente ai progressi dell’IA come forza innovativa, senza limitare i diritti fondamentali degli individui, è una questione che è oggetto di dibattito da tempo.

L’Unione europea, attraverso la proposta di legge sull’IA della Commissione europea, si e’ posta come obiettivo la risoluzione di tali questioni. L’Artificial Intelligence Act avrà un impatto globale, poiché si applicherà a:

  • organizzazioni che forniscono o utilizzano sistemi di IA nell’UE; e
  • fornitori o utenti di sistemi di IA situati in un Paese terzo (compresi Regno Unito e Stati Uniti), se l’output prodotto da tali sistemi viene utilizzato nell’UE.

La legge, la cui adozione è attualmente prevista per la fine del 2023, segue un approccio basato sul rischio e cerca di affrontare i potenziali problemi posti dall’IA applicando alcuni requisiti obbligatori di conformità ai fornitori e agli utenti, assegnando le applicazioni dell’IA a quattro categorie di rischio e regolamentando solo quanto strettamente necessario per affrontare gli specifici livelli di rischio.

Per i sistemi di intelligenza artificiale ad alto rischio che hanno un impatto sul contesto occupazionale, la legge propone requisiti obbligatori che le organizzazioni devono rispettare, che includono:

  • creazione di un sistema di gestione del rischio;
  • Formazione e governance dei dati;
  • Documentazione tecnica;
  • Tenuta dei registri;
  • Supervisione umana;
  • Accuratezza, solidità e cybersicurezza;
  • Valutazione della conformità e registrazione nel database dell’UE.

Anche per le altre categorie di rischio autorizzate, tali requisiti dovranno essere rispettati.

Il testo finale della legge è soggetto a intense negoziazioni tra la Commissione europea, il Consiglio dell’UE e il Parlamento dell’UE. Tuttavia, è chiaro che le organizzazioni dovranno essere in grado di spiegare come funziona il loro uso dell’IA e dimostrare trasparenza nella tenuta di registri adeguati di dati, decisioni, policy e protocolli relativi ai risultati dell’IA.

In caso contrario, la legge prevedera’ importanti sanzioni pecuniarie (fino a 30 milioni di euro o sanzioni pari al 6% del fatturato totale annuo), a seconda della gravità della violazione.

Le organizzazioni che operano nell’UE e che sono interessate ad assicurarsi i potenziali vantaggi dell’IA, garantendo al contempo che la loro attività sia mitigata dai potenziali rischi per l’occupazione, dovranno adottare misure pratiche per verificare e migliorare la loro attuale policy di conformità.