“Riflessioni e consigli operativi sulle deleghe previste nella Legge Italiana sull’Intelligenza Artificiale n. 132/2025”
Indice:
1) Premessa: l’orientamento di lungo termine.
2) Il rischio di un vuoto normativo.
3) La Legge di Moore, la solitudine del potere esecutivo e l’isolamento del potere legislativo.
4) Le teorie del pericolo associato all’Ai.
5) Il potenziale inganno dietro i buoni propositi sulla sicurezza.
6) Le raccolte di firme e gli appelli alla prudenza.
* * *
1) Premessa: l’orientamento di lungo termine.
Alla luce della Legge 132/2025 sull’Intelligenza Artificiale (di seguito Ai) che prevede un certo numero di deleghe operative è ben difficile non svolgere alcune considerazioni sul vasto arcipelago di suggerimenti che pervengono a tema di sicurezza dell’Intelligenza Artificiale (di seguito Ai) e che vorrebbero orientare il lavoro dei c.d. policy makers europei, fra cui anche il legislatore Italiano.
Posto che tutti siamo d’accordo sul fatto che la sicurezza è un elemento irrinunciabile si tratta di distinguere su “quanto” siamo d’accordo. Fermo restando che un numero davvero ridotto di personalità al governo di una nazione sembra essere realisticamente documentato (o viene adeguatamente suggerito) in modo tale da poter prendere una decisione realmente consapevole su questo argomento.
Questa considerazione non è di poco momento. Il legislatore spesso è chiamato a svolgere una funzione di indirizzo che salvaguardi lo sviluppo in alcuni settori (e le tecnologie come la scienza sono fra questi) che vengono considerati ad alto potenziale aggiunto. Non sono veri e propri investimenti sul futuro. Ma su di un possibile futuro. Guardando avanti. Pensando oggi a ciò che potrebbe essere meglio domani. L’attività del legislatore in questi casi è orientata a garantire il miglior lascito alle generazioni che verranno. Nell’ottica di un lungo periodo. Pertanto ai fini del presente articolo definiamo questo aspetto come orientamento di lungo termine.
Prima di meglio prendere in considerazione il significato di questo “orientamento” è bene sottolineare che la capacità di essere adeguatamente informati per un governo rappresenta, in un settore come questo, un vantaggio competitivo enorme. Paradossalmente maggiore rispetto agli impieghi di capitali. Siamo di fronte a una frontiera e come tale l’esplorazione tende ad azzerare alcuni vantaggi o svantaggi di cui usualmente le nazioni si avvantaggiano o soffrono nella competizione.
In questo senso il legislatore Italiano corre un rischio potenziale e in particolare lo corre il potere esecutivo, in persona del Premier. Quello di essere quasi inarrivabile. L’esecutivo dovrebbe fare attenzione a non essere circondato da una pletora di personaggi che riuscendo a scavalcarsi l’uno con l’altro, attraverso metodologie servizievoli quanto opportuniste, facciano di compiacimento buon metodo e discreta vendita delle proprie professionalità più che altro allo scopo di perorare le cause lobbiste di gruppi d’interesse. Raggiungendo le stanze dei bottoni e fornendo indicazioni più strumentali che adeguate. Utili ma non audaci. Lungimiranti nell’ottica di non commettere errori ma non di ottenere i migliori risultati. Molti Governi soffrono questo problema nella contemporaneità. E infatti i loro lavori finiscono per essere inefficaci perché “sganciati” rispetto alla realtà circostante. Quest’ultima filtrata da consulenze viziate da pregiudizi o interessi. E’ legittimo mettere in guardia il Governo Italiano dal non commettere lo stesso errore.
Giacché se così fosse, il meccanismo delle deleghe voluto dalla Legge 132/2025 correrebbe il rischio di essere il riflesso dello specchio di questo modus procedendi. Un riflesso pericolosamente di Dorian Gray.
2) Il rischio di un vuoto normativo.
Tornando ora all’orientamento relativo agli effetti pratici di cui all’applicazione della Legge e a quello che ci si aspetta che accada in termini di sicurezza e controllo dal punto di vista della scienza del diritto questo tipo di orientamento si è talvolta sintetizzato nella creazione dei c.d. testi unici che disciplinano alcune materie consentendo poi una serie di “innesti” che equilibrano e adeguano una serie di fattispecie interne al testo unico. In molti casi adeguandolo con dei micro interventi chirurgici per evitare delle criticità, degli utilizzi distorsivi, colmare delle lacune e includere alcuni svolgimenti che il mercato o anche gli usi e i consumi hanno messo in evidenza.
Lo scopo principale è quello di evitare che ci siano delle “terre di nessuno”: luoghi fisici di interazione tra persone dove il diritto si sviluppa senza essere previsto. In un certo senso quando ciò accade è come se il diritto non ci fosse. Un esempio abbastanza calzante lo possiamo ottenere facendo un lungo salto indietro nel tempo e andando a quando alcuni contenuti per i primi videogames su home computer non prendevano in considerazione le procedure informatiche che consentivano di copiare e replicare software originale. Per un breve periodo di tempo la tecnologia si era evoluta nella sua nicchia di consumatori e aveva reso un certo tipo di “pirateria” (termine che ha qualificato l’attività del pirata informatico prima dell’avvento del più esteso concetto di hacker) pur se non consentita difficilmente perseguibile. Perchè mancavano delle norme effettivamente ritagliate in modo tale da essere concepite appositamente sul come la violazione veniva posta in essere. Sul modo. Un modo che si evolveva velocemente e anticipava i tempi. Tuttavia il diritto non ammette l’inesistenza di strumenti utili a salvaguardare le ragioni a difesa degli interessi dei singoli come della collettività. Una delle sue forze è proprio quella di poter sempre fare appello all’applicazione di norme già esistenti quantunque non ad hoc, per relazione, similitudine, persino prossimità alla fattispecie contra legem che si vuole contrastare. Quindi trovando una risposta, all’occorrenza, anche in fonti del diritto più generiche, più generali ma potenzialmente utili per ricomprendere anche quelle prassi che in un primo momento sembrano, pur essendo vietate, non trovare il miglior riferimento normativo. Il tutto per identificare, inibire, reprimere una violazione e applicare la giusta restituzione alla parte lesa.
Questo presupposto, pur se sinteticamente e metaforicamente introdotto da un esempio di facile comprensione, ci proietta nella difficoltà, avuto riguardo al “come”, ottenere questa sicurezza nello sviluppo delle Ai.
I suggeritori del potere esecutivo come visto potrebbero non essere efficaci. Il mercato e l’innovazione potrebbe correre più veloce della capacità del legislatore di provvedere. La sicurezza e il controllo corrono il rischio di trasformare una falla nella proverbiale diga in una insanabile frattura.
3) La Legge di Moore, la solitudine del potere esecutivo e l’isolamento del potere legislativo.
Sembra quindi opportuno sottolineare che l’innovazione tecnologica è in rapida evoluzione e spesso crea sinergie che massimizzano un concetto che in questo momento è avverso alla capacità dei legislatori di intervenire in modo rapido ed efficace: la legge di Moore.
In sintesi si tratta di una teoria empirica formulata nel 1965 da Gordon Moore (cofondatore di Intel), che afferma che il numero di transistor su un microchip raddoppia all’incirca ogni 18-24 mesi. Questa tendenza ha guidato per decenni lo sviluppo dell’elettronica, portando a una crescita esponenziale della potenza di calcolo perché, sempre in sintesi, parla di un’accelerazione tecnologica tale per cui nel settore chiave di microcircuiti essa raddoppia ogni 18 mesi. E per effetto quadruplica ogni 3 anni.
Questa accelerazione non rende facile restare al passo con i tempi. Il legislatore si muove in ritardo. Arrivati a un certo punto infatti anche solo il tempo necessario per riunire il potere legislativo in una consultazione è troppo lento e a fine lavori gli stessi possono persino considerarsi “sorpassati” se non addirittura vecchi. Non è errato affermare che l’esecutivo corre il rischio di muoversi in un costante ritardo, il potere legislativo invece di essere bypassato dalla pratica e che similmente a un moltiplicatore entrambi perdono in rapidità in modo inversamente proporzionale all’accelerazione della legge di Moore. Ai fini di questo articolo chiamiamo questi due effetti relativi all’impatto trasformativo dell’Ai: solitudine del potere esecutivo e isolamento del potere legislativo.
A beneficio del letto è opportuno riassumere che ho introdotto due concetti:
1) L’orientamento di lungo periodo.
2) La solitudine del potere esecutivo e l’isolamento del potere legislativo.
Tornando quindi ai testi unici, questi ultimi prevedono degli interventi adeguativi. Dei pacchetti aggiuntivi. A volte si coordinano con altre Leggi che approfondiscono di più e meglio determinati aspetti tenuto conto del mercato o dei protagonisti del mercato. Il tutto nell’ambito dei macro sistemi come l’armonizzazione delle Leggi all’interno della U.E. oppure la geopolitica che definisce a volte scenari complessi nelle relazioni commerciali internazionali.
Se un testo unico non viene pedissequamente innovato e adeguato, “aggiustato” se volessimo utilizzare un termine più da riparatori (magari proprio di computer), si crea una micro lacuna che per essere colmata deve andare alla ricerca di un’applicazione del diritto per relazione. Proprio come abbiamo visto nell’esempio della vecchia pirateria informatica. Estrapolando cioè altrove un concetto che possa andar bene anche al caso concreto.
Questa ricerca in un campo in forte evoluzione come l’Ai crea dispersione e conflitti di orientamento. Antepone le esigenze della collettività alla stabilità e all’efficienza del settore. Tuttavia alcuni potrebbero filosoficamente osservare che primarie esigenze della collettività sono la stabilità e l’efficienza però in questo caso la complicazione annida nel fatto che la tecnologia trasformativa della Ai non permette di identificare in modo sufficientemente definito e circoscritto il concetto di ciò che dovrebbe essere la stabilità e efficienza.
E’ stabile una tecnologia che non comporta per esempio rischi. E’ efficiente una tecnologia che consente di massimizzare e valorizzare quei contenuti della ricerca e delle applicazioni che ottimizzando le risorse produce un vantaggio per la collettività. E non un pericolo.
Senza definizioni di confine non solo il legislatore fatica a stare al passo con l’accelerazione tecnologica ma potrebbe addirittura non trovare una retta via per arrivare al risultato pratico finale.
4) Le teorie del pericolo associato all’Ai.
Tornando quindi alla concettualità di fondo della sicurezza tecnologica delle Ai proviamo a partire dal significato che gli potremmo dover attribuire. Cerchiamo cioè di ribaltare l’equazione tentando di eliminare il pericolo maggiore: la dispersione. Anzitutto potremmo essere concordi con il presupposto che il concetto di sicurezza in questo caso non è il significato suo proprio letterario, cioè della parola come potremmo estrapolare dai dizionari passati e presenti.
Il teorico della sicurezza a tutto campo che identifica la sicurezza attraverso il pericolo assoluto esistenziale, cioè la fine del Mondo come lo conosciamo, ha risolto il problema più con un gioco a somma zero. Propone cioè l’idea che l’evento distruttivo coincide con l’Ai. Che prende consapevolezza di sé e decide che l’umanità è una minaccia per se stessa. Come tale va eliminata. A ben guardare questa è la riproposizione in chiave scadente di una serie di trame cinematografiche. Un pericolo inarrestabile e totalizzante al verificarsi del quale non c’è possibilità di scampo perché al minimo errore prende il controllo assoluto e serve più che altro per mettere paura. E’ solo un altra versione del mito dell’uomo nero. Non è razionale. La paura essendo saggezza verso il pericolo è uno strumento per ottenere attenzione.
Colui il quale la utilizza tende a profetizzare sciagure. Punta ad un diverso concetto di controllo.
Quindi opera in chiave “psy ops” cioè prova a creare le condizioni per disturbare, destabilizzare e disorientare, quasi sempre attraverso elementi come la paura usata come bastone e la carota “curativa” del sistema di controllo. Il quale diventa una sorta di pulsantiera magica che eviterebbe tutto quello che di catastrofico potrebbe accadere. Riflettendoci con attenzione questo potrebbe sembrare una parte della metodologia adottata in chiave ispirativa che ha portato all’Ai Act europeo (che non a caso è stato destinatario di fondate critiche per l’esagerazione burocratica, più dannosa che produttiva).
Di fatto, allo stato attuale, nel panorama mondiale, assistiamo al proliferare di testi che replicando alcune delle più note “teorie” del pericolo associato all’Ai (più che altro perchè insistite e ripetute in special modo tramite internet ma non per questo necessariamente verosimili). E quasi tutte queste “teorie” finiscono per dire le stesse cose e propongono quelli che, pur con diverse denominazioni, sono dei protocolli di sicurezza (la pulsantiera magica). Queste “teorie” vanno tutte in crisi e necessitano di essere riscritte ogni volta che prende campo un aspetto che potenzia le Ai. Un upgrade di computer per il calcolo quantistico. Un processore più potente in grado di garantire prestazioni maggiori. Persino delle ricerche che potrebbero rivelare come creare macchine intelligenti con delle forme di simbiosi umana in chiave transumanista. Questo accade per via del fatto che siccome di base lo scopo è mettere paura, la stessa non si può controllare. La paura è la peggior fonte di ispirazioni per i policy makers nell’ambito della tecnologia.
E una buona parte delle nazioni coinvolte in questa rivoluzione tecnologica potrebbe averlo già ben compreso.
5) Il potenziale inganno dietro i buoni propositi sulla sicurezza.
Siamo infatti sicuri che le nazioni che si dicono “impegnate” sul fronte della sicurezza dell’Ai o che si palesano come “volenterose” siano anche sincere? O c’è il rischio che stiano (strategicamente) simulando di voler apparentemente dare credito a movimenti e/o enti sovrannazionali che predicano il rischio estintivo e come tale l’esigenza di controllo/sicurezza più per indurre altre nazioni a farlo?
Proviamo a fare un ragionamento applicando dei precetti non alla vita religiosa bensì alla geopolitica internazionale in chiave Ai, basati sui celebri concetti espressi de Machiavelli ne “Il Principe”.
Recentemente alcuni Autori hanno salutato con interesse, per esempio, il “Frontier AI Risk Management Framework” cinese, anche ribattezzato “the framework” a mente del quale si identificano alcune macro aree di rischio nello sviluppo delle Ai. Quasi sempre basate su “episodi” verificatisi durante l’addestramento che vengono definiti pericolosi (il classico sintomo da non ignorare). Sulla base di queste possibili criticità si procede con un numero variabile di sistemi di allerta.
Le principali aree di pericolo, che peraltro sono state ampiamente studiate e valutate anche nella stesura dell’Ai Act Europeo sarebbero:
1) reati informatici,
2) rischi biologici e chimici,
3) persuasione e manipolazione,
4) inganno e intrighi strategici,
5) ricerca e sviluppo autonomi e incontrollati sull’intelligenza artificiale,
6) autoreplicazione
7) collusione
Sempre in Europa, per quanto riguarda i sistemi di allerta, nel compendio dei testi che vorrebbero suggerire soluzioni (e non solo limitarsi a indicare il pericolo potenziale), sono tutt’altro che chiari ma funzionano quasi tutti come una versione miniaturizzata dei celebri livelli di allerta “defcon” noti nella U.S. Armed forces.
Tutto ciò considerato, tornando invece all’esempio della Cina, guardando all’aspetto vincolante, quest’ultimo in realtà non pare esserci. E questa è davvero una differenza di non poca rilevanza.
Osservando i lavori del “World Ai Conference” di Shangai e prendendo per autorevoli le condivisioni dell’Associazione “China Ai Safety & Development” quello che sembra più interessante non è quanto viene scritto o previsto a livello di potenziali leggi (tutto molto saggio e ben argomentato) bensì quello che manca! Quello che non c’è!
Ben inteso, si tratta di lavori importanti, interessanti e autorevoli. Di assoluta valenza e prestigio internazionale. Che vanno sicuramente nella direzione più responsabile.
Siamo però grossomodo di fronte alle solite procedure di monitoraggio – intervento pensate dai teorici della super crisi internazionale esistenziale che danno per scontato che l’evoluzione dell’Ai presuppone quelle che chiamano “Ai malevole” cioè animate da intenti decettivi e manipolativi ai danni della razza umana. Torniamo sempre al paradigma della sua eliminazione.
Ecco allora che a conti fatti un pò ovunque e forse alcuni potrebbero anche ipotizzare in modo un pò “sospetto”, troviamo le stesse edulcorate procedure di cui si dibatte in Europa. In realtà di cui si dibatte in tutto il Mondo. Con la differenza che alcuni non si limitano alla loro semplice previsione a mò di studio ma sembrano crederci più di altri.
La sensazione potrebbe anche essere che in alcune Nazioni abbiano deciso che questo sia quello che vogliono farci vedere.
Temo che sia ragionevole supporre o in ogni caso non sarebbe sbagliato prendere in considerazione, che in realtà l’adozione di queste teorie difensive, di supervisione e controllo serva più che altro per “far credere” che ci sia una convergenza e una cooperazione internazionale ma che di fatto lo sviluppo dell’Ai non è impostato su questi parametri di sicurezza. E’ molto più una corsa a realizzare i propri interessi prima che lo facciano altri. A mantenere cioè una supremazia tecnologica. Anche dotando le Ai dell’hardware più innovativo e avveniristico facendo appello a diversi campi: dalla fisica quantistica alla scienza, dalla meccanica alla tecnologia. Dietro la parvenza di controllo e procedure tese a bloccare tutte le possibili evoluzioni malevole alcune nazioni in realtà vedono nell’Ai non tanto la rockstar del momento, come l’hanno definita alcuni, bensì, metaforicamente, come il bomber o il goleador della squadra e per farlo segnare cercano di orientare tutti gli altri giocatori della squadra a dargli supporto. Sempre rimando in chiave metaforica sportiva il fatto che si predichi la sicurezza dando impressione di essere pronti a fermare ogni processo al primo segnale di rischio è solo pretattica: fumo negli occhi.
Il significato quindi potrebbe essere: “facciamo finta di andare piano, diciamo cosa vogliono sentirsi dire così se pensano che veramente viaggiamo con il freno a mano tirato magari lo fanno anche loro. Nel frattempo noi arriviamo per primi al traguardo”. Anche questo è un rischio. Un rischio umano e come tale da prendere molto sul serio.
6) Le raccolte di firme e gli appelli alla prudenza.
Nel contempo proliferano, da alcuni anni, degli appelli dove centinaia di persone facendo valere il minimo comune denominatore del prestigio che rivestono in quanto scienziati, filosofi, imprenditori, politici ecc. firmano documenti con cui chiedono o di fermare la ricerca sull’Ai o di migliorare la sicurezza. In un primo momento hanno ottenuto in effetti che alcune nazioni, come l’America del Presidente Biden decidessero di sospendere un certo tipo di ricerca.
Questo tipo di appelli però ha subito un’evoluzione; in un primo momento sembravano sinceramente orientati a fermare lo sviluppo dell’Ai per “vederci più chiaro”, per evitare che la ricerca procedesse per tentativi. Stabilendo delle regole finalizzate a procedure che fossero meno sperimentali e pionieristiche. Successivamente però si è appreso che alcune delle personalità che finivano per firmare (e anche sostenere) queste raccolte di firme, questi appelli avevano conseguentemente dei potenziali conflitti d’interesse. Un esempio potrebbe essere quello dell’imprenditore il cui intento non è veramente quello di bloccare una ricerca pericolosa ma di dare più tempo alla propria società per colmare il gap. Ritardando tutti. Oppure fra chi aderisce potrebbe esserci chi è più orientato a domandare regole stringenti, in ogni caso sempre migliorabili, per promuovere se stesso in quanto consulente o il proprio gruppo di interessi come supervisore di questo controllo.
E’ molto difficile valutare l’effettiva buona fede di tutti gli aderenti a queste iniziative di sensibilizzazione.
Il Governo Italiano (a differenza dell’Europa) sembra essersi posto una parte di questi interrogativi e la sensazione è che non ci sia la volontà di non adottare a scatola chiusa “schemi e schede” di terzi. Pur se altri affermano di averli adottati.
Nel contempo sull’argomento Ai l’ipotetica cabina di regia del Governo sembra orientata a delle preclusioni che guardano più alle persone e al credito di cui godono per ragioni che poco hanno a che vedere con il vantaggio che sono in grado di apportare. Bisognerebbe fare molta attenzione a questo presupposto perché esso rappresenta uno storico limite del metodo Italiano che si è sempre basato sul passaparola per introdurre le persone gradite più che valutare l’opera che potrebbero apportare e il loro talento.
Così rinunciando a circondarsi di quegli individui che siano le persone giuste al posto giusto affinchè, se del caso, facciano la cosa giusta. La storia ha provato a insegnarci molto in questo senso. Ma tendiamo a ripetere gli stessi errori.
Avv. Marco Solferini.
