Con la Legge 132/2025 il Governo Italiano ha promulgato le: “disposizioni e deleghe in materia di intelligenza artificiale”.
Nei miei precedenti due articoli dal titolo: “Nasce la Legge italiana sull’intelligenza artificiale” e “disposizioni per Avvocati e Magistrati nella Legge italiana sull’Intelligenza Artificiale” mi sono occupato di alcuni aspetti. Un primo avente carattere più generale e introduttivo, un secondo inerente alle possibili evoluzioni pratiche nell’importante settore del lavoro con particolare interesse per l’attività degli Avvocati e Magistrati.
Ora invece cercherò di approfondire alcuni passaggi che guardano alla produttività e alle imprese. A titolo personale giudico positivamente questa legge. Alcune scelte espositive mi sembrano di particolare interesse, sembrano indicare la strada, che personalmente condivido, nell’ambito degli investimenti per lo sviluppo dell’Ai e della sicurezza per il miglior controllo / gestione di questa importante e trasformativa innovazione tecnologica.
Pare opportuno cominciare con una prima lettura del contenuto dell’art. 16 rubricato nel Capo II (disposizioni di settore) e avente quale denominazione: “Delega al Governo in materia di dati, algoritmi e metodi matematici per l’addestramento di sistemi di intelligenza artificiale” a mente del quale il comma 1° prevede che: “Il Governo è delegato ad adottare, entro dodici mesi dalla data di entrata in vigore della presente legge, uno o più decreti legislativi per definire una disciplina organica relativa all’utilizzo di dati, algoritmi e metodi matematici per l’addestramento di sistemi di intelligenza artificiale senza obblighi ulteriori, negli ambiti soggetti al regolamento (UE) 2024/1689, rispetto a quanto già ivi stabilito”.
Il richiamo al regolamento europeo lascia intendere che anche in questo caso i metodi di addestramento che vengono in considerazione, datosi il riferimento ai dati, agli algoritmi e ai metodi matematici, siano quelli che riguardano prevalentemente la formazione, accesso e utilizzo di dataset.
Pertanto, volendo adottare la pur superata separazione in tre parti, cioè l’addestramento supervisionato, non supervisionato e rafforzato sono tecniche che si basano su selezione dei dati, creazione del modello, addestramento dello stesso, più un secondo pacchetto, a seguire, con la valutazione e l’implementazione.
La norma italiana orienta questa fase dell’addestramento verso i metodi più innovativi ma anche più difficili da conoscere perché di fatto segreti, attualmente in uso/studio in circa una dozzina di società nel Mondo. Tali metodologie si possono ricondurre a un sistema che molti hanno definito innovativo ma che in realtà era già stato studiato e testato fin dagli anni 60/70 nello Xerox Park di Palo Alto. Si tratta del c.d. reasoning LLM (un modello linguistico orientato al ragionamento) il quale, se dotato di una sufficiente potenza di calcolo (che in questo momento in Italia potrebbe non esserci) comporta il ragionamento multi modale, il deep think (termine ad alto impatto dove in realtà ciascuno tende a ricondurre spiegazioni diverse, a volte anche difficili da orientare) e il ragionamento esteso che sembra essere il più interessante guardando ai dati disponibili da parte di alcune grandi imprese americane. Significa, in parte, ideare più soluzioni parallele, anche se tra loro divergenti, per poi scegliere in rapida successione (in quello che secondo alcuni sarebbe un endurance cognitivo), quella che sembra più logica e coerente. Tale ipotesi è alla base di numerosi studi sulle smart city.
E’ possibile e lo scrivente del presente articolo ritiene probabile che nuovi chipset e una maggiore capacità/potenza di calcolo computazionale apra a metodi di apprendimento multilivello e auto-apprendimento cognitivo organizzato. Tuttavia, com’è stato validamente osservato risulta difficoltoso rinchiudere in una norma le previsioni di sviluppo di una tecnologia che oltre ad essere in rapida accelerazione si orienta verso scenari difficili da prevedere obbligando, a volte, gli interpreti a lavorare su delle supposizioni. Secondo un criterio di fantasia / paredolia. Cercando cioè di ricondurre il possibile futuro prossimo a un’idea già nota, in tutto o in parte, alla mente umana contemporanea.
Il comma 3° sempre dell’art.16 ha cura di precisare che: “Nell’esercizio della delega di cui al comma 1, il Governo si attiene ai seguenti principi e criteri direttivi:
- a) individuare ipotesi per le quali appare necessario dettare il regime giuridico dell’utilizzo di dati, algoritmi e metodi matematici per l’addestramento di sistemi di intelligenza artificiale, nonché i diritti e gli obblighi gravanti sulla parte che intenda procedere al suddetto utilizzo;
- b) prevedere strumenti di tutela, di carattere risarcitorio o inibitorio, e individuare un apparato sanzionatorio per il caso di violazione delle disposizioni introdotte ai sensi della lettera a)”;
Ad una prima lettura sembra interessante, soprattutto nella logica delle deleghe istitutive e attributive agli enti per il controllo e il perfezionamento dello sviluppo di queste tecnologie, il coordinamento con alcuni specifici ed individuati “regimi giuridici” (lett a). Avrebbe il potenziale pregio di importare il notevole compendio di quelli strumenti di tutela più classici e ben conosciuti dal nostro diritto quali possono essere per esempio quelli di natura inibitoria e risarcitoria. Sul punto in diritto, su questa nuova tecnologia, non c’è molta giurisprudenza (salvo alcune pronunce riferibili ad alcuni aspetti del metaverso) quantunque la casistica sembra destinata ad essere potenzialmente ampia e variegata. Si tratta anzitutto di individuare la corretta chiave interpretativa e in questo ambito il riferimento sembrerebbe a ispirazione della proprietà industriale che in Italia vanta ottime chiavi interpretative. Non a caso il terzo punto (dopo le lett. a) e b) è:
- c) attribuire alle sezioni specializzate in materia di impresa le controversie relative alla disciplina introdotta ai sensi delle lettere a) e b) .
E’ utile sottolineare che una gran parte degli strilloni che da anni si affrettano a chiedere controlli esasperanti in ogni dove, indagini, approfondimenti e metodologie varie di blocco simili al copione di una sceneggiatura di una serie tv non si sono mai soffermati su questo aspetto. Ha senso introdurre dei sistemi di protezione e difesa che si avvalgono del diritto considerando anzitutto la sapienza del diritto. La scienza del diritto infatti, a differenza di quello che pensano i frustrati del pericolo imminente non è un pulsante che si attiva o che si spegne a piacimento: è una materia che si è sviluppata attorno al concetto di certezza. Affinché un provvedimento sia efficace quest’ultimo deve trovare nel diritto e non solo nel potere d’imperio, una legittimazione che rappresenta anche il fondamentale perimetro dissuasivo alla sua violazione. Non è sufficiente scrivere una norma: gli si deve poi infondere quel tratto di diritto vivente.
In questo consiste la nostra capacità, come sistema evoluto della scienza del diritto, di individuare, attivare e dare seguito a una legge. Non è solo come viene scritta ma è anche il contesto. Purtroppo un po’ di persone che non hanno studiato giurisprudenza pretendono di decidere in questo ambito come si dovrebbe procedere senza nemmeno sapere la differenza tra il diritto della proprietà industriale e quello commerciale come pure senza aver mai messo piede in una sezione di un Tribunale specializzata per esempio in materia di impresa. Per questi personaggi che impazzano sul web in siti anche ben concepiti basta tradurre le parole quindi si prende il testo della legge di qualche nazione che ha fatto bene, a detta loro, si fa taglia e incolla e il gioco è fatto. La realtà di alcuni teorici del supercontrollo e dell’Ai che distruggerà (non si sa perché) il Mondo è abbastanza lacunosa. E mette più paura dell’Ai.
Il Governo Italiano ha invece fatto una scelta opportuna, strategica e pratica.
L’art. 18, denominato: “Uso dell’intelligenza artificiale per il rafforzamento della cybersicurezza nazionale” al comma primo prevede: “All’articolo 7, comma 1, del decreto-legge 14 giugno 2021, n. 82, convertito, con modificazioni, dalla legge 4 agosto 2021, n. 109, dopo la lettera m -ter ) è inserita la seguente: «m -quater ) promuove e sviluppa ogni iniziativa, anche attraverso la conclusione di accordi di collaborazione con i privati, comunque denominati, nonché di partenariato pubblico-privato, volta a valorizzare l’intelligenza artificiale come risorsa per il rafforzamento della cybersicurezza nazionale”.
Si tratta di una precisazione importante e un aggiunta essenziale perché l’Italia deve colmare un gap che è andato aumentando nell’ultimo decennio a proposito della cybersicurezza. Questo ambito non solo rappresenta una frontiera all’avanguardia in una serie di scontri e incursioni frequentemente in essere da parte di collettivi sotto il controllo di stati avversari ma è anche l’ultima evoluzione del più contemporaneo scenario di eventuali conflitti su larga scala. Bisogna entrare nell’ottica di idee che non esiste una guerra fisica che non sia anticipata o influenzata da uno scenario “cyber”. Nella cybersicurezza gli attacchi, se efficaci, hanno ripercussioni certe e debilitanti avuto riguardo a tutte le forze di sicurezza fisiche: del mare, di terra e dell’aria. Nonché a un insieme di aspetti logistici che possono mandare in tilt la società contemporanea attraverso le sue infrastrutture, dalle reti elettriche ai sistemi di pagamento.
L’Ai in questo campo è essenziale e irrinunciabile datosi il vantaggio strategico delle altre nazioni e alleanze che stanno investendo in questo settore. Pur con tutte le necessarie cautele in questo ambito è una tecnologia così trasformativa che non essere all’avanguardia crea un rischio esistenziale. Tutti conoscono la funzione deterrente dell’arma atomica, per quanto limitante è basata sul concetto: se la usi, potresti poi riceverla per ritorsione. Un gioco a somma zero che dovrebbe evitare la distruzione totale. Lo stesso può dirsi per la cybersicurezza.
Volendo quindi proseguire, e dando a questo punto per sinteticamente individuata l’attività in oggetto relativamente all’Ai, quest’ultima viene poi affrontata nel capo III, “strategia nazionale, autorità nazionali e azioni di promozione” che si apre con l’art. 19: “La strategia nazionale per l’intelligenza artificiale è predisposta e aggiornata dalla struttura della Presidenza del Consiglio dei ministri competente in materia di innovazione tecnologica e transizione digitale”.
Tutto questo d’intesa con le Autorità nazionali per l’intelligenza artificiale di cui all’articolo 20, sentiti:
1) il Ministro delle imprese e del made in Italy per i profili di politica industriale e di incentivazione;
2) il Ministro dell’università e della ricerca per i profili relativi alla formazione superiore e alla ricerca;
3) il Ministro della difesa per gli aspetti relativi ai sistemi di intelligenza artificiale impiegabili in chiave duale;
Conclude poi l’articolo in questione: “ed è approvata con cadenza almeno biennale dal Comitato interministeriale per la transizione digitale (CITD) di cui all’articolo 8, comma 2, del decreto-legge 1° marzo 2021, n. 22, convertito, con modificazioni, dalla legge 22 aprile 2021, n. 55”.
Sembra quindi che ci troviamo in presenza di tre direzioni. Sempre supervisionate, e autorizzate. Una prima, come peraltro avevamo già visto in precedenza, ci porta verso lo sviluppo e l’innovazione che passa attraverso le imprese. Il noto ruolo di creativo che viene riconosciuto all’imprenditore da cui promana una serie di iniziative che riguardano l’economia e il commercio con evidenti implicazioni anche nel mercato del lavoro. La seconda è l’attività di ricerca e sviluppo. Tradizionalmente organizzata attraverso i poli universitari che dovranno vincere la sfida di formazione, innovazione ma anche di valorizzazione dei c.d. cervelli. Di coloro cioè che decideranno di impegnarsi successivamente proprio in questo settore in Italia o quantomeno in Europa.
Il terzo invece è la difesa dove c’è peraltro un richiamo ai sistemi duali tramite una terminologia particolare: “impiegabili in chiave duale”. Qui si dovrebbe aprire una parentesi in quanto la preminenza della difesa in chiave di sicurezza nazionale dovrebbe dargli la possibilità di intervenire ovunque quindi anche altrove per esigenze di sicurezza nazionale.
Il riferimento solo ai c.d. sistemi duali sembra una lacuna. Il termine deriva dall’inglese dove ha una diversa declinazione a seconda del settore. E’ possibile che la norma voglia riferirsi al concetto di “dual use”. E’ importante capire che alcune terminologie, specialmente di importazione USA assumono una vita propria. Una loro evoluzione, nel significato che le definisce all’interno del microcosmo degli ambienti di studio, laboratori e ricerca scientifica. Si pensi alla teoria dell’evoluzione linguistica tra città basata sui cerchi di influenza delle popolazioni che si toccano e si influenzano a vicenda provocando l’evoluzione di un termine a seconda della zona in cui viene utilizzata e delle genti che lo impiegano. Allo stesso modo è difficile individuare il significato attuale di sistemi duali se la matrice è quella inglese. Può essere a scopi didattici, filosofici e in linea di massima per svolgere considerazioni su ricerca e sviluppo utile ma può rivelarsi anche ondivago. Corre infatti il rischio che occorra prima dimostrare che lo sia, che siamo cioè in presenza di un sistema duale. Originando un confronto complesso. Potenzialmente quindi è una terminologia problematica in una legge che abbia degli scopi prefissati come questa.
Ne suggerisco il cambio con il termine dual technology di più facile interpretazione dal punto di vista in diritto. Il termine dual technology è considerato meno corretto se riferito a beni e servizi che meglio sono identificabili tramite le loro funzioni in chiave “dual use”. E’ spesso preferito, nella contrattualistica commerciale, questo termine perché di fatto le dual technology non sono una categoria chiusa. Anzi rappresentano una potenziale sfida nella loro individuazione. Usualmente vengono rivelate dopo un attività di ricerca che ne identifica la finalità principale. E si passa quindi al più semplice termine “dual use”. Molto di recente, appena poche settimane or sono rispetto alla stesura di questo articolo, possiamo trovare un valido esempio. Un efficace utilizzo di un agente Ai ha portato alla scoperta di innumerevoli potenziali nuovi antibiotici che potrebbero risolvere per esempio il drammatico problema, molto attuale, dei c.d. batteri resistenti. Un grande successo per la scienza e un notevole passo avanti per la cura del malato. Tuttavia il medesimo procedimento seguito è probabilmente in grado di sintetizzare ed elaborare anche dei virus. Se usato per studiare una cura come può essere un antibiotico nulla toglie all’ipotesi che venga impiegato anche per elaborare un virus che potrebbe diventare una potenziale arma biologica. Magari incrociato con alcuni altri patogeni a noi già noti. E letali. Guardando all’Ai in chiave complessiva e anticipando i risultati che nei vari campi possono portare potremmo essere in presenza di un applicazione pratica di una tecnologia che in questa fase è più gestibile, dal punto di vista in diritto con il termine dual technology. Perché consentirebbe una potenziale semplificazione per la sicurezza nazionale: tutto ciò che porta a quel risultato può essere considerato tale. Semplice e efficace.
Lo scopo della norma è quello di consentire l’utilizzo “pro” e vietare (o inibire) in ogni caso controllare l’eventuale utilizzo “contro”. Dobbiamo cioè poter prendere ciò che ci serve evitando di aprire una porta che potrebbe far entrare anche quello che ci condanna.
Per questa ragione occorrerebbe a mio avviso una preminenza del Ministero della difesa. Più facile da realizzare attraverso il concetto di dual technology.
Suggerisco inoltre a mezzo delle successive deleghe di introdurre un protocollo di congelamento di certune ricerche, in modo tale da fermarle e spostarle a una divisione ad hoc dove possano essere rivalutate. Una procedura di congelamento non significa rinunciare ma procedere con uno sviluppo diverso e diversamente supervisionato. Si ribadisce che la sicurezza, sana e responsabile, è essenziale.
Una sicurezza che nell’ottica di questa norma si realizza anche attraverso altri meccanismi di supervisione. Grazie alle Autorità incaricate alla supervisione e controllo. E allo sviluppo attraverso la creazione di una rete di investimenti molto simile a quella delle partecipazioni da parte di entità pubbliche (o partecipate dal pubblico) anche nel venture capital.
Anche a tal proposito già il comma 6° dell’articolo in commento recita: “È istituito il Comitato di coordinamento delle attività di indirizzo su enti, organismi e fondazioni che operano nel campo dell’innovazione digitale e dell’intelligenza artificiale” e quest’ultimo in base a quanto previsto dal comma 7°: “svolge funzioni di coordinamento dell’azione di indirizzo e di promozione delle attività di ricerca, di sperimentazione, di sviluppo, di adozione e di applicazione di sistemi e modelli di intelligenza artificiale svolte da enti e organismi nazionali pubblici o privati soggetti a vigilanza o destinatari di finanziamento pubblico, ivi comprese le fondazioni pubbliche o private vigilate o finanziate dallo Stato, che operano nel campo dell’innovazione digitale e dell’intelligenza artificiale”.
Mentre per quanto riguarda le autorità nazionali per l’intelligenza artificiale subentra l’art. 20. Fermo restando quelle attribuzioni, altamente specifiche, che vengono comunque demandate ad Autorità note per la loro capacità però di elaborazione e interpretazione come sono Banca d’Italia, Consob e Ivass nei rispettivi campi.
A norma dell’art. 20 sono individuate due principali agenzie:
- a) l’AgID è responsabile di promuovere l’innovazione e lo sviluppo dell’intelligenza artificiale, fatto salvo quanto previsto dalla lettera b) . L’AgID provvede altresì a definire le procedure e a esercitare le funzioni e i compiti in materia di notifica, valutazione, accreditamento e monitoraggio dei soggetti incaricati di verificare la conformità dei sistemi di intelligenza artificiale, secondo quanto previsto dalla normativa nazionale e dell’Unione europea;
- b) l’ACN, anche ai fini di assicurare la tutela della cybersicurezza, come definita dall’articolo 1, comma 1, del decreto-legge 14 giugno 2021, n. 82, convertito, con modificazioni, dalla legge 4 agosto 2021, n. 109, è responsabile per la vigilanza, ivi incluse le attività ispettive e sanzionatorie, dei sistemi di intelligenza artificiale, secondo quanto previsto dalla normativa nazionale e dell’Unione europea. L’ACN è altresì responsabile per la promozione e lo sviluppo dell’intelligenza artificiale relativamente ai profili di cybersicurezza;
Inoltre la lettera c) del comma 1°, sempre art. 20, ricollegandomi anche a quanto già rilevato e fatto osservare in precedenza sul ruolo della sicurezza nazionale e del Ministero della difesa ha cura di precisare: “l’AgID e l’ACN, ciascuna per quanto di rispettiva competenza, assicurano l’istituzione e la gestione congiunta di spazi di sperimentazione finalizzati alla realizzazione di sistemi di intelligenza artificiale conformi alla normativa nazionale e dell’Unione europea, sentiti il Ministero della difesa per gli aspetti relativi ai sistemi di intelligenza artificiale impiegabili in chiave duale e il Ministero della giustizia per i modelli e i sistemi di intelligenza artificiale applicabili all’attività giudiziaria”.
Mentre a mente del comma 4° “Restano fermi le competenze, i compiti e i poteri del Garante per la protezione dei dati personali e dell’Autorità per le garanzie nelle comunicazioni, quale Coordinatore dei Servizi Digitali ai sensi dell’articolo 15 del decreto-legge 15 settembre 2023, n. 123, convertito, con modificazioni, dalla legge 13 novembre 2023, n. 159”. Tutto ciò ritengo dovrà tenere anche in considerazione i più alti valori per la difesa e la tutela dell’umanità. Intesa anche come diritto umanitario che peraltro la norma richiama espressamente in precedenza al comma 3° dell’art. 19. Precisazione importante e sicuramente degna di avere un suo impatto significativo nello sviluppo di certune applicazioni ed in particolare proprio di quel dual-use di cui ho in precedenza accennato.
Orbene, pur se facendo appello alla sintesi dovremmo aver in parte “chiuso il cerchio” su alcuni dei concetti e dei soggetti che la norma cerca di disciplinare e organizzare in una sistemazione quanto più organica possibile. Facendo peraltro appello alla capacità e all’opportunità offerta dalle deleghe che muovono nel solco di queste frontiere dell’esplorazione e della creazione dell’Ai.
Resta da fare una precisazione a cui ho accennato in precedenza e cioè agli investimenti / partecipazioni strategiche. Di cui ci dice l’art. 23: “Investimenti nei settori dell’intelligenza artificiale, della cybersicurezza e del calcolo quantistico”.
Il comma 1° stabilisce l’indirizzo prioritario degli investimenti in linea con la strategia nazionale di cui all’articolo 19 (che non a caso ho citato poche righe or sono dopo averlo introdotto anche a proposito dei più alti valori del diritto umanitario): “al fine di supportare lo sviluppo di imprese operanti nei settori dell’intelligenza artificiale e della cybersicurezza e delle tecnologie per essi abilitanti, ivi compresi le tecnologie quantistiche e i sistemi di telecomunicazioni, anche tramite la creazione di poli di trasferimento tecnologico e programmi di accelerazione operanti nei medesimi settori, avvalendosi dell’operatività della società di gestione del risparmio di cui all’articolo 1, comma 116, della legge 30 dicembre 2018, n. 145, è autorizzato, fino all’ammontare complessivo di un miliardo di euro, l’investimento, sotto forma di equity e quasi equity, nel capitale di rischio direttamente o indirettamente di:
- a) piccole e medie imprese (PMI) con elevato potenziale di sviluppo e innovative, aventi sede operativa in Italia, che operano nei settori dell’intelligenza artificiale e della cybersicurezza e delle tecnologie per essi abilitanti, ivi compresi le tecnologie quantistiche e i sistemi di telecomunicazioni, con particolare riferimento al 5G e alle sue evoluzioni, al mobile edge computing, alle architetture aperte basate su soluzioni software, al Web 3, all’elaborazione del segnale, anche in relazione ai profili di sicurezza e integrità delle reti di comunicazione elettroniche, e che si trovano in fase di sperimentazione (seed financing), di costituzione (start up financing), di avvio dell’attività (early-stage financing) o di sviluppo del prodotto (expansion, scale up financing);
- b) imprese, aventi sede operativa in Italia, anche diverse da quelle di cui alla lettera a), operanti nei settori e nelle tecnologie di cui alla medesima lettera a) , con elevato potenziale di sviluppo e altamente innovative, al fine di promuovere lo sviluppo come campioni tecnologici nazionali.
Da una prima lettura emerge che la lettera a) sembra fortemente ispirata al concetto di start-up che in Italia è sempre una società innovativa essendo una concettualità imprenditoriale nata e cresciuta sotto l’egida del decreto crescita. I cui obiettivi erano (e sono) quelli di competitività e creazione di lavoro. Una realtà quella della start-up attorno alla quale oggi si sono creati dei network d’ispirazione americana. Che parlano spesso di fasi, cicli e si spendono in eventi dove le start-up sono più social che imprese. Tra discutibili lezioni su come si diventa imprenditori, organizzate con lavagne luminose e post-it, non sembra che la formazione in questo ambito sia molto diversa da un gioco di ruolo. Di fatto queste start-up sono affamate di capitali sotto forma di investimenti e con creatori frequentemente in balia della contrattualistica di chi glieli può offrire. Questo sistema ha più che altro creato un indotto a favore di teorici impresari di come bisogna creare la start-up e farla crescere. Rispettando più le regole della finanza (cioè le regole fissate da chi ti permette di ottenere un finanziamento o decide di investire nella start-up) piuttosto che le regole dell’impresa. E del fare impresa.
Trovo questa parte della norma migliorabile e più in generale non all’altezza delle altre, persino a rischio di dilettantismo. Perché le società start-up create con queste procedure in realtà sono deboli, sono società che raramente premiano i founders e il management. Un impresa prima di tutto dev’essere forte. Compatta. Coesa. Possente. Competitiva.
Infatti, un significativo numero di start-up non arriva a nulla. Fanno notizia pochi casi che peraltro non creano necessariamente impresa ma sfruttando un idea puntando a rivendere la start-up alla fine del proprio ciclo step by step. Quasi tutti i teorici delle varie fasi per far crescere la start-up prendono come esempio i c.d. unicorni con una fortissima importazione di termini e situazioni dalla silicon valley. L’unicorno è la piccola start-up che cresce e arriva a una valutazione di oltre 1 miliardo di dollari. Quasi sempre viene rivenduta. Dietro a una buona parte di c.d. unicorni in realtà ci sono storie e partecipazioni azionarie che fanno altamente dubitare che sia tutto e solo frutto del saper fare impresa rispettando le varie fasi. Ci sono storie che non vengono mai narrate ne condivise. A tutti gli effetti oggi ci sono in Italia moltissimi startupper che non sono diversi dai programmatori che alcuni anni or sono cercavano di creare l’app più rivoluzionaria per cellulari. La norma Italiana, in un settore come questo dell’Ai, dimostra un tenore e uno spessore superiore che mal si concilia con questa impostazione da eventi. Più che altro non va nella direzione spesso cercata dalle start-up così concepite.
Tuttavia occorre anche sottolineare la più che condivisibile volontà del Governo di agire attraverso interventi diretti che consentano lo sviluppo di imprese strategiche.
In questo senso il richiamo, non a caso, della norma al termine “campioni nazionali” è fondamentale. Il campione nazionale infatti è una società la cui tecnologia non è scalabile o acquisibile. Attraverso una serie di clausole viene a essere tutelato in modo tale da rappresentare un pilastro della società contemporanea.
E’ una sfida difficile perché il vantaggio competitivo di cui godono grandi imprese internazionali oggi rappresenta probabilmente il principale gap in questo settore. Più che con altri Stati. Tale per cui è altamente probabile che la tecnologia più all’avanguardia sarà ceduta da nazioni che sono 12/18 mesi avanti a noi come ricerca. Tale concessione d’uso a partner affidabili potrebbe avvenire secondo un meccanismo di graduatoria simil tier 1,2,3. secondo logiche geopolitiche di sicurezza e scambi commerciali. Il tutto potrebbe creare situazioni di squilibrio nei rapporti internazionali laddove società civili prive di Ai efficaci e trasformative in alcuni settori potrebbero essere destinate a soffrire l’incapacità di essere sufficientemente all’avanguardia, protette e competitive in molteplici ambiti. La cessione dell’Ai come tecnologia può essere un metodo di controllo delle relazioni internazionali.
Il Governo sembra consapevole e non a caso stabilisce una serie di interventi attraverso il Fondo di sostegno al venture capital come pure: “mediante la sottoscrizione, direttamente o indirettamente, di quote o azioni di uno o più fondi per il venture capital appositamente istituiti e gestiti dalla società di gestione del risparmio di cui al comma 1, sia mediante coinvestimento da parte di altri fondi per il venture capital istituiti e gestiti dalla medesima società di gestione del risparmio”.
Il comma 3° a proposito di questa scelta del meccanismo partecipativo ha cura di precisare: “Oltre al Ministero delle imprese e del made in Italy in qualità di investitore, partecipano con propri rappresentanti agli organi di governo dei fondi di venture capital di cui al presente articolo, in ragione delle proprie competenze, la struttura della Presidenza del Consiglio dei ministri competente in materia di innovazione tecnologica e transizione digitale e l’Agenzia per la cybersicurezza nazionale, in ogni caso senza compensi o indennità”.
Questa ipotetica struttura di partecipazioni avrebbe il pregio di controllare indirettamente lo sviluppo della tecnologia. Potendosi facilmente pensare che quella più trasformativa possa essere gestita in chiave di sicurezza ma anche strategia per gli interessi nazionali. Come pure protetta da eventuali indebite ingerenze di altri competitori (il che peraltro taglia le gambe al concetto di start-up che venga rivenduta laddove potenze terze finirebbero per mettere le mani sulle tecnologie che vogliono sfruttare o boicottare).
Tuttavia la struttura che viene a crearsi potrebbe non essere la più funzionale. Sarebbe più logico, dato che questa è un’impostazione già presente in America, che le partecipazioni siano filtrate attraverso fondi che vedono come soci indiretti le principali agenzie della sicurezza nazionale o nel nostro caso come ho già indicato durante il presente articolo il Ministero della difesa.
Poiché la Legge in questione è valida e individua bene determinati enti e procedure si auspica che con le deleghe alcuni settori vengano ancor più organizzati (laddove necessario protetti) e potenziati come sembra essenziale accada ad esempio per la robotica, le biotecnologie e la genetica.
Come abbiamo brevemente visto la norma Italiana attribuisce una serie di compiti a diversi soggetti, anche in coordinamento tra loro e supervisionati, individuando quindi i protagonisti dello sviluppo di questa nuova tecnologia e rimandando a diverse possibili linee guida che andrebbero meglio definite con le deleghe. Va bene così.
Avv. Marco Solferini
