di Antonio Felice Uricchio e Claudio Caldarola
Introduzione editoriale
Governare l’Intelligenza Artificiale: l’Europa come laboratorio di umanesimo digitale
L’articolo di Antonio Felice Uricchio e Claudio Caldarola che abbiamo l’onore di ri-pubblicare su gentile concessione della rivista AI LAW 1/2026 – ISSN 3035-5451 in questo numero della nostra rivista “Culture Digitali”, rappresenta molto più di un’analisi tecnico-giuridica del Digital Omnibus, del Data Act e dell’AI Act. Esso offre una chiave di lettura sistemica della trasformazione in atto, delineando un vero e proprio progetto costituzionale dell’ecosistema digitale europeo.
L’Europa non sta semplicemente regolando l’innovazione: sta definendo il perimetro entro cui l’innovazione può essere legittima. La qualità dei dati, la trasparenza algoritmica, la responsabilità pubblica e la centralità della persona diventano così i pilastri di una modernità che avanza non contro il diritto, ma attraverso il diritto.
Questa prospettiva dialoga profondamente con il percorso che come #DiCultHerAI stiamo sviluppando negli ultimi anni. L’intelligenza artificiale non è, per noi, un fenomeno tecnico da rincorrere né un rischio da demonizzare. È un passaggio antropologico che richiede cultura, educazione, consapevolezza civica e responsabilità istituzionale.
Nel contributo che a breve pubblicheremo insieme ad autorevoli colleghi argentini, proveremo a estendere questa riflessione in una dimensione euro-latinoamericana. Se l’Europa ha scelto un modello human-centric, fondato su governance multilivello e garanzie giuridiche, la domanda che si apre è la seguente: quale paradigma può emergere nel dialogo tra continenti che condividono tradizioni costituzionali, sensibilità per i diritti e centralità della persona?
Il testo di Uricchio e Caldarola ci offre una base teorica solida per questa conversazione globale. Esso dimostra che la regolazione non è un freno all’innovazione, ma la sua condizione di sostenibilità. Senza qualità dei dati, senza interoperabilità delle infrastrutture, senza supervisione umana significativa, non vi è progresso: vi è soltanto accelerazione.
In questo senso, l’ecosistema digitale europeo non è un dispositivo tecnico, ma un progetto politico e culturale. È la prova che l’intelligenza artificiale può essere governata senza rinunciare alla dignità della persona, alla proporzionalità delle scelte pubbliche e alla coerenza dell’ordinamento.
Pubblicare questo contributo significa, per la nostra rivista, assumere una postura chiara: l’IA non è neutra. È uno spazio di responsabilità collettiva.
Ed è in questo spazio che intendiamo continuare a operare, con rigore scientifico, apertura internazionale e fedeltà a un umanesimo digitale che non rinunci mai alla centralità dell’essere umano.
Carmine Marinucci

Abstract (IT)
L’evoluzione recente del quadro regolatorio dell’Unione europea in materia di dati, intelli-genza artificiale, sicurezza informatica e identità digitale rivela un processo di profonda trasfor-mazione istituzionale che va ben oltre la dimensione tecnica dell’innovazione per assumere i tratti di un vero e proprio consolidamento giuridico attraverso un modello di governance capace di co-niugare progresso tecnologico, assetto istituzionale e tutela sostanziale della persona. Ne emerge un diritto dell’innovazione che non è periferico rispetto all’architettura fondamentale dell’ordina-mento, ma si colloca al suo stesso centro, poiché costruito sulla qualità dei dati, sulla trasparenza degli algoritmi e sulla responsabilità pubblica quale condizione imprescindibile di legittimazione democratica.
L’insieme dei recenti interventi dell’Unione europea compone un progetto di ampio respiro, nel quale l’innovazione tecnologica, l’efficienza regolatoria e la tutela della persona non sono collo-cate in rapporto dialettico e meno che mai conflittuale, ma integrate in una concezione unitaria dello sviluppo digitale come processo intrinsecamente valoriale. L’Europa si impegna così a co-struire un modello nel quale la tecnologia non operi come fattore di compressione delle libertà, bensì come strumento attraverso il quale realizzare in modo più pieno la dignità, l’eguaglianza e la partecipazione democratica. In questo senso, la rete si configura come il luogo in cui si misura la capacità dell’ordinamento europeo di governare il proprio futuro, preservando al contempo la centralità della persona e la solidità delle istituzioni. È questa la cifra distintiva del percorso intra-preso, una modernità che avanza non contro il diritto, ma mediante il diritto, e che trova nella regola, nella proporzionalità e nella responsabilità gli strumenti attraverso cui assicurare che il progresso tecnologico rimanga sempre essenzialmente e irriducibilmente Umano.
Sommario:
1. La complessa costruzione del quadro regolatorio europeo e interno. – 2. Verso una governance basata sulla qualità delle informazioni, sull’interoperabilità delle infrastrutture e sulla certezza del diritto. – 3. L’equilibrio necessario tra innova-zione e protezione dei diritti. – 4. La strategia regolatoria europea come strumento necessario per assicurare l’identità digitale e contrastare l’opacità algoritmica. – 5. Conclusioni.
- La complessa costruzione del quadro regolatorio europeo e interno
L’ordinamento dell’Unione europea ha intrapreso un percorso di progressiva costruzione di un’architettura normativa in grado di orientare la trasformazione digitale verso un equilibrio stabile tra innovazione tecnologica e tutela della persona umana. L’evoluzione dell’ecosistema digitale europeo si caratterizza così per una crescente consapevolezza circa la necessità di un assetto regolatorio capace di integrare in modo organico dati, intelligenza artificiale, cybersicurezza e identità digitale, collocando al centro un modello di governance fondato sulla responsabilità, sulla qualità delle informazioni e sulla garanzia della dignità umana. Tale approccio emerge con chiarezza nella Comunicazione della Commissione europea Data Union (Strategy: Unlocking Data for Artificial Intelligence, COM2025 835 final, 19 novembre 2025), secondo cui l’accessibilità e interoperabilità dei dati costituisce prerequisito essenziale per uno sviluppo sicuro e trasparente dei sistemi di intelligenza artificiale e, più in generale, condizione strutturale per generare valore economico e sociale nel rispetto dei diritti fondamentali.
La Commissione europea sottolinea inoltre l’esigenza di superare la frammentazione dell’acquis digitale, riducendo gli oneri amministrativi e accrescendo la prevedibilità normativa per cittadini e imprese. Questo orientamento è alla base della proposta di regolamento denominata Digital Omnibus (European Commission, Proposal for a Regulation (Digital Omnibus), COM(2025) 837 final, 19 novembre 2025), che introduce misure di semplificazione riguardanti l’intelligenza artificiale, la cybersicurezza e la governance dei dati, eliminando sovrapposizioni normative e coordinando le fonti in un quadro più lineare e coerente. L’intervento si inserisce in un più ampio programma di “stress test” del rulebook digitale, volto a verificare la coerenza, l’efficacia e l’impatto cumulativo delle norme europee sul funzionamento del mercato unico (1). La semplificazione è considerata non come riduzione delle tutele, ma come rafforzamento della loro effettività: e ciò in quanto un corpus normativo più organico e leggibile aumenta la certezza del diritto e consente un’applicazione più uniforme delle garanzie.
È noto che l’evoluzione delle tecnologie emergenti tende a dilatare l’area delle interferenze tra diritto, tecnica e organizzazione pubblica, sollecitando un ripensamento del ruolo delle fonti e delle garanzie normative volte ad assicurare la tutela dei diritti fondamentali in un contesto dominato da processi decisionali automatizzati. In questa prospettiva, l’intervento regolatorio non può limitarsi a governare la tecnica, impedendo che diventi modello ordinante, ma soprattutto deve preservare la sovranità del diritto e con essa del principio democratico che trova il suo fondamento nel modello di bilanciamento dei diversi poteri dello Stato (2).
Ciò premesso, occorre ricordare che l’ordinamento digitale dell’Unione si articola attorno a tre principali regolamenti: il Data Governance Act (Regulation EU 2022/868) che istituisce meccanismi fiduciari di intermediazione e promuove l’altruismo dei dati; il Data Act, (Regulation EU 2023/2854), che disciplina i diritti di accesso e utilizzo dei dati generati da dispositivi connessi e rafforza l’interoperabilità dei servizi cloud; e l’AI Act (Regulation EU 2024/1689), che introduce un sistema multilivello basato sulla classificazione del rischio, sulla trasparenza algoritmica e sulla responsabilità degli operatori economici (3). Si tratta di un mosaico regolatorio coerente con la visione europea di un ambiente digitale sicuro, interoperabile e humancentric, nel quale la tecnologia sia governata da criteri di proporzionalità, documentazione e supervisione. L’AI Act, in particolare, definisce una struttura di responsabilità che integra requisiti tecnici e garanzie giuridiche, prevedendo un controllo umano significativo e standard stringenti di qualità e affidabilità dei processi di acquisizione e gestione delle informazioni (4).
A tali strumenti si affianca la proposta di regolamento sui Portafogli Aziendali Europei (European Commission, Proposal for a Regulation on European Business Wallets, COM2025 838 final), concepita per creare un’infrastruttura unionale interoperabile di identificazione, attestazione e scambio documentale tra imprese. Un ruolo determinante è attribuito ai Data Labs (Supporting Infrastructure for HighQuality Data Spaces, in COM202) 835 final), immaginati per offrire servizi fiduciari di preparazione, pseudonimizzazione e condivisione dei dati in ambienti sicuri. Essi costituiscono spazi controllati in cui maturano i processi di miglioramento della qualità dei dataset e nei quali vengono ridotte le distorsioni informative che potrebbero compromettere l’attendibilità dei sistemi di IA.
La riflessione più recente ha messo in luce come la qualità semantica e strutturale dei dati influenzi quella delle decisioni algoritmiche. In questo senso, è stato osservato (5) quanto sia elevato l’impatto del linguaggio dell’intelligenza artificiale sulla tutela dei diritti fondamentali, ben potendo l’opacità algoritmica incidere sulla comprensione delle decisioni pubbliche e sulla trasparenza dell’esercizio del potere. Il problema del linguaggio dell’IA si collega alla necessità di elaborare un diritto alla comprensibilità tecnologica, capace di garantire che l’automazione non comprometta il diritto di difesa e la stessa effettività del principio di legalità. In altri ambiti (diritto amministrativo, diritto tributario) (6), l’integrazione dei dati e l’impiego di strumenti predittivi stanno ridefinendo la relazione tra amministrazioni pubbliche (e quindi quelle fiscali) e cittadino-contribuente, ponendo in una nuova luce il difficile equilibrio tra efficienza, legalità e capacità contributiva (7). Da una prospettiva più ampia (8), l’utilizzo delle tecnologie digitali nei processi produttivi come nella vita quotidiana dà luogo ad una profonda trasformazione degli stili di vita e quindi del modo di lavorare, consumare e generare ricchezza. La transizione digitale necessita quindi di un forte sforzo tecnologico, infrastrutturale, amministrativo e persino regolatorio (9).
Dopo essere passati da semplici consumer dei servizi digitali a prosumer, in grado contestualmente di essere fruitori e produttori dei contenuti generati, siamo di fronte a un’ulteriore evoluzione in cui ciascuno di noi ha preso in carico una parte significativa della produzione dai dati nella società neoindustriale, acquisendo una nuova consapevolezza del loro valore. La data economy pone poi un ulteriore tema, ad oggi, poco esplorato: la generazione del dato, spesso gratuita e spontanea, diviene in capo all’utilizzatore professionale valore che però resta in capo allo stesso senza alcuna restituzione all’utente né all’intera collettività attraverso gli strumenti della fiscalità generale.
Evidente è che la costruzione dell’ecosistema digitale europeo necessita di un quadro istituzionale che assuma l’innovazione non come accelerazione incontrollata ma come processo ordinato (10) e orientato al benessere collettivo, alla sostenibilità sociale e al pieno rispetto della dignità della persona umana. In questo contesto, l’Italia si è distinta per la celerità con cui ha recepito l’impianto regolatorio europeo in materia di intelligenza artificiale; di recente è stata approvata definitivamente la legge 23 settembre 2025, n. 132, disposizioni e deleghe al Governo in materia di intelligenza artificiale (11) che, prima in Europa, affianca al regolamento una compiuta disciplina nazionale, introducendo elementi di specificità, tra cui il riferimento espresso ad un modello antropocentrico ed eticamente orientato, la promozione della ricerca attraverso la cooperazione tra università, enti pubblici e imprese, l’estensione della disciplina a settori come la pubblica amministrazione e la disabilità. La nuova disciplina non si limita ad accogliere i principi cardine enunciati dall’Unione ma li rafforza, intervenendo in modo puntuale e vincolante nelle parti in cui l’ordinamento eurounionale lasciava margini di discrezionalità. Valori come il rispetto della persona e della sua dignità, delle libertà personali e dei diritti fondamentali sono pienamente affermati. La legge nazionale dedica, altresì, un’attenzione specifica a settori “sensibili”, particolarmente importanti e delicati, come la pubblica amministrazione, la salute e la disabilità – quest’ultima non menzionata nel Regolamento Europeo. Si tratta di novità meritorie e di grande rilievo, destinate non solo a incidere sulla regolazione giuridica, ma anche a orientare lo sviluppo della ricerca scientifica e dell’evoluzione tecnologica. Occorre precisare che né il Regolamento europeo né la legge italiana adottano un approccio repressivo o soffocante nei confronti dell’innovazione tecnologica. Al contrario, la consapevolezza sottesa è che la normativa possa costituire un efficace strumento di promozione di un utilizzo consapevole e responsabile dell’intelligenza artificiale. Come ricorda un antico proverbio cinese, «non si può arrestare un fiume in piena con la mano, ma si può costruire un argine». Il compito del legislatore è stato dunque proprio quello di delineare tali argini, affinché l’intelligenza artificiale – vero e proprio fiume impetuoso – non esondi, ma possa essere indirizzata a generare crescita, sviluppo ed equità per il nostro Paese.
Nella legge italiana, significativo è l’art. 3, rubricato «Principi generali», secondo cui lo sviluppo, l’adozione e l’utilizzo di sistemi e modelli di intelligenza artificiale a finalità generali debbono avvenire nel rispetto dei diritti fondamentali, delle libertà costituzionali e del diritto dell’Unione europea, nonché secondo i principi di trasparenza, proporzionalità, sicurezza, protezione dei dati personali, riservatezza, accuratezza, non discriminazione, parità di genere e sostenibilità (primo comma). Viene, in tal modo, delineata una declinazione dell’intelligenza artificiale orientata alle finalità e agli interessi generali, secondo un approccio improntato al principio di proporzionalità e fondato su una rigorosa valutazione del rischio. In tale prospettiva, la sicurezza digitale assume il rango di requisito inderogabile, sorretto da controlli mirati e stringenti, destinati ad assicurare la necessaria resilienza del sistema rispetto a possibili alterazioni, manipolazioni o usi distorti delle tecnologie. Particolarmente significativa è la previsione del comma 7 dello stesso articolo che consacra il diritto delle persone con disabilità ad un accesso pieno ed effettivamente non discriminatorio ai sistemi di IA e alle relative funzionalità, in conformità alla Convenzione ONU sui diritti delle persone con disabilità del 2006, ratificata in Italia con legge n. 18/2009; si tratta di una formula che inserisce la tecnologia entro l’orizzonte della dignità e dell’uguaglianza sostanziale. Nell’articolato normativo, il Capo II si presenta di cruciale importanza, enunciando, in maniera puntuale e sistematica, principi generali e regole specifiche per l’impiego dell’intelligenza artificiale all’interno di settori particolarmente sensibili, ove l’incidenza delle decisioni algoritmiche risulta concretamente idonea a produrre conseguenze rilevanti e, talvolta, irreversibili sui diritti fondamentali della persona. In tale quadro, il legislatore, con l’art. 7, ha espressamente e rigorosamente vietato l’utilizzo di modelli algoritmici fondati su criteri manifestamente discriminatori, i quali potrebbero inopinatamente condizionare o ingiustamente limitare l’accesso alle prestazioni sanitarie, configurandosi così quale presidio essenziale e inderogabile a tutela dell’universalità, concreta ed effettiva, delle cure. In modo altrettanto significativo, la modifica apportata all’art. 9 c.p.c. si inserisce coerentemente in una prospettiva di certezza e di garanzia, attribuendo con chiarezza e senza ambiguità al tribunale la competenza a conoscere delle controversie relative al funzionamento dei sistemi di intelligenza artificiale, con l’effetto di dissipare definitivamente ogni incertezza interpretativa circa l’individuazione del giudice competente.
Accanto agli aspetti strettamente regolatori, la legge introduce altresì precisi e significativi indirizzi di politica attiva. In particolare, l’art. 5 affida espressamente allo Stato il compito di promuovere, in maniera sistematica e coerente, lo sviluppo e l’impiego dell’intelligenza artificiale quale strumento privilegiato volto a migliorare l’interazione uomo-macchina, anche attraverso l’impiego avanzato della robotica, favorendo contestualmente la ricerca scientifica e incoraggiando la cooperazione virtuosa tra università e imprese. Tali coordinate si configurano come snodi essenziali del rapporto tra sapere accademico e tessuto produttivo, destinati non soltanto a rafforzare stabilmente la competitività del Paese, ma anche a catalizzare investimenti strategici nei settori nevralgici dell’economia nazionale, entro un quadro organico e dinamico che intreccia armoniosamente innovazione, crescita sostenibile e superiore interesse pubblico.
2. Verso una governance basata sulla qualità delle informazioni, sull’interoperabilità delle infrastrutture e sulla certezza del diritto
L’evoluzione del quadro regolatorio dell’Unione europea in materia di dati, intelligenza artificiale, cybersicurezza e identità digitale rivela un processo di consolidamento progressivo volto a realizzare un sistema disciplinare unitario, leggibile e capace di sostenere lo sviluppo tecnologico nel rispetto dei valori fondativi dell’ordinamento. L’architettura digitale dell’Unione, pur articolata su fonti settoriali eterogenee, tende progressivamente ad assumere la forma di un vero e proprio “diritto dell’integrazione tecnologica”, nel quale ciascun regolamento non opera in funzione isolata ma contribuisce alla costruzione di una cornice unitaria. Tale evoluzione rivela una trasformazione del ruolo del legislatore europeo, chiamato non solo a disciplinare nuovi mercati, ma anche a presidiare la qualità sistemica delle interazioni digitali tra istituzioni, cittadini e operatori economici. In questa prospettiva, la governance dei dati e dell’intelligenza artificiale non si configura come un insieme di atti tecnici, bensì come un processo di ingegneria istituzionale destinato a incidere sulla struttura stessa del mercato unico e sulla configurazione dei poteri pubblici nell’era algoritmica. Tale processo si inserisce in una strategia istituzionale ampia, nella quale la Commissione europea ha progressivamente delineato un modello di governance basato sulla qualità delle informazioni, sull’interoperabilità delle infrastrutture e sulla certezza del diritto, riconoscendo che l’affidabilità dei sistemi digitali costituisce presupposto indispensabile per il buon funzionamento del mercato unico. La Data Union Strategy sottolinea che la frammentazione normativa rappresenta uno dei principali ostacoli alla maturazione degli ecosistemi digitali e che, pertanto, la costruzione di un’unica architettura deve procedere attraverso un’armonizzazione delle discipline, un coordinamento delle fonti e una semplificazione delle procedure amministrative (12). La strategia attribuisce alla qualità dei dati un valore sistemico, evidenziando come la loro disponibilità in forma interoperabile costituisca condizione essenziale per l’adozione sicura e responsabile dell’intelligenza artificiale e per la diffusione di modelli di innovazione inclusivi e sostenibili.
Il primo pilastro di tale architettura è rappresentato dal Data Governance Act (13), che introduce un modello istituzionale fondato sulla fiducia nella condivisione dei dati. Il regolamento istituisce i servizi di intermediazione, concepiti come soggetti neutrali deputati a facilitare la cessione volontaria e controllata dei dati tra detentori e utilizzatori e disciplina l’altruismo dei dati, configurato come messa a disposizione volontaria e non remunerata di informazioni per finalità di interesse generale. L’atto definisce, inoltre, procedure uniformi per il riutilizzo delle informazioni detenute dal settore pubblico, rafforzando la trasparenza amministrativa e ponendo le basi per la creazione di spazi europei dei dati affidabili e interoperabili. La dimensione fiduciaria delle informazioni, più volte richiamata dalla dottrina, si collega ai profili relativi alla responsabilità pubblica nella gestione delle infrastrutture digitali e al ruolo delle autorità nazionali nel garantire che la circolazione dei dati avvenga in condizioni di sicurezza, trasparenza e certezza giuridica (14).
Il secondo pilastro è costituito dal Data Act (15), che definisce diritti e obblighi relativi all’accesso ai dati generati da dispositivi connessi e servizi digitali. Il regolamento riconosce all’utente la facoltà di accedere ai dati prodotti dall’oggetto e impone obblighi di trasparenza, prevedibilità contrattuale e interoperabilità. La disciplina si estende ai servizi cloud ed edge, imponendo standard tecnici finalizzati a garantire la portabilità tra fornitori, ridurre i rischi di lockin tecnologico e favorire la mobilità dei dati. Interoperabilità, qualità dei dati e certezza delle condizioni contrattuali costituiscono condizioni indispensabili per un mercato equo e competitivo e, equilibrato tra operatori economici, cittadini e amministrazioni pubbliche (16).
Il terzo pilastro è rappresentato dall’AI Act (17) , primo regolamento organico dell’Unione europea dedicato all’intelligenza artificiale. Il testo introduce un modello di rischio graduato e differenziato in sistemi vietati, sistemi ad alto rischio e sistemi soggetti a obblighi di trasparenza, delineando requisiti tecnici, obblighi documentali e procedure di conformità differenziate. Il regolamento attribuisce alla persona umana il ruolo di supervisore attivo dei sistemi ad alto rischio, riconoscendo che, anche in presenza di processi automatizzati complessi, l’intervento umano deve rimanere il perno del controllo democratico. E ciò in quanto la sostenibilità dell’intelligenza artificiale dipende dalla capacità dell’ordinamento di assicurare un equilibrio armonico tra autonomia tecnica, responsabilità degli operatori e garanzie sostanziali e procedurali.
Un ruolo significativo nella costruzione dell’ecosistema digitale è svolto dalle iniziative di semplificazione normativa adottate dalla Commissione europea. Il Digital Omnibus (18) propone un’integrazione sistemica degli atti settoriali in materia di dati, intelligenza artificiale e cybersicurezza, ricondotti in un corpus unificato. La proposta introduce adattamenti tecnici destinati a garantire coordinamento, chiarezza e applicazione uniforme, oltre a prevedere l’istituzione di un punto unico europeo di notifica degli incidenti di cybersicurezza, finalizzato a ridurre la duplicazione degli obblighi informativi e a migliorare il coordinamento tra autorità nazionali ed enti europei (19). L’intervento è parte di una più ampia azione di verifica della coerenza del quadro digitale unionale, con l’obiettivo di ridurre la complessità regolatoria e rafforzare la prevedibilità del diritto.
La disciplina dei Portafogli Aziendali Europei (20) completa il quadro, istituendo un’infrastruttura unitaria per la gestione dell’identità digitale delle imprese e per la condivisione transfrontaliera delle attestazioni aventi valore giuridico. Tale strumento risponde all’esigenza, rilevata dalla dottrina economica e amministrativa, di predisporre un ambiente affidabile per le interazioni digitali, riducendo oneri burocratici, rafforzando la verificabilità delle informazioni e sostenendo l’integrazione del mercato interno (21).
L’evoluzione dell’acquis digitale non può essere interpretata come una mera ricomposizione tecnica delle fonti, poiché essa è strettamente connessa alla dimensione assiologica del diritto europeo, esprimendo il rapporto tra regolazione, tecnica e valori costituzionali nel quale il diritto non subisce la tecnica, ma la governa, indirizzando l’innovazione verso la tutela della persona e la salvaguardia dei principi democratici (22). Alla luce di tali considerazioni, la costruzione dell’ecosistema digitale europeo costituisce una componente essenziale del processo di integrazione geopolitica (23), poiché la trasformazione tecnologica modifica non soltanto i rapporti economici e le categorie giuridiche fondamentali ma anche i rapporti tra Stati. Il diritto europeo, attraverso il coordinamento tra dati, identità digitale e intelligenza artificiale, tende, quindi, progressivamente a definire una nuova architettura istituzionale orientata alla trasparenza, all’affidabilità e alla sostenibilità in grado di incidere anche su scenari geopolitici internazionali.
3. L’equilibrio necessario tra innovazione e protezione dei diritti
Come evidenziato, la politica digitale dell’Unione europea si orienta verso un modello nel quale lo sviluppo tecnologico e la protezione dei diritti fondamentali non si contrappongono, ma si integrano, poiché l’equità dei processi decisionali, la qualità dei dati e l’affidabilità dei sistemi costituiscono condizioni necessarie per un’innovazione realmente orientata al progresso collettivo (24). La Data Union Strategy intende assicurare la costruzione di un ecosistema digitale sostenibile rispettoso della dignità della persona e coerente con i principi della Carta dei diritti fondamentali dell’Unione (25). In tale prospettiva, la Commissione individua nella “governance responsabile” un elemento cardine per prevenire derive tecnologiche che potrebbero compromettere la fiducia degli utenti e la legittimazione democratica dei processi digitali.
L’Unione europea delinea un modello regolatorio nel quale la tutela dei diritti fondamentali non si colloca in una fase meramente successiva ai processi tecnologici, assumendo, invece, una funzione pienamente propulsiva, orientando la progettazione stessa degli ecosistemi digitali. Il principio di dignità, la garanzia contro ogni forma di discriminazione, il diritto a una partecipazione informata, e sotto certi aspetti persino il diritto alla verità (26), non operano, pertanto, come limiti esterni o freni all’innovazione e costituiscono parametri sostanziali destinati a guidare l’intero ciclo di vita delle tecnologie, dall’ideazione alla messa in esercizio (27). Ne deriva una trasformazione significativa del rapporto tradizionale tra diritto e tecnica, poiché non è più il diritto a inseguire l’evoluzione tecnologica, ma è l’innovazione a essere chiamata a svilupparsi entro un quadro normativo definito e non negoziabile in quanto ispirato da valori condivisi e principi fondamentali propri della struttura dell’ordinamento europeo e di quelli costituzionali degli stati membri. Il principio di responsabilità tecnologica si traduce nell’esigenza di assicurare che l’automazione rimanga comprensibile, contestualizzata e verificabile, affinché la complessità algoritmica non generi spazi opachi tali da eludere il controllo umano o ridurre la capacità di verificare la coerenza delle decisioni con i principi del diritto.
La Commissione europea evidenzia che uno dei principali nodi interpretativi riguarda la disponibilità di dati idonei a supportare l’addestramento dei sistemi di intelligenza artificiale. La scarsità di dataset adeguati, accurati e rappresentativi costituisce un ostacolo significativo alla maturazione degli algoritmi e richiede infrastrutture fiduciarie in grado di garantire la qualità delle informazioni e la protezione delle persone. In questo ambito, particolare rilevanza assumono i Data Labs, concepiti come ambienti sicuri nei quali è possibile effettuare operazioni di preparazione, pulizia, validazione e pseudonimizzazione dei dati, al fine di aumentare l’affidabilità dei sistemi di intelligenza artificiale e ridurre il rischio di discriminazioni o bias sistemici. La loro funzione, centrale, nel modello europeo, si collega direttamente al principio di neutralità tecnologica, richiamato dalla dottrina costituzionale secondo cui la struttura del linguaggio algoritmico incide sulla conformità delle decisioni ai principi di eguaglianza, imparzialità e prevedibilità (28).
All’interno del Digital Omnibus emerge con chiarezza la volontà della Commissione di sostenere lo sviluppo tecnologico riducendo gli oneri amministrativi che gravano in particolare sulle piccole e medie imprese e sulle small mid caps. La semplificazione è intesa come strumento per promuovere un’applicazione proporzionata degli obblighi previsti dall’AI Act, senza alterare il livello delle tutele. Il testo propone l’ampliamento delle misure di alleggerimento documentale, l’introduzione di linee guida tecnico-contrattuali e il potenziamento dei meccanismi di sperimentazione regolatoria, tra i quali assumono particolare rilievo le regulatory sandboxes, concepite come contesti controllati nei quali testare soluzioni innovative garantendo, al contempo, la salvaguardia dei diritti degli utenti e la supervisione delle autorità competenti (29). Tali strumenti, già impiegati in altri settori regolati, consentono un approccio flessibile alla disciplina, preservando il nucleo essenziale delle garanzie senza ostacolare l’evoluzione tecnologica (30).
L’equilibrio necessario tra innovazione e protezione dei diritti si manifesta inoltre nella struttura dell’AI Act, che impone requisiti di trasparenza, supervisione umana e tracciabilità dei processi decisionali per i sistemi ad alto rischio. Il regolamento istituisce l’AI Office, organismo sovranazionale dotato di funzioni di coordinamento, vigilanza e indirizzo interpretativo, destinato a garantire un’applicazione uniforme del quadro regolatorio e a supportare gli Stati membri nell’attuazione delle disposizioni relative ai modelli avanzati di intelligenza artificiale (31). La scelta di una supervisione centralizzata risponde all’esigenza di evitare divergenze applicative che potrebbero compromettere l’unità del mercato e generare incertezze per imprese e cittadini, dovendo l’algoritmo operare all’interno di un perimetro giuridico ben delimitato (32).
La Commissione ammette altresì che la complessità del quadro regolatorio possa ostacolare l’innovazione, specialmente nei settori nei quali si cumulano obblighi di conformità derivanti da normative diverse. Per tale ragione il Digital Omnibus propone l’istituzione di un punto unico europeo di notifica degli incidenti di cybersicurezza, destinato a sostituire la pluralità degli obblighi previsti dal GDPR, dalla direttiva NIS2 e dal Regolamento DORA, riducendo il carico amministrativo e migliorando la cooperazione tra le autorità nazionali (33). Tale soluzione ha trovato riscontri positivi nelle prime analisi condotte in ambito tributario, dove si è osservato che la proliferazione degli adempimenti digitali richiede un equilibrio coerente tra efficienza operativa, certezza giuridica e garanzie procedimentali (34) .
La visione europea tende, dunque a identificare un modello di “innovazione governata”, nel quale la tecnologia si sviluppa all’interno di una cornice normativa capace di assicurare certezza giuridica, sostenibilità e tutela dei diritti. La disciplina dell’intelligenza artificiale diviene l’ambiente giuridico nel quale confluiscono i diversi piani del diritto: quello pubblico, che fissa limiti e valori non negoziabili; quello privato, che disciplina responsabilità, rapporti contrattuali e circolazione dei beni digitali; quello della sicurezza, che protegge gli interessi essenziali dello Stato; e quello geopolitico, che inserisce l’intelligenza artificiale nel confronto tra poteri globali, quello tributario che da un lato apprezza e utilizza i dati per contrastare l’evasione fiscale , dall’altro è chiamato ad apprezzare nuove fattispecie imponibile.
Ne discende un forte impegno dell’Unione europea nel perseguire un equilibrio tra competitività tecnologica e tutela della persona, quale condizione per garantire a privati cittadini, imprese e istituzioni fiducia negli strumenti digitali, utilizzo responsabile, e quindi sicurezza e qualità dei dati.
4. La strategia regolatoria europea come strumento necessario per assicurare l’identità digitale e contrastare l’opacità algoritmica
La strategia regolatoria dell’Unione europea in materia di dati, intelligenza artificiale e identità digitale si inscrive entro una traiettoria che oltrepassa la dimensione della mera regolazione settoriale delle tecnologie emergenti, configurandosi come un progetto organico di sovranità digitale (35). In tale prospettiva, la normazione europea non svolge soltanto una funzione ordinatrice o correttiva dei mercati, ma diviene lo strumento attraverso il quale l’Unione riafferma la propria capacità di governo delle trasformazioni tecnologiche, preservando l’unità del mercato interno e la coerenza dell’azione pubblica in un contesto caratterizzato dalla crescente pervasività delle decisioni automatizzate (36).
Nel contesto globale, l’approccio europeo si distingue per una marcata vocazione istituzionale (37). A fronte di modelli che privilegiano, da un lato, la flessibilità regolatoria e l’autoregolazione del mercato, come nell’esperienza statunitense, e, dall’altro, il controllo politico centralizzato delle infrastrutture digitali, come nel modello cinese, l’Unione europea persegue una via fondata su regole vincolanti, standard armonizzati e meccanismi di supervisione sovranazionale (38). Anche rispetto all’impostazione britannica (che assume i principi di safety, transparency, fairness, accountability, contestability), orientata a una regolazione per principi e alla responsabilizzazione delle autorità settoriali, il modello europeo si caratterizza per l’ambizione di costruire un quadro normativo unitario, idoneo a garantire uniformità applicativa e certezza del diritto in un ecosistema tecnologico strutturalmente transnazionale (39). In questo quadro, la governance dei dati assume una valenza eminentemente strategica (40). Gli spazi europei dei dati sono concepiti non come meri ambienti di scambio informativo, ma come infrastrutture di interesse generale, destinate a sostenere l’innovazione, l’integrazione del mercato interno e la modernizzazione dell’azione pubblica (41). L’interoperabilità delle infrastrutture, l’adozione di standard comuni e la qualità semantica delle informazioni costituiscono presupposti essenziali affinché la circolazione dei dati possa tradursi in valore economico e sociale senza generare asimmetrie informative, frammentazioni regolatorie o rischi sistemici per il funzionamento del mercato unico (42). In tale prospettiva, la qualità del dato non rappresenta un obiettivo meramente tecnico, ma una condizione strutturale di affidabilità complessiva degli ecosistemi digitali europei.
La strategia regolatoria europea affronta il tema dell’opacità algoritmica come una questione eminentemente istituzionale, e non soltanto come problema di tutela individuale (43). L’assenza di trasparenza e tracciabilità nei processi decisionali automatizzati, in quanto fattore di disomogeneità applicativa, incide direttamente sulla fiducia nel mercato, sulla capacità delle autorità pubbliche di esercitare funzioni di controllo e sulla stessa unità dell’ordinamento europeo (44). In tale prospettiva, l’opacità algoritmica assume la fisionomia di un rischio sistemico, suscettibile di compromettere la coerenza applicativa delle norme e di generare divergenze tra Stati membri, con effetti distorsivi sulla concorrenza e sulla certezza del diritto (45).
È in questo contesto che si colloca l’AI Act, il quale introduce un modello regolatorio multilivello fondato sulla gestione del rischio, sulla trasparenza dei sistemi e sulla responsabilità degli operatori (46). Particolarmente significativa è l’istituzione dell’AI Office, chiamato a svolgere funzioni di coordinamento, vigilanza e indirizzo interpretativo a livello sovranazionale (47). La centralizzazione di tali competenze risponde all’esigenza di evitare frammentazioni applicative e di garantire un’attuazione uniforme del regolamento, assicurando che l’intelligenza artificiale operi entro un perimetro giuridico chiaro, prevedibile e controllabile (48).
La funzione dell’AI Office non si esaurisce, tuttavia, nella dimensione interna dell’ordinamento europeo, ma si proietta sul piano internazionale, contribuendo a consolidare il ruolo dell’Unione quale potenza normativa nel governo globale dell’intelligenza artificiale (49). Attraverso la definizione di standard tecnici, criteri di valutazione del rischio e modelli di governance multilivello, l’Unione esercita una capacità di influenza che si fonda sulla forza del mercato unico e sulla coerenza del proprio impianto giuridico, offrendo un paradigma regolatorio alternativo in un contesto di crescente competizione tecnologica e geopolitica (50).
In tale cornice si inserisce anche la disciplina dell’identità digitale delle imprese, che trova nei Portafogli Aziendali Europei uno strumento volto a rafforzare la certezza giuridica e la fiducia nelle transazioni economiche transfrontaliere (51). La creazione di un’infrastruttura interoperabile per la gestione delle attestazioni giuridicamente rilevanti consente di ridurre gli oneri amministrativi, prevenire le frodi e favorire l’integrazione del mercato interno, contribuendo alla costruzione di un ambiente digitale affidabile e competitivo (52). L’identità digitale assume così una funzione sistemica, quale elemento di raccordo tra innovazione tecnologica, sicurezza delle relazioni giuridiche e integrazione economica europea (53).
Nel loro insieme, tali strumenti delineano una strategia regolatoria che non si limita a reagire all’innovazione, ma ne orienta lo sviluppo secondo una visione di lungo periodo, nella quale qualità delle infrastrutture digitali, trasparenza dei processi decisionali e coerenza delle regole costituiscono condizioni imprescindibili per la competitività e la sostenibilità dell’economia europea (54). La regolazione si configura, pertanto, non come vincolo esterno, ma come fattore abilitante, capace di rafforzare la fiducia negli ecosistemi digitali e di consolidare il ruolo dell’Unione europea quale attore centrale nel governo delle trasformazioni tecnologiche globali (55).
5. Conclusioni
La ricostruzione del quadro europeo dell’innovazione digitale mette in evidenza come l’Unione abbia maturato una visione nella quale la regolazione non costituisce un contrappeso alla tecnologia né un limite esterno alla sua espansione, bensì una condizione intrinseca della sua legittimità e della sua sostenibilità di lungo periodo. Dalla Data Union Strategy al Digital Omnibus, dall’AI Act al Data Act, dal Data Governance Act fino alla proposta sui Portafogli Aziendali Europei, emerge un paradigma comune, poiché la trasformazione digitale può produrre valore economico e sociale soltanto se costruita su infrastrutture di fiducia, qualità dei dati, trasparenza dei processi e centralità della persona umana (56). In tale prospettiva, la regolazione assume una funzione sistemica e definisce il perimetro entro il quale l’innovazione può svilupparsi senza degenerazioni tecnicistiche che poi finiscono per dare luogo a rendite di posizione, ad asimmetrie informative e soprattutto a erosione delle garanzie costituzionali.
I documenti COM e SWD del 2025 confermano che l’obiettivo dell’Unione non va ricercato nella proliferazione normativa, bensì nella costruzione di un insieme coerente e interoperabile di strumenti giuridici. Il Digital Omnibus inaugura una logica di manutenzione evolutiva del rulebook digitale, orientata a verificarne l’efficacia, a razionalizzarne le ridondanze e a garantire uniformità applicativa. L’operazione non è meramente tecnica, poiché la semplificazione diventa strumento di giustizia regolatoria: essa permette agli operatori di accedere a un quadro più chiaro e proporzionato, riduce i costi di conformità e accresce l’affidabilità dell’azione pubblica. Il punto unico europeo di notifica degli incidenti di cybersicurezza ne è un esempio particolarmente significativo, giacché non attenua il livello di protezione degli interessati, ma ne rafforza l’effettività attraverso una gestione più coordinata ed efficiente delle segnalazioni. L’innovazione, in questa prospettiva, non è un fenomeno neutro, poiché incide sulla fisiologia delle decisioni pubbliche, sui rapporti di forza tra privati, sulla misurabilità della responsabilità, sull’efficienza amministrativa, sulla sicurezza collettiva e persino sugli equilibri geopolitici. La sostenibilità della transizione digitale esige pertanto che il diritto europeo svolga una funzione di presidio costante, capace di prevenire marginalizzazioni, automatismi lesivi dei diritti e concentrazioni incontrollate di potere informazionale. Di conseguenza, la tutela della persona e la qualità delle istituzioni si configurano come criteri ordinatori dell’intera infrastruttura digitale dell’Unione.
Il processo di regolazione dell’ecosistema digitale europeo rappresenta, in ultima analisi, una prova di maturità istituzionale, poiché chiama l’Unione a dimostrare che la transizione tecnologica può essere governata senza rinunciare alla centralità della persona e alla razionalità del diritto. La capacità di integrare valori costituzionali, esigenze del mercato e dinamiche geopolitiche in un quadro normativo coerente costituisce il banco di prova della sua autorevolezza nel nuovo ordine digitale globale. Da tale capacità dipenderanno non soltanto la competitività dell’Europa, ma anche la qualità democratica dei processi decisionali che accompagneranno la trasformazione algoritmica delle società contemporanee.
Il futuro dell’Europa digitale dipenderà, pertanto, dalla capacità delle istituzioni di mantenere coerenza, visione e responsabilità nel governo della transizione tecnologica. L’innovazione non è interpretata come una corsa priva di direzione, ma come un percorso attraverso il quale l’Unione europea intende affermare un modello di sviluppo digitale umano-centrico, sostenibile e pienamente conforme ai valori democratici che ne costituiscono il fondamento. Se tale direzione sarà mantenuta e rafforzata, l’ordinamento europeo potrà non soltanto governare la propria trasformazione tecnologica, ma anche offrire un paradigma internazionale nel quale progresso, equità e sicurezza coesistano in modo armonico.
Bibliografia
(1) G. DE MINICO, Le fonti del diritto: un argine all’intelligenza artificiale?, in Riv. AIC, 3/2025, p. 76 ss., ove viene evidenziato come «le fonti del diritto siano cambiate via via che le dinamiche di Internet e di intelligenza artificiale si evolvevano, presentando tre forme distinte che riflettono contesti storici, contemporanei e futuri. Inizialmente, l’analisi esplora la tradizio-nale autoregolazione, ricostruendone il percorso da semplice pratica autoregolativa a fonte del diritto, a condizione di rispettare i requisiti di legittimità posti dall’ordinamento europeo. Nel contesto contemporaneo, il lavoro approfondisce il ruolo dell’intelligenza artificiale, concentrandosi sui seguenti strumenti normativi individuati nell’A.I. Act: norme armonizzate e co-re-golazione tra autorità pubbliche e privati. Queste fonti esemplificano una complessa interazione tra decisioni politiche e competenza tecnica, sollevando importanti questioni riguardo alla legit-timità alla rappresentanza democratica e alla tutela dei diritti fondamentali. Guardando al futuro, l’Autrice discute il ruolo inedito della «tecnica come fonte del diritto», un modello che diverge radicalmente dai paradigmi tradizionali e autoregolati. Si vedano, inoltre, M. TUOZZO, Note in-torno al (futuro) Artificial Intelligence Act. Prospettive costituzionali e sfide dell’immigrazione nell’ecosistema digitale, in Dir. pubbl. eur. Rass. online, 2024, n. spec. 1, p. 213 ss.; J. BLACK, Rules and Regulations, Oxford, 1997, pp. 71-80; A. OGUS, Rethinking Self-Regulation, in Ox-ford JLS, 15, 1995, pp. 97-108; O. POLLICINO, Regolazione e innovazione tecnologica nell’or-dinamento della rete, in Riv. AIC, 2/2025, p. 152 ss.; G. DE GREGORIO, The Normative Power of Artificial Intelligence, in Indiana JGLS, 30, 2023, p. 73 ss.; E. CELESTE, Digital Constitutiona-lism: A New Systematic Theorisation, in Int. RLCT, 33, 2019, p. 76 ss.
(2) Osserva U. RUFFOLO, L’AI Act e l’evoluzione dell’AI, in U. RUFFOLO (a cura di), AI Act. La regolamentazione europea dell’intelligenza artificiale, Roma, 2025, p. 9, che l’AI Act, «con-siderato la prima e antesignana misura di sistematica regolazione dell’AI negli ordinamenti occidentali, spazio, tratta materia nella quale la velocità di evoluzione del fenomeno regolato può rischiare di rendere molti approcci regolatori strutturalmente inadeguati a segnare il passo. È il dilemma della dialettica regolante-regolato in un settore così “mobile” la cui natura e ritmo di crescita esigerebbero dalla legal machinery, secondo i massimi esponenti delle altre scienze (“dure” e non: da Bostrom ad Acemoglu), una sapienza regolatoria proattiva e non semplice-mente reattiva».
(3) Cfr. in materia, G. FINOCCHIARO, La proposta di regolamento sull’intelligenza artificiale: il modello europeo basato sulla gestione del rischio, in Dir. inf., 2022, p. 303 ss.; L. FLORIDI, The European Legislation on AI: A Brief Analysis of its Philosophical Approach, in PhT, 34, 2021, p. 215 ss.; G. MAZZINI-S. SCALZO, The Proposal for the Artificial Intelligence Act: Considerations around Some Key Concepts, in C. CAMARDI (a cura di), La via europea per l’Intelligenza Artifi-ciale, Milano, 2023, p. 21 ss.; L. GATT-M.T. LO CONTE-M.G. MAZZARELLA, L’ambito soggettivo ed oggettivo di applicazione dell’AI Act, in U. RUFFOLO (a cura di), op. cit., p. 49.
(4) A. ALAIMO, Il Regolamento sull’Intelligenza Artificiale: dalla proposta della Commissione al testo approvato dal Parlamento. Ha ancora senso il pensiero pessimistico?, in federalismi.it, 25, 2023, p. 133 ss., secondo cui «la valutazione dell’AI Act non deve rimanere isolata dal gene-rale contesto normativo europeo e nazionale in cui la proposta è concepita, ma debba piuttosto inquadrarsi – per usare un’immagine – con un grandangolo, sì da tenere adeguatamente conto delle molte discipline vigenti e dei numerosi progetti normativi in corso. Ciò consente di intercettare i fili di una trama normativa unitaria che, in un’ottica complessiva di governo dell’ecosistema digitale, non sembra che stia del tutto confinando ai margini le questioni sociali rispetto agli imperativi economici. Il quadro complessivo lascia meno spazio al pessimismo iniziale e suggerisce di non confinare la valutazione del progetto di AI Act nel libro nero delle iniziative unicamente finalizzate a regolare il mercato unico».
(5) A. SIMONCINI, Il linguaggio dell’intelligenza artificiale e la tutela costituzionale dei diritti, in Riv. AIC, 2/2023, p. 8, per il quale «un numero crescente di decisioni che interferiscono con la nostra sfera di libertà sono prese avvalendosi di sistemi di IA (che, inevitabilmente, tendono a sostituire e non solo a supportare la decisione). L’evoluzione di questo specifico settore tecno-logico sta portando alla sostituzione di modelli di inferenza causale con modelli logico-statistici basati sulla correlazione. Questa evoluzione rende in alcuni casi estremamente difficile, se non del tutto impossibile, comprendere il linguaggio e, dunque, le ragioni di tali decisioni. Alcuni, seppur rari, casi giurisprudenziali emblematici confermano/evidenziano i punti precedenti»; ID., L’uso delle tecnologie nella pandemia e le nuove diseguaglianze, in A. PAJNO-L. VIOLANTE (a cura di), Biopolitica, pandemia e democrazia. Rule of law nella società digitale, II, Etica, comu-nicazione e diritti, Bologna, 2021.
(6) G. SALANITRO, Una prima lettura sull’impatto della legge IA nel diritto tributario, in Riv. tel. dir. trib., 9 ottobre 2025; L. TOSI, L’evoluzione digitale del sistema tributario, in Tax News, 1/2025, p. 32 ss. Per approfondimenti, R. CORDEIRO GUERRA, L’intelligenza artificiale nel pri-sma del diritto tributario, in Dir. prat. trib., 2020, I, p. 922 ss., secondo cui «quando si affaccia al mondo del diritto un nuovo fenomeno o una nuova forma, anche embrionale, di entità pro-spetticamente configurabile quale centro di imputazione di diritti ed obblighi, quello tributario è tra i primi o comunque più solerti settori del sapere giuridico a scandagliarne le potenzialità, ovviamente nella prospettiva di dar vita ad un nuovo soggetto passivo da sottoporre a tassazione o al quale addossare obblighi strumentali al prelievo. Tale dinamica si sta ripetendo anche rispetto al fenomeno dell’intelligenza artificiale, per un verso con fughe in avanti costruite su una futura possibilità di tassare macchine capaci di autodeterminarsi e dunque anche di produrre ricchezza loro imputabile; e per l’altro, più realisticamente, con riferimento al trattamento fiscale da riservare ad imprese o privati che utilizzano forme di intelligenza artificiale in grado di sostituire, in tutto o in parte, il lavoro umano. In una diversa e ulteriore prospettiva, altrettanto fervida di sviluppo, l’interesse verso l’intelligenza artificiale si è poi appuntato sul potenziale impatto che essa potrà avere nell’implementazione e applicazione delle disposizioni tributarie: uno sce-nario al tempo stesso fecondo e sconfinato, considerata la mole delle disposizioni, la loro cre-scente complessità, il numero di soggetti coinvolti nella loro quotidiana attuazione negli attuali sistemi di fiscalità di massa. In quest’ultima chiave, in particolare, spiccano le potenzialità, ma anche le problematiche, che l’uso dell’intelligenza artificiale potrebbe comportare ai fini dei controlli sui contribuenti, orientando e rendendo più neutrale la scelta dei soggetti da sottoporre a verifica». Si veda anche A. FIDELANGELI-F. GALLI, The Use of AI Technologies in the Tax Law Domain: An Interdisciplinary Analysis, in Dir. prat. trib. int., 2022, pp. 125-126; S.A. PARENTE, La soggettività tributaria delle macchine intelligenti e i nuovi modelli di tassazione dei processi produttivi automatizzati e interconnessi, in Ianus-Diritto e Finanza, 23, 2021, pp. 111-112.
(7) Cfr. S. DORIGO, The ‘Algorithmic Revolution’: Fair Taxation, Social Pact and Global Governance, in M. BELOV (a cura di), The IT Revolution and its Impact on State, Constitutionalism and Public Law, Oxford, 2021, p. 161 ss.; ID., Intelligenza artificiale e norme antiabuso: il ruolo dei sistemi ‘intelligenti’ tra funzione amministrativa e attività giurisdizionale, in S. DORIGO (a cura di), Il ragionamento giuridico nell’era dell’intelligenza artificiale, Pisa, 2020, p. 123.
(8) Per ulteriori approfondimenti sui profili tributari dell’economia digitale, si consenta il rin-vio al volume F. GALLO-A.F. URICCHIO, La tassazione dell’economia digitale, Bari, 2022; A.F. URICCHIO, Evoluzione tecnologica e imposizione: la cosiddetta Bit Tax. Prospettive di riforma della fiscalità di internet, in Dir. inf., 2005, p. 753; F. GALLO, Fisco ed economia digitale, in Dir. prat. trib., 2015, I, p. 601; ID., Il futuro non è un vicolo cieco. Lo Stato tra globalizzazione, decentramento ed economia digitale, Palermo, 2019; L. DEL FEDERICO-C. RICCI (a cura di), La Digital Economy nel sistema tributario italiano ed europeo, Padova, 2015; L. DEL FEDERICO (a cura di), Le nuove forme di tassazione della Digital Economy, Roma, 2017; ID., La tassazione nell’era digitale. Genesi, diffusione ed evoluzione dell’equalisation levy, in Dir. prat. trib. int., 2020, p. 1431; L. CARPENTIERI (a cura di), Profili fiscali dell’economia digitale, Torino, 2020; R. CORDEIRO GUERRA-S. DORIGO (a cura di), Fiscalità dell’economia digitale, Pisa, 2022; A. DI PIETRO-P. SANTIN (a cura di), La fiscalità dell’economia digitale tra Italia e Spagna, Padova, 2021; F. FARRI, Tax Sovereignty and the Law in the Digital and Global Economy, Torino, 2021; S. DORIGO (a cura di), Il ragionamento giuridico nell’era dell’intelligenza artificiale, Pisa, 2020; A. PERSIANI (a cura di), La tassazione dell’economia digitale tra sviluppi recenti e prospettive future, Atti del convegno del 29 novembre 2018 (numero speciale di Diritto, mercato, tecnologia), NEU, 2019; G. CORASANITI, La tassazione della “digital economy”: evoluzione del dibattito in-ternazionale e prospettive nazionali, in Dir. prat. trib. int., 2020, I, p. 1397; M.C. FREGNI, Mer-cato digitale e tassazione: misure attuali e progetti di riforma, in Riv. dir. fin., 2017, I, p. 51; C. BUCCICO, Problematiche e prospettive della tassazione dell’economia digitale, in Dir. proc. trib., 2019, p. 255; FONDAZIONE BRUNO VISENTINI, La tassazione dell’economia digitale, 4 aprile 2019, 476; E. DELLA VALLE-G. FRANSONI (a cura di), L’imposta sui servizi digitali, Padova, 2021.
(9) B.-J. KOOPS, Ten Dimensions of Technology Regulation, in M.E.A. GOODWIN-B.-J. KOOPS-R.E. LEENES (a cura di), Dimensions of Technology Regulation, Nijmegen, 2010, p. 309 ss.
(10) Cfr. F. GALLO, Cyberspazio, diritti e tutele, in A.F. URICCHIO-C. CALDAROLA (a cura di), L’intelligenza artificiale tra regolazione e esperienze applicative. AI ACT (regolamento UE) e disegno di legge governativo, Bari, 2025, p. 16, il quale sottolinea la necessità, per le istituzioni europee, di definire un quadro regolatorio chiaro in materia di intelligenza artificiale, osservando come, se da un lato viviamo ormai in una sorta di metaverso popolato da oggetti “intelligenti” che ci parlano, ci ascoltano e ci assistono nelle più varie attività quotidiane, dall’altro si facciano sempre più pressanti i dubbi circa le possibili ombre della digitalizzazione, la natura “artificiale” dei suoi frutti, i rischi di manipolazione, l’assenza di adeguati controlli e il potenziale decremento occupazionale che essa potrebbe produrre. Da qui la necessità di una normativa europea idonea a prevenire, nel tempo, tali effetti.
(11) In GU Serie Generale n. 223 del 25 settembre 2025, n. 25G00143.
(12) European Commission, Data Union Strategy: Unlocking Data for Artificial Intelligence, cit.; sul valore sistemico della qualità dell’informazione e della governance dei dati nel quadro europeo v. F. GALLO, Cyberspazio, diritti e tutele, cit., p. 9, ove la qualità dei dati è considerata presupposto della tutela dei diritti e della legittimazione democratica dei processi digitali.
(13) Reg. (UE) 2022/868 (Data Governance Act); sulla dimensione istituzionale della condivisione dei dati e sul ruolo della governance pubblica v. A.F. URICCHIO, Il fisco dinanzi all’intelligenza artificiale e alla digital transformation, in A.F. URICCHIO-C. CALDAROLA (a cura di), op. cit., p. 197 ss., che qualifica la governance dei dati come infrastruttura ordinante dell’ordinamento digitale.
(14) Sul nesso tra fiducia, qualità del dato e responsabilità pubblica D.U. GALLETTA-B. CAPPELLO, Il Regolamento UE sull’intelligenza artificiale e le amministrazioni pubbliche, in A.F. URICCHIO-C. CALDAROLA (a cura di), op. cit., p. 59 ss., in relazione ai rischi di opacità e alla necessità di trasparenza algoritmica.
(15) Reg. (UE) 2023/2854 (Data Act); per una lettura civilistica degli effetti dell’accesso ai dati e dell’interoperabilità sulle categorie tradizionali cfr. U. RUFFOLO, Intelligenza artificiale e responsabilità: servono (sempre) regole nuove per il nuovo fenomeno?, in A.F. URICCHIO-C. CALDAROLA (a cura di), op. cit., p. 93 ss.
(16) Sul rapporto tra interoperabilità, certezza giuridica e funzionamento equo del mercato, con particolare riferimento all’ambito tributario e amministrativo, si rinvia a A.F. URICCHIO, Il fisco dinanzi all’intelligenza artificiale e alla digital transformation, cit., p. 201 ss., ove la qualità dei dati è indicata quale condizione della sostenibilità dei sistemi pubblici digitalizzati.
(17) Reg. (UE) 2024/1689 (AI Act); per una ricostruzione sistematica dell’architettura del ri-schio e degli effetti sull’azione amministrativa si vedano C. CALDAROLA, L’AI Act: il nuovo regolamento europeo sull’intelligenza artificiale, in A.F. URICCHIO-C. CALDAROLA (a cura di), op. cit., p. 87 ss.; M. CORRADINO, Potere pubblico e intelligenza artificiale, ivi, p. 39 ss.
(18) European Commission, Proposal for a Regulation on Artificial Intelligence, Cybersecurity and Data Governance (Digital Omnibus), COM (2025) 837 final; sulla semplificazione normativa e sull’esigenza di coerenza sistemica del diritto digitale europeo v. A.F. URICCHIO, Postfazione, in A.F. URICCHIO-C. CALDAROLA (a cura di), op. cit., p. 467 ss.
(19) European Commission, SWD (2025) 836 final – Digital Simplification Agenda; Reg. (UE) 2024/1183 sul quadro europeo di identità digitale; sul ruolo delle infrastrutture fiduciarie e della verificabilità delle informazioni nelle relazioni economiche digitali. Cfr. J.D. LOHRW.J. MAX-WELL-P. WATTS, Legal Practitioners’ Approach to Regulating AI Risks, in K. YEUNG-M. LODGE (a cura di), Algorithmic Regulation, Oxford, 2019, p. 242 ss.
(21) Cfr. V.S. POLI, Il rafforzamento della sovranità tecnologica europea e il problema delle basi giuridiche, in Quaderni AISDUE, 5/2021; V.M. INGLESE, Il Regolamento sull’intelligenza artificiale come atto per il completamento e il buon funzionamento del mercato interno? In Quaderni AISDUE, 2/2024; A. ADINOLFI, L’intelligenza artificiale tra rischi di violazione dei diritti fondamentali e sostegno alla loro promozione: considerazioni sulla (difficile) costruzione di un quadro normativo dell’Unione, in A. PAJNOF. DONATI-A. PERRUCCI (a cura di), Intelligenza artificiale e diritto: una rivoluzione?, Bologna, 2022, p. 133 ss.; G. MOBILIO, L’intelligenza artificiale e i rischi di una ‘disruption’ della regolamentazione giuridica, in Bio LJ, 2020,p. 401 ss.
(22) Cfr. L. MEZZETTI-S. ROMANO, Intelligenza artificiale, Costituzione, libertà, in U. RUFFOLO (a cura di), AI Act. La regolamentazione europea dell’intelligenza artificiale, cit., p. 35, secondo cui «la dimensione dinamica che sospinge l’innovazione tecnologica si infrange sullo schermo statico della tutela dei principi e dei valori fondamentali che dovrebbero riverberarsi in tecniche di normazione che tengano conto dei principi guida per un design etico della rivoluzione digitale».
(23) Cfr. F. GIANCOTTI, Strategia e strategie IA: manca quella militare, in A.F. URICCHIOC. CALDAROLA (a cura di), op. cit., p. 355 ss., sul ruolo dell’intelligenza artificiale nella ridefinizione degli equilibri geopolitici e della sovranità digitale, e anche M. CALIGIURI, L’intelligenza artificiale tra regolamentazione europea e strategie nazionali, ivi, p. 475 ss.
(24) Sul tema, si veda J.R. REIDENBERG, Lex Informatica: The Formulation of Information Policy Rules through Technology, in Texas LR, 76, 1997, p. 555, il quale evidenzia come «le capacità tecnologiche e le scelte di progettazione dei sistemi impongano regole ai partecipanti». Tale approccio è stato successivamente ripreso e sistematizzato da L. LESSIG, Code Is Law, in Harvard M, 1° gennaio 2000, secondo cui il codice informatico si configura quale forma di “legge”, in quanto idoneo a incidere sulle libertà individuali e a conformare l’esercizio dei diritti nello spazio digitale.
(25) European Commission, Data Union Strategy: Unlocking Data for Artificial Intelligence, COM(2025) 835 final, 19 novembre 2025; sul rapporto tra dignità della persona, qualità dei dati e legittimazione democratica dei processi digitali.
(26) Cfr. C.M. REALEM. TOMMASI, Libertà di espressione, nuovi media e intelligenza artificiale: la ricerca di un nuovo equilibrio nel nuovo ecosistema costituzionale, in DPCE online, 1/2022, p. 326 ss. Gli Autori mettono in evidenza come l’innovazione tecnologica, e in particolare l’uso dell’IA nei processi comunicativi, imponga una rilettura dei tradizionali parametri costituzionali, richiedendo di contemperare l’espansione delle possibilità espressive con le nuove minacce derivanti da fenomeni quali la disinformazione algoritmica e l’opacità decisionale dei sistemi automatizzati.
(27) Sul carattere trasformativo della società per effetto della tecnologia si veda L. FLORIDI-F. CABITZA, L’intelligenza artificiale: l’uso delle nuove macchine, Milano, 2021, p. 9, evidenziano come «l’intelligenza artificiale è una delle forze più trasformative del nostro tempo ed è destinata a modificare profondamente il tessuto della società». Si veda anche A.F. URICCHIO-G. RICCIO-U. RUFFOLO (a cura di), Intelligenza Artificiale tra etica e diritti. Prime riflessioni a seguito del libro bianco dell’Unione europea, Bari, 2020, ove viene posto in risalto il bisogno di un approccio regolatorio ed etico in grado di accompagnare lo sviluppo dell’IA, scongiurando derive potenzialmente lesive dei diritti fondamentali e, al contempo, valorizzandone le potenzialità al servizio dell’economia e della società. Cfr. inoltre: G. FINOCCHIARO, op. loc. cit.; O. POLLICINO-P. DUNN, op. loc. cit.; A. PAJNO-F. DONATI-A. PERRUCCI (a cura di), op. loc. cit.; A. D’ALOIA, Intelligenza Artificiale e diritto. Come regolare un mondo nuovo, Milano, 2021.
(28) Sul nesso tra linguaggio algoritmico, neutralità tecnologica e principi di eguaglianza, imparzialità e prevedibilità v. D.-U. GALETTA-B. CAPPIELLO, Il Regolamento UE sull’intelligenza artificiale e le amministrazioni pubbliche, in A.F. URICCHIO-C. CALDAROLA (a cura di), op. cit., p. 59 ss., con riferimento ai rischi di opacità decisionale e alla necessità di trasparenza.
(29) European Commission, Proposal for a Regulation on Artificial Intelligence, Cybersecurity and Data Governance (Digital Omnibus), COM (2025) 837 final; sulla funzione degli strumenti di flessibilità e sperimentazione regolatoria nell’attuazione dell’AI Act v. C. CALDAROLA, op.cit., p. 87 ss.
(30) M. EBERS, Truly risk-based regulation of artificial intelligence: how to implement the EU’s AI Act, in EJRR, 16, 2025, pp. 684-703. L’A. osserva che l’emersione di approcci regolatori “risk-based” in materia di sistemi di intelligenza artificiale, tanto nell’Unione europea quanto in altri ordinamenti, solleva innanzitutto l’interrogativo circa il significato attribuito al concetto di «rischio» da parte del legislatore. In termini generali, il rischio può essere definito come «la probabilità che una fonte di pericolo si traduca in un danno effettivo». Si vedano anche C. NOVELLI-F. CASOLARI-A. ROTOLO-M. TADDEO-L. FLORIDI, AI risk assessment: a scenario-based, proportional methodology for the AI Act, in Dig. Soc., 3:2, 2024; M. KAMINSKI, Regulating the risks of AI, in Boston ULR, 2023, p. 103.
(31) Reg. (UE) 2024/1689 (AI Act); sull’istituzione dell’AI Office e sul ruolo della supervisione centralizzata ai fini dell’applicazione uniforme del quadro regolatorio v. C. CALDAROLA, op. cit., p. 91 ss.; M. CORRADINO, op. cit., p. 39 ss.
(32) Sul principio della centralità della persona umana e sull’impossibilità di considerare l’algoritmo come soggetto autoreferenziale v. A.F. URICCHIO-F. MAZZOTTA, Metaverso, fiscalità e intelligenza artificiale: prime considerazioni alla luce del recente disegno di legge in materia, in A.F. URICCHIO-C. CALDAROLA (a cura di), op. cit., p. 225 ss., ove il controllo umano è ricondotto a presidio essenziale della legalità costituzionale.
(33) European Commission, SWD (2025) 836 final – Digital Simplification Agenda; sul coordinamento degli obblighi di notifica in materia di cybersicurezza e sulla riduzione della frammentazione regolatoria v. F. GALLO, Cyberspazio, diritti e tutele, cit., p. 23 ss.
(34) Sul rapporto tra semplificazione degli adempimenti digitali, certezza giuridica ed efficienza operativa, con specifico riferimento all’ambito tributario, v. A.F. URICCHIO, Il fisco dinanzi all’intelligenza artificiale e alla digital transformation, cit., p. 201 ss.
(35) Commissione europea, Data Union Strategy – Unlocking Data for AI, cit.
(36) Regolamento (UE) 2024/1689 (AI Act), considerando iniziali; SWD (2025) 836 final, Introduzione e § 1.1; G. DE MINICO, op. loc. cit., Parte II.
(37) F. GALLO, Cyberspazio, diritti e tutele, in A.F. URICCHIO-C. CALDAROLA, op. cit., p. 15 ss.
(38) F. GALLO, op. loc. ult. cit.; N. MACCABIANI, Data processing and algorithms: a constitutionally oriented AI?, in AI Law, 2025, p. 1 ss.
(39) Commissione europea, Digital Omnibus, COM (2025) 837 final, Explanatory Memorandum.
(40) Commissione europea, COM (2025) 835 final, §§ 1 e 3.
(41) Commissione europea, COM (2025) 835 final, § 2; Commission Staff Working Document on Common European Data Spaces, SWD (2024) 21 final.
(42) Commissione europea, COM (2025) 835 final, § 3; SWD (2025) 836 final, § 1.1.2.
(43) A. SIMONCINI, op. loc. cit.; G. DE MINICO, op. loc. cit.
(44)Regolamento (UE) 2024/1689 (AI Act), artt. 13 e 50; SWD (2025) 836 final, § 1.2.2.7.
(45) F. GALLO, op. loc. cit.; Commissione europea, COM (2025) 837 final, motivazioni sulla necessità di uniformità applicativa del mercato interno.
(46) Regolamento (UE) 2024/1689 (AI Act); SWD (2025) 836 final, § 3.
(47) Regolamento (UE) 2024/1689 (AI Act), artt. 64 ss.; Commissione europea, COM (2025) 837 final; Comunicato stampa Commissione UE, 19 novembre 2025.
(48) Commissione europea, COM (2025) 837 final, Explanatory Memorandum; SWD (2025) 836 final, § 3.2.
(49) Commissione europea, COM (2025) 835 final, § 3.3.
(50) F. GALLO, op. loc. cit.; N. MACCABIANI, op. loc. cit.
(51) Commissione europea, Proposta di regolamento sui European Business Wallets, COM (2025) 838 final.
(52) Commissione europea, COM (2025) 838 final, Explanatory Memorandum; SWD (2025) 837 final, §§ 6-8.
(53) Commissione europea, COM (2025) 838 final; Allegato tecnico ai European Business Wallets.
(54) A.F. URICCHIO-C. CALDAROLA (a cura di), op. loc. cit.; Commissione europea, COM (2025) 835 final, Conclusioni.
(55) F. GALLO, op. cit., p. 15 ss.; Commissione europea, COM (2025) 837 final e COM (2025) 838 final.
(56) Sul paradigma unitario della regolazione europea dell’innovazione digitale, fondato su infrastrutture di fiducia, qualità dei dati, trasparenza dei processi e centralità della persona, v. A.F. URICCHIO, Presentazione, in A.F. URICCHIO-C. CALDAROLA (a cura di), op. cit., p. 9 ss., ove la regolazione è qualificata come condizione intrinseca della legittimità e della sostenibilità della trasformazione tecnologica.
