di Federica Cela
Introduzione editoriale
L’introduzione dell’intelligenza artificiale nei sistemi giuridici, e in particolare nel diritto penale, apre scenari complessi che interrogano i fondamenti stessi della responsabilità, della prova e del processo.
Il contributo di Federica Cela si inserisce in questo ambito con un taglio volutamente ampio e ricognitivo, offrendo una panoramica dei principali nodi critici che emergono nel rapporto tra IA e sistema penale: dalla responsabilità individuale all’utilizzo delle prove digitali, fino ai rischi connessi alla manipolazione cognitiva e alle tecnologie emergenti come i deepfake.
Il testo mette in evidenza una questione centrale: l’intelligenza artificiale non può essere considerata un soggetto autonomo nel processo decisionale, ma deve rimanere uno strumento al servizio dell’uomo, nel rispetto dei principi costituzionali e delle garanzie fondamentali.
In questa prospettiva, emerge con forza il ruolo della formazione e della consapevolezza come condizioni necessarie per un uso responsabile delle tecnologie. È proprio sul terreno educativo e culturale che si gioca la possibilità di orientare l’innovazione verso il bene comune, evitando derive tecnocratiche o forme di delega impropria alla macchina.
Il contributo invita dunque a mantenere alta l’attenzione sul rapporto tra tecnologia, diritto e dignità della persona, ricordando che ogni evoluzione normativa e tecnica deve restare ancorata ai principi fondamentali del nostro ordinamento.
Carmine Marinucci
Premessa
Trattare dell’intelligenza artificiale tout court all’interno del nostro sistema di diritto sarebbe difficile senza una doverosa e necessaria contestualizzazione dell’evoluzione tecnologica avvenuta nel corso dei secoli ed ancor più della ratio sottesa a tale nascita ed evoluzione.
L’uomo ha da sempre avuto abilità di vario genere, quali la capacità di esprimersi, di coltivare la terra, di cacciare e di sviluppare le proprie abilità cognitive. Tuttavia, ha dovuto anche creare e sviluppare artefatti tecnologici per far fronte a molti dei suoi bisogni e per superare diversi suoi limiti.
L’informatica sicuramente è l’ambito più ampio e complesso sviluppato dall’uomo per ampliare i propri saperi ma, soprattutto, per ampliare le proprie performances così da essere sempre più competitivo in modo particolare nel mondo del lavoro.
La nascita ed il successivo ampliamento dell’uso dei sistemi informatici e degli algoritmi ha fatto sorgere la necessità di regolamentare l’utilizzo di tali strumenti ed il rapporto che questi ultimi hanno con l’uomo e le conseguenze che comportano nell’attività quotidiana e nella società e nelle sue relazioni.
In altre parole, si è reso necessario capire e regolamentare i principi etici alla base della progettazione, implementazione ed utilizzo dei sistemi informatici e dell’Intelligenza Artificiale, in quanto sempre più questi strumenti prendono decisioni al posto dell’uomo, sull’uomo e con l’uomo.[1]
Volendo sintetizzare quanto detto finora, risuonano utili le parole del filosofo Cosimo Accoto, il quale sostiene che la soggettività deve essere ripensata e riconcettualizzata in quanto non più individuale come prerogativa privilegiata di attori umani singoli.[2]
Le tecnologie adottano ed accolgono, riconfigurandoli e rielaborandoli, elementi delle culture e delle sensibilità umane, restituendoli riconfigurati con l’esigenza che vengano accolti ed adottati per costituire un certo modello umano.
Così l’umano si scopre costitutivamente tecnico, perché costituito come tale proprio grazie ai sistemi tecnici, i quali si rivelano da semplici strumenti a depositi di sé in forma materiale con forte valenza narrativa.
L’intelligenza artificiale si pone anch’essa in questo contesto, accentuando la necessità di regolamentarne il suo utilizzo soprattutto in rapporto agli ambiti sanitari, giuridici e sociali. Infatti, se da un lato, come vedremo, in ambito giuridico tale strumento può aiutare notevolmente la ricerca, ad esempio, di soggetti particolari che possono agire in ambiti terroristici, mafiosi o di altro genere, dall’altro l’utilizzo dell’Intelligenza Artificiale pone non pochi problemi relativi alla tutela della privacy, alla libertà personale, di stampa, libertà di pensiero, di coscienza, ad un processo equo e al principio di presunzione di innocenza, solo per citarne alcuni.
Di fronte a tali problematiche, pertanto, si rende necessaria un’analisi approfondita dei vari aspetti sottesi alla nascita dell’IA ed al suo sviluppo.
In primo luogo è fondamentale avere presente il fine ultimo di una regolamentazione dell’utilizzo dell’IA, vale a dire la tutela dell’uomo e della sua dignità, senza per questo demonizzare lo strumento dell’IA, ma normandone l’uso così da ottimizzare le positività e limitando le negatività.
In tale ottica è opportuno prendere in considerazione il concetto di esperienza in rapporto all’IA. L’uomo matura esperienza durante la propria vita e tale elemento lo porta a compiere scelte differenti nel corso del tempo ed a posizionarsi diversamente all’interno della società. L’esperienza, dunque, diventa elemento imprescindibile nel rapporto tra uomo e IA, in quanto consente anche allo strumento artificiale di aumentare la propria capacità intuitiva e di evitare errori, così da non ledere la dignità dell’uomo. In sintesi, più l’IA sarà in grado di captare dall’esperienza umana, più sarà in grado di comprendere ciò che l’uomo vorrà fare. Analogo ragionamento deve essere fatto con riferimento alla necessità di trasparenza e tracciabilità del percorso logico dell’IA, in modo da evitare eventuali errori che possano ledere la dignità umana (si pensi a mero titolo esemplificativo al tema della discriminazione razziale, piuttosto che religiosa).
L’articolo 3 della legge 132 del 2025 in materia di intelligenza artificiale ha richiamato i principi generali entro i quali l’IA può e deve operare. In particolare al comma 1 stabilisce che l’adozione e l’applicazione dell’intelligenza artificiale deve avvenire nel rispetto dei diritti e delle libertà fondamentali previste dalla Costituzione e dalla normativa europea e richiama i principi di trasparenza, proporzionalità, non discriminazione, parità dei sessi e sostenibilità.
Il successivo comma 3 regola l’applicazione dei sistemi di IA in modo che vengano rispettati il potere di autonomia decisionale dell’uomo, della prevenzione del danno, della conoscibilità e della spiegabilità, assicurando l’intervento umano.
In materia di responsabilità penale, ad esempio, sorge il problema relativo alla personalità della responsabilità per fatto illecito. Infatti, ferma restando la responsabilità del soggetto agente, rimane aperto il discorso relativo alla responsabilità dell’agente (IA) che ha in qualche modo influenzato le scelte del soggetto agente. Con l’aumentare della complessità delle tecnologie informatiche diventa sempre più arduo prevedere il loro comportamento e, quindi, associare una responsabilità piena ai programmatori o utilizzatori, creandosi così il problema del rispetto del principio di legalità e personalità della responsabilità previsti dalla Costituzione italiana.
Tuttavia è opportuno evidenziare che l’utilizzo dell’IA può avere – e di fatto le ha – conseguenze positive sulla vita della società e, quindi, non deve essere demonizzato come spesso accade quando ci troviamo di fronte a sistemi tecnologici ancora sconosciuti o non compresi a pieno.
Un esempio di positività dell’IA è dato dal miglioramento della partecipazione della società alla vita attiva in ambito statale, politico e di accessibilità al voto.
L’aver automatizzato alcune funzioni in ambito pubblico è stato un valido passo per la riduzione del rischio di corruzione
In ambito giudiziario certamente l’introduzione del sistema di intelligenza artificiale ha permesso di ottenere più rapidamente una grande quantità di dati, quali ad esempio precedenti giurisprudenziali, testi normativi, ricerca della prova…nel settore civilistico ormai è diventato di uso comune l’utilizzo della piattaforma informatica per lo svolgimento di mediazioni on line e negoziazioni assistite. Tuttavia pone seri problemi nel rapporto tra l’utilizzo dello strumento IA e il ruolo umano nel processo decisionale. Basti pensare ad una gestione non corretta del software nell’elaborazione del processo decisionale.
Appare dunque fondamentale concepire l’IA come uno strumento al servizio delle scienze forensi e non come alternativo all’uomo in ambito forense.
Merita di essere sottolineato che il concetto di società mondiale del rischio indica, svela e rende comprensibile che la nostra lingua non è in grado di informare le generazioni future sui pericoli che abbiamo disseminato nel mondo a causa dello sfruttamento di alcune tecnologie.[3]
IA e ambito penale
Nel diritto penale l’introduzione della IA ha aperto molti scenari interpretativi e di carattere etico, primo fra tutti il già citato principio di legalità e personalità della responsabilità, ma a seguire il tema delle prove, della loro formazione e del conseguente recepimento nel processo. Infine, ma non ultimo per importanza, l’adeguamento del diritto penale a nuove fattispecie incriminatrici derivanti dall’utilizzo dei sistemi di IA e non solo.
Tutto questo discorso deve necessariamente coordinarsi con la normativa comunitaria, che in materia ha introdotto il regolamento 1689/2024 e la disciplina italiana in merito.
L’articolo 15 della legge 132 al primo comma prevede che l’impiego dell’intelligenza artificiale nei sistemi giudiziari è riservata ai magistrati per ciò che concerne ogni decisione sull’interpretazione e applicazione della legge, sulla valutazione dei fatti e delle prove e sull’adozione dei provvedimenti.
Partendo dal principio costituzionale del giusto processo di cui all’articolo 111 unitamente agli articoli 24 e 25 della Costituzione riguardanti il giudice precostituito per legge e il diritto di difesa, dobbiamo porci l’interrogativo se questi principi possono essere derogati dall’introduzione dell’uso dell’intelligenza artificiale oppure rimangono capisaldi del diritto e del processo. Sebbene la risposta, secondo la quale nessun algoritmo può sostituirsi al giudice senza una tracciabilità ed una base legale, possa apparire banale, tale non è. Infatti, proprio su questo aspetto nascono contrasti interpretativi ma ancor più di attuabilità dell’IA.
Il principio di legalità sostanziale e procedurale si basa su norme predeterminate e conoscibili mentre l’IA opera su basi predittive ed analisi probabilistiche che nulla hanno a che vedere con la legge e la tassatività della norma penale.
Il diritto ad avere una giustizia imparziale, ad una decisione motivata e comprensibile va nella direzione del principio di trasparenza e tracciabilità, evidenziati in premessa e ripresi dall’IA Act agli articoli 14 e 15.
Il considerando 61 dell’IA Act pone l’accento proprio sull’impossibilità di sostituzione dell’intelligenza artificiale al potere decisorio del giudice: “…L’utilizzo di strumenti di IA può fornire sostegno al potere decisionale dei giudici o all’indipendenza del potere giudiziario, ma non dovrebbe sostituirlo: il processo decisionale finale deve rimanere un’attività a guida umana…”. Ancora una volta si parla di sostegno all’attività umana e non di sostituzione della stessa. Pertanto, gli algoritmi e l’intelligenza artificiale possono ed in effetti aiutano l’attività giudiziaria, ma devono essere a sostegno della stessa e controllata dall’attività umana affinchè non violino i diritti fondamentali e le libertà fondamentali sancite dalla CEDU.
Il controllo dell’IA ha un ruolo fondamentale e ciò viene espletato dall’uomo e non da strumenti tecnologici. Infatti, un sistema di IA non controllato e non addestrato con dati di qualità può ledere pesantemente il diritto di difesa, così come produrre identificazioni errate che possono portare in extrema ratio fino alla limitazione della libertà personale a seguito di applicazione di misure cautelari.
Come ripreso dal considerando 159 dell’IA Act sono da considerare ad alto rischio attività di prevenzione, indagine e perseguimenti dei reati, in quanto potenzialmente lesivi di diritti fondamentali se non controllati dall’autorità preposta come Europol, Eurojust in Europa ed in Italia da Polizia di Stato, Guardia di Finanza nelle attività investigative, autorità giudiziaria…
Altro ambito molto delicato è rappresentato dalle indagini digitali, dove le deepfake la fanno da padrone. Non sono pochi i casi in cui questi contenuti digitali sintetici vengono utilizzati per alterare/falsificare prove audiovisive, compromettendone l’attendibilità.
E’ noto che le indagini digitali nel processo penale sono molto utili per identificare, presentare dati elettronici al fine di produrre prove ammissibili in giudizio. Esse si concretizzano nell’analisi di un computer, di un server o altri supporti digitali al fine di ricostruire eventi e individuare responsabilità.
Tutto ciò richiede che vengano usati metodi rigorosi e normati così da preservare gli elementi di prova, così come è importante utilizzare un corretto metodo nella conservazione della prova digitale al fine di poterla utilizzare al momento opportuno. Non sono rari i casi in cui l’autorità giudiziaria debba cimentarsi nel recuperare file cancellati, in quanto decisivi per la formazione della prova e l’attribuzione di responsabilità ad uno o più soggetti. Tali pratiche devono essere correttamente conoscibili e poste in essere dai soggetti autorizzati e competenti.
Naturalmente, benchè le indagini digitali svolgano un ruolo preminente nel processo penale, non mancano i casi in cui debbano essere svolte anche in ambito civile nelle cause di separazione o divorzio, cause di lavoro o contrattuali.
Il nostro codice di procedura penale agli articoli 266 bis e seguenti regola i presupposti per l’effettuazione di intercettazioni o l’esecuzione delle operazioni, prevedendo, articolo 268 comma 1 cpp, che le comunicazioni intercettate sono registrate e delle operazioni è redatto verbale. Al successivo comma 2 del medesimo articolo è previsto che nel verbale venga trascritto anche sommariamente il contenuto delle comunicazioni intercettate. Significativo è il comma 2 bis, dove è previsto che il pubblico ministero vigili affinchè nei verbali non siano riportate espressioni lesive della reputazione delle persone o quelle che riguardano dati personali definiti sensibili dalla legge. Dal testo normativo citato emerge come l’attenzione sia sempre incentrata sui diritti umani e sulle libertà fondamentali.
A seguito della Convenzione di Budapest del 2001, lo Stato italiano ha emanato la legge 48 del 2008, al cui articolo 8 capo III introduce alcune modifiche al codice di procedura penale ed in particolare all’articolo 244 cpp secondo comma allarga anche ai sistemi informatici o telematici i rilievi che l’autorità giudiziaria può espletare così come altra operazione tecnica.
Tutto ciò è necessariamente traslato nella normativa comunitaria in materia di IA, in quanto è necessario normare i casi di deepfake. In particolare l’articolo 50 al comma 1 richiama l’obbligo di trasparenza, secondo il quale le persone fisiche che interagiscono con sistemi di IA devono essere messe al corrente preventivamente di ciò, fatti i salvi i casi in cui si tratti di indagini digitali autorizzate.
Al successivo articolo 4, il regolamento comunitario prevede che i deployer di un sistema di IA che genera o manipola immagini o contenuti audio o video che costituiscono un «deep fake» rendono noto che il contenuto è stato generato o manipolato artificialmente, sempre fatti i salvi i casi autorizzati.
L’attenzione posta sulle deepfake trova il risvolto normativo nel codice penale ed in particolare nell’articolo 612 quater c.p. là dove ha previsto che chiunque divulghi, ceda, pubblichi o altrimenti diffonda, senza il consenso dell’interessato, immagini, video o voci falsificati o alterati mediante l’utilizzo dell’intelligenza artificiale causando un danno ingiusto alla persona venga punito con la reclusione. Strettamente legato a tale fattispecie criminosa è il reato di falsità materiale ed ideologica disciplinato dall’articolo 495 e seguenti c.p.
Merita di essere sottolineato come ai sensi dell’articolo 53 dell’IA Act è previsto che ogni contenuto generato da modelli GPAI deve essere riconoscibile come prodotto dell’intelligenza artificiale e dotato di marcatori leggibili, in rispetto al criterio di trasparenza già più volte citato.
Un altro tema delicato in ambito penale in relazione all’IA è la cybersecurity. Prima di tutto è bene comprendere cosa si intenda per cyberspazio, vale a dire un dominio operativo in cui interagiscono reti di informazioni, sistemi informatici e interazioni umane. In tale spazio, ancorché non concretamente percepibile, si possono manipolare informazioni e formare minacce quali la radicalizzazione, la propaganda, il terrorismo ed altre forme di estremismo.
Gli obiettivi di quello che potremmo definire terrorismo digitale sono molteplici; ad esempio l’interruzione di servizi essenziali al solo fine di creare disagio e attirare l’attenzione. Altro esempio ancora più emblematico è quello della propaganda terroristica on line attraverso disinformazione, deepfake. Tale attività oggi molto diffusa ha prodotto soprattutto con riferimento all’ISIS prodotti GEN per i minorenni, vale a dire per quei soggetti più vulnerabili e perciò potenzialmente attirabili.[4]
I rapporti internazionali ci riportano dati allarmanti circa le incriminazioni per cyberterrorismo, sottolineando come tra l’aprile del 2021 e gennaio 2025 sono state emesse oltre 50 incriminazioni per supporto materiale o pianificazione di attacchi per conto di gruppi terroristici stranieri quali ISIS, Hezbollah…la maggior parte dei soggetti incriminati risultava reclutata tramite terrorismo mediatico ed uso di sistemi GEN AI.
L’obiettivo principale, infatti, è quello di controllare e condizionare la mente umana, le emozioni, il giudizio ed il processo decisionale.
Si parla di manipolazione cognitiva proprio perché volta ad incidere sulla capacità del soggetto di autodeterminazione e di auto decisione.
Un utilizzo siffatto dell’IA è sicuramente un utilizzo malevolo, volto al malfunzionamento della vita democratica, dove viene meno la centralità dell’uomo.
Anche la normativa europea non poteva chiudere un occhio sul tema ed ha introdotto l’articolo 270 sexies con il quale considera condotte con finalità di terrorismo o di eversione dell’ordine democratico quelle azioni dirette ad intimidire la popolazione o a costringere un potere pubblico mediante omicidi, lesioni, danneggiamenti…
Non per nulla non è permesso utilizzare tecniche manipolative per influenzare il comportamento umano, lo scraping massivo, in modo da preservare l’etica.
La tecnica di manipolazione cognitiva è molto attuale nella ormai plurisecolare guerra israelo palestinese. In questo contesto l’IA ha avuto ed ha tuttora un ruolo fondamentale in senso negativo, in quanto viene utilizzata per la disinformazione e la manipolazione cognitiva.
Altrettanto deprecabile è l’utilizzo dell’IA per creare chatbot su misura per negare l’olocausto o altre forme di estremismo.
Conclusione
Il quadro presentato, seppur in maniera riassuntiva, porta ad una conclusione che traggo dalle parole di Jean Paul Sartre: “l’uomo deve sempre decidere ciò che è, ma anche ciò che sarà”.
Per fare questo è necessaria una formazione che parte dall’età scolare e si protrae fino ai massimi livelli. L’articolo 15 comma 4 della legge 132 del 2025 in materia giudiziaria prevede che vengano promosse, nell’ambito dell’attività formativa dei magistrati, attività didattiche sul tema dell’intelligenza artificiale e sugli impieghi dei sistemi di IA nell’attività giudiziaria, finalizzate alla formazione digitale di base e avanzata, all’acquisizione di competenze digitali nonché alla sensibilizzazione sui benefici e rischi dell’utilizzo di sistemi di IA.
Appare chiaro come la manipolazione cognitiva trovi più facilità di attecchire laddove manchi un’adeguata cultura sia di carattere generale che più approfondita da parte della popolazione. Tale situazione non fa che richiamare le già molte esperienze dei sistemi totalitari, nati prevalentemente a seguito di mancanza di informazione, ignoranza e mancanza di capacità decisionale.
Una mancanza di insegnamento dei valori alla base di una convivenza civile nel rispetto dei principi etici invocati dalla nostra Costituzione porta inevitabilmente ad un utilizzo malevolo e distorto dei sistemi di IA.
Senza voler generalizzare, tuttavia sono tanti i casi in cui si tocca con mano tale relazione, vale a dire la mancanza di formazione fin dall’età scolare e un utilizzo negativo dell’IA.
Soprattutto i giovani nati nell’era digitale sono abituati fin da piccoli a confrontarsi solamente con la tecnologia, essendo stato abbandonato quasi del tutto il dialogo e l’interazione interpersonale fatta di linguaggio verbale, scritto o di altra forma di comunicazione.
Come sostenuto da Donna Haraway, l’esistenza è sempre relazionale, vale a dire che i soggetti che vivono sono relazionali, l’uomo infatti è sempre in continua evoluzione e varia storicamente.
Basti pensare che fin dai tempi di Aristotele si parlava di educazione universitaria e più avanti si è riconosciuto Schopenauer come massimo educatore, senza parlare, nei tempi più moderni, di molto figure religiose assurte ad esempi educativi non. La dignità, che appartiene all’uomo, deve essere tutelata e ciò può avvenire solo attraverso un’educazione integrale della persona, finalizzata al raggiungimento de
[1] A. PICCHIARELLI, L’algoretica e lo sviluppo etico dell’intelligenza artificiale, Manuale sull’intelligenza artificiale, a cura di R. RAZZANTE, 2024
[2] C. ACCOTO, Il mondo dato: cinque brevi lezioni di filosofia digitale, Milano, 2017, 93.
[3] U. BECK, Un mondo a rischio, Einaudi Editore, 2006
[4] A. PFLUGER, Presidente della Commissione per la Sicurezza interna della Camera USA
