IA: DALLE PREMESSE DI UN PASSATO “MITICO” ALLE ATTUALI EVIDENZE. QUALI PROSPETTIVE

Di Antonella Giordano (*)

L’Intelligenza Artificiale (di seguito, IA) è ormai quasi quotidianamente oggetto di studi e dibattiti. Compulsando i media, anche i più qualificati, si è posti di fronte ad una miriade di notizie (e, purtroppo, talvolta anche di fake news), tutte incentrate sulle possibilità di impiego nell’attuale infosfera [1] della “nuova” tecnologia robotica e sui connessi rischi e vantaggi.

Si ha la percezione, nel contempo, che si moltiplichi una narrativa insistente nel voler fornire una sorta di  informativa incalzante all’opinionismo dilagante sul tema/problema dell’automatismo che, nel giro di un tempo imprevedibile (ma senz’altro breve), in tutti gli ambiti in cui troverà applicazione sovvertirà le attuali dinamiche con sue “specifiche peculiarità”.[2]

L’analisi obbiettiva delle evidenze scientifiche non può escludere che ciò possa accadere e, quanto si dirà nel prosieguo, sta a dimostrare che il potenziale tecnologico rivoluzionario innescato dalle IA non può essere fermato sicuramente ma ciò che può e si deve escludere è la mancanza di armonizzazioni normative internazionali di controllo sulla gestione delle IA stesse. In altre parole, si rende necessario e indifferibile un codice di condotta che, in buona sostanza, proibisca gabbie autoreferenziali di raccolta ed uso illegittimo dei dati, atti a divenire strumentalizzabili per fini antieconomici aggravando le disuguaglianze sociali e attentando alla democrazia [3] nonché che per intenti criminali da parte di consorterie mafiose.[4]

Allo stato il dibattito è acceso e denso di spunti di riflessione. Eppure, un primo modello di IA era apparso già negli anni ’50 senza provocare eccessive eco mediatiche e, al di là di sparute narrative di interesse sociologico, nessuna risonanza ebbe in ambienti extra-accademici che potesse andare a corroborare una minima attenzione all’interno di quegli apparati istituzionali (che sono attualmente i maggiori fruitori di programmi digitali per le proprie attività core).  A lume di ciò mi si conceda, dunque, un breve riferimento storico.

Quando il pensiero umano incontrò il pensiero artificiale

Non sono in molti a conoscere il programma di scacchi ideato nel 1950 da Claude Shannon e assai meno sono coloro che sanno che, prima ancora, il matematico britannico Alan Turing nel 1936 aveva elaborato il funzionamento di un dispositivo informatico (noto in ambito scientifico come “macchina di Turing”) in grado di eseguire algoritmi, cui seguì, tra l’autunno 1939 e la primavera del 1940, la macchina (progettata insieme al gruppo di matematici di Bletchley Park), detta “Bombe” capace di decifrare, durante la Seconda guerra mondiale, i codici crittografici tedeschi[5] e, per restare in argomento, che nel 1950 pubblicò Computing machinery and intelligence , un articolo in cui anticipava la realizzazione di un’intelligenza artificiale elaborando un test per mettere a confronto il pensiero umano e quello artificiale. Secondo quel test, noto come test di Turing, una macchina poteva essere considerata intelligente se il suo comportamento, osservato da un essere umano, fosse considerato indistinguibile da quello di una persona[6].

Il richiamo storico è doveroso perché Turing fu il pioniere della “macchina pensante”, prototipo delle tecnologie di elaborazione del linguaggio neurale e di apprendimento automatico sviluppate negli anni a venire, come, ad esempio, il programma LogicTheorist [7] sviluppato, nel 1956, dai ricercatori informatici Allen Newell e Herbert Simon e quello (noto come il “percettone”) di Frank Rosenblatt, messo a punto nel 1958.  Fu allora che università e aziende informatiche (tra le tante, la IBM) si impegnarono nello studio di nuovi programmi e software che riuscissero a dimostrare i teoremi sempre più complessi che portarono alla nascita di LISP (List Processor), il primo linguaggio informatico dedicato alla programmazione di sistemi di Intelligenza Artificiale[8]. In quel contesto emersero due paradigmi principali: Intelligenza Artificiale Forte e Debole. La prima, in base al principio che le macchine siano in grado di sviluppare una coscienza di sé,  è supportato dal campo di ricerca – non molto condiviso nella comunità scientifica nella sua totalità –  definito Intelligenza Artificiale Generale, che studia sistemi in grado di replicare l’intelligenza umana. Il secondo – paradigma dell’Intelligenza Artificiale Debole –  si oppone  al primo ritenendo possibile sviluppare macchine in grado di risolvere problemi specifici e complessi ma senza avere le abilità cognitive degli esseri umani.

La svolta nell’uso dell’IA avviene nel 1969, quando alcuni studenti e ricercatori del Carnegie Institute of Technology realizzarono, in ambito biologico, il programma Dendral, in grado di ricostruire una molecola semplice a partire dalle informazioni ottenute dallo spettrometro di massa. 

Basandosi sul paradigma dell’IA Debole, a partire dagli anni 80 sono state sviluppate le prime applicazioni in ambito commerciale[9] ampliando l’interesse verso questa tematica non solo negli Stati Uniti ma anche il Giappone e l’Europa, per giungere nel 2015, nel nostro Paese, alla rete neurale ResNet capace di una prestazione del 96,5% superiore a quella di un essere umano attestata al 90-95%.[10]

L’ excursus storico – descritto in linee essenziali – sullo strabiliante sviluppo dell’ robotica sta a dimostrare che, nell’arco di pochi decenni, essa si è evoluta dotandosi di un grado di autonomia, diversificandosi in molte tipologie e passando dall’applicazione limitata all’ambito matematico accademico al progresso di algoritmi sempre più raffinati capaci di processare una enorme mole di dati e di replicare meccanismi logici umani: in buona sostanza,  indirizzando la ricerca nello studio di risoluzioni di problematiche più umane, come lo studio di parametri variabili di auto-apprendimento attraverso la realizzazione di percorsi semantici[11] per le macchine. In buona sostanza un linguaggio che permetta di programmare le diverse possibilità proprie di un ragionamento, semplice o complesso che sia.

Oggi l’obiettivo scientifico dell’IA mira a realizzare sistemi in grado di risolvere problemi sempre più complessi con una prestazione simile o superiore a quella dell’uomo e, mentre l’interesse da parte delle istituzioni pubbliche e delle realtà private è altissima, si fa più urgente l’adozione di normative di tutela della collettività, pericolosamente esposta al rischio di procedure non etiche o confliggenti con i diritti umani.

È sotto gli occhi di tutti quanto le metodologie di IA trovino applicazioni sempre più estese con ricadute altrettanto dirompenti. Ed è comprensibile quanto possa essere determinante il tipo di modello e la profondità della rete neurale[12], ossia il particolare modello matematico che, ispirandosi ai neuroni e alle reti neurali umane, punta alla soluzione dei diversi problemi tramite l’analisi tra gli input ricevuti e la correttezza dei risultati ottenuti in relazione alle scelte effettuate.   Ciò significa che, all’interno di una rete neurale, ogni azione del sistema intelligente è sempre il risultato dell’elaborazione di calcoli volti a verificare i parametri e a definire le incognite che circoscrivono le funzioni stesse. Considerando, inoltre, che le IA in quanto software in grado di rispondere a quesiti le cui risposte non sono già state programmate durante il loro sviluppo esse sono, in buona sostanza, autonome nel loro ambito specifico di applicazione.

In concreto le IA vengono, infatti, “informate” con una mole di dati catalogati ed etichettati, i data set. Questi dati vengono quindi processati con un sistema di deep learning per creare dei profili statistici (che diventano il fondamento di tutto ciò che l’AI è in grado di concepire e manipolare) e sono codificati, in una maniera assolutamente non intuitiva per un essere umano, nel latent space, ovvero in uno spazio topologico multidimensionale.

Fermo restando quanto detto a proposito dei rischi di un utilizzo spregiudicato, è proprio grazie alla capacità di apprendimento di enormi quantità di dati e alla loro automatica elaborazione, che le IA possono trovare applicazioni di successo in moltissimi settori. E i vantaggi sono tanti. Basti solo pensare ai traguardi raggiunti in medicina (specialmente nelle analisi del battito cardiaco, nelle diagnosi di alcune forme tumorali, nell’individuazione di forme anomale e nella predizione di alcune malattie rare), nell’economia circolare, in agricoltura, nella moda, nel turismo, nel trasporto pubblico, nell’istruzione, nella gestione dell’energia e dei rifiuti, nella sostenibilità dei prodotti e nell’inclusione sociale di persone fisicamente svantaggiate, nella prevenzione dei reati[13] .

Sistemi di IA in Italia. Gli impegni nel contesto nazionale ed europeo

 In Italia i sistemi IA più utilizzati sono quelli di Intelligent Data Processing che si rivelano particolarmente efficaci per la loro capacità di elaborare dati acquisiti rilevando anomalie e formulando previsioni sul loro andamento (sono utilissimi, ad esempio, nella rilevazione delle frodi). Seguono i sistemi di Chatbot, dotati della capacità di comprendere le domande che vengono poste e di rispondere alle stesse in modo appropriato compulsando rapidamente una enorme quantità di dati, ragione per cui si considerano atti a divenire suscettibili di inadeguatezza[14].

A fronte dei tanti vantaggi derivanti dall’applicazione dell’IA (in parte descritti nel paragrafo precedente) molto dibattute sono le “nostrane” criticità, talune endemiche e altre esogene. E’ risaputo che nel nostro Paese la scienza lavora alacremente malgrado la scarsità di finanziamenti pubblici che storicamente penalizza la ricerca universitaria, la difficoltà delle aziende pubbliche e private di sviluppare nel proprio seno le competenze necessarie ad adottare le IA e, non ultime seppure in misura più contenuta, le opinioni su apocalittici scenari (volutamente illustrate nelle note che corredano questo articolo per la variegata gamma delle tesi che si contendono il panorama del dibattito in materia).

Spezzando una lancia nell’obbiettiva consapevolezza che la tecnologia è ormai  parte integrante della nostra identità di cittadini del futuro e che proprio per questo ha una enorme importanza politica, economica e sociale (che deve essere costantemente “negoziata” tra tutela dei diritti e ricerca),  l’IA rappresenta senza dubbio un enorme mercato per le big tech ed è, nel contempo, abilitante per  l’efficientamento dei servizi pubblici e privati se l’Italia non solo la adotta ma si impegna anche a produrla, studiarla e implementarla in modo da rendersi indipendente dai colossi di matrice estera e   a renderla possibilmente competitiva.

Questo dovrà essere l’impegno per l’Italia, il cui target di eccellenza scientifica riesce ad essere notevole se opportunamente presente nelle politiche di finanziamento da parte dei governi. È noto che i padroni del mondo digitale[15] continuano ad arricchirsi con le tecnologie e, non dimentichiamolo, a dominare le “gabbie” di dati in funzione di scelte autoreferenziali.   E’ un impegno che, ovviamente, avrà ricadute diverse nel settore privato e in quello pubblico: il marketing digitale e l’efficientamento della pubblica amministrazione “viaggiano” su binari paralleli convergenti su problemi comuni. 

Uno dei tanti problemi su cui il dibattito è aperto è il cosiddetto “bacino dei dati”, notoriamente di difficile gestione.  Tra piattaforme social, campagne marketing, sito internet, ads e CRM, negli ultimi tre anni è stata confermata la previsione del settimo rapporto “State of Marketing” di Salesforce: i dati provenienti dagli ecosistemi da cui le aziende prendono informazioni per valutare le proprie strategie di marketing sono aumentati di circa il 75%. Una mole fatta di numeri, statistiche, tabelle e grafici e che, prima di essere analizzata, deve poter essere raccolta. «Attualmente un’azienda opera con diversi ecosistemi che producono in media oltre 30 fonti di dati. Perdersi è facilissimo «Di strumenti a disposizione per la valutazione dei dati ce ne sono diversi sul mercato. Una piattaforma unica, dove far confluire tutti i dati disponibili rendendoli fruibili impone un cambio di approccio: dalla reportistica al dashboarding, ossia  un hub dove tutte le informazioni possono confluire, con aggiornamenti in tempo reale e con una grande facilità di consultazione .

L’evoluzione che l’intero ambito del digital marketing ha avuto è stata velocissima. Basti guardare l’uso dei dispositivi mobili, la presenza social, la comunicazione multicanale e l’uso delle web-analytcis. La digitalizzazione ha permesso alle aziende di raggiungere i propri clienti in modo più diretto, personalizzato e misurabile, trasformando il mondo del marketing in un panorama in continua evoluzione. La complessità resta ancora  il vero nodo da affrontare per molte realtà: ogni piattaforma dà una sua reportistica. Sarebbe opportuno che si proceda secondo linee strutturali creando  dashboard, una sorta di  cruscotti interattivi che permettono di visualizzare graficamente i dati provenienti da diverse sorgenti,  aggregare i dati messi a disposizione dalle diverse piattaforme web e software aziendali tramite il collegamento a dei connettori, in modo da poterli restituire in un unico hub.

Malgrado l’iniziale indifferenza le istituzioni – e si fa riferimento alle pubbliche amministrazioni – più duttili al cambiamento e alla sburocratizzazione (come, ad esempio, le agenzie fiscali) hanno dimostrato di conseguire risultati apprezzabili in termini di buon andamento, contenimento dei costi di gestione, ottimizzazione dei risultati.

La nostra pubblica amministrazione, sebbene ancora lontana dai traguardi di qualità reclamati dai cittadini, negli ultimi decenni ha, infatti, molto investito nell’informatizzazione per sburocratizzarsi adeguandosi a standard più competitivi, si propone oggi sempre più interessata all’adozione dell’IA, sinonimo di nuovi modelli di efficienza.

In tale prospettiva l’Italia il 24 novembre 2021 ha adottato il “Programma Strategico di Intelligenza Artificiale 2022-2024”. Relativamente alle pubbliche amministrazioni, ha assunto l’impegno che l’uso e l’impatto dell’IA nel settore pubblico deriveranno da un approccio duale, seguendo la logica del govern IA and govern with IA. Il passaggio al nuovo paradigma tecnologico basato sull’IA influenzerà, dunque, fortemente il processo di modernizzazione consentendo di sfruttare le grandi basi dati per ampliare i servizi del settore pubblico e le opportunità di integrazione con i privati (per esempio nei settori della fiscalità, della sanità, della mobilità).

Di conseguenza, è fondamentale rendere i dati esistenti fruibili dalle pubbliche amministrazioni nel rispetto delle regole del GDPR e dei principi di privacy by design, ethics by design e human centred design creando forme di aggregazione dei dati. Per fare ciò, saranno necessari competenze, procedure e strumenti adeguati e, per tale ragione, gli apparati dovranno sperimentare una sua implementazione misurandosi con il difficile connubio tra possibilità operative, costi, vantaggi e rischi.

Se nell’opinione pubblica generano inquietudine le innovazioni che la  transizione tecnologico/robotica sta portando nelle professioni e nel lavoro, pressanti diatribe giuridiche si incentrano sulle ricadute  in tematiche come la sorveglianza, il riconoscimento facciale, la polizia predittiva, la lotta al crimine prodotto da contenuti falsi o manipolati[16], le fake news e le molte conseguenze nefaste nel contesto economico internazionale, segnatamente europeo,  derivanti dall’assenza di una regolamentazione comune.

Per porre un primo immediato argine al dilagare di situazioni regolate diversamente da Stato a Stato il Parlamento europeo, facendo seguito al Libro Bianco[17] del febbraio 2020 e alla Dichiarazione europea sui diritti e i principi digitali per il decennio digitale (2023/C 23/ 01)[18] – emanata il 23 gennaio 2023  congiuntamente con Commissione europea, Consiglio dell’UEil 14 giugno 2023 ha approvato, per primo al mondo, l’Artificial Intelligence Act (AI Act), il progetto di normativa sull’IA, proposto dalla Commissione europea nell’aprile del 2021, imponendo una serie di obblighi per i providers di sistemi di IA[19]

Le “euronorme” mirano a garantire che l’IA, sviluppata e utilizzata in Europa, sia conforme con i diritti e i valori dell’Unione europea e per tale ragione sono previsti divieti sugli usi intrusivi e discriminatori dell’IA[20].

Nel testo approvato dal Parlamento europeo[21]  la classificazione delle applicazioni ad alto rischio include anche i sistemi di IA ritenuti dannosi[22] per la salute, la sicurezza, i diritti fondamentali delle persone o l’ambiente. 

Particolarmente “attenzionati” sono i sistemi di IA generativa che si basano su modelli, quali ChatGPT i quali, secondo il legislatore dell’AI Act, sono obbligati a rispettare i requisiti di trasparenza (dichiarando che il contenuto è stato generato dall’IA), a fornire garanzie per evitare la produzione di contenuti illegali e a pubblicare le sintesi dettagliate dei dati protetti dal diritto d’autore utilizzati per l’addestramento[23].

Gli intenti implementati nei primi interventi normativi di indirizzo hanno trovato una recentissima evidenza nella “Prima Relazione sullo stato del decennio digitale” pubblicata il 27 settembre 2023. La Relazione reca un’analisi globale dei progressi compiuti verso la realizzazione di una trasformazione digitale “volta a rafforzare la sovranità digitale, la resilienza e la competitività dell’UE” (ossia  gli obiettivi e i traguardi della strategia 2030 dell’Europa) concentrandosi su quattro pilastri principali: competenze digitali, infrastrutture digitali, digitalizzazione delle imprese, compreso l’uso dell’intelligenza artificiale (IA), e digitalizzazione dei servizi pubblici.[24]

Primi passi. Sicuramente da accogliere con fiducia ma restano comunque interventi “tiepidi” che viaggiano ad una velocità troppo lenta rispetto a quella dell’evoluzione dei sistemi di IA e dalle sue ricadute in ambiti nei quali la soglia di allerta deve essere, invece, mantenuta altissima. E sono proprio le figure esponenziali delle molteplici realtà settoriali ad invocare con veemenza provvedimenti di regolazione ad efficacia internazionale contro il monopolio dei colossi del web e di deterrenza degli illeciti.

E sono ormai molte le occasioni congressuali in cui la questione assume un ruolo centrale fomentato dal clima di apprensione dilagante. Alla XXVIesima edizione di Eurovision  da poco conclusa[25] il Direttore generale della DG Connect della Commissione Europea, Roberto Viola, annunciava infatti l’importanza di sbloccare in Europa il provvedimento, ricordando fissata per il prossimo 8 dicembre la scadenza del negoziato europeo: il suo intervento è avvenuto poco prima che negli Stati Uniti il presidente Joe Biden firmasse un decreto immediatamente esecutivo per imporre alle compagnie Internet ed alle società di Intelligenza Artificiale Generativa una serie di regole precise da rispettare Link [26]

Sull’urgenza di adottare quanto prima il regolamento europeo in materia di Intelligenza artificiale, hanno convenuto tutti i relatori partecipanti alla Tavola rotonda dedicata da Eurovisioni all’argomento[27].  

Il fermento istituzionale, l’attesa diffusa negli ipotetici fruitori di servizi prodotti dalle IA e gli interventi normativi ancora insufficienti mantengono attuale “la doppia lettura”, che storicamente ha caratterizzato l’iter fenomenico della rivoluzione tecnologica fin dai primordi. Al centro dell’acceso dibattito tra diverse specificità e linguaggi – il fattore umano e quello dei computer in mano alla robotica – c’è il rischio della sorveglianza, dello sfruttamento, del furto di dati e dei sistemi di conservazione degli stessi dati[28], di identità, dei costi ma c’è anche la possibilità creare servizi intelligenti, di realizzare obbiettivi fino ad oggi non raggiunti ovvero raggiunti in misura inadeguata. Proprio l’utilizzo dell’IA nella cybersecurity dovrebbe animare maggiormente l’interesse delle amministrazioni pubbliche che nel panorama generale sono da sempre quelle maggiormente ostracizzate perché il costo di gestione non garantisce un livello di qualità dei servizi erogati.  

Non a caso le grandi aziende – secondo quanto emerge dalle stime del recente studio “AI In Cybersecurity Global Market Report 2023” pubblicato da Reportlinker – hanno aumentato gli investimenti in questo settore al punto che il mercato dell’IA nella sicurezza informatica sembra destinato a crescere dai 15,9 miliardi di dollari del 2022 ai 20 miliardi di dollari del 2023 (+25,5%)[29]. L’allarme arriva anche dallo studio “2023 Cyber Claims Report: Mid-year Update“, riportato da TechTarget, secondo il quale gli attacchi ransomware sono aumentati del 27% durante la prima metà del 2023 con una perdita media per le aziende di 365mila dollari. Ancora più impressionante il numero riguardante i tentativi di phishing che, secondo il Mid-Year Cyberthreats Report 2023, uscito su GlobeNewswire, sono aumentati del 464% nel primo semestre del 2023 rispetto allo stesso periodo di un anno fa.  Di sicurezza informatica si è parlato al recente Richmond Cyber resilience forum organizzato a Rimini da Richmond Italia. L’evento in Romagna è arrivato a pochi giorni dal via dell’European Cybersecurity Month, che ha coinvolto tutti gli Stati membri dell’Unione Europea in una campagna coordinata di consapevolezza sulla cybersicurezza minacciata da programmi come ChatGPT .

 Il grande vantaggio dell’intelligenza artificiale è la sua capacità di fare analisi predittiva e di riuscire a reagire agli attacchi.

Ma come? Qualche spunto per riflettere?

Le vittime degli attacchi ransomware sembrano essere cambiate e il mirino si sposta sempre di più sulle piccole e medie imprese. Secondo un nuovo report riportato da Infosecurity Magazine, nel primo semestre del 2023, il 57% delle vittime del ransomware LockBit, responsabile degli attacchi alla Royal Mail, sono organizzazioni che contano fino a 200 dipendenti. Un trend iniziato nella seconda metà del 2022 quando il 47% delle nuove vittime era rappresentato da aziende di piccola dimensione.

L’aumento dei crimini informatici[30] spinge le aziende a investire nella sicurezza. Tra aprile e giugno, infatti, in Italia si sono registrati 672 cybercrime, quasi il doppio rispetto ai 308 del trimestre precedente. In particolare, preoccupano i cyber-attacchi che sono stati 569, per un aumento del +196% rispetto ai 192 del trimestre precedente. Un numero record mai registrato da quando, da gennaio 2020, l’Osservatorio Cybersecurity di Exprivia ha iniziato a tenere il monitoraggio dei dati.

Il problema della cybersecurity  assume un rilievo ineludibile per le sue ricadute che,  nell’ambito della pubblica amministrazione, possono tradursi in proporzioni comprensibilmente devastanti. In tale ottica il Piano nazionale di ripresa e resilienza (PNRR) italiano ha raccolto la sfida prevedendo ingenti investimenti per progetti volti a razionalizzare la spesa delle pubbliche amministrazioni centrali e, in particolare, per la transizione digitale delle infrastrutture riservando dovuta attenzione affinchè l’implementazione delle IA siano conferenti con le misure di cybersecurity [31]

Conclusioni

Concludo l’analisi condotta sull’IA, elaborata prendendo abbrivio dalla sua evoluzione storica e approdando ai sistemi adottati in Italia nella fiducia di aver trasmesso a chi legge, una visione compiuta della fenomenologia connessa e spunti di riflessione sui suoi nodi cruciali, rappresentati fondamentalmente dalla necessità indifferibile per i legislatori di armonizzarsi nell’adozione di un codice etico internazionale e di mantenere alto il livello di controllo sulla tutela dei diritti e la deterrenza del crimine mafioso. Nel panorama generale il “modello Italia” esprime, come ho inteso dimostrare, livelli di eccellenza laddove si è investito e si continua ad investire per elaborare parametri di automazione secondo standard di eccellenza anche per sicurezza e tutela dei diritti. Ho, mappando le specifiche tecniche, focalizzato lo studio su taluni specifici aspetti in disparte lasciando le ricadute in altri settori non per miopia narrativa quanto per rispetto dei dovuti parametri editoriali ma senza venir meno al mio preciso impegno di evidenziare, anche in questa autorevole testata,  che il governo deve porre il sostegno economico alla ricerca nelle sue priorità perché l’autoproduzione di IA oltre che rappresentare una risorsa economicamente apprezzabile mette al riparo il Paese dalle strategie – si è visto non sempre lecite – dei colossi esteri della digitalizzazione.

Antonella Giordano giornalista e comunicatore pubblico, docente universitario (UniSiena e Meier), condirettore di IWP e Radio Regional, Senatore accademico della Norman Academy, tra i molti incarichi istituzionali è stata responsabile dei dati soggetti a pubblicazione sul sito istituzionale dell’Agenzia delle entrate (ex art. 10, comma 1 del Dlgs n. 33/2013 come modificato dall’art. 10 del Dlgs n. 97/2016 disposizioni in materia di prevenzione della corruzione e della trasparenza)


[1] “Infosfera” è la definizione coniata dal filosofo Luciano Floridi per definire il nuovo ambiente culturale prodotto dalla rivoluzione digitale (di cui l’IA è l’elemento prioritario) con cui le tecnologie influiscono nella attuale società dei big data “trasformandoci spesso in spettatori di una realtà che sta altrove, dove siamo presenti ma al contempo assenti, in compagnia ma soli, in connessione più che in relazione”. Secondo la visione di Floridi i confini tra la vita online e quella offline tendono a sparire e siamo tutti ormai connessi gli uni con gli altri senza soluzione di continuità, diventando progressivamente parte integrante di un’“ infosfera” globale (cfr: Luciano Floridi, La quarta rivoluzione. Come l’infosfera sta trasformando il mondo, Raffaello Cortina editore).

.[2] È una percezione presente anche nel pensiero di molti “addetti ai lavori” e di illustri saggisti che già in tempi non sospetti preconizzavano le ricadute della diffusione delle tecnologie nella società umana. Avanzò dubbi lo stesso Alan Turing quando, nel 1951, ebbe a dichiarare che “una volta avviato lo sviluppo di macchine intelligenti, non ci vorrà molto perché superino i nostri deboli poteri. A un certo punto dovremo aspettarci che le macchine prendano il controllo”. In tempi più recenti del tema si sono occupate le Reith Lectures, le quattro lezioni nelle quali Stuart Russell, uno dei massimi esperti di intelligenza artificiale, matematico e informatico britannico, professore alla Berkeley University ha ribadito quanto affermato anche in altre occasioni circa l’urgenza di progettare, per il bene dell’umanità,  un’IA controllabile perché il rischio non sta in una futura super IA che possa raggiungere l’autocoscienza e minacciare la sopravvivenza della nostra specie quanto nella possibile incapacità dell’essere umano di gestire questa tecnologia in modo etico e per il bene del mondo. L’appello al senso di responsabilità politica e all’intelligenza umana di Russell agli scienziati e ai decisori politici è chiaro: “dobbiamo interrogarci adesso, finché abbiamo tempo, su qual è il buon futuro per noi, per le nostre famiglie e per il mondo” . Se si faranno le scelte giuste l’IA assicurerà all’umanità un’età dell’oro in cui si risolverà la piaga della povertà e gran parte dei problemi degli esseri viventi nonchè del pianeta ma i rischi saranno irreparabili se non sarà disciplinata da norme che stabiliscano precise regole e impiegata per fini collettivi.

Una visione prospettica, quella di Russell, lucida e per nulla apocalittica, quale quella che foriera di allarme sociale attraverso altri generi espressivi (si pensi, per citarne uno tra i tanti, al film “Transcendence” ) alimentando una vexata quaestio dell’estinzione del genere umano che da decenni divide l’opinione pubblica.

[3] L’IA senza controllo può, infatti, standardizzare le preferenze, polarizzare le scelte rendendole prevedibili per l’algoritmo e facendo sì che possano essere sfruttate non solo commercialmente ma anche politicamente.

[4] Le mafie più moderne possono sviluppare sistemi basati sull’intelligenza artificiale per la manipolazione dei mercati dove riciclare i proventi del crimine. L’uso dell’intelligenza artificiale può fungere, ad esempio, da moltiplicatore di guadagni per le attività di riciclaggio di danaro sporco. L’intelligenza artificiale, dunque, può fare da “banca dati” metterli insieme in maniera “intelligente” per l’utilizzo criminale da parte di organizzazioni mafiose che operano a livello transnazionale. Basti considerare che i ricercatori di “Check Point Research” in Israele hanno individuato almeno tre casi in cui i cyber criminali hanno utilizzato l’intelligenza artificiale per scopi criminali: 1) la creazione di software “stealer”; 2) la crittografia di dati; 3) la creazione di un marketplace del dark web per lo scambio di dati di conti bancari e carte di pagamento rubati, strumenti malware, droghe, armi e persino organi umani. 

[5] Fu grazie alla Bomba (da cryptological bombe, nome inglese derivato dal polacco bomba kryptologiczna) che vennero salvate migliaia di vite umane.

[6] Secondo il test di Turing una macchina può essere definita “intelligente” se è in grado di:

  • elaborare il linguaggio naturale (essere in grado di comunicare);
  • rappresentare la conoscenza (immagazzinare le informazioni);
  • ragionare in maniera automatica (utilizzare le informazioni immagazzinate per rispondere a domande e trarre nuove conclusioni);
  • apprendere in maniera automatica (adattarsi alle circostanze, scoprire nuovi modelli).

[7] È oggi considerato il primo programma progettato di intelligenza artificiale.  Newell e Simon fondarono uno dei primi laboratori di intelligenza artificiale presso il Carnegie Institute of Technology sviluppando una teoria unificata della cognizione e una serie di programmi, tra cui il General Problem Solver e Soar.

[8]  LISP, sviluppato nel 1958 nel contesto del MIT Artificial Intelligence Project, da John McCarthy, pose le basi di un linguaggio per lo studio di equazioni di ricorsione in un modello computazionale. In particolare, LISP viene pensato per applicazioni di IA nel contesto del Dartmouth Summer Research Project on Artificial Intelligence, ovvero il primo progetto di ricerca organico sui temi dell’IA. Dopo il Fortran (FORmula TRANslation), uno dei primi linguaggi di terza generazione, adottato dal mondo accademico e dalla comunità scientifica nel triennio compreso tra il 1954 e il 1957, grazie al lavoro del team IBM guidato da John Backus e poi adottato da Micro-Soft che ne fece una propria versione nel 1977 – il LISP è il più vecchio linguaggio di programmazione di alto livello ancora in uso.

[9] Il prototipo fu R1, sviluppata nel 1982 dall’azienda Digital Equipment per configurare gli ordini di nuovi computer: quattro anni dopo, l’azienda era in grado di risparmiare 40 milioni di dollari all’anno

[10] Non va ,tuttavia, dimenticato che, ancor prima, nel  1997,   il calcolatore Deep Blue fu in grado di vincere una partita a scatti contro il campione del mondo in carica Garry Kasparov.  Successivamente sistemi di IA furono in grado di vincere contro un essere umano anche a Go e ad altri giochi. E per completezza di analisi occorre ricordare  che nel  2011 Sebastian Thrun and Peter Norvig per la Stanford University tennero  un corso online denominato Artificial Intelligence, cui si iscrissero in  160 mila da tutto il mondo:  fu il primo MOOC. 

[11] La piena realizzazione di un ragionamento semantico (proprio dell’intelligenza umana) è oggetto della ricerca più avanzata. L’automa possiede una capacità sintattica, ossia la capacità di realizzare – seguendo le istruzioni definite dai programmatori – una procedura (algoritmo) capace di processare moli di dati per arrivare a un risultato, senza “coscienza di capire che cosa fa e che significato ha il processo in atto. L’intelligenza umana è, invece, semantica perché non necessita di programmazione per fare una determinata azione, di cui ha sempre capacità di essere (salvo i casi di fisiologicamente patologici) consapevole.

[12] Il nome di rete neurale deriva dal fatto che questo modello matematico è caratterizzato da una serie di interconnessioni tra tutte le diverse informazioni necessarie per i diversi calcoli. Matematicamente, una rete neurale viene definita come una funzione composta, ossia dipendente da altre funzioni a loro volta definibili in maniera differente a seconda di ulteriori funzioni dalle quali esse dipendono.

[13] L’IA si rivela un ausilio importante nella giustizia penale perché premetterebbe di elaborare più velocemente grandi volumi di dati, valutare con più accuratezza i rischi di fuga dei detenuti, prevedere e prevenire crimini e attacchi terroristici.

[14]Ne è un esempio la tanto discussa ChatGPT, la tecnologia sviluppata da OpenAI,che rappresenta un prototipo evoluto di chatbot che simula le conversazioni umane basato sull’IA e il machine learning. Da quando è stata resa accessibile ad un pubblico indifferenziato (dal novembre 2022) è stata oggetto di critiche per la sua applicazione ai corpus di testo, contingentati in un tempo perimetrato (dunque, inaffidabili) e con palesi profili di illiceità. L’attuale versione di ChatGPT (la 3.5) è stata, infatti, bloccata dal Garante della Privacy italiano con provvedimento del n. 112 del 30 marzo 2023 https://www.garanteprivacy.it/web/guest/home/docweb/-/docweb-display/docweb/9870832 e poi ripristinata, il successivo 15 maggio,  con la riserva rappresentata dall’impegno di monitorare l’adempimento delle non conformità eccepite. Tra tutte le questioni sollevate dal Garante della Privacy quello della protezione dei dati personali è, come si dirà nell’articolo, il più spinoso e controverso soprattutto nel diritto tributario, in quanto deputato a controbilanciare le esigenze di contrasto all’evasione fiscale e quelle di tutela dei dati personali.

[15] Tra i più ricchi del mondo nomi come Elon Musk con Tesla, Space X, Jeff Bezos con Amazon, Larry Ellison con Oracle, Bill Gates e Steve Ballmer con  Microsoft, Mark Zuckenberg fondatore di Facebook e oggi AD di Meta, Larry Page fondatore di Google, indicizzati non solo per la esponenziale crescita dei cespiti patrimoniali ma assai spesso per l’utilizzo non etico delle piazze digitali di proprietà. Ex multis lo scandalo dei cosiddetti facebook files quando Frances Haugen, ingegnera informatica, dopo aver lavorato per Google, Yelp, Pinterest e Facebook, nel 2021 ha divulgato decine di migliaia di documenti alla Securities and Exchange Commission e al Wall Street Journal, denunciando la complicità di Facebook nella radicalizzazione della violenza politica in tutto il mondo. (cfr: Frances Haugen, Il dovere di scegliere. La mia battaglia per la verità contro Facebook, Garzanti editore)

[16] Vedi nota n. 4.

[17] Libro bianco sull’intelligenza artificiale – Un approccio europeo all’eccellenza e alla fiducia https://commission.europa.eu/select-language?destination=/node/9

[18] La Dichiarazione  (https://eur-lex.europa.eu/legal-content/IT/TXT/?uri=CELEX:32023C0123(01)) firmata dai presidenti della Commissione, del Parlamento europeo e del Consiglio, rispecchia l’impegno politico di promuovere  una transizione digitale basata interamente sui valori europei, così da garantire ai cittadini il potere di godere appieno delle opportunità offerte dal decennio digitale. I diritti e i principi digitali proposti nella dichiarazione riflettono i valori fondanti dell’UE e promuovono una trasformazione digitale antropocentrica all’insegna della sostenibilità.
Nuovi ed ulteriori principi e diritti cd “digitali” andranno ad aggiungersi, integrandoli, ai diritti esistenti ed ampiamente garantiti all’interno dell’ordinamento unionale, quali la protezione dei dati, l’ePrivacy e la Carta dei diritti fondamentali. Tali diritti prenderanno a modello di riferimento l’esperienza del pilastro europeo dei diritti sociali e orienteranno sia le istesse istituzioni europee, che i singoli Stati membri, nel processo di adeguamento alla transizione digitale.
Sei sono i temi su cui i principi si focalizzano:

  1. Porre al centro della trasformazione digitale le persone e i loro diritti
  2. Sostenere solidarietà ed inclusione
  3. Garantire la libertà di scelta online
  4. Promuovere la partecipazione allo spazio pubblico digitale
  5. Aumentare la sicurezza, la sicurezza e l’empowerment degli individui
  6. Promuovere la sostenibilità del futuro digitale

[19] https://artificialintelligenceact.eu/the-act/

[20] I divieti sugli usi intrusivi e discriminatori dell’IA riguardano: l’uso di sistemi di identificazione biometrica remota “in tempo reale” e “a posteriori” in spazi accessibili al pubblico; i sistemi di categorizzazione biometrica basati su caratteristiche sensibili (ad esempio genere, razza, etnia, cittadinanza, religione, orientamento politico); i sistemi di polizia predittiva (basati su profilazione, ubicazione o comportamenti criminali passati);i sistemi di riconoscimento delle emozioni utilizzati dalle forze dell’ordine, nella gestione delle frontiere, nel luogo di lavoro e negli istituti d’istruzione; e l’estrazione non mirata di dati biometrici da Internet o da filmati di telecamere a circuito chiuso per creare database di riconoscimento facciale (in violazione dei diritti umani e del diritto alla privacy).     

[21] Nel momento in cui viene scritto questo articolo sono in corso i negoziati interistituzionali con i rappresentanti del Consiglio Ue (che ha adottato la sua posizione a dicembre 2022) per la stesura finale del testo. L’obiettivo di raggiungere un accordo entro la fine di quest’anno. perché l’AI Act possa diventare infine legge entro la prima metà del 2024.

[22] Sono considerati ad alto rischio anche i sistemi di intelligenza artificiale utilizzati per influenzare gli elettori e l’esito delle elezioni e i sistemi di raccomandazione utilizzati dalle piattaforme di social media (con oltre 45 milioni di utenti).   

[23] L’adozione di misure specifiche di tutela è motivata dalle recenti problematiche incentrate sulla tanto discussa ChatGPT che rappresenta il modello (cosiddetto generativo) di cui maggiormente, nel bene e nel male, si sono occupati i media per la sua applicazione ai corpus di testo contingentati in un tempo perimetrato e dunque, inaffidabili e con palesi profili di illiceità. L’attuale versione di ChatGPT (la 3.5) è stata, infatti, bloccata dal Garante della Privacy italiano con provvedimento del n. 112 del 30 marzo 2023 https://www.garanteprivacy.it/web/guest/home/docweb/-/docweb-display/docweb/9870832 e poi ripristinata, il successivo 15 maggio,  con riserva con l’impegno di monitorare l’adempimento di tutte le non conformità eccepite. Tra tutte le questioni sollevate dal garante della privacy il problema della protezione dei dati personali è, come si dirà nell’articolo, quello più spinoso e controverso in diritto tributario, deputato a controbilanciare le esigenze di contrasto all’evasione fiscale e quelle di tutela dei dati personali.

[24] La Relazione 2023, prevedendo anche il monitoraggio della dichiarazione europea sui diritti e i principi digitali, che riflette l’impegno dell’UE a favore di una trasformazione digitale sostenibile e sicura, è  la prima di una serie di relazioni annuali, invita gli Stati membri all’azione collettiva per colmare le attuali carenze di investimenti, accelerare la trasformazione digitale in Europa e intensificare gli sforzi per conseguire gli obiettivi del programma strategico per il decennio digitale (DDPP).

Il programma strategico per il decennio digitale (DDPP) fissa tra gli obiettivi per promuovere la digitalizzazione delle imprese l’adozione da parte di almeno il 75% delle imprese di servizi di cloud computing, big data e/o intelligenza artificiale (IA).

[25] 31 ottobre 2023

[26] Sulla stessa linea si sono espressi Il Commissario dell’Autorità francese di controllo ARCOM, Benoit Lautrel, ha convenuto sull’urgenza di dotarsi di nuove regole, ma ha sostenuto l’indispensabilità di procedere con azioni globali, piuttosto che di adottare soluzioni paese per paese. Richard Burnley, direttore giuridico dell’UER – Unione Europea delle Radiotelevisioni – ha sottolineato l’importanza di avere principi chiari per definire come i servizi pubblici possano utilizzare l’intelligenza artificiale, oltre a ricordare l’importanza di creare degli algoritmi che – anziché avere come fine principale il profitto (come sono quelli delle piattaforme) – abbiano come priorità il bene comune e l’interesse pubblico.

[27] In particolare, i dati ed i casi citati da Tim Dawson, vicesegretario generale della Federazione Mondiale dei Giornalisti, e da Erik Lambert, hanno suscitato particolare impressione, rammentando il licenziamento del 50% dei giornalisti da parte di Euronews (per rimpiazzarli con algoritmi di I.A.) e l’introduzione in Cina di un telegiornale condotto da un presentatore totalmente virtuale, sviluppato da un algoritmo e che legge notizie prodotte con l’ausilio dell’intelligenza artificiale.

[28] Il problema degli archivi dei dati è tutt’altro che secondario e non tanto perché la rivoluzione digitale ne modifica i principi. I criteri di conservazione sono un vulnus non sottacibile. Mi si consenta un brevissimo cenno in questa sede. La memoria umana e quella digitale hanno in comune solo il referente unico, ma mentre la memoria umana è una costante ridefinizione e riorganizzazione del passato, quella digitale è un processo di conservazione senza interpretazione. L’archivio è uno strumento di esternalizzazione della memoria, che comunque conserva il carattere umano di apertura e sottopone i suoi documenti a una costante reinterpretazione e attualizzazione che aiuta a rimediare l’immaginazione preservando il passato e insieme reinventandolo a ogni passo. Come esseri umani siamo dipendenti dal processo di esternalizzazione tecnico che consente di preservare e attualizzare la memoria non solo nella forma genotipica ma anche in quella epigenetica e filogenetica. Le tecniche usate per conservare la memoria sono parte integrante della nostra identità, ma proprio per questo hanno una enorme importanza politica, che deve essere costantemente negoziata tra tutela dei diritti, immaginazione e creatività.

Negli ambienti accademici ci si chiede quale futuro ci potrebbe essere per gli archivi che scelgono e conservano la memoria in cloud dislocate in luoghi geopoliticamente strategici e come possiamo pensare in modo nuovo la relazione tra la conservazione intelligente della nostra storia umana, sociale e collettiva e la capacità dell’intelligenza digitale di riconfezionare contenuti a partire da quelli che costituiscono il suo corpus di addestramento.  

Quale futuro per la tutela della proprietà intellettuale che si propone di difendere l’opera dell’ingegno umano se queste opere non sono più il frutto della capacità puramente umana, ma sono il prodotto di un complesso sistema di archiviazione e riorganizzazione dei contenuti governati da software prodotti da umani, ma su cui è difficile mantenere la visibilità? Che cosa intendere per fair use quando la definizione di beni comuni archivistici serve a nutrire algoritmi di addestramento per la produzione artificiale di testi? Come pensare all’archivio come il luogo della produzione dell’immaginario collettivo e quindi accessibile da tutte e tutti, ma evitarne lo sfruttamento da parte di sistemi sociotecnici che si appropriano dei suoi dati per la produzione di contenuti la cui controllabilità è impossibile? La scienza si sta impegnando per progettare un futuro aperto, democratico, abilitante e inclusivo per l’archivio nell’era della sua riproducibilità tecnica, le cui caratteristiche rischiano, senza regole, di prestarsi a un processo di astrazione e estrazione da parte di attori tecno-politici nella forma del free-riding dei beni comuni. Ma ciò che manca è una nuova politica per l’archivio e la memoria capaci di dialogare con le innovazioni tecnologiche digitali e i sistemi di intelligenza artificiale senza tradire la funzione pubblica, inclusiva, collettiva della conservazione della memoria.

[29] Prospettive tendenzialmente esponenziali considerando il lungo termine quando il mercato globale dovrebbe raggiungere i 49,2 miliardi di dollari nel 2027 con un tasso composto di crescita annuale del +25,3%. Nel 2022 è stato il Nord America a fare da traino, ma ci si aspetta che sia la regione Asia-Pacifico ad avere la crescita più rapida nei prossimi anni. Secondo i dati dell’FBI, nel 2022 gli Stati Uniti hanno infatti registrato frodi informatiche per un valore di oltre 3,3 miliardi di dollari, +127% rispetto ai quasi 1,5 miliardi di dollari segnalati nel 2021. Tra queste denunce quelle per frodi sugli investimenti in criptovalute hanno registrato l’aumento più drammatico, passando da 907 milioni di dollari nel 2021 a 2,57 miliardi di dollari nel 2022 (+183%).

[30] I 3  attacchi principali a cui un’azienda dovrà fare attenzione nel 2024 secondo gli esperti sarebbero:

  1. Ransomware. Si tratta di una sequenza di tecniche con cui i malfattori riescono a entrare nella rete aziendale e a esfiltrare una quantità di dati dell’azienda bloccando i file degli asset digitali con chiavi criptografiche molto complesse. Si tratta di un vero e proprio sequestro digitale che blocca l’azienda e viene solitamente chiesto un riscatto in criptovaluta per eseguire lo sblocco.
  • Phishing e BEC. Sono molto comuni gli attacchi di phishing che di solito non vanno a buon fine mentre è più pericoloso l’attacco via BEC (Business Email Compromising). Una volta preso possesso di una casella di posta elettronica si possono fare tante cose, per esempio effettuare acquisti e bonifici a favore di estranei, ecc.
  • Denial of Service. Questo tipo di attacco è temuto soprattutto da istituzioni e organi di informazione. Ne sentiamo parlare spesso e consistono nell’impedire all’ente di erogare il servizio ai propri clienti. In alcuni casi si tratta di attacchi geopolitici.
  • Esfiltrazione dei dati. È un caso ancora più subdolo che le aziende tendono a sottovalutare. Con l’esfiltrazione dei dati non si percepisce l’entità del reato si tende a pensare che non sia un vero pericolo. I dati rubati, però, possono essere utilizzati per perpetrare ulteriori frodi. L’azienda rischia così di infrangere la legge sulla privacy e di ricevere un’ammenda dalla Guardia di Finanza che va dal 2% al 4% del fatturato.

[31] Il 27% delle risorse totali del Piano nazionale di ripresa e resilienza  sono dedicate alla transizione digitale: da un lato sono previsti interventi per le infrastrutture digitali e la connettività a banda ultra larga, dall’altro quelli volti a trasformare e innovare la Pubblica Amministrazione (PA) in chiave digitale. In tale ottica Sogei, partner della PA centrale nei processi di digital trasformation, fornisce supporto strategico e operativo nei processi di erogazione dei servizi infrastrutturali (PSN), oltre a iniziative in ambito di cybersecurity.

PA digitale 2026 è l’iniziativa promossa dal Dipartimento per la trasformazione digitale della Presidenza del Consiglio dei Ministri per le Pubbliche amministrazioni che potranno richiedere i fondi del PNRR dedicati alla digitalizzazione, rendicontare l’avanzamento dei progetti e ricevere assistenza. I 7 investimenti previsti dal PNRR per la digitalizzazione della PA sono messi a disposizione attraverso 14 misure, per un totale di oltre 6 miliardi di euro. (cfr: https://www.agid.gov.it/it/agenzia/attuazione-misure-pnrr)