INTELLIGENZA ARTIFICIALE E NUOVI DIRITTI. IL CASO CHATGPT

Giuseppe Di Tonto, Associazione Clio ’92

Abstract

Lo sviluppo delle nuove tecnologie di intelligenza artificiale pone nuovi e seri problemi di natura giuridica alla società digitale. Opportunità, sfide e pericoli sono oggetto di riflessione e di interventi legislativi che mirano alla salvaguardia dei diritti tradizionali e dei nuovi diritti. Oggetto di particolare attenzione sono le applicazioni di intelligenza artificiale generative come ChatGPT

Keywords: Artificial Intelligence (AI), società digitale, nuovi diritti, AI Act, ChatGPT

1.  Introduzione

Da alcuni mesi l’attenzione della pubblica opinione è concentrata sul tema dell’AI (Artificial Intelligence) e sulla sua veloce diffusione. Giornali e riviste, specializzate e non, forniscono sempre maggiori dettagli su questa tecnologia che, a detta di molti, cambierà molti aspetti della nostra vita in questo XXI secolo. Già in tempi non sospetti Umberto Eco aveva fatto riflettere, con il suo libro Apocalittici e integrati del 1964, sull’uso dei nuovi strumenti di comunicazione di massa e più in generale sulla diffusione delle tecnologie nella società umana. Nel quadro tratteggiato dall’autore si rappresentavano le due diverse reazioni delle masse rispetto alle nuove forme di comunicazione legate alle tecnologie emergenti. Alcuni, gli integrati, ne erano entusiasti apprezzandone gli aspetti innovativi e di allargamento dei confini culturali; altri, gli apocalittici, ne coglievano invece le minacce, i pericoli, preoccupati e quasi offesi dall’incombere di tali modernità. Allora si parlava soprattutto della radio e della televisione. L’ultima tecnologia in ordine di tempo, l’AI, con la sua rapida diffusione sembra riproporre, oggi, la stessa spaccatura tra apocalittici e integrati. Dopo un iniziale entusiasmo, dettato dai possibili e molteplici utilizzi dell’AI, va diffondendosi nell’opinione pubblica un clima di allarme per i possibili effetti negativi che l’intelligenza artificiale potrebbe produrre. Lo testimoniano gli appelli di ricercatori e imprenditori e persino da parte di alcuni dei più noti creatori di piattaforme di AI che, in una recente lettera pubblica, hanno lanciato un allarme esplosivo, preoccupati che l’umanità possa addirittura estinguersi a causa dell’intelligenza artificiale (1). Come mai questa inversione di tendenza in così poco tempo? I campi di applicazione dell’AI sono molteplici e così i temi di discussione aperti da questa tecnologia. In questo articolo ci soffermeremo solo su alcuni di essi cercando in particolare, nell’ambito della tematica affrontata in questo numero della rivista, di mettere in evidenza alcuni possibili rischi che le recenti applicazioni dell’intelligenza artificiale possono produrre sulla condizione dei diritti umani. Ma prima di procedere in questo itinerario vale la pena soffermarsi, in breve, su una possibile definizione del concetto di AI e sul percorso di evoluzione storica di questa nuova tecnologia. Lo faremo anche provando ad utilizzare la piattaforma ChatGPT, forse il tool di intelligenza artificiale generativa e di apprendimento automatico più famoso in questo momento, basato su un modello conversazionale per dialogare con utilizzatori finali umani. Proveremo a mettere alla prova le sue performance e forse anche a farne emergere alcuni limiti.

2.  Per una definizione di AI e alcune note storiche sulla sua evoluzione

 Non è facile ancora oggi convergere su una definizione univoca e globalmente accettata di “intelligenza artificiale”. La risposta fornita alla nostra domanda dalla piattaforma Chat- GPT alla quale ci siamo rivolti è la seguente: L’intelligenza artificiale è un campo interdisciplinare della scienza informatica che si con- centra sulla creazione di sistemi e macchine in grado di eseguire compiti che richiedono l’intelligenza umana. L’obiettivo dell’AI è sviluppare algoritmi e modelli che consentano alle macchine di apprendere, ragionare, percepire e risolvere problemi in modo autonomo (2). Ad una prima analisi questa definizione non appare molto diversa da quella fornita da esperti del settore. Tuttavia, provando a mettere a confronto questa definizione generata da ChatGPT con altre definizioni emergono alcune osservazioni. Per fare un solo esempio, prendiamo in considerazione l’opinione di Luciano Floridi, attento studioso dell’intelligenza artificiale soprattutto dal punto di vista etico, il quale sostiene che […] la ricerca sull’AI persegue due obiettivi diversi, anche se compatibili. Da un lato l’AI che possiamo chiamare “riproduttiva” cerca di ottenere con mezzi non biologici l’esito (chiamiamolo output) del comportamento intelligente, cioè, risolvere problemi o svolgere compiti con successo in vista di un fine. Si pensi a un robot che taglia l’erba del prato come o, meglio, di noi. Non ci interessa se il processo che esegue è identico o anche solo simile al nostro, ci interessa solo il risultato… D’altro lato l’AI che possiamo chiamare “produttiva” cerca di ottenere l’equivalente non biologico della nostra intelligenza, indipendentemente dal maggiore o minore successo applicativo del risultato. Usando lo stesso esempio, l’AI produttiva vorrebbe creare un robot che taglia l’erba non girando per ore a caso ma in modo intelligente ed efficace […] (3). Colpisce in questo confronto come nella risposta di ChatGPT emerga il carattere generico della sua definizione, non vengano messe in gioco e distinte le differenze fra le due tipologie proposte da Floridi, neanche attraverso ulteriori domande di approfondimento poste alla piattaforma. In realtà l’AI non può essere confinata in un solo settore, ad esempio quello informatico o ingegneristico in quanto essa può abbracciare diverse prospettive e forse per questo motivo, molte definizioni di intelligenza artificiale, compresa quella di ChatGPT, fanno ricorso a spiegazioni volutamente ampie e generiche che trovano la loro utilità solo perché consentono di inquadrare al meglio la vastità di possibili applicazioni (hardware e software) e implicazioni di varia natura (giuridica, etica, filosofica, ecc.). Non rientra nel compito che ci siamo proposti percorrere, anche se in sintesi, le varie tappe dello sviluppo storico dell’intelligenza artificiale, ci preme tuttavia di metterne in evidenza alcune di quelle che hanno segnato il cammino di ricerca su questo tema: dalle prime definizioni del concetto di AI e lo sviluppo dei primi modelli e algoritmi tra la fine degli anni ’50 e l’inizio degli anni ’60, alla ricerca sulle capacità di logica formale e di dimostra- zione automatica di questi sistemi, dalle ricerche sull’apprendimento automatico e sulle reti neurali artificiali negli anni ’70 all’utilizzo di sistemi esperti con regole e conoscenza simbolica per risolvere problemi specifici, dalla rivoluzione del machine learning negli anni ’90 e 2000, che hanno portato importanti applicazioni come il riconoscimento vocale e la classificazione delle immagini, agli sviluppi dell’apprendimento profondo (deep learning) negli anni ’10 di questo secolo che, insieme alle reti neurali profonde, hanno consentito la costruzione di architetture informatiche in grado di produrre significativi progressi nel riconoscimento delle immagini e nel trattamento del linguaggio naturale (4). In questo percorso l’AI è stata influenzata da numerose discipline, tra le quali la filosofia, l’economia, le neuroscienze, la psicologia, la cibernetica, le scienze cognitive e la linguisti- ca, al tempo stesso, passando dal campo della ricerca teorica a quello della ricerca applicata; nella sua azione, progressivamente pervasiva, l’AI sembra rafforzare la convinzione secondo la quale “Istruzione, affari e industrie, viaggi e logistica, banche vendita al dettaglio e shopping, intrattenimento, welfare e sanità, politiche e relazioni sociali, in breve la vita stessa per come la conosciamo oggi, è diventata inconcepibile senza le tecnologie digitali” (5). Come da sempre accade nella storia umana, le nuove tecnologie inducono grandi trasformazioni che non cambiano solo l’ambiente e la società in cui viviamo ma lo stesso nostro modo di intenderle e di vivere nelle società in cui esse si manifestano. Basterebbe pensare, per fare solo qualche esempio, alle invenzioni della ruota, della carta, della bussola, della stampa, della macchina a vapore, dell’elettricità, del computer. Tutte invenzioni che hanno modificato la vita degli uomini e dell’ambiente nel corso della storia. È quanto sta accadendo nella società del digitale ed in particolare in questo ultimo periodo con gli strumenti e le applicazioni dell’intelligenza artificiale. Con una variante di non secondaria importanza che consiste in una sorta di rovesciamento di prospettiva: se nel passato con le innovazioni tecnologiche l’uomo si rendeva protagonista del cambiamento, con l’introduzione di strumenti e di applicazioni di intelligenza artificiale è l’uomo che sembra doversi adattare all’azione delle “tecnologie digitali che sembrano conoscere i nostri desideri meglio di noi” (6), o per dirla in modo più concreto “Facebook definisce chi siamo, Amazon definisce cosa vogliamo, Google definisce cosa pensiamo” (7). In questa direzione la rivoluzione tecnologica in corso, dalla nascita della società digitale all’intelligenza artificiale non è priva di conseguenze, in assenza di interventi di regolazione, sulla natura dei diritti individuali. A questo scopo ci si interroga, ormai da tempo, sulla necessità di sviluppare una riflessione specifica sulle questioni giuridiche che sorgono in presenza di applicazioni che fanno uso di sistemi di AI, parlando di “diritto artificiale” in contrapposizione al “diritto naturale” (8). Nuove normative nazionali e internazionali aprono scenari di regolamentazione dei diritti individuali in relazione alla diffusione di ambienti e sistemi di applicazione dell’AI e più in generale della società digitale.

3.  La società digitale e i nuovi diritti

 Lo sviluppo della società digitale, soggetta ad una costante trasformazione dalle nuove tecnologie in ogni ambito (politico, sociale, economico, produttivo, culturale, ecc.), induce gli Stati a modificare le norme che regolano le attività e le relazioni umane individuali e collettive. È quanto essi si accingono a fare in questi anni anche se, in riferimento all’AI, non c’è alcuna certezza né è possibile fare previsioni, sugli esiti futuri della ricerca in questo campo. Le già concrete e le potenziali applicazioni dell’intelligenza artificiale mettono in discussione categorie tradizionali del diritto in ogni ambito delle attività umane in cui è possibile affiancare la macchina all’uomo o addirittura sostituirlo. Qualche esempio: [le] forme dell’IA, [sono già ora] plurali, diversificate; possono lavorare in uno spazio fisico, avere un “corpo”, un contenitore variamente antropomorfo; oppure muoversi in uno spazio virtuale, manifestarsi attraverso processi computazionali e algoritmici che – partendo da dati – producono altri dati, predizioni, previsioni, conseguenze e interferenze sulla vita delle persone. L’AI può riprodursi anche in sistemi o strumenti inseriti nell’organismo umano attraverso interfacce neurali (Brain computer interface), per superare gravissime disabilità motorie o comunicative […] Infine comincia- no ad uscire da una dimensione meramente fictionary, assumendo la credibilità di concrete ipotesi, meccanismi di mind reading o mind uploding capaci di estrarre informazioni dal cervello umano e di replicarle in un computer (9). Alla luce di queste considerazioni come si trasformerà la condizione umana? È immaginabile il rischio che il pensiero umano non abbia più luogo nella mente di individui autonomi e si faccia invece strada una condizione umana ibrida, frutto di contaminazione con tecnologie di AI? Ci troveremmo di fronte ad un conflitto tra tecnocentrismo e antropocentrismo che può essere affrontato solo “attraverso l’intreccio dei saperi e delle esperienze tanto umane quanto tecnologiche” (10). Di fronte a questi dilemmi è necessario invece che i sistemi di intelligenza artificiale si conformino ad un approccio antropocentrico, a beneficio della collettività. Le innovazioni devono essere programmate mettendo al centro l’uomo, il rispetto dei suoi diritti, dei principi e dei valori propri di una società democratica. Al contempo devono assicurare la propria affidabilità dal punto di vista tecnico sotto il profilo della sicurezza e della capacità di essere utilizzate in modo trasparente. Si avverte la necessità che l’etica e il diritto “guidino” e “orientino” la tecnologia, onde permetterle di percorrere binari rispettosi del sistema di valori oggi riflessi nelle Costituzioni e nei trattati internazionali (11).

4.  La proposta europea di un regolamento sull’intelligenza artificiale

 Uno sguardo al panorama in tema di elaborazione normativa sull’intelligenza artificiale rivela uno sviluppo rapido e frenetico di iniziative a partire dalla prima risoluzione del febbraio 2017 recante raccomandazioni alla Commissione europea, concernenti norme di diritto civile sulla robotica (12). L’ultima normativa in ordine di tempo, in relazione al contesto europeo, è l’AI Act, una bozza di regolamento sull’AI approvato dal Parlamento europeo che individua i livelli di rischio che possono nascere dall’impatto delle applicazioni di intelligenza artificiale sulla vita degli uomini e sui loro diritti fondamentali. I diversi livelli di rischio significheranno più o meno regolamentazione. Una volta approvate in via definitiva dal Parlamento europeo, queste saranno le prime regole al mondo sull’AI. Con questa regolamentazione si vuole garantire che i sistemi di AI utilizzati nell’UE siano sicuri, trasparenti, tracciabili, non discriminatori e rispettosi dell’ambiente. Inoltre, per prevenire esiti dannosi i sistemi di intelligenza artificiale dovrebbero essere supervisionati dalle persone, piuttosto che dall’automazione. Al primo livello di massima pericolosità appartengono le applicazioni che determinano “rischi inaccettabili” per l’individuo e per la società perché comportano: la manipolazione cognitivo-comportamentale di persone o specifici gruppi vulnerabili come i bambini; l’attribuzione di un punteggio sociale ovvero la classificazione delle persone in base al loro comportamento, allo stato socio-economico o alle caratteristiche personali; il riconosci- mento facciale attraverso i sistemi di identificazione biometrica remota e in tempo reale. Al livello di alto rischio appartengono i sistemi di AI che incidono negativamente sulla sicurezza o sui diritti fondamentali delle persone per quello che riguarda la salute, l’istruzione e la formazione, i fenomeni migratori e la gestione dei controlli alle frontiere. Una particolare attenzione viene posta, come fonte di rischio, sulle applicazioni di AI generativa, come ad esempio ChatGPT ma su questo punto torneremo successivamente in dettaglio. Infine, vengono prese in considerazione le applicazioni di AI a rischio limitato che includo- no i sistemi di intelligenza artificiale che generano o manipolano contenuti di immagini, audio o video, ad esempio i deepfake. Esse dovranno rispettare requisiti minimi di trasparenza tali da consentire agli utenti di prendere decisioni informate. Dopo aver interagito con le applicazioni, l’utente dovrebbe poter decidere se desidera continuare a utilizzarle e più in generale essere informati quando interagiscono con l’AI.

5.  Il caso ChatGPT

 Non sono poche le applicazioni di intelligenza artificiale di cui non sempre siamo ancora pienamente informati e consapevoli, pur essendo entrate a pieno titolo nella nostra vita quotidiana. Uno dei casi più evidenti è rappresentato dai cellulari di nuova generazione. I nuovi modelli di smartphone consentono infatti funzioni prima inedite, come lo sblocco attraverso il riconoscimento facciale, la regolazione automatica del volume della suoneria in base all’ambiente in cui ci si trova, la messa a fuoco della sua macchina fotografica sul soggetto da inquadrare, la carica intelligente della batteria per migliorarne il processo di invecchiamento. Tutte queste funzioni, implementate attraverso l’intelligenza artificiale, sono state accolte dal pubblico dei consumatori senza alcun reale interesse e riflessione sulle tecnologie capaci di generarle. Al contrario la diffusione delle applicazioni AI generative come ChatGPT, Bing Chat, Google Bard e altri ha sollevato un’ondata di entusiasmo collettivo, alla quale ha fatto seguito, secondo la già citata teoria di Eco su apocalittici e integrati, un ripiegamento su posizioni più attente a tutti i possibili riflessi negativi di queste applicazioni. Ma di che cosa stiamo parlando? Ci stiamo riferendo ad una categoria generale di applicazioni di AI definite generative che, applicate al dominio di testi, vengono chiamate Chat bot. Ma lasciamo parlare una di queste e cioè ChatGPT: Un chatbot, abbreviazione di “chat robot” o “chatbot”, è un programma informatico pro- gettato per simulare una conversazione umana attraverso il linguaggio naturale, solitamente all’interno di una chat o di un’applicazione di messaggistica istantanea. Un chatbot può essere integrato in un sito web, un’applicazione mobile o una piattaforma di messaggistica, consentendo agli utenti di interagire con esso come farebbero con un essere umano. I chatbot utilizzano l’intelligenza artificiale per comprendere e rispondere ai messaggi degli utenti. Possono essere programmati per fornire informazioni, rispondere a domande co- muni, eseguire azioni specifiche come prenotare un appuntamento o effettuare un acquisto o persino per intrattenere gli utenti. Alcuni chatbot sono basati su regole predefinite, men- tre altri utilizzano algoritmi di apprendimento automatico per migliorare le loro risposte e adattarsi alle esigenze degli utenti nel tempo (13). Il modello operativo di un chatbot, ad esempio ChatGPT, è abbastanza chiaro: partendo dalla formulazione di una domanda dell’utente, il sistema si muove alla ricerca di informa- zioni (quelle presenti in Internet e di cui può disporre), seleziona quelle utili e infine elabora e produce un risultato in forma di testo. Un modello quindi che si è mostrato suscettibile di automazione, capace di produrre risposte in forma testuale scrupolose e contestualizzate, anche quando le richieste dell’utente sono di notevole complessità. Ma queste risposte ci autorizzano ad affermare che ci troviamo di fronte ad una forma di intelligenza capace di riprodurre o addirittura sostituire il pensiero umano? E fino a che punto? In un recente articolo sul quotidiano americano The New York Time Noam Chomsky ha affermato che Questi programmi sono stati salutati come i primi barlumi all’orizzonte dell’intelligenza artificiale generale, quel momento a lungo profetizzato in cui le menti meccaniche superano i cervelli umani non solo quantitativamente in termini di velocità di elaborazione e dimensioni della memoria, ma anche qualitativamente in termini di intuizione intellettuale, creatività artistica e ogni altra facoltà distintamente umana. Quel giorno può arrivare, ma la sua alba non è ancora spuntata, contraria- mente a quanto si può leggere nei titoli iperbolici e fare i conti con investimenti sconsiderati. La rivelazione borgesiana della comprensione non è avvenuta, non accadrà e, sottomettiamo, non può verificarsi se i programmi di apprendimento automatico come ChatGPT continuano a dominare il campo dell’intelligenza artificiale. Per quanto utili questi programmi possano essere in alcuni do- mini ristretti (possono essere utili nella programmazione di computer, per esempio, o nel suggerire rime per versi leggeri), sappiamo dalla scienza della linguistica e dalla filosofia della conoscenza che differiscono profondamente dal modo in cui gli esseri umani ragionano e usano il linguaggio (14). La differenza sostanziale tra l’intelligenza umana e quella artificiale riprendendo ancora Chomsky risiede quindi nel fatto che la mente umana non è, come ChatGPT e simili, un goffo motore statistico per la corrispondenza di schemi, che si rimpinza di centinaia di terabyte di dati ed estrapola la risposta conversazionale più probabile o la risposta più probabile a una domanda scientifica. Al contrario, la mente umana è un sistema sorprendentemente efficiente e persino elegante che opera con piccole quantità di informazioni; cerca di non inferire correlazioni brute tra punti dati ma di creare spiegazioni (15). Al di là di questa fondamentale distinzione di tipo psicologico, cognitivo e filosofico e ritornando al tema di questo contributo, non mancano nelle potenzialità di utilizzo di ChatGPT aspetti che riguardano campi nei quali possono entrare in gioco i diritti, anche fondamentali, della persona. È lo stesso sistema a segnalarli quando gli si pone la domanda: quali sono i possibili pericoli nell’uso di ChatGPT. L’utilizzo di chatbot basati su modelli di linguaggio avanzati come GPT (Generative Pretrained Transformer) può comportare alcuni possibili pericoli, tra cui:
  1. Diffusione di disinformazione: i modelli di linguaggio come ChatGPT sono addestrati su grandi quantità di testo provenienti da Internet, che può includere informazioni errate o fuorvianti. Ciò significa che un chatbot basato su GPT potrebbe generare ri- sposte che sembrano accurate ma che in realtà sono false o non verificate.
  2. Propagazione di pregiudizi: se i dati di addestramento contengono pregiudizi o stereotipi presenti nella società, il modello di ChatGPT può imparare a replicarli nelle risposte Ciò può portare a discriminazione o ingiustizie nella comunicazione con gli utenti.
  3. Contenuto offensivo o inappropriato: a causa della sua capacità di generare testo, un chatbot basato su GPT potrebbe produrre contenuti offensivi, volgari o inappropriati se stimolato da input inadeguati o maliziosi da parte degli utenti.
  4. Mancanza di responsabilità: i modelli di ChatGPT sono neutri e non hanno un’intenzionalità propria. Tuttavia, ciò può sollevare preoccupazioni sulla responsabilità delle informazioni Poiché i chatbot basati su ChatGPT generano risposte senza una verifica o una comprensione approfondita, potrebbero essere attribuiti erroneamente alla fonte o all’azienda che li utilizza.
  5. Vulnerabilità alla manipolazione: un chatbot basato su GPT potrebbe essere manipolato da utenti malintenzionati che cercano di sfruttare le debolezze del modello per ottenere risposte indesiderate o ingannare gli utenti (16).
In termini giuridici questi rischi, evidenziati dallo stesso sistema, si possono tradurre in: violazione della privacy, diffamazione o calunnia, discriminazione, responsabilità per i con- tenuti generati, violazione dei diritti di autore. Con l’AI Act approvato in questi giorni, l’Europa dell’UE sembra volersi attrezzare proprio per contrastare questi rischi ma il cammino è ancora lungo perché la normativa dovrà essere approvata dagli altri stati membri dell’UE. Occorrerà anche, vista la dimensione globale della rete Internet, trovare accordi internazionali per rendere omogenee le normative. Infine, sarà necessario monitorare costantemente gli effetti delle normative approvate anche in relazione ai continui e veloci progressi delle tecnologie di AI. È singolare che l’uomo con la sua intelligenza produca risultati di innovazione tecnologica da cui deve poi proteggersi per i rischi che essa comporta. Infine non si può fare a meno di notare, da un’angolazione di tipo culturale, che la progettazione di sistemi di intelligenza artificiale e l’uso conseguente delle corrispondenti applicazioni, in questo caso i sistemi AI generative come ChatGPT relativamente alla produzione automatica di testi, spingerà l’uomo ancora più in avanti nella direzione di una società, quella digitale, che con le tecnologie personali, affermatesi tra la fine del secolo scorso e il primo ventennio di questo secolo, ha già modificato radicalmente il nostro rapporto con le informazioni, la profondità e il senso critico, le relazioni sociali e la stessa cultura. Si corre un rischio, forse quello più pericoloso, quando questi strumenti raggiungeranno un livello di affidabilità almeno apparente, ed entreranno negli usi comuni. Ne parla lo storico Harari in una intervista concessa al quotidiano The Telegraphe affermando La nuova generazione di AI non si limita a diffondere i contenuti prodotti dagli esseri umani. Può produrre il contenuto da solo. Provate a immaginare cosa significhi vivere in un mondo in cui la maggior parte dei testi e delle melodie e poi delle serie TV e delle immagini sono create da un’intelligenza non umana. Semplicemente non capiamo cosa significhi. Quali potrebbero essere le conseguenze della conquista della cultura da parte dell’AI? (17) Certamente un impoverimento della creatività umana, delegata alle tecnologie di intelligenza artificiale, e probabilmente nuove forme di analfabetismo. Un fenomeno, già iniziato da tempo, e tradotto nella domanda “Internet ci rende stupidi?” dal titolo di un famoso libro di Nicholas Carr (18), capace di dare origine ad una generazione passiva a “bassa risoluzione” che “nel momento in cui tutto [… sembra] a portata di mano [… decide] di rallentare” (19) riducendo le aspettative legate alle opzioni delle tecnologie. Note
  1. Capone Emanuele, Lo strano appello contro le IA: “Rischiamo l’estinzione”. Ma le aziende continuano a svilupparle, in La Repubblica, 30 maggio 2023. Pubblicato su Internet all’indirizzo https://www.repubblica.it/tecnologia/2023/05/30/ news/ia_rischio_estinzione_appello_altman_hinton_musk_regole-402536379/ (verificato il 19 giugno 2023).
  2. La risposta nasce da una domanda posta alla piattaforma di AI ChatGPT0.
  3. Floridi Luciano (2021), Agere sine L’intelligenza artificiale come nuova forma di agire e i suoi problemi etici. in Floridi Luciano, Cabitza Federico, Intelligenza artificiale. L’uso delle nuove macchine, Milano, Bompiani, p. 139.
  4. Questa sintetica ricostruzione delle tappe storica è frutto di una ricostruzione di ChatGPT 4.0. Per un approfondi- mento più accurato si può fare ricorso al testo di Boden Margaret A. (2019), L’intelligenza artificiale, Bologna, il Mulino.
  5. Floridi Luciano (2022), Etica dell’intelligenza Sviluppi, opportunità e sfide, Milano, Raffaello Cortina Edi- tore, p. 11.
  6. Floridi Luciano (2020), Pensare l’infosfera. La filosofia come design concettuale, Milano, Raffaello Cortina Editore, 15.
  7. Dyson George (2012), La cattedrale di Le origini dell’universo globale, Torino, Codice Edizioni, p. 236.
  8. Frosini Tommaso Edoardo (2022), L’orizzonte Giuridico dell’intelligenza Artificiale in BioLaw Journal – Rivista Di BioDiritto, 1 (aprile), pp. 155-64. https://doi.org/10.15168/2284-4503-2244 (verificato il 22 giugno 2023).
  9. D’Aloia Antonio (2022), Ripensare il diritto nel tempo dell’intelligenza artificiale, in Alessandro Pajno, Filippo Antonio Perrucci (a cura di), Intelligenza artificiale e diritto: una rivoluzione?, Bologna, il Mulino, p. 80.
  10. Violante Luciano, Pajno Alessandro (2019), Diritto e etica dell’Intelligenza Artificiale. Presentazione, in BioLaw Journal – Rivista di BioDiritto, n. 3, pp. 179-82. https://teseo.unitn.it/biolaw/article/view/1392 (verificato il 19 giugno 2023).
  11. Ibidem, 179.
  12. Per la consultazione di una raccolta cronologica dei documenti aventi valore giuridico emanati da soggetti europei e nazionali sull’Intelligenza artificiale si può consultare il sito https://www.studiolegalestefanelli.it/it/raccolta-fonti-norma- tive-intelligenza-artificiale (verificato il 19 giugno 2023).
  13. La risposta è tratta da una domanda posta alla piattaforma di AI ChatGPT 4.0.
  14. Chomsky Noam, The False Promise of ChatGPT, The New York Times, March 8, 2023, Available at: https://www.nytimes.com/2023/03/08/opinion/noam-chomsky-ChatGPT-ai.html?unlocked_article_code=dQ5o- pucVKyKPFplPcY5JqHkUs_j6FEmlojEKFhMQ565YtmjcYfexHuPS390b7BVNjKfAz4hLcKLkdPoU-JXhg56kA-  QjS7ARGvDIGtDz673ZTDIG_gAqCOB30DA77VNP5IkUtKLjFtyi1OHZ9M11e2TW0jtPLlPwhewOC94XO-tUuADqKlMZEfXmFkpy26XzlAGBAQD0CAj71yokp_OjpTN2mC3auc5BrnNZglqGBjZbqrXSnUm6wjks- sLh0YRpPfjZLofJ1IwXaNwGRGK9pmJyCloJW5VhRilEHbdZeYQBB8gyjm2stxNK0w580IAY5bTDTzAjgjh0-me- crQRe_8bQIU&smid=nytcore-ios-share&referringSource=articleShare (Nostra traduzione). (verificato il 19 giugno 2023).
  15. Ibidem,
  16. La risposta è tratta da una domanda posta alla piattaforma di AI ChatGPT 0
  17. De Quetteville Harry (2023), Yuval Noah Harari: ‘I don’t know if humans can survive AI, in The Telegraphe https://www.telegraph.co.uk/news/2023/04/23/yuval-noah-harari-i-dont-know-if-humans-can-survive-ai/. (verificato il 19 giugno 2023).
  18. Carr Nicholas (2010), Internet ci rende stupidi? Come la rete sta cambiando il nostro cervello, Raffaello Cortina Editore,
  19. Mantellini Massimo (2018), Bassa risoluzione, Torino, Einaudi, 125.
Articolo tratto dal numero  di  Giugno 2023, Anno XXIII, Nuova serie, numero 19 del “Bollettino di Clio” (https://www.clio92.org/wp-content/uploads/2023/07/bollettino-clio-n.-19-5-luglio.pdf), su gentile autorizzazione alla pubblicazione da parte dell’autore Giuseppe Di Tonto e della redazione del “Il Bollettino di Clio” https://www.clio92.org/bollettini/ Giuseppe Di Tonto, già docente di Italiano e storia negli istituti di istruzione secondaria superiore. Autore di pubblicazioni e saggi sulla scrittura per i nuovi media e sulle applicazioni delle nuove tecnologie della comunicazione alla didattica, alla formazione e all’insegnamento della storia.