di Alessandro Pizzo
Abstract
Il saggio indaga l’impatto degli algoritmi e dell’intelligenza artificiale sulla cultura contemporanea, interpretata nel quadro della postmodernità e delle sue trasformazioni. Viene analizzato il rapporto tra mezzi e fini, progressivamente ibridato fino a dissolvere le differenze tradizionali e a ridefinire l’idea stessa di agentività. La cultura, non più esclusiva espressione dell’intelligenza organica umana, emerge come prodotto dell’interazione con intelligenze artificiali capaci di apprendere e agire autonomamente, con il rischio di trasformare conoscenza, etica e religione in espressioni non più umane. In questo scenario, gli algoritmi assumono un ruolo creativo e decisionale che mette in discussione la nozione di storia come riflesso dell’esperienza umana, aprendo al pericolo di una “fine della storia” intesa come perdita di riconoscimento identitario. Di fronte a tali sfide, il testo propone una prospettiva critica e politica, fondata su scelte deliberate di tutela dell’umano e su una cooperazione responsabile con gli agenti artificiali, attraverso principi etici come l’“algoretica”. In conclusione, l’autore sottolinea la necessità di un impegno educativo e civico per affrontare l’epocale trasformazione in atto, mettendo in luce anche le recenti linee guida ministeriali sull’uso dell’AI nelle scuole, le loro potenzialità e le loro criticità.
Keywords: AI, digitale, esseri umani, postmoderno
Abstract
The essay explores the impact of algorithms and artificial intelligence on contemporary culture, interpreted within the framework of postmodernity and its transformations. It analyzes the relationship between means and ends, increasingly blurred to the point of redefining the very notion of agency. Culture, no longer the exclusive expression of organic human intelligence, emerges as the outcome of interaction with artificial intelligences capable of autonomous learning and action, raising the risk that knowledge, ethics, and religion may become expressions of a non-human condition. In this scenario, algorithms assume a creative and decision-making role that challenges the idea of history as the mirror of human experience, thereby opening the way to the “end of history” as a loss of identity and recognition. Facing these challenges, the essay advocates a critical and political stance, grounded in deliberate choices aimed at safeguarding the human dimension and fostering responsible cooperation with artificial agents, through ethical principles such as “algorethics.” Finally, it emphasizes the need for civic and educational engagement to address the epochal transformation underway, highlighting both the potential and the critical issues of the recent ministerial guidelines on the use of AI in schools.
Keywords: AI, Digitality, Humans, Postmodernism
1. Introduzione
Lo scopo del presente scritto è riflettere sul rapporto ineludibile tra i mezzi e i fini, plesso fondamentale non soltanto per l’idea stessa di cultura, ma, anche più limitatamente, per le pratiche che mandiamo ad effetto all’interno di contesti istituzionali, come la scuola o le agenzie governative.
In effetti, c’è probabilmente un significato profondo nella nozione odierna di agentività in virtù della quale si è complessificato non soltanto il rapporto in questione, ma anche l’intero ecosistema più in generale, e al cui interno si trova a vivere l’essere umano. Se durante l’età moderna, perlomeno nella sua parte terminale, e, per questo, più matura, il problema consisteva nella compressione dell’anelito alla libertà individuale in nome di un legame quasi invisibile tra gli io e la collettività, nel corso della nostra attuale età postmoderna il quadro è profondamente mutato, e, di conseguenza, il problema è diventato ritrovare un filo comune alle libertà individuali[1], un orizzonte condiviso che possa tenere assieme le diverse azioni mandate ad effetto dai vari soggetti umani.
Notevole, peraltro, è l’accelerazione che ha contraddistinto questa stessa realtà nell’ultimo decennio: il quadro agentivo delle singolarità umane si è arricchito a causa della presenza di nuove singolarità non umane. L’attuale rivoluzione digitale, della quale l’innovazione tecnologica nell’AI e nella robotica costituisce probabilmente la punta di diamante, ha impresso un notevole scatto in avanti ad una tendenza storica ben precisa, e già conosciuta nelle sue linee fondamentali. Il campo d’azione della libertà umana è adesso arricchito dalla presenza, nonché dall’agentività, di soggettività non umane, ossia gli algoritmi i quali, non soltanto sono capaci di apprendere, ma anche di decidere e di compiere azioni senza alcuna supervisione o controllo umano. Il risultato è, dunque, un cambiamento di paradigma nella nozione stessa di cultura: non è più frutto esclusivo dell’intelligenza organica umana, ma il risultato dell’interazione di quest’ultima con intelligenze non organiche artificiali. La conoscenza del mondo, la costruzione di un senso, la raffigurazione di quest’ultimo in mitologie collettive, metanarrazioni volendo adoperare un lessico lyotardiano senza aderire alla correlata incredulità[2], non è più espressione diretta della creatività umana, ma viene sempre più mediata, quando non anche direttamente sostituita, da una creatività aliena, e segnatamente dagli agenti autonomi che possiamo qualificare come intelligenze artificiali. In altri termini, la conoscenza, l’etica, le religioni da espressioni della condizione umana rischiano di diventare espressione di una condizione non più umana, per non dire del tutto aliena.
La via attraverso cui la cultura umana sta diventando sempre più effetto dell’interazione diretta tra agenti umani ed agenti artificiali consiste nella polarizzazione sempre più circolare del rapporto tra i mezzi e i fini di una data pratica, cosa che mette capo anche alla evaporazione sempre più forte delle rispettive differenze tra i primi e i secondi.
2. I mezzi e i fini
Perché un’azione possa dirsi tale sono necessarie due condizioni tra loro relate, e segnatamente, a) da un lato, il mezzo attraverso cui mandare ad effetto la stessa; e, b) dall’altro lato, il fine in vista del quale l’azione stessa viene mandata ad effetto. Forse il quadro potrebbe sembrare eccessivamente povero, ma è del tutto sufficiente per comprendere la dinamica presente che si desidera discutere.
Da sempre, gli esseri umani hanno compiuto azioni sotto la duplice condizione del mezzo e del fine. O, per meglio dire, della perfetta non sovrapponibilità dell’uno sull’altro. Con la rivoluzione digitale, questa cosa qui non appare più sensata, nel senso che i due termini del rapporto hanno subito una sorta di processo in forza del quale è oggi prioritaria la strumentalità nell’azione stessa, e segnatamente la possibilità di invertire i poli della relazione in questione. Ne consegue una forte sfumatura tra i due poli che per l’intera età moderna hanno consentito agli esseri umani un orientamento conoscitivo e di senso. Se si pensa per un attimo alla genesi storica degli algoritmi, ovvero a tecniche pratiche di risoluzione di problemi matematici, l’evoluzione attuale non soltanto è stupefacente, ma invera questa stessa inversione dal momento che l’algoritmo non è più il mezzo per il conseguimento del fine, e segnatamente della risoluzione di un problema matematico. Attualmente, il rapporto tra l’algoritmo e il suo fine è meno netto di un tempo e più declinato in direzione del primo piuttosto che del secondo. E questo perché l’algoritmo, via la sua complessità e la cumulazione di una storia plurisecolare, è tanto fine quanto mezzo: la sua duttilità è, in parte, il segreto del suo successo. Ma ciò conduce ad un aggiornamento della nozione stessa di algoritmo: non più solamente uno strumento per risolvere dei problemi di calcolo; un mezzo-fine a sé stesso. Ed inoltre eclissando progressivamente il ruolo del decisore umano che dovrebbe servirsi dell’algoritmo stesso.
Attraverso la rappresentazione matematica della realtà, il mezzo e il fine si sono fusi in un terzo oggetto a loro superiore, e segnatamente lo strumento che è tanto conoscitivo quanto costruttivo di realtà. La modellazione informatica ha, cioè, ridefinito i termini del rapporto tra i mezzi e i fini delle azioni umane, sostituendo a questi ultimi un artefatto numerico comprensivo di entrambi ma in una differente dimensione, e di significato e di utilizzo. L’universo agentivo ne è stato, pertanto, modificato risultando nell’attuale confusione tra consumatori e produttori di contenuti digitali. L’avvento dell’intelligenza artificiale ha senza dubbio impresso una violenta accelerazione a questo processo, sostituendo all’idea del computer come assistente della creatività umana l’idea di un bot rispetto al quale sia l’essere umano il corrispettivo assistente. Per intenderci, tra l’intelligenza umana naturale e l’intelligenza artificiale non umana è venuto meno il confine netto tra ciò che s’impone come mezzo e ciò che s’impone come fine: non per forza, l’AI è uno strumento di cui l’essere umano è il fine; può anche darsi che sia proprio l’essere umano ad imporsi come mezzo del fine che coincide con l’AI.
Non si sta affermando che questo stato di cose sia ottimale o desiderabile, ma tra i soliti apocalittici ed integrati, è opportuno occupare un plesso terzo rispetto al quale tentare di dare una lettura critica di fenomeni recentissimi e nel corso del loro svolgimento.
Come sostengo da tempo, non serve a nulla assumere l’atteggiamento entusiastico o rassegnato davanti all’onda digitale: bisogna impegnarsi per costruire un nuovo senso capace di restituire agli esseri umani un nuovo possibile spazio di vita umana[3]. Non l’impegno dell’antropologo o dell’antiquario, ma l’impegno di esseri umani che devono abitare l’ecosistema presente, a sua volta derivante dall’interazione tra i primi ed agenti autonomi che non hanno nulla di umano, benché a volte si esperisca la curiosa impressione che una qualche forma di coscienza gli attuali algoritmi sembrano averla[4].
3. La cultura postmoderna
Secondo Benjamin, è terminato il periodo della natura unica ed irripetibile della fruizione dell’opera d’arte[5]. La riproduzione meccanica prima, digitale poi, algoritmica ora, ha sostituito i poli dell’esperienza estetica ibridando e confondendo un po’ i ruoli tra produttore e consumatore. Per Legrenzi, il punto di svolta nell’avvento delle AI sta nell’aver sostituito ai numeri i numerali, ossia designazioni sintattiche che stanno per le quantità[6]. A differenza dei primi, i secondi possono essere trattati e modellati dai sistemi informatici. In questo senso davvero l’informatica ha realizzato il sogno antico di una macchina capace di manipolare dei segni, sogno in cui è consistito lo specifico del pensiero formale da Aristotele sino al XX secolo[7].
Di conseguenza, l’intera realtà può venir scomposta in numerali rispetto ai quali l’AI è, a differenza degli esseri umani, capace di scorgere ripetizioni e modelli statistici analizzando quantità inimmaginabili di dati. Mentre la prima è capace di processare velocemente enormi moli di dati, gli esseri umani quasi mai sono in grado di compiere la medesima operazione in termini minimamente competitivi. Ne conseguono due effetti, distinti ma non anche irrelati:
- Gli algoritmi sono infaticabili divoratori di dati;
- Gli algoritmi possono scorger connessioni e schemi di ripetizione ove magari non hanno affatto luogo.
Dato che non conoscono l’umano bisogno del riposo, le AI processano enormi masse di dati alla ricerca di connessioni tra questi ultimi. Quando li scorgono, hanno realizzato il proprio scopo. Siccome, però, stiamo parlando di agenti automatici che non hanno un reale accesso al mondo, almeno non come lo hanno gli esseri umani, la loro conoscenza di quest’ultimo non è reale, ma è a tutti gli effetti una sua simulazione, vale a dire una vera e propria modellazione numerale. Operando soltanto su una rappresentazione della realtà, ossia solamente sui dati bruti di questa, l’AI può incorrere in allucinazioni o aberrazioni o più semplicemente in errori, scorgendo delle correlazioni inesistenti.
Ma qual è la connessione tra ciò e la cultura postmoderna?
4. Fine della storia?
Se gli algoritmi stanno progressivamente sostituendo gli agenti umani nella creazione di cultura, possiamo veramente accettare la provocazione di Harari secondo cui stiamo assistendo alla fine della storia? Per lo storico israeliano, infatti, il potere si sta spostando dagli agenti umani agli agenti non umani artificiali i quali sono orami «agenti attivi che sfuggono al nostro controllo e alla nostra comprensione e che possono prendere iniziative per plasmare la società, la cultura e la storia»[8]. Seguitando lungo questa china, infatti, il ruolo di creatore della storia sta passando ad automi che non hanno nulla di umano. Ma se la storia era lo specchio riflesso davanti al quale l’essere umano poteva riconoscersi come identità in possesso di un passato, una storia prodotta dall’AI che funzione può avere per gli esseri umani? Con il passaggio del testimone dal creatore umano al creatore artificiale non umano cessa di fatto la storia. O, perlomeno, cesserebbe la storia come la conosciamo.
Forse, non stiamo assistendo al canto del cigno della storia in quanto tale, ma sicuramente ci troviamo sul pericoloso crinale di una storia plurale nella quale non potremo riconoscerci direttamente. Come ci avverte, infatti, Barale rispetto alle creazioni dell’AI non possiamo che esperire una sensazione di estraneità nel senso che l’artefatto possiede un duplice aspetto: a) di somiglianza con il modo di pensare umano; e, b) di estraneità con quest’ultimo[9]. E in tal senso allora appare urgente vigilare lo spazio dell’interazione tra gli algoritmi e gli esseri umani: quale sarà il significato dell’esistenza umana in futuro? La storia sarà ancora espressione di una comprensione umana della realtà? Avranno senso i valori che modellano il codice dell’agire umano individuale e collettivo?
Tuttavia, fatico a pensare che tutto questo sia l’esito inevitabile di un processo del tutto al di fuori della portata umana. Non esistono questioni propriamente antropologiche o morali derivanti dalla rivoluzione in atto; semmai, siamo alle prese con una questione politica, e segnatamente di deliberate scelte umane compiute al fine di tutelare la parte più debole dell’ecosistema che, sia pure sinteticamente, abbiamo descritto in questa sede, vale a dire l’essere umano. È la politica che deve decidere e compiere sforzi al fine di non relegare l’essere umano al ruolo di strumento di un’AI onnicomprensiva ed onnipotente[10].
Se il dato saliente è senza dubbio la diversa natura dell’ambiente al cui interno consistono tanto gli esseri umani quanto gli esseri artificiali non umani, è bene che si gettino le basi per una fattiva cooperazione tra i due poli dell’ecosistema informativo e prassico. In tal senso, appaiono feconde le provocazioni di Benanti, e segnatamente l’idea di una necessaria cooperazione tra i due principali attori dell’attuale condizione tecno-umana e di una base etica tesa a fondare la cooperazione medesima, tenendo però conto dell’effettiva parte debole da tutelare, vale a dire gli esseri umani[11]. Va bene che gli algoritmi possano evolvere autonomamente e compiere azioni in totale autonomia, ma è altrettanto importante che nel farlo tengano conto del fattore umano. In tal senso, Benanti parla anche di algoretica, e segnatamente di alcuni principi ineludibili i quali devono essere implementati all’interno degli algoritmi già in sede di progettazione[12]. Tra un orientamento deontologico e un orientamento conseguenzialista sicuramente Benanti propende per il primo, non foss’altro perché gli appare prioritario evitare di default qualsiasi rischio per l’agente umano.
In un’ottica meno generale, e più specifica dal punto di vista della tutela dell’identità personale, Tiribelli scorge dei rilevanti profili di rischio derivanti per quest’ultima dal diffondersi pervasivo degli algoritmi. Nello specifico, l’autrice declina l’identità personale in termini etici, e segnatamente come la possibilità di agire[13]. Ma se pensiamo a come il meccanismo del “coinvolgimento” sui social media, ad esempio, basato sulla profilazione dell’utente e sul suggerimento correlato di contenuti, cosa svolta autonomamente dall’algoritmo, disegna il perimento dell’interazione tra agente umano ed agente automatico al confine della realtà online e di quella offline, è possibile distinguere conseguentemente tra:
- Azioni mandate ad effetto senza influenza da parte degli algoritmi entro cui oramai ha luogo la nostra esistenza materiale;
- Azioni mandate ad effetto con una influenza non determinante da parte degli algoritmi entro cui oramai ha luogo la nostra esistenza materiale;
- Azioni mandate ad effetto come conseguenza di un’influenza determinante da parte degli algoritmi entro cui oramai ha luogo la nostra esistenza materiale.
In altri termini, gli algoritmi possono modellare la nostra stessa libertà personale, mezzo per costruire la nostra stessa identità personale[14], anche se sono ancora possibili dei margini di autonomia rispetto al più socialmente atteso quadro deterministico.
5. Conclusioni
Tra i filosofi è andata di moda una metafora, detta “computazionale”, in forza della quale è stata scorta un’analogia forte tra la mente umana e la “mente” dell’AI. Secondo questo modello, infatti, a prescindere dallo specifico supporto di realizzazione, il corpo materiale per la mente umana, il corpo artificiale per la mente computazionale, non sono presenti differenze significative tra i processi mandati ad effetto dalla prima e i processi mandati dalla seconda. Quel che detta metafora, dunque, tematizza è la centralità del processo cognitivo in sé, e a prescindere dal centro computazionale che nel concreto lo realizza, e cioè la mente umana o quella artificiale. Rispetto a questo tema ha recentemente preso posizione Federico Faggin secondo il quale i computer sono delle strutture fisiche presso le quali abbiamo trasferito una parte della nostra mente sotto la forma di programmi. Pertanto, i computer sono una creazione umana dotata solamente della nostra parte algoritmica, ma non sono noi[15]. Anzi, viene confutata la stessa metafora computazionale dal momento che gli algoritmi che creiamo e carichiamo sui computer riflettono la parte operazionale della nostra mente, ma «sono ben lontani dal contenere l’espressione completa di un essere umano»[16]. Come la mente umana non è affatto riducibile ad un algoritmo, così è fuorviante credere che l’AI corrisponda all’intelligenza umana. Mentre gli esseri umani interagiscono con un ambiente scambiando non solamente informazioni ma anche energia, gli algoritmi hanno bisogno di prevedere gli input che riceverà dall’ambiente esterno. Lo studio di tale previsione è alla base delle ricerche in intelligenza artificiale. Ma questo compito specialistico, del tutto coerente con l’individuazione di modelli statistici, non esaurisce il senso dell’evento futuro rispetto alle sue stesse premesse. Perché ciò avvenga è necessaria la comprensione, ovvero una proprietà non implementabile da parte degli algoritmi[17]. La comprensione, infatti, è una capacità della coscienza, presente negli organismi viventi ma non anche negli algoritmi[18]. Per queste ragioni Faggin reputa non ridicibile la coscienza agli algoritmi perché è quest’ultima che comprende e per mezzo dell’organismo «ha un’esperienza in prima persona di se stessa e del mondo»[19]. Semplificare la differenza tra la coscienza umana e l’intelligenza artificiale simulata, così come antropomorfizzare il comportamento espletato dall’AI, non è solamente fuorviante, ma anche pericoloso nell’eventualità che dovessimo cedere o delegare le decisioni agli algoritmi.
D’altro canto, è proprio questo il rischio colto anche da Benanti quando adopera il neologismo dataismo, alludendo alla falsa credenza in virtù della quale l’individuazione statistica di ripetizioni e di schemi tra dati corrisponda a cogliere il significato stesso di questi ultimi. Come suggerisce Faggin, infatti, gli algoritmi non comprendono, fanno semplicemente altro rispetto alla coscienza degli organismi viventi. O, per dirla à la Legrenzi, la mente umana non funziona come funzionano gli algoritmi. La parvenza coscienziale o di comportamento intelligente è appunto un’impressione, e segnatamente una vera e propria allucinazione da parte degli esseri viventi.
Per comprendere cosa fare, è bene sapere cosa siano davvero gli algoritmi, come funzionino e che tipo di influenza esercitino sulle nostre vite. In tal senso, allora, è un compito civico ed educativo al tempo stesso. E non è rasserenante constatare come tanto la dimensione civica quanto la dimensione educativa appaiono impreparati ad affrontare l’epocale sfida attuale.
La presente riflessione, per forza di cose abbastanza breve, ha insistito intorno al difficile plesso intermedio tra una rassegnazione fatalistica e un’adesione acritica. Sicuramente gli algoritmi hanno, ed avranno, un impatto significativo anche sul significato stesso della nostra esistenza, ma sta a noi decidere cosa farne. Fortunatamente, non sono gli algoritmi, non ancora almeno, a decidere del nostro destino. La questione, allora, è un’altra: siamo pronti a decidere e ad agire di conseguenza al fine di tutelare la nostra stessa storia?
Poscritto
Le linee guida per l’introduzione dell’Intelligenza Artificiale nelle istituzioni scolastiche.
Nell’agosto del 2025 il MIM ha pubblicato il documento “Linee guida per l’introduzione dell’Intelligenza Artificiale nelle istituzioni scolastiche”. In poco più di trenta pagine, gli estensori intendono definire «un quadro di riferimento strutturato per l’adozione consapevole e responsabile dei sistemi di Intelligenza Artificiale (di seguito, anche «Sistemi di IA») nelle Istituzioni scolastiche, rivolgendosi ai principali attori del settore, tra cui dirigenti scolastici, personale amministrativo, docenti e studenti»[20]. A tal fine si sottolinea come l’Italia abbia definito «una visione chiara e articolata per promuovere l’adozione responsabile dell’IA nei settori chiave del Paese, ponendo particolare attenzione ai singoli contesti istituzionali, incluso il settore dell’istruzione»[21]. Volendo adeguare le realtà educative al progresso tecnologico in corso, il documento fissa gli obiettivi per le istituzioni scolastiche:
- migliorare l’apprendimento e valorizzare potenzialità, talenti e inclinazioni individuali degli studenti, utilizzando l’IA per adattare i percorsi educativi sulla base delle singole esigenze e integrando strumenti digitali avanzati per favorire una didattica più coinvolgente, efficace e in linea con le sfide del mondo contemporaneo, con particolare riferimento alle metodologie didattiche per l’insegnamento delle discipline STEM[22];
- promuovere l’inclusione, favorendo interventi mirati che potenzino i processi di integrazione e contrastino la dispersione scolastica, creando al contempo ambienti sicuri e stimolanti per l’apprendimento[23];
- semplificare e ottimizzare i processi interni delle Istituzioni scolastiche attraverso l’automazione e la digitalizzazione delle attività amministrative, riducendo il carico operativo del personale scolastico e delle segreterie amministrative[24];
- semplificare e ottimizzare i processi interni delle Istituzioni scolastiche attraverso l’automazione e la digitalizzazione delle attività amministrative, riducendo il carico operativo del personale scolastico e delle segreterie amministrative[25];
- potenziare la qualità e l’efficienza dei servizi rivolti a studenti e famiglie, garantendo un’esperienza più accessibile e reattiva alle loro esigenze[26];
- garantire una preparazione continua e specifica per l’adozione di nuove tecnologie, creando le condizioni per un’efficace integrazione dell’IA nei processi educativi e promuovendo un ambiente scolastico capace di innovarsi e di rispondere alle esigenze degli studenti e della società[27].
Queste possibilità, attivate dall’introduzione massiva di soluzioni e strumenti di intelligenza artificiale a scuola, non vengono declinate in concreto per mezzo di soluzioni operative effettivamente spendibili all’interno dei contesti educativi. Piuttosto, si demanda alle singole istituzioni scolastiche come «assicurare, in ogni caso, l’adozione di sistemi di IA antropocentrici e affidabili, idonei a tutelare i diritti e le libertà fondamentali degli interessati, prestando particolare attenzione ai diritti dei soggetti vulnerabili e, in particolare, dei minori»[28]. Da questa descrizione precisa di responsabilità vengono fatte discendere una serie di pratiche vietate:
- l’uso di tecniche subliminali o volutamente manipolative o ingannevoli;
- la valutazione o classificazione delle persone fisiche sulla base del loro comportamento sociale o di caratteristiche personali, con attribuzione di un punteggio sociale e conseguente applicazione di trattamenti pregiudizievoli ovvero sfavorevoli (credito sociale);
- l’uso di sistemi di categorizzazione biometrica che classificano individualmente le persone fisiche sulla base dei loro dati biometrici per trarre deduzioni o inferenze in merito a razza, opinioni politiche, appartenenza sindacale, convinzioni religiose o filosofiche, vita sessuale o orientamento sessuale (divieto di rilevamento biometrico degli utenti);
- con particolare riferimento al settore dell’istruzione, i sistemi di IA in grado di individuare le emozioni di una persona fisica nell’ambito degli istituti di istruzione, tranne laddove l’uso di tali sistemi sia destinato a essere messo in funzione o immesso sul mercato per motivi medici o di sicurezza (tutela dei dati personali).
Queste pratiche vietate vengono correlate alle fasce di rischiosità previste dalla normativa Europea (AI ACT).
Dopo una ripresa di queste ultime e dopo aver richiamato le specifiche responsabilità delle istituzioni scolastiche, il documento passa ad indicare i principi che devono guidare l’implementazione dell’AI nelle pratiche concrete, e segnatamente i seguenti:
- Centralità della persona[29];
- Equità[30];
- Innovazione etica e responsabile[31];
- Sostenibilità[32];
- Tutela dei diritti e delle libertà fondamentali[33];
- Sicurezza dei sistemi e modelli di IA[34].
L’interazione tra principi e responsabilità porta alla definizione dei requisiti alla base dell’introduzione dell’AI nelle scuole:
x) Intervento e sorveglianza umana[35];
xx) Trasparenza e spiegabilità[36];
xxx) Criteri per evitare discriminazioni[37];
xxxx) Attribuzione di ruoli e responsabilità[38].
Il documento invoca la collaborazione tra i vari attori che fungono ruoli diversi, obbligando al rispetto dei profili di tutela della privacy.
A partire da pagina 20 il documento comincia a descrivere come introdurre l’AI nelle scuole, e segnatamente in funzione delle seguenti possibilità:
- AI al servizio degli utenti;
- AI a supporto dei docenti;
- AI a sostegno dell’organizzazione scolastica.
Il quadro teorico rimane piuttosto astratto, salvo che ne vengono ricavati degli obblighi conseguenti per le singole istituzioni scolastiche: «Ciascuna Istituzione scolastica che intende introdurre sistemi di IA deve analizzare e valorizzare il proprio contesto scolastico, individuando i bisogni specifici e le aree di applicazione strategiche. Tale processo deve garantire il rispetto dei principi fin qui delineati»[39]. Il processo viene descritto con la seguente metodologia:
- Definizione;
- Pianificazione;
- Adozione;
- Monitoraggio;
- Conclusione.
Dopo aver analizzato le singole fasi del processo di adozione dei sistemi di AI, il documento si conclude sottolineando l’opportunità attesa e volta a guidare questa stessa adozione. In tal senso, si ravvisa come «solo attraverso un’implementazione responsabile, che tenga conto delle esigenze individuali degli attori del sistema scolastico, sarà possibile raggiungere gli obiettivi prefissati e costruire una scuola più inclusiva, equa e preparata ad affrontare le sfide del futuro»[40].
Volendo procedere, sia pure sommariamente, ad una valutazione del documento bisogna sottolineare come siano sicuramente apprezzabili gli intenti alla sua base, così come la richiesta di tutela nella difesa degli interessi in gioco, ma sono comunque presenti delle criticità.
In primo luogo, il documento non affronta la questione cruciale, e segnatamente cosa s’intenda per AI. Non è un dettaglio. Infatti, se non si conosce l’oggetto, appare difficile poterne ricavare indicazioni e prescrizioni conseguenti. Non volendo immaginare che gli estensori abbiano un modello preciso di algoritmo senza però dichiararlo mai, l’idea di massima ricavabile, leggendo il documento, è che gli autori si riferiscano ad non meglio precisati sistemi di AI da poter adoperare a scuola. Questa idea, per così dire “operazionale”, informa l’intero documento. Tuttavia, la finalità complessiva appare più che la promozione del capitale immateriale degli utenti del servizio pubblico di istruzione la preparazione della società alla fruizione futura dell’AI, quali che siano le soluzioni o i prodotti di consumo allora reperibili sul mercato. Rispetto al focus presente, ad esempio, si dà per scontata la bontà dell’AI rispetto ai soggetti in formazione piuttosto che puntare sull’educazione di questi ultimi all’uso critico e consapevole. A queste premesse, seguono delle indicazioni piuttosto astratte che lasciano le singole istituzioni scolastiche nell’improbo compito di tradurne in concreto le indicazioni, i valori e i rischi descritti.
Si potrebbe concludere dicendo che ancora una volta viene inverato l’adagio italico in forza del quale si può fare innovazione a scuola ma solo dal basso, ovvero delegando alle singole istituzioni scolastiche trovare il “come” poterlo fare, includendovi tanto la questione finanziaria quanto la questione tecnica. In tal senso, allora, il presente documento si limita a fornirne una lasca cornice teorica di implementazione.
[1] Bauman, Z. (2024), Il disagio della postmodernità, Roma – Bari: Laterza, pp. X – XII.
[2] Lyotard, J. F. (2014), La condizione postmoderna, Milano: Feltrinelli, p. 6.
[3] Pizzo, A. (2023) AI che disegna. Una naïf messa alla prova in classe, “BRICKS”, 3, p. 168.
[4] von Wright, G. H. (2007) Coscienza, in von Wright, G. H. Mente, azione, libertà. Saggi 1983 – 2003, Macerata: Quodlibet, p. 264: «le macchine hanno reazioni che simulano l’autocoscienza umana».
[5] Benjamin, W. L’opera d’arte nell’epoca della sua riproducibilità tecnica, Torino: Einaudi, p. 8.
[6] Legrenzi, P. (2024) L’intelligenza del futuro. Perché gli algoritmi non ci sostituiranno, Milano: Mondadori, p. 58.
[7] Borzacchini, L. (2015) Il computer di Kant. Struttura della matematica e della logica moderne, Bari; Edizioni Dedalo, 2015, p. 565.
[8] Harari, Y. N. (2024) Nexus. Breve storia delle reti di informazione dall’età della pietra all’IA, Milano: Bompiani, p. 267.
[9] Barale, A. (2025) L’arte dell’Intelligenza Artificiale: parole-chiave filosofiche, Milano: Jaca Book.
[10] Pizzo, A. (2025) Cos’è l’Algoretica (e perché riguarda il nostro futuro), “Gli Stati Generali”, url: https://www.glistatigenerali.com/cultura/filosofia/algoretica-introduzione-al-tema/ (contenuto controllato il 22/08/2025).
[11] Benanti, P. (2018) Le macchine sapienti. Intelligenze artificiali e decisioni umane, Genova: Marietti, p. 57.
[12] Ivi, p. 156.
[13] Tiribelli, S. (2023) Identità personale e algoritmi. Una questione di filosofia morale, Roma: Carocci, p. 37.
[14] Ivi, p. 41. L’autrice si limita due sole alternative: l’interazione all’interno dell’ecosistema attuale di interazione tra algoritmi ed agenti umani comporta 1) un senso positivo di libertà d’azione e di scelta; 2) un senso negativo di azione e di scelta. Il senso (2) è quello che contempla una maggiore criticità per l’avvenire degli esseri umani. Tuttavia, la presenza di un’influenza negativa non significa ancora immediatamente comportare azioni automatiche rispetto all’influenza esercitata dagli algoritmi. Infatti, per l’autrice è ancora possibile un ultimo margine operativo, e segnatamente far sì che alcune interferenze possono essere mitigate mentre altre ancora regolamentate. Anche in questo caso viene attivata la questione politica soggiacente alla miglior gestione della interazione tra gli algoritmi e gli esseri umani.
[15] Faggin, F. (2025) Irriducibile. La coscienza, la vita, i computer e la nostra natura, Milano: Mondadori, p. 98.
[16] Ivi, p. 102.
[17] Ivi, p. 106.
[18] Ivi, p. 107.
[19] Ivi, p. 109.
[20] Linee guida per l’introduzione dell’Intelligenza Artificiale nelle istituzioni scolastiche, MIM, Agosto 2025, p. 3.
[21] Ivi, p. 4.
[22] Ivi, p. 5.
[23] Ibidem.
[24] Supra.
[25] Ibidem.
[26] Supra.
[27] Ibidem.
[28] Ivi, p. 5.
[29] Ivi, p. 7.
[30] Ivi, p. 8.
[31] Ibidem.
[32] Supra.
[33] Ibidem.
[34] Supra.
[35] Ivi, p. 9.
[36] Ibidem.
[37] Ivi, p. 10.
[38] Ibidem.
[39] Ivi, p. 21.
[40] Ivi¸p. 32.
