Educare al giudizio e umanizzare l’innovazione nelle comunità educanti
di Debora Carmela Niutta (*)
Introduzione editoriale
Siamo particolarmente lieti di accogliere questo contributo, che affronta con sensibilità e rigore una delle domande più urgenti del nostro tempo: quale spazio e quale senso ha l’intelligenza artificiale nei processi educativi.
La domanda semplice di uno studente — “posso usare l’IA?” — diventa qui occasione per una riflessione più ampia, che ci interroga non solo sugli strumenti, ma sul significato stesso dell’apprendere, del pensare e del formare.
In coerenza con il percorso che stiamo sviluppando intorno a Coltivare, educare, umanizzare, il testo ci ricorda che l’innovazione tecnologica non può essere separata dalla responsabilità educativa e culturale, e che il compito delle comunità educanti è, oggi più che mai, quello di accompagnare, orientare e dare senso.
Abstract (IT)
Il contributo propone una riflessione sull’Intelligenza Artificiale come ambiente culturale e questione educativa, ponendo al centro il tema dei diritti cognitivi e della formazione del giudizio. Attraverso pratiche educative e contesti scolastici reali, l’articolo esplora come l’IA possa diventare uno strumento di sviluppo del pensiero critico, di inclusione e di cittadinanza digitale. La scuola emerge come spazio politico e culturale fondamentale per orientare l’innovazione verso la dignità umana e la partecipazione democratica, contribuendo alla costruzione di una cultura europea condivisa.
Abstract (EN)
This paper explores Artificial Intelligence as a cultural environment and an educational issue, placing cognitive rights and the formation of judgment at its core. Drawing on real educational practices and school contexts, it examines how AI can support the development of critical thinking, inclusion, and digital citizenship. Schools emerge as key political and cultural spaces for orienting innovation toward human dignity and democratic participation, contributing to the construction of a shared European culture.
Résumé – Français
Cet article propose une réflexion sur l’intelligence artificielle en tant qu’environnement culturel et enjeu éducatif, en plaçant au centre la question des droits cognitifs et de la formation du jugement. À partir de pratiques éducatives et de contextes scolaires réels, il explore la manière dont l’IA peut devenir un outil de développement de la pensée critique, de l’inclusion et de la citoyenneté numérique. L’école apparaît comme un espace politique et culturel fondamental pour orienter l’innovation vers la dignité humaine et la participation démocratique, contribuant à la construction d’une culture européenne partagée.
PAROLE CHIAVE
- Intelligenza Artificiale educativa, Diritti cognitivi, Comunità educanti, Pensiero critico, Cittadinanza digitale Educazione inclusiva, Cultura europea
C’è un momento, sempre più frequente, che si ripete nelle classi. Non è annunciato, non è previsto dal programma, non compare nei curricoli. Accade all’improvviso, spesso con naturalezza, come se fosse la cosa più ovvia del mondo. Uno studente alza la mano e chiede: “Posso usare l’Intelligenza Artificiale?”
La domanda non riguarda lo strumento. Non chiede istruzioni, né autorizzazioni tecniche. È una domanda che interroga il confine: tra autonomia e delega, tra apprendimento e automatismo, tra responsabilità e comodità. È una domanda che mette in discussione il ruolo della scuola, del docente, del sapere stesso, in un tempo in cui il pensiero sembra sempre più facilmente esternalizzabile.
In quel momento diventa evidente ciò che spesso fatichiamo a riconoscere: l’Intelligenza Artificiale non è una questione tecnologica. È una questione educativa e, prima ancora, culturale. Non perché la tecnologia non conti, ma perché ciò che è in gioco non è il funzionamento degli algoritmi, bensì il modo in cui stiamo ridefinendo il rapporto con la conoscenza, con il linguaggio, con il giudizio.
L’IA è già entrata nelle pratiche quotidiane di studenti e docenti. Non come evento straordinario, ma come ambiente. Scrive testi, suggerisce soluzioni, riorganizza informazioni, anticipa risposte. È presente nei dispositivi personali, nelle piattaforme, nei processi di studio e di lavoro. Fingere che non esista significherebbe rinunciare a comprendere il tempo che abitiamo. Accoglierla senza interrogarsi significherebbe rinunciare alla funzione educativa della scuola.
È proprio qui che la scuola riafferma la propria natura di luogo politico e culturale. Non perché debba fornire risposte definitive o prescrizioni rigide, ma perché è chiamata a creare le condizioni in cui il pensiero possa formarsi, esercitarsi, confrontarsi. La scuola non è il luogo in cui si decide se l’Intelligenza Artificiale sia “buona” o “cattiva”, ma il luogo in cui si impara a porre le domande giuste, a riconoscere i limiti, a comprendere le implicazioni delle scelte.
Parlare di coltivare il pensiero, in questo contesto, non è una metafora rassicurante. Coltivare implica tempo, cura, attenzione ai processi. Implica accettare che la crescita non sia immediata, che l’errore faccia parte del percorso, che il risultato non sia sempre prevedibile. Il pensiero non è un prodotto da ottimizzare, ma un patrimonio culturale immateriale fatto di linguaggio, immaginazione, memoria, capacità critica.
L’Intelligenza Artificiale modifica il terreno su cui questo patrimonio cresce. Cambia l’accesso alle informazioni, la produzione dei testi, la relazione con il sapere. Introduce nuove possibilità, ma anche nuove fragilità. Il rischio non è solo quello di un uso scorretto degli strumenti, ma quello di una progressiva delega cognitiva, di un’abitudine a non interrogare, a non verificare, a non assumersi la responsabilità del proprio pensiero.
Coltivare il pensiero oggi significa riconoscere che l’innovazione non è neutra. Ogni tecnologia porta con sé una visione del mondo, una gerarchia di valori, un’idea implicita di ciò che conta e di ciò che può essere trascurato. In questo senso, l’IA non è semplicemente uno strumento a disposizione, ma un ambiente che influenza il modo in cui apprendiamo, comunichiamo, prendiamo decisioni.
È qui che il verbo educare assume un significato decisivo. Educare all’Intelligenza Artificiale non coincide con l’insegnamento dell’uso corretto degli strumenti. Non si tratta di aggiungere una competenza tecnica a un elenco già lungo, ma di accompagnare studenti e studentesse nella formazione del giudizio. Educare significa creare spazi in cui le risposte possano essere interrogate, confrontate, messe in discussione. Significa restituire centralità alla domanda, al dubbio, alla capacità di argomentare.
In questo scenario, il ruolo del docente cambia profondamente. Non è più soltanto colui che trasmette contenuti, né un semplice facilitatore neutro. Diventa curatore di contesti di apprendimento, garante di senso, adulto responsabile che orienta, pone limiti, apre possibilità. È una funzione culturale e politica, perché riguarda la formazione di cittadini capaci di partecipare consapevolmente alla vita democratica.
La scuola, insieme ai luoghi della cultura, si configura così come uno dei primi presìdi di cittadinanza digitale. Non perché protegga da ogni rischio, ma perché offre strumenti per abitare la complessità. In un ecosistema informativo sempre più mediato da sistemi algoritmici, il diritto alla formazione libera del pensiero, all’accesso pluralistico all’informazione, alla trasparenza dei processi decisionali diventa una questione di diritti cognitivi.
La domanda iniziale – “Posso usare l’Intelligenza Artificiale?” – resta aperta. Non perché manchi una risposta, ma perché la risposta non può essere unica, né definitiva. Dipende dal contesto, dalle intenzioni, dalle pratiche che scegliamo di costruire. Dipende dalla capacità della scuola di restare un luogo in cui il futuro non viene semplicemente adottato, ma educato.
Se la risposta non può essere unica né definitiva, allora la questione non è decidere cosa permettere o vietare, ma comprendere che tipo di pensiero stiamo coltivando.
Coltivare. Una parola che non appartiene al lessico dell’innovazione, né a quello dell’efficienza. Coltivare non è accelerare, non è ottimizzare, non è produrre risultati immediati. Coltivare significa prendersi cura di un processo, accettarne la lentezza, riconoscere che la crescita non è mai completamente prevedibile.
Applicata al pensiero, questa parola assume un valore profondamente culturale. Il pensiero non è una competenza da certificare, né una prestazione da misurare. È un patrimonio culturale immateriale, fatto di linguaggio, immaginazione, memoria, capacità di collegare, di dubitare, di rivedere le proprie posizioni. È qualcosa che si costruisce nel tempo, attraverso l’esperienza, il confronto, l’errore.
L’Intelligenza Artificiale interviene proprio su questo terreno. Non sostituisce il pensiero, ma ne modifica le condizioni di crescita. Cambia il modo in cui accediamo alle informazioni, il modo in cui produciamo testi, il modo in cui organizziamo il sapere. Introduce una nuova forma di mediazione che può amplificare possibilità, ma anche ridurre la complessità, se non viene abitata consapevolmente.
Coltivare il pensiero nell’ecosistema dell’IA significa riconoscere che non tutto ciò che è disponibile è automaticamente significativo. Significa distinguere tra velocità e profondità, tra risposta e comprensione. Significa accettare che il valore educativo non risieda nell’immediatezza dell’output, ma nel percorso che porta a interrogare quell’output.
Nelle pratiche educative quotidiane, questo si traduce in scelte apparentemente semplici, ma culturalmente decisive. Scegliere di fermarsi su una risposta generata, di smontarla, di riscriverla. Scegliere di confrontare versioni diverse, di chiedersi perché una formulazione convince più di un’altra. Scegliere di rendere visibile il processo, invece di nasconderlo dietro il risultato.
In questo senso, l’errore torna a essere centrale. Non come mancanza da correggere, ma come spazio di apprendimento. L’IA, che spesso viene percepita come strumento di perfezione, può diventare paradossalmente un alleato nel rendere evidente l’imperfezione del pensiero umano, la sua natura situata, storica, contestuale. Coltivare significa anche questo: accettare che il pensiero non sia mai definitivo, ma sempre in costruzione.
Il rischio, al contrario, è quello di una progressiva delega cognitiva. Quando le risposte arrivano prima delle domande, quando il testo è prodotto prima che il pensiero si sia formato, quando la soluzione precede il problema, il processo educativo si impoverisce. Non perché l’IA “sbagli”, ma perché viene usata come scorciatoia invece che come occasione di riflessione.
Coltivare il pensiero richiede allora una postura educativa precisa. Richiede adulti capaci di sostenere la complessità, di resistere alla tentazione della semplificazione, di difendere il tempo lungo dell’apprendimento. Richiede contesti in cui il silenzio, l’attesa, la riscrittura non siano percepiti come perdite di tempo, ma come parti essenziali del processo.
In questo quadro, la scuola assume un ruolo che va oltre la trasmissione dei saperi. Diventa luogo di cura del patrimonio culturale immateriale, spazio in cui il pensiero viene coltivato come bene comune. Non per conservarlo in modo statico, ma per renderlo vivo, capace di dialogare con le trasformazioni tecnologiche senza esserne travolto.
Coltivare, in definitiva, significa scegliere di non ridurre l’educazione a un addestramento. Significa riconoscere che l’Intelligenza Artificiale può essere uno strumento potente solo se inserita in un progetto culturale che metta al centro il pensiero umano, con le sue fragilità e le sue possibilità. È una scelta che non riguarda solo la scuola, ma l’idea stessa di futuro che vogliamo costruire.
Coltivare il pensiero, però, non è un atto spontaneo. È una scelta che qualcuno deve assumersi. Educare, nell’era dell’Intelligenza Artificiale, significa assumersi la responsabilità di orientare i processi. Educare oggi significa formare il giudizio, accompagnare alla consapevolezza, rendere visibili le scelte che stanno dietro ogni risposta, ogni suggerimento, ogni automatismo.
L’IA, per sua natura, restituisce risposte. Ma il rischio educativo più grande non è che le risposte siano sbagliate. È che arrivino prima delle domande. Quando il testo è prodotto prima che il pensiero si sia formato, quando la soluzione precede il problema, quando l’output sostituisce il processo, l’apprendimento si impoverisce. Non perché la tecnologia fallisca, ma perché viene usata come scorciatoia invece che come occasione di riflessione.
Educare al giudizio significa allora rallentare intenzionalmente. Significa creare spazi in cui le risposte possano essere interrogate, confrontate, smontate. Significa chiedere non solo che cosa funziona, ma perché funziona, per chi, a quali condizioni. È un lavoro che richiede tempo, ma soprattutto richiede adulti disposti a sostenere la complessità, a non cedere alla tentazione della semplificazione.
In questo scenario, il ruolo del docente si ridefinisce in modo profondo. Non è più soltanto colui che “sa di più”, né un facilitatore neutro che si limita a gestire strumenti. Diventa curatore di contesti di apprendimento, garante di senso, figura adulta che assume una responsabilità culturale. È il docente che decide quando l’uso dell’IA apre possibilità e quando, invece, rischia di chiuderle. È il docente che rende esplicite le regole del gioco, che nomina i limiti, che restituisce valore al processo.
Questa funzione non è neutra. È una funzione politica, nel senso più alto del termine. Perché riguarda la formazione di cittadini capaci di partecipare consapevolmente alla vita democratica. In un ecosistema informativo sempre più mediato da sistemi algoritmici, la capacità di formare un’opinione autonoma, di riconoscere bias, di distinguere tra informazione e persuasione diventa una competenza civica fondamentale.
È qui che il tema dei diritti cognitivi emerge con forza. Il diritto alla formazione libera del pensiero, all’accesso pluralistico all’informazione, alla trasparenza dei processi che influenzano opinioni e scelte non è un tema astratto o riservato agli esperti. È una questione che attraversa le aule, i laboratori, le piattaforme digitali. Ogni volta che uno studente accetta una risposta senza interrogarsi, ogni volta che un testo viene prodotto senza essere discusso, ogni volta che un algoritmo viene percepito come neutro, questi diritti vengono messi alla prova.
La scuola, insieme ai luoghi della cultura, diventa così uno dei primi presìdi di democrazia nell’ecosistema digitale. Non perché possa controllare tutto, ma perché può educare alla consapevolezza. Può offrire strumenti per abitare la complessità, per riconoscere che ogni tecnologia incorpora scelte, valori, visioni del mondo. Può insegnare che la partecipazione non è automatica, ma va costruita.
Educare al giudizio significa anche riconoscere le disuguaglianze. Non tutti hanno lo stesso accesso agli strumenti, alle competenze, alle opportunità di riflessione. Senza un progetto educativo intenzionale, l’Intelligenza Artificiale rischia di amplificare le distanze invece di ridurle. Al contrario, inserita in pratiche inclusive e consapevoli, può diventare uno strumento per rafforzare l’agency, per dare voce, per ampliare orizzonti.
In questo senso, educare non è mai un atto individuale. È un processo che coinvolge le comunità educanti, i territori, le istituzioni culturali. È un lavoro collettivo che richiede visione, coordinamento, responsabilità condivisa. La scuola non è sola, ma resta uno dei luoghi in cui questa responsabilità si rende visibile, quotidiana, concreta.
Educare al giudizio, nell’era dell’Intelligenza Artificiale, significa infine accettare che non esistano soluzioni semplici. Significa abitare le domande, sostenere l’incertezza, riconoscere che la formazione del pensiero è un processo lungo e mai concluso. È una scelta culturale che riguarda il tipo di società che vogliamo costruire e il modo in cui intendiamo esercitare la nostra cittadinanza.
Educare al giudizio, però, non basta se non ci chiediamo verso quale idea di umano stiamo orientando l’innovazione. È in questo spazio che il verbo umanizzare smette di essere uno slogan e diventa una presa di posizione.
Umanizzare l’Intelligenza Artificiale non significa rallentare il progresso, né opporsi alla tecnologia. Non è un gesto nostalgico, né una difesa del passato. Umanizzare significa riconoscere che ogni innovazione porta con sé una visione dell’umano, e che questa visione non è mai neutra. Ogni scelta tecnologica incorpora valori, priorità, esclusioni. Decidere di umanizzare significa rendere queste scelte visibili, discutibili, condivise.
Nel dibattito pubblico, l’IA viene spesso presentata come inevitabile, come un processo che avanza indipendentemente dalle intenzioni umane. Ma l’inevitabilità è una narrazione comoda, perché solleva dalla responsabilità. Umanizzare, al contrario, significa rifiutare l’idea che il futuro sia già scritto. Significa affermare che l’innovazione può e deve essere orientata, soprattutto quando incide sui processi educativi, culturali e democratici.
La scuola, in questo senso, non è un luogo marginale. È uno dei pochi spazi in cui l’innovazione può essere interrogata prima di essere normalizzata. È il luogo in cui si può ancora dire che non tutto ciò che è possibile è automaticamente desiderabile. È il luogo in cui si può discutere non solo di come usare una tecnologia, ma di perché usarla e a quali condizioni.
Umanizzare l’IA significa anche riconoscere che l’educazione non è riducibile a un insieme di procedure. È relazione, contesto, presenza. È costruzione di senso condiviso. Nessun sistema automatizzato può sostituire questo lavoro, perché non si tratta di replicare risposte, ma di accompagnare persone nella formazione della propria identità culturale e civica.
In una prospettiva europea, umanizzare l’innovazione significa tenere insieme dignità, inclusione, partecipazione. Significa riconoscere il valore dei territori, delle comunità, dei patrimoni culturali materiali e immateriali. Significa costruire una cultura digitale che non cancelli le differenze, ma le renda dialoganti. In questo quadro, l’Intelligenza Artificiale può diventare uno strumento potente solo se inserita in un progetto educativo che metta al centro la persona e non la prestazione.
Le comunità educanti hanno un ruolo decisivo in questo processo. Non si tratta di delegare alla scuola una responsabilità che è collettiva, ma di riconoscere che la scuola è uno dei luoghi in cui questa responsabilità si rende visibile e quotidiana. È nelle pratiche, nelle scelte didattiche, nei curricoli che l’umanizzazione dell’innovazione prende forma o viene disattesa.
Umanizzare significa anche accettare il conflitto. Accettare che non esistano soluzioni semplici, che le domande siano spesso più importanti delle risposte, che il confronto sia parte integrante del processo educativo. Significa riconoscere che la democrazia non è un dato acquisito, ma una pratica che va continuamente rinnovata, anche – e soprattutto – nell’ecosistema digitale.
Coltivare, educare, umanizzare non sono azioni separate. Sono movimenti di uno stesso gesto culturale. Un gesto che non si esaurisce in un evento, in una settimana tematica, in una dichiarazione di intenti. È un gesto che si rinnova ogni giorno, nelle scelte che facciamo come educatori, come cittadini, come comunità.
La responsabilità resta aperta. Non perché manchi una direzione, ma perché la direzione non può essere imposta. È una responsabilità che chiede partecipazione, consapevolezza, coraggio. L’Intelligenza Artificiale non deciderà che tipo di futuro avremo. Lo deciderà la nostra capacità di umanizzare l’innovazione, di educare il pensiero, di coltivare una cultura che non rinunci alla propria complessità.
Umanizzare l’innovazione, allora, non è un gesto che si esaurisce in una dichiarazione di intenti. È una pratica quotidiana, fatta di scelte spesso invisibili, di attenzioni che non fanno notizia, di decisioni che si prendono nei contesti concreti dell’educazione e della cultura. È una postura che richiede coerenza, perché non può essere invocata a parole e disattesa nelle pratiche.
In questo senso, l’Intelligenza Artificiale non rappresenta una frattura improvvisa, ma un punto di emersione. Rende visibili tensioni che attraversano da tempo i sistemi educativi e culturali: il rapporto tra velocità e profondità, tra accesso e comprensione, tra delega e responsabilità. L’IA non crea questi problemi, ma li amplifica. E proprio per questo ci costringe a prenderli sul serio.
La scuola resta uno dei luoghi in cui questa presa di responsabilità può ancora avvenire in modo intenzionale. Non perché sia immune dalle contraddizioni, ma perché è uno spazio in cui il tempo dell’apprendimento può essere difeso, negoziato, protetto. È uno dei pochi contesti in cui si può ancora affermare che il valore di un percorso non coincide con la rapidità del risultato, e che il pensiero ha bisogno di soste, di ritorni, di riscritture.
Ma la scuola non è sola. Umanizzare l’innovazione è una responsabilità che riguarda l’intero ecosistema culturale: le istituzioni, i territori, i luoghi della memoria, le comunità professionali. Riguarda il modo in cui costruiamo narrazioni sul futuro, il linguaggio che usiamo per parlare di tecnologia, le aspettative che alimentiamo. Riguarda la capacità di riconoscere che l’educazione non è un servizio accessorio, ma un’infrastruttura democratica.
In una prospettiva europea, questa responsabilità assume un significato ancora più ampio. Parlare di cultura digitale condivisa significa interrogarsi su quali valori vogliamo rendere operativi nell’innovazione: dignità, inclusione, partecipazione, pluralismo. Significa riconoscere che il patrimonio culturale non è solo ciò che conserviamo, ma anche ciò che scegliamo di trasmettere e trasformare. In questo quadro, l’Intelligenza Artificiale può diventare uno strumento di connessione e di apertura, oppure un fattore di omologazione e semplificazione. La differenza non sta nella tecnologia, ma nelle scelte che la accompagnano.
Umanizzare significa anche accettare che non tutto sia risolvibile. Che alcune domande restino aperte. Che il conflitto faccia parte del processo educativo e democratico. Significa rinunciare all’illusione di un controllo totale e riconoscere che educare è sempre un atto incompiuto, esposto, fragile. Ma è proprio in questa fragilità che risiede la sua forza.
Coltivare il pensiero, educare al giudizio, umanizzare l’innovazione non sono obiettivi da raggiungere una volta per tutte. Sono movimenti che vanno continuamente riattivati. Ogni nuova tecnologia, ogni nuovo contesto, ogni nuova generazione riapre la domanda. E questa riapertura non è un fallimento, ma il segno di una cultura viva.
La responsabilità che resta è quella di non smettere di porre le domande giuste. Di difendere spazi di riflessione in un tempo che spinge alla semplificazione. Di riconoscere che il futuro non è qualcosa da subire o da automatizzare, ma da educare insieme.
È in questa scelta quotidiana, spesso silenziosa, che si gioca la possibilità di un’innovazione davvero umana. Non come promessa astratta, ma come pratica condivisa. Non come destino inevitabile, ma come responsabilità culturale. Perché il futuro non è qualcosa che accade da solo o che può essere delegato agli algoritmi, ma un cammino che possiamo ancora scegliere di educare.
Nota biografica

Debora Carmela Niutta è formatrice e progettista culturale, specializzata in innovazione didattica, Intelligenza Artificiale generativa e educazione digitale. Si occupa di formazione del giudizio, diritti cognitivi e cittadinanza digitale, con particolare attenzione al ruolo della scuola come spazio culturale e democratico. Collabora con istituzioni scolastiche, enti di formazione e comunità educanti, progettando percorsi che intrecciano tecnologia, pensiero critico e inclusione. Il suo lavoro si concentra sull’umanizzazione
