di Patrizia Natale

Abstract

L’ingresso dell’intelligenza artificiale (AI) nei sistemi educativi sta ridefinendo il senso stesso dell’insegnamento, dell’apprendimento e della responsabilità formativa. L’AI non è più soltanto uno strumento di supporto, ma un agente cognitivo che interagisce con studenti e docenti, modificando le dinamiche del sapere e le relazioni educative. Il presente articolo esplora il ruolo dell’etica come fondamento della transizione verso una intelligenza collaborativa, in cui l’uomo e la macchina co-costruiscono conoscenza in un quadro di consapevolezza e reciprocità. Dopo aver analizzato le questioni legate ai bias algoritmici e alla trasparenza, il testo propone un modello di alfabetizzazione all’AI fondato su competenze critiche, riflessive e dialogiche, che uniscono la padronanza tecnica alla responsabilità sociale. Attraverso l’esame dei nuovi ruoli di docenti e studenti, della governance partecipata e della necessità di un umanesimo digitale, l’elaborato delinea una prospettiva pedagogica in cui la tecnologia è al servizio della giustizia educativa e della crescita umana.

Parole chiave

etica dell’intelligenza artificiale; educazione digitale; intelligenza collaborativa; bias algoritmici; alfabetizzazione all’AI; governance educativa; umanesimo digitale; cittadinanza digitale.


1. Introduzione: etica, innovazione e responsabilità educativa

L’introduzione dell’intelligenza artificiale (AI) nei sistemi educativi non si limita a introdurre nuovi strumenti: essa comporta un ripensamento profondo dei fini, dei metodi e dei soggetti dell’educazione. L’AI favorisce la personalizzazione dei percorsi, l’efficienza gestionale e una più ampia accessibilità, ma solleva al contempo questioni cruciali relative alla privacy, alla sorveglianza, alla trasparenza e al rischio di riproduzione delle disuguaglianze (Holmes, Bialik & Fadel, 2019; European Commission, 2020). In ambito scolastico, tali tematiche incidono direttamente sul diritto all’istruzione, sull’uguaglianza di opportunità e sulla responsabilità formativa di docenti e istituzioni. Il problema principale non è di natura meramente tecnologica, ma epistemica e valoriale. Le scelte progettuali degli algoritmi incorporano presupposti, priorità e bias che possono influire sulle traiettorie formative degli studenti. Per questo motivo l’analisi etica non costituisce una sovrastruttura esterna all’innovazione, bensì la condizione stessa che ne garantisce la sostenibilità pedagogica. Questo lavoro tratta la questione educativa alla luce del paradigma dell’intelligenza collaborativa, un modello che interpreta la relazione uomo–macchina come una partnership cognitiva e morale, nella quale l’etica diventa competenza formativa.
L’obiettivo è delineare percorsi concreti di alfabetizzazione all’AI, di governance partecipata e di pratiche didattiche capaci di trasformare i rischi in opportunità di apprendimento critico.

2. Verso l’intelligenza collaborativa: concetti e fondamenti

Il concetto di intelligenza collaborativa nasce dall’idea, oggi ampiamente condivisa negli studi sull’intelligenza collettiva, che i migliori risultati cognitivi emergano dall’interazione sinergica tra le capacità umane e le potenzialità computazionali delle macchine (Malone, 2018; Woolley et al., 2010). In ambito educativo, questa prospettiva invita a interpretare l’intelligenza artificiale non come un semplice strumento di supporto, ma come un interlocutore capace di stimolare processi di riflessione, suggerire percorsi di apprendimento adattativi e facilitare la scoperta autonoma delle conoscenze.

Tale collaborazione, tuttavia, non si realizza automaticamente con l’introduzione di agenti artificiali nei contesti formativi: richiede una progettazione consapevole degli ambienti di apprendimento, in cui l’interazione uomo–macchina sia orientata a obiettivi pedagogici espliciti e alla promozione di competenze critiche. Un elemento teorico fondamentale di questa prospettiva è il riconoscimento dei limiti complementari fra intelligenza umana e artificiale. Le tecnologie eccellono nell’elaborazione di grandi quantità di dati e nel riconoscimento di pattern complessi, mentre gli esseri umani portano nel processo educativo empatia, capacità di contestualizzazione, giudizio morale e creatività. L’intelligenza collaborativa non mira dunque a fondere indistintamente le due dimensioni, ma a orchestrare consapevolmente i rispettivi punti di forza in vista di obiettivi cognitivi e formativi condivisi. La ricerca contemporanea sui sistemi adattivi mostra come gli esiti educativi più significativi si raggiungano quando le tecnologie favoriscono processi metacognitivi e di autoregolazione piuttosto che sostituirsi alle attività riflessive umane (Molenaar, Kizilcec & Chen, 2024). In questa prospettiva, l’introduzione dell’AI nella scuola comporta una ridefinizione delle pratiche didattiche, dei ruoli e dei modelli valutativi: l’AI deve essere considerata un co-tutor capace di fornire spunti e stimoli da sottoporre a verifica critica, e non un’autorità epistemica definitiva. L’intelligenza collaborativa, pertanto, si concretizza attraverso pratiche dialogiche in cui studenti, docenti e agenti artificiali costruiscono conoscenza in modo iterativo, affinando i prompt, controllando le fonti e riflettendo sui limiti intrinseci delle risposte prodotte dalle macchine.

3. AI literacy: contenuti, competenze e curricoli

L’alfabetizzazione all’intelligenza artificiale (AI literacy) rappresenta oggi un ambito di competenza complesso e multidimensionale, che supera la semplice abilità di utilizzo degli strumenti tecnologici. Diversi studi (Long & Magerko, 2020; Ng, Leung & Chu, 2021) evidenziano come questa competenza integri conoscenze tecniche, capacità cognitive, sensibilità etica e creatività progettuale. Nel contesto scolastico, tale visione si traduce nella costruzione di un curriculum trasversale, capace di attraversare discipline e linguaggi diversi, dal sapere scientifico a quello umanistico e artistico. Le principali dimensioni educative di questa alfabetizzazione possono essere così sintetizzate:

  • Conoscenze tecniche di base: comprendere come i modelli di intelligenza artificiale apprendono dai dati, riconoscendo concetti fondamentali come training, overfitting e generalizzazione, nonché i limiti di interpretabilità dei sistemi.
  • Valutazione critica degli output: sviluppare la capacità di analizzare l’attendibilità, la robustezza e la coerenza delle risposte generate dai sistemi, utilizzando controlli incrociati e strategie di verifica.
  • Riconoscimento e gestione dei bias: imparare a individuare pregiudizi e distorsioni nei dataset e nei modelli, comprendendone le cause e proponendo azioni di mitigazione.
  • Prompt literacy: acquisire competenze comunicative e linguistiche per formulare richieste efficaci e responsabili, comprendendo come la formulazione dei prompt influenzi gli esiti generati.
  • Etica e responsabilità: riflettere sulle implicazioni sociali, giuridiche e morali dell’uso dell’AI, sviluppando la capacità di giudizio autonomo e la consapevolezza delle proprie scelte nei processi decisionali.
  • Creatività collaborativa: utilizzare l’AI come strumento di ampliamento delle potenzialità espressive e ideative, mantenendo il controllo umano e la paternità intellettuale sui prodotti realizzati.

Queste dimensioni non dovrebbero essere trattate come moduli tecnici separati, ma integrate trasversalmente nel curriculum, a partire dalle diverse aree disciplinari.
In questa prospettiva, l’AI literacy diventa parte integrante della cittadinanza digitale, poiché educare gli studenti a comprendere e governare le tecnologie significa prepararli a partecipare in modo consapevole e critico alla vita democratica del futuro.

4. Bias algoritmici: analisi, didattica e responsabilità epistemica

I bias algoritmici non sono semplici anomalie tecniche, ma il risultato di una complessa rete di fattori che includono la qualità dei dati di addestramento, le scelte progettuali e gli interessi economici o politici che orientano lo sviluppo dei sistemi. Studi pionieristici (Buolamwini & Gebru, 2018; Angwin et al., 2016) hanno dimostrato che anche modelli apparentemente neutri possono produrre esiti discriminatori, generando effetti concreti su individui e gruppi sociali.
Quando questi sistemi vengono applicati all’ambito educativo, i rischi si amplificano: un algoritmo che valuta la performance di uno studente, suggerisce materiali personalizzati o assegna punteggi automatizzati può inconsapevolmente riprodurre stereotipi di genere, penalizzare studenti non madrelingua o favorire chi dispone di maggiori risorse digitali. Per affrontare tali sfide, l’approccio educativo deve muoversi su due livelli complementari: quello tecnico e quello critico-formativo. Sul piano tecnico, le istituzioni scolastiche dovrebbero adottare strumenti di valutazione della fairness e della robustness, avvalendosi di procedure di audit sui dataset e sui modelli impiegati. È necessario garantire trasparenza sui criteri di funzionamento degli algoritmi, in modo che docenti e studenti possano comprendere e discutere il processo decisionale automatico. Questa explainability non ha soltanto una funzione di controllo, ma rappresenta anche un’opportunità pedagogica per sviluppare competenze di lettura critica dei dati. Sul piano formativo, il bias diventa a sua volta un oggetto di apprendimento: un campo di esplorazione che permette di unire conoscenze tecniche, riflessione etica e consapevolezza sociale. Le attività didattiche possono assumere la forma di laboratori nei quali gli studenti sperimentano direttamente il funzionamento di modelli di AI, confrontando gli output generati da dataset differenti e analizzando le conseguenze di piccole modifiche nei dati di addestramento. Attraverso questa pratica, gli studenti scoprono che i risultati non sono mai completamente neutrali, ma dipendono da scelte, limiti e prospettive umane incorporate nei sistemi. Un esempio efficace è quello di un laboratorio sul linguaggio e i pregiudizi nei testi generati: gli studenti possono osservare come un modello di AI risponda in modo diverso a seconda delle parole usate nelle richieste o dei nomi inseriti nei prompt, discutendo poi le implicazioni culturali di tali variazioni. Un altro esercizio può consistere nel modificare in modo controllato i dati di input di un modello — ad esempio cambiando contesti geografici, sociali o linguistici — per verificare come queste differenze influenzino le decisioni automatiche. Queste esperienze, oltre a consolidare competenze digitali e metodologiche, favoriscono lo sviluppo di quella consapevolezza di responsabilità che Floridi (2020) descrive come componente essenziale della governance etica dell’informazione. Infine, la gestione educativa dei bias implica anche un rinnovato ruolo per i docenti, chiamati a trasformarsi in facilitatori critici del sapere algoritmico: figure che guidano il dialogo, promuovono il dubbio epistemico e sostengono la formazione di una mentalità riflessiva negli studenti. In questo modo, la scuola diventa un laboratorio di cittadinanza digitale, in cui comprendere i limiti dell’AI significa imparare a esercitare libertà di pensiero e capacità di discernimento nel mondo connesso.

5. Personalizzazione didattica: opportunità, rischi e criteri inclusivi

La personalizzazione dell’apprendimento mediata da algoritmi rappresenta una delle promesse più discusse dell’intelligenza artificiale in ambito educativo. La capacità dei sistemi adattivi di analizzare le prestazioni degli studenti e proporre percorsi individualizzati può favorire la motivazione, l’autonomia e un maggiore coinvolgimento nei processi di apprendimento (Pane et al., 2015). Tuttavia, quando la personalizzazione è guidata unicamente da metriche quantitative o da logiche di efficienza, rischia di generare nuove forme di esclusione. Gli studenti con maggiore familiarità digitale o con contesti socio-economici favorevoli producono infatti dati di migliore qualità, ricevendo suggerimenti più pertinenti e tempestivi, mentre chi dispone di minori risorse rischia di essere ulteriormente marginalizzato.

Il punto critico non è dunque la personalizzazione in sé, ma il modo in cui essa viene progettata e governata. Perché diventi un reale strumento di inclusione educativa, è necessario integrare principi di equità, trasparenza e controllo umano in tutte le fasi del processo didattico e decisionale. In questa prospettiva, si possono individuare alcuni orientamenti fondamentali per un uso etico e inclusivo dell’AI nella personalizzazione dell’apprendimento:

  1. Progettare metriche di successo inclusive, che vadano oltre la mera misurazione della performance numerica e considerino anche variabili qualitative come la partecipazione, la cooperazione, il contesto socio-culturale e i bisogni educativi speciali. Un sistema personalizzato equo dovrebbe riconoscere il valore della diversità, non uniformare le traiettorie di apprendimento.
  2. Applicare strategie compensative, destinate a ridurre gli squilibri strutturali: tutoraggio umano mirato, materiali accessibili offline per chi ha connettività limitata, e percorsi flessibili che consentano a ciascuno studente di raggiungere obiettivi formativi con strumenti adeguati al proprio profilo.
  3. Garantire trasparenza e spiegabilità nei criteri di adattamento: studenti e docenti dovrebbero poter conoscere su quali basi un sistema propone determinati contenuti o sequenze di attività. Domande come “perché mi è stato suggerito questo percorso?” o “quali dati sono stati utilizzati per generarlo?” devono far parte integrante della didattica, diventando occasione di alfabetizzazione critica all’AI.
  4. Mantenere il controllo umano, riconoscendo nel docente non un semplice mediatore tecnico, ma un vero garante epistemico ed etico. È l’insegnante, in ultima istanza, a interpretare i suggerimenti dell’AI, a correggerne gli eccessi e a contestualizzarne l’uso in base alle esigenze del gruppo classe.

Quando è inserita in questo quadro di corresponsabilità, la personalizzazione diventa una pratica di giustizia educativa piuttosto che un meccanismo di efficienza. Il suo valore risiede nella capacità di coniugare dati e sensibilità umana, automatismo e discernimento pedagogico, orientando l’innovazione verso l’inclusione e la crescita integrale della persona.
In tal senso, l’AI non sostituisce il giudizio educativo, ma ne estende il raggio d’azione, offrendo strumenti che — se interpretati con consapevolezza — possono potenziare la relazione didattica e promuovere equità.

6. Nuovi ruoli professionali: il docente come curatore cognitivo e mediatore etico

L’introduzione dell’intelligenza artificiale nel mondo dell’educazione segna una trasformazione profonda del ruolo docente. L’insegnante non è più soltanto colui che trasmette contenuti, ma diventa un progettista di esperienze di apprendimento capaci di integrare in modo consapevole le potenzialità dei sistemi intelligenti. Questo mutamento implica un cambio di prospettiva: dall’insegnamento centrato sull’istruzione frontale a un modello basato sulla mediazione cognitiva, in cui il docente guida l’interazione tra studenti e tecnologie, promuovendo la comprensione critica dei processi automatizzati e la riflessione sui loro limiti. Per svolgere questo nuovo ruolo, gli insegnanti devono acquisire competenze che uniscono dimensioni tecniche, pedagogiche ed etiche. Tra le più rilevanti:

  • Capacità di interpretare gli output algoritmici e di collocarli all’interno di una cornice pedagogica significativa, distinguendo ciò che può essere assunto come stimolo da ciò che necessita di validazione o correzione critica.
  • Competenze di data stewardship, ovvero la capacità di decidere quali dati raccogliere, come conservarli in modo sicuro e con quali finalità utilizzarli, rispettando principi di privacy, trasparenza e proporzionalità.
  • Abilità di progettare attività collaborative human–AI, che favoriscano non solo l’efficienza o la produttività, ma anche il pensiero critico, la creatività e il senso di responsabilità condivisa.
  • Competenze comunicative e formative indispensabili per animare discussioni etiche, gestire dilemmi morali legati all’uso dell’AI e creare spazi di partecipazione democratica all’interno delle comunità scolastiche.

In questo contesto, la formazione iniziale e in servizio dei docenti assume un valore strategico. Essa deve includere moduli dedicati all’AI literacy, alla governance dei dati e alle didattiche dell’intelligenza collaborativa, fornendo strumenti operativi ma anche chiavi interpretative per comprendere l’impatto culturale delle tecnologie. Non si tratta di trasformare gli insegnanti in esperti di informatica o data scientist, ma di consentire loro di esercitare una professionalità riflessiva, capace di compiere scelte pedagogiche informate, sostenute da consapevolezza critica e da una solida etica professionale. Come sottolinea la letteratura più recente (Rivoltella, 2023; Selwyn, 2019), il docente del futuro dovrà agire sempre più come curatore cognitivo: un facilitatore che seleziona, media e dà senso alla conoscenza in un ecosistema informativo complesso, dove l’AI è al tempo stesso strumento e interlocutore. In questa prospettiva, l’insegnante resta insostituibile non per la quantità di informazioni che può trasmettere, ma per la capacità di umanizzare la tecnologia, guidando gli studenti verso un uso consapevole e responsabile dell’intelligenza artificiale.

7. Valutazione con AI: trasparenza, explainability e pratiche contestabili

L’introduzione dei sistemi di intelligenza artificiale nella valutazione scolastica offre indubbi vantaggi pratici: velocità di elaborazione, coerenza nei criteri e possibilità di analizzare grandi quantità di dati in tempi ridotti. Tuttavia, questi benefici si accompagnano a rischi significativi di opacità, riduzionismo e delega di responsabilità, che rendono necessaria una riflessione critica sui criteri e sulle modalità d’uso. Come osservato da Veale, Van Kleek e Binns (2018) il problema principale non risiede nell’automazione in sé, ma nella difficoltà di rendere comprensibili i processi decisionali dei modelli. La spiegabilità (explainability) diventa quindi una condizione imprescindibile: studenti e docenti devono poter sapere su quali dati, pesi e correlazioni l’algoritmo basa le proprie valutazioni o raccomandazioni. Solo attraverso la trasparenza è possibile costruire fiducia e responsabilità condivisa nei risultati.

Un approccio etico alla valutazione supportata dall’AI dovrebbe fondarsi su almeno tre principi fondamentali:

  1. Accessibilità delle regole – i criteri di valutazione devono essere dichiarati in modo chiaro, comprensibile e documentato, permettendo agli utenti di sapere come vengono calcolati i punteggi e quali parametri incidono maggiormente sul risultato.
  2. Possibilità di contestazione – occorre prevedere canali per la revisione delle decisioni algoritmiche, restituendo agli studenti e agli insegnanti la facoltà di discutere, correggere o integrare le valutazioni ottenute.
  3. Prospettiva olistica – la valutazione non deve ridursi a un insieme di indicatori quantitativi, ma integrare la componente qualitativa e relazionale, valorizzando il giudizio professionale del docente come elemento interpretativo e correttivo.

In questa direzione, la UNESCO (2023) sottolinea la necessità di mantenere un equilibrio tra automazione e supervisione umana, riconoscendo che nessun sistema di AI può cogliere la totalità dei processi cognitivi, emotivi e sociali che contribuiscono all’apprendimento. Da un punto di vista pedagogico, l’uso dell’AI nella valutazione dovrebbe assumere una funzione formativa e non solo certificativa. Gli studenti andrebbero incoraggiati a riflettere sui criteri e sui risultati generati dai modelli, esaminando come determinate scelte di input, variabili o dati di riferimento abbiano influenzato l’esito della valutazione. Attraverso discussioni guidate, simulazioni o attività di confronto, essi possono imparare a individuare i limiti dell’automatismo e a proporre strategie di miglioramento. In tal senso, la valutazione automatizzata diventa parte integrante del percorso di apprendimento: non più semplice strumento di giudizio, ma occasione per esercitare metacognizione e responsabilità critica. Quando l’AI è utilizzata in questo modo, essa contribuisce a costruire un ambiente valutativo più trasparente, partecipato e orientato alla crescita personale, in cui la tecnologia non sostituisce il discernimento umano, ma lo amplifica e lo rende più consapevole.

8. Governance partecipata, DPIA e tutele dei dati

La governance dell’intelligenza artificiale in ambito educativo non può limitarsi all’applicazione di norme tecniche o giuridiche: deve tradursi in un insieme dinamico di regole, responsabilità e pratiche condivise tra tutti i soggetti coinvolti nella comunità scolastica.
L’obiettivo è garantire che l’uso dell’AI sia non solo conforme alla legge, ma anche coerente con i valori educativi di trasparenza, equità e tutela dei diritti fondamentali.

Secondo la Commissione Europea (2020) , una governance “affidabile” dell’AI richiede un approccio basato su tre pilastri: accountability (responsabilità tracciabile), transparency (chiarezza dei processi decisionali) e human oversight (supervisione umana). Tuttavia, come evidenzia anche la UNESCO (2023), nel contesto scolastico questi principi devono essere declinati in modo partecipativo, includendo attivamente scuole, famiglie, studenti e fornitori di tecnologia.

Gli strumenti normativi esistenti — come la Data Protection Impact Assessment (DPIA) prevista dal GDPR — offrono un quadro utile per valutare i rischi e i benefici legati al trattamento dei dati, ma non sono sufficienti. Occorre integrare la valutazione tecnica con meccanismi di governance partecipata, capaci di unire competenze giuridiche, pedagogiche e sociali.

Tra gli elementi operativi che dovrebbero caratterizzare tale modello di governance rientrano:

  • Commissioni di valutazione multisettoriali, composte da docenti, esperti di dati, rappresentanti dei genitori e studenti, incaricate di esaminare le piattaforme AI prima della loro adozione.
  • Policy chiare e trasparenti sulla raccolta, conservazione e condivisione dei dati, con limiti espliciti di utilizzo, tempi di conservazione definiti e verifiche da parte di enti indipendenti.
  • Percorsi di formazione e informazione rivolti a famiglie e studenti, per illustrare le finalità del trattamento dei dati, i diritti esercitabili (tra cui diritto all’oblio, rettifica e portabilità) e i canali di segnalazione di eventuali abusi.
  • Audit periodici indipendenti, finalizzati a verificare la conformità delle piattaforme ai principi di fairness, privacy e non discriminazione, come raccomandato dalle linee guida europee.

La corresponsabilità educativa diventa così il fondamento di una governance etica dell’AI: le decisioni tecnologiche devono essere oggetto di dibattito pubblico e deliberazione democratica all’interno della comunità scolastica. Questo implica non solo la consultazione, ma una vera partecipazione co-decisionale, in cui studenti e docenti siano protagonisti della definizione dei criteri di utilizzo e valutazione delle tecnologie adottate. Solo un modello di governance inclusivo e trasparente può garantire che l’innovazione digitale non diventi una forma di controllo, ma uno strumento di empowerment educativo e di crescita collettiva, in cui la fiducia nasce dalla condivisione delle regole e dalla responsabilità comune.

9. Pratiche didattiche concrete per l’intelligenza collaborativa

Per tradurre in azioni concrete la visione di un’educazione fondata sull’intelligenza collaborativa, è necessario individuare pratiche didattiche replicabili e adattabili ai diversi ordini di scuola. Queste attività permettono di spostare l’attenzione dall’uso passivo degli strumenti digitali alla costruzione attiva di conoscenza, attraverso l’interazione consapevole con i sistemi di intelligenza artificiale. Come suggerito da Long e Magerko (2020) e da Ng, Leung e Chu (2021), l’AI literacy non si acquisisce studiando la teoria dei modelli, ma sperimentando, riflettendo sugli errori e comprendendo il significato dei risultati. In questa prospettiva, l’esperienza didattica diventa un laboratorio di esplorazione critica in cui si apprende “con” e “attraverso” l’AI.

Alcuni esempi di pratiche significative includono:

  1. Laboratori di analisi dei bias – attività in cui gli studenti testano modelli con dataset differenti, osservano come cambiano le risposte e discutono le cause delle distorsioni. Questi laboratori sviluppano la consapevolezza che gli algoritmi riflettono, e talvolta amplificano, i limiti dei dati su cui sono addestrati.
  2. Esercizi di prompt engineering – compiti guidati che invitano gli studenti a iterare e migliorare le proprie richieste a modelli generativi, per capire come la formulazione linguistica influenzi i risultati. Oltre alla competenza tecnica, questo esercizio stimola il pensiero critico e la metacognizione linguistica.
  3. Progetti di co-creazione di contenuti – percorsi in cui studenti e AI collaborano alla produzione di testi, mappe concettuali, infografiche o prototipi digitali. La valutazione privilegia la qualità del processo, la capacità di dialogo e di revisione, più che il prodotto finale.
  4. Simulazioni di governance partecipata – role play in cui gruppi di studenti assumono ruoli diversi (docenti, dirigenti, famiglie, fornitori) per negoziare regole d’uso dell’AI a scuola. Queste attività, suggerite anche dalle linee guida UNESCO (2023), allenano al pensiero democratico e alla deliberazione informata sulle tecnologie.
  5. Portfolio riflessivi – raccolte di lavori e annotazioni che documentano le interazioni con l’AI, accompagnate da commenti personali e analisi critiche. Il portfolio diventa uno strumento di autovalutazione e di crescita metacognitiva, consentendo di riconoscere progressi, incertezze e strategie di apprendimento.

Tutte queste pratiche pongono al centro l’esperienza e la riflessione critica, riconoscendo che la comprensione dell’intelligenza artificiale nasce dall’interazione, non dalla sola osservazione. L’obiettivo non è addestrare utenti competenti, ma formare cittadini digitali consapevoli, capaci di usare l’AI come strumento di ricerca, creatività e responsabilità sociale.

Tabella: Competenze per l’AI Literacy

DimensioneDescrizioneObiettivi formativi
Conoscenza tecnicaComprensione dei principi di funzionamento dei sistemi di AI.Saper spiegare in modo essenziale come apprendono gli algoritmi e da quali dati dipendono.
Valutazione criticaCapacità di analizzare l’attendibilità e la coerenza degli output dell’AI.Saper verificare risultati e fonti, distinguere errore da pregiudizio sistematico.
CreativitàUso dell’AI come strumento di generazione di idee e soluzioni innovative.Integrare l’AI in processi di co-creazione mantenendo la responsabilità autoriale.
ResponsabilitàConsapevolezza delle implicazioni etiche e sociali dell’AI.Agire secondo criteri di equità, trasparenza e rispetto della dignità umana.

10. Cultura e visione: umanesimo digitale e futuro dell’istruzione

Oltre alle pratiche operative e alle regole di sicurezza, l’integrazione dell’intelligenza artificiale nell’educazione richiede una visione culturale di lungo periodo.
L’idea di umanesimo digitale, come proposta da Floridi (2020), invita a considerare la tecnologia non come fine, ma come strumento di fioritura umana: un mezzo per ampliare le possibilità di conoscenza, relazione e creatività, senza ridurre l’individuo a semplice produttore di dati. In questa prospettiva, la scuola non può limitarsi a implementare piattaforme o applicativi: deve restare custode dei valori che orientano l’uso della tecnologia e promotrice di un pensiero critico capace di coniugare competenze digitali e responsabilità etica. Come sottolineato anche dalle più recenti linee di policy europee e internazionali, l’innovazione tecnologica diventa sostenibile solo se radicata in principi di equità, trasparenza e inclusione.

Per dare concretezza a questa visione, si possono delineare due linee strategiche di sviluppo per l’educazione del futuro:

  1. Promuovere competenze di cittadinanza digitale attiva, affinché gli studenti partecipino in modo consapevole alle decisioni che riguardano la progettazione, l’uso e la regolazione dell’AI. La cittadinanza algoritmica non consiste nel saper usare la tecnologia, ma nel comprenderne i meccanismi, i limiti e le implicazioni sociali.
  2. Orientare l’innovazione verso il bene comune, privilegiando piattaforme aperte, trasparenti e progettate secondo criteri di accessibilità universale. La scelta degli strumenti digitali deve riflettere una logica di condivisione, non di esclusione, e favorire la collaborazione tra istituzioni, ricerca e comunità educative.

Solo se inserita in una cultura del dialogo e della responsabilità, l’intelligenza artificiale può contribuire a costruire una scuola più equa, creativa e partecipata. L’obiettivo non è sostituire la dimensione umana con l’automazione, ma integrare l’AI in un orizzonte pedagogico in cui la tecnologia diventa alleata del pensiero critico e della solidarietà. In questo senso, educare all’AI significa educare all’umanità: formare persone capaci di usare la potenza degli algoritmi per immaginare e realizzare un futuro giusto e condiviso.

Conclusione

L’integrazione dell’intelligenza artificiale nei contesti educativi non può ridursi a una questione tecnica o metodologica: richiede una visione culturale e antropologica capace di orientare l’innovazione verso la crescita umana. Come suggerisce Floridi (2020), l’umanesimo digitale rappresenta la prospettiva in cui la tecnologia è posta al servizio della dignità, dell’autonomia e della fioritura dell’individuo, non come sostituto dell’intelligenza umana ma come suo alleato. In questo orizzonte, la scuola assume un ruolo decisivo: non è più un semplice luogo di applicazione di strumenti, ma un laboratorio di senso, dove si impara a dare forma etica e sociale alla tecnologia. Il compito educativo diventa quindi duplice: da un lato, fornire competenze tecniche e critiche per comprendere il funzionamento dei sistemi di AI; dall’altro, coltivare la consapevolezza del loro impatto sulla società, sull’identità e sulle relazioni. Le politiche europee e internazionali più recenti  insistono sul principio di un’AI “antropocentrica”, cioè orientata al bene comune, alla giustizia e all’inclusione. La scuola può tradurre questi obiettivi in due direttrici strategiche:

  1. Educare alla cittadinanza digitale attiva, aiutando gli studenti a partecipare in modo consapevole e critico alle decisioni che riguardano lo sviluppo e l’uso dell’AI. Ciò significa non solo capire come funziona un algoritmo, ma anche interrogarsi su chi lo costruisce, per quali scopi e con quali conseguenze.
  2. Orientare l’innovazione verso la trasparenza e la cooperazione, privilegiando strumenti open source, piattaforme accessibili e progettazioni inclusive che permettano a tutti di contribuire alla creazione del sapere digitale.

Solo in una cultura del dialogo, della responsabilità e della solidarietà cognitiva, l’intelligenza artificiale può diventare occasione di emancipazione e non di disuguaglianza.
L’educazione ha dunque il compito di mantenere vivo il legame tra conoscenza e umanità: di insegnare non solo a usare l’AI, ma a pensare e scegliere insieme ad essa, in modo critico e  creativo.

Se radicata in un umanesimo consapevole, l’AI può contribuire a costruire una scuola più aperta, equa e partecipata, una scuola che forma cittadini capaci non solo di abitare il mondo digitale, ma di trasformarlo responsabilmente.

Bibliografia

  • Floridi, L. (2020). The Logic of Information: A Theory of Philosophy as Conceptual Design. Oxford University Press.
  • Holmes, W., Bialik, M., & Fadel, C. (2019). Artificial Intelligence in Education: Promises and Implications for Teaching and Learning. Center for Curriculum Redesign.
  • Long, D., & Magerko, B. (2020). What is AI Literacy? Proceedings of the 2020 CHI Conference on Human Factors in Computing Systems, 1–16.
  • Malone, T. W. (2018). Superminds: The Surprising Power of People and Computers Thinking Together. Little, Brown and Company.
  • Ng, D. T. K., Leung, J. K. L., Chu, S. K. W., & Qiao, M. S. (2021). Conceptualizing AI literacy: An exploratory review. Computers & Education: Artificial Intelligence, 2, 100041. https://doi.org/10.1016/j.caeai.2021.100041
  • Noble, S. U. (2018). Algorithms of Oppression: How Search Engines Reinforce Racism. New York University Press.
  • Panciroli C, Rivoltella P.C (2023). Pedagogia algoritmica. Per una riflessione educativa sull’Intelligenza Artificiale.  Brescia: Scholè
  • Pane, J. F., Steiner, E. D., Baird, M. D., & Hamilton, L. S. (2015). Continued Progress: Promising Evidence on Personalized Learning. RAND Corporation.
  • Prinsloo, P., & Slade, S. (2017). Ethics and Learning Analytics: Charting the (Un)Charted. In C. Lang, G. Siemens, A. Wise, & D. Gašević (Eds.), Handbook of Learning Analytics.
  • Rivoltella, P. C. (2023). Pedagogia degli algoritmi: Educare nell’epoca dell’intelligenza artificiale. Raffaello Cortina.
  • Seldon, A. (2022). The Fourth Education Revolution: Will Artificial Intelligence Liberate or Infantilise Humanity? University of Buckingham Press.
  • Selwyn, N. (2019). Should Robots Replace Teachers? AI and the Future of Education. Polity Press.
  • Strielkowski, W., Grebennikova, V., Lisovskiy, A., Rakhimova, G., & Vasileva, T. (2025). AI-driven adaptive learning for sustainable educational transformation. Sustainable Development, 33(2), 1921–1947. https://doi.org/10.1002/sd.3221
  • UNESCO. (2023). Guidance for generative AI in education and research. Paris: United Nations Educational, Scientific and Cultural Organization.
    https://unesdoc.unesco.org/ark:/48223/pf0000386691
  • Vallor, S. (2016). Technology and the Virtues: A Philosophical Guide to a Future Worth Wanting. Oxford University Press.
  • Veale, M., Van Kleek, M., & Binns, R. (2018). Fairness and Accountability Design Needs for Algorithmic Support in High-Stakes Public Sector Decision-Making. https://dl.acm.org/doi/pdf/10.1145/3173574.3174014 
  • Williamson B., Piattoeva N. (2018), Objectivity as standardization in data-scientific education policy, technology and governance in Learning, Media and Technology, pp. 1-13https://scispace.com/pdf/objectivity-as-standardization-in-data-scientific-education-3r4p7krepd.pdf  DOI: 10.1080/17439884.2018.1556215 

Patrizia Natale è docente di informatica nella scuola secondaria di secondo grado e da anni approfondisce le tematiche legate all’innovazione didattica e all’uso delle nuove tecnologie nella scuola. Ha un forte interesse per le implicazioni etiche relative all’uso dell’intelligenza artificiale nella didattica e segue costantemente l’evoluzione normativa per promuovere un utilizzo responsabile della tecnologia. Da qualche anno tratta il tema dell’IA in educazione civica, con particolare attenzione agli aspetti etici. Dal gennaio 2025 è tutor coordinatrice presso l’Unilink e si riserva di trattare i temi legati all’uso dell’IA nei corsi di formazione 60 CFU per l’abilitazione all’insegnamento nella scuola secondaria.