00:00:00 – Carmine Marinucci Inaugura il webinar spiegando che l’obiettivo è dare una visione alle attività dell’associazione approfondendo documenti di riferimento scritti da DiCultHer. Pone la domanda centrale su cosa non si possa e non si debba delegare all’intelligenza artificiale, definendola una grande opportunità simile a quella che fu internet trent’anni fa. Sottolinea che la visione non deve essere solo tecnologica, ma deve considerare come l’IA modifichi la percezione nei luoghi della cultura e come l’uomo debba mantenere il governo degli scopi umani.

00:07:31 – Silvia Mazzeo Presenta la struttura del MOOC “Laboratorio di intelligenza culturale”, evidenziando che il Modulo 1, intitolato “Principi e visioni”, integra il manifesto AI EDU e il documento “Custodire il futuro”. L’intento è creare uno spazio di riflessione sulle responsabilità e le conseguenze delle proprie scelte, evitando che le competenze diventino abitudini automatiche prive di consapevolezza. Per Mazzeo, “custodire” significa saper convivere con la tecnologia utilizzandola con grande competenza.

00:14:20 – Marilena Ferraro Afferma che l’intelligenza artificiale non è un nemico ma un ambiente da abitare con competenza. Sostiene che insegnare a costruire un prompt efficace significhi insegnare logica, sintassi e pensiero critico, aiutando la costruzione del sé. L’IA offre il dono dell’efficienza, permettendo di risparmiare tempo che deve essere investito nella relazione umana e nella cura educativa, prerogative che nessuna macchina può replicare.

00:20:58 – Daniela Calanca Riflette sull’uso dell’IA nella didattica universitaria e scolastica, notando una preoccupante mancanza di “visione del futuro” e di progettualità vitale nei giovani. Sebbene gli studenti sappiano usare perfettamente l’IA per creare lavori esteticamente validi, spesso mancano di consapevolezza sui propri obiettivi e sulla propria cultura. Definisce questa sfida come un problema politico e ontologico di “sovranità umana”.

00:35:37 – Fernando Giancotti Sostiene che gli scopi umani debbano essere ben identificati e narrati in modo efficace attraverso una narrazione convincente che promuova l’uomo. Afferma che dobbiamo “dominare” la dimensione digitale per coerenza con il principio di scopo che governa ogni sistema complesso. Illustra un’esercitazione universitaria basata su un rigoroso protocollo di responsabilità (accountability) dove il pensiero umano precede e segue sinteticamente l’interlocuzione con la macchina.

00:49:01 – Francesco Follo Propone un approccio laico basato sul “principio speranza” di Ernst Bloch, partendo dall’essere umano come soggetto che pone domande. Suggerisce una griglia di lettura basata sulla tradizione (patrimonio storico), sull’autorità (qualcuno che faccia crescere) e sulla verifica, ambito in cui le tecnologie attuali rappresentano un’opportunità grandiosa.

00:54:37 – Emanuela Guarcello Basandosi sul pensiero di Hannah Arendt, distingue tra la “facoltà del pensare” (ragione) che cerca il significato dell’esistenza e la “facoltà cognitiva” (intelletto) che mira alla conoscenza della realtà e alla produzione tecnologica. Afferma che il pensare deve orientare il conoscere e che la capacità di sottoporre a dubbio la realtà e immaginare il “totalmente nuovo” appartiene solo alla mente umana e non è delegabile.

01:23:05 – Massimo Russo Evidenzia come l’IA rischi di diventare un problema se usata in modo inconsapevole o improvvisato. Riporta un esperimento in cui ha utilizzato ChatGPT per valutare prove universitarie, rimanendo sbalordito dalla sua capacità di individuare punti di forza e criticità. Suggerisce di parlare di “diligenza artificiale” come mezzo di trasporto per la conoscenza, ma mette in guardia contro i rischi di manipolazione del marketing e dell’opinione pubblica.

01:39:06 – Patrizia Marletta Analizza la delega all’IA dal punto di vista della riabilitazione di bambini fragili, distinguendo tra ciò che è delegabile (aspetti tecnici, grafici e di accessibilità del testo) e ciò che non lo è (emozioni, empatia, motivazione e gioia della relazione). Sottolinea che l’IA non ha sentimenti e non può contenere le “bellissime storie d’amore” che si creano nel progresso umano dei suoi pazienti.

01:50:23 – Francesco Di Costanzo Sottolinea l’importanza del percorso formativo legato all’etica dell’IA e alla cultura digitale. Avverte del rischio che l’intelligenza artificiale crei cittadini di “serie A” e “serie B” in base alla conoscenza dello strumento, ribadendo che l’accesso ai saperi e all’istruzione è un diritto non delegabile.

01:59:46 – Giovanni Piscolla Fornisce aggiornamenti sul MOOC, che conta già 60 iscritti, e invita alla partecipazione per alimentare una “comunità di pensiero”. Propone di integrare i contributi dei relatori per arricchire e dare profondità al documento “Custodire il futuro”, suggerendo di trasformare gli otto principi da “cosa non delegare” a obiettivi positivi da conseguire

Sintesi del Webinar

Il Webinar #149, intitolato “Custodire il futuro – IA, educazione, cultura e responsabilità” e svoltosi il 16 gennaio 2026, rappresenta un momento di riflessione strategica sul ruolo dell’intelligenza artificiale (IA) nei settori della scuola e del patrimonio culturale.

L’incontro si pone l’obiettivo fondamentale di definire cosa l’uomo non può e non deve delegare all’IA, partendo dal presupposto che le tecnologie non debbano governare gli scopi umani, ma essere strumenti al servizio della cultura e dell’educazione.

I punti cardine del webinar includono:

  • Lancio del MOOC “Laboratorio di intelligenza culturale”: Viene presentato un percorso formativo per docenti finalizzato a sviluppare una competenza consapevole nell’uso dell’IA, integrando documenti come il “Manifesto AI EDU” e il testo aperto “Custodire il futuro”.
  • Centralità del pensiero umano: Attraverso una prospettiva antropologica, i relatori distinguono tra l’intelletto (facoltà cognitiva di elaborazione dati) e la ragione (facoltà del pensare). Quest’ultima, che permette di porsi domande sul significato dell’esistenza e di immaginare il “totalmente nuovo”, è considerata una prerogativa umana non delegabile.
  • Efficienza e Relazione: L’IA è descritta come un mezzo per ottenere efficienza e risparmio di tempo; tuttavia, tale tempo guadagnato deve essere reinvestito nella relazione umana, nell’empatia e nella cura educativa, elementi che nessuna macchina può replicare o comprendere.
  • Responsabilità Etica e Sociale: Viene sollevata la questione della “sovranità umana” e il rischio di creare disuguaglianze sociali (cittadini di “serie A” e “serie B”) basate sul diverso grado di alfabetizzazione digitale. L’accesso ai saperi e il giudizio etico sono indicati come pilastri fondamentali della cittadinanza non soggetti a delega.

In sintesi, il webinar propone una visione in cui l’innovazione tecnologica deve essere accompagnata da una progettualità vitale e culturale, affinché le nuove generazioni non siano guidate dalle macchine, ma sappiano governarle con spirito critico e responsabilità

Sintesi dei singoli interventi redatte dagli autori

Patrizia Marletta

COSA NON DELEGARE ALL’INTELLIGENZA ARTIFICIALE
Nel mio lavoro di logopedista e pedagogista aiuto bambini e ragazzi nella riabilitazione. Molte attività possono essere affidate all’AI: semplificare testi, scegliere strutture sintattiche lineari, font ad alta leggibilità, evidenziare parole-chiave, impostare spaziature corrette. L’AI è efficiente, veloce e precisa, e fa risparmiare tempo e fatica. Ma poi guardo i miei bambini e i miei ragazzi: vedo la commozione, la gioia per un piccolo successo, la paura di essere diversi che lentamente si trasforma in sicurezza. Questi momenti, fatti di sguardi, sorrisi, incoraggiamenti e vicinanza emotiva, non possono essere delegati. La motivazione è fondamentale come la forza che nasce dalla fiducia e dall’amore educativo. L’AI non ha sentimenti, empatia, intuito. Io non posso delegarle le emozioni, la relazione, le storie di crescita e di amore che nascono ogni giorno nel mio lavoro.