Scuole, archivi, biblioteche, musei e territori come infrastrutture delle comunità educanti
di Andrea Viliotti – Framework GDE
Fonti e atti consultati al 6 marzo 2026 (Europe/Rome).
Nota terminologica e di metodo (as of 6 marzo 2026): nel testo, “diritti cognitivi” è usato come cornice interpretativa e politico-istituzionale — non come categoria di diritto positivo già compiutamente codificata — per nominare un fascio di diritti, garanzie e doveri pubblici che incidono sulla formazione del giudizio, sull’accesso alla conoscenza, sulla memoria condivisa e sulla partecipazione informata. Il contributo è un conceptual paper con implicazioni di policy: combina analisi normativo-testuale e sintesi della letteratura; non propone una metrica già calibrata né un test causale.
Abstract
Questo articolo chiede se i “diritti cognitivi” possano essere ricostruiti, nell’età dell’IA, come diritti di habitat e non soltanto come pretese individuali disperse tra istruzione, informazione, privacy e accesso alla cultura. Il contributo è un conceptual paper con implicazioni di policy. Metodo: combina un’analisi normativo-testuale di fonti UE, Consiglio d’Europa, UNESCO e Italia con una literature review integrativa su quattro filoni — neurorights e cognitive liberty; ranking, gatekeeping e opacità algoritmica; AI in education e AI literacy; AI, archivi, biblioteche, musei e cultural heritage data. Il saggio sostiene che scuole, archivi, biblioteche, musei, territori e mediatori digitali formano un unico habitat cognitivo in cui si giocano giudizio, memoria condivisa e partecipazione democratica. La GDE è usata qui come linguaggio euristico e non come modello quantitativo calibrato. Su questa base, l’articolo propone una agenda territoriale, una mini-matrice deliberativa e una delimitata agenda empirica per future validazioni.
Parole chiave
Diritti cognitivi; habitat cognitivo; AI literacy; trasparenza algoritmica; patrimonio culturale digitale; partecipazione democratica.
Abstract (English)
This article asks whether “cognitive rights” can be theorised, in the age of AI, as habitat rights rather than merely as individual claims. It is a conceptual paper with policy-oriented implications. Methodologically, it combines a normative-textual analysis of European, Council of Europe, UNESCO and Italian sources with an integrative review of four research strands: neurorights and cognitive liberty; algorithmic opacity, ranking and gatekeeping; AI in education and AI literacy; and AI in libraries, archives, museums and cultural heritage data. The article argues that schools, archives, libraries, museums, territories and digital intermediaries form a single cognitive habitat in which judgement, shared memory and democratic participation are jointly shaped. GDE is used here as a heuristic language, not as a calibrated quantitative model. On this basis, the paper proposes a territorial agenda, a mini-matrix for public deliberation, and a bounded empirical research agenda for future validation.
Keywords (English)
Cognitive rights; cognitive habitat; AI literacy; algorithmic transparency; cultural heritage data; democratic participation.
Domanda di ricerca, posizionamento e metodo
La domanda di ricerca che guida il saggio è la seguente: in che modo i “diritti cognitivi” possono essere teoricamente ricostruiti, nell’era dell’IA, come diritti di habitat e non soltanto come diritti individuali dispersi tra accesso, privacy, istruzione e informazione? Il tipo di contributo offerto è quello di un conceptual paper con implicazioni di policy: non un articolo empirico già validato, ma una proposta teorico-normativa che organizza il problema e ne rende osservabili le implicazioni istituzionali [27][28][29][30].
Il metodo combina tre operazioni. Primo, un’analisi normativo-testuale di fonti UE, Consiglio d’Europa, UNESCO e Italia, usate non come semplice repertorio ma come materiale per identificare convergenze, lacune e livelli differenti di obbligazione. Secondo, una integrative review su quattro filoni: neurorights/cognitive liberty; gatekeeping, ranking e opacità algoritmica; AI in education e AI literacy; AI, archivi, biblioteche, musei e dati del patrimonio culturale. Terzo, l’uso del framework GDE come linguaggio interpretativo per collegare istituzioni, mediazioni e condizioni di giudizio. La review non è sistematica in senso PRISMA, ma in questa versione è resa replicabile nei suoi criteri essenziali di selezione [1][2][7][10][11][16][19][20][21][27][31][32][33][34].
Protocollo della review e criteri di selezione
Per rendere la review controllabile, la presente versione dichiara esplicitamente repertori, finestra temporale, stringhe e criteri. Per la parte normativo-istituzionale sono stati consultati tra febbraio e marzo 2026 EUR-Lex, il Treaty Office del Consiglio d’Europa, il portale UNESCO/UNESDOC, il portale della Commissione europea, l’EDPB e l’OECD. Per la parte scientifica e professionale sono stati selezionati contributi reperibili in publisher databases o repository editoriali con identificazione stabile del testo, in particolare ACM Digital Library, SpringerLink e siti di rivista o ente editore.
La finestra principale della review è 2015-marzo 2026 per education, cultural heritage e governance algoritmica; sono stati inclusi anche lavori anteriori quando svolgono funzione teorica fondativa o sono stabilmente richiamati dalla letteratura successiva. Le famiglie di stringhe impiegate sono state: “cognitive rights” / neurorights / “cognitive liberty”; “algorithmic gatekeeping” / recommender transparency / contextual integrity; “AI literacy” / “AI in education” / “generative AI education”; archives / libraries / museums / “cultural heritage data” AND AI AND (metadata OR provenance OR diversity). Sono stati inclusi testi peer-reviewed, fonti normative primarie e documenti istituzionali direttamente pertinenti alla domanda di ricerca; sono stati esclusi commenti divulgativi non citabili, lavori esclusivamente tecnico-performativi privi di implicazioni di governance o mediazione e contributi senza pieno testo o attribuzione editoriale chiara. Non si tratta, dunque, di una systematic review in senso stretto, ma di una integrative review tracciabile e replicabile nelle sue scelte di repertorio.
L’originalità del saggio è triplice. Propone una nozione unitaria di habitat cognitivo; colloca scuole e istituzioni della memoria nello stesso quadro analitico dei mediatori digitali, e deriva da questa unificazione una proposta territoriale e una mini-matrice deliberativa. La novità rivendicata non consiste nell’inventare ex novo ciascun problema, ma nel ricomporre in una stessa architettura teorico-istituzionale questioni che la letteratura tratta spesso in silos. L’articolo non sostiene che “diritti cognitivi” sia già una categoria positiva chiusa, né che la mini-matrice costituisca un indice validato: sostiene, più sobriamente, che questo framing aggiunge capacità esplicativa rispetto a letterature oggi ancora frammentate [27][29][31][34][35][36].
Stato dell’arte: quattro filoni e un gap
Un primo filone, quello dei neurorights e della cognitive liberty, ha il merito di porre il problema della libertà mentale, dell’integrità cognitiva e dell’autodeterminazione in presenza di tecnologie che incidono sui processi mentali. In un contesto HCI contiguo, Shackell e Sitbon propongono di leggere anche le interfacce e i sistemi digitali in termini di cognitive externalities, aprendo un ponte utile tra diritti cognitivi, progettazione dei sistemi e qualità dell’esperienza [35]. Un secondo filone, diverso ma contiguo, riguarda gatekeeping, opacità algoritmica, contextual integrity e piattaforme: qui il fuoco non è la mente come sede individuale, ma l’architettura dei mediatori che ordinano visibilità, accesso e priorità informative [27][28][29][30].
La letteratura su AI in education e AI literacy ha invece chiarito che l’adozione di sistemi generativi non può essere pensata come semplice efficienza didattica: richiede competenze interpretative, strategie di fact-checking, sorveglianza umana, criteri di equità e formazione del personale. In questo campo, le linee guida istituzionali e le review più recenti convergono nel sottolineare che la questione educativa non è solo “uso dello strumento”, ma governo pedagogico dell’ambiente cognitivo [11][31][32].
Un quarto filone riguarda archivi, biblioteche, musei e cultural heritage data. Qui la discussione si concentra su metadata, interoperabilità, curatela, descrizione, validazione umana e riuso dei contenuti nelle pipeline digitali. Jaillant et al., per esempio, mostrano come l’IA possa ampliare discoverability e rappresentazione delle collezioni archivistiche, ma anche riprodurre squilibri di selezione e descrizione se non accompagnata da governance, curatela e controlli di diversità [36]. Anche questo corpus, tuttavia, tende spesso a trattare le istituzioni della memoria come ambiti separati dalle istituzioni educative e dalla qualità democratica del giudizio pubblico. Il gap che questo articolo intende colmare sta precisamente qui: concettualizzare scuole, istituzioni della memoria, territori e mediatori algoritmici come un unico habitat cognitivo, capace di tenere insieme giudizio, memoria, literacy, trasparenza e fiducia democratica [16][19][20][21][26][33][34][36].
Nel seguito uso la notazione GDE in senso strettamente euristico e solo nella misura necessaria all’economia argomentativa del paper. La sua utilità, qui, non è “matematizzare” il discorso, ma impedire tre riduzioni frequenti: separare scuola e istituzioni della memoria; isolare i mediatori digitali dal contesto istituzionale; confondere una proposta di policy con una metrica già validata. Per questo il corpo del saggio impiega soltanto tre etichette analitiche — S_lambda(R,t), S_lambda^(COG-CULT)(R,t) e Y_crisi^(COG-dem)(R,t) — mentre la formalizzazione residua è rinviata all’Appendice A. In questo articolo tali simboli non sono stimati, non sono aggregati in un indice sintetico e non autorizzano inferenze causali: servono solo a mantenere coerente il passaggio tra quadro teorico, proposta territoriale e futura agenda empirica.
Dall’accesso al giudizio
Per molto tempo le politiche digitali hanno ragionato soprattutto in termini di accesso: accesso alla rete, ai dispositivi, alle banche dati, ai servizi. Era una stagione necessaria e in larga parte ancora aperta. Ma l’accesso, da solo, non basta più a descrivere la qualità democratica dell’esperienza digitale. Una comunità può essere connessa e insieme cognitivamente impoverita. Può avere accesso a una quantità enorme di contenuti e, allo stesso tempo, perdere la capacità di ordinare le fonti, ricostruire i contesti, distinguere tra prova, opinione, propaganda e calcolo probabilistico.
Da qui la necessità di spostare il baricentro dall’accesso al giudizio. Il diritto cognitivo fondamentale, in una società saturata da intermediazioni algoritmiche, è il diritto a non essere privati delle condizioni che rendono possibile il giudizio: tempo di interpretazione, pluralità di mediazioni, trasparenza minima dei criteri di ordinamento, istituzioni capaci di conservare e trasmettere memoria pubblica. È il diritto a non essere addestrati passivamente da ambienti informativi pensati solo per l’efficienza, la retention o la profilazione.
La Carta dei diritti fondamentali dell’Unione europea protegge già, separatamente ma in modo convergente, i pilastri di questa prospettiva: libertà di espressione e di informazione, libertà delle arti e delle scienze, diritto all’istruzione, rispetto della diversità culturale [1]. Il Commento generale n. 25 del Comitato ONU sui diritti del fanciullo ricorda che gli Stati devono garantire ai minori l’effettivo esercizio dei loro diritti nell’ambiente digitale, affrontando rischi e opportunità con misure legislative, educative e di policy [9]. La Dichiarazione europea sui diritti e i principi digitali insiste su competenze digitali, alfabetizzazione mediale, sicurezza online e tutela dei minori [6]. Nessuno di questi testi usa il sintagma “diritti cognitivi” come categoria compiuta; tutti, però, mostrano che la capacità di capire, scegliere e partecipare non può più essere separata dalla qualità dell’ecosistema digitale.
Per questa ragione, il punto non è aggiungere un diritto “in più”, ma mostrare che l’accesso diventa materialmente vuoto quando vengono meno tempo di interpretazione, pluralità delle mediazioni, trasparenza minima dei criteri di ordinamento e continuità delle istituzioni che custodiscono memoria pubblica.
Le comunità educanti come habitat cognitivi
Se i diritti cognitivi sono diritti di habitat, allora bisogna smettere di pensare scuola, archivio, biblioteca, museo e territorio come unità amministrative isolate. La comunità educante non è una semplice alleanza retorica tra istituzioni buone. È una infrastruttura di co-formazione del giudizio. La scuola insegna a leggere e discutere; l’archivio custodisce tracce, prove, contesti; la biblioteca organizza accesso, comparazione, orientamento; il museo costruisce esperienza e interpretazione pubblica; il territorio mette in relazione famiglie, associazioni, enti locali, pratiche di cittadinanza.
In questa prospettiva, la comunità educante non è una metafora consolatoria. È un’architettura cognitiva. Quanto più i suoi nodi si parlano, tanto più il cittadino incontra la conoscenza in forma situata e plurale. Quanto più i nodi si disallineano, tanto più prevale una forma di apprendimento intermittente, frammentario, dipendente da interfacce commerciali che selezionano il visibile secondo logiche proprietarie.

Figura 1 — Habitat cognitivo-territoriale e osservatori algoritmici (diagramma concettuale, non output empirico). Fonte: elaborazione dell’autore su framework GDE.
Qui torna utile il concetto di K_theta: la memoria esternalizzata della comunità. K_theta non coincide con un archivio digitale qualsiasi. Indica l’insieme dei supporti, dei protocolli, delle istituzioni e delle pratiche che permettono alla conoscenza di durare, di essere riusata, di essere discussa da generazioni diverse. In una democrazia, K_theta non è un deposito neutro. È una infrastruttura di continuità culturale. Se si rompe, si rompe anche il rapporto tra esperienza, verifica e decisione pubblica.
Per questo scuole, archivi, biblioteche e musei sono molto più che erogatori di contenuti. Sono istituzioni di contesto. Producono il telaio che rende l’informazione socialmente leggibile. Se questo telaio si indebolisce, anche l’uso apparentemente virtuoso dell’IA rischia di scivolare verso forme di dipendenza cognitiva: l’utente riceve risposte sempre più rapide, ma sempre meno radicate in processi di verifica condivisa.
IA e osservatori algoritmici
In chiave GDE, search engine, sistemi di raccomandazione, feed e modelli linguistici possono essere letti come osservatori algoritmici. Osservano grandi masse di tracce, costruiscono rappresentazioni compresse del campo informativo, restituiscono sintesi, ordinamenti, previsioni di rilevanza. Il punto decisivo è che non si limitano a descrivere il mondo. Lo ristrutturano dal punto di vista dell’attenzione. Rendono più probabili alcuni incontri e meno probabili altri. Accorciano i tempi di accesso ma, se non sono governati, comprimono il pluralismo del visibile.
Questo passaggio cambia la natura del problema democratico. La questione non è più soltanto chi pubblica un contenuto, ma chi organizza l’incontro tra contenuto e cittadino. Il Digital Services Act (Reg. (UE) 2022/2065) ha preso atto di questo cambiamento: per i fornitori di piattaforme online impone di rendere trasparenti nei termini e condizioni i principali parametri dei sistemi di raccomandazione e le opzioni per modificarli (art. 27); per le piattaforme online e i motori di ricerca di dimensioni molto grandi (VLOP/VLOSE) richiede inoltre almeno un’opzione di raccomandazione non basata sulla profilazione (art. 38) [4][22]. Il Media Freedom Act, da parte sua, collega la qualità dello spazio informativo a trasparenza proprietaria, pluralismo e garanzie per l’indipendenza editoriale [5]. Questi atti non risolvono da soli il problema dei diritti cognitivi, ma segnalano una novità decisiva: la democrazia contemporanea si gioca anche sull’architettura dei mediatori digitali.
A ciò si aggiunge il dato nuovo dell’AI Act (Reg. (UE) 2024/1689). Il regolamento europeo non si limita a classificare i rischi: con l’articolo 4 introduce un dovere organizzativo di alfabetizzazione in materia di IA (AI literacy) per fornitori e deployer, da garantire per il personale e per gli altri soggetti che operano e usano sistemi di IA. È importante distinguere tra applicazione dell’obbligo e piena operatività dell’enforcement: l’articolo 4 — collocato nel Capo I — rientra tra le disposizioni che si applicano dal 2 febbraio 2025; la supervisione da parte delle autorità e il regime complessivo di governance si completano secondo la tempistica generale (agosto 2026) [2][3]. Il rilievo politico di questa novità è notevole: la literacy non è più solo una virtù consigliabile, ma una condizione di legittimità dell’adozione. Per scuole, biblioteche, archivi e musei, questa è una svolta: significa che l’IA non va adottata come semplice acceleratore di produttività, ma come ambiente che richiede comprensione, contestualizzazione, formazione del personale e responsabilità istituzionale. La guida UNESCO sull’IA generativa nell’educazione e nella ricerca insiste, in modo coerente, sulla necessità di integrare governance, formazione e tutela dei processi educativi, non solo l’uso di strumenti [11].
Il diritto positivo protegge pezzi del problema, non ancora il suo nome
Proprio qui si vede la fecondità e il limite dell’espressione “diritti cognitivi”. La sua fecondità sta nel rendere visibile l’unità di un problema disperso tra fonti diverse: il diritto all’istruzione, la protezione dei dati, la libertà di informazione, il pluralismo informativo, la partecipazione alla vita culturale, la trasparenza e la responsabilità nell’uso dell’IA [1][2][5][7][9][10]. Il suo limite sta nel fatto che, almeno oggi, non esiste ancora nel diritto europeo e italiano una categoria positiva stabilizzata e unitaria chiamata proprio così.
La Convenzione quadro del Consiglio d’Europa sull’IA, aperta alla firma il 5 settembre 2024, è particolarmente significativa perché pretende che lo sviluppo e l’uso dei sistemi di IA siano coerenti con diritti umani, democrazia e Stato di diritto [7]. Per la verifica dello stato delle firme e delle ratifiche adotto come riferimento primario il chart treaty-specific del Treaty Office relativo alla CETS 225, più stabile e puntuale del riepilogo mensile. In questa versione, proprio per evitare overclaim su dati suscettibili di aggiornamento, non congelo nel testo uno status nazionale che va controllato direttamente sul chart depositario [8].
Il contesto italiano mostra a sua volta un passaggio dalla fascinazione regolatoria alla istituzionalizzazione. La legge 23 settembre 2025, n. 132 reca “Disposizioni e deleghe al Governo in materia di intelligenza artificiale” ed è entrata in vigore il 10 ottobre 2025 [13]. Nel sistema scolastico, il Ministero dell’Istruzione e del Merito ha pubblicato le Linee guida per l’introduzione dell’IA nelle istituzioni scolastiche (allegato al D.M. n. 166 del 9 agosto 2025), rivolte a dirigenti, personale amministrativo, docenti, studenti e famiglie, con l’obiettivo di favorire un’adozione consapevole e responsabile [12]. La Strategia italiana per l’IA 2024-2026 include tra le macroaree la formazione, riconoscendo che l’adozione tecnologica non può essere separata dallo sviluppo di competenze e culture istituzionali [14].
Questo insieme di atti non autorizza ancora a parlare di una codificazione piena dei diritti cognitivi; autorizza però, con forza, a parlare di un cantiere normativo e politico in cui il problema esiste già, anche se distribuito in più sedi. Il compito del pensiero pubblico non è fingere che la categoria sia già chiusa. È mostrare che la sua utilità consiste nel tenere insieme elementi che il diritto positivo, per ragioni sistematiche, tratta ancora separatamente.
Archivi, biblioteche, musei: memoria, interpretazione, comunità
Se la scuola è il primo presidio del giudizio, archivi, biblioteche e musei sono i grandi laboratori della memoria pubblica. Non custodiscono soltanto cose; custodiscono criteri di leggibilità. Rendono possibile una conoscenza che non coincide con il flusso istantaneo del presente. In un’epoca governata da ranking, feed e risposte sintetiche, questa funzione non diventa meno importante. Diventa più importante.
L’UNESCO, già con la Raccomandazione del 2015 sul patrimonio documentario anche in forma digitale, invita gli Stati a migliorare l’accesso attraverso nuove forme e nuovi strumenti di educazione e ricerca, creando un ambiente stabile per investire nella conservazione e nell’uso del patrimonio in chiave di interesse pubblico [17]. La Raccomandazione UNESCO su musei e collezioni dello stesso anno considera i musei partner dello sviluppo sostenibile, della trasmissione del sapere, delle politiche educative, dell’apprendimento permanente e della coesione sociale [18]. La Convenzione di Faro insiste sul nesso tra patrimonio, diritti umani, democrazia e comunità: non sono gli oggetti, da soli, a contare, ma i significati e gli usi che una società attribuisce loro [15].
Nel 2026 questa linea si è ulteriormente rafforzata con la Strategia 2025-2030 per il Common European Data Space for Cultural Heritage, che si propone di costruire basi dati di alta qualità, accessibili e interoperabili, coerenti con le politiche europee su dati, IA e trasformazione digitale [16]. Il passaggio è cruciale. Se le istituzioni della memoria non governano il modo in cui i loro dati, metadata, immagini e descrizioni entrano nelle pipeline digitali, altri soggetti governeranno al loro posto i criteri di visibilità e riuso del patrimonio.
Le biblioteche lo hanno capito da tempo. La IFLA, nel suo Statement on Libraries and Artificial Intelligence, sottolinea che l’adozione dell’IA solleva questioni di libertà intellettuale, equità, privacy, alfabetizzazione digitale e proprietà intellettuale; il punto non è rifiutare l’IA, ma fare in modo che le biblioteche restino soggetti attivi nell’organizzazione del sapere [19]. Sul versante archivistico, l’International Council on Archives ha dedicato risorse specifiche al rapporto tra IA, pratica archivistica, etica e diritti umani, mostrando quanto il tema non sia solo tecnico ma riguardi culture, lingue, bias, approccio human rights by design [20]. Anche il settore museale si muove in questa direzione: nel 2025 l’ICOM ha chiesto la costituzione di un gruppo di lavoro su etica digitale e IA per accompagnare i musei nella transizione digitale con standard etici e legali adeguati [21].
Tutto questo conferma un punto: archivi, biblioteche e musei non sono semplici destinatari di innovazione. Sono co-produttori del quadro interpretativo entro cui l’innovazione può essere valutata. Se vengono trattati come appendici decorative della trasformazione digitale, il territorio perde i propri organi di memoria critica. Se vengono riconosciuti come nodi dell’habitat cognitivo, il digitale smette di essere una corrente da subire e diventa materia da governare.
La condizione di umanizzazione: osservabilità, comunicazione, fiducia
Dire che l’innovazione va “umanizzata” rischia di restare una formula rituale se non si specifica che cosa significhi. In chiave GDE, l’umanizzazione non coincide con una generica benevolenza della tecnica. Coincide con una condizione di equilibrio tra osservabilità, comunicazione e fiducia. Un sistema tecnologico è umanizzante quando rende più intelligibile il proprio funzionamento, migliora la qualità delle relazioni informative, aumenta la capacità di verifica e alimenta fiducia non cieca ma riflessiva.
L’opposto è altrettanto chiaro. Un sistema è disumanizzante quando produce efficienza al prezzo di opacità, deresponsabilizzazione, dipendenza da interfacce non negoziabili, deperimento delle mediazioni e svalutazione della prova pubblica. In tal caso, la persona resta formalmente al centro del discorso, ma viene praticamente spostata ai margini della decisione.
E qui il rapporto tra cultura e democrazia diventa esplicito. La partecipazione democratica non dipende soltanto da procedure elettorali o da diritti astratti; dipende anche dalla qualità dell’ambiente cognitivo in cui i cittadini formano preferenze, riconoscono problemi, attribuiscono credibilità e distinguono conflitto politico da manipolazione. Una democrazia può risultare indebolita anche prima di una censura frontale, se si deteriorano i dispositivi sociali che rendono possibile il giudizio comune.
Per questa ragione il costrutto di fragilità cognitivo-democratica, indicato qui come Y_crisi^(COG-dem)(R,t), resta analiticamente utile anche senza numeri: la fragilità cresce quando si indeboliscono la capacità cognitivo-culturale dell’habitat, la fiducia riflessiva e la qualità delle mediazioni, mentre aumenta il disallineamento tra intensità digitale e competenze critiche. Il punto, però, non è convertire subito questa intuizione in una metrica quantitativa, ma renderla osservabile con proxy pubblici e comparabili. L’evidenza empirica futura dovrà mostrare se e come ecosistemi informativi più rapidi, istituzioni educative meno preparate e patrimoni culturali esposti alla logica della cattura dell’attenzione si traducano in forme diverse di vulnerabilità civica.
Una politica di territorio per i diritti cognitivi
Se i diritti cognitivi sono diritti di habitat, la loro politica non può essere affidata a un solo ministero, a una sola piattaforma, a un singolo progetto di innovazione. Ha natura territoriale, interistituzionale e civica. Richiede che il territorio si legga come sistema cognitivo e non come somma di competenze amministrative separate.
Questo implica almeno cinque priorità operative.
La prima è l’integrazione. Ogni territorio dovrebbe dotarsi di un patto locale tra scuole, archivi, biblioteche, musei, università, associazioni, famiglie ed enti locali per progettare insieme educazione civica digitale, accesso al patrimonio, percorsi di ricerca guidata, laboratori di verifica delle fonti, sperimentazioni sull’uso pubblico dell’IA. Non per moltiplicare tavoli, ma per ridurre isolamento istituzionale e duplicazioni.
La seconda è la literacy, ma intesa bene. L’alfabetizzazione all’IA non è addestramento a usare prompt o strumenti. È un insieme di competenze interpretative: capire che cos’è un modello generativo, che differenza c’è tra previsione e probabilità, che cosa significa ranking, quali dati e quali bias strutturano una risposta, che cosa resta invisibile in una sintesi automatica, quando occorre risalire alla fonte primaria.
La terza è la trasparenza. Ogni istituzione educativa o culturale che adotti sistemi di IA dovrebbe rendere pubbliche, in forma comprensibile, le finalità d’uso, i limiti, i criteri di supervisione umana, i tipi di dati coinvolti, i canali di contestazione. Non si tratta di burocratizzare ogni sperimentazione, ma di impedire che strumenti opachi entrino nello spazio pubblico come soluzioni neutre.
La quarta è la cura di K_theta. Digitalizzare il patrimonio non basta. Bisogna rendere interoperabili i dati, governare metadata e descrizioni, preservare contesto e provenienza, evitare che la semplificazione richiesta da piattaforme o modelli cancelli ciò che rende un documento o un oggetto culturalmente interpretabile. La memoria pubblica non è solo accesso. È qualità della mediazione.
La quinta è la fiducia democratica. Nessun sistema cognitivo pubblico regge senza fiducia, ma la fiducia, nell’epoca algoritmica, non può essere chiesta come atto di fede. Deve essere costruita attraverso accountability, spiegabilità proporzionata, possibilità di ricorso, pluralismo delle fonti, presenza di istituzioni autorevoli ma contestabili. In una parola: fiducia come effetto di osservabilità, non come suo surrogato.
In questo senso la mini-matrice territoriale proposta in questo saggio non è un cruscotto manageriale, ma un dispositivo civico. Le sue cinque dimensioni – integrazione scuola-museo-archivio, pluralismo delle fonti, alfabetizzazione critica all’IA, trasparenza algoritmica, fiducia democratica – non servono a classificare i territori in astratto. Servono a rendere discutibile ciò che spesso resta invisibile. Un territorio può essere tecnologicamente avanzato e cognitivamente fragile; può avere molte piattaforme e poche mediazioni; può disporre di patrimoni straordinari ma non saperli trasformare in competenza pubblica.
Metodologicamente, la mini-matrice va letta come una griglia euristica di discussione pubblica. Non produce un punteggio sintetico, non ordina i territori in classifica e non pretende di misurare una presunta “democrazia cognitiva” con un singolo numero. Serve a descrivere in modo comparabile dimensioni osservabili dell’habitat e a orientare domande empiriche, non a sostituirle con una metrica unica.
Tabella 1 — Mini-matrice territoriale dei diritti cognitivi (griglia testuale, non output empirico). Fonte: elaborazione dell’autore.
| Asse | Segnale di fragilità | Azione prioritaria |
| Integrazione scuola-archivio-biblioteca-museo | Reti isolate, progetti episodici, scarsa continuità educativa | Patti territoriali, coprogettazione, programmazione condivisa |
| Pluralismo delle fonti | Dipendenza da una sola piattaforma o da mediazioni povere | Curatela delle fonti, percorsi comparativi, contesto |
| Alfabetizzazione critica all’IA | Uso strumentale senza lettura di modelli, dati, bias e limiti | Laboratori su ranking, prompt, verifica delle fonti, uso responsabile |
| Trasparenza algoritmica | Adozione di strumenti opachi, finalità e criteri poco chiari | Informative d’uso, supervisione umana, tracciabilità, possibilità di contestazione |
| Fiducia democratica | Sfiducia diffusa o fiducia cieca senza accountability | Regole pubbliche, spiegabilità proporzionata, pluralismo e responsabilità |
La Figura 1 e la Tabella 1 hanno funzione esclusivamente euristica: la prima sintetizza nodi e relazioni dell’habitat; la seconda organizza assi di discussione e azioni prioritarie. Nessuna delle due rappresenta dati osservati, stime o risultati empirici.
La mini-matrice come dispositivo euristico e programma di ricerca
La questione successiva non è trasformare immediatamente la mini-matrice in un indicatore manageriale, ma chiarire come la proposta possa essere sottoposta a validazione empirica senza perdere la sua natura civica. In altri termini: la matrice deve diventare osservabile e discutibile, non semplicemente numerabile. Per questo, una versione destinata a una sede journal deve accompagnare la cornice teorica con un protocollo minimo di operazionalizzazione, replicabile e trasparente.
Domande di ricerca e ipotesi verificabili
Un’impostazione empirica minima può articolarsi in poche domande, formulabili in modo verificabile: (a) in che modo variazioni di integrazione tra istituzioni educative e culturali, pluralismo delle fonti, alfabetizzazione critica all’IA, trasparenza degli strumenti e fiducia democratica si associano a indicatori osservabili di qualità del giudizio pubblico (ad esempio: capacità di verifica, di contestazione motivata, di riconoscimento del contesto e della provenienza delle informazioni)? (b) quali interventi locali (patti territoriali, registri di trasparenza, policy d’uso, laboratori di literacy) producono evidenze osservabili su tali dimensioni nel medio periodo? (c) quali trade-off emergono tra efficienza di accesso (sintesi e personalizzazione) e pluralismo/contestabilità?
Operazionalizzare senza ridurre: proxy osservabili per ciascun asse
Per evitare l’effetto “foglio Excel” e allo stesso tempo rendere la matrice empiricamente trattabile, una soluzione è definire proxy osservabili (conteggi, presenze/assenze, tracce documentali, survey) senza trasformarli in un indice unico. La tabella seguente collega, per ciascun asse, unità/osservabili, fonti dati, meccanismo atteso e principale threat to validity, in modo da rendere la proposta più controllabile a livello di journal article.
| Asse | Unità / osservabile | Fonte dati | Meccanismo atteso | Threat to validity |
| Integrazione scuola–archivio–biblioteca–museo | Comune o rete territoriale; patti, governance condivisa, continuità dei programmi comuni | Delibere, accordi, calendari, rendicontazioni, network mapping dei partner | Più integrazione istituzionale -> maggiore continuità educativa e coordinamento delle mediazioni | Bias documentale; patti formali non attuati |
| Pluralismo delle fonti | Istituzione o progetto; confronto tra fonti, varietà di mediatori, policy di curatela | Syllabi, bibliografie, programmi culturali, audit campionario dei materiali | Più pluralismo -> minore dipendenza da una sola mediazione informativa | Campionamento e codifica contestuale |
| Alfabetizzazione critica all’IA | Scuola o istituzione; moduli su modelli, dati, bias, limiti; formazione del personale | Piani formativi, registri attività, osservazione, interviste, rubriche qualitative | Più literacy -> maggiore capacità di verifica e uso contestualizzato dei tool | Auto-reporting; gap tra formazione dichiarata e praticata |
| Trasparenza algoritmica | Ente o servizio; AI use policy, schede dei tool, canali di contestazione, registri | Siti istituzionali, documenti di trasparenza, registri algoritmici/IA, verifica di aggiornamento | Più trasparenza -> maggiore contestabilità e accountability procedurale | Compliance theatre; presenza del documento ≠ intelligibilità reale |
| Fiducia democratica | Territorio o processo; reclami e risposte, pratiche deliberative, survey e focus group | Survey locali, focus group, dati su reclami/risposte, osservazione di casi | Più accountability e partecipazione -> maggiore fiducia procedurale riflessiva | Endogeneità; variabili politiche e sociali esterne |
Ancoraggi empirici già disponibili: registri pubblici e memoria digitale
Due famiglie di pratiche, già sperimentate in contesti europei, mostrano come rendere “osservabile” la governance degli osservatori algoritmici e della memoria digitale senza ricorrere a metriche opache. Primo: i registri pubblici degli algoritmi o dell’IA adottati da enti locali, pensati come strumenti di trasparenza e conversazione civica; la città di Amsterdam, ad esempio, ha sviluppato un Algorithm Register per rendere pubbliche finalità, logiche e responsabilità d’uso degli algoritmi, e la letteratura di policy ne discute limiti e condizioni di efficacia [23][25]. In parallelo, il lavoro sui public AI registers (es. Helsinki) propone standard di documentazione archiviabile e interrogabile per rendere contestabili assunzioni e decisioni nei sistemi pubblici [24]. Secondo: pratiche di arricchimento dei metadati del patrimonio culturale con strumenti di IA, combinate con validazione umana e curatela (infrastruttura K_theta), come discusso in ambito Europeana e nel contesto del data space europeo per il patrimonio culturale [16][26].
Come chiudere il cerchio: disegno di studio replicabile e trasparente
Per una validazione empirica coerente con i diritti cognitivi, il disegno più robusto è comparativo e misto: (1) selezione di più territori (Comuni o reti di Comuni) con configurazioni diverse di istituzioni educative e culturali; (2) raccolta di evidenze documentali (policy, accordi, schede di trasparenza, registri), dati amministrativi e dati qualitativi (interviste, focus group, osservazione di laboratori e pratiche di mediazione); (3) uso di strumenti standardizzati per descrivere l’adozione di tool IA (finalità, dati, limiti, accountability) e per osservare aspetti della fiducia e della capacità di verifica; (4) pubblicazione di protocollo, codebook e dati aggregati in forma riusabile, nel rispetto di GDPR e tutela dei minori. Un simile protocollo non pretende di esaurire la dimensione normativa dei diritti cognitivi, ma rende più forte la tesi centrale del saggio: la qualità democratica dell’adozione dell’IA è anche un problema di istituzioni e di habitat, e come tale può essere osservata, discussa e migliorata con strumenti pubblici verificabili.
Limiti del contributo
Tre limiti vanno esplicitati. Primo, l’articolo non presenta ancora una validazione empirica comparativa della mini-matrice e quindi non rivendica capacità di misurazione, predizione o ranking. Secondo, la notazione GDE è qui impiegata come linguaggio euristico: non vengono proposti parametri calibrati, soglie operative o nessi causali identificati. Terzo, la ricostruzione normativa è concentrata su fonti europee, del Consiglio d’Europa, UNESCO e italiane; una piena comparazione con altri ordinamenti richiederebbe un’estensione ulteriore del quadro.
Di conseguenza, il paper non sostiene quattro cose: che i “diritti cognitivi” siano già una categoria di diritto positivo compiuta; che le figure o la mini-matrice rappresentino output empirici; che i proxy proposti possano essere aggregati in un indice sintetico senza ulteriore lavoro di validazione; che il quadro qui ricostruito esaurisca la comparazione internazionale disponibile.
Conclusione: giudizio pubblico e infrastrutture di habitat
L’argomento centrale può essere riassunto così: nell’età dell’IA uno dei problemi normativi e politici più rilevanti non riguarda soltanto l’accesso all’informazione, ma la qualità delle condizioni sociali che rendono possibile il giudizio. Scuole, archivi, biblioteche, musei, territori e mediatori algoritmici appartengono allo stesso ambiente di formazione delle preferenze e della memoria condivisa.
In questo quadro, il lessico dei diritti cognitivi è utile non perché nomini una categoria giuridica già chiusa, ma perché rende visibile l’unità di un problema oggi disperso tra istruzione, pluralismo informativo, trasparenza algoritmica, patrimonio culturale e accountability.
In prospettiva GDE, questi luoghi formano un unico habitat cognitivo. Coltivarlo significa rafforzare integrazione istituzionale, pluralismo delle mediazioni, capacità critica e adattamento organizzativo orientato alla persona. Trascurarlo significa lasciare che il rapporto tra sapere e democrazia sia plasmato in misura crescente da metriche di efficienza, profilazione e cattura dell’attenzione.
Parlare di diritti cognitivi come diritti di habitat significa, allora, proporre un criterio di progettazione istituzionale: preservare accesso, memoria, interpretazione e partecipazione dentro ecosistemi che restino contestabili, plurali e pubblicamente intelligibili. È su questa base, più che su una contrapposizione astratta tra uomo e macchina, che può essere discussa la qualità democratica dell’innovazione.
Nota metodologica
Questo articolo integra tre livelli analitici: (i) analisi positivo-normativa di fonti verificabili; (ii) interpretazione teorica in chiave GDE; (iii) proposta policy-oriented per la governance territoriale dell’habitat cognitivo. Di conseguenza, il paper non va letto come studio quantitativo già validato, bensì come contributo concettuale con agenda empirica delimitata e review tracciabile.
Appendice A — Notazione euristica GDE
| ID | Notazione | Funzione analitica | Statuto nel paper |
| A1 | S_lambda(R,t) = F(I(R,t), C(R,t), P(R,t), lambda(R,t)) | Indicatore euristico della vitalità osservativa dell’habitat. | Notazione concettuale; non stimata né calibrata in questo articolo. |
| A2 | S_lambda^(COG-CULT)(R,t) = F(I_rete(R,t), C_pluralismo(R,t), P_giudizio(R,t), lambda_istituzionale(R,t)) | Declinazione cognitivo-culturale della vitalità dell’habitat. | Notazione concettuale; usata per chiarire dimensioni del problema. |
| A3 | Y_crisi^(COG-dem)(R,t) | Costrutto qualitativo di fragilità cognitivo-democratica. | Categoria euristica; nessuna quantificazione o previsione nel presente paper. |
Appendice B — Copertura analitica di attori, istituzioni e driver
| Dimensione / attore | Categoria | Statuto nel paper | Funzione analitica | Nota |
| Scuole | Istituzione educativa | Centrale | Presidio del giudizio e della literacy | Nodo esplicito dell’habitat cognitivo. |
| Archivi | Istituzione della memoria | Centrale | Custodia di prove, contesti e continuità pubblica | Nodo esplicito dell’habitat cognitivo. |
| Biblioteche | Istituzione della conoscenza | Centrale | Accesso, orientamento e comparazione tra fonti | Nodo esplicito dell’habitat cognitivo. |
| Musei | Istituzione culturale | Centrale | Interpretazione pubblica e mediazione culturale | Nodo esplicito dell’habitat cognitivo. |
| Territori | Scala di governance | Centrale | Livello di integrazione istituzionale e policy | Il territorio è trattato come habitat e scala di intervento. |
| Famiglie | Attore sociale | Integrato | Nodo relazionale della comunità educante | Incluse come parte dell’ecologia del giudizio. |
| Associazioni | Attore civico | Integrato | Mediazione sociale e partecipazione | Incluse nella proposta territoriale. |
| Enti locali | Attore istituzionale | Integrato | Snodo di coordinamento, accountability e implementazione | Rilevanti per le priorità operative. |
| Search engine | Mediatore algoritmico | Centrale | Organizzazione della visibilità informativa | Trattati come osservatori algoritmici. |
| Recommender systems | Mediatore algoritmico | Centrale | Selezione, ranking e personalizzazione | Trattati come osservatori algoritmici. |
| LLM | Mediatore algoritmico | Centrale | Sintesi, mediazione discorsiva e accesso guidato | Trattati come osservatori algoritmici. |
| Trasparenza algoritmica | Principio di governance | Centrale | Asse normativo e istituzionale portante | Collegata a DSA, AI Act e registri pubblici. |
| Partecipazione democratica | Outcome civico | Centrale | Esito politico del modello di habitat | Elemento chiave della tesi. |
| Diritti cognitivi come diritto positivo compiuto | Tesi esclusa | Escluso | Delimitazione concettuale | Il paper usa l’espressione come cornice interpretativa, non come categoria già stabilizzata di diritto positivo. |
| Forecast numerici | Scelta metodologica | Escluso | Delimitazione del contributo | L’articolo non propone stime quantitative o classifiche territoriali. |
Bibliografia
[1] Unione europea. Carta dei diritti fondamentali dell’Unione europea. Gazzetta ufficiale dell’Unione europea C 326, 26 ottobre 2012.
[2] Unione europea. Regolamento (UE) 2024/1689 del Parlamento europeo e del Consiglio del 13 giugno 2024 che stabilisce norme armonizzate sull’intelligenza artificiale (AI Act). Gazzetta ufficiale dell’Unione europea L, 2024.
[3] European Commission. AI literacy – Questions & Answers. Shaping Europe’s Digital Future, 2025. Consultato il 6 marzo 2026. https://digital-strategy.ec.europa.eu/en/faqs/ai-literacy-questions-answers
[4] Unione europea. Regolamento (UE) 2022/2065 del Parlamento europeo e del Consiglio del 19 ottobre 2022 relativo a un mercato unico dei servizi digitali (Digital Services Act). Gazzetta ufficiale dell’Unione europea L 277, 27 ottobre 2022.
[5] Unione europea. Regolamento (UE) 2024/1083 del Parlamento europeo e del Consiglio dell’11 aprile 2024 che istituisce un quadro comune per i servizi di media nel mercato interno (European Media Freedom Act). Gazzetta ufficiale dell’Unione europea L, 2024.
[6] Unione europea. Dichiarazione europea sui diritti e i principi digitali per il decennio digitale. Gazzetta ufficiale dell’Unione europea C 23, 23 gennaio 2023.
[7] Council of Europe. Framework Convention on Artificial Intelligence and Human Rights, Democracy and the Rule of Law (CETS No. 225). Vilnius, 5 settembre 2024. https://rm.coe.int/1680afae3c
[8] Council of Europe Treaty Office. Chart of signatures and ratifications of Treaty 225 (Council of Europe Framework Convention on Artificial Intelligence and Human Rights, Democracy and the Rule of Law, CETS No. 225). Treaty Office database. Consultato il 6 marzo 2026. https://www.coe.int/en/web/conventions/full-list?module=signatures-by-treaty&treatynum=225
[9] United Nations Committee on the Rights of the Child. General Comment No. 25 (2021) on children’s rights in relation to the digital environment. 2021.
[10] UNESCO. Recommendation on the Ethics of Artificial Intelligence. 2021.
[11] UNESCO. Guidance for Generative AI in Education and Research. 2023.
[12] Ministero dell’Istruzione e del Merito. Linee guida per l’introduzione dell’intelligenza artificiale nelle istituzioni scolastiche, allegato al D.M. n. 166 del 9 agosto 2025. 2025.
[13] Italia. Legge 23 settembre 2025, n. 132, Disposizioni e deleghe al Governo in materia di intelligenza artificiale. Gazzetta Ufficiale, 25 settembre 2025; entrata in vigore 10 ottobre 2025.
[14] Agenzia per l’Italia Digitale / Presidenza del Consiglio dei ministri. Strategia italiana per l’intelligenza artificiale 2024–2026. 2024.
[15] Council of Europe. Framework Convention on the Value of Cultural Heritage for Society (Faro Convention, CETS No. 199). 2005.
[16] European Commission / Europeana Initiative. The Common European Data Space for Cultural Heritage – Strategy 2025–2030. 2026.
[17] UNESCO. Recommendation concerning the Preservation of, and Access to, Documentary Heritage Including in Digital Form. 2015.
[18] UNESCO. Recommendation concerning the Protection and Promotion of Museums and Collections, their Diversity and their Role in Society. 2015.
[19] IFLA. Statement on Libraries and Artificial Intelligence. IFLA Repository, 2020.
[20] International Council on Archives. AI and Archival Practice: ethics and human rights resources. Online resource, consultato il 6 marzo 2026.
[21] ICOM – International Council of Museums. Digital Ethics and Artificial Intelligence for Museums: resolution and related documents. 2025.
[22] European Data Protection Board. Guidelines 3/2025 on the interplay between the Digital Services Act and the GDPR, version 1.1. Brussels, 2025. Consultato il 6 marzo 2026. https://www.edpb.europa.eu/our-work-tools/documents/public-consultations/2025/guidelines-32025-interplay-between-dsa-and-gdpr_en
[23] City of Amsterdam. Algorithm Register: official register and explanatory materials. Consultato il 6 marzo 2026. https://algoritmeregister.amsterdam.nl/
[24] Haataja, Meeri, Linda van de Fliert, and Pasi Rautio. Public AI Registers: Realising AI transparency and civic participation in government use of AI. White paper, 2020. https://ai.hel.fi/wp-content/uploads/White-Paper.pdf
[25] OECD. Governing with Artificial Intelligence: The State of Play and Way Forward in Core Government Functions. Paris: OECD Publishing, 2025. https://doi.org/10.1787/795de142-en
[26] Kaldeli, Eirini. “Combining AI tools with human validation to enrich cultural heritage metadata.” Europeana Pro, 16 February 2023. https://pro.europeana.eu/index.php/post/combining-ai-tools-with-human-validation-to-enrich-cultural-heritage-metadata
[27] Ienca, Marcello, and Roberto Andorno. “Towards new human rights in the age of neuroscience and neurotechnology.” Life Sciences, Society and Policy 13, no. 1 (2017): 1–27.
[28] Nissenbaum, Helen. Privacy in Context: Technology, Policy, and the Integrity of Social Life. Stanford: Stanford University Press, 2010.
[29] Pasquale, Frank. The Black Box Society: The Secret Algorithms That Control Money and Information. Cambridge, MA: Harvard University Press, 2015.
[30] Gillespie, Tarleton. Custodians of the Internet: Platforms, Content Moderation, and the Hidden Decisions That Shape Social Media. New Haven: Yale University Press, 2018.
[31] Kasneci, Enkelejda, et al. “ChatGPT for good? On opportunities and challenges of large language models for education.” Learning and Individual Differences 103 (2023): 102274.
[32] García-López, Iván Miguel, Carina Soledad González González, María-Soledad Ramírez-Montoya, and José-Martín Molina-Espinosa. “Challenges of implementing ChatGPT on education: Systematic literature review.” International Journal of Educational Research Open 6 (2025): 100401.
[33] Yap, J. Q. H., et al. “The impact of digitalisation and digitisation in museums on memory-making.” Journal of Heritage Tourism (2024).
[34] Pan, Shouyong, and Qianwen Shi. “Exploring the evolution of museum knowledge organization systems.” Cataloging & Classification Quarterly (2025).
[35] Shackell, Cameron, and Laurianne Sitbon. “Cognitive Externalities and HCI: Towards the Recognition and Protection of Cognitive Rights.” In Extended Abstracts of the 2018 CHI Conference on Human Factors in Computing Systems. New York: ACM, 2018. https://doi.org/10.1145/3170427.3188405
[36] Jaillant, Lise, Olivia Mitchell, Eric Ewoh-Opu, and Maribel Hidalgo Urbaneja. “How can we improve the diversity of archival collections with AI? Opportunities, risks, and solutions.” AI & Society 40, no. 6 (2025): 4447–4459. https://doi.org/10.1007/s00146-025-02222-z
