di Alessandro Curioni
Abstract
Il contributo propone una riflessione sui diritti cognitivi come nuova soglia della cittadinanza democratica nell’ecosistema digitale. La tesi di fondo è che l’Intelligenza Artificiale e i sistemi algoritmici non si limitino a offrire strumenti o servizi, ma intervengano sempre più profondamente nei processi di selezione dell’attenzione, di organizzazione della rilevanza e di formazione del giudizio. In questo scenario, il problema non riguarda più soltanto l’accesso alle tecnologie o l’acquisizione di competenze d’uso, ma la qualità cognitiva della partecipazione pubblica.
L’articolo sostiene che i diritti cognitivi, intesi come diritto alla libera formazione del pensiero, al pluralismo informativo, alla comprensibilità delle mediazioni tecnologiche che incidono su opinioni e scelte, costituiscano una condizione concreta della democrazia. Il rischio, infatti, non coincide solo con l’errore degli algoritmi o con la disinformazione intenzionale, ma anche con la progressiva normalizzazione della delega cognitiva: un ambiente in cui sintesi, raccomandazioni e semplificazioni riducono la fatica del giudizio e, insieme, ne indeboliscono l’esercizio.
A partire da questa prospettiva, il contributo rilegge l’educazione all’IA non come semplice alfabetizzazione tecnica, ma come educazione del giudizio. Formare cittadini competenti non basta, se tali competenze non sono accompagnate dalla capacità di dubitare, contestualizzare, verificare, riconoscere la differenza tra supporto e sostituzione, tra velocità e comprensione. In questa cornice, scuole, università, biblioteche, musei e istituzioni culturali sono chiamati non solo ad adottare strumenti innovativi, ma a rendere la mediazione algoritmica leggibile, discutibile e criticabile.
Il breve saggio si colloca così al crocevia tra educazione, cultura e responsabilità democratica, mostrando come i tre verbi della call (coltivare, educare, umanizzare) non siano formule evocative, ma criteri operativi. Coltivare significa prendersi cura dei contesti in cui si forma la conoscenza; educare significa allenare il giudizio; umanizzare significa porre un limite alla delega cognitiva come prezzo occulto dell’efficienza. Difendere i diritti cognitivi, in questa prospettiva, significa custodire la possibilità di cittadini non solo informati, ma ancora capaci di pensare ciò che ricevono.
Parole chiave
Diritti cognitivi; educazione all’IA; democrazia; cittadinanza digitale; giudizio critico
Abstract
This paper reflects on cognitive rights as a new threshold of democratic citizenship within the digital ecosystem. Its central argument is that Artificial Intelligence and algorithmic systems do not merely provide tools or services; they increasingly intervene in processes of attention selection, relevance organization, and judgment formation. In this scenario, the issue no longer concerns only access to technology or the acquisition of operational skills, but rather the cognitive quality of public participation.
The article argues that cognitive rights, understood as the right to the free formation of thought, to informational pluralism, and to the intelligibility of technological mediations affecting opinions and choices, constitute a concrete condition of democracy. The risk, in fact, does not lie only in algorithmic error or intentional disinformation, but also in the gradual normalization of cognitive delegation: an environment in which summaries, recommendations, and simplifications reduce the effort of judgment while simultaneously weakening its exercise.
From this perspective, the contribution reframes AI education not as mere technical literacy, but as an education in judgment. Training competent citizens is not enough if such competence is not accompanied by the capacity to doubt, contextualize, verify, and recognize the difference between support and substitution, between speed and understanding. Within this framework, schools, universities, libraries, museums, and cultural institutions are called upon not only to adopt innovative tools, but also to make algorithmic mediation readable, discussable, and open to critique.
The essay thus stands at the intersection of education, culture, and democratic responsibility, showing how the three verbs at the heart of the call (cultivate, educate, humanize) are not merely evocative formulas, but operational criteria. To cultivate means to care for the contexts in which knowledge takes shape; to educate means to train judgment; to humanize means to place a limit on cognitive delegation as the hidden cost of efficiency. Defending cognitive rights, from this perspective, means safeguarding the possibility of citizens who are not merely informed, but still capable of thinking through what they receive.
Keywords
Cognitive rights; AI education; democracy; digital citizenship; critical judgment
Per anni abbiamo pensato che il problema del digitale fosse soprattutto tecnico: più connessioni, più competenze, più strumenti, più velocità. Era una lettura comoda, quasi rassicurante: bastava colmare un ritardo, aggiornare i programmi, insegnare a usare meglio le piattaforme. Oggi però il punto si è spostato perché l’Intelligenza Artificiale e i sistemi algoritmici non si limitano a fornirci servizi: organizzano il campo visivo, selezionano ciò che merita attenzione, suggeriscono percorsi, sintetizzano contenuti, anticipano decisioni. Non abitano soltanto i nostri dispositivi, ma il modo in cui percepiamo il mondo. Per questo la questione non riguarda più solo l’accesso o la competenza d’uso, ma la qualità cognitiva della cittadinanza.
In questo quadro, parlare di diritti cognitivi non significa aggiungere una formula elegante al lessico di quelli digitali, quanto piuttosto riconoscere che esiste un bene pubblico più fragile di quanto siamo disposti ad ammettere: la possibilità di formare un pensiero autonomo in un ambiente sempre più mediato da logiche automatiche. Il diritto alla libera formazione del giudizio, al pluralismo informativo, alla comprensibilità dei processi che orientano scelte e opinioni non appartiene a una nicchia teorica. È una condizione concreta della democrazia che può resistere anche a una tecnologia imperfetta, ma fatica a sopravvivere a cittadini progressivamente disabituati a distinguere, verificare, dubitare.
Il punto, infatti, non è solo che gli algoritmi possano sbagliare, ma possono indurre a delegare e quando quella cognitiva si fa abitudine, produce un effetto diabolico: non ci impone una verità, ma ci risparmia la fatica del giudizio. Ogni semplificazione è utile, fino a quando non diventa una protesi permanente. Ogni sintesi è preziosa, fino a quando non sostituisce il rapporto diretto con la complessità. Ogni raccomandazione è efficiente, fino a quando non si trasforma in una corsia mentale dalla quale smettiamo di uscire. Il rischio democratico non coincide soltanto con la manipolazione intenzionale o con la disinformazione esplicita, ma anche con l’assuefazione a un ambiente che rende il pensiero sempre più assistito e, proprio per questo, sempre meno allenato.
Per questa ragione l’educazione all’IA non può essere ridotta a una nuova alfabetizzazione funzionale. Non basta insegnare che cosa siano i modelli generativi, come si costruisca un prompt o quali applicazioni siano disponibili nella didattica e nel lavoro. Tutto questo è utile, ma non sufficiente. La domanda educativa decisiva è un’altra: come si forma il giudizio in un contesto in cui la mediazione tecnologica è continua, pervasiva, spesso invisibile? Educare all’IA significa allora educare al dubbio, alla contestualizzazione, al controllo delle fonti, alla consapevolezza che ciò che appare semplice non è necessariamente neutrale e tanto meno vero. Si tratta di insegnare a riconoscere la differenza tra supporto e sostituzione, tra aiuto e deresponsabilizzazione, tra velocità e comprensione. In altre parole, si deve restituire peso cognitivo alle persone in un ambiente che tende a toglierglielo senza troppo rumore.
Qui entra in gioco il ruolo delle istituzioni educative e culturali. Scuole, università, biblioteche, archivi, musei, centri di ricerca non possono limitarsi a introdurre strumenti innovativi o a inseguire l’ultima applicazione disponibile. Devono diventare luoghi in cui la mediazione algoritmica viene resa leggibile, discutibile, perfino contestabile. Un’istituzione educativa è davvero all’altezza del proprio tempo quando non si limita a rendere gli individui operativi, ma li aiuta a restare liberi. E la libertà, nell’ecosistema digitale, non coincide con l’assenza di vincoli: coincide con la presenza di anticorpi critici. Senza di essi, l’innovazione rischia di produrre cittadini molto competenti nell’uso degli strumenti e sempre meno capaci di governarne il senso.
Anche la dimensione istituzionale, dunque, va ripensata. Per anni abbiamo concentrato giustamente l’attenzione su protezione dei dati, sicurezza, conformità normativa. Sono temi essenziali, ma oggi non bastano più. Serve una responsabilità pubblica che consideri la trasparenza delle mediazioni algoritmiche e il pluralismo informativo come elementi strutturali della qualità democratica. Quando le scelte collettive maturano in ambienti che filtrano visibilità, rilevanza e priorità, la neutralità tecnica smette di essere una favola innocua e diventa una scorciatoia pericolosa. Gli Stati, le istituzioni educative, le comunità scientifiche e i luoghi della cultura sono chiamati a una forma nuova di presidio: non soltanto regolare le tecnologie, ma custodire le condizioni cognitive entro cui una società può ancora discutere, dissentire, deliberare.
È qui che i tre verbi (coltivare, educare, umanizzare) mostrano la loro forza, purché non vengano trattati come slogan. Coltivare significa prendersi cura dei contesti in cui la conoscenza cresce, e quindi delle ecologie informative e relazionali che rendono possibile un pensiero non eterodiretto. Educare significa formare il giudizio, non soltanto trasferire competenze. Umanizzare significa porre un limite alla tentazione più seducente dell’innovazione contemporanea: promettere sollievo cognitivo in cambio di una quota crescente di autonomia. La vera questione, allora, non è decidere se l’IA debba entrare nei processi educativi e culturali, perché è già lì. Il tema è se saremo capaci di farla entrare senza uscire noi.
I diritti cognitivi nascono precisamente in questo spazio. Non come lusso teorico, ma come grammatica minima della dignità democratica nel tempo delle mediazioni intelligenti. Difenderli significa tutelare la possibilità di un cittadino che non sia soltanto raggiunto dalle informazioni, ma sia ancora in grado di pensarle. La democrazia si incrina quando, lentamente, ci abituiamo a non cercarla più.
Alessandro Curioni

Laureato in filosofia, dopo una breve esperienza nel mondo del giornalismo, si dedica alle nuove tecnologie. Attualmente è fondatore e Presidente di DI.GI. Academy, azienda specializzata nella formazione e nella consulenza in ambito cyber security. Docente a contratto del corso «Sicurezza dell’informazione» all’Università Cattolica di Milano. Svolge con continuità l’attività commentatore e divulgatore sui media nazionali. È autore di romanzi tra i quali «Il giorno del Bianconiglio” e «Certe Morti non fanno rumore”, per l’editore Chiare Lettere e saggi tra i quali «Cyber War – La guerra prossima ventura» scritto con Aldo Giannuli per Mimesis.
