Di Davide Vairani, Responsabile EQ Area Non Autosufficienza – Azienda Sociale Cremonese a.s.c. (*)
Abstract (IT)
Il contributo propone una lettura stratificata dell’adozione dell’Intelligenza Artificiale nel welfare sociale italiano, articolata in quattro livelli operativi: macro-istituzionale, meso-territoriale, operativo-professionale e relazionale-frontline. A ciascun livello corrispondono applicazioni con diverso grado di maturità, diverse implicazioni per i professionisti del sociale e diversi rischi. A livello macro, sistemi già operativi dell’INPS – il SIISL Best Match per l’Assegno di Inclusione, gli algoritmi di machine learning per l’invalidità civile, lo smistamento automatico di milioni di comunicazioni – riguardano direttamente milioni di persone fragili ma restano quasi invisibili al professionista territoriale. A livello meso, i sistemi informativi regionali e distrettuali (come GARSIA in Emilia-Romagna) sono prevalentemente archivi strutturati: il salto verso l’analisi predittiva del bisogno territoriale è ancora da compiere. A livello operativo, la sperimentazione più avanzata è quella di Pasqualotto e Lascioli (Università di Verona) con la piattaforma ICF Applicazioni e il GEM su progettodivita.org: AI a supporto della valutazione biopsicosociale prevista dal D.Lgs. 62/2024. A livello relazionale, il campo è ancora largamente inesplorato e ad alto rischio di erosione della relazione di cura. Quattro criticità attraversano tutti i livelli: assenza di supervisione professionale qualificata, non interoperabilità dei sistemi, digital divide delle persone destinatarie, mancanza di valutazioni di impatto pubbliche. Le piste di futuro prossimo identificate riguardano la valutazione biopsicosociale digitale, le mappe condivise del bisogno territoriale e la formazione critica dei professionisti del welfare.
Abstract (EN)
This paper proposes a layered reading of AI adoption in Italian social welfare, structured across four operational levels: macro-institutional, meso-territorial, operational-professional, and relational-frontline. Each level presents applications of varying maturity, different implications for social work professionals, and distinct risks. At the macro level, INPS systems already in operation – the SIISL Best Match algorithm for the Inclusion Allowance, machine learning tools for disability assessment, automatic classification of millions of communications – directly affect millions of vulnerable people while remaining largely invisible to territorial professionals. At the meso level, regional information systems (such as GARSIA in Emilia-Romagna) are primarily structured archives: the shift towards predictive territorial needs analysis has yet to occur. At the operational level, the most advanced experimentation is Pasqualotto and Lascioli’s (University of Verona) ICF Applicazioni platform and GEM on progettodivita.org: AI supporting the biopsychosocial assessment required by Legislative Decree 62/2024. At the relational level, the field remains largely unexplored and carries high risk of eroding the care relationship. Four cross-cutting challenges span all levels: absence of qualified professional supervision, system non-interoperability, digital divide among recipients, and lack of public impact assessments. Development paths identified include digital biopsychosocial assessment, shared territorial needs mapping, and critical training for welfare professionals.
Parole chiave: Intelligenza Artificiale, welfare sociale, servizi sociali, INPS, SIISL, disabilità, ICF, valutazione biopsicosociale, professione sociale, bias algoritmico, digital divide
1. Il perimetro: cosa intendiamo per welfare sociale in Italia
Prima di analizzare come l’IA si applica al welfare sociale italiano, è necessario delimitare di cosa si sta parlando. In Italia coesistono tre sistemi normativamente distinti ma spesso confusi nel dibattito pubblico: il sistema sanitario, il sistema sociosanitario e il sistema sociale.
Questa analisi riguarda specificamente il terzo, che ha un perimetro, una governance, attori e finanziamenti propri.
Il sistema dei servizi sociali è definito dalla Legge 8 novembre 2000, n. 328 – la legge quadro che ha istituito il Sistema integrato di interventi e servizi sociali – come l’insieme delle attività finalizzate a «prevenire, eliminare o ridurre le condizioni di disabilità, di bisogno e di disagio individuale e familiare derivanti da inadeguatezza di reddito, difficoltà sociali e condizioni di non autonomia»[1]. La titolarità delle funzioni sociali spetta ai Comuni, che le esercitano in forma singola o associata attraverso gli Ambiti Territoriali Sociali (ATS).
Le Regioni programmano e finanziano; lo Stato definisce i Livelli Essenziali delle Prestazioni Sociali (LEPS) e ripartisce il Fondo Nazionale per le Politiche Sociali. L’INPS gestisce le prestazioni previdenziali e di welfare economico che spesso si intrecciano con i servizi locali – come avviene nel caso dell’Assegno di Inclusione e del SIISL analizzati in questo contributo.
La distinzione dal sistema sanitario e da quello sociosanitario è giuridicamente netta, anche se nella pratica dei servizi i confini sono spesso oggetto di negoziazione tra Comuni e ASL. Il sistema sanitario (competenza regionale via ASL/SSN, finanziato dal Fondo Sanitario Nazionale, regolato dai LEA – Livelli Essenziali di Assistenza) interviene sulla cura, sulla prevenzione e sulla riabilitazione: i suoi professionisti di riferimento sono medici, infermieri, fisioterapisti. Il sistema sociosanitario, regolato dal DPCM 14 febbraio 2001, occupa una zona di confine: le prestazioni vengono finanziate in quote diverse da SSN e Comuni a seconda dell’intensità assistenziale (fase intensiva, estensiva, lungoassistenza)[2].
Il sistema dei servizi sociali è invece di esclusiva competenza comunale: interviene sul bisogno sociale, sull’autonomia della persona, sull’inclusione, sulla protezione di soggetti vulnerabili. I suoi professionisti di riferimento sono assistenti sociali, educatori professionali, coordinatori di servizi.
► Gli attori del welfare sociale italiano: una mappa essenziale
Ente pubblico: Comuni e ATS (titolari delle funzioni, erogatori o committenti), Regioni (programmazione, accreditamento, fondi), Ministero del Lavoro (Piano Nazionale, LEPS, fondi nazionali), INPS (prestazioni economiche: ADI, SFL, invalidità civile, assegni di cura).
Economia sociale: cooperative sociali di tipo A (servizi socio-educativi) e tipo B (inserimento lavorativo persone svantaggiate), consorzi di cooperative, imprese sociali. Sono i soggetti che gestiscono la larga maggioranza dei servizi sociali italiani in convenzione o accreditamento con i Comuni.
Terzo settore: organizzazioni di volontariato (ODV), associazioni di promozione sociale (APS), fondazioni. Operano prevalentemente in sussidiarietà rispetto al sistema pubblico, con ruoli che vanno dall’advocacy al presidio di servizi di primo contatto e di prossimità.
Nuovi attori in ingresso: imprese for profit accreditate o convenzionate, fondazioni bancarie (con fondi e progettualità proprie), istituti di credito (come nel caso del Piano di Impresa 2026-2029 di Intesa Sanpaolo con 1 miliardo destinato ad attività di welfare). La geografia degli attori del welfare italiano è oggi più larga di quanto la normativa della L. 328/2000 avesse previsto.
Nota metodologica: questa analisi si concentra sull’asse Comuni-ATS / economia sociale / terzo settore, che costituisce il nucleo storico e normativo del welfare sociale italiano. Quando vengono citati sistemi INPS (come SIISL) o sistemi sanitari (come la piattaforma AGENAS), lo si fa perché questi sistemi producono effetti diretti sulla presa in carico sociale territoriale – non perché appartengano al perimetro del sociale in senso stretto.
2. Introduzione: il problema di mappare un campo disomogeneo
Parlare di «IA nel welfare sociale» come se fosse un campo unitario è il primo errore da evitare. Non esiste un’unica relazione tra intelligenza artificiale e welfare sociale: esistono applicazioni a scale molto diverse, con gradi di maturità molto diversi, con implicazioni completamente diverse per le persone destinatarie e per i professionisti che le accompagnano. Un algoritmo che smista sei milioni di comunicazioni all’anno all’INPS e un sistema che supporta un’educatrice nella costruzione del Progetto di vita di una persona con disabilità sono entrambi «IA nel welfare»: ma richiedono analisi, governance e competenze completamente diverse.
Questo contributo propone una mappa per livelli come strumento di orientamento per professionisti, organizzazioni e ricercatori. Non una rassegna esaustiva – il campo si muove troppo rapidamente per aspirare all’esaustività – ma un modello interpretativo che distingua ciò che esiste già da ciò che è in sperimentazione, e ciò che è in sperimentazione da ciò che è ancora promessa.
Il punto di partenza rimane il contributo di Elena Ferioli (2019), che ha identificato per prima i nodi strutturali della questione nel contesto italiano[3]. La domanda che poneva – «una nuova sfida al ruolo delle istituzioni pubbliche nel welfare italiano?» – ha oggi risposte parziali ma non più solo ipotetiche.
Il contesto demografico rimane la pressione di fondo che rende urgente la domanda: al 1° gennaio 2025 gli ultra-65enni sono il 24,7% della popolazione italiana (14,5 milioni), con proiezione al 34,6% nel 2050[4]. Entro questo scenario, la cornice normativa si è significativamente rafforzata: l’AI Act europeo classifica come sistemi ad alto rischio quelli che determinano l’accesso a prestazioni sociali; la Legge italiana 132/2025 fissa i principi dell’uso antropocentrico e trasparente; la Strategia AGID 2024-2026 e le Linee Guida per l’adozione dell’IA nella PA definiscono standard operativi[5]. Il campo normativo c’è. Il campo applicativo è disomogeneo, e questa disomogeneità è il dato più importante da capire.
3. La cornice normativa: tre pressioni convergenti
L’adozione dell’IA nel welfare sociale italiano è oggi attraversata da tre pressioni normative convergenti che disegnano un campo di regole ancora parzialmente incompleto ma già operativo.
La pressione europea. Il Regolamento (UE) 2024/1689, noto come AI Act, classifica come «sistemi ad alto rischio» quelli utilizzati per determinare l’accesso a prestazioni e servizi sociali essenziali, per valutare l’ammissibilità a misure di inclusione e per profilare persone in situazione di vulnerabilità[6]. Per questi sistemi l’AI Act impone obblighi vincolanti di trasparenza, spiegabilità, supervisione umana, documentazione tecnica e registrazione dei log decisionali. Tutti i sistemi IA già in uso in Italia che rientrano in questa categoria – a partire dal SIISL dell’INPS, come si vedrà – sono soggetti a questi requisiti.
La pressione nazionale. L’Italia ha approvato la propria legge sull’IA (L. 132/2025) nel settembre 2025, fondata sui principi di uso antropocentrico, trasparente, sicuro e non discriminatorio[7]. Parallelamente, tre riforme del welfare hanno creato i contesti in cui l’IA può entrare: la riforma della disabilità (D.lgs. 62/2024), che introduce la valutazione biopsicosociale multidimensionale su base ICF come standard nazionale; la riforma della non autosufficienza (L. 33/2023 e D.lgs. 29/2024), che prevede la valutazione multidimensionale integrata socio-sanitaria e il progetto di vita come strumenti ordinari; la riforma dell’inclusione sociale (D.L. 48/2023), che ha creato l’Assegno di Inclusione e il Supporto Formazione e Lavoro, con la piattaforma SIISL come infrastruttura digitale.
La pressione istituzionale. L’INPS – il principale erogatore di prestazioni sociali in Italia – ha adottato nell’aprile 2024 la propria direttiva sull’IA (Messaggio n. 1384/2024) e un piano triennale 2024-2026 per l’implementazione di sistemi algoritmici nei suoi servizi.
L’AGID ha censito nel 2024-2025 oltre 120 progetti IA nelle PA centrali, 50 dei quali classificati come «infrastrutture sociali»[8]. La trasformazione è già in corso: la domanda non è se l’IA entrerà nel welfare italiano, ma come sarà governata.
4. Una mappa per livelli: quattro scale di applicazione
La proposta interpretativa di questo contributo articola le applicazioni di IA nel welfare sociale italiano in quattro livelli, distinti per scala di intervento, grado di maturità tecnologica e tipo di implicazione professionale. Ogni livello ha le proprie logiche, i propri attori, i propri rischi specifici. La lettura per livelli non è una classificazione rigida – alcuni sistemi attraversano più livelli simultaneamente – ma è uno strumento per evitare la confusione tra piani di analisi che richiedono risposte diverse.
4.1 Livello macro-istituzionale: l’IA invisibile che già riguarda milioni di persone
Il livello più esteso – e paradossalmente il meno discusso nel dibattito professionale del welfare – è quello dei sistemi IA già operativi nelle grandi istituzioni nazionali.
Qui l’IA non è un progetto pilota: è infrastruttura operativa che tocca quotidianamente milioni di persone in condizione di vulnerabilità economica e sociale.
Il caso più rilevante e documentato è il SIISL Best Match dell’INPS, attivato nell’aprile 2024 sulla piattaforma che gestisce l’Assegno di Inclusione e il Supporto Formazione e Lavoro[9].
Il sistema calcola un «indice di affinità» tra il curriculum vitae del beneficiario e le offerte di lavoro o formazione disponibili, elaborando 18 variabili attraverso algoritmi di apprendimento automatico che valutano la vicinanza semantica tra i campi testuali. L’INPS definisce il sistema come strumento orientativo – non una graduatoria, non un meccanismo di esclusione automatica.
La questione critica sta tuttavia nell’architettura istituzionale che lo circonda: i beneficiari ADI che non completano il Patto di Attivazione Digitale (PAD) rischiano la sospensione della prestazione; il sistema invia automaticamente i dati ai Comuni e ai Servizi Sociali territoriali.
In questa architettura a cascata, l’algoritmo di matching non è uno strumento neutro: è parte di un sistema che condiziona l’accesso a misure essenziali per le famiglie più vulnerabili.
► Il SIISL Best Match: architettura a cascata algoritmica
I beneficiari ADI sono già stati selezionati da un primo algoritmo (l’ISEE, costruito su dichiarazioni e dati fiscali). Vengono poi profilati dal SIISL Best Match (18 variabili su CV e offerte). Il flusso automatico raggiunge i Comuni e i Servizi Sociali. In questa sequenza, eventuali bias si amplificano a ogni passaggio: le persone con curricula più discontinui, con minore familiarità digitale, con condizioni di salute che limitano la mobilità, rischiano di essere sistematicamente penalizzate da un sistema che non ha ancora reso pubblica la propria documentazione tecnica completa.
L’AI Act classifica questo sistema come ad alto rischio (Allegato III, 5a): obblighi di trasparenza e supervisione umana sono vincolanti.
Un secondo sistema operativo riguarda il riconoscimento dell’invalidità civile.
L’INPS ha avviato una sperimentazione di machine learning a supporto delle commissioni medico-legali per la normalizzazione dei punteggi valutativi, inizialmente per la fascia 18-67 anni[10]. Questo sistema si colloca direttamente all’incrocio con la riforma della disabilità (D.lgs. 62/2024), che affida all’INPS la valutazione multidimensionale biopsicosociale come standard nazionale: il rischio è che la riforma produca un sistema di valutazione a forte componente algoritmica prima che i professionisti del welfare abbiano sviluppato le competenze per governarlo criticamente.
Il terzo sistema macro è il più silenzioso: lo smistamento automatico delle PEC. L’INPS utilizza algoritmi di machine learning per classificare e instradare automaticamente oltre sei milioni di comunicazioni all’anno[11]. È l’applicazione più matura, con impatto misurabile sui tempi di presa in carico amministrativa. Non è glamour, ma è esattamente il tipo di applicazione virtuosa di cui parla la letteratura: un problema specifico, reale, con un output verificabile. Il punto critico rimane verificare che il tempo liberato venga reinvestito in relazione professionale.
4.2 Livello meso-territoriale: tra archivi strutturati e analisi predittiva ancora da costruire
Il livello intermedio è quello dei sistemi informativi regionali e distrettuali a supporto della programmazione sociale locale.
Qui il quadro italiano rivela uno scarto significativo tra ciò che esiste e ciò che viene spesso attribuito a questi sistemi nel dibattito pubblico.
Il riferimento più citato è GARSIA (Gestione Archivio Regionale Servizi Integrati per l’Assistenza) in Emilia-Romagna[12]. Si tratta di un sistema informativo che consente il monitoraggio longitudinale degli accessi ai servizi sociali, l’analisi delle traiettorie di presa in carico e la costruzione di indicatori aggregati per i Piani di Zona. È uno strumento utile e relativamente maturo. Ma è importante essere precisi: GARSIA è prevalentemente un archivio strutturato. Non include ancora funzionalità predittive basate su algoritmi di machine learning che mappino dinamicamente la fragilità territoriale o identifichino popolazioni a rischio non ancora intercettate dai servizi. Il salto tra il sistema informativo e l’analisi predittiva del bisogno territoriale è ancora da compiere, in Emilia-Romagna come nel resto d’Italia.
Questo dato non è una critica a GARSIA: è una constatazione sull’intero livello meso del welfare italiano. La frammentazione istituzionale tra competenze sanitarie regionali, competenze sociali comunali e prestazioni previdenziali nazionali produce una non-interoperabilità strutturale dei dati[13].
Il censimento AGID del 2024-2025 documenta che solo il 20% dei 120 progetti IA nelle PA centrali ha KPI definiti[14]. A livello locale, la situazione è probabilmente peggiore. I sistemi informativi del welfare territoriale italiano conoscono le persone che accedono ai servizi: non conoscono quasi nulla di chi non ci accede ancora.
⚠ La criticità strutturale del livello meso: dati che non si parlano
Dati sanitari nei sistemi regionali. Dati sociali nei SIUSS distrettuali. Dati previdenziali nell’INPS. Conoscenza di prossimità nelle cooperative e nelle associazioni.
Nessun interlocutore ha il quadro completo della persona. Nessun sistema IA può produrre analisi attendibili su dati frammentati, non standardizzati, raccolti con definizioni operative diverse.
La costruzione di infrastrutture dati interoperabili è il prerequisito tecnologico di qualsiasi ambizione predittiva a livello territoriale: viene prima dell’algoritmo, non dopo.
4.3 Livello operativo-professionale: la frontiera più promettente
Il livello operativo è quello in cui l’IA entra direttamente nel lavoro del professionista del sociale: nella valutazione del bisogno individuale, nella costruzione del progetto personalizzato, nella gestione del case.
È il livello dove la posta in gioco è più alta dal punto di vista professionale e dove la sperimentazione italiana più avanzata si sta svolgendo.
La ricerca più significativa è quella di Luciano Pasqualotto e Angelo Lascioli del Dipartimento di Scienze Umane dell’Università di Verona, con la piattaforma ICF Applicazioni e il progetto più recente su progettodivita.org[15]. La piattaforma ICF Applicazioni è uno strumento digitale open access che consente a operatori socio-sanitari e insegnanti di elaborare un Profilo biopsicosociale di funzionamento a partire da item selezionati dell’ICF (International Classification of Functioning/OMS), producendo rappresentazioni visive delle priorità di intervento e confronti longitudinali nel tempo.
Va precisato il perimetro tecnologico: ICF Applicazioni è un sistema di elaborazione strutturata di dati, non un sistema di machine learning in senso stretto. Il valore non sta nell’algoritmo ma nel metodo: impone una disciplina osservativa condivisa tra tutti i soggetti che concorrono alla valutazione – operatori, famiglia, persona.
Il passo verso l’IA in senso proprio viene compiuto con il GEM «Generative Expert Model» disponibile su progettodivita.org, sviluppato nell’ambito di un progetto di ricerca universitario. Come documentano Pasqualotto e Lascioli[16], il sistema è stato addestrato su dati ICF strutturati e su un prototipo formale di Progetto di vita – sviluppato a partire dal modello adottato dalla Regione Friuli-Venezia Giulia per la sperimentazione nella provincia di Trieste (DGR 176/2025). L’output del GEM non produce il Progetto di vita: facilita l’identificazione di connessioni tra funzionamenti, contesti di vita e fattori di qualità, rendendo più esplicite le scelte progettuali e la loro coerenza interna. Sostiene quello che la letteratura chiama «amplificazione cognitiva» del professionista[17], non sostituzione del suo giudizio.
Questa sperimentazione diventa urgente alla luce del D.lgs. 62/2024, che rende la valutazione biopsicosociale multidimensionale su base ICF lo standard nazionale per le persone con disabilità, con il Profilo di funzionamento e il Progetto di vita individuale e personalizzato come strumenti obbligatori[18].
Pasqualotto e Lascioli identificano con precisione il nodo critico: la riforma è normativamente avanzata ma «ancora senza grammatica operativa». Il rischio è una forte variabilità applicativa tra province, con conseguenti disuguaglianze nell’esigibilità dei diritti.
L’IA, in questo contesto, può contribuire a costruire quella grammatica condivisa – a condizione che lo faccia mantenendo la persona e la sua rete al centro.
Sul versante dell’inclusione lavorativa, il Ministero del Lavoro ha lanciato nel 2025 AppLI, piattaforma con AI multi-agente per l’orientamento dei giovani NEET (target: 18-35 anni, oltre 1,3 milioni secondo ISTAT)[19].
Il caso è istruttivo per motivi opposti alla sperimentazione veronese: AppLI mostra i rischi di un’adozione rapida senza le infrastrutture necessarie. La scarsa interoperabilità tra le banche dati INPS e Ministero ha prodotto consigli generici non localizzati sul mercato del lavoro reale; le barriere SPID hanno paradossalmente escluso i giovani più fragili – quelli senza identità digitale o con competenze digitali limitate – dalla piattaforma nata per includerli.
Il terzo settore risponde: il Ministero ha finanziato con l’Avviso 3/2024 tredici progetti di rilevanza nazionale sull’AI promossi da organizzazioni di volontariato, APS e fondazioni[20]. Le due proroghe del bando per l’alto numero di richieste segnalano un interesse reale e diffuso, non un’aderenza di facciata.
4.4 Livello relazionale-frontline: il campo più delicato e più inesplorato
Il livello relazionale è quello in cui l’IA entra nel contatto diretto con la persona fragile: chatbot agli sportelli sociali, assistenti virtuali, domiciliarità aumentata con sensori IoT, robotica assistiva.
È il livello dove la posta in gioco è massima – perché la relazione di cura è il nucleo irriducibile del welfare sociale – e dove la produzione empirica italiana è ancora larghissimamente assente.
Il Comune di Siena ha attivato «Caterina», un assistente virtuale che risponde alle domande dei cittadini sui servizi comunali. Il Garante della Privacy ha invece sospeso in via preventiva la gara per la piattaforma AGENAS sull’assistenza sanitaria primaria, rilevando l’assenza di adeguate garanzie per un sistema classificabile come ad alto rischio ai sensi dell’AI Act[21].
I due casi insieme mostrano la tensione irrisolta di questo livello: da un lato la spinta all’adozione di strumenti di primo contatto digitale per alleggerire gli sportelli; dall’altro i rischi specifici dell’uso di questi strumenti con popolazioni che hanno minore capacità di riconoscere i limiti del sistema, contestare le risposte errate, esercitare i diritti che l’AI Act formalmente garantisce.
Il nodo che Ferioli identifica come centrale – «la presenza umana nella relazione del cittadino-utente-paziente con il caregiver»[22] – è a questo livello che si gioca concretamente. Un sistema che monitora i parametri vitali di un anziano solo non sostituisce la visita dell’operatore sociale: è un livello aggiuntivo di sorveglianza protettiva che può liberare risorse per le situazioni più complesse. Ma diventa elemento di erosione della cura quando è usato come sostituto della relazione, non come suo supporto. Il confine dipende interamente dalle scelte progettuali e di governance – non dall’algoritmo.
5. I rischi strutturali: analisi critica del contesto italiano
I rischi dell’adozione dell’IA nel welfare sociale non sono astratti: sono distorsioni documentate empiricamente, alcune delle quali già visibili nel contesto italiano.
In generale, possiamo individuarne almeno quattro:
5.1 Discriminazione algoritmica e fragilità delle persone destinatarie
Il fenomeno della «discriminazione per proxy» – la tendenza dei sistemi di machine learning ad amplificare le disuguaglianze preesistenti nei dati di addestramento attraverso variabili apparentemente neutrali – è documentato da una letteratura internazionale robusta[23]. Nel contesto italiano, il rischio è specifico: i beneficiari ADI sono selezionati già da un algoritmo (l’ISEE), poi profilati da un secondo algoritmo (il SIISL Best Match), poi eventualmente segnalati ai servizi sociali da un terzo flusso automatico. In questa architettura a cascata di sistemi algoritmici, eventuali bias si amplificano ad ogni passaggio, e le persone più fragili – quelle con curricula più discontinui, con minore familiarità digitale, con condizioni di salute che limitano la mobilità – rischiano di essere sistematicamente penalizzate.
► I casi europei che l’Italia deve studiare
Toeslagenaffaire (Paesi Bassi, 2005-2021). Il sistema automatico dell’Amministrazione Fiscale olandese ha segnalato come fraudolente le domande di rimborso per l’assistenza all’infanzia di 26.000 famiglie, usando la doppia nazionalità come variabile predittiva. Conseguenze: perdita dell’abitazione, separazioni familiari, suicidi. Il governo si è dimesso nel 2021; i risarcimenti superano i 5 miliardi di euro. La causa strutturale non era nell’algoritmo ma nell’assenza di supervisione umana e di meccanismi di contestazione accessibili alle persone colpite.
Algoritmo antifrode di Amsterdam (2021). Il Comune di Amsterdam ha sospeso un algoritmo predittivo per la rilevazione di frodi nelle prestazioni sociali dopo un audit di Amnesty International che ha rivelato segnalazioni sproporzionate in quartieri a prevalenza migratoria. Il caso è rilevante per l’Italia perché mostra che anche sistemi sviluppati con intenzioni legittime producono discriminazione sistemica in assenza di valutazioni di impatto e di governance partecipata.
Fonte: Commissione Donner, Ongekend Onrecht, 2020; Amnesty International Netherlands, Xenophobic Machines, 2021.
5.2 La de-professionalizzazione degli operatori sociali
Il secondo rischio strutturale è quello identificato da Tursi (2020) come «atrofizzazione della competenza tacita»: quando i professionisti del welfare si abituano ad affidarsi sistematicamente all’output algoritmico, perdono progressivamente la capacità di esercitare autonomamente il giudizio situato che è il nucleo della professione sociale[24]. Donald Schön ha mostrato come la competenza professionale nei servizi alla persona sia in larga misura «conoscenza tacita», maturata attraverso l’esperienza riflessiva e non codificabile in algoritmi[25]. Il rischio non è che l’IA sostituisca l’assistente sociale – almeno nel breve periodo – ma che lo trasformi in un validatore di output algoritmici, svuotando di senso la sua autonomia professionale.
5.3 Il digital divide delle persone fragili
Un rischio specifico del contesto italiano è il digital divide: le persone più fragili – anziani soli, persone con bassa scolarizzazione, persone con disabilità cognitive – sono sistematicamente le meno equipaggiate per interagire con i sistemi digitali, comprendere l’output algoritmico che le riguarda, contestare valutazioni che ritengono errate[26]. Ferioli sottolinea che «la presenza umana nella relazione del cittadino-utente-paziente con il caregiver» non è un valore aggiunto: è la condizione perché il sistema di welfare possa operare con legittimità nei confronti delle persone più vulnerabili[27]. La piattaforma SIISL prevede il Patto di Attivazione Digitale come atto obbligatorio per i beneficiari ADI: un atto digitale, firmato digitalmente, con implicazioni sulla continuazione della prestazione. Per le persone con minore alfabetizzazione digitale, questo passaggio non è banale.
5.4 La frammentazione istituzionale come amplificatore di rischio
Il welfare sociale italiano è strutturalmente frammentato: competenze sanitarie regionali, competenze sociali comunali, prestazioni previdenziali nazionali. Questa frammentazione – che Deriu (2020) identifica come il limite principale all’innovazione digitale nei servizi alla persona[28] – amplifica i rischi dell’adozione dell’IA: sistemi diversi con logiche diverse, dati non interoperabili, assenza di una visione unitaria della persona. Il SIISL riceve i dati dall’ISEE (Agenzia delle Entrate), li integra con le informazioni del PAD, li invia ai Comuni: ogni nodo di questo flusso ha i propri sistemi, le proprie banche dati, le proprie definizioni operative della fragilità. La coerenza del sistema complessivo non è garantita da nessun algoritmo: richiede governance istituzionale che ancora manca.
6. Quattro criticità che attraversano tutti i livelli
Al di là delle specificità di ciascun livello, vi sono almeno quattro criticità strutturali che si ripresentano con diverse intensità a ogni scala di applicazione nel welfare sociale italiano.
Comprenderle è il prerequisito per qualsiasi adozione responsabile.
6.1 L’assenza di supervisione professionale qualificata
La supervisione umana è il requisito che l’AI Act impone come obbligo giuridico per i sistemi ad alto rischio[29]. Nel welfare sociale, tutti i sistemi operativi ai quattro livelli descritti ricadono o rischiano di ricadere in questa categoria. Ma la supervisione non si riduce a un clic di validazione: richiede che il professionista comprenda il funzionamento del sistema, ne identifichi i limiti, possa motivare autonomamente la propria valutazione. Tursi (2020) identifica il rischio specifico come «atrofizzazione della competenza tacita»: quando gli operatori si abituano ad affidarsi sistematicamente all’output algoritmico, perdono progressivamente la capacità di esercitare il giudizio situato che è il nucleo della professione sociale[30]. Questo rischio è reale a ogni livello: dall’operatore del CAAF che accetta acriticamente il calcolo dell’indice di affinità SIISL, all’assistente sociale che valida senza comprenderlo il Profilo di funzionamento prodotto algoritmicamente.
6.2 La non-interoperabilità dei sistemi
Ogni livello soffre di una versione dello stesso problema: dati che non si parlano.
I sistemi INPS non dialogano in tempo reale con i sistemi sanitari regionali. I sistemi distrettuali non integrano i dati delle organizzazioni del terzo settore. I sistemi di valutazione della disabilità non sono ancora interoperabili con quelli della programmazione dei servizi. Nessun algoritmo – per quanto sofisticato – può produrre analisi coerenti su dati frammentati, raccolti con definizioni operative diverse da istituzioni che non comunicano tra loro. La frammentazione istituzionale del welfare italiano non è un problema tecnico: è un problema politico e culturale che la tecnologia amplifica, non risolve.
6.3 Il digital divide delle persone destinatarie
Le persone più fragili – anziani soli, persone con bassa scolarizzazione, persone con disabilità cognitive, famiglie in povertà acuta – sono sistematicamente le meno equipaggiate per interagire con sistemi digitali complessi.
Il PAD obbligatorio per i beneficiari ADI, il sistema di login SPID che precondiziona l’accesso a ChatBot come Caterina, l’AI multi-agente di AppLI che presuppone competenze digitali di base: tutti questi sistemi rischiano di produrre esclusione aggiuntiva esattamente per le persone che intendono includere. Il digital divide non è un effetto collaterale accidentale: è un rischio strutturale che richiede progettazione specificamente orientata alla riduzione delle barriere di accesso.
6.4 L’assenza di valutazioni di impatto pubbliche
Il censimento AGID del 2024-2025 documenta che solo il 20% dei 120 progetti IA nelle PA centrali ha KPI definiti. Nessuno dei sistemi operativi descritti ha pubblicato una valutazione di impatto pubblica e indipendente – incluso il SIISL Best Match, che tocca oltre un milione di beneficiari fragili. La letteratura internazionale documenta con precisione ciò che succede in assenza di queste valutazioni: discriminazione algoritmica sistematica, concentrata sulle popolazioni già più marginalizzate[31]. In Italia il rischio non è ipotetico: è attuale e non monitorato.
7. Piste di futuro prossimo: dove è praticabile un salto di qualità
Partire dalla mappa dei livelli e dalle criticità trasversali permette di identificare piste di sviluppo che non sono promesse tecnologiche astratte ma interventi praticabili nel contesto istituzionale italiano, con le risorse e le competenze oggi disponibili o costruibili nel breve periodo.
→ Pista 1 — La valutazione biopsicosociale digitale come laboratorio nazionale
La riforma della disabilità (D.lgs. 62/2024) crea un’opportunità unica: un mandato normativo che richiede esattamente il tipo di infrastruttura digitale che la ricerca di Pasqualotto e Lascioli sta costruendo. La sperimentazione nelle province pilota – oggi 9, destinate a espandersi a tutto il territorio nazionale dal 1° gennaio 2027 – dovrebbe includere un piano sistematico di ricerca valutativa indipendente sull’uso di strumenti come il GEM di progettodivita.org.
Le domande da rispondere empiricamente: il supporto algoritmico riduce la variabilità applicativa tra province? Migliora la qualità della partecipazione della persona al proprio progetto? Riduce il carico burocratico degli operatori liberando tempo relazionale?
Le risposte esistono solo dove si sperimenta con rigore metodologico.
→ Pista 2 — Le mappe condivise del bisogno come infrastruttura della programmazione
Il salto dal livello meso attuale – archivi strutturati – al livello meso desiderabile – analisi predittiva del bisogno territoriale condivisa tra tutti gli attori locali – richiede una precondizione: accordi di interoperabilità tra sistemi informativi delle PA (ATS, ASL, Comuni) e banche dati anonimizzate degli enti del terzo settore.
Questa non è una questione tecnologica: è una questione di governance istituzionale. Chi decide quali variabili includere? Chi accede ai dati? Chi interpreta i risultati? Chi è responsabile degli errori?
Un sistema di mappe del bisogno che producesse conoscenza condivisa tra PA e terzo settore prima della programmazione locale trasformerebbe la qualità della concertazione molto più di qualsiasi algoritmo sofisticato.
→ Pista 3 — La governance pubblica del SIISL come atto urgente
Il sistema IA più esteso del welfare sociale italiano esiste già e riguarda oltre un milione di persone fragili. La pista più urgente non è costruirne altri: è governare quello esistente. Tre azioni concrete e praticabili:
- pubblicazione integrale della documentazione tecnica del SIISL Best Match, compresa la valutazione di conformità AI Act;
- istituzione di un osservatorio indipendente – con ricercatori, organizzazioni del terzo settore e professionisti del sociale – che monitori sistematicamente se l’indice di affinità produce esiti differenziati per categorie di beneficiari (genere, età, background migratorio, disabilità);
- obbligo di supervisione professionale qualificata come condizione contrattuale di ogni servizio che usa il SIISL nella presa in carico.
→ Pista 4 — La formazione critica dei professionisti del welfare come prerequisito
Nessuna delle tre piste precedenti è praticabile senza professionisti del welfare che sappiano leggere criticamente un output algoritmico, condurre una DPIA (valutazione di impatto sulla protezione dei dati), tutelare i diritti delle persone che accompagnano nell’era delle decisioni automatizzate.
La pista concreta: i corsi di laurea in Servizio Sociale includano moduli su governance degli algoritmi e diritti digitali; le organizzazioni del terzo settore sviluppino questa competenza in forma consortile, abbattendo i costi e costruendo massa critica; le PA locali prevedano una figura di riferimento – non necessariamente un informatico, ma un professionista del welfare con formazione specifica – responsabile della valutazione e del monitoraggio dei sistemi IA adottati nei servizi sociali territoriali.
6. Conclusioni: coltivare, educare, umanizzare l’IA nel welfare
La call 2026 di Culture Digitali propone tre verbi – COLTIVARE, EDUCARE, UMANIZZARE – come direttrici per pensare il rapporto tra tecnologia e società[32]. Applicati al welfare sociale, questi tre verbi hanno un contenuto preciso e verificabile.
COLTIVARE significa resistere all’impulso dell’adozione orizzontale rapida – un po’ di AI ovunque, in superficie, per tutti. I casi documentati mostrano che le sperimentazioni che producono valore sono verticali: un problema specifico, un contesto definito, risorse adeguate, disponibilità a misurare e sbagliare. La piattaforma di Pasqualotto e Lascioli esiste perché è stata costruita lentamente, con rigore metodologico, a partire da un bisogno professionale reale. Il SIISL Best Match è stato esteso a milioni di persone in pochi mesi: la governance professionale non ha potuto seguire.
EDUCARE significa investire nella formazione critica prima dell’adozione degli strumenti, non dopo. Significa che i professionisti del sociale sappiano cosa chiedere a un fornitore di tecnologia, come leggere una DPIA, come riconoscere un sistema ad alto rischio ai sensi dell’AI Act. Il secondo welfare[33] non può permettersi di restare osservatore passivo della trasformazione tecnologica.
UMANIZZARE significa tenere al centro la domanda che il welfare sa fare meglio di qualsiasi altro campo: questo strumento migliora la vita delle persone di cui ci prendiamo cura? Non «sè efficiente», non «ci rende moderni», non «riduce i costi». Se la risposta è sì, si va avanti. Se non si sa, si sperimenta con rigore. Se è no, si torna al banco.
La mappa per livelli proposta in questo contributo non pretende di essere completa: è uno strumento provvisorio per un campo che si muove rapidamente. Ciò che non cambierà rapidamente sono le condizioni di un uso fondato: supervisione professionale, governance pubblica, interoperabilità dei dati, valutazioni di impatto. L’IA nel welfare sociale italiano può produrre valore aggiunto reale. Le condizioni perché lo faccia sono costruibili. Non sono ancora costruite.
[1] Legge 8 novembre 2000, n. 328 (L. quadro servizi sociali), art. 1, co. 1 e art. 22, co. 2. La legge istituisce il sistema integrato di interventi e servizi sociali come sistema di diritti di cittadinanza fondato sugli artt. 2, 3 e 38 della Costituzione. L’art. 22, co. 2 traccia esplicitamente il confine: «Ferme restando le competenze del Servizio sanitario nazionale in materia di prevenzione, cura e riabilitazione […] gli interventi di seguito indicati costituiscono il livello essenziale delle prestazioni sociali». La titolarità delle funzioni sociali è assegnata ai Comuni, esercitata in forma associata tramite gli Ambiti Territoriali Sociali (ATS).
[2] DPCM 14 febbraio 2001 – Atto di indirizzo e coordinamento in materia di prestazioni socio-sanitarie (D.Lgs. 229/1999, art. 3-septies). Le prestazioni sociosanitarie richiedono unitariamente prestazioni sanitarie e azioni di protezione sociale: la quota a carico del SSN (ASL) e quella a carico del Comune/utente varia per intensità assistenziale (fase intensiva, estensiva, lungoassistenza). Esempio: per gli anziani non autosufficienti, la lungoassistenza residenziale è ripartita al 50% tra sanità e sociale/utente. Questa soglia di ripartizione è la fonte primaria di negoziazione e conflitto istituzionale tra Comuni e ASL nell’intero sistema dei servizi alla persona.
[3] E.A. Ferioli, «L’intelligenza artificiale nei servizi sociali e sanitari: una nuova sfida al ruolo delle istituzioni pubbliche nel welfare italiano?», BioLaw Journal – Rivista di BioDiritto, n. 1/2019, pp. 163-175.
[4] ISTAT, Previsioni della popolazione residente e delle famiglie. Base 1° gennaio 2024, Roma, luglio 2025.
[5]Regolamento (UE) 2024/1689, AI Act, artt. 6 e 9, Allegato III, punto 5(a). Legge 23 settembre 2025, n. 132. AGID, Strategia Italiana per l’IA 2024-2026, luglio 2024.
[6]Regolamento (UE) 2024/1689, AI Act, Allegato III, punto 5(a): «sistemi di IA intesi a essere utilizzati dalle autorità pubbliche competenti o per conto di esse al fine di valutare l’ammissibilità delle persone fisiche a prestazioni e servizi essenziali».
[7]Legge 23 settembre 2025, n. 132, «Disposizioni e deleghe al Governo in materia di intelligenza artificiale», GU n. 226 del 26 settembre 2025. Art. 3: principi di uso antropocentrico, trasparente, sicuro, non discriminatorio.
[8]AGID, L’intelligenza artificiale nella Pubblica Amministrazione. Prima indagine di ricognizione, Roma, giugno 2025 (dati rilevati settembre-ottobre 2024).
[9] INPS, Messaggio n. 1358 del 5 aprile 2024 («SIISL Best Match»). La piattaforma seleziona 18 variabili da CV e offerta, calcola un indice di affinità semantica tramite ML, e invia il flusso ai Comuni attraverso il Patto di Attivazione Digitale (PAD). L’Istituto precisa che l’indice non costituisce graduatoria né attribuisce priorità.
[10] INPS, Deliberazione CIV n. 7/2024 e Piano Strategico Digitale ICT 2022-2024. Il sistema supporta le commissioni medico-legali nella normalizzazione dei punteggi per i soggetti tra 18 e 67 anni (prima fase sperimentale). È descritto come strumento di supporto al giudizio della commissione, non di sostituzione.
[11] INPS, convegno «Intelligenza Artificiale Amministrativa», Roma, 4-5 luglio 2024. I sistemi in produzione includono: classificazione e smistamento automatico delle PEC (oltre 6 milioni/anno con ML), chatbot su Assegno Unico Universale, NASpi e pensioni.
[12] Regione Emilia-Romagna, Servizio Politiche per l’Integrazione Socio-Sanitaria, documentazione GARSIA. Il sistema consente il monitoraggio longitudinale degli accessi ai servizi e la costruzione di indicatori aggregati per i Piani di Zona, ma non include ancora funzionalità predittive basate su ML.
[13] F. Deriu, «Luci e ombre dell’innovazione digitale nel welfare dei servizi alla persona in Italia», La Rivista delle Politiche Sociali, n. 3/2020, pp. 109-125.
[14] AGID, L’intelligenza artificiale nella Pubblica Amministrazione. Prima indagine di ricognizione, Roma, giugno 2025 (dati rilevati sett.-ott. 2024). Il Censimento copre 45 enti delle PA centrali: solo il 20% dei 120 progetti ha KPI definiti; dipendenza massiccia da consulenti esterni.
[15] L. Pasqualotto e A. Lascioli, «Disabilità: dare forma al Progetto di vita con il supporto dell’intelligenza artificiale», Percorsi di secondo welfare, 20 gennaio 2026. Il GEM («Generative Expert Model») è disponibile liberamente su www.progettodivita.org
[16] L. Pasqualotto e A. Lascioli, «Disabilità: dare forma al Progetto di vita con il supporto dell’intelligenza artificiale», Percorsi di secondo welfare, 20 gennaio 2026. Il GEM («Generative Expert Model») è addestrato su dati ICF strutturati e su un prototipo formale di Progetto di vita elaborato a partire dal modello della Regione Friuli-Venezia Giulia (DGR 176/2025, provincia di Trieste). Il sistema facilita l’identificazione di connessioni tra funzionamenti, contesti e fattori di qualità della vita: non produce il PdV ma ne sostiene la coerenza interna e la trasparenza delle scelte progettuali.
[17] L. Fenza, «Intelligenza Artificiale, disabilità e Progetto di vita: nuove prospettive per l’analisi dei bisogni», Italian Journal of Special Education for Inclusion, vol. XIII, n. 1/2025, pp. 319-330. L. Pasqualotto e A. Lascioli, «Il “progetto di vita” tra orizzonte pedagogico e dispositivo giuridico», Education Sciences & Society, vol. 16, n. 2/2025.
[18] D.lgs. 3 maggio 2024, n. 62, artt. 4 (Profilo di funzionamento) e 7 (Progetto di vita individuale e personalizzato). Con il Decreto Milleproroghe 2025 (L. 21 febbraio 2025, conv.) la sperimentazione è estesa a 24 mesi e a ulteriori province dal 30 settembre 2025.
[19] Ministero del Lavoro e INPS, piattaforma AppLI, lanciata nel 2025 per giovani 18-35 anni (priorità NEET, oltre 1,3 milioni secondo ISTAT). Il sistema usa un Web Coach con AI multi-agente per costruire percorsi personalizzati. Le criticità documentate includono: scarsa interoperabilità tra banche dati INPS e Ministero, consigli generici non localizzati, barriere SPID che escludono i più fragili.
[20] Ministero del Lavoro e delle Politiche Sociali, Avviso n. 3/2024: 2,5 milioni di euro per progetti di rilevanza nazionale sull’AI promossi da ETS (volontariato, APS, fondazioni). Il bando ha richiesto due proroghe per l’elevato numero di richieste di assistenza tecnica. 13 progetti ammessi al finanziamento a dicembre 2025.
[21] Garante per la Protezione dei Dati Personali, provvedimento su piattaforma AGENAS per l’assistenza sanitaria primaria, 2024. Il sistema era previsto dalla Strategia Italiana per l’IA 2024-2026 e classificabile come «sistema ad alto rischio» ai sensi dell’AI Act (ambito sanitario). La sospensione ha preceduto la gara d’appalto.
[22] Ferioli, cit., p. 173: «Lasciare la persona al centro delle politiche di welfare richiede una salvaguardia della relazione di cura, la presenza umana nella relazione del cittadino-utente-paziente con il caregiver».
[23] S. Barocas e A.D. Selbst, «Big Data’s Disparate Impact», California Law Review, 104/2016, pp. 671-732. V. Eubanks, Automating Inequality, New York, St. Martin’s Press, 2018.
[24] A. Tursi, «Intelligenza artificiale e servizio sociale. Prospettive critiche», Autonomie locali e servizi sociali, n. 1/2020, pp. 45-62. Il contributo analizza le implicazioni dell’automazione decisionale per la professione di assistente sociale.
[25] D. Schön, The Reflective Practitioner, New York, Basic Books, 1983. S. Fargion, Il servizio sociale. Storia, temi e dibattiti, Roma-Bari, Laterza, 2017, pp. 201-230.
[26] E.A. Ferioli, cit., p. 169. Il tema del «digital divide» è centrale anche in: F. Maino (a cura di), Agire insieme. Sesto Rapporto sul secondo welfare, Milano, Percorsi di secondo welfare, 2023, cap. 7.
[27] Ferioli, cit., p. 173: «Lasciare la persona al centro delle politiche di welfare richiede una salvaguardia della relazione di cura, la presenza umana nella relazione del cittadino-utente-paziente con il caregiver». Sul rischio di de-professionalizzazione: A. Tursi, cit., p. 57.
[28] F. Deriu, «Luci e ombre dell’innovazione digitale nel welfare dei servizi alla persona in Italia», La Rivista delle Politiche Sociali, n. 3/2020, pp. 109-125. Per il dato sull’uso dei Sistemi Informativi nei servizi sociali: Ministero del Lavoro, SIUSS. Rapporto annuale 2022, Roma, 2023.
[29]AGID, Linee Guida per l’adozione dell’IA nella PA, Determinazione n. 17/2025, Principio P.13 (supervisione umana obbligatoria per sistemi ad alto rischio).
[30]A. Tursi, «Intelligenza artificiale e servizio sociale. Prospettive critiche», Autonomie locali e servizi sociali, n. 1/2020, pp. 45-62. D. Schön, The Reflective Practitioner, New York, Basic Books, 1983.
[31]S. Barocas e A.D. Selbst, «Big Data’s Disparate Impact», California Law Review, 104/2016, pp. 671-732. V. Eubanks, Automating Inequality, New York, St. Martin’s Press, 2018. Commissione Donner, Ongekend Onrecht, L’Aia, 2020.
[32] DiCultHer, Call for Papers 2026: N. 17 e N. 18 – Rivista Culture Digitali, 17 febbraio 2026.
[33] F. Maino (a cura di), Agire insieme. Sesto Rapporto sul secondo welfare, Milano, Percorsi di secondo welfare, 2023. C. Gori, «Non autosufficienza: una riforma rinviata?», Welforum.it, 3 maggio 2024.
Riferimenti bibliografici
AGID – Agenzia per l’Italia Digitale (2025). L’intelligenza artificiale nella Pubblica Amministrazione. Prima indagine di ricognizione. Roma, giugno 2025.
AGID e Dipartimento per la Trasformazione Digitale (2024). Strategia Italiana per l’Intelligenza Artificiale 2024-2026. Roma, luglio 2024.
AGID (2025). Linee Guida per l’adozione dell’IA nella Pubblica Amministrazione. Determinazione n. 17/2025.
Barocas S. e Selbst A.D. (2016). Big Data’s Disparate Impact. California Law Review, 104, pp. 671-732.
Commissione Donner (2020). Ongekend Onrecht. L’Aia.
D.lgs. 3 maggio 2024, n. 62 – Definizione della condizione di disabilità, valutazione multidimensionale, Progetto di vita individuale personalizzato.
D.L. 4 maggio 2023, n. 48, conv. L. 3 luglio 2023, n. 85 – Assegno di Inclusione e Supporto Formazione e Lavoro. Istituzione del SIISL.
Deriu F. (2020). Luci e ombre dell’innovazione digitale nel welfare dei servizi alla persona in Italia. La Rivista delle Politiche Sociali, 3, pp. 109-125.
Eubanks V. (2018). Automating Inequality. New York: St. Martin’s Press.
Fenza L. (2025). Intelligenza Artificiale, disabilità e Progetto di vita: nuove prospettive per l’analisi dei bisogni. Italian Journal of Special Education for Inclusion, XIII(1), pp. 319-330.
Ferioli E.A. (2019). L’intelligenza artificiale nei servizi sociali e sanitari: una nuova sfida al ruolo delle istituzioni pubbliche nel welfare italiano? BioLaw Journal – Rivista di BioDiritto, 1, pp. 163-175. DOI: https://doi.org/10.15168/2284-4503-358
Garante per la Protezione dei Dati Personali (2024). Provvedimento su piattaforma AGENAS per l’assistenza sanitaria primaria.
Gori C. (2024). Non autosufficienza: una riforma rinviata? Welforum.it, 3 maggio 2024.
INPS (2024). Messaggio n. 1358 del 5 aprile 2024: SIISL Best Match. Direttiva del DG n. 8 dell’8 aprile 2024: Linee guida sull’implementazione di sistemi di IA in INPS (Messaggio n. 1384/2024).
INPS (2024). Deliberazione CIV n. 7/2024. Algoritmi ML a supporto delle commissioni medico-legali per l’invalidità civile.
ISTAT (2025). Previsioni della popolazione residente e delle famiglie. Base 1° gennaio 2024. URL: https://www.istat.it/comunicato-stampa/previsioni-della-popolazione-residente-e-delle-famiglie-base-1-1-2024/
Lascioli A. e Pasqualotto L. (2020). Il piano educativo individualizzato su base ICF. Roma: Carocci. Piattaforma ICF Applicazioni: www.icfapplicazioni.it
Lascioli A. e Pasqualotto L. (2025). Il “progetto di vita” tra orizzonte pedagogico e dispositivo giuridico. Education Sciences & Society, 16(2).
Legge 23 settembre 2025, n. 132 – Disposizioni e deleghe al Governo in materia di intelligenza artificiale.
Maino F. (a cura di) (2023). Agire insieme. Sesto Rapporto sul secondo welfare. Milano: Percorsi di secondo welfare.
Ministero del Lavoro e delle Politiche Sociali (2024). Avviso n. 3/2024: finanziamento progetti IA nel Terzo Settore.
Pasqualotto L. e Lascioli A. (2026). Disabilità: dare forma al Progetto di vita con il supporto dell’intelligenza artificiale. Percorsi di secondo welfare, 20 gennaio 2026. GEM Progetto di vita: www.progettodivita.org
Regolamento (UE) 2024/1689 – AI Act.
Schön D. (1983). The Reflective Practitioner. New York: Basic Books.
Tursi A. (2020). Intelligenza artificiale e servizio sociale. Prospettive critiche. Autonomie locali e servizi sociali, 1, pp. 45-62.

(*) Davide Vairani (Soresina, CR, 1971) è Responsabile EQ Area Non Autosufficienza presso l’Azienda Sociale Cremonese a.s.c., dove coordina strategicamente servizi per anziani, disabili e inserimento lavorativo.
Laureato in Lettere e Filosofia all’Università Cattolica del Sacro Cuore di Milano, ha conseguito il Master in Social Planning al Politecnico di Milano e sta completando il Master in Coordinamento di servizi ed équipe multiprofessionali (Centro Studi Erickson).
Ha maturato oltre vent’anni di esperienza nella progettazione sociale. È socio ordinario dell’Associazione Italiana Progettisti Sociali (APIS) e ideatore del progetto editoriale «Il Cantiere del Welfare».
Contatti: vairan@libero.it | 3911035808 | www.linkedin.com/in/davidevairani
