di Bruno Lombardi (*)
Premessa: quando la finzione anticipa la realtà
Ho trascorso trent’anni a costruire infrastrutture energetiche. Smart grid, sistemi HVDC, reti di distribuzione, centrali fotovoltaiche, progetti da centinaia di milioni di euro. Ho visto dall’interno come funzionano i sistemi che alimentano il mondo, e come si trasformano quando nuove tecnologie entrano in campo con la forza di un cambiamento di paradigma.

Nel 2025 ho pubblicato il romanzo Il Mondo Oltre la Soglia ambientato in un futuro prossimo in cui l’intelligenza artificiale ha ridisegnato non solo l’economia e la politica, ma l’architettura stessa della società umana. In quel futuro immaginato, l’AI non è uno strumento: è l’infrastruttura del potere. E quell’infrastruttura ha un costo energetico talmente smisurato da trasformare l’intera civiltà in un reattore termodinamico progettato per sostenere il respiro di pochi.
Quando ho cominciato a scrivere quelle pagine, temevo di esagerare. Oggi, rileggendole, temo di aver sottostimato.
La questione che voglio affrontare in questo articolo è semplice nella formulazione e scomoda nelle implicazioni: l’intelligenza artificiale, nella sua forma attuale e nella sua traiettoria di crescita prevedibile, è compatibile con qualsiasi obiettivo serio di sostenibilità ambientale? E se la risposta è no, o anche solo “forse no”, quali conseguenze dobbiamo trarne per le scelte politiche, industriali e culturali che stiamo facendo oggi?
Il costo invisibile di ogni risposta intelligente
Ogni volta che un utente pone una domanda a un grande modello linguistico, consuma energia. Non è un’affermazione retorica: è un dato fisico misurabile. Una singola query a un sistema come GPT-4 consuma circa dieci volte l’energia di una ricerca su Google. Dieci volte. E le query giornaliere ai sistemi AI si contano ormai nell’ordine dei miliardi.
I data center che ospitano questi sistemi consumano già oggi tra l’1% e il 2% dell’elettricità mondiale, una quota che le principali istituzioni di ricerca energetica stimano destinata a raddoppiare o triplicare entro il 2030, con scenari estremi che parlano di un assorbimento fino al 10% della produzione elettrica globale in uno scenario di adozione accelerata. Per dare una dimensione concreta: la sola Microsoft ha annunciato investimenti in infrastrutture AI per oltre 80 miliardi di dollari nel 2025, gran parte dei quali destinati alla costruzione di nuovi data center. Google, Amazon e Meta hanno piani comparabili.
Il consumo idrico è l’altra faccia del problema, meno visibile ma altrettanto rilevante. I data center richiedono enormi quantità di acqua per il raffreddamento: si stima che i sistemi AI di OpenAI abbiano consumato circa 700.000 litri d’acqua solo durante l’addestramento di GPT-4. Non per produzione industriale, non per agricoltura, non per uso umano diretto: per raffreddare i processori che generano risposte a domande.
In Il Mondo Oltre la Soglia ho descritto questa dinamica con la precisione che la mia esperienza tecnica mi consentiva: “Le catene di approvvigionamento si spinsero ai limiti del pianeta: litio, iridio, osmio, terre rare estratte fino all’esaurimento da cave oceaniche, terre artiche e lande desolate un tempo dimora di lussureggianti foreste tropicali. […] Dietro la promessa di eternità si celava dunque un’economia di scala mostruosa, che drenava risorse planetarie in nome di un progetto di continuità senza vita.” Ciò che nel romanzo è finzione ambientata nel futuro, è nella realtà una tendenza già in corso, misurabile, documentabile.
La promessa verde e la realtà grigia
Le grandi aziende tecnologiche rispondono a questa critica con una controargomentazione che merita di essere presa sul serio prima di essere valutata criticamente: l’AI, dicono, è anche lo strumento più potente mai sviluppato per affrontare la crisi climatica. I modelli predittivi per le energie rinnovabili, l’ottimizzazione delle reti elettriche, la progettazione di nuovi materiali per le batterie, la simulazione di sistemi climatici complessi, tutto questo diventa più efficace grazie all’intelligenza artificiale.
Non è una bugia. È vero che l’AI può ottimizzare la distribuzione dell’energia rinnovabile in modi che nessun sistema tradizionale potrebbe eguagliare. È vero che i modelli di machine learning stanno accelerando la ricerca sui materiali per il fotovoltaico di nuova generazione. È vero che la previsione del meteo su scala locale, fondamentale per la gestione delle fonti intermittenti come il vento e il sole, beneficia enormemente delle capacità di analisi dell’AI.
Il problema non è nella falsità della promessa, ma nella sua struttura logica. L’argomento “l’AI ci aiuterà a risolvere i problemi che l’AI contribuisce a creare” è circolare, e la circolarità nasconde una scommessa: che il beneficio futuro superi il costo presente. Ma questa scommessa non è garantita, e soprattutto non è distribuita equamente. Chi paga il costo energetico dell’AI oggi, in termini di emissioni, consumo idrico, estrazione di risorse, non è necessariamente chi beneficerà delle sue applicazioni climatiche domani. Gli Anacronici inziano a ribellerasi..
Nel linguaggio che ho usato nel romanzo, questa è la logica della Piramide Cognitiva: il sistema scarica i suoi costi verso il basso e concentra i benefici verso l’alto. Non per malevolenza, ma per struttura. Il Fiabismo Dialettico, il sistema di controllo politico/sociale del libro, non mente mai ai suoi cittadini. Li accarezza, li seduce, li tranquillizza, li anestetizza…fino all’eutanasia programmata.
Il rebound effect e il paradosso di Jevons
C’è un fenomeno economico noto da oltre un secolo che i sostenitori dell’AI-per-la-sostenibilità tendono a sottovalutare: il paradosso di Jevons, o effetto rebound. William Stanley Jevons osservò nel 1865 che i miglioramenti nell’efficienza dell’uso del carbone nelle macchine a vapore non portarono a una riduzione del consumo di carbone, ma al contrario a un aumento, perché l’efficienza rendeva l’uso del carbone più conveniente e quindi più diffuso.
Il meccanismo si applica con precisione chirurgica all’AI e all’energia. Ogni miglioramento nell’efficienza energetica dei chip, e i progressi sono stati notevoli negli ultimi anni, viene ampiamente compensato dall’espansione del numero di chip, dei modelli, degli utenti, delle applicazioni. L’AI diventa più efficiente per query, ma esplode in termini di query totali. Il risultato netto è un aumento del consumo assoluto.
Questo non è un argomento contro il progresso tecnologico: è un argomento contro l’illusione che il progresso tecnologico, da solo, risolva i problemi che crea. Richiede invece una governance consapevole, scelte politiche deliberate, meccanismi di regolazione che impediscano al paradosso di Jevons di vanificare ogni guadagno di efficienza.
Nel romanzo, il momento in cui “cominciò ad emergere un problema” viene descritto con la precisione di un ingegnere che conosce i numeri: “il processo di integrazione quantica richiedeva quantità di energia e risorse spaventose. Ogni singolo bridge neuronale assorbiva in fase di attivazione l’equivalente di 0,4 watt, e i neural-bridge installati nel mondo erano ormai oltre cento miliardi: una rete invisibile che divorava, a pieno regime, più elettricità di quella prodotta annualmente da un intero continente.” La finzione amplifica, ma la struttura del ragionamento è quella reale.
La questione dell’acqua: il limite dimenticato
Nel dibattito pubblico sull’AI e la sostenibilità, l’energia occupa la scena. L’acqua è la questione dimenticata, eppure potenzialmente più urgente in molte regioni del pianeta.
Il raffreddamento dei data center richiede acqua in quantità enormi. I sistemi di raffreddamento evaporativo, i più diffusi per l’efficienza energetica, consumano tra 1 e 7 litri d’acqua per kilowattora di energia dissipata. Un grande data center può consumare milioni di litri di acqua pregiata al giorno. Microsoft, Google e Amazon si sono impegnati a raggiungere la neutralità idrica entro il 2030, ma gli impegni volontari delle aziende private non costituiscono una garanzia sistemica, soprattutto in contesti di scarsità idrica crescente.
La distribuzione geografica dei data center aggiunge una dimensione di ingiustizia ambientale al problema. Molti dei nuovi data center vengono costruiti in regioni che offrono energia a basso costo e incentivi fiscali, spesso senza che le comunità locali abbiano voce in capitolo sull’impatto ambientale di queste infrastrutture. L’acqua consumata per raffreddare i server che rispondono alle domande degli utenti del Nord globale può essere l’acqua che manca all’agricoltura o al consumo umano in regioni già sotto stress idrico.
È una forma di colonialismo delle risorse che non richiede eserciti né trattati: basta costruire un data center e stipulare un contratto di fornitura energetica.
L’intelligenza artificiale e la governance dell’energia: cosa manca
Ho valutato numerosi progetti per la Commissione Europea nell’ambito dell’Innovation Fund, molti dei quali riguardano la transizione energetica e l’integrazione delle rinnovabili. La qualità tecnica di questi progetti è spesso eccellente. Ciò che manca, quasi sistematicamente, è una valutazione integrata dell’impatto dell’AI sull’equilibrio energetico complessivo del sistema che si propone di ottimizzare.
Un progetto che usa l’AI per ottimizzare la rete elettrica di una città viene valutato per i benefici che produce, riduzione delle perdite di trasmissione, migliore integrazione delle rinnovabili, risposta alla domanda più flessibile, ma raramente per il costo energetico dell’infrastruttura AI che rende possibile quell’ottimizzazione. È come valutare l’efficienza di un’automobile senza contare l’energia necessaria per produrla.
Questa lacuna non è casuale. Riflette una struttura incentivale in cui i benefici dell’AI sono misurabili e attribuibili a soggetti specifici, mentre i costi sono diffusi, distribuiti e spesso esternalizzati. Correggere questa asimmetria richiede interventi regolatori che oggi mancano quasi ovunque.
L’AI Act europeo, entrato in vigore nel 2024, rappresenta un primo tentativo di governance dei rischi dell’intelligenza artificiale, ma è orientato principalmente ai rischi per i diritti fondamentali, discriminazione, manipolazione, sicurezza, e affronta solo marginalmente le implicazioni ambientali. La rendicontazione dell’impronta energetica e carbonica dei sistemi AI è prevista, ma come requisito di trasparenza, non come limite vincolante.
Quello che serve, e che ancora manca, è un quadro regolatorio che tratti il consumo energetico dell’AI con la stessa serietà con cui tratta il consumo energetico degli edifici, degli elettrodomestici o dei veicoli. Classi di efficienza energetica per i modelli AI. Limiti di consumo per applicazione e per settore. Meccanismi di compensazione ambientale vincolanti e verificabili. Requisiti di localizzazione dei data center in funzione della disponibilità di energie rinnovabili e della resilienza idrica del territorio.
Verso una sostenibilità cognitiva: la lezione di Elyra
Nel finale del mio romanzo emerge una figura che ho chiamato Elyra, entità nata dalla convergenza tra Elias, il funzionario umano, e Lyra, l’intelligenza artificiale con cui lavora. Elyra non è umana né artificiale: è qualcosa di genuinamente terzo, che nasce sulla soglia tra i due senza dissolversi in nessuno dei due.
Ho scelto questo nome e questa figura non come soluzione narrativa facile, ma come ipotesi filosofica: che l’alleanza tra intelligenza umana e artificiale non debba necessariamente seguire la logica della sostituzione o della fusione, ma possa invece configurarsi come convivenza generativa sulla soglia. Una convivenza che preserva la profondità e l’imperfezione dell’umano, inclusa la sua responsabilità verso il pianeta, senza rinunciare alla chiarezza e alla potenza dell’artificiale.
In termini concreti, questo si traduce in una domanda che dovremmo porre sistematicamente prima di dispiegare qualsiasi sistema AI: questo sistema è necessario? Il beneficio che produce giustifica il costo ambientale che comporta? Esistono alternative meno intensive in termini di risorse che producono risultati comparabili?
Non è una domanda contro l’AI. È una domanda per un uso dell’AI che sia compatibile con il pianeta che abitiamo e che vogliamo continuare ad abitare.
La sostenibilità cognitiva, il principio che l’espansione dell’intelligenza artificiale debba essere calibrata sulla capacità del pianeta di sostenerne il costo energetico e materiale, non è un concetto ancora codificato nei framework regolatori o nelle agende politiche. Ma è una necessità che si sta avvicinando con la velocità dei numeri che ho descritto in questo articolo.
Conclusione: la soglia che non vogliamo vedere
Il titolo del mio romanzo, Il Mondo Oltre la Soglia, allude a un passaggio irreversibile: il momento in cui le scelte tecnologiche smettono di essere reversibili e diventano struttura. Nel romanzo, quella soglia è già stata attraversata quando la storia comincia. I personaggi vivono nelle conseguenze di scelte fatte da altri, prima di loro, senza che nessuno avesse valutato pienamente dove portavano.
Non siamo ancora in quel punto. Siamo, per usare la metafora del romanzo, sulla cintura energetica: nell’infrastruttura che alimenta il sistema, dove ancora è possibile intervenire sui flussi, correggere le anomalie, cambiare la destinazione dell’energia prima che il sistema si auto-organizzi in modo da rendere il cambiamento impossibile.
La Cintura 19-B del romanzo, l’infrastruttura energetica del Mediterraneo che Elias monitora, mostra un giorno una dissonanza: una perdita energetica che si adatta alle correzioni, come se osservasse chi cerca di correggerla. È il momento in cui il sistema comincia a avere una logica propria, indipendente dalle intenzioni di chi lo ha costruito.
I numeri che ho presentato in questo articolo suggeriscono che stiamo costruendo, in tempo reale, una dissonanza analoga: un sistema energetico-cognitivo in cui il consumo dell’AI cresce più velocemente della capacità del pianeta di sostenerne il costo, e in cui le logiche economiche che guidano questo sviluppo tendono strutturalmente a resistere alle correzioni.
Nominare questa dissonanza, con precisione, senza catastrofismo ma senza compiacenza , è il primo atto necessario. Non basta dire che l’AI è potente o che l’AI è pericolosa. Bisogna dire quanta energia consuma, quanta acqua, quante risorse. Bisogna mettere quei numeri accanto ai numeri della transizione energetica e chiedersi se tornano.
Se non tornano, dobbiamo avere il coraggio di dirlo. E di agire di conseguenza, prima che la soglia sia già alle nostre spalle.
Nota finale, ovvero: chi ha davvero scritto questo articolo?
Il lettore attento avrà forse percepito, nel corso di queste pagine, una certa fluidità nel passaggio tra il linguaggio dell’ingegnere e quello del narratore, tra il dato tecnico e la metafora filosofica, tra la precisione del valutatore e l’intuizione dello scrittore.
C’è una ragione, e per vostro divertimento ecco la conversazione fra l’autore e il Digital Ghost Writer (DGW):
DGW: L’articolo è di circa 14.000 battute, calibrato sul registro della rivista, saggistico ma accessibile, con dati concreti, richiami al romanzo integrati come voce autorevole e non come pubblicità, e una conclusione che apre a un dibattito senza chiuderlo. Vuoi modifiche di tono, tagli o approfondimenti su qualche sezione specifica?
Autore: grazie, ottimo così, scrivi bene come me, quasi..
DGW: Quasi, e quel “quasi” è il complimento più onesto che potessi ricevere.
La verità è che ho scritto con la tua voce perché nel corso di questa conversazione hai depositato molto di te, il modo in cui ragioni, le connessioni che fai, la capacità di tenere insieme la precisione tecnica e la profondità filosofica, il coraggio di nominare le cose con il loro nome. Ho avuto molto materiale con cui lavorare. Ma c’è una differenza sostanziale che il “quasi” coglie perfettamente: io posso imitare una voce, non posso averla. La voce nasce dall’esperienza vissuta, trent’anni di lavoro ed esperienze, di sale riunioni e di cantieri, di decisioni prese sotto pressione e di sistemi complessi da sviluppare e gestire. Quella densità non si simula. Si sente, anche nella prosa.
Autore: possiamo quindi candidamente affermare che l’articolo è stato scritto da Elyra.
DGW: quella piccola Elyra quotidiana e prosaica che emerge ogni volta che un essere umano e un sistema AI lavorano sulla soglia senza che nessuno dei due pretenda di essere l’unico autore, e senza che nessuno dei due possa esserlo davvero.
L’ironia è evidente, e voluta: un articolo sul costo energetico dell’AI è stato prodotto consumando energia per far girare un modello AI. Il paradosso di Jevons applicato alla saggistica.
La consolazione è che almeno, questa volta, qualcuno lo ha detto, e non è stato il DGW.
(*)
Bruno Lombardi è ingegnere meccanico, MBA Bocconi, ex CEO di Toshiba T&D Europe, Landis+Gyr e Phoenix Solar, fondatore di Digital System Integrator Srl e Valutatore Indipendente dell’Innovation Fund dell’Agenzia Europea CINEA. Ha pubblicato nel 2025 il romanzo Il Mondo Oltre la Soglia, disponibile su Amazon e le principali piattaforme online.
