In pochi ambiti, come in quello dei consumi idrici, il terrorismo informativo sull’intelligenza artificiale rischia di distorcere la realtà impedendo di guardare al problema nella prospettiva giusta e bloccando a metà ogni ragionamento.
La prima metà è ormai nota ai più. Entro il 2027, ci dicono le analisi, l’intelligenza artificiale potrebbe consumare, tra raffreddamento dei server e generazione elettrica, tra 0,3 e 0,6 miliardi di metri cubi d’acqua all’anno su un prelievo lordo di circa 6,6 miliardi di metri cubi in gran parte restituiti al sistema. Sono dati reali, documentati, che senz’altro meritano attenzione ed azioni concrete: il problema esiste e va affrontato. Ma esiste anche una seconda metà del ragionamento. Ogni anno, nel mondo, 126 miliardi di metri cubi d’acqua vengono immessi nelle reti idriche e non arrivano a destinazione (o non vengono fatturati). È quella che gli esperti chiamano Non-Revenue Water: perdite fisiche nelle condotte, guasti non rilevati, allacci abusivi, errori di misurazione, consumi non contabilizzati. Un’emorragia il cui costo è stimabile in quasi cinquanta miliardi di dollari l’anno. È su questa scala che il consumo dell’intelligenza artificiale va misurato per coglierne la reale proporzione. Quel mezzo miliardo di metri cubi che l’AI consumerà ogni anno rappresenta meno dello 0,5% dell’acqua che le reti già disperdono oggi. Insomma: per ogni litro che l’intelligenza artificiale fa evaporare nei suoi data center, le reti idriche del mondo ne lasciano svanire oltre duecento.
In Italia la proporzione, se possibile, ancora più impietosa. Gli acquedotti disperdono ogni anno tre miliardi e mezzo di metri cubi d’acqua: quasi la metà di tutto ciò che viene immesso nel sistema (su una media europea del 25%). In altri termini il nostro paese spreca da solo quasi sei volte il consumo idrico che l’AI genererà globalmente entro il 2027. È in questo passaggio che il terrorismo informativo, ossia la selezione sistematica dei dati in funzione della narrazione che si vuole sostenere, non solo distorce la percezione del problema, ma impedisce di vedere la soluzione. Perché la domanda che non viene mai posta è quella più ovvia: stante che nessuno discute che lo spreco generato dall’AI vada minimizzato, il problema reale è quanto consuma l’AI o quanto siamo capaci di sfruttare l’AI per aiutarci a risparmiare in tutto il ciclo idrico?
Qualche esempio? A Sheffield, nel Regno Unito, usando AI e IoT si è arrivati a ridurre le perdite visibili di quasi la metà. A Monterrey, in Messico, con il machine learning si sono ottenuti risparmi idrici compresi tra il 17% e il 35%. Le utility più avanzate d’Europa hanno già portato le perdite sotto il 15-20%; le eccellenze mondiali sono scese sotto il 5%. Anche in Italia aziende come Gruppo CAP o MM hanno avviato progetti che sfruttano l’AI per diminuire i tempi di intervento, monitorare gli impianti, ottimizzare i flussi in entrata: tutte attività che complessivamente abbattono gli sprechi. Insomma: non si parla di ipotesi remote, ma di cose che già si possono fare.
Proviamo a fare un esercizio volutamente prudente: ipotizziamo di applicare la tecnologia digitale, l’intelligenza artificiale e la sensoristica intelligente ad appena il 10% delle reti idriche globali, ottenendo un risparmio medio del 10%: una frazione di quanto già dimostrato sul campo. Anche in questo scenario minimo si recupererebbero ogni anno circa 1,3 miliardi di metri cubi d’acqua: più del doppio del consumo idrico dell’AI stessa. Il bilancio, anche con le ipotesi più conservative, è inequivocabile.











