IT


Il Caso.it, Sez. Articoli e Saggi - Data pubblicazione 18/01/2026 Scarica PDF

AI e sostenibilità: dalla tecnica alla governance

Simone Pesucci, Avvocato in Firenze


Sommario: 1. Le sfide della sostenibilità nell'era digitale; 2. Sostenibilità multidimensionale: il ruolo della tecnologia digitale; 3. Che cosa è l'intelligenza artificiale: il quadro normativo; 4. IA e sostenibilità: potenzialità e rischi; 5. Applicazioni concrete nella transizione ecologica; 6. Ottimizzazione dei processi produttivi: efficienza e riduzione emissioni; 7. Rischi ambientali e sociali della tecnologia; 8. Governance, trasparenza e accountability; 9. La regolazione europea: AI Act e principi ESG; 10. La strategia nazionale italiana: Legge 132/2025; 11. Profili giuridici della sostenibilità: diritti fondamentali e controlli; 12. Standard e pratiche di sostenibilità digitale nelle imprese; 13. Casi virtuosi e rischi di greenwashing; 14. Conclusioni: verso una sostenibilità aumentata.


   

1. Le sfide della sostenibilità nell'era digitale

È emblematico che una delle immagini più potenti della nostra epoca sia quella delle grandi metropoli viste dallo spazio: di giorno, distese di cemento e infrastrutture che sembrano divorare il territorio; di notte, reti di luci che disegnano l’impronta energetica di interi continenti. Questa doppia fotografia racconta, meglio di tanti rapporti tecnici, l’ambivalenza del progresso: la capacità straordinaria di creare valore, connessioni e benessere, ma anche il peso crescente in termini di consumo di risorse, emissioni e disuguaglianze sociali.[1] Oggi il percorso appare meno ingenuo ma ugualmente segnato da simili ambivalenze, soprattutto perché la sostenibilità -- declinata nelle sue accezioni ESG (Environmental, Social, Governance) -- si fonde e si scontra con la vertiginosa velocità di evoluzione della digitalizzazione e dell'intelligenza artificiale.

La tassonomia della sostenibilità, consolidata a livello UE attraverso il Regolamento 2020/852,[2] mira a non lasciare spazio all'ambiguità: occorre un quadro oggettivo per distinguere attività genuinamente sostenibili da quelle che si limitano a dichiararsi tali. L'innovazione tecnologica rappresenta il principale vettore di questa trasformazione. L'adozione di sistemi IA, sensoristica IoT[3], piattaforme cloud e data analytics consente risultati impensabili rispetto a un decennio fa: secondo fonti dell'EEA 2024, le imprese tecnologicamente mature hanno ridotto i consumi e le emissioni fino al 17%, rispetto a una media che ancora fatica a superare il 10%.[4]

Rimane il rischio concreto di una retorica della sostenibilità digitale che oscilla tra lo storytelling e la realtà dei fallimenti strutturali. L'innovazione, senza governance e controllo sociale, rischia di diventare una variabile decorativa nel reporting aziendale. Gli esempi di greenwashing proliferano dove il dato e l'algoritmo sono branditi come alibi tecnocratico.[5] La vera sfida non è più se innovare, ma come portare trasparenza, equità e verifica critica dentro la tempesta di cambiamento che l'intelligenza artificiale sta innescando nella progettazione dei modelli sostenibili.

 

2. Sostenibilità multidimensionale: il ruolo della tecnologia digitale

La sostenibilità, nella sua accezione contemporanea, non è un concetto univoco bensì un insieme di dimensioni interconnesse. Il framework ESG rappresenta lo standard principale di misurazione: la componente ambientale riguarda la gestione delle risorse naturali; quella sociale tocca l'equità e l'inclusione; quella di governance affronta trasparenza e accountability. Nel contesto dell'intelligenza artificiale, queste tre dimensioni si intrecciano criticamente: una soluzione IA può apparire eccellente dal punto di vista dell'efficienza energetica ma nascondere bias discriminatori inaccettabili dal punto di vista sociale.

L'integrazione della tecnologia digitale nei processi produttivi crea una situazione paradossale. Da un lato, l'IA consente ottimizzazioni senza precedenti nella gestione delle risorse; dall'altro, genera nuove forme di consumo energetico e rischi di marginalizzazione digitale. La vera sostenibilità digitale risiede quindi nella capacità di governarla secondo criteri multidimensionali, dove efficienza, equità e responsabilità procedono di pari passo.[6]

 

3. Che cosa è l'intelligenza artificiale: il quadro normativo

Appellarsi alla suggestione di Douglas Hofstadter sul modo in cui "coscienza e intelligenza emergono da semplici elementi in una danza di autoreferenza e regole formali"[7] permette di cogliere la tensione intellettuale che permea il diritto dell'intelligenza artificiale.

Definiamo oggi intelligenza artificiale un modello algoritmico estremamente evoluto, allenato da una platea infinita di informazioni reperibili nel world wide web. Questo modello imita l'intelligenza umana, compensando la mancanza di un reale processo autonomo di autodeterminazione con una capacità assai più estesa di apprendere e rielaborare informazioni velocemente.

Il Regolamento UE 1689/2024 (AI Act) rappresenta la pietra miliare nella regolazione europea, imponendo una struttura di controllo fondata sulla classificazione dei sistemi in base al rischio.[8] L'articolo 3 fissa la definizione: "un sistema basato su macchine progettato per operare con livelli variabili di autonomia, che tramite input di dati, produce previsioni, raccomandazioni o decisioni capaci di influenzare ambienti fisici o virtuali".[9] Ogni costruzione algoritmica deve essere decifrabile e rendicontabile alla collettività.

Gli articoli 4-15 dell'AI Act sottopongono ogni sistema a una rigorosa scansione dei rischi. L'articolo 6 introduce il concetto di "alto rischio", riferito a quelle applicazioni di IA che intervengono su aspetti critici dell'esistenza, come il merito creditizio, la sorveglianza biometrica, la selezione del personale e la sanità digitale.[10] Questi sistemi sono soggetti a regole aggravate di trasparenza, tracciabilità, audit e supervisione umana costante.

La disciplina nazionale ha anticipato molte previsioni europee: la legge italiana 132/2025 conferma il principio di centralità della persona, la tutela dei dati delle categorie fragili, la governance duale AgID-ACN, e la fattispecie penale per la diffusione illecita di deepfake.[11] Il quadro italiano si distingue per la promozione di una strategia nazionale integrata capace di raccordare esigenze tecniche, etiche e sociali.

 

4. IA e sostenibilità: potenzialità e rischi

Avvicinarsi al rapporto tra intelligenza artificiale e sostenibilità significa immergersi in una realtà complessa, fatta di evidenze tecniche, sfide emergenti e interrogativi etici sempre più urgenti. Sul piano delle potenzialità, i dati confermano che l'IA rappresenta un catalizzatore straordinario per le strategie ESG. Il Rapporto EEA 2024 e ricerche globali riflettono tutto ciò: le aziende che investono in soluzioni IA hanno registrato aumenti medi di efficienza energetica dal 12% al 17%, con riduzione documentata delle emissioni di CO2 oltre il 10% annuo.[12]

La combinazione di machine learning, sensoristica diffusa e piattaforme interoperabili consente di anticipare guasti, prevedere i picchi di domanda e integrare fonti rinnovabili in reti complesse con potenziale risparmio di energia industriale stimato dall'IEA in 8 exajoule entro il 2035.[13] L'IA può ridurre drasticamente le perdite idriche grazie a sistemi di monitoraggio evoluti nei gasdotti e nei sistemi idrici.

Tuttavia, la stessa letteratura sottolinea come questi benefici siano inscindibili dai costi strutturali che la crescita esponenziale dell'IA genera globalmente. I data center richiedono enormi quantità di energia e acqua: uno studio Greenpeace-Öko-Institut del maggio 2025 prevede che entro il 2030 la domanda elettrica legata ai data center IA sarà di 11 volte superiore a quella del 2023, mentre l'uso annuale di acqua potrà superare i 500 miliardi di litri.[14] La produzione di rifiuti elettronici aggiuntibili all'espansione dell'IA è stimata in 5 milioni di tonnellate supplementari in Europa entro il 2030.[15]

Le conseguenze normative di questa ambivalenza sono sotto gli occhi di tutti. Mentre il legislatore europeo esige audit e trasparenza per applicazioni "ad alto rischio", gli obblighi ambientali restano spesso subordinati a quelli sociali o di sicurezza tecnologica. La vera sfida rimane quella di passare da una cultura del "green by declaration" a una governance matura dell'impatto ecologico dei sistemi AI.[16] Secondo il rapporto Bain & Co/Egea 2025, l'80% dei manager europei considera l'IA essenziale per accelerare la transizione sostenibile, sapendo che senza adeguate contromisure, AI e data center potrebbero emettere 800 milioni di tonnellate di CO2 entro il 2035 -- il 2% delle emissioni globali totali.[17]

La sostenibilità legata all'IA non può essere ridotta a questione di ottimizzazione tecnica. Occorre una cultura della responsabilità condivisa: trasparenza algoritmica, rendicontazione rigorosa, integrazione di energia rinnovabile nei data center e tecniche di pruning e quantizzazione sono soluzioni capaci di ridurre i consumi del 40% rispetto ai modelli 2022.[18] Altrettanto importante risulta lo sviluppo di un ecosistema regolatorio dinamico, in cui la formazione multidisciplinare, il coinvolgimento degli stakeholder e la rendicontazione trasparente siano condizioni costitutive.

 

5. Applicazioni concrete nella transizione ecologica

Nel cuore della trasformazione industriale, la transizione ecologica delle imprese si gioca sull'integrazione intelligente dell'intelligenza artificiale nei processi. Questo passaggio segna una nuova stagione dove la sostenibilità diventa vero asset strategico per la competitività e la resilienza dei sistemi produttivi.

Nelle utility e nelle industrie high tech europee, modelli predittivi e reti di sensori IoT rivoluzionano la gestione dei consumi energetici. Secondo il Report Confindustria 2025, in Lombardia il 40% delle imprese che ha introdotto soluzioni IA per la gestione avanzata di impianti ha registrato una riduzione delle emissioni di CO2 superiore al 5% entro il primo anno.[19]

Nel settore energia, player mondiali stanno sperimentando smart grid governate da intelligenza artificiale, capaci di integrare grandi volumi di energia rinnovabile riducendo al minimo le dispersioni e aumentando la resilienza delle infrastrutture. Le filiere produttive internazionali stanno beneficiando della blockchain combinata con algoritmi di AI per tracciabilità totale delle materie prime e certificazione end-to-end dei prodotti verdi. La gestione dei rifiuti si avvale di sistemi di visione artificiale che selezionano materiali riciclabili in tempo reale, favorendo l'economia circolare in grandi città come Tokyo e Berlino.

La legge 132/2025 incentiva l'adozione di soluzioni intelligenti non solo nelle grandi aziende, ma soprattutto nelle PMI, con bandi dedicati alla duplice transizione digitale ed ecologica.[20] In questo modo, la digitalizzazione sostenibile diventa via per rafforzare la sovranità tecnologica italiana ed europea.

 

6. Ottimizzazione dei processi produttivi: efficienza e riduzione emissioni

La spinta verso una produzione industriale più sostenibile trova nell'intelligenza artificiale una vera leva di cambiamento misurabile. Le soluzioni AI dedicate all'ottimizzazione stanno trasformando la gestione dell'energia, delle risorse e delle emissioni.

Nel 2025, le aziende che hanno integrato sistemi di analisi predittiva hanno raggiunto risultati significativi. In Italia, secondo lo studio FIRE 2025, l'intelligenza artificiale applicata alla gestione energetica permette un risparmio tra i 20 e i 40 TWh annui: una cifra sufficiente a soddisfare il fabbisogno elettrico di una città come Roma per oltre quattro anni.[21] A livello globale, le stime di Confindustria e IEA indicano una riduzione dei consumi elettrici delle imprese fino al 17%.

Nei data center, l'uso di algoritmi intelligenti per il raffreddamento consente tagli tra il 15% e il 40% dei consumi. Il 54% delle aziende medio-grandi italiane si affida a soluzioni IA per l'analisi dei dati energetici, e metà impiega machine learning per ottimizzare la performance energetica degli impianti.[22] Questi dati confermano che la spinta all'innovazione sta producendo benefici tangibili su efficienza, consumi e emissioni industriali.

 

7. Rischi ambientali e sociali della tecnologia

Nel dibattito sull'intelligenza artificiale, la narrazione di una tecnologia "green per definizione" deve frenarsi di fronte all'evidenza crescente di rischi ambientali e sociali che accompagnano la diffusione, con impatti talvolta paradossali. Se l'IA consente risparmi energetici, la realtà più complessa impone di analizzare i costi occulti che stanno emergendo globalmente.

Dal punto di vista ambientale, il ciclo di vita dell'intelligenza artificiale presenta nuove sfide. L'enorme fabbisogno energetico dei data center si traduce in consumo intensivo di elettricità e acqua, con emissioni indirette di CO2 cresciute del 150% tra il 2020 e il 2023.[23] Il Guardian e Greenpeace hanno segnalato l'espansione di inquinanti chimici, in primis i PFAS, impiegati massicciamente per raffreddamento delle infrastrutture, con rischi di contaminazione prolungata su aria, acqua e suolo.[24]

Il quadro sociale è altrettanto impegnativo. Studi europei evidenziano come l'adozione massiva di sistemi IA, non sufficientemente controllata, possa accentuare disuguaglianze e discriminazioni algoritmiche. Il rischio di bias nei sistemi di selezione automatica e di errori nell'attribuzione del merito creditizio sono fattori accertati, oggetto di attenzione negli articoli 6-15 dell'AI Act e nella legge italiana 132/2025.[25]

Un ulteriore rischio è il greenwashing. Vari report mostrano come molte aziende tendano a comunicare obiettivi di sostenibilità "facili" sfruttando la retorica dell'IA, senza fornire dati certi: il 63% dei consumatori italiani dichiara di essere disposto a pagare di più per prodotti sostenibili, ma solo il 14% si fida delle dichiarazioni ambientali delle imprese.[26]

La regolazione italiana si fa carico di questi rischi, introducendo strumenti di audit ambientale, obblighi di tracciabilità delle decisioni automatizzate e pene per la diffusione di contenuti falsificati tramite IA.[27] La vera sfida non è adottare l'IA, ma garantirne un impiego responsabile, trasparente e misurabile.

 

8. Governance, trasparenza e accountability

L'ingresso dell'IA nelle dinamiche aziendali trasforma le modalità di controllo, di attribuzione delle responsabilità e di gestione dei dati, imponendo un salto culturale nella compliance e nell'organizzazione interna. I team di gestione sono chiamati ad assumere ruoli sempre più complessi, passando dall'attività di controllo incrementale a una responsabilità continua su tutte le fasi del ciclo di vita dei sistemi IA.

Secondo un'indagine OneTrust 2025, il 98% delle organizzazioni europee prevede un aumento degli investimenti sulla governance dell'IA, mentre l'82% considera prioritario il rafforzamento delle competenze interne in materia di accountability e risk assesment.[28] Si registra un incremento del 37% del tempo dedicato dai team di compliance alla gestione dei rischi associati a sistemi IA.

A livello normativo, la legge italiana 132/2025 introduce principi stringenti: trasparenza delle scelte automatizzate, obbligo di tracciabilità, audit e controlli periodici, rendicontazione delle operazioni e valutazione di impatto etico e sociale.[29] Le imprese sono costrette ad adattare i propri modelli organizzativi e i sistemi di controllo preventivo alla peculiare autonomia decisionali dell'IA, rendendo necessaria una mappatura costante dei rischi.

Sotto il profilo operativo, emerge l'importanza di validare e testare gli algoritmi utilizzati, garantendo che i sistemi IA siano robusti e privi di bias discriminatori.[30] La governance si evolve da funzione di controllo a facilitatore dell'innovazione, integrando la supervisione etica sin dalle prime fasi di sviluppo dei progetti IA.

 

9. La regolazione europea: AI Act e principi ESG

Nel tessuto regolatorio europeo, il Regolamento (UE) 2024/1689 (AI Act) pone l'Unione al centro della definizione degli standard globali per trasparenza, sicurezza e responsabilità. L'approccio europeo si distingue per il modello "risk-based", che assegna obblighi differenziati a seconda del potenziale impatto dei sistemi.[31]

L'architettura del regolamento investe imprese e sviluppatori di nuovi oneri: la classificazione dei sistemi AI, la documentazione tecnica aggiornata, il controllo qualità dei dati di addestramento, il monitoraggio continuo e la registrazione in database pubblici europei sono condizioni essenziali per operare nel mercato digitale continentale.

Il collegamento con i principi ESG diventa centrale: l'Unione Europea ha ridefinito i parametri del bilancio di sostenibilità e della rendicontazione non finanziaria, estendendo gli obblighi di governance ambientale e sociale anche alle filiere digitali. Nel 2025, il D.Lgs. 125/2024 ha sancito la piena applicazione dei nuovi standard ESG alle imprese che adottano IA.[32] Gli ESG Index sono sempre più attenti al ruolo dei sistemi AI nella gestione delle filiere green, nell'impatto sul lavoro e nella qualità delle comunità coinvolte.

     

10. La strategia nazionale italiana: Legge 132/2025

La promulgazione della legge 132/2025 ha segnato un momento di rottura con il passato, offrendo all'Italia il primo sistema normativo strutturato e organico sull'intelligenza artificiale. La legge si fonda su un principio cardine: l'antropocentrismo, ponendo la persona al centro delle dinamiche tecnologiche.

La centralità della supervisione umana permea tutto il testo normativo: nei settori più delicati, dalla sanità alla giustizia, il decisore resta sempre l'uomo, e l'IA opera come strumento di ausilio. Questo orientamento si traduce in precisi vincoli contro la discriminazione algoritmica e la promozione di inclusione e accessibilità per ogni categoria sociale.

L'architettura della legge è dinamica: prevede monitoraggi costanti, revisioni periodiche e coinvolgimento degli stakeholder per adattare la regolazione all'evoluzione dei sistemi IA. Vi è una particolare attenzione alle PMI e al sistema produttivo italiano, con obblighi calibrati in base alle dimensioni dell'impresa. Il testo normativo impone obblighi di trasparenza e tracciabilità degli algoritmi, prevedendo audit ambientali e sociali nonché documentazione puntuale del funzionamento dei modelli.[33]

Sul fronte penale, la legge introduce aggravanti e pene specifiche per la manipolazione elettorale, la diffusione di contenuti falsi e la compromissione della reputazione attraverso sistemi automatizzati.[34]

 

11. Profili giuridici della sostenibilità: diritti fondamentali e controlli

I profili giuridici della sostenibilità nella regolazione dell'intelligenza artificiale costituiscono uno dei campi più innovativi dell'intero diritto digitale europeo. Se la sostenibilità era intesa esclusivamente nella sua dimensione ambientale, le nuove norme hanno ampliato la portata includendo privacy, diritti ambientali, responsabilità e controllo.

Il regime della privacy tradizionale, pur fondato sul GDPR, si arricchisce di nuovi obblighi plasmati dalla crescente potenza dei sistemi di IA. La legge 132/2025 impone che ogni sistema di IA garantisca non solo il trattamento lecito dei dati personali, ma anche la compatibilità nativa degli algoritmi con i diritti fondamentali: la progettazione deve prevedere la "minimizzazione dei dati" in tutti i processi di raccolta e trattamento.[35] I Data Protection Officer sono chiamati a redigere valutazioni d'impatto estese, che includano la quantificazione del rischio di discriminazione algoritmica.

Accanto alla tutela della privacy, si sviluppa la nozione di "green rights", che interpreta la sostenibilità digitale come diritto alla qualità ambientale, all'accessibilità universale e alla non esclusione di fasce deboli. Il quadro normativo italiano impone che i sistemi IA non prolifichino pratiche discriminatorie né aumentino la marginalità digitale.[36]

Il sistema delle responsabilità è uno degli snodi più critici: la legge 132/2025 introduce aggravanti penali per l'uso abusivo della tecnologia e la manipolazione elettorale. Al contempo, le aziende sono obbligate a predisporre sistemi di audit ambientale e sociale, documentare le scelte algoritmiche e informare utenti e stakeholder su impatti e limiti dell'automazione.

 

12. Standard e pratiche di sostenibilità digitale nelle imprese

La sostenibilità digitale nelle imprese si sta affermando come dimensione centrale della trasformazione industriale, in cui la convergenza tra innovazione tecnologica e responsabilità ambientale non è più una scelta opzionale, ma uno standard operativo. La spinta regolatoria europea e nazionale ha imposto nuovi criteri per la rendicontazione, la governance e la prassi aziendale.

Il punto di svolta è rappresentato dalla nuova edizione della UNI/PdR 147:2025, che ha raccolto le migliori pratiche metodologiche.[37] Questa prassi definisce indicatori specifici (KPI) in grado di valutare l'impatto della digitalizzazione su tre assi: ambientale, sociale ed economico. Il modello di riferimento si collega sia all'Industria 5.0 sia ai principi SDG Agenda 2030.

I criteri di sostenibilità digitale includono la razionalizzazione dei consumi energetici, la progettazione inclusiva di piattaforme e servizi, la trasparenza nella gestione dei dati, la protezione dalla marginalità tecnologica e il rispetto della diversità nei team di lavoro. Dal monitoraggio energetico alla scelta di infrastrutture cloud alimentate da fonti rinnovabili: ogni passo della digitalizzazione è sottoposto a rigorosi audit ambientali.

Nel concreto, le grandi aziende sono chiamate a redigere bilanci di sostenibilità digitali in formato standardizzato, integrando le metriche richieste dalla CSRD.[38] Secondo l'Osservatorio Digital Sustainable, nel 2025 l'84% delle aziende italiane con più di 500 dipendenti investe simultaneamente in innovazione digitale e sostenibilità, mentre solo il 31% delle PMI ha adottato strategie sistematiche.[39]

 

13. Casi virtuosi e rischi di greenwashing

La questione dei casi virtuosi e delle insidie di greenwashing tecnologico rappresenta il banco di prova finale per chiunque si occupi di sostenibilità digitale. Nel contesto regolatorio attuale, il valore di una prassi "green" non si misura nella declaratoria, ma deve essere dimostrato con strumenti certi e controllati. La recente Direttiva UE 2024/825 impone che ogni dichiarazione ambientale sia supportata da dati verificabili, LCA certificate e audit indipendenti, con sanzioni fino al 4% del fatturato nei casi di frode.[40]

Sul versante delle best practices, emergono strategie di filiera che integrano piattaforme AI per la misurazione delle emissioni in real time, sistemi di tracciabilità green tramite blockchain e dashboard ESG trasparenti.[41] Aziende europee come Ørsted nel settore energetico hanno dimostrato come il ricorso a modelli predittivi IA possa consentire una riduzione delle emissioni di CO2 di oltre l'80% in meno di un decennio.

Al contempo, le insidie del greenwashing digitale sono diventate sempre più sofisticate. Dai casi di GLS e Shein, sanzionati dall'AGCM nel 2025, ai fenomeni di vaghezza strategica nei contratti online, la prassi scorretta si nasconde nelle pieghe dell'algoritmo.[42] Una recente indagine sull'uso di IA per l'analisi dei green claim ha confermato che oltre il 30% delle affermazioni ambientali delle aziende italiane risulta strutturalmente non verificabile.

La risposta normativa è una spinta verso l'adozione di codici di condotta ESG, audit periodici e un'alfabetizzazione diffusa delle best practices di sostenibilità digitale. Solo tramite un approccio critico e condiviso tra stakeholder è possibile valorizzare i casi virtuosi e arginare le distorsioni di greenwashing.

 

14. Conclusioni: verso una sostenibilità aumentata

La convergenza crescente tra tecnologia digitale, governance pubblica e strategie aziendali nel 2025 fa emergere il concetto di "sostenibilità aumentata" come orizzonte necessario per rispondere alle sfide ambientali, sociali ed economiche che accompagnano la rivoluzione IA.

I dati dimostrano che la capacità dell'IA di aggregare, elaborare e interpretare informazioni su larga scala offre strumenti potentissimi per la gestione delle risorse e l'ottimizzazione dei flussi industriali. Studi della IEA stimano che l'applicazione industriale dell'AI consentirà di risparmiare almeno 8 exajoule di energia entro il 2035, pari al consumo annuale di una nazione media come il Messico.[43] I CEO delle aziende leader europee riconoscono nell'intelligenza artificiale un motore per identificare soluzioni energetiche innovative e accelerare la riduzione delle emissioni di CO2.

Tuttavia, le prospettive non sono prive di ambivalenze. La crescita dei modelli AI genera una domanda crescente di risorse computazionali e infrastrutture, con rischi tangibili di impatto ambientale. Gli studi stimano che il bilancio, nei diversi scenari, dipenderà dalle scelte di progettazione, governance e regolazione a monte: il futuro della sostenibilità aumentata dell'IA dovrà passare per la diffusione di modelli più efficienti, la priorità alle energie rinnovabili e una costante vigilanza etica e sociale.

Le applicazioni virtuose riscontrate in Europa dimostrano che è possibile combinare IA, green innovation e adattamento ai cambiamenti climatici, favorendo una transizione equa e competitiva. La governance pubblica -- dalle strategie PA all'implementazione dei nuovi standard ESG -- diventa strumento indispensabile per garantire che la sostenibilità sia non solo dichiarata, ma realizzata nelle prassi quotidiane.

In questa prospettiva, la "sostenibilità aumentata" rappresenta la sintesi più matura tra innovazione e eticità. Solo grazie a una cooperazione internazionale, a un forte presidio normativo e a una diffusa cultura della responsabilità, l'intelligenza artificiale potrà offrire il suo potenziale massimo per il benessere collettivo, la tutela ambientale e l'equa crescita economica.

 

 

Bibliografia

1. Cfr. P. J. Crutzen, "Geology of Mankind", Nature, vol. 415, 2002, p. 23. Il concetto di "Antropocene" illustra come le attività umane abbiano acquisito significato geologico.

2. Regolamento (UE) 2020/852 del Parlamento europeo e del Consiglio, del 18 giugno 2020, relativo all'istituzione di un quadro che favorisce gli investimenti sostenibili.

3. Il termine IoT è acronimo di "Internet of Things".

4. European Environment Agency, EEA Report 2024: Environmental Indicators and Business Performance, Copenhagen, 2024.

5. Cfr. L. Kolk, "Sustainability Communication: Between Credibility and Greenwashing", in Ecological Economics, 2016.

6. Cfr. lo Studio condotto da Roberto Verdecchia, "A Systematic Review of Green AI", https://doi.org/10.1002/widm.1507

7. D. R. Hofstadter, Gödel, Escher, Bach: Un'Eterna Ghirlanda Brillante, Adelphi, Milano, 1984 (edizione italiana).

8. Regolamento (UE) 2024/1689 del Parlamento europeo e del Consiglio, dell'13 giugno 2024, relativo alle norme armonizzate sull'intelligenza artificiale (AI Act).

9. Art. 3, lett. a) del Regolamento (UE) 2024/1689 (AI Act).

10. Art. 6 del Regolamento (UE) 2024/1689 (AI Act). Cfr. anche Considerando 32 e 33.

11. L. 23 settembre 2025, n. 132, artt. 3, 4, 20-21, 26.

12. European Environment Agency, EEA Report 2024, cit.

13. International Energy Agency, IEA AI and Energy, Efficiency Report 2024, Parigi, 2024.

14. Greenpeace & Öko-Institut, Digital Decarbonization Report, 12 maggio 2025.

15. Dati UNEP 2024: https://ewastemonitor.info/the-global-e-waste-monitor-2024/

16. L. 132/2025, art. 15 e ss. (Audit ambientali e strategie di governance).

17. Bain & Company & Egea, Manager e AI: Opportunità e Rischi della Transizione 2025, Rapporto annuale 2025.

18. Cfr. le tecniche di pruning, quantizzazione e uso di dataset sintetici per ridurre i consumi del 40% rispetto ai modelli 2022.

19. Confindustria, Report on AI Adoption in Manufacturing, 2025.

20. L. 132/2025, art. 22 (Incentivi per PMI e startup).

21. Cfr. FIRE (Federazione Italiana Razionalizzazione Energia), Studio sulla Gestione Energetica con AI, 2025.

22. Dati Istat e survey aziendale specializzata, 2025.

23. Greenpeace & Öko-Institut, Digital Decarbonization Report, cit.

24. L'indagine è condotta da The Guardian Investigation & Greenpeace, "PFAS Contamination in Data Center Regions", 2025.

25. Art. 6-15 del Regolamento (UE) 2024/1689 (AI Act); L. 132/2025, art. 20-21.

26. Cfr. rapporto su greenwashing e consumer trust del 2025.

27. L. 132/2025, art. 26 (Deepfake), art. 24 (Responsabilità Penale), art. 15 (Audit Ambientali).

28. OneTrust, 2025 AI Governance Readiness Report, Chicago, 2025.

29. L. 132/2025, art. 3-8 e art. 15 (requisiti di trasparenza e accountability).

30. Art. 8, 19, 20 della L. 132/2025; Art. 10-12 del Regolamento (UE) 2024/1689 (AI Act).

31. Cfr. Considerando 32 e artt. 6-15 del Regolamento (UE) 2024/1689 (AI Act).

32. D.Lgs. 125/2024 ha sancito la piena applicazione dei nuovi standard ESG alle imprese che adottano IA.

33. L. 132/2025, art. 3-8 e art. 15.

34. L. 132/2025, art. 26 (Deepfake), art. 24 (Responsabilità Penale).

35. Le stesse linee guida del Garante Privacy italiano e EDPB (European Data Protection Board), 2025 richiamano questi aspetti.

36. Cfr. W. D'Avanzo, "Intelligenza artificiale, sustainability awareness e bluewashing", in Diritto, Governance e Ambiente digitale, n. 3/2025.

37. Cfr. comunicazione di UNI -- Ente Italiano di Normazione, "Comunicazione e pubblicità sostenibile: al via consultazione pubblica", 5 agosto 2025.

38. La CSRD (Direttiva 2022/2464) recepita in Italia nel 2024 con D.lgs 125/2024.

39. Osservatorio Digital Sustainable, Rapporto Annuale 2025, Milano, 2025.

40. Direttiva (UE) 2024/825 (Green Claims Directive), 5 novembre 2025.

41. Cfr. ESG Technology Summit 2025, Ginevra, sessioni dedicate all'"AI-driven sustainability monitoring".

42. Provvedimenti presi da AGCM, 21 gennaio 2025 (caso GLS) e agosto 2025 (caso Shein).

43. International Energy Agency, IEA AI and Energy, Efficiency Report 2024, cit. 


Scarica Articolo PDF