Intelligenza artificiale e ESG: opportunità e contraddizioni della finanza sostenibile

AI e ESG
AI e ESG
Negli ultimi anni gli investimenti ESG (Environmental, Social, Governance) sono diventati una componente fondamentale nelle scelte di risparmiatori e istituzionali. Tuttavia, il vero motore che ne determinerà l’efficacia e la credibilità è la capacità di misurare con precisione l’impatto delle aziende in termini ambientali, sociali e di governance. Questo, infatti, è il punto più importante: essere in grado di calcolare l’impatto sui fattori E,S,G, non solo nel loro insieme, ma anche nei diversi fattori raggruppati sotto le lettere E, S e G, è l’aspetto che può consentire il vero successo al mondo della sostenibilità.
Uno dei limiti più discussi degli ESG è la mancanza di standard condivisi: diverse agenzie di rating e fornitori di dati utilizzano metodologie differenti, generando risultati non sempre confrontabili. Questo crea incertezza sia per gli investitori, che cercano trasparenza, sia per le imprese, che devono orientarsi tra metriche molteplici.
È qui che entrano in gioco la tecnologia e i big data. Strumenti avanzati permettono di raccogliere informazioni non solo dai bilanci e dai report aziendali, ma anche da fonti alternative come notizie, social media, dati satellitari e sensori ambientali. L’intelligenza artificiale, ad esempio, è in grado di analizzare milioni di documenti per rilevare violazioni etiche o controversie, mentre gli algoritmi di machine learning possono costruire modelli predittivi sul rischio climatico o reputazionale. Le immagini satellitari consentono persino di monitorare le emissioni effettive di un impianto industriale, superando la distanza tra ciò che viene dichiarato e ciò che avviene nella realtà.
Se ben utilizzata, la tecnologia può ridurre il rischio di greenwashing, smascherando incoerenze e premiando le realtà che integrano davvero i criteri ESG nelle proprie strategie. Già oggi sempre più società di gestione stanno stringendo partnership con startup tecnologiche per creare piattaforme dedicate, capaci di integrare dati e metriche in un ecosistema unico, con benefici sia per gli investitori sia per la società nel suo complesso.
LE CONTRADDIZIONI AMBIENTALI, SOCIALI E DI GOVERNANCE
Questa potenza di calcolo, tuttavia, porta con sé un paradosso. Se da un lato l’AI rende più trasparenti e affidabili le valutazioni ESG, dall’altro il suo impatto ambientale non è trascurabile. L’addestramento di modelli complessi richiede enormi quantità di energia, con conseguenti emissioni di CO₂: l’impronta di carbonio di un singolo modello di grandi dimensioni può eguagliare quella prodotta da centinaia di voli transcontinentali. La tecnologia che aiuta a valutare la sostenibilità deve dunque anch’essa diventare più sostenibile, adottando data center alimentati da fonti rinnovabili e soluzioni hardware e software capaci di ridurre i consumi.
Non meno rilevanti sono gli impatti sociali. L’automazione, alimentata dall’AI, rischia di sostituire alcune mansioni tradizionali, soprattutto nelle attività ripetitive, creando preoccupazioni per l’occupazione. Al tempo stesso nascono nuove professioni, legate alla gestione dei dati e all’etica tecnologica, che richiedono competenze avanzate. Ma la diffusione dell’AI mette anche in luce il problema delle disuguaglianze digitali: chi ha accesso a infrastrutture tecnologiche avanzate è avvantaggiato rispetto a chi ne è privo, con il rischio di ampliare il divario tra Paesi e aziende. Inoltre, se i sistemi vengono addestrati su dati incompleti o distorti, gli algoritmi possono replicare e amplificare bias sociali, influenzando processi delicati come la selezione del personale o l’accesso al credito. A ciò si aggiunge il tema cruciale della privacy: la raccolta massiva di informazioni, se non regolata, può minare i diritti fondamentali dei cittadini.
La terza dimensione, quella della governance, rappresenta forse la sfida più complessa. Perché l’AI possa dirsi coerente con i principi ESG, è necessario che le decisioni automatizzate siano trasparenti e comprensibili, evitando il fenomeno della “black box” - Il fenomeno "black box" (scatola nera) descrive un sistema (come un algoritmo o un modello di IA) il cui funzionamento interno non è visibile o comprensibile, nonostante se ne conoscano gli input e gli output. Le imprese che sviluppano o utilizzano intelligenza artificiale devono assumersi piena responsabilità delle conseguenze, siano esse ambientali, sociali o etiche. In questa direzione si muovono anche le normative emergenti, come l’AI Act europeo, che spingono verso regole più chiare e vincolanti. All’interno delle aziende diventa cruciale dotarsi di comitati etici o figure indipendenti incaricate di vigilare sull’uso delle nuove tecnologie, garantendo coerenza tra dichiarazioni e pratiche effettive.
Attendi, stiamo caricando il contenuto