Secondo un report McKinsey l’intelligenza artificiale può essere uno strumento per vincere la sfida del cambiamento climatico e pianificare città più attente all’ambiente. World economic forum: “Bilanciare innovazione e obiettivi Esg per uno sviluppo responsabile”
ll progredire delle capacità dell’intelligenza artificiale permette sempre più di sfruttarne il potenziale per affrontare tematiche sociali connesse agli obiettivi di sviluppo sostenibile (Sustainable Development Goals, Sdg) delle Nazioni Unite. A dirlo è un report McKinsey, secondo il quale l’AI viene già utilizzata per promuovere tutti i 17 target dell’Onu, dall’impegno per eliminare la povertà, alla creazione di città e comunità sostenibili e all’offerta di un’istruzione di qualità per tutti. In questo senso, l’AI generativa non ha fatto che aumentare ulteriormente le possibilità d’azione.
McKinsey, del resto, aveva ha pubblicato nel 2018 un report che illustrava come le capacità dell’AI – dall’elaborazione del linguaggio naturale al riconoscimento e al tracciamento dei suoni – potessero essere utilizzate in 170 casi d’uso a beneficio della società. Il nuovo report individua invece un totale di circa 600 casi d’uso, più del triplo.
Di fatto, il 60% delle implementazioni di AI a scopo no-profit sono state effettuate in questi ambiti. Inoltre, circa il 40% degli investimenti di capitale privato nelle 20mila aziende di AI analizzate ha contribuito direttamente o indirettamente ad almeno una delle 17 aree tematiche degli Sdg.
Per quanto riguarda il potenziale dell’applicazione dell’AI in questi ambiti, gli obiettivi Sconfiggere la fame (Sdg 2), Vita sulla terra (Sdg 15) e Pace, giustizia e istituzioni solide (Sdg 16) contano molti casi d’uso, mentre l’Istruzione di qualità (Sdg 4), l’Energia accessibile e pulita (Sdg 7) e Lotta contro il cambiamento climatico (Sdg 13) ne registrano meno.
Inoltre, diversi obiettivi che registrano un progresso più lento hanno un potenziale di applicazione dell’AI non ancora sfruttato. Il report si sofferma su alcuni casi d’uso:
Sconfiggere la povertà (Sdg1): l’apprendimento automatico potrebbe essere utilizzato per indirizzare gli aiuti – sotto forma di denaro – ai più bisognosi o per fornire punteggi di credito alternativi agli individui finanziariamente esclusi.
Sconfiggere la fame (Sdg2): l’intelligenza artificiale potrebbe essere utilizzata per aiutare a sviluppare nuove colture, selezionare meglio le regioni di coltivazione per ridurre al minimo i rischi legati alle colture e fornire un tempestivo allarme per le crisi nutrizionali.
Pace, giustizia e istituzioni solide (Sdg 16): il machine learning potrebbe essere utilizzato per individuare e frenare la diffusione della disinformazione, fornire l’accesso alle informazioni che consentono di sostenere il cambiamento delle politiche e migliorare la valutazione di interventi politici specifici.
Lo studio poi approfondisce le implementazioni potenziali ed esistenti in tre degli obiettivi con il potenziale più riconosciuto, con casi d’uso per:
Gli obiettivi di salute e benessere (Sdg 3), ad esempio con applicazioni per Migliorare la salute materna e neonatale in Kenya e in India, e per prevedere la struttura delle proteine per sostenere la scoperta di farmaci.
L’obiettivo Istruzione di qualità (Sdg 4), ad esempio con casi d’uso per consentire a persone che non parlano, o con difficoltà di apprendimento, di comunicare; oppure per sostenere l’iscrizione di bambine e ragazze a scuola.
La lotta contro il cambiamento climatico (Sdg 13), ad esempio conservando le foreste fermando la deforestazione illegale e migliorando le previsioni di alluvioni.
Sfide e rischi della diffusione e della scalabilità dell’AI
Tuttavia, evidenza McKinsey, le disuguaglianze geografiche nell’assegnazione delle sovvenzioni rimangono elevate.
Un’analisi dell’ubicazione della sede dei beneficiari delle sovvenzioni, effettuata su un database di fondazioni a maggioranza statunitense, rivela che, dal 2018 al 2023, solo il 10% delle sovvenzioni destinate a iniziative di AI che perseguono uno o più obiettivi di sviluppo sostenibile è stato destinato a organizzazioni con sede in Paesi a basso o medio reddito. Anche se le organizzazioni possono avere un impatto al di fuori dei Paesi in cui hanno sede, il 60% degli esperti intervistati concorda sul fatto che gli sforzi di AI oggi non sono sufficientemente concentrati sui Paesi a basso reddito (rispetto a quelli a reddito più elevato o ai Paesi sviluppati), dove il bisogno e l’impatto sugli obiettivi di Sviluppo Sostenibile possono essere più elevati.
E anche le sfide legate alla scalabilità dell’AI per le iniziative di utilità sociale sono complesse. Il 72% di coloro che hanno risposto al sondaggio tra gli esperti ha osservato che la maggior parte degli sforzi per implementare l’AI in questo ambito si sono finora concentrati sulla ricerca e l’innovazione piuttosto che sull’adozione e la scalabilità. Il 55% delle sovvenzioni per la ricerca e l’impiego dell’AI negli Sdg sono pari o inferiori a 250mila dollari, il che è coerente con l’attenzione alla ricerca mirata o all’impiego su scala ridotta, piuttosto che all’espansione su larga scala. Oltre ai finanziamenti, i maggiori ostacoli alla scalabilità dell’AI continuano a essere la disponibilità, l’accessibilità e la qualità dei dati, la carenza dei talenti, la ricettività organizzativa e la gestione del cambiamento.
I task per uno sviluppo responsabile della tecnologia
Le tecnologie di AI, d’altra parte, sono un’arma a doppio taglio: utilizzate in modo improprio per creare fake media realistici, possono contribuire alla disinformazione, alla diffamazione e allo sfruttamento. Bisogna quindi bilanciare innovazione e obiettivi Esg per uno sviluppo responsabile della tecnologia e per costruire una cultura della fiducia. Lo sottolinea il World Economic Forum riportando alcuni dei contenuti della terza edizione della conferenza TrustCon24, dove si è affrontato il tema dei rischi collegati al proliferare della tecnologia e si sono evidenziate le possibili azioni di mitigazione.
Occorre innanzitutto promuovere un linguaggio comune, una comunicazione efficace tra le comunità dell’AI e chi si occupa di sicurezza e diritti è essenziale, al fine anche di evitare malintesi. Lo sviluppo di una terminologia unificata è fondamentale per garantire che entrambe le comunità possano lavorare insieme in modo efficace.
Occorre poi lavorare per migliorare la valutazione del rischio: le normative sulla sicurezza digitale, come il Digital Services Act europeo e la legge sulla sicurezza online del Regno Unito, hanno iniziato a richiedere strumenti ad hoc per gestire attivamente i potenziali danni. Tuttavia, permangono delle lacune, in particolare nella comprensione sfumata dei rischi specifici dell’AI.
Il concetto di “safety by design”, che prevede l’integrazione di misure di sicurezza in ogni fase dello sviluppo di prodotti e servizi, può inoltre essere applicato ai sistemi di AI per anticipare e ridurre i rischi in anticipo.
Ma servono anche tool e processi per misurare con precisione la sicurezza dell’AI. Nonostante le complessità intrinseche, è essenziale cercare di ottenere una misurazione efficace. L’AI Risk Management Framework del National Institute for Standards and Technology (Nist), svolge per esempio un ruolo cruciale nella misurazione e nella gestione dei rischi dell’AI. E il rapporto della Global Coalition for Digital Safety “How to Measure Digital Safety Effectively to Reduce Risks Online” fornisce una solida categorizzazione delle metriche. A partire da queste piattaforme, la priorità come detto è quella di favorire una comprensione comune tra gli esperti dei vari settori che ruotano intorno alla tecnologia.
di Domenico Aliperto