Siete più attenti al rumore degli alberi che cadono o a quello delle foreste che crescono?
Nell’acceso dibattito se le intelligenze artificiali (AI) siano realmente sostenibili e veramente allineate ai criteri ESG, da che parte vi schierereste?
Le AI sono certamente in grado di migliorare gli standard di efficienza, il raggiungimento dei risultati, la qualità della vita, le misure di sicurezza, i modelli di prevenzione, i livelli di conoscenza, e si potrebbe continuare a lungo.
Dando quindi per scontate tutte le opportunità legate alle intelligenze artificiali occorre anche porsi la domanda se oggi possa esserci un prezzo da pagare. Se la sostenibilità e i valori ESG debbano scontare un costo. Di seguito alcuni spunti di riflessione e nessuna velleità di rispondere a tali domande.
Se chiedeste a una delle più famose AI, Chat GPT, se rispetta i valori ESG o se la sua progettazione sia stata pervasa dal rispetto di tali valori, chiarirà innanzitutto che “in quanto intelligenza artificiale non ha una vera e propria progettazione nel senso umano del termine” e che la sua “creazione è il risultato di un processo di apprendimento e addestramento basato su un vasto corpus di dati”. Proseguirebbe poi con una risposta che potrebbe lasciarvi interdetti perché si compone di due parti:
una fair: “come intelligenza artificiale, non ho un comportamento in grado di rispettare i valori ESG come lo avrebbe un essere umano, ma sono programmato per utilizzare un linguaggio rispettoso, promuovere informazioni accurate e …”
una fake: “… e adottare politiche interne che promuovono la sostenibilità, la diversità e l’inclusione”. È chiaro che l’AI in questione, mera generatrice di testi, non è in condizione di “adottare politiche interne”. Eventualmente è Open-I a poterlo fare (come in effetti fa).
Primo spunto di riflessione: le allucinazioni
Le intelligenze artificiali sono creative in tutti i sensi. Se da un lato sono generative di testi, di immagini, di soluzioni dall’altro succede che le risposte fornite o parti di esse non siano corrette. Non sempre per carità, ma succede. Bisogna tenerne conto e più avanti vedremo perché. In gergo tecnico-informatico questo fenomeno è definito “allucinazione”, un termine salvifico e umano insieme che non può convincere. Anche perché le allucinazioni umane attengono alla nostra capacità di percepire cose non materialmente presenti ma non per questo necessariamente false o inventate. Come giustamente sostiene la giornalista Naomi Klein dell’inglese Guardian, le allucinazioni delle AI dovrebbero chiamarsi “spazzatura algoritmica” o più “gentilmente” anomalie. Sappiamo fin dall’antichità che le parole hanno un potere, e benché la guerra sia chirurgica, la benzina sia verde e la discriminazione sia compensativa sempre guerra, benzina e discriminazione sono. Un falso è un falso e non una semplice allucinazione. Sembra che, per ammissione degli stessi programmatori, nessuno sia ancora riuscito a risolvere il problema delle “allucinazioni”.
Secondo spunto: garbage in – garbage out
Le conseguenze delle “allucinazioni” potrebbero essere gravi in termini di sostenibilità. Prendiamo a esempio la sostenibilità nel settore della finanza che presuppone anche il dovere fiduciario dei banchieri di non operare su informazioni inaffidabili. L’inaffidabilità degli output delle AI che talvolta inventano i fatti è un importante problema attuale. Inoltre succede che vengano fornite risposte diverse a fronte dello stesso messaggio. Le AI inoltre sono il frutto di un addestramento umano svolto via via su versioni superiori con basi dati predefinite. Chat GPT a esempio, nella versione disponibile in Italia, risulterebbe addestrata solo sui dati fino alla fine del 2021 (anche se è già in beta la versione con l’accesso a internet). Al richiamato problema delle “allucinazioni” si aggiunge allora, tanto per rimanere nel green, anche la regola del garbage in – garbage out, cioè se vengono inserite informazioni-spazzatura si ottiene spazzatura come output, se i dati a disposizione sono errati lo sarà anche la risposta che ne consegue.
Terzo spunto: la foglia di fico
C’è chi sostiene che l’AI può essere usata per favorire un approccio più informato e basato sui dati nella lotta alle emissioni di anidride carbonica e nella costruzione di una società più verde. È il caso del prestigioso Boston Consulting Group che asserisce anche che l’AI può essere impiegata per reindirizzare gli sforzi globali sul clima verso le regioni più a rischio. In molti affermano che per quanto ciò sia vero non è pensabile che dipenda dalle AI la possibilità di risolvere l’inquinamento, lo sfruttamento della Terra e la crisi climatica. I più convinti fanno notare inoltre come la corsa alla progettazione e allo sviluppo continuo delle AI, nonché la loro stessa attività, richieda l’utilizzo di giganteschi server e imponenti consumi di energia.
Quarto spunto: il breakeven
Come sempre, in pressoché tutti i settori, uno dei driver più potenti è quello economico. L’AI oggi è costosa, sia per lo sviluppo che per l’esecuzione. Secondo le stime, il costo dell’utilizzo di modelli linguistici di grandi dimensioni (come ChatGPT) per rispondere a una domanda può arrivare a più del doppio di un professionista human a causa degli elevati costi di progettazione e di cloud computing associati alla gestione di dati e documenti complessi. C’è chi ha calcolato che per quesiti di natura legale il breakeven sia a 6 dollari a richiesta mentre una AI richiede una spesa di almeno 14 dollari. Quanti anni o forse mesi saranno necessari per scendere a 6 dollari a quesito legale? Il ragionamento va esteso a tutti i settori, come scrivevamo all’inizio di questo paragrafo …
Gli analisti di Goldman Sachs sostengono che 300 milioni di posti di lavoro sono a rischio … non so come si arrivi a questi numeri. Comunque se il fenomeno è così massivo allora è probabile un primo step dove milioni di lavoratori come minimo passeranno da un rapporto lavorativo a tempo pieno a un part time. Anche perché non riesco davvero a immaginare un mondo felice dove le AI lavorano per noi e gli esseri umani hanno tutto ciò che serve per vivere sereni e felici.
Quinto spunto: le voci nel deserto
A fine marzo 2023 Elon Musk insieme ad altri 1.000 esperti ha lanciato un appello dal Future of Life Institute relativamente a problemi derivanti dallo sviluppo incontrollato delle AI, chiedendo una pausa di 6 mesi. Il nostro Garante per la Privacy più o meno negli stessi giorni disponeva il blocco del trattamento dei dati degli utenti italiani nei confronti di OpenAI.
Anche se si dice che Musk fosse mosso da propri interessi commerciali in quanto indietro rispetto alla tecnologia di OpenAI, in una logica situazionale non dovrebbe interessarci. Sono anch’io convinto, e certo non penso di esser solo, che sia necessario un codice etico condiviso e protocolli di sicurezza per la progettazione delle AI e la gestione delle AI avanzate, fare di più per prevenire le potenziali conseguenze negative come l’automatizzazione del lavoro umano, l’uso improprio delle tecnologie di sorveglianza e la possibile minaccia di armi autonome. L’appello sostiene anche che l’AI dovrebbe essere sviluppata in modo responsabile e sostenibile, con l’obiettivo di creare benefici per l’umanità e di migliorare la qualità della vita. I firmatari dell’appello chiedono una maggiore collaborazione tra esperti, industrie e governi per sviluppare norme e standard internazionali che possano guidare lo sviluppo dell’AI in modo sicuro ed etico.
I grandi operatori sono purtroppo molto riservati sull’argomento, servono controlli da parte di esperti indipendenti o da Authority appositamente costituite. Anche un uomo avveduto ancorché della “old economy” come Warren Buffet ci mette in guardia e afferma che “quando qualcosa può fare ogni genere di cose, mi preoccupo perché so che non saremo in grado di farla regredire”.
Sesto spunto: Disruption o Far West?
Ci sono poi le questioni, enormi, della privacy e del diritto d’autore. Quanti dati, quante immagini, quante opere d’arte setacciate, prelevate, acquisite continuamente senza il rispetto di norme o approfittando di legislazioni in divenire e quindi sfruttando buchi normativi rilevanti? Dal tempo dei nostri antenati romani sappiamo che prima viene il mercato e poi si generano le leggi che lo regolamentano, ma nel frattempo – vista anche la velocità del cambiamento e della disruption – quanti danni?
Settimo spunto: l’iperrealistico falso
Infine un passaggio veloce, non fosse altro per la notorietà di cui godono, meritano anche i deepfake cioè i falsi iperrealistici prodotti dall’intelligenza artificiale. Generano confusione in noi tra ciò che è vero e ciò che è falso, crisi di fiducia, cultura del complotto, una potenziale incertezza su ogni cosa. Provare l’intelligenza artificiale di Padre Pio su prega.org per … credere.
Sette è un numero magico e ci si può fermare qui. È plausibile che un costo per la sostenibilità ci sia. Se è troppo alto o meno, considerata la velocità di espansione della AI, è plausibile che lo si possa misurare presto.
di Joe Capobianco