Nel XXI secolo, il giornalismo ha cessato di essere semplicemente un mediatore tra ciò che accade nel mondo e i suoi abitanti. È diventato uno spazio in cui si scontrano forze tecnologiche, economiche e politiche, il tutto sotto il controllo di piattaforme private che detengono il monopolio sulla distribuzione e fruizione delle informazioni. In questo panorama, l’Intelligenza Artificiale (AI) generativa appare come un’innovazione tanto esaltata quanto fraintesa. Non è essa a dominare il cambiamento, ma l’ecosistema creato dall’uomo che la utilizza per massimizzare profitti e consolidare il proprio potere.
Nella gabbia dorata del nostro algoritmo
Storicamente, rivoluzioni tecnologiche come la stampa o la televisione hanno ampliato il panorama informativo, rendendolo più libero, accessibile e costituendo pilastri fondamentali per la costruzione di una società democratica. Oggi, con l’avvento del web 2.0, il potere di queste innovazioni è stato catturato da poche grandi piattaforme private, trasformandole in guardiani delle nostre scelte informative. Aziende come Google e Meta, con il loro controllo su motori di ricerca e social network, dettano non solo cosa vediamo, ma anche come lo vediamo.
In Italia, il 29,6% degli utenti si affida ai motori di ricerca per informarsi (+6,2% annuo), con Google che domina il settore con il 90% del mercato (il sole 24 ore). Parallelamente, cresce l’uso dei social network per ottenere notizie: YouTube coinvolge il 18,5% del pubblico, mentre Instagram ha raggiunto il 15,3%, consolidandosi come una delle principali fonti informative insieme a Facebook (Censis, 2024). Dietro questi numeri si cela un dato preoccupante: il nostro accesso all’informazione è nelle mani di un duopolio tecnologico. Ad Alphabet fanno capo Google e Youtube, mentre Meta controlla Facebook e Instagram.
Questi algoritmi non sono progettati per valorizzare la qualità o la completezza dei contenuti, ma per massimizzare il coinvolgimento emotivo. Contenuti che suscitano indignazione o piacere immediato vengono privilegiati, mentre le notizie più complesse o profonde rischiano di rimanere ai margini. È così che si crea una gabbia dorata: un ambiente che sembra offrire tutto ciò che vogliamo, ma che in realtà limita la nostra visione del mondo. Gli algoritmi non censurano in modo diretto, ma selezionano cosa è visibile e cosa no, piegando il giornalismo alle logiche del clickbait e rendendoci prigionieri di un’informazione tanto brillante quanto superficiale.
Noi umani siamo portati per pensare che le cose pensino come noi, a costo di pensare il falso.
“E’ ChatGPT che mi parla come se fosse umana, oppure sono io che sto cercando di trovarci dei minimi segnali di umanità e quando li trovo li elaboro per rendere GPT umana come me?”
L’Intelligenza Artificiale generativa è spesso dipinta come un elemento rivoluzionario nel panorama dell’informazione. Ma è davvero così e noi stiamo vivendo la nascita di un intelligenza superiore che potrebbe governare il mondo alla Skynet, oppure il suo ruolo rimane subordinato al sistema tecnologico ed economico in cui è inserita?
Gli esseri umani tendono a proiettare il proprio modello di intelligenza su altre creature o sistemi, fraintendendo spesso la natura. L’esperimento What the Frog’s Eye Tells to the Frog’s Brain (1959) rivelò che il cervello della rana interpreta solo segnali visivi essenziali, come il movimento degli insetti, ignorando tutto il resto. Questo dimostrò che l’intelligenza di ogni animale è progettata per rispondere a dei bisogni specifici.
Proprio come gli occhi della rana filtrano solo ciò che è essenziale per la sua sopravvivenza, l’intelligenza artificiale è progettata per ottimizzare compiti specifici all’interno dei limiti dei dati con cui è addestrata. Tuttavia, gli esseri umani spesso attribuiscono all’AI una “coscienza” o una capacità creativa che in realtà non possiede, fraintendendo la sua natura. Questo è particolarmente evidente nella concezione dell’AI applicata al giornalismo.
Nel mondo dell’informazione, l’AI non produce contenuti autentici o analisi innovative: si limita a riorganizzare schemi preesistenti per soddisfare metriche di performance definite da chi la utilizza, come velocità e viralità che a loro volta sono parametri imposti dalle piattaforme. Come l’occhio della rana è “cieco” a ciò che non è rilevante per catturare una preda, l’AI è “cieca” alla complessità e alle sfumature che richiedono una comprensione umana. La sua capacità di generare articoli o video sensazionalistici risponde non a un desiderio di informare, ma a logiche algoritmiche che favoriscono il massimo engagement.
Questa dinamica non solo riduce il giornalismo a un flusso costante di contenuti facilmente digeribili, ma alimenta un circolo vizioso di disinformazione (o di informazioni di bassa qualità). L’AI diventa così una cassa di risonanza per un sistema già distorto dalle piattaforme private, che usano questi strumenti per amplificare narrazioni utili ai propri interessi economici e politici. Riconoscere questa limitazione è cruciale per comprendere il vero impatto dell’AI nel giornalismo e il ruolo che deve continuare ad avere l’intelligenza umana per riportare profondità e verità al centro della narrazione. L’AI non sostituisce, né potrebbe, il lavoro umano di indagine, verifica e analisi critica delle informazioni, attività che restano centrali per ottenere una narrazione approfondita e di qualità.
In altre parole, l’AI generativa non cambia le regole del gioco più di quanto abbiano fatto in passato le piattaforme come Google o Meta. È una tecnologia che si inserisce in un ecosistema già orientato verso la massimizzazione del profitto attraverso l’ottimizzazione della visibilità e del coinvolgimento, piuttosto che verso la promozione di un’informazione di qualità.
Infine, l’AI, per quanto potente, è vulnerabile ai limiti del suo stesso addestramento. I modelli generativi riflettono i bias e le lacune insite nei dati con cui sono stati addestrati, generando risultati spesso imprecisi o parziali. Questo pone una questione etica e pratica: come può essere utilizzata responsabilmente? Forse una risposta sta nel ruolo di direzione degli editori e le redazioni le quali dovrebbero sviluppare linee guida chiare per il suo impiego, evitando che diventi un alibi per la standardizzazione dei contenuti o per l’abbandono della verifica delle fonti.
L’AI, in definitiva, è uno strumento potente ma passivo, capace di accelerare i processi, non di ridefinirli. Il vero cambiamento richiede un ripensamento umano delle priorità informative e delle dinamiche che governano il mondo dell’informazione.
Tutta la guerra si basa sull’inganno
Le conseguenze di questo modello sono profonde: il controllo informativo da parte delle piattaforme private può influenzare elezioni, silenziare il dissenso e promuovere narrazioni favorevoli ai loro interessi economici e politici.
I Russi lo hanno capito bene, anche prima della nascita di GPT. In Internet Memes and Society (2015), la giornalista Anastasia Denisova racconta di come il Cremlino abbia voluto sfruttare la sua influenza sulle piattaforme digitali per creare caos nel panorama politico e nello spazio informativo con la creazione di falsi partiti politici, di media informativi e commenti di indignazione per fatti mai accaduti. Tutto questo serve per inquinare eventuali conversazioni costruttive e di critica al governo con un rumore di sottofondo che nel 2015 dava da mangiare a più di 400 persone il cui unico compito era di creare confusione online (da cui il nome “fabbrica di troll”).
La viralità delle notizie o dei meme sui media digitali non si limitano a ottenere visibilità: frammentano le notizie in un ciclo che mescola fatti ai commenti, privilegiando contenuti sensazionalistici a scapito dell’approfondimento. Questo processo non solo disorienta, ma anestetizza il pubblico, impedendo di riconoscere connessioni sistemiche tra i fenomeni e promuovendo una percezione atomizzata della realtà. Gli eventi si riducono così a episodi isolati, mentre la complessità viene soppiantata da narrazioni semplificate e polarizzanti.
Verso una migliore informazione
In questo contesto, la sfida per il giornalismo è duplice: Da un lato, deve riuscire ad emanciparsi (anche economicamente) dalle regole delle piattaforme, ripensando il rapporto tra qualità e distribuzione. Dall’altro, deve sviluppare linee guida etiche per l’uso dell’AI, sfruttandola per elaborazioni complesse senza rinunciare alla responsabilità umana nel fare informazione. Solo così si potrà immaginare un futuro in cui l’informazione torni a essere un bene pubblico e non una merce dominata da oligopoli tecnologici. Il futuro dell’informazione, libero e autentico, dipenderà dalla nostra capacità di ripensare le dinamiche di potere delle piattaforme.
di Luca Cirio.
AI business consultant