Chi controlla i controllori?

Ascesa e declino del fact-checking, dall’etica giornalistica all’industria del consenso

Alessandro BrunoriApprofondimenti
RIVRINASCITA_20260316000405668_c310b9f35f40b330448f9e94c9ec9379.jpg

AI

Un civile in Israele, oggi, rischia diversi anni di carcere se diffonde video o immagini della guerra in corso sui social, eliminando alla fonte l’ultima possibilità rimasta di documentare il conflitto dall’interno.

Nel giugno 2025, nel pieno dell'escalation tra Israele e Iran, il ministro della sicurezza nazionale israeliano Itamar Ben Gvir e il ministro delle comunicazioni Shlomo Karhi hanno imposto una serie di direttive che vietano di filmare l'intercettazione e l'impatto dei missili senza autorizzazione preventiva dell’autorità militare, di pubblicare foto e video sui social media dalle zone colpite e limitano l'operatività di testate straniere durante il conflitto, prevedendo conseguenze penali per chi viola le norme sulla censura militare. Organizzazioni come Reporters Without Borders e la Federazione internazionale dei giornalisti hanno condannato queste misure come una minaccia diretta al diritto di informare.

Eppure la questione non si riduce a uno scontro tra censura e libertà. Un video pubblicato in tempo reale da Tel Aviv può rivelare l'efficacia o il fallimento di un sistema di difesa aerea, fornendo all'avversario informazioni operative che nessuno stato maggiore divulgherebbe mai volontariamente. Un video fabbricato con l'intelligenza artificiale può mostrare distruzioni mai avvenute o minimizzare quelle reali, inquinando il dibattito pubblico nel momento in cui la popolazione ha più bisogno di informazioni affidabili. Ma uno smartphone in mano a un civile sotto le bombe è anche l'unico strumento di documentazione indipendente quando i giornalisti vengono esclusi e la narrazione ufficiale diventa l'unica disponibile.

Ecco il problema: esistono ragioni serie per limitare la circolazione di immagini in tempo di guerra, ma esistono anche ragioni altrettanto serie per garantirla. È la domanda più difficile che si possa porre al fact-checking contemporaneo, e la risposta (o la sua assenza), ne rivela lo stato di salute.

Per capire come siamo arrivati fin qui, bisogna tornare indietro di un secolo. Nel 1913 Ralph Pulitzer creò al New York World il Bureau of Accuracy and Fair Play: un ufficio incaricato di ricevere le proteste dei lettori e punire i giornalisti negligenti. Era un'idea grezza (si basava sul correggere dopo, anziché sul prevenire) ma conteneva il principio che avrebbe ridefinito il principio cardine del giornalismo: l'accuratezza non è una virtù accessoria, è la condizione minima della credibilità.

Nel 1923, Henry Luce e Briton Hadden fondarono Time, una rivista che avevano quasi chiamato Facts. Luce assunse le prime persone incaricate esclusivamente di verificare ogni affermazione prima della stampa. Non le chiamò fact-checker: il termine non esisteva. Erano quasi tutte donne, con un lavoro malpagato e al cui lavoro non veniva attribuita alcuna visibilità. Nancy Ford, la prima, resistette pochi mesi. Il New Yorker seguì nel 1927, dopo che un profilo inventato della poetessa Edna St. Vincent Millay fece irrompere in redazione la madre della stessa, furibonda, a minacciare querela. Harold Ross, il co-fondatore del New Yorker, ne fece una questione esistenziale: creò un dipartimento che arrivò a contare ben sedici verificatori, ognuno dei quali controllava ogni singola affermazione di ogni singolo pezzo, didascalie delle vignette comprese.

In Germania, Der Spiegel costruì un apparato analogo, con oltre sessanta verificatori. Tom Rosenstiel e Bill Kovach, nel manuale The Elements of Journalism (2001), definirono il giornalismo "una disciplina della verifica": un metodo quasi scientifico per accertare non solo i fatti, ma soprattutto la realtà dietro ai fatti. Era etica, prima ancora di essere deontologia professionale. Vale la pena ricordarlo, perché ciò che oggi si chiama fact-checking ha poco a che vedere con quella tradizione.

Nel 1983, quando Ben Bagdikian pubblicò The Media Monopoly, circa cinquanta gruppi editoriali controllavano la maggioranza dei media americani. Oggi il processo di concentrazione ha raggiunto un punto che Bagdikian non avrebbe mai immaginato. Nel febbraio 2026, Paramount Skydance, controllata dalla famiglia Ellison, ha prevalso su Netflix nell'acquisizione di Warner Bros. Discovery (CNN, HBO) con un'offerta da circa 111 miliardi di dollari. Se l'operazione otterrà le autorizzazioni necessarie, il nuovo gruppo unirà sotto un'unica proprietà CNN, HBO, CBS, Paramount+ e gli studi cinematografici Warner e Paramount. David Ellison, figlio del cofondatore di Oracle Larry Ellison, ne sarà l'amministratore delegato. Secondo i documenti depositati alla SEC, alle fasi iniziali dell'offerta hanno contribuito capitali riconducibili ai fondi sovrani di Arabia Saudita, Qatar e Abu Dhabi, oltre che ad Affinity Partners, il fondo di investimento di Jared Kushner, che si è tuttavia sfilato dall'operazione nel dicembre 2025.

La concentrazione non si ferma alla proprietà visibile. Vanguard e BlackRock, i due maggiori gestori patrimoniali al mondo (rispettivamente circa 8 e 11 trilioni di dollari di asset in gestione), figurano tra i principali azionisti istituzionali di tutti i grandi gruppi mediatici. Non si tratta di un complotto, ovviamente: sono gestori di fondi passivi che investono per conto di milioni di risparmiatori. Ma esercitano i diritti di voto collegati a quelle azioni, e questo conferisce loro un'influenza concreta sulla governance di ogni gruppo. Il dato diventa istruttivo quando si osserva che gli stessi Vanguard e BlackRock figurano anche tra i principali azionisti di Lockheed Martin, RTX (ex Raytheon), Northrop Grumman, Boeing e General Dynamics, i cinque maggiori fornitori della difesa americana. Nel 2024 i contratti militari del Pentagono hanno raggiunto diverse centinaia di miliardi di dollari. I principali beneficiari di quella spesa e i principali editori dell'informazione che dovrebbe sorvegliarla condividono, in sostanza, una struttura proprietaria convergente.

Questo sistema ha una storia lunga. Durante la prima guerra del Golfo, General Electric possedeva NBC e contemporaneamente produceva componenti per i missili Patriot, i Tomahawk, il bombardiere Stealth, il B‑52 e il sistema satellitare NAVSTAR. Quando i giornalisti di NBC elogiavano le prestazioni delle armi americane in diretta, elogiavano prodotti della loro casa madre. Norman Solomon e Martin Lee lo documentarono nel 1990 in Unreliable Sources. Trent'anni dopo, il sistema si è diffuso e disseminato fino a diventare pervasivo.

Un'inchiesta del 2022 ha documentato che, durante la guerra in Ucraina, CNN, MSNBC e NBC invitavano regolarmente come "analisti indipendenti" ex funzionari della difesa impiegati presso Beacon Global Strategies, società di consulenza tra i cui clienti figurava Raytheon. Jeremy Bash, ex capo di gabinetto del Pentagono e della CIA, suggeriva su NBC di fornire all'Ucraina armi per abbattere gli aerei russi, senza che il network rivelasse che lavorava per un'azienda che da quell'escalation avrebbe tratto un profitto diretto. Un'indagine del New York Times del 2008 aveva già rivelato che almeno settantacinque analisti militari televisivi partecipavano a un programma del Pentagono per diffondere i messaggi dell'amministrazione Bush. Nessuna rete lo riferì. PBS invitò Fox, CNN, MSNBC, CBS, ABC e NBC a rispondere: tutte rifiutarono o non risposero.

È in questo contesto, un'industria dell'informazione che ha progressivamente perso la distanza critica dalla struttura di potere che dovrebbe sorvegliare, che il fact-checking si è trasformato da metodo a mercato. Ed è qui che entra in scena Meta, che allora si chiamava ancora Facebook. Nel 2018 lo scandalo Cambridge Analytica rivelò che la piattaforma aveva consentito la raccolta dei dati personali di circa 87 milioni di utenti, utilizzati per costruire profili psicografici e micro-targettizzare messaggi elettorali. Le analisi successive hanno documentato l'impatto di queste operazioni sul referendum sulla Brexit e sulle presidenziali americane del 2016.

La piattaforma che aveva reso possibile la più grande manipolazione elettorale dell'era digitale, sotto enormi pressioni istituzionali e con una multa da 5 miliardi di dollari comminata dalla Federal Trade Commission (FTC) incaricata, tra le altre cose, di proteggere i consumatori, decise di riposizionarsi custode della verità: nel giro di pochi mesi, Meta lanciò il suo programma di fact-checking, affidando a organizzazioni terze certificate il potere di decidere cosa fosse vero e cosa no sulla propria piattaforma. L'arbitro del gioco era lo stesso soggetto che aveva permesso il gioco sporco.

Nel 2015 il Poynter Institute di St. Petersburg, Florida, fondò l'International Fact-Checking Network (IFCN), finanziata tra gli altri dalla National Endowment for Democracy (NED), dalla Open Society Foundations, dall'Omidyar Network, da Google e dalla Bill & Melinda Gates Foundation. L'IFCN elaborò un codice di principi che divenne il prerequisito per accedere ai contratti del programma di fact-checking di Meta: l'IFCN certifica, Meta paga. Chi non ottiene il bollino non entra nel mercato.

Nel 2023 il programma finanziava oltre novanta organizzazioni in più di sessanta mercati. I contratti, secondo NPR e altre fonti, erano abbastanza consistenti da creare dipendenza. Quando il tuo unico cliente rilevante è la più grande piattaforma informativa del pianeta, la tua indipendenza editoriale finisce compromessa alla radice: non per malafede, ma per struttura.

Che il principale finanziatore dell'IFCN, la NED, sia un'agenzia il cui ideatore, Allen Weinstein, dichiarò al Washington Post nel 1991 che gran parte di ciò che la NED faceva veniva fatto in segreto dalla CIA venticinque anni prima, non significa che ogni organizzazione certificata sia uno strumento di intelligence. Significa che la filiera di finanziamento ha un'origine che non è epistemica. E per un sistema che fonda la propria legittimità sull'indipendenza dalla politica, questo è un enorme problema.

Il caso più lampante è quello ucraino. Dopo l'invasione russa del 2022, Meta ha stretto una partnership con diverse organizzazioni di fact-checking per l'area: StopFake, VoxCheck, Fact Check Georgia, Demagog, Myth Detector, Lead Stories, Patikrinta 15min, Re:Baltica e Delfi. Almeno cinque di queste erano direttamente finanziate dal governo degli Stati Uniti o da enti a esso collegati, parte belligerante nel conflitto. StopFake, la più nota, riceveva fondi dall'Atlantic Council della NATO, dal Foreign Office britannico, dall'ambasciata UK a Kiev, dal ministero degli Esteri ceco e dalla NED. Dopo l'inizio della guerra, la NED ha ridotto drasticamente la trasparenza pubblica sui progetti ucraini, rimuovendo molte informazioni al riguardo dal proprio sito. Il principio che dovrebbe fondare il fact-checking, l'indipendenza dalle parti in causa, risultava capovolto in partenza.

Il 7 gennaio 2025, Zuckerberg ha riconosciuto i limiti del modello annunciando la chiusura del programma di fact-checking con partner terzi negli Stati Uniti, sostituito da un sistema di note comunitarie sulla falsariga di X, mentre il programma prosegue nel resto del mondo. Ma la sua diagnosi è parziale: il problema non erano i singoli verificatori, ma il modello che li aveva prodotti.

La verifica fattuale funziona quando si applica a dati misurabili. "Il ponte è crollato il 15 marzo?" È verificabile. "Il PIL è cresciuto del 2%?" È verificabile. Il corto circuito si produce quando il fact-checking tratta questioni interpretative con la stessa autorità con cui tratta i numeri.

Un esempio istruttivo: la definizione dell'IHRA sull'antisemitismo, adottata da numerosi governi europei, include tra i suoi "esempi illustrativi" il "negare al popolo ebraico il diritto all'autodeterminazione". Quando un fact-checker applica questa griglia a un contenuto geopolitico, non sta verificando un dato: sta imponendo un'interpretazione molto contestata come criterio di definizione della verità. Lo stesso accade quando ci si pronuncia sulla "sostenibilità" di un debito pubblico o sull'"efficacia" di una politica fiscale: si è già usciti dal territorio della verifica per entrare in quello dell’industria del consenso, travestito da servizio pubblico. L'Italia offre un caso di studio significativo. Meta ha chiuso il fact-checking negli Stati Uniti ma lo mantiene in Europa, nel quadro regolatorio del Digital Services Act. Nel mercato italiano il programma si appoggia a due organizzazioni certificate IFCN: Pagella Politica (attraverso Facta) e Open, fondata nel dicembre 2018 da Enrico Mentana.

Il caso merita attenzione. Open è una impresa sociale il cui fondatore e azionista quasi unico (99% di quote) dirige anche il TG La7, di proprietà di Urbano Cairo. Cairo Pubblicità, dello stesso gruppo, gestisce la raccolta pubblicitaria di Open. Cairo controlla anche RCS, editore del Corriere della Sera. Una stessa struttura proprietaria fornisce il telegiornale, la pubblicità e il servizio di fact-checking che concorre a decidere quali contenuti raggiungono gli italiani su Facebook e Instagram e quali no. Quando Open etichetta un contenuto come "falso", "parzialmente falso" o "fuorviante", la decisione attiva la riduzione algoritmica della distribuzione per tutto il mercato italiano. Si tratta di un'operazione infrastrutturale che agisce prima ancora che l'utente possa vedere il contenuto.

Il caso più eclatante è recente. Nel gennaio 2026, lo storico Alessandro Barbero ha pubblicato un video di poco meno di cinque minuti in cui spiegava le ragioni del suo "no" al referendum sulla giustizia. Il video è diventato virale. Open lo ha etichettato come contenente informazioni false o fuorvianti per un'imprecisione di natura tecnico-istituzionale (una confusione tra Governo e Parlamento in un passaggio), attivando la soppressione algoritmica su molte pagine che lo avevano condiviso. Pagella Politica, l'altro fact-checker italiano certificato, ha preso le distanze: il video, ha scritto, era "in larga parte composto da valutazioni politiche e giudizi sugli effetti futuri della riforma, che secondo le stesse regole del programma di Meta non dovrebbero essere oggetto di etichettatura". L'etichetta di Open è stata poi rimossa, senza che fosse resa pubblica alcuna spiegazione. Ma per molti giorni il più seguito divulgatore culturale italiano è stato di fatto marchiato come diffusore di falsità sulla piattaforma che raggiunge più italiani di qualsiasi altro mezzo e la sua opinione sul referendum nascosta all’opinione pubblica.

L'episodio Barbero non è isolato. Un rapporto dell'Italian Digital Media Observatory dell'ottobre 2025 ha rilevato che Israele-Palestina costituiva il 24,3% di tutta l'attività di fact-checking in Italia: quasi un quarto del totale, concentrato su un singolo tema geopolitico. Che si tratti di un'analisi costituzionale di uno storico o della copertura di quello che in molti hanno definito genocidio, il meccanismo è lo stesso: un'organizzazione privata di un giornalista che non ha mai nascosto le sue posizioni (in questo caso apertamente pro-Israele), finanziata da una piattaforma, esercita il potere di ridurre la visibilità di contenuti a milioni di utenti senza trasparenza sufficiente sui criteri di censura o i meccanismi di ricorso, e senza rivelare gli importi del suo contratto con Meta.

La risposta di Zuckerberg per l’America, un nuovo sistema basato sulle Community Notes di X, non risolve il problema, lo sposta solamente.

I numeri resi disponibili da X sono eloquenti. Nel 2024, durante le elezioni europee, solo una minuscola frazione dei post ha ricevuto una nota visibile agli utenti: nell'ordine di poche decine di migliaia di note su centinaia di milioni di contenuti. Studi indipendenti indicano che una parte consistente dei contenuti già identificati come falsi dai verificatori professionisti non ha ricevuto alcuna correzione comunitaria. Il sistema funziona per consenso: una nota appare solo quando utenti di orientamento diverso concordano. Il risultato è che proprio i temi più divisivi, dove la disinformazione fa più danno, restano senza note e quindi senza alcun contrappeso.

Mentre il dibattito si arena su modelli già superati, la tecnologia sta rendendo entrambi obsoleti, con una diffusione impressionante di contenuti generati dall’Intelligenza Artificiale che chiunque oggi può facilmente produrre.

L'intelligenza artificiale generativa funziona così: due programmi vengono messi uno contro l'altro. Il primo crea un'immagine falsa; il secondo cerca di smascherarla. Si correggono a vicenda migliaia di volte, finché il falso diventa indistinguibile dal vero. Questa architettura, introdotta nel 2014 e chiamata GAN (Generative Adversarial Network), si è poi evoluta con modelli sempre più potenti. Studi recenti mostrano che, per video deepfake di alta qualità, un essere umano riesce a riconoscere l'inganno in meno di un quarto dei casi. Per le immagini va leggermente meglio: poco più della metà. Per le voci clonate, quasi nessuno ci riesce in modo affidabile.

Perfino i programmi progettati per smascherare i falsi possono essere aggirati. Basta alterare impercettibilmente l'immagine, con modifiche invisibili a occhio nudo, per mandare in tilt i sistemi di rilevamento. Esperimenti pubblicati nel 2025 hanno dimostrato che con tecniche relativamente semplici è possibile eludere pressoché il 100% dei controlli automatici di alcuni rilevatori ampiamente utilizzati. Siamo davanti a una corsa tra falsari e detective, in cui i falsari hanno un vantaggio strutturale: fabbricare un falso costa pochi minuti e pochi dollari di calcolo, smascherarlo richiede competenze, tempo e infrastrutture. L'Unione Europea ha risposto con un arsenale normativo: il Digital Services Act, l'AI Act, il Codice di pratica sulla disinformazione. Ma questi strumenti presuppongono che sia ancora possibile separare il vero dal falso su scala industriale. L'intelligenza artificiale generativa mina esattamente questa premessa. Quando la distinzione tra autentico e artificiale diventa computazionalmente instabile, la regolamentazione rischia di restare un guscio giuridico attorno a un vuoto tecnico.

Se il fact-checking industriale è compromesso, le Community Notes inefficaci e l'intelligenza artificiale rende entrambi obsoleti, cosa dovrebbe esistere al loro posto?

Bisognerebbe anzitutto separare tre funzioni che il sistema attuale confonde. La prima è la verifica empirica: questo dato è corretto? La seconda è la contestualizzazione: cosa significa questo dato? La terza è la moderazione: questo contenuto va soppresso? Ciascuna richiede competenze e responsabilità diverse. Affidarle tutte a un unico soggetto, per di più finanziato da un'unica piattaforma, è la garanzia che il sistema servirà sempre e solo chi lo paga.

Servirebbero trasparenza totale sui flussi economici: non la formula evasiva "riceviamo un contributo da Meta", ma importi, condizioni contrattuali, criteri di selezione. Separazione netta tra chi verifica e chi sopprime: il giudizio e l'azione devono essere in mani diverse. Pluralità di finanziamento, con tetti alla dipendenza da un singolo committente. Distinzione codificata tra fatto e interpretazione. Meccanismi di ricorso reali, rapidi e indipendenti. Nessuna di queste condizioni è utopica. Sono principi ordinari di governance, applicati ovunque il potere richieda contrappesi: nella magistratura, nella vigilanza bancaria, nel diritto della concorrenza. Il fatto che non si applichino all'industria del consenso, che oggi esercita il maggiore potere sulla circolazione delle idee, rivela una scelta politica, non un'impossibilità tecnica.

La traiettoria più probabile conduce alla biforcazione, non alla riforma. Gli Stati Uniti si muovono verso una deregolamentazione che lascia completamente il campo alla propaganda. L'Europa verso una regolamentazione anacronistica che rischia di rendere permanenti i difetti del sistema attuale: il Codice di pratica sulla disinformazione sta per diventare vincolante sotto il DSA, affidando il ruolo di sentinella a organizzazioni con conflitti strutturali irrisolti.

Torniamo alla domanda iniziale. Quel civile sotto le bombe con il telefono in mano: va censurato o va garantita la sua libertà di espressione? Questa domanda non troverà risposta in un algoritmo di Meta, né in un ministro che ha interesse a controllare il racconto della guerra, né in una nota comunitaria che arriverà quando i missili avranno già smesso (speriamo) di cadere. La troverà, se mai, in un sistema informativo che si guadagni la credibilità necessaria per essere ascoltato. E la credibilità, come sapevano bene I giornalisti del New Yorker nel 1927, si costruisce faticosamente, un pezzo alla volta, con metodo e indipendenza dal potere, non con la sottomissione o l’amplificazione della propaganda, dettata dagli interessi delle proprietà. Il fact-checking è sempre stato etica prima che pratica. Il problema di come si è organizzato il sistema oggi, è che dell'industria del consenso è rimasto tutto, dell'etica quasi niente.