News e intelligenza artificiale. Frediani: “Una filiera per tracciare la notizia, come quella alimentare”

L'immagine di Trump arrestato generata con l'Intelligenza artificiale. A destra la giornalista Carola Frediani
di ANNALISA GODI

URBINO – “Sarà vero?” è la domanda che ci si fa quando si legge qualcosa su internet e che non convince: ora con lo sviluppo dell’Intelligenza artificiale generativa (l’ultimo modello è Sora, un’interfaccia che crea video deep fake, da zero solamente con poche istruzioni testuali) dovremmo porci la questione più spesso.

Si è molto parlato nelle ultime settimane di immagini manipolate con software digitali (detti anche “shallow fake”), come nel caso della foto di famiglia della principessa Kate Middleton, o generate da zero (ovvero “deep fake”) come la foto che ritrae Donald Trump arrestato, o insieme ad alcuni rappresentanti della comunità afroamericana. Questi casi hanno posto il problema di come immagini non veritiere abbiano contribuito a influenzare l’opinione pubblica e la questione della verifica delle informazioni, in particolare video e foto. Tanto lavoro per i giornalisti.

Carola Frediani, giornalista, si occupa di questi temi nella sua newsletter
Guerre di Rete e in un suo post, “Effetto Sora sull’informazione” di recente ha proposto di ribaltare la prospettiva sulla verifica delle informazioni e di tracciare la notizia come se fosse un prodotto alimentare.

Parlando di “effetto Sora sull’informazione”, hai paragonato le news alla filiera alimentare. Puoi spiegare cosa intendi?
Quando parlo di filiera, intendo connettere i vari pezzi, in una sorta di sentiero che anche il lettore possa ripercorrere in modo abbastanza agevole, senza che oggi diventiamo tutti investigatori, per ricostruire il contesto da cui arriva una informazione e valutare se le verifiche fatte (anche e soprattutto dai giornalisti ndr) sono sufficienti per rendere il contenuto credibile.

Puoi spiegarci come si snoda questo sentiero dell’informazione?
Se noi guardiamo oggi a tutto il percorso dell’informazione, possiamo vedere che parte da una fonte, può essere una dichiarazione rilasciata da un politico, a un giornalista o su un social, o può essere un video. Questa dichiarazione viaggia, magari fa parte di un discorso più ampio e viene inserita in un articolo rielaborato da un giornalista e viene poi distribuito sui social e magari ancora modificato sotto forma di una frase estrapolata. Alla fine gli utenti ritrovano questa dichiarazione nel proprio feed senza sapere nulla del suo percorso, di quali modifiche sono state fatte ed essenzialmente da dove arriva. Il lettore non sa se qualcuno ha fatto verifiche all’origine e se addirittura quello che legge è successo davvero. Come nel caso dei deep fake, ora si può falsificare completamente un contenuto più facilmente che in passato.

In un articolo successivo parli di un “source transparency hub” e di un metodo utile al lavoro giornalistico. Come lo immagini? C’è una somiglianza con il metodo scientifico o quello storico?
Con l’hub si fornirebbe uno strumento a metà tra archivio e repository: qui potrebbero essere raccolte le fonti con i dati che le riguardano, ad esempio com’è stata raccolta un’intervista e quali verifiche sono state fatte. In questo modo si dà al lettore una visione completa su quel contributo e l’hub diventerebbe parte del processo giornalistico. Questo metodo dovrebbe essere applicato a tutto ciò di cui ci si occupa, perché l’idea di questo approccio è di restituire fiducia al lettore e togliergli la domanda “Quello che si sta raccontando è vero?”. È un approccio open source, come fanno i giornalisti indipendenti che dovrebbe essere applicato in modo sistematico dai media e da chi è interessato a fare informazione in modo professionale.

Il dovere di verificare le informazioni è tipico dei giornalisti. Proponi che chiunque crei contenuti possa o debba certificarli? Come?
Più che certificare un metodo, deve essere chiaro che, se il lettore vuole avere più informazioni su un contenuto, il giornalista gliele possa dare. Il punto è che oggi gran parte delle informazioni non è creata necessariamente dai media o dal giornalista. Prendiamo come esempio un video di Zelensky (il presidente ucraino, ndr), che circola e che non ha realizzato un giornalista. Il nostro compito è di fare delle verifiche per capire se un video è vero o falso, se è un video di tre anni fa e che adesso suona in modo diverso. Se il video non l’ha fatto il giornalista, questo deve spiegare perché è accurato e mi deve dare delle informazioni. Il lettore non può semplicemente fidarsi della testata o del giornalista. Ad esempio l’approccio utilizzato da Bellingcat è un ottimo esempio di come questo lavoro andrebbe fatto e di come il lettore può ricostruirlo. I giornalisti tendono a dare poche informazioni, magari pensando di proteggere il loro modo di lavorare ma questo ormai non vale più.

Quali misure potrebbe adottare il giornalista per verificare immediatamente se un contenuto che gli arriva dal web o da una fonte insolita è vero e non si tratta di deep fake o shallow fake?
Al momento dipende dalla situazione, non è sempre così immediato e anche tecnologicamente la questione sta diventando più difficile, soprattutto se non ci sono elementi di contesto. Ad esempio se c’è un’immagine di Trump circondato da un gruppo della comunità afroamericana, tralasciando che la foto abbia degli elementi che facciano capire che si tratti di un deep fake, si può verificare che il contenuto sia vero con un lavoro di ricerca “analogico”: si tratta di un personaggio pubblico e non sarebbe difficile capire se e quando avrebbe avuto questo incontro. La questione è più difficile quando un’immagine non può essere verificata con queste accortezze, ad esempio un’immagine di guerra. In questo caso si sta puntando molto sulla possibilità che le grandi aziende tecnologiche mettano dei watermark sui contenuti prodotti dall’IA. Tuttavia questo segno di riconoscimento non risolverà la situazione, potrà ridurre la facilità con cui questi contenuti sono fatti passare per veri, fino a quando qualcuno non riuscirà ad aggirare il sistema. Per questo motivo ho pensato di rovesciare il paradigma: piuttosto che aspettare che le aziende tecnologiche risolvano un problema che hanno contribuito a creare, e bollare i deep fake, bisogna cercare di rendere il più possibile trasparenti le informazioni verificate, in modo che sia quello l’elemento di fiducia del lettore.

Etichettando i contenuti che sono prodotti dall’AI non si rischia di sminuirne il valore, nel caso siano comunque genuini (arte, corsi online ecc)? 
Specificare da dove vengono i contenuti è un elemento chiarificatore, soprattutto nel momento in cui un contenuto dell’intelligenza artificiale passa come realistico. Deve esserci un modo per difendere le persone dal rischio di far passare i contenuti per quello che non sono, in particolare nel campo dei deep fake a sfondo sessuale. Dal punto di vista della creazione artistica, è un diritto delle persone sapere chi ha prodotto l’immagine e se quanto è raffigurato sia reale o no. D’altra parte penso che questo confine andrà a sfumare, anche adesso ci sono delle elaborazioni che sono un mix di intervento umano e intelligenza artificiale.

È successo che alcuni articoli fossero illustrati da immagini “verosimili” create dall’intelligenza artificiale e al lettore non venisse dichiarato. Cosa deve pretendere il lettore dal giornalista?
Bisogna essere trasparenti e rendere chiaro se si sta utilizzando un’immagine generata in modo sintetico. È necessario dare più informazioni sulle immagini che si pubblicano: chi l’ha fatta, da dove arriva. Il lettore deve avere dei riferimenti chiari, se no non riesce più a fidarsi e quando si abituerà ad avere tutte le informazioni possibili su un contenuto, poi le pretenderà per tutto ciò che legge.

Quali misure di verifica o di cautela possono essere adottate dal lettore?
Come lettrice mi aspetto che tutto ciò che non ha il bisogno di essere anonimo sia trasparente, quindi non solo la presenza di un link ma anche altri elementi di contesto che mi aiutino a capire. Ad esempio se una frase è estrapolata da un discorso, voglio avere la possibilità di vederlo integralmente, oppure la presenza di una foto senza informazioni non basta più. Se si riporta un’informazione rilevante data da un altro mezzo e non si è potuto fare delle verifiche, bisogna rendere chiaro che la verifica autonoma non è stata possibile e nel momento in cui si dà l’informazione è necessario farlo con una forma di cautela. Tutti questi elementi permettono al lettore di valutare il grado di affidabilità di un contenuto.

In chiusura, Frediani propone anche di cambiare l’approccio al business del giornalismo: “Forse con questo modello di business il metodo di verifica dell’informazione non sta in piedi. Però mi sembra chiaro che si tratti un modello in crisi e qualche esperimento in questo senso potrebbe valere la pena farlo”.

Utilizzando il sito, accetti l'utilizzo dei cookie da parte nostra e di terze parti maggiori informazioni

Questo sito utilizza i cookie per fornire la migliore esperienza di navigazione possibile. Continuando a utilizzare questo sito senza modificare le impostazioni dei cookie o cliccando su "Accetta" permetti il loro utilizzo.

Chiudi