L’introduzione delle tecnologie digitali ha reso il concetto di realtà sempre più astratto, ambiguo, precario. Lo sviluppo e la diffusione dell’IA generativa sollevano nuovi interrogativi sul rapporto tra virtuale e reale, e sulle conseguenze di un mondo dominato da falsi artificiali.
Aitana Lopez è un’influencer con oltre 300mila follower. Per la precisione, è un’influencer virtuale, che vive solo nel suo profilo Instagram popolato da centinaia di foto create tramite computer grafica e sistemi di intelligenza artificiale. Il risultato è talmente realistico che – secondo quanto riportato da The Clueless (l’agenzia che l’ha creata) – il suo profilo è costantemente bombardato da messaggi privati di persone che sperano di conoscerla dal vivo.
Michal Šimečka è invece un politico slovacco in carne e ossa, di cui lo scorso 28 settembre – solo due giorni prima delle elezioni a cui era candidato – è circolata su Facebook una registrazione audio in cui discute, assieme alla giornalista Monika Tódová, di come truccare le elezioni comprando voti dalla minoranza rom presente nel paese. La registrazione – come denunciato immediatamente dai due protagonisti e come confermato dall’agenzia di stampa AFP – è però falsa, creata utilizzando uno dei tantissimi strumenti basati su intelligenza artificiale in grado di riprodurre la voce di chiunque per fargli dire ciò che si vuole.
Un ignoto dipendente di una multinazionale di Hong Kong ha invece ricevuto, durante una conferenza su Zoom in cui erano presenti il suo capo e altri dirigenti, l’ordine di inviare in segretezza un bonifico da 25,6 milioni di dollari verso un ignoto destinatario. Peccato che, secondo quanto riportato dalla polizia, la videoconferenza a cui ha partecipato sarebbe stata popolata esclusivamente da deepfake, imitazioni digitali di persone realmente esistenti (voce compresa) create tramite sistemi di intelligenza artificiale.
Sono solo tre recenti esempi che mostrano come persone, comunicazioni ed esperienze false o contraffatte si stiano pericolosamente insinuando nella nostra realtà. Di come la realtà fisica e la cosiddetta “realtà sintetica” si stiano fondendo l’una nell’altra.
Quando la verità diventa opzionale
Che i deepfake siano un fenomeno con cui fare i conti e che – come visto nei diversi esempi e immaginando ciò che avverrà quando questi strumenti saranno sempre più accurati e accessibili – pongono una grave minaccia all’informazione, alla democrazia e non solo è ormai assodato. Ciò che invece è meno indagato è come cambierà la nostra percezione della realtà quando saremo completamente immersi in un mondo in cui distinguere il vero dal falso – una dicotomia già di per sé problematica, ma spesso necessaria – sarà quasi impossibile. Peggio ancora: questa distinzione rischia di sfuggirci al punto da farci alzare bandiera bianca, creando un pericolosissimo disinteresse nei confronti di ciò che è vero (o almeno genuino) e ciò che è falso (o comunque contraffatto).
Ciò che è vero non conta più: conta solo ciò che ci intrattiene o ciò che conferma le nostre convinzioni e i nostri pregiudizi. Questo stesso fenomeno può avere un impatto profondo e potenzialmente devastante anche sulla nostra vita privata.
Per certi versi, è qualcosa che sta già avvenendo. La continua pubblicazione di notizie errate, imprecise o esagerate da parte di testate nazionali in cerca di viralità e click facili ha fatto sì che – come spiega un report del Reuters Institute – una percentuale crescente di lettori sia ormai talmente disillusa e assuefatta da non prestare più nemmeno attenzione alla veridicità delle notizie. Ciò a cui si presta attenzione, e che provoca la loro diffusione online, è solo se sono notizie divertenti o curiose. Contenuti che ci interessano esclusivamente “per il lol”.
Ciò che è vero non conta più: conta solo ciò che ci intrattiene o, in casi almeno in parte differenti, ciò che conferma le nostre convinzioni e i nostri pregiudizi. “Le persone non sono più interessate alla veridicità di un contenuto specifico se ritengono che il messaggio sottostante sia vero”, spiega Bart van der Sloot in Regulating the Synthetic Society. “Hillary Clinton non ha mai detto di pensare che coloro i quali hanno votato per Donald Trump siano dei parassiti, e il video in cui sembra che stia dicendo ciò è così palesemente manomesso che la sua falsità è evidente a tutti; ciononostante, i sostenitori di Trump hanno continuato a condividere il video perché, per loro, riafferma le loro prestabilite convinzioni relative a Hillary Clinton”.
Questo stesso fenomeno può avere un impatto profondo e potenzialmente devastante anche sulla nostra vita privata. Come spiega sempre van der Sloot, un video con protagonista il deepfake di uno studente o di una studentessa delle superiori in cui appare mentre compie determinati atti sessuali può comunque, per quanto di per sé falso, confermare una percezione che magari precede la vittima del video, andando così a rafforzarla. I deepfake potrebbero condizionarci anche in maniera più sottile e subdola, quasi inconscia: “Un deepfake distribuito in un liceo in cui una ragazza fa sesso con più uomini, indipendentemente dal fatto che i compagni sappiano che il video è falso (e anche indipendentemente dalla “reputazione” della ragazza, ndr), potrebbe comunque dare forma alla nostra considerazione di lei”, prosegue van der Sloot. Dal momento che, già oggi, è possibile ricreare la nostra voce solo utilizzando un campione vocale di 15 secondi, un mondo in cui creare video deepfake realistici di chiunque, e non più solo di celebrità, è molto più vicino di quanto tendiamo a pensare.
Uscire dal Matrix
Gli esempi singoli non sono però sufficienti per dare la misura dell’impatto sociale che si determinerà quando – stando alle stime di Nina Schick, autrice di Deepfakes: the Coming Infocalypse – oltre il 90% di tutti i contenuti digitali sarà sintetico, ovvero generato interamente o almeno parzialmente tramite strumenti digitali. Non è un futuro lontano: come riporta il New York Times, tutte le principali piattaforme online – da Amazon a YouTube, da Spotify ai social media – stanno venendo invase da contenuti “AI generated” sempre meno distinguibili da quelli genuini. Di questi, una parte consistente è già costituita da informazioni errate, video falsi, audio manomessi e immagini che ritraggono eventi che non si sono mai verificati (com’è il caso del Papa col piumino bianco o di Putin che bacia la mano a Xi Jinping).
Affidarsi agli strumenti tecnici non basta: i deepfake detector non offrono certezze, ma solo stime. Possono inoltre incappare in falsi positivi ed essere circondati dallo stesso scetticismo che ha storicamente circondato il fact-checking (perché devo fidarmi di uno strumento tecnologico che contraddice le mie convinzioni e potrebbe magari essere stato creato per fuorviarmi?). “Gli esperti sostengono che la strategia migliore per individuare i deepfake non sia attraverso una contro-tecnologia, ma attraverso la ricerca umana delle informazioni contestuali”, scrive sempre van der Boort. “In altre parole: ciò che sto sentendo è qualcosa che questa persona direbbe normalmente? Ci sono altre fonti che confermano questo rapporto?”.
Pensare che siano gli utenti a sobbarcarsi questo lavoro di analisi e controllo sottovaluta però due aspetti: prima di tutto, non prende in considerazione il già citato “pregiudizio di conferma”, per cui gli utenti non sono (più?) interessati alla veridicità di un contenuto ma solo a quanto sia in linea con le loro convinzioni. Inoltre, se anche fossimo circondati da un pubblico desideroso di notizie il più possibile corrette e imparziali, possiamo davvero aspettarci che i singoli utenti ponderino attentamente ogni singolo contenuto in cui incappano, considerando che siamo ogni giorno bombardati da decine, se non centinaia, di notizie, video e fotografie?
Le conseguenze di questo caos informativo potrebbero allora essere duplici: da una parte, il crescente scetticismo verso la genuinità dei contenuti che compaiono sui nostri feed social (e non solo) rischia di aumentare ancor più la polarizzazione politica, costringendoci – se così si può dire – a dare credito solo a ciò che conferma la nostra visione delle cose. Dall’altra, chi rifiuta questa totale parzialità del consumo di informazione rischia addirittura di veder compromesso il proprio equilibrio gnoseologico, portandolo a dubitare sempre e costantemente di tutto ciò che, almeno online, lo circonda.
La certezza del dubbio
Tutto questo non vale solo per l’informazione, ma – come già accennato – anche per la nostra vita sociale: il video di un mio amico che fa cose strane è vero o è stato generato con l’intelligenza artificiale? Il messaggio vocale di mio figlio che mi chiede di mandargli dei soldi è reale o è una truffa (come già avvenuto)? Questo profilo Tinder con cui sto chiacchierando è genuino o è un avatar (anche qui, si tratta di una situazione che si è già verificata)?
Nel mondo digitale rischiamo di doverci comportare come se fosse sempre il primo di aprile: dubitando di tutto ciò che vediamo. Quale sarà l’impatto di questa costante incertezza sul nostro tessuto sociale, sulla nostra esperienza quotidiana, addirittura sul nostro benessere psicologico?
Come aveva spiegato un report pubblicato dalla Commissione Europea nel lontano 2018 (non a caso l’anno successivo all’avvento dei deepfake), nel mondo digitale rischiamo di doverci comportare come se fosse sempre il primo di aprile: dubitando di tutto ciò che vediamo e prendendo sempre in considerazione la possibilità di essere di fronte a un evento, una comunicazione, un’informazione falsa. Quale sarà l’impatto di questa costante incertezza sul nostro tessuto sociale, sulla nostra esperienza quotidiana, addirittura sul nostro benessere psicologico?
Anche limitandoci al mondo dell’informazione e della politica – gli ambiti maggiormente colpiti dall’avvento dei deepfake – i rischi sono evidenti: già oggi, le testate giornalistiche più attente all’accuratezza dell’informazione hanno in diverse occasioni dovuto attendere prima di diffondere certe notizie, per poter prima verificare la genuinità di un video o di un’immagine. L’ecosistema informativo rischia insomma di essere sopraffatto dai deepfake, mettendo ulteriormente in pericolo la sua già compromessa credibilità.
Si può però vedere tutto ciò anche da un altro punto di vista: come ha scritto la filosofa Gloria Origgi in un breve saggio pubblicato su Aeon, “dall’età dell’informazione ci stiamo muovendo verso l’età della reputazione, in cui le informazioni avranno valore solo se sono già state filtrate, valutate e commentate da persone di cui fidiamo”. Nel caos informativo verso il quale stiamo andando, si apre allora per i giornalisti e per l’informazione un’enorme opportunità: quella di diventare una bussola che orienta chi è in cerca di informazioni verificate e accurate. Un lavoro che quindi non prevede più soltanto di trovare le notizie, ma anche di fare una sorta di “curatela” delle informazioni che circolano (qualcosa che già viene fatto da alcune testate, ma che in futuro avrà un ruolo sempre più importante).
Non si può chiedere ai cittadini di verificare ogni singolo contenuto in cui incappano, ma se il giornalismo vuole recuperare una parte della credibilità perduta può cominciare smettendo di essere parte del problema (ovvero di pubblicare notizie non verificate, sensazionaliste, inaccurate, ecc.) e diventando parte della soluzione. Se c’è una forma di giornalismo che rischia di soccombere davanti all’avanzata dei deepfake è invece (e purtroppo) il citizen journalism che agisce tramite i social media, di cui sarà più difficile potersi fidare.
Certo, ci saranno sempre visioni del mondo diverse, opinioni opposte e interpretazioni contrastanti. E ci saranno sempre fake news o deepfake creduti veri, per varie ragioni, da una porzione di popolazione. Ma se vogliamo evitare di entrare a pieno titolo nell’epoca della post-verità e dei “fatti alternativi” – etichette che risalgono ai tempi di Donald Trump e che assieme a Trump potrebbero tornare – dobbiamo trovare soluzioni socioculturali efficaci. Senza affidarci al tecnosoluzionismo dei deepfake detector e soprattutto senza scaricare tutte le responsabilità sui singoli cittadini.
Andrea Daniele Signorelli
Giornalista freelance, si occupa del rapporto tra nuove tecnologie, politica e società. Scrive per Domani, Wired, Repubblica, Il Tascabile e altri. È autore del podcast Crash - La chiave per il digitale.
Vedi tutti gli articoli di Andrea Daniele Signorelli