immagine di copertina per articolo Algoritmia. La tendenza a predire il futuro come malattia
Mediamorfosi 3

Algoritmia. La tendenza a predire il futuro come malattia

Siamo in balia dell’algoritmo? Ci siamo fatti prendere la mano dall’innovazione, o lasciati sfuggire le possibili implicazioni e conseguenze? Un manifesto del mondo che ci aspetta.

immagine rivista

Questo articolo è apparso per la prima volta su LINK Numero 29 - Mediamorfosi 3. Gli anni delle piattaforme del 10 ottobre 2023

Vedi pubblicazione

Se si riflette bene e si analizzano le caratteristiche dell’Algoritmo con quelle attribuitegli dalle masse si possono ritrovare tutti i tratti che storicamente sono associabili a una divinità. È un’entità esterna, astratta, che vive in un posto indefinito, che ragiona secondo logiche sue, che tutto vede, tutto sa e potenzialmente tutto controlla. L’Algoritmo è il nuovo idolo da celebrare e temere, ma come sempre accaduto è un idolo generato dall’uomo, controllato dall’uomo, pensato per controllare gruppi di persone sempre più ampi, per condizionarli, per confortarli. L’Algoritmo è la nostra guida sicura, è quell’entità che ci aiuta e ci prende per mano per i compiti più difficili, che sempre più si introduce nella nostra esistenza. Aiutandoci nella vita quotidiana: ci consiglia dove andare a fare una vacanza, dove andare a cena, quale film vedere, quale musica ascoltare. Ci aiuta a lavorare: risolve per noi tutte le tediose abitudini quotidiane, gestisce i nostri contatti, i nostri appuntamenti, ci scrive le presentazioni e – in sintesi – ci aiuta a risolvere tutte le fastidiose ripetizioni. L’Algoritmo parla ogni dialetto, non ha confini, ha una conoscenza globale. Con questo potere riesce ad abilitare il genere umano a nuove forme di conoscenza condivisa prima impensabili, è il nostro faro verso il futuro, è la speranza in un mondo migliore dove non esistono barriere di lingua, nazione, etnia. Allo stesso tempo, però, l’Algoritmo ci controlla, sa tutto di noi, conosce ogni nostro movimento, ogni cosa che compriamo, ogni cosa che vediamo. L’Algoritmo può decidere se un essere umano è degno di essere aiutato da un istituto finanziario, di essere assunto all’interno di un’azienda, se può ricevere un’assicurazione sanitaria in base allo stato di salute. È un dio buono e un dio cattivo, creazione ed emanazione dell’Homo sapiens.

Abbiamo piano piano cominciato a dare all’Algoritmo tratti umani, allo stesso tempo esaltati nella loro potenza. L’Algoritmo è furbo, anticipa le nostre esigenze, ci organizza il tempo, i documenti, le foto. L’Algoritmo è intelligente, anche se lo è artificialmente, possiamo parlare con lui e lui ci risponde. Tuttavia questi tratti divini hanno qualcosa di molto umano, troppo umano. Basta uscire dal mito e aprire il magico scrigno per capire come veramente funziona l’Algoritmo. Non è semplice, perché questa facoltà è concessa solo ai “sacerdoti” dell’Algoritmo: gli ingegneri informatici, i programmatori, gli scienziati dei dati. Capire come funziona un Algoritmo, soprattutto con le recenti evoluzioni dell’intelligenza artificiale (che simula, con complessi modelli matematici, capacità deduttive e decisionali proprie dell’uomo), è questione piuttosto complessa: in molti casi anche gli stessi sacerdoti, gli addetti ai lavori, faticano a capire a fondo le sue logiche interne. Questo perché tali logiche non sono determinate aprioristicamente da chi crea l’Algoritmo, ma sono definite sulla base di regolarità statistiche presenti nei dati usati per il suo addestramento. Infatti, come un essere vivente apprende come comportarsi dalle esperienze a cui è esposto, così anche l’Algoritmo può imparare dai dati quale sia il suo comportamento atteso e, proprio come per un essere umano, non sempre è facile spiegarne i processi decisionali anche se si conosce il suo background cognitivo. Questo perché i modelli di apprendimento automatico sono progettati per effettuare le previsioni più accurate possibili e generalmente sacrificano l’interpretabilità a favore del potere predittivo.

Addestramento

Di base un Algoritmo “intelligente” viene addestrato. È come se inizialmente si dovesse formare la sua struttura cerebrale, per arrivare a simulare artificialmente uno stato di “coscienza”. L’esigenza di avere un Algoritmo intelligente è diventata sempre più pressante negli ultimi anni con l’esplosione dei contenuti generati e condivisi dagli utenti in rete attraverso i numerosi social presenti. È impensabile concepire un sistema di controllo umano su tutte le foto, i video, i post e la musica che sono immessi in rete costantemente. Le grandi corporation hanno cominciato allora a investire denaro per perfezionare i sistemi di intelligenza artificiale e addestrarli. Cosa significa addestrare un “Algoritmo” intelligente, una AI (artificial intelligence)? Di base abbiamo due soluzioni (più una, forse la più inquietante). La prima è quella di addestrarlo con degli esempi. Se vogliamo che la AI distingua le foto di cani da quelle dei gatti dobbiamo fornirgli un significativo numero di esempi di foto di cani e gatti opportunamente classificate. Dopo un periodo di apprendimento, se gli esempi sono corretti, il sistema comincerà da solo a distinguere le tipologie di animale, con una probabilità di errore sufficientemente bassa da renderlo affidabile. Avere un modello opportunamente addestrato per distinguere scene oscene in foto o video, testi offensivi in articoli o post, musiche contraffatte, è diventato fondamentale per l’autogestione e il controllo dei principali siti e social network nel mondo. Tuttavia, generare degli esempi di qualità e con una numerosità sufficiente ad addestrare una macchina si è rivelata, e continua a rivelarsi, un’operazione molto onerosa e particolarmente delicata. Onerosa perché è giocoforza a discapito di squadre di esseri umani chiamati a un lungo e tedioso processo di classificazione manuale. Delicata perché se non si forniscono gli esempi corretti si rischia di introdurre un pregiudizio – una anomalia – nel modello, che si ripercuoterà sulla bontà della sua capacità “deduttiva”. Infatti, essendo il processo di classificazione a opera dell’essere umano, è probabile che si possano trasferire pregiudizi all’interno delle AI derivati da quelli esistenti nelle nostre società. Basti pensare a quali principi tenere in considerazione per valutare se uno scritto, un post è offensivo oppure no. Chi lo stabilisce? Con quali criteri? Se non si condividono e controllano i presupposti, i risultati possono essere devastanti.

Come un essere vivente apprende come comportarsi dalle esperienze a cui è esposto, così anche l’Algoritmo può imparare dai dati quale sia il suo comportamento atteso, ma non è sempre facile spiegarne i processi decisionali.

La seconda strada o – meglio – più spesso una strada complementare per addestrare un Algoritmo è quella di fornirgli delle “gratificazioni” in funzione della previsione elaborata. Se la previsione è ritenuta corretta l’Algoritmo riceve un premio, altrimenti nulla (o anche un premio negativo). Anche in questo caso l’artefice del giudizio è l’essere umano che può direttamente premiare la macchina una volta ricevuto un risultato o adottare tecniche di premiazione più sofisticate. Per esempio si possono definire dei criteri in base ai risultati ottenuti: se la macchina mi consiglia dei film e io registro quante volte i miei utenti vedono quel film, posso stabilire che la previsione che si è ottenuta è tanto più corretta quante più visioni dei film raccomandati ho ottenuto. Lo stesso discorso vale per i post, gli articoli consigliati in un news feed: si chiede alla macchina di prevedere quali siano quelli che potenzialmente possano piacere di più agli utenti e quante più condivisioni, letture, commenti avrò sugli elementi presentati tanto più alta sarà l’efficacia della previsione. In questo modo, definendo dei criteri di bontà, raccogliendo i segnali di interazione (click, condivisioni, commenti, view) e trasformandoli in un premio positivo o negativo, si è fatto in modo che le macchine possano auto-rinforzarsi, capire costantemente se stanno facendo bene o male e quindi migliorare le loro previsioni in base a continui feedback ricevuti inconsapevolmente dagli utenti.

Addestriamo modelli a trovare le soluzioni più probabili, a prevedere il percorso dell’acqua che, dopo un temporale, scende copiosa a valle dai pendii di una montagna. Tuttavia, il processo di addestramento auto-rinforzante è come se eliminasse arbusti, piante e alberi dal percorso dell’acqua per individuare solo il flusso più probabile. Ed è così che quel flusso, piano piano, forma un solco. Un letto scavato con il ripetersi del passaggio dell’acqua negli stessi punti. Un tracciato dove alla fine l’acqua stessa si imprigiona per ripercorrere sempre lo stesso percorso. Si finisce per creare quello che si è voluto cercare (e trovare): un tracciato di probabilità che imprigiona il libero flusso degli eventi generando previsioni autoavveranti che bloccano il presente e il futuro dentro schemi predefiniti, spesso guidati da semplificazioni, errori o preconcetti. Sì, perché le metriche di giudizio – cosa è bene e cosa è male – le stabilisce sempre e comunque l’essere umano, a priori. Ed ecco allora che si possono generare loop devastanti: un articolo scandalistico ha più probabilità di ricevere un numero alto di click, e allora è proposto più spesso. La macchina è costantemente gratificata dai risultati anche se quell’articolo, magari, è una notizia falsa costruita ad arte per alimentare il processo. Insomma, il dio Algoritmo fatto a immagine e somiglianza dell’uomo rischia di diventare un potente amplificatore di tutte le peggiori “malattie sociali” dell’uomo stesso: pregiudizi di razza e orientamento sessuale, moralismi e perversioni.

Generatività

L’ultima frontiera nella deificazione dell’Algoritmo è dotarlo di capacità generative. Anche qui si fa presto a capire quanto vicino sia questo concetto a quello narrato da molte religioni, dove la prima azione è proprio la creazione. Con le AI generative noi parliamo, con la voce o scrivendo. Loro ci “capiscono” e rispondono alle nostre richieste generando una risposta più o meno complessa: un testo, un racconto, una presentazione, un’immagine, una canzone. Non è difficile ipotizzare che nel prossimo futuro potremo chiedere a una AI di generare altri tre libri della saga di Harry Potter o ancora di generare tre stagioni di una serie tv scritte, girate e disegnate digitalmente appositamente per noi. Una nuova frontiera di straordinaria potenza che potrà far assurgere il dio Algoritmo a protagonista assoluto delle nostre esistenze. Capire come funzionano le AI generative è molto difficile, spesso pure per i sacerdoti. Non si comprende bene il perché a volte siano generate certe risposte. Si parla sempre più spesso di stati allucinatori dell’AI, come se nel suo “cervello” si sviluppassero delle distonie in grado di produrre risultati credibili, ma assurdi. Per fare un solo esempio, una volta chiesi a una AI di consigliarmi otto film con protagonisti degli animali: sette dei film suggeriti erano corretti e coerenti con la richiesta, l’ottavo era invece inesistente; aveva come titolo nome e cognome di una giornalista americana e una trama completamente inventata; una vera e propria allucinazione per l’appunto.

Il dio Algoritmo fatto a immagine e somiglianza dell’uomo rischia di diventare un potente amplificatore di tutte le peggiori “malattie sociali” dell’uomo stesso: pregiudizi di razza e orientamento sessuale, moralismi e perversioni.

Iper-semplificando, e limitandosi al solo campo testuale, le AI generative funzionano trasformando le parole, o meglio porzioni di esse, in matrici multidimensionali di numeri. I numeri identificano il peso che ogni parola ha in relazione alle altre parole di uno stesso contesto. La multidimensionalità è data dal numero di relazioni che si vogliono attribuire a ogni parola. Così le macchine possono costruire una rappresentazione interna, intellegibile a un Algoritmo, di quello che è un testo. Avendo a disposizione tutto – o quasi – lo scibile umano online, le macchine nel corso degli anni stanno costruendo una mappatura sempre più sofisticata della correlazione tra vocaboli, che è arrivata a essere quasi una correlazione di significati. Questo in qualsiasi lingua si voglia parlare, perché la macchina è in grado di “capire” autonomamente l’associazione tra un termine scritto in italiano e l’equivalente inglese, o in qualsiasi altra lingua. Avendo questa mappatura multidimensionale, le AI generative sono in grado di costruire interi testi prevedendo parola dopo parola qual è la più probabile da inserire nella sequenza dato il contesto. I risultati sono sorprendenti. Fatti salvi naturalmente gli stati allucinatori, il resto delle produzioni delle AI generative sta diventando sempre più puntuale e sottile nei significati. Allo stesso modo, riconoscendo quali oggetti, persone, animali sono presenti in una immagine o ancora quali strumenti, note, parole sono presenti in una canzone e trasformando questi dati in matrici multidimensionali di numeri, le AI generative possono “imparare” non solo da tutte le lingue del mondo, ma anche da tutti i dati digitali presenti in rete. Allo stesso tempo possono generare qualsiasi combinazione di questi elementi: testi, immagini, video, canzoni. Un altro elemento che le AI sanno generare già oggi discretamente è il codice sorgente per una macchina, nei principali linguaggi in circolazione. In pratica: le macchine programmano. Anche qui, non è difficile immaginare che in un prossimo futuro le macchine sapranno programmare o riprogrammare se stesse. Ovvero, per tornare a come gli Algoritmi possano essere addestrati, possiamo aggiungere al ragionamento un altro acronimo in lingua inglese, GAN (generative adversarial network), dove si vengono ad avere due – o più – Algoritmi che si controllano l’un l’altro: uno che produce (o predice) delle risposte, uno addestrato a “valutarne” la bontà; un Algoritmo che necessita di esempi per apprendere, un altro addestrato a produrre esempi. Pseudo intelligenze che si alimentano da sole in competizione tra loro. Questo scenario è forse il più inquietante a fronte del tratto più enigmatico del nuovo dio Algoritmo: l’imperscrutabilità. Come abbiamo ripetuto più volte, è molto complesso anche per i sacerdoti dell’Algoritmo capire esattamente perché produce determinati risultati. I modelli sono complessi, stratificati. Le informazioni sono processate con pesi e misure cangianti, che spesso non possono essere tradotti in formulazioni di “ragionamenti” comprensibili per l’essere umano. La macchina non ragiona come noi e, in molti casi, è difficile da osservare nei suoi meccanismi interni e decodificare. Ecco perché una crescente attenzione che si sta ponendo sui temi della AI è renderla “spiegabile”. Anche qui, dietro l’acronimo inglese XAI (explainable AI) si nasconde un mondo di cruciale importanza per il perfezionamento del nuovo dio Algoritmo. Se è l’uomo che lo crea, se è l’uomo che lo addestra e stabilisce pesi e misure, allora l’essere umano deve essere in grado di capire i ragionamenti delle macchine e queste devono essere in grado di spiegare i loro “flussi di pensiero”. Senza questo passaggio fondamentale tutte le evoluzioni del dio Algoritmo sono incerte. Allucinazioni, discriminazioni, loop di ragionamento sono alcuni dei problemi che, se non spiegati e capiti, rendono il nuovo dio troppo imperfetto per esser chiamato tale e, soprattutto, troppo pericoloso.

Pericoli futuri

Ancora più in là nel tempo si porrà concretamente il problema dell’interoperabilità tra le varie AI. Se troppi idoli sono in circolazione si rischia una totale frammentazione: è necessario riunire le varie divinità all’interno di un’unica religione. Costruire un Pantheon che contempli tutto il meglio in circolazione garantendo che i vari attori parlino una stessa lingua. È inconcepibile ipotizzare che la conoscenza del mondo sia compartimentata, sia quella generale sia quella relativa a noi stessi. Il nostro dio deve conoscerci e mantenere la nostra conoscenza indipendentemente da quale AI ci risponda. Questo in modo semplice, automatico, trasparente e sicuro. La trasparenza e la sicurezza dei dati che l’Algoritmo elabora su di noi è importante. Da sempre ci vengono prospettate meraviglie e potenziali rivoluzioni in cambio di qualche sacrificio. Dove già “in cambio di” è un sintomo terrorizzante di un disegno ben preciso, lo stesso che si ripete nelle varie ere evolutive della nostra specie.

Il dio che tutto sa e che tutto controlla in questo caso non è una divinità, un simbolismo, una metafora, un insegnamento. L’Algoritmo controlla davvero, sempre più, quel che facciamo, dove andiamo e cosa ci piace. In cambio ci regala la sua intelligenza predittiva capace di semplificare le nostre vite. Questa perdita di privacy, però, è mortale per le nostre persone proprio perché è reale e nella realtà può influenzare noi, le nostre scelte, le persone che abbiamo intorno per come ci vedono, percepiscono e quindi i nostri potenziali interlocutori perché la “credibilità” che ci assegna l’Algoritmo è inadeguata o insufficiente. Dovremo esser bravi e capaci a creare questo nuovo dio perché sia buono e universale.


Tommaso Tessarolo

Fondatore e CTO di X-MEDIA e X-CONTENT (editore di 35mm.it e Zapping.it), è stato general manager di Current Tv Italia, consulente strategico per la tv digitale di Mediaset e fondatore della prima net television generalista italiana, N3TV. Ha scritto Net Tv. Come internet cambierà la televisione per sempre (2007). Attualmente è consulente per il Marketing Strategico in Mediaset e Tivù.

Vedi tutti gli articoli di Tommaso Tessarolo

Leggi anche

immagine articolo Risate spot
Pubblicità

Risate spot

immagine articolo La prospettiva del drone
Tecnologie di visione

La prospettiva del drone

immagine articolo Il motore, mi raccomando!
Content Data Driven - parte terza

Il motore, mi raccomando!

Restiamo in contatto!

Iscriviti alla newsletter di Link per restare aggiornato sulle nostre pubblicazioni e per ricevere contenuti esclusivi.