immagine di copertina per articolo Intervista a Luciano Floridi

Intervista a Luciano Floridi

Alcune considerazioni di fondo sull’Intelligenza artificiale da parte di un filosofo impegnato da decenni a indagarne le implicazioni etiche, l’impatto sulle attività umane e la creatività.

immagine rivista

Questo articolo è apparso per la prima volta su LINK Numero 29 - Mediamorfosi 3. Gli anni delle piattaforme del 10 ottobre 2023

Vedi pubblicazione

L’intelligenza artificiale è diventata un mito, un totem, uno spauracchio, nella consueta battaglia tra apocalittici e integrati che si rinnova a ogni decennio e a ogni strumento; ed è anche un termine-ombrello che finisce per comprendere tutto e occupare ogni spazio, è una nebulosa di concetti e idee confuse dove si mescolano tante cose diverse, è una via di uscita pigra da qualsiasi difficoltà e una previsione altrettanto pigra sul futuro che ci aspetta. Eppure, c’è chi da tempo è impegnato in un lavoro importante: chiarire, distinguere, anticipare le difficoltà e i rischi, (cercare di) costruire un futuro più accorto. È il caso di Luciano Floridi, filosofo, impegnato tra ricerca e didattica a Oxford e a Bologna (e presto a Yale), oltre che in una ricca attività di scrittura sia specialistica sia divulgativa che prova a liberare il campo da incrostazioni inutili e a mettere in primo piano quegli aspetti davvero centrali: come stanno cambiando le attività umane, come si ridefinisce la creatività, con quali implicazioni etiche, e con che margini di manovra per scelte e decisioni che non sono in capo alle macchine ma a tutti noi. Quella con Floridi è una conversazione appassionata, fatta di battute vivaci, di esempi chiarificatori, di concretezza precisa ed efficace. Utile a mettere da parte le troppe retoriche che circondano l’intelligenza poco intelligente delle macchine, a volte interessata, a volte semplicemente ottusa. E a farci capire meglio.

Da un paio d’anni, i discorsi sull’intelligenza artificiale si sprecano. Dalle imprese alle aule di scuola, dai giornali ai banconi del bar, tutti ne parlano, ma si capisce poco. Quindi, per cominciare, ci può dare una definizione di intelligenza artificiale? 

Partiamo dal fatto che non c’è una definizione di intelligenza artificiale, e probabilmente non ci sarà mai, perché non c’è un singolo campo scientifico che la affronta. Ma la buona notizia è che in realtà qualcosa si può fare. Non abbiamo una singola definizione di intelligenza, perché ce ne sono tante: è in realtà arcipelago, che coglie molte discipline scientifiche e tecnologie. Si va dalla robotica, quella che noi italiani conosciamo in realtà da decenni, fino ai cosiddetti large language models, che sono applicazioni dell’intelligenza artificiale alla gestione del linguaggio. Dal robottino o dal grande robot che possiamo trovare da decenni nella fabbrica automobilistica fino a ChatGPT: l’intelligenza artificiale copre tutto ciò. Ma di fatto, oggi per intelligenza artificiale intendiamo soprattutto il cosiddetto machine learning. C’è stata una trasformazione fondamentale che si può spiegare, a grandi linee, con il passaggio dell’intelligenza artificiale come area che faceva riferimento soprattutto alla logica matematica a un lavoro dal punto di vista statistico. Negli anni Novanta, l’intelligenza artificiale aveva come elemento fondamentale l’inferenza: se A, allora B. Se il Bianco fa una mossa, allora il Nero fa un’altra mossa. Le cose sono più complesse, ma questo è l’abc. Il machine learning invece lavora soprattutto dal punto di vista statistico. Semplificando molto: A è correlato a B. Vedi tante volte A e finirai per correlare A e B. Vedi 10.000 fotografie di gatto e finirai per correlare tutte quelle caratteristiche a una cosa che si chiama gatto; a quel punto il sistema riconosce ogni gatto, anche se non l’ha mai visto – anche Gatto Silvestro. Finché usavamo la vecchia intelligenza artificiale, si potevano fare un po’ di cose, ma non troppo bene. Oggi, con la correlazione statistica, tutti i dati e la potenza di calcolo che abbiamo, si possono fare cose straordinarie e devo dire che il loro limite non si riesce proprio a vedere. Tuttavia c’è sempre qualcuno che alza la mano e dice che dobbiamo avere una definizione di intelligenza artificiale. Quella persona deve uscire dalla stanza, perché non ha idea di quello di cui parla. Di tante cose nella vita non abbiamo definizioni, perché sono troppo sfumate: non abbiamo una definizione di amicizia, di amore, e neanche la democrazia è qualcosa che si può definire. Una definizione funziona in termini di condizioni necessarie e sufficienti affinché A sia uguale a B. H2O è uguale ad acqua, acqua è uguale a H2O: questa è una definizione. Il resto, quando non abbiamo il mondo che ci dice quello che è necessario e sufficiente affinché qualcosa sia qualcos’altro, diventa mettersi d’accordo sui criteri. E l’intelligenza artificiale è uno di questi.

Questa assenza di definizione del campo, inevitabilmente molteplice e largo, lascia spazio a una serie di retoriche, a volte a forti entusiasmi acritici e a volte a paure eccessive, altre volte semplicemente a discorsi promozionali. Quali sono i problemi principali tra queste retoriche, che inquinano il discorso intorno all’intelligenza artificiale?

Ha ragione, ci sono tantissimi problemi. Alcuni di questi sono non solo molto reali, ma anche già concreti e stanno prendendo forma mentre parliamo, e altri sono letteralmente fantascienza. Il problema a monte è proprio mescolare la fantascienza ai problemi concreti. In ogni contesto, se si mescolano ai problemi concreti, la fantascienza, i film dell’orrore, gli zombie, l’intelligenza artificiale che arriva, Guerre stellari, si hanno due effetti: o non si prende niente sul serio, perché è tutta fantascienza, e si butta via tutto perché, appunto, la fantascienza colora tutto di mancanza di realismo; o, ancora, si prende tutto troppo sul serio, anche cose di cui sinceramente non c’è bisogno di preoccuparsi. Se si mescolano il sale e lo zucchero, viene fuori un pasticcio senza fine. I problemi di fantascienza sono tutti quelli di cui sentiamo parlare oggi: la tecnologia farà tutto, toglierà tutti i lavori, distruggerà l’umanità, avrà intenzioni sue, diventerà la nuova divinità. Ne abbiamo sentite di sciocchezze, ma è pornografia intellettuale. Questo tono apocalittico nasconde il resto, quando i problemi invece sono super reali e concreti, ed emergono dal fatto che abbiamo creato una tecnologia a intelligenza zero, che non ha l’intelligenza neppure di un topo, ma che tuttavia ha una capacità straordinaria di agire e quindi di realizzare, risolvere problemi, portare a fine compiti, e di imparare, migliorando la sua performance. Questo non è mai successo nella storia umana.

In che senso l’intelligenza artificiale non è intelligente?

La distinzione è quella tra il capire e l’agire. Da quando conosciamo noi stessi, da quando siamo usciti dalle caverne, sappiamo che se vuoi fare qualcosa ben fatta la devi fare con un po’ di intelligenza. Il cane che fa la guardia, o il sottoscritto che guida, se lo fa a intelligenza zero, combina disastri. Ora, per la prima volta nella storia dell’umanità, abbiamo una tecnologia che è in grado di fare bene o meglio di noi, a intelligenza zero, ciò che facciamo noi. Quella è la vera rivoluzione, la rivoluzione nella capacità di agire, non nella capacità di comprendere: agere sine intelligere. È azione a intelligenza zero. I problemi seri vengono da lì. Perché una volta che si capisce che ciò che si è messo nella storia umana del ventunesimo secolo è una nuova forma di capacità di agire, una forza in grado di agire a intelligenza zero seguendo un fine che gli hai dato tu, migliorando se stessa. Non è un vulcano (perché il fiume e il vulcano, quelle forme di agire naturale, non imparano e non si migliorano), non è un animale (perché l’animale ha un po’ di consapevolezza, ha paura e lo puoi addestrare) e non è assolutamente un essere umano. Capito tutto questo, come la gestiamo? Lì sta il problema. A sentire le storie di Elon Musk e di altri, sembra che questa intelligenza artificiale abbia una sua intelligenza. Ma non è vero: qualcuno da qualche parte ha spinto il bottone e quel qualcuno da qualche parte può spingere di nuovo il bottone e staccare la spina, letteralmente. Tutto il mondo del copyright, tutto il mondo della formazione e dell’educazione, quello dell’intrattenimento, della guerra, dei conflitti, ovunque guardiamo: stiamo immettendo straordinarie forme di capacità di azione che hanno successo, imparando dal proprio feedback con i dati. Dove la mettiamo un’intelligenza che fa tutto questo? È e sarà sempre di più intelligenza umana. È proprio l’opposto di quello che sentiamo dire: ci sarà sempre più bisogno di intelligenza umana per gestire tutto questo. 

Abbiamo creato una tecnologia a intelligenza zero, che non ha l’intelligenza neppure di un topo, ma che tuttavia ha una capacità straordinaria di agire e quindi di realizzare, risolvere problemi, portare a fine compiti, e di imparare, migliorando la sua performance.

Tutt’altro che un automatismo, insomma…

Basta seguire il dibattito su Tesla. Sono anni che ripeto che non esiste il quinto livello di automobili a guida autonoma. Perché richiede una tale trasformazione dell’ambiente affinché quell’oggetto funzioni che non succederà mai. Io vivo a Oxford, e tra Oxford e Londra non c’è campo. Le strade nell’Oxfordshire non hanno le strisce perché è campagna. Come può funzionare questa Tesla miracolosa? Ora scopriamo che hanno imbrogliato, pompato, detto sciocchezze. Però qualche anno fa tanti buffoni dicevano che non ci sarebbe più stato lavoro per i tassisti perché ci sarebbero state solo auto a guida autonoma. Ma dove vivi? Devi trasformare tutta la città affinché l’autobus possa andare da A a B, e vi assicuro che non succederà. Succederà in aeroporto, certo: costruisco un aeroporto affinché l’autobus funzioni. Tornando con i piedi per terra, i problemi sono tantissimi e quello cruciale sarà la gestione di questa forza e di questa capacità di azione. Come se fosse l’energia elettrica: che ci facciamo? Non date la colpa all’energia elettrica se vi siete presi la scossa. Cosa facciamo con questa enorme riserva di capacità di azione? Dove la andiamo a gettare per risolvere problemi? E con quali responsabilità? Tutto il mondo della produzione di contenuti, video, fotografie, contenuti scritti o misti, è ora un po’ allo sbando, perché questa nuova forma di capacità di azione produce altrettanto bene o ancora meglio contenuti che fino all’altro ieri, se avessi dovuto farli io, avrebbero richiesto un po’ di intelligenza. E poi c’è il problema legato al mondo dei dati, della privacy, del copyright. 

Qual è l’impatto più importante dell’intelligenza artificiale sulla creatività umana? Pensando ai media, alle forme artistiche e culturali legate a testi, immagini, video, musica, eccetera…

Se c’è una cosa che la produzione automatica, artificiale, di contenuti di ogni tipo spero ci insegnerà e ci mostrerà è che non è il prodotto quello che conta, ma il processo. Pensiamoci. Ricordo quando mio padre, medico di famiglia, tornava dal lavoro con il vino fatto in casa che gli veniva regalato: una schifezza che non si poteva bere, però aveva genuinità, era il processo che c’era dietro che valeva, non il prodotto. In una società industrializzata e consumistica, a volte noi fissiamo tutta l’attenzione, anche nel mondo dell’arte, sul prodotto e non sul processo. Se parli solo del prodotto, l’intelligenza artificiale non solo lo fa molto meglio, ma spesso in modo indistinguibile: leggi un sonetto e pensi che potrebbe averlo scritto Dante. La gente continua a pensare che sia l’oggetto prodotto a fare la differenza, quando in realtà quello che a noi sempre più interesserà, mi auguro, sarà da dove viene, chi l’ha fatto e perché. Come le mamme, a cui interessa molto di più lo scarabocchio fatto dal figlio perché lo ha fatto lui, non perché vale qualcosa. Se prendi un grande dipinto, Guernica o la Monna Lisa, non è che oggi uno bravo non sappia rifarli in modo che sembri identico. Ma non sarà Picasso, o Leonardo. Il madonnaro a Roma che fa la Cappella Sistina sul pavimento con i gessetti non è un genio, non ha alcuna storia dietro, non ha un processo, un contesto. A pensarci, l’intelligenza artificiale è un po’ questo madonnaro, che produce oggetti ad alto consumo. Se vuoi pagare poco per avere lo stesso oggetto, meglio che te lo faccia l’AI. Se vuoi pagare le scarpe 50 euro non saranno fatte a mano, e magari quelle fatte a mano non sono nemmeno comode quanto quelle del supermercato; ma dietro c’è una storia, una tradizione, quello che chiamo capitale semantico, quel valore aggiunto che è la storicità dell’oggetto. Tu non compri solo un paio di scarpe, ma tutta la tradizione, chi le ha fatte, l’impegno, l’intenzionalità. Se compriamo un oggetto prodotto dall’AI non compriamo nient’altro che un oggetto, artistico o meno. L’arte è questo, non l’oggetto. Prendiamo la classica frase “ma questo lo sapevo fare pure io”, o il taglio sulla tela di un Fontana. Ma davvero una persona non dovrebbe essere in grado di fare un taglio con un coltello su una tela? È che chiunque l’ha fatto dopo non l’ha fatto con lo stesso valore aggiunto. Oggi l’artista è uno che sa fare anche i prompt, con Midjourney o Dall-E. Quello è il campo di sperimentazione di nuovi schemi per l’artista. È un po’ come quando siamo passati dalla pittura classica, alla Leonardo, a quella a olio. Anni fa Microsoft ha riprodotto un Rembrandt fantastico. La macchina ha scannerizzato tutti i Rembrandt, ha imparato come si dipinge “alla Rembrandt”, usando anche uno scanner 3D per capire lo spessore della pennellata di Rembrandt, e ha fatto un ritratto di uomo con cappello “alla Rembrandt” bellissimo. Quello è un oggetto straordinario. Era Rembrandt? Non era Rembrandt? È complicato. Ma è unico. Il prossimo che fai non vale niente. Dal prodotto al processo: capirlo è fare un salto avanti. Ci saranno cose che ovviamente, a causa di questo cambiamento, perderanno valore. Succede. Cose che non avevano alcun valore se non nell’oggetto prodotto varranno zero, quattro soldi. Mentre il valore resterà dove è il processo che fa la differenza. 

Ci piacerebbe approfondire la questione etica. Quali sono le sfide legate alla popolarizzazione di questi strumenti?

Un po’ di tempo fa si parlava di democratizzazione dei dati, che ovviamente non aveva nulla a che fare con il termine politico, ma era un modo per gli informatici di parlare della distribuzione capillare di grandi quantità di dati in tasca a chiunque. Ciascuno di noi ha gigabyte di dati per mille ragioni, siano foto o robaccia varia. Ricalcando quella terminologia, si potrebbe parlare di democratizzazione dell’agire artificiale. Oggi, sempre più, soprattutto nel ricco nord del mondo, le persone che usano ChatGPT (100-150 milioni – sono tanti, ma siamo 8 miliardi in tutto!) sono quelle che hanno in tasca, tra virgolette, questa nuova capacità di agire, di risolvere problemi per trattare compiti in maniera automatizzata. La capitalizzazione di un agire così potente da un punto di vista etico è dirompente perché moltiplica, ingigantisce ed enfatizza anche piccole trasformazioni. È come se il rumore diventasse cacofonico. Per rovinare una bottiglia di vino bastano due gocce d’aceto. Questo è il guaio della disinformazione. Quando ci troviamo di fronte a cose buone, tanta informazione buona, tante cose che funzionano nel modo giusto, tanta capacità di agire messa a servizio di sustainable goals, della sostenibilità, del verde, purtroppo basta poco per mandare tutto a scatafascio. Questo è il dilemma etico tra i più pressanti: c’è una mancanza di equilibrio tra tutte le cose buone che si possono fare e quelle cattive. E non è vero che ci si bilancia, perché le cose buone sono adulterate da quelle cattive. Può fare bene all’ambiente, e nel frattempo lo sta distruggendo. Non basta dire che una cosa è un po’ buona e un po’ cattiva, e dipende da come la usi. Bisogna spostare molto di più l’attenzione su fare bene, perché solo se fai tanto, tanto bene, quel poco di male non avrà un effetto dirompente. 

Se la usiamo male, l’intelligenza artificiale è una costante erosione dell’autonomia, dell’indipendenza e della capacità di decidere. Qui i danni sono seri e stanno avvenendo ora.

Insomma, il rapporto tra uomo, macchina e ambiente…

Quello che è meno enfatizzato ma che poi sta alla radice di tutto è l’erosione in parte della dignità umana e in parte dell’autonomia umana. Lo diceva già bene Kant: un’intelligenza artificiale che sfrutta gli individui non come fini ma come mezzi, a cui non interessi tu ma interessa solo che tu faccia da correttore per performare sempre meglio, è già un disastro. Abbiamo messo l’intelligenza artificiale al centro e l’umanità al servizio, ed è una scemenza che abbiamo fatto noi. Dignità umana, se l’essere umano è visto come un mezzo e non come un fine. E autonomia umana, cioè la capacità di decidere, l’autodeterminazione. Questa erosione non finisce sui giornali perché è piccola, costante, giornaliera. Immaginate una ragazza che nasce e per 18 anni si sente dire “ti è piaciuto questo, allora ti piacerà anche quest’altro”, che sia un film, una vacanza, un paio di jeans, un libro. È la goccia che scava e perfora la roccia. Se la usiamo male, l’intelligenza artificiale è una costante erosione dell’autonomia, dell’indipendenza e della capacità di decidere. Qui i danni sono seri e stanno avvenendo ora. Dire che l’intelligenza artificiale distruggerà il mondo e parlare di guerre stellari è un modo per buttarla in caciara. Ma se cominciamo a mettere il dito sulle cose serie, allora tocca fare qualcosa di serio. Non “come faremo a distruggere l’intelligenza artificiale?”, ma “la banca dovrebbe usare questo sistema per decidere chi prende il mutuo in modo completamente autonomo o no?”. Chi è responsabile se fa un errore? Come si rettifica quell’errore? Chi paga per quell’errore?

Come possiamo reagire a questa situazione? La parola inglese, pressoché intraducibile, è “coping”.

È un po’ come averci a che fare, ma metterci anche una pezza. La strada è lunga e andrebbe intrapresa subito. Racconto queste cose da decenni, e ci sono tante cose da fare. Una è invitare i mass media a darsi una calmata, perché stanno facendo un sacco di rumore e distraendo le persone. Due, uno dei grandi attori che non fa il suo lavoro è l’opinione pubblica, altamente disinformata e confusa, non si compatta e non fa pressione sul legislatore e sull’industriale. Questi due soggetti, industria e politica, hanno scarso interesse a prendere delle misure, ergo non ci stiamo muovendo. Ma se questi tre agenti (opinione pubblica, politica e mondo aziendale) decidessero di fare sul serio invece di parlare di apocalisse, o di fregarsene, riusciremmo a risolvere velocemente il problema. Abbiamo risolto tanti problemi come umanità: siamo riusciti a sbarcare in Normandia, abbiamo eliminato i nazisti e i fascisti. A Porta Pia c’è il monumento dei bersaglieri e sotto la scritta “nulla resiste al bersagliere”, che rivista in maniera più umanista può diventare “nulla resiste all’umanità”. Quando ci si mette. Il problema è che non ci si mette. Se noi come umanità decidessimo che la cosa va risolta, la risolveremmo nel giro di dodici mesi. Su questo non si può essere altro che ottimisti sulle opportunità e frustrati sulle incapacità di coglierle. È la visione gramsciana, di ottimismo sulle tantissime opportunità di raddrizzare la situazione: un’opinione pubblica più critica, mass media che informano meglio, una politica che fa il suo lavoro e quindi una legislazione decente, un’industria che fa attenzione e fa un po’ di più di quello richiesto dalla legge). È la strada maestra da percorrere, non farlo è una irresponsabilità straordinaria. La fantascienza lasciamola a casa. Abbiamo problemi seri, pressanti, reali, davanti agli occhi tutti i giorni.


Luca Barra

Coordinatore editoriale di Link. Idee per la televisione. È professore ordinario presso l’Università di Bologna, dove insegna televisione e media. Ha scritto i libri Risate in scatola (2012), Palinsesto (2015), La sitcom (2020) e La programmazione televisiva (2022), oltre a numerosi saggi in volumi e riviste.

Vedi tutti gli articoli di Luca Barra

Leggi anche

immagine articolo Reddit: Il bestiario della contemporaneità
immagine articolo Intervista a Jim Allen
immagine articolo Le basi per una crescita internazionale

Restiamo in contatto!

Iscriviti alla newsletter di Link per restare aggiornato sulle nostre pubblicazioni e per ricevere contenuti esclusivi.