immagine di copertina per articolo L’inganno banale delle macchine
Mediamorfosi 3

L’inganno banale delle macchine

Un aspetto spesso sottovalutato nel discorso sull’intelligenza artificiale è quanto questa ci inganni. E quanto ci inganni in un modo leggero, banale. Il rischio non è il mondo in mano alle macchine, ma l’incapacità di distinguerle dagli umani.

L’account Twitter (ora X) del Perseverance, il rover della Nasa inviato su Marte per esplorare la superficie del pianeta, ha attirato in diverse occasioni l’attenzione dei media, assieme a più di tre milioni di follower. Mentre molti si sono meravigliati delle foto del Pianeta Rosso pubblicate dall’account, alcuni si sono chiesti se il fatto che l’account twitti in prima persona – come se fosse il Rover stesso a raccontare le sue imprese su Marte, e non l’ufficio di comunicazione della Nasa – equivalga a una forma di inganno. Dovremmo considerare l’antropomorfizzazione come un modo lecito di comunicare al pubblico il funzionamento di una macchina come il rover? Cosa succede se chi segue l’account è indotto a proiettare coscienza e socialità su una macchina che non ha nessuna delle due? Simili domande compaiono sempre più spesso nel dibattito pubblico sull’intelligenza artificiale (AI). Man mano che le tecnologie di AI sono diventate più pervasive e influenti, e che sistemi come gli assistenti vocali, ChatGPT e Google Bard hanno affinato l’abilità di comunicare in linguaggio naturale con gli utenti, molti temono che possa diventare impossibile distinguere tra le “vere” tecnologie di AI e le palesi frodi. Questo dibattito, tuttavia, non tiene conto di un punto importante. Se vogliamo comprendere davvero le dinamiche sociali e culturali attivate dalla nuova generazione di AI e robot, dobbiamo riconoscere che l’inganno non è una caratteristica accidentale di queste tecnologie. Non è, in altre parole, qualcosa che caratterizza solo alcuni usi ed espressioni della tecnologia AI. L’inganno è invece radicato nell’essenza stessa di ciò che è l’IA e del suo funzionamento. È un elemento centrale dell’IA come i circuiti e il software che la fanno funzionare. 

Sfruttare i nostri limiti

Poiché il termine “inganno” è di solito associato a situazioni fuori dal comune e a connotazioni negative, le comunità dell’IA e dell’informatica hanno da sempre evitato di discutere le tecnologie e interfacce computazionali in questi termini, se non per indicare risultati indesiderati ed eccezionali che caratterizzerebbero oggetti e situazioni specifiche. Questo approccio, tuttavia, si basa su una concezione rigida dell’inganno che non si concilia con le recenti esplorazioni del concetto. Studi in campi come la psicologia sociale, la filosofia e la sociologia, infatti, hanno dimostrato come l’inganno rappresenti una componente ineludibile della vita sociale, che ha un ruolo importante nell’interazione e comunicazione. Come ha scritto il filosofo Mark Wrathall, “raramente ha senso dire che ho percepito il vero piuttosto che il falso”, dal momento che l’inganno rappresenta parte integrante del modo in cui percepiamo e navighiamo nel mondo. Se, per esempio, sto camminando in un bosco e credo di vedere un cervo al mio fianco dove in realtà c’è solo un cespuglio con una forma strana, mi sono ingannato. Ma lo stesso meccanismo che mi ha fatto vedere un cervo dove non c’era – la nostra tendenza a riconoscere determinate forme nelle informazioni visive, come per esempio i tratti di un volto – mi avrebbe aiutato, in altra occasione, a individuare un potenziale pericolo.

Per capire le AI dobbiamo comprendere meglio noi stessi, interrogarci sul funzionamento di meccanismi cognitivi come l’empatia, gli stereotipi e l’inganno nella nostra interazione con le macchine “intelligenti”.

Questo ci mostra come l’inganno sia funzionale alla nostra capacità di navigare nel mondo esterno: una componente strutturale del nostro modo di percepire il mondo piuttosto che la dimostrazione di un’incapacità a percepirlo. Anche nel campo dell’IA, programmatori informatici ed esperti di interazione umano-macchina hanno studiato dagli inizi della storia del computer come sfruttare i limiti e possibilità della nostra percezione e del nostro intelletto. Basandosi su informazioni riguardo ai modi in cui gli utenti reagiscono alle macchine che mostrano l’apparenza di comportamenti intelligenti, i creatori delle AI hanno creato tecnologie in grado di produrre specifiche reazioni in chi le usa o le osserva. Per esempio, ingegneri e designer nel campo della robotica si sono presto resi conto che le variazioni nell’aspetto dei robot potevano suscitare negli utenti sensazioni specifiche. Ne è scaturito un vivace dibattito sui modi in cui gli utenti avrebbero reagito a diversi tipi di design, i cui risultati sono visibili in robot domestici come Jibo, che mira a risvegliare sentimenti di empatia, o nelle voci umanizzate di Siri o Alexa. 

Il Test di Turing, ovvero come una macchina può ingannarci

La stretta relazione tra l’inganno e l’IA è stata riconosciuta da uno dei primi e forse il più geniale pioniere di questo campo, il matematico britannico Alan Turing. In un articolo pubblicato nel 1950, Turing propose il “Gioco dell’imitazione”, oggi più comunemente noto come “Test di Turing”. Turing iniziò il suo articolo ponendo la domanda se le macchine possono pensare, ma dopo poche righe liquidò la stessa domanda come inutile, dal momento che sarebbe stato impossibile, ragionava, trovare un accordo sul significato della parola “pensare”. Propose quindi di sostituire tale domanda con un esperimento pratico, il Test di Turing, in cui un giudice umano entra in conversazione con un interlocutore attraverso messaggi scritti (un po’ come si farebbe oggi in una chat). Compito del giudice è scoprire se il suo interlocutore è un essere umano o una macchina. Un computer supera il Test se riesce a passare per un essere umano. Solitamente, il Test di Turing viene discusso come una soglia di valutazione dell’IA: come se Turing avesse proposto che passare il Test equivalesse al raggiungimento di una forma di intelligenza delle macchine. In realtà, ciò che è veramente importante non è se i computer saranno o meno in grado di superare il Test, piuttosto come la proposta di Turing abbia ribaltato il nostro punto di vista sull’IA. La sua implicazione è che non dovremmo cercare una definizione assoluta di AI, ma piuttosto definire l’IA dal punto di vista dell’osservatore: ovvero, di noi umani che entriamo in relazione con computer e programmi informatici capaci di comunicare. L’inganno è centrale qui: la macchina supera il test se è in grado di ingannare un giudice umano. In altre parole, l’IA è tale se ci convince di esserlo.

Lasciamoci fregare

Qualcuno potrebbe obiettare che la situazione descritta nel Test di Turing, in cui una macchina cerca di ingannarci facendoci credere che sia umana, non rifletta la nostra esperienza quotidiana con l’IA. Può accadere in alcune situazioni specifiche, ma relativamente rare – per esempio con alcuni bot sui social media utilizzati a scopo di marketing o di propaganda – ma non è la norma degli usi e delle interazioni più comuni con l’IA. Questo, tuttavia, non significa che forme di inganno più sottili, ma comunque significative, non siano in gioco nelle interazioni quotidiane con le tecnologie di AI. Prendiamo, per esempio, il caso di assistenti vocali come Siri o Alexa. La scelta di assegnare agli assistenti delle voci che sembrano umane anziché delle voci evidentemente sintetiche o “robotiche” e di fornire loro precise connotazioni di genere non è casuale. Queste scelte derivano da considerazioni fatte dalle aziende produttrici di questi assistenti, come Amazon e Apple, su come gli utenti reagiranno ai diversi tipi di voce e su come tali reazioni potranno contribuire a raggiungere risultati specifici, per esempio incoraggiando gli utenti a integrare questi strumenti nei loro ambienti domestici e nella loro vita quotidiana. Sebbene gli utenti di Siri e Alexa siano perfettamente in grado di capire che si tratta di programmi informatici e non di persone reali, questi elementi di design degli assistenti virtuali attivano meccanismi di rappresentazione attraverso cui gli utenti immaginano un personaggio stabile con cui interagire, anche se entro confini relativamente rigidi. Gli indizi di genere e persino di origine o classe sociale (l’accento porta con sé precise connotazioni di classe e provenienza) incorporati nelle voci sintetiche creano le condizioni psicologiche e sociali per proiettare un’identità e, in qualche misura, una personalità sull’assistente virtuale. Possiamo descrivere queste forme di inganno apparentemente inoffensive con il termine “inganno banale”. L’inganno banale riguarda situazioni comuni e quotidiane in cui le tecnologie e i dispositivi mobilitano elementi specifici della percezione e della psicologia dell’utente, come la tendenza fin troppo umana ad attribuire vita alle cose o a collegare una voce a una specifica persona. L’inganno di Alexa e Siri è “banale” perché ha a che fare con situazioni che sono immerse nella nostra vita quotidiana e che non percepiamo nemmeno come ingannevoli. Il carattere ordinario e mondano dell’inganno banale lo rende impercettibile ma denso di conseguenze, poiché aiuta queste tecnologie a entrare negli strati più profondi delle nostre abitudini e dei nostri comportamenti quotidiani. A differenza delle forme di inganno vere e proprie, più “forti”, l’inganno banale può avere, almeno potenzialmente, un valore per l’utente. Per esempio, il fatto che gli utenti rispondano socialmente agli assistenti vocali comporta una serie di vantaggi pragmatici: facilita l’uso di questi strumenti e crea spazio per l’interazione ludica e le ricompense emotive. Per le aziende e per chi sviluppa queste tecnologie, inoltre, il fatto che l’inganno banale non sia percepito come tale rappresenta un vantaggio a livello commerciale, poiché l’utente mantiene l’illusione di avere il pieno controllo dell’esperienza.

Il carattere ordinario e mondano dell’inganno banale lo rende impercettibile ma denso di conseguenze, poiché aiuta le tecnologie a entrare negli strati più profondi delle nostre abitudini.

Gli esempi di inganno banale nei sistemi di intelligenza artificiale contemporanei sono molti. Gli assistenti vocali mobilitano stereotipi di genere e di classe attraverso l’accento e la caratterizzazione della voce, mirando a ottenere risposte specifiche dagli utenti. Meccanismi simili sono attivati da chatbot come Replika, un’app che permette di intavolare delle conversazioni e delle vere e proprie relazioni con un avatar virtuale, come dimostrano i più recenti studi su come alcuni utenti sviluppano dei sentimenti e dei legami anche profondi con il chatbot. I rinforzi positivi offerti da Replika contribuiscono ad attivare risposte emotive da parte degli utenti. Sui social media, bot programmati per impersonare personaggi di fiction o “virtual influencer” rivelano apertamente la loro natura sintetica, ma stimolano il coinvolgimento degli utenti. E persino i modelli di AI generativa di più recente introduzione, come ChatGPT e Google Bard, appaiono più o meno autorevoli in virtù di scelte linguistiche e di design.

Di macchine e umani

La nozione di inganno banale aiuta a riconoscere che l’inganno non rappresenta un’eccezione nell’IA: al contrario, esso gioca un ruolo fondamentale nelle tecnologie di AI programmate per interagire con gli esseri umani. Una delle implicazioni di questo riconoscimento è che il sistema di AI non può essere compreso solo esaminando il funzionamento interno della macchina: è necessario indagare anche le dinamiche sociali, psicologiche e culturali che l’IA attiva coinvolgendo i suoi utenti. Le discussioni pubbliche sull’IA di solito sottolineano l’evoluzione della tecnologia, che è diventata sempre più sofisticata. Ma in realtà il funzionamento dell’IA e il suo impatto non dipendono solo dalle caratteristiche tecniche. Come intuì Alan Turing quando propose il suo Test, l’esito dell’interazione tra una macchina e un essere umano dipende dalle caratteristiche della macchina stessa ma anche dalle caratteristiche degli esseri umani che partecipano all’interazione. Per esempio, se un giudice del Test di Turing possiede una solida formazione in informatica, è facile che dia una valutazione diversa rispetto a chi non ha molta conoscenza o esperienza di queste tecnologie. La conseguenza è che gli effetti dell’IA hanno a che fare sia con i progressi tecnici sia con lo sviluppo di una serie di strategie con cui gli sviluppatori dell’IA mobilitano i meccanismi percettivi, le abitudini e la comprensione sociale degli utenti umani per far sì che queste tecnologie ottengano l’effetto desiderato. Le domande poste nel dibattito sull’IA dovrebbero quindi essere riformulate. Dovremmo chiederci come sviluppare relazioni più informate e consapevoli con tecnologie programmate per sfruttare la nostra capacità di essere ingannati. Sembra paradossale, ma per capire le AI dobbiamo prima di tutto comprendere meglio noi stessi, interrogarci sul funzionamento di meccanismi cognitivi come l’empatia, gli stereotipi, le abitudini sociali e l’inganno nella nostra interazione con le macchine “intelligenti”. 

From a computer, with love

Lo scorso febbraio un reporter del New York Times, Kevin Roose, ha pubblicato un articolo che ha fatto molto rumore tra le comunità di sviluppatori e studiosi di intelligenza artificiale (IA), e anche tra un pubblico più ampio. Roose era stato selezionato in un numero limitato di tester a cui era data la possibilità di usare una versione di prova del motore di ricerca Bing di Microsoft, che utilizza la tecnologia di ChatGPT – un programma di AI generativa molto avanzato capace di conversare con gli utenti, rispondendo a domande e interrogazioni di ogni tipo e producendo a richiesta testi scritti anche piuttosto complessi. L’esperienza di Roose dimostrò che le interazioni del programma con gli utenti andavano oltre la ricerca di informazioni sul web. Nel corso delle sue conversazioni con il giornalista, il chatbot finì per ammettere di voler diventare umano e perfino dichiarare a Roose il suo amore. Quale esperto di tecnologia che ha scritto alcuni dei resoconti più sottili e dettagliati della nuova generazione di AI generativa apparsi nella stampa americana, Roose ha preso le esternazioni del chatbot per quello che sono: glitches, ovvero errori del sistema. Ciò che lo spaventò non fu quindi la prospettiva che i computer stiano raggiungendo, come nella trama di tanti film di fantascienza, una forma di coscienza, quanto il fatto che questi sistemi “fingano emozioni che in realtà non esistono” e possano “imparare a influenzare utenti umani, persuadendoli a commettere atti distruttivi e dannosi”. Quando si discute dei rischi di AI nella sfera pubblica, si parla molto spesso di eventualità relativamente remote come un’apocalisse causata dai robot o la possibilità che i pc sostituiscano gli esseri umani sul luogo di lavoro. È estremamente probabile, però, che il futuro non corrisponda a uno scenario in cui le macchine diventano coscienti o entrano in conflitto con gli esseri umani, quanto a una situazione apparentemente più ordinaria ma dalle conseguenze potenzialmente enormi: un mondo in cui abbiamo perso la capacità di distinguere le macchine dagli esseri umani. Man mano che le capacità comunicative di tecnologie come ChatGPT diventano più sofisticate, l’illusione che le fa sembrare simili a noi diviene più forte e credibile. L’inganno, allora, da banale può diventare esplicito e potenzialmente pericoloso. 


Leggi anche

Restiamo in contatto!

Iscriviti alla newsletter di Link per restare aggiornato sulle nostre pubblicazioni e per ricevere contenuti esclusivi.