immagine di copertina per articolo Il mito dell’automazione
Contro la tv

Il mito dell’automazione

Le piattaforme digitali hanno sottolineato con forza di essere meglio della tv perché prive degli errori umani, calibrate perfettamente dalle macchine. Ma gli uomini sono dappertutto, se si parla di dati.

Qualche tempo fa mi sono imbattuto, un po’ per caso, in un articolo intitolato Il futuro negli algoritmi. L’autore, pur entusiasta delle nuove possibilità di calcolo e predizione, giungeva alla conclusione che nessun processo decisionale automatizzato all’interno delle aziende potrà mai sostituire il giudizio umano dei dirigenti. Come molti articoli divulgativi recenti magnificava la potenza della computazione, ma provvedeva a mitigare l’angoscia delle possibili conseguenze, risultando alla fine rassicurante. Non era però un articolo uscito quest’anno o l’anno scorso, come qualcuno si sarebbe potuto aspettare visto che oggi vivremmo nell’“età algoritmica”. Era datato gennaio 1966 (1) A. Mondini, “Il futuro negli algoritmi”, Esso Rivista, 18.1, gennaio-febbraio 1966, pp. 16-18. Se c’è una morale è che dobbiamo sempre diffidare delle retoriche nuoviste e futuriste, in particolare se investono gli ambiti dei media e della tecnologia (e si trovano magari a giocare un qualche ruolo promozionale).

I discorsi che oggi ci sembrano più inediti e contemporanei sono spesso articolati in modo del tutto simile a mille altri che li hanno preceduti, e talvolta, se pure non si riferiscono esattamente agli stessi oggetti, replicano le medesime tensioni. Nel caso specifico dei sistemi di raccomandazione fondati sugli algoritmi, tutti i discorsi che li riguardano, tanto quelli “apocalittici” quanto quelli “integrati”, sembrano attraversati in filigrana dalla traccia di una frizione – la frizione tra la componente automatica e quella umana. Ma è una distinzione, tra automatico e umano, di per sé posticcia. La retorica dell’automazione nei sistemi di raccomandazione delle piattaforme video on demand si inscrive nel più ampio orizzonte culturale che celebra le virtù delle macchine. È quella cultura, che ha attecchito bene da decenni nella Silicon Valley, che esalta l’intelligenza artificiale e vagheggia la messa a punto dell’“algoritmo definitivo” (2)P. Domingos, L’algoritmo definitivo. La macchina che impara da sola e il futuro del nostro mondo, Bollati Boringhieri, Torino 2018, da cui dipenderebbe nientemeno che il futuro dell’umanità. Una cultura da un lato imbevuta di scientismo positivista, dall’altro capace di un grado di visionarietà misticheggiante. Dall’entusiasmo per l’auto a guida autonoma alla fiducia transumanista nel ricorso alle macchine per l’upload cerebrale e la vita eterna la distanza non è così grande – come ha raccontato bene Mark O’Connell in Essere una macchina.

I discorsi intorno ai motori di raccomandazione delle piattaforme Vod, in quanto parte di questa retorica ottimista e tecno-deterministica, concepiscono il mondo e le persone come realtà scomponibili in unità discrete, e perciò come oggettivamente descrivibili, computabili, in ultimo prevedibili. Si sostiene che le raccomandazioni automatiche funzionano bene, meglio di quanto possa fare qualunque raccomandazione umana, specialmente in una situazione di abbondanza di offerta come quella che sarebbe tipica delle piattaforme video. Quei sistemi, ci viene assicurato, conoscono i cataloghi e i gusti degli utenti meglio di qualunque esperto e meglio perfino dell’utente stesso, che potrebbe avere un’idea sbagliata di sé e di cosa gli piace davvero. A conferma, Netflix porta il fatto che quattro minuti di streaming sulla piattaforma ogni cinque vengono da contenuti suggeriti automaticamente all’utente.

Generalmente si presume che tanto nelle piattaforme video quanto in qualunque altro ambito del digitale l’“algoritmo” – come spesso si tende a definire, semplificando, un dispositivo eterogeneo e articolato – serva a soppiantare ogni possibile componente editoriale. In realtà non fa che implementare l’editorialità in altra veste, solo apparentemente garantendo caratteri di maggiore obiettività scientifica.

“Fatti in modo simile”? Raccomandare con dati di descrizione del contenuto

Pensiamo, per cominciare, alle raccomandazioni content based, quelle che si servono di dati che descrivono i contenuti. Se ho guardato tante commedie romantiche, il sistema mi suggerirà altre commedie romantiche. Non è una macchina a compiere l’operazione di descrizione dei contenuti – le maggiori piattaforme Vod non hanno ancora mai davvero sperimentato in produzione dei sistemi di annotazione automatica dei video. A farlo sono tipicamente degli esseri umani, che si servono di un sistema di taggatura che prevede tutti i possibili descrittori attribuibili a ogni singolo contenuto (diciamo a ogni singolo film). Un sistema di taggatura a sua volta inventato da qualche altro essere umano – e che nel caso di Netflix è sintetizzato in un manuale di 36 pagine. Cos’è una commedia, cos’è romantico per Netflix? Cosa non lo è, e perché? Hanno senso queste categorie? Ce l’hanno allo stesso modo per tutti i contenuti di tutte le epoche e di tutti Paesi del mondo?

I motori di raccomandazione, ci assicurano, conoscono cataloghi e gusti degli utenti meglio di qualunque esperto, perfino dell’utente stesso.

Ci interessa poco rispondere davvero a queste domande, ma ci interessa renderci conto che di tali questioni non si occupa una macchina, ma un taggatore umano. E prima ancora se ne occupa chi decide che può avere un senso inserire quei due descrittori nel sistema di taggatura, e che vanno bene in coppia l’uno con l’altro. Ma non sono queste le uniche intromissioni umane nel processo, perché per esempio qualcuno deve pure decidere in che misura due commedie romantiche possono essere ritenute simili tra di loro per il solo fatto di essere appunto due commedie romantiche, e se quegli attributi del contenuto valgono più o meno di altri (come l’anno di produzione, o il Paese, o il regista), e quanto di più o quanto di meno. Midnight in Paris sarà più simile a Il lato positivo (stesso genere, stesso anno) o a un altro film di Woody Allen e dello stesso genere, magari più vecchio, come Manhattan? Accadde una notte può essere simile a Il lato positivo, anche se è di quasi ottant’anni più vecchio? E qualcuno deve decidere in base a quale criterio io posso davvero essere considerato come un fanatico di commedie romantiche, cioè deve decidere le soglie temporali (quanti mesi?) e di consumo (quanti contenuti di quel tipo?) oltre le quali quel mio interesse può essere considerato come connotante e distintivo.

Non solo: deve decidere se parametrare o meno le soglie al mio stile di fruizione (quanti film vedo, con quale frequenza?) o al numero di contenuti presenti in catalogo che hanno quegli stessi attributi (quante commedie romantiche ho visto rispetto a tutte quelle disponibili?). Insomma, va predefinito un sistema di descrizione, i dati vanno scelti e attribuiti e così vanno decise le logiche di somiglianza tra i contenuti e soglie di ogni tipo per qualificare gli interessi dell’utente. E per farlo serve che qualcuno stabilisca dei criteri, con in mente un qualche scopo o secondo qualche idea di quali tra tutte le raccomandazioni possibili siano quelle che paiono avere più senso. Più senso per qualcuno, appunto, e perlomeno per gli obiettivi editoriali di una certa piattaforma.

“Apprezzati in modo simile”? Raccomandare con dati di fruizione

Ma non esistono solo sistemi di raccomandazione content based, tutt’altro. Le raccomandazioni automatiche di collaborative filtering non si servono per esempio dei dati di descrizione del contenuto, ma dei dati di fruizione. Questo potrebbe bastare a renderle apparentemente meno esposte alla soggettività del sistema di taggatura e dell’operazione manuale di attribuzione di descrittori. Sono i comportamenti di visione a definire la somiglianza tra due film, o la somiglianza tra due utenti: Marco e Francesca sono simili tra loro perché a entrambi sono piaciuti Blade Runner e Minority Report e non sono piaciuti Quel che resta del giorno e Gosford Park. Quel che resta del giorno è simile a Gosford Park perché entrambi piacciono a Luca e ad Alessia, e anche perché appunto né l’uno né l’altro sono piaciuti a Marco e a Francesca. Il sistema, oltre a definire la somiglianza tra diversi utenti e tra diversi contenuti, può usare questi dati per suggerire raccomandazioni personalizzate e mostrare a un utente un contenuto che non ha ancora visto ma che è stato apprezzato da un altro utente simile (collaborative filtering user based), o un contenuto che dai dati di fruizione degli altri utenti pare simile ad altri contenuti che l’utente target ha apprezzato in passato (collaborative filtering item based).

Questo modo di stabilire la somiglianza tra utenti e tra contenuti può sembrare poco problematico, automatico oppure obiettivo, ma cosa significa in concreto apprezzare un film? Qualcuno deve deciderlo, e non è una macchina a farlo. Anche in questo caso, per le raccomandazioni collaborative, è richiesta una vera valutazione editoriale ai gestori della piattaforma, o forse perfino qualcosa di più: qualcuno si deve inventare una sorta di teoria del consumo e del gusto cinematografico. Qualcuno deve selezionare, tra i comportamenti dell’utente che la piattaforma è in grado di registrare, quelli che ritiene essere più utili o interessanti, e deve attribuire loro un significato. Un significato va attribuito tanto ai comportamenti costituiti da un giudizio esplicito (potrà sembrare facile, ma due spettatori potrebbero avere metri di giudizio differenti, e intendere cose diverse quando assegnano lo stesso numero di stelle a un film), quanto soprattutto ai comportamenti con valore implicito, come la visione del contenuto, l’interruzione della riproduzione, l’aggiunta a una lista o ai preferiti, la sua rimozione dalla lista, lo scroll, il mouse hover, il time to play, eccetera.

Per esempio, una visione quasi completa, diciamo all’80% della durata totale del contenuto, vale tipicamente come un giudizio positivo. Una visione interrotta, invece, significherà allora implicitamente che il film non è piaciuto, e varrà un giudizio negativo? Ogni umanissima decisione in proposito avrà conseguenze importanti su quali contenuti e quali utenti saranno considerati simili tra loro, in un contesto di raccomandazioni collaborative. E prima, naturalmente, qualcuno avrà dovuto decidere l’ampiezza delle finestre per la rilevazione dei dati di fruizione (eventualmente parametrate ai diversi stili di consumo) e le soglie di durata sotto/sopra cui la visione del contenuto è considerata un giudizio di apprezzamento o come il suo esatto opposto. Con tutti i rischi che l’inferire alcunché dai comportamenti impliciti può comportare. In fondo, con il rischio di farsi un’idea sbagliata dell’utente e delle somiglianze tra i contenuti (e se avessi interrotto prematuramente la visione solo per rispondere al telefono? E se avessi riprodotto tutto il film solo perché mi sono addormentato davanti allo schermo?).

Il presupposto teorico delle raccomandazioni content based è che se due contenuti condividono un gran numero di attributi allora sono tra loro molto simili. Invece quello della raccomandazione collaborative filtering è più audace, o almeno così appare a chi è abituato a pensare che siano le caratteristiche intrinseche dei contenuti a decretarne la somiglianza o la differenza: perché siano simili fra loro può bastare che due contenuti inneschino negli utenti comportamenti simili. Si capisce perciò che anche la scelta di adottare una logica di raccomandazione o un’altra è già essa stessa una decisione editoriale da parte del provider. Per esempio Amazon Prime Video verosimilmente privilegia le raccomandazioni collaborative (“i clienti hanno guardato anche”) rispetto a quelle content based, vista forse l’originaria ascendenza e-commerce di quella piattaforma (lo si capisce anche dai termini usati: lo spettatore è un “cliente”). La ragione può stare nel fatto che le raccomandazioni collaborative suggeriscono contenuti (e prodotti) giudicati qualitativamente simili dagli utenti, e non semplicemente simili per i loro tratti costitutivi, e questo per un sito di commercio elettronico rappresenta già un valore. In effetti pare che sia stata proprio Amazon a introdurre la logica di collaborative filtering item based.

L’ultimo miglio dell’automazione

Il reale funzionamento dei sistemi di raccomandazione è del tutto opaco, per chi guarda dall’esterno, ed è proprio questo che finisce per renderci ben disposti ad accettare la retorica della loro pura meccanicità, alimentata dai provider stessi. È per questo, per esempio, che siamo portati a pensare che la raccolta di metadati, cioè di dati di descrizione del contenuto, sia automatica. Certamente non è proprio così nell’ambito delle piattaforme Vod, come s’è visto. Ma perfino in tutti quei campi in cui l’annotazione dei contenuti è davvero affidata alle macchine, e dove l’intelligenza artificiale pare riuscire a funzionare da sola, ciò che la retorica promozionale tende a censurare è la reale e massiccia presenza di umanità, di lavoro umano. A essere nascosto, da una parte, può essere un lavoro di tipo strategico e intellettuale, ma dall’altra parte si tace spesso anche l’inevitabile presenza di un genere di lavoro duro e non particolarmente creativo, esternalizzato, talvolta delocalizzato in qualche paese lontano, spesso sottopagato. 

Le macchine vanno sempre istruite, e lo si può già fare quando si decide con quali dati possono imparare a conoscere e a descrivere il mondo (e qui starebbe il lavoro intellettuale). O le si istruisce validando le loro “decisioni” e spiegando loro cosa è corretto e cosa non lo è (e qui starebbe il lavoro più operativo). C’è gente che ascolta quello che diciamo ad Alexa o a Siri e aiuta quei dispositivi a capirci meglio, così come c’è gente che istruisce un’auto a guida autonoma a distinguere un cervo da un sacchetto di plastica e le insegna come comportarsi nel caso incrociasse l’uno o l’altro sulla propria traiettoria. C’è qualcuno, da qualche parte del mondo (probabilmente nell’estremo Oriente), che in questo momento sta ricalcando su un fotogramma i contorni di un cavallo a bordo di una strada, e lo sta etichettando come |cavallo| per educare la visione computerizzata di una macchina. E c’è qualcun altro che sta trascrivendo le parole che abbiamo rivolto a Google Home perché in futuro il dispositivo capisca meglio il nostro accento. Lo chiamano l’“ultimo miglio dell’intelligenza artificiale”, ed è pieno zeppo di esseri umani.

Dunque la “raccolta automatica” di dati, quando esiste, non è davvero automatica ma perlomeno filtrata da schemi e griglie d’interpretazione e valutazione umane. E così anche l’autoapprendimento o la configurazione automatica dell’“algoritmo” non va considerato come qualcosa di puramente macchinico e automatico. Non vale solo per le auto a guida autonoma e gli assistenti vocali intelligenti. Per esempio, nell’ambito dei sistemi di raccomandazione Vod è senz’altro implementabile un sistema di pesatura automatica delle variabili. Vale a dire che per ottimizzare il funzionamento del sistema una macchina può (eventualmente) decidere di assegnare automaticamente pesi diversi, per esempio, ai diversi descrittori dei contenuti audiovisivi e ai diversi comportamenti di fruizione (umanamente definiti e selezionati), e di dare maggiore importanza al regista rispetto al genere, o alla visione completa di un film piuttosto che alla sua aggiunta a una lista di preferiti, quando si tratta di definire i criteri di somiglianza tra diversi contenuti. Quello che non va dimenticato è che anche un’ottimizzazione automatica di questo tipo è inevitabilmente subordinata alla valutazione editoriale di quali siano i reali obiettivi di una specifica piattaforma video, e di quali siano le metriche migliori per valutarne il buon funzionamento. Se si ottimizza qualcosa, lo si fa a partire da certe considerazioni e a un certo scopo, e quello scopo lo individua e lo definisce qualcuno in base a obiettivi strategici.

Obiettivi di business

L’identificazione di variegati obiettivi per l’ottimizzazione può portare a valutare indicatori differenti e dunque a realizzare configurazioni (pesature) molto diverse, ed è davvero poco importante a questo punto che queste siano automatiche o meno nella loro realizzazione concreta. Come si valuta la bontà di un motore di raccomandazione di contenuti audiovisivi? Dipende, e anche questo sarà qualcuno a deciderlo: il modello di business di una piattaforma Tvod (come iTunes) richiede che l’utente riproduca tanti contenuti, e quindi un buon sistema di raccomandazione in quel contesto deve probabilmente mirare alla conversion, cioè a massimizzare le visioni dei contenuti suggeriti. Un modo (troppo?) banale sarebbe quello di promuovere la raccomandazione di contenuti popolari e che più probabilmente saranno visti da tutti gli utenti. Chiaramente la popolarità come criterio di raccomandazione è tutt’altra cosa rispetto alla personalizzazione, che d’altra parte è uno dei totem dei servizi on demand, e per qualcuno un fine in sé stessa. Diversamente, una piattaforma Svod (come Netflix) è interessata, per il proprio modello di business, a minimizzare il churn rate, cioè il tasso di abbandono dell’abbonamento al servizio. 

Non è detto che la massimizzazione delle visioni dei contenuti suggeriti abbia una correlazione con la minimizzazione del tasso di abbandono: magari una metrica più sensata per valutare la bontà del sistema potrebbe essere in questo caso semmai la coverage, che si riferisce all’ampiezza della copertura del catalogo da parte delle raccomandazioni (può dare un senso di profondità e varietà del servizio, utile a comunicarne la qualità e a fidelizzare l’utente). Oppure la novelty, il fatto che le raccomandazioni suggeriscano contenuti che l’utente non aveva già visto raccomandati altrove, o che non conosceva ancora. Com’è evidente, la scelta di quale metrica utilizzare per ottimizzare il sistema di raccomandazione è tutta umana e discende da considerazioni di natura editoriale, redazionale, pure se poi l’ottimizzazione in sé potrà essere eventualmente automatica.

Il piacere dell’editorialità

Beninteso, l’editorialità dei provider Vod può essere anche molto più esplicita e riconoscibile. In particolare in un contesto competitivo che induce i distributori digitali a farsi spesso anche produttori di audiovisivi, non è un mistero che le piattaforme provvedano ad applicare regole editoriali che servono a spingere i propri contenuti originali in testa alle raccomandazioni, viziando così in modo evidente la purezza macchinica dei risultati elaborati in autonomia (si fa per dire) dall’algoritmo. E i contenuti saranno perciò visibilmente riconoscibili come Amazon o Netflix Originals, organizzati in caroselli dedicati o bollati con il logo della piattaforma, e ordinati per data di pubblicazione in catalogo. Con buona pace della retorica anytime dell’on demand, le piattaforme finiscono così per conservare la più classica componente palinsestuale di sincronizzazione delle esperienze audiovisive del pubblico – ed è difficile non averne una conferma quando vediamo le città e le metropolitane tappezzate dai manifesti delle nuove uscite. 

È una caratteristica delle piattaforme non necessariamente disprezzata dagli utenti, che come dimostrano ricerche recenti hanno piacere di rimanere al passo con le nuove pubblicazioni. Anzi, c’è chi si lamenta che talvolta il motore di raccomandazione di Netflix (quando funziona “bene”?) finirebbe per confinare lo spettatore in una bolla di suggerimenti personalizzati e farebbe scoprire i contenuti nuovi “in ritardo” rispetto ad altri utenti. Naturalmente non esiste “ritardo” senza una scansione temporale preferenziale di fruizione, cioè senza palinsesto, e non esiste palinsesto senza una vera e umana (e strategica) componente editoriale. Da Netflix evidentemente non ci aspettiamo sul serio un’offerta troppo personalizzata di contenuti, che ci nasconda i titoli più popolari e più discussi. Vogliamo servircene un po’ come di una televisione, perché in fondo funziona già costitutivamente così, al netto delle retoriche che vorrebbero altrimenti. Retoriche che in effetti hanno contraddistinto i primi anni di diffusione della piattaforma (e un po’ di tutte le altre), ma che non è proprio detto siano destinate a durare per sempre con la stessa efficacia, e che anzi potrebbero addirittura essere ribaltate.

Ciò che la retorica promozionale tende a censurare è la reale e massiccia presenza di umanità, di lavoro umano. L’ultimo miglio dell’intelligenza artificiale è pieno di esseri umani.

E se stesse già accadendo? Fino a poco tempo fa Ted Sarandos, chief content officer di Netflix, affermava: “Non voglio che i nostri contenuti definiscano chi siamo. E non voglio che il nostro marchio definisca i nostri contenuti […]. Non esiste un ‘prodotto in stile Netflix’. Il nostro stile è la personalizzazione”. Da pochi mesi invece c’è chi, proprio all’interno Netflix, sembra sostenere qualcosa di completamente diverso, ridimensionando l’automaticità dei processi basati sui dati (non l’importanza dei dati in sé, si badi bene), e sottolineando la presenza nel sistema di “dozzine di persone” con responsabilità decisionali del tutto umane. La stessa executive Cindy Holland, VP original content di Netflix, durante la Intv Conference di Gerusalemme (2019) ha tenuto a distinguere la piattaforma di Los Gatos dalle grandi aziende tecnologiche come Facebook e Google, descritte quasi sprezzantemente come uncurated platforms, cioè piattaforme non curate. Non curate editorialmente, perché – almeno nel loro discorso pubblico e promozionale – affidate orgogliosamente ad algoritmi, con quello stesso orgoglio informatico e scientista che sembrava caratterizzare anche Netflix fino a ieri.

Ci troviamo a un punto di snodo importante. Netflix comincia a rivendicare una diversità rispetto al carattere uncurated delle grandi piattaforme del web, perché sarà pure una data company, ma il suo specifico è la creatività, non l’informatica. Spotify, dopo essersi vantata a lungo dell’acume data driven dei suoi sistemi di raccomandazione, ora riconosce volentieri che metà della musica riprodotta sulla piattaforma viene da playlist human curated. Apple recluta nuovi editor confessando esplicitamente che al cuore di iTunes sta, ancora, la human curation. Hulu mette in mostra, tra i caroselli di raccomandazione, gli staff picks, cioè i consigli della redazione dichiaratamente presentati come tali. Anche in Italia, su Dplay, è approdato Walter Presents, una modalità di distribuzione di serialità mainstream e di qualità che sta agli antipodi rispetto alla filosofia della raccomandazione automatica – è la raccomandazione umana, che non nasconde ma esibisce l’editor, e fa di questo proprio il tratto caratterizzante del servizio. E d’altronde la stessa Netflix ci tiene a farci sapere – la notizia è di agosto 2019 – che su alcuni dispositivi iOS sta testando le Collections, cioè liste di titoli selezionati e organizzati manualmente da quegli stessi esperti umani che fino all’altro giorno sembravano destinati a essere spazzati via dall’algoritmo. Le Collections, promosse espressamente dal marketing come human curated, parrebbero una risposta all’iniziativa Recommended by Humans di Hbo: un sito con videorecensioni e tweet di suggerimenti proposti da “real people”, fan in questo caso, creato solo poche settimane prima in evidente polemica con la freddezza delle raccomandazioni computerizzate e con la spietatezza dei sistemi data driven usati per decidere se rinnovare o meno una serie in sfregio alle aspettative e alle passioni degli spettatori in carne e ossa. Da parte loro, poi, gli utenti – a leggere alcune nuove ricerche – non sembrano più così impressionati dalle potenzialità automatiche dell’offerta delle piattaforme Vod, e accettano volentieri che i contenuti siano proposti in modo non-neutrale, secondo criteri palinsestuali o comunque editoriali, arrivando finanche a lamentare l’invadenza dell’algoritmo – che è lo stesso che fa anche richiedere filtri più avanzati di ricerca che permettano finalmente agli utenti di mettere in campo attivamente la propria, di umanità.I sistemi di raccomandazione, se non altro quelli video, hanno sempre implicato la presenza di una forte componente umana, ma probabilmente in futuro la nasconderanno meno. La sensazione è che se era l’automaticità il selling element originario delle piattaforme Vod, perché serviva a caratterizzare i servizi come tecnologici e all’avanguardia, ora stia avvenendo uno slittamento che porta alla valorizzazione dell’aspetto umano come nuovo e potente elemento promozionale di quegli stessi sistemi. Le piattaforme possono forse perfino costituire un campo privilegiato dove osservare, magari con qualche anticipo sulle tendenze più generali, l’evoluzione di un paradigma culturale che in altri ambiti, quelli più puramente tecnologici, sembra ancora celebrare la necessità, la perfezione non umana e la pervasività dell’automazione. Una retorica che invece ormai meriterebbe davvero di essere storicizzata.


Giorgio Avezzù

Assegnista di ricerca presso l’Università di Bologna, il suo progetto (Dati e content science dell’audiovisivo) è finanziato da Rti. Ha scritto L’evidenza del mondo. Cinema contemporaneo e angoscia geografica (Diabasis, 2017).

Vedi tutti gli articoli di Giorgio Avezzù

Leggi anche

immagine articolo Televisione 2.0
immagine articolo Lontano da Hollywood
Mediamorfosi 2

Lontano da Hollywood