immagine di copertina per articolo Metrix Reloaded
Metrix

Metrix Reloaded

Ogni metrica ha i suoi limiti. Ma in un quadro che si complica è necessario comporle, prevedere delle convenzioni e delle forme di conversione. Per trovare un terreno e regole comuni, a monte e a valle.

immagine rivista

Questo articolo è apparso per la prima volta su LINK Numero 28 - Metrix. Viaggio all’ultima frontiera delle metriche del 24 marzo 2022

Vedi pubblicazione

Il mondo dei media è caratterizzato da una crescente eterogeneità. Anzitutto, un’eterogeneità dei materiali e delle tecnologie che supportano i vari mezzi. Passiamo dal supporto fisico (carta, disco, pellicola) al supporto elettronico (televisione e radio), fino ad arrivare al digitale. E per ognuno di questi mezzi abbiamo a che fare con atti di consumo molto diversi che, naturalmente, sono tracciabili in modi altrettanto diversi. Nel mondo digitale posso registrare facilmente il “contatto”, mentre nel mondo fisico il contatto si registra solo se c’è un atto di acquisto che riguarda l’oggetto (comprare il giornale, acquistare il biglietto del cinema, noleggiare un dvd). E comunque, in questo caso, non si riesce a rilevare la “modalità” di consumo (di un giornale, per esempio, non posso registrare come è stato letto). Nell’elettronico, con il paradigma del broadcasting, manca anche questa possibilità. Di conseguenza, se nel digitale, e in un certo senso anche nel fisico, si possono usare approcci censuari, nell’elettronico non si possono che usare metodi di rilevazione campionari.

In secondo luogo, abbiamo a che fare con un’eterogeneità e un’ibridazione di formati e linguaggi: testo, audio e immagine, che a sua volta può essere fissa o in movimento, muta o sonora (differenza non da poco, specie per un investitore pubblicitario…), convergono in ambienti digitali, che ne rendono possibile la convivenza. Se un tempo c’era una sorta di rapporto biunivoco tra contenuti e supporti (la televisione solo sul televisore, il giornale solo sulla carta), oggi non è più così. Si può leggere il giornale anche su desktop e mobile, vedere la tv su qualsiasi schermo, ascoltare la radio su ogni dispositivo. La divergenza tra messaggi e supporti ha reso possibile la convergenza dei formati di comunicazione. 

Da questi cambiamenti deriva giocoforza la necessità di far evolvere il sistema di misurazione tradizionale, adottando una logica plurale delle agenzie di rilevazione e certificazione dei dati di consumo, e utilizzando approcci misti, sia censuari sia campionari. Ogni metodo, ovviamente, ha i suoi punti di forza e i suoi limiti. 

Il mondo censuario si è presentato come l’El Dorado della ricerca: finalmente si possono contare le occorrenze puntualmente, senza passare dalle approssimazioni statistiche! Eppure, a un’analisi attenta, anche questo approccio comporta dei problemi; in certi casi, peggiori di quelli che risolve.

Prendiamo l’approccio campionario. Qui si adottano sia rilevazioni attive (come il diario e l’intervista) sia passive (il meter). I metodi passivi teoricamente producono un dato più esaustivo e “oggettivo”; e tuttavia a volte fanno fatica a cogliere la complessità dei fenomeni: i meter, per esempio, funzionano molto bene in ambito domestico, molto meno fuori casa. E quindi vanno bene per misurare il consumo tv, che è in massima parte domestico, ma incontrano più difficoltà nel misurare il consumo radiofonico, perché in mobilità i meter sono meno affidabili (sono infatti in forma di app da scaricare su smartphone o di oggetti indossabili, elementi che possono creare fastidio all’utente, come un eccessivo consumo di batteria o la necessità di indossare sempre l’oggetto). Così, alla prova dei fatti, i risultati delle rilevazioni passive non sempre sono all’altezza delle aspettative. L’approccio campionario poi si porta dietro tutte le tematiche di ordine statistico: più aumentano le variabili da considerare, più si abbassa l’efficienza statistica del campione. Se costruire un unico grande panel che misuri tutto in modo affidabile è praticamente impossibile, a livello tecnico, è invece possibile individuare più panel che misurino i vari fenomeni, ma è necessario farli dialogare tramite delle modellizzazioni statistiche. I modelli statistici che si applicano introducono a loro volta problemi di approssimazione e di affidabilità.

Il mondo censuario si è presentato come l’El Dorado della ricerca: finalmente si possono contare le occorrenze puntualmente, senza passare dalle approssimazioni statistiche! Eppure, a un’analisi attenta, anche questo approccio comporta dei problemi; in certi casi, persino peggiori di quelli che risolve. Innanzitutto, per potersi definire dato censuario deve essere in grado di contare tutti gli individui, e questo pone evidenti problemi di privacy. Se qualcuno non aderisce alla misurazione, la ricerca perde di efficacia e affidabilità. Bisogna poi considerare che un singolo individuo può essere in possesso di più dispositivi, e che ognuno di essi può avere più di una modalità di accesso (browser, app). Il metodo censuario traccia infatti ogni singola occasione di accesso, non gli individui. Quindi da un lato bisogna capire quali accessi appartengono alla stessa persona per non conteggiarla più volte e non gonfiare la copertura, dall’altro bisogna verificare se più persone stanno usando contemporaneamente lo stesso dispositivo, per esempio per una visione collettiva. Un grandissimo problema del metodo censuario, poi, è quello delle frodi, ovvero del traffico macchina, ragione per cui diventa importante il controllo, la trasparenza e la certificazione del dato. Infine, la definizione dei profili-utente: perché anche quando si ha a disposizione il dato degli individui (ovvero un traffico sicuramente umano, de-duplicato, nettizzato e che tenga conto anche del co-viewing) per risalire al profilo di quell’individuo ci sono solo due strade: o si usufruisce del dato di prima parte (ovvero il log-in dell’utente registrato) o si ricorre a un panel, ibridando nuovamente il dato censuario con l’approssimazione statistica del campionario. 

Dalle convenzioni alle conversioni: il Sacro Graal delle media-metrics

Insomma, il mondo mediale di oggi è così proteiforme che a un aumento delle possibilità di tracciare i consumi fa da paradossale contraltare una maggior difficoltà di ricostruire una visione univoca dell’esperienza dell’utente (elemento fondamentale per gli investitori pubblicitari, perché impatta sulla valutazione dell’efficacia del messaggio). In uno scenario così complesso, quanto più l’esperienza di consumo diventa crossmediale e quanto più si vuole avere una visione complessiva di essa, tanto più si ha bisogno di un’uniformità di definizioni: cosa vuol dire aver “visto” un video o una pubblicità? Qual è la definizione di contatto? È possibile una definizione di contatto che sia utilizzabile per tutti i mezzi e interoperabile in tutti i domini? Possiamo individuare delle “soglie” comuni? In tv la soglia minima per registrare un contatto è fissata a 31 secondi; un’enormità per il digitale! E poi – da un punto di vista tecnico – quando un video è davvero un “video visto”? Quando è richiesto dall’utente, quando “parte” o quando effettivamente viene ricevuto? (Qui, per esempio, si gioca già una prima distinzione tra la definizione di “video-stream” di Audiweb e quella di Auditel – per il primo basta l’effettiva erogazione del video, per Auditel invece è necessario che venga visto per almeno 300 millisecondi).

Si passa così a un piano che non è più solo tecnico, ma anche di convenzioni. E quando poi si sono trovate le convenzioni bisogna trovare anche delle conversioni: vedere uno spot su uno schermo del cinema o della tv è come vederlo senza audio sul cellulare? Quei 15 secondi possono creare la stessa esperienza e avere davvero la stessa efficacia, e dunque lo stesso valore? L’ambizione, comprensibile, degli operatori del mercato pubblicitario sarebbe quella di arrivare a una sorta di tabella di conversione delle metriche in grado di attribuire valore alle diverse forme di esperienza di fruizione. Ma per fare questo, ogni esperienza di consumo/fruizione va indagata e “pesata” nel dettaglio, secondo vari parametri di qualità (full screen/resize; audio on/off, play deliberato/autoplay). 

L’ambizione degli operatori del mercato pubblicitario è di arrivare a una sorta di tabella di conversione delle metriche in grado di attribuire valore alle diverse forme di esperienza di fruizione. Ma per fare questo, ogni esperienza di consumo/fruizione va indagata e “pesata” nel dettaglio.

Insomma, da una parte l’oggetto del desiderio degli investitori pubblicitari assomiglia sempre più al Sacro Graal della metrica unica: una sorta di Panopticon, un meccanismo di “sorveglianza” integrato e crossmediale in grado di misurare i consumatori in modo univoco e totalmente trasparente. Un modello, possibilmente censuario – al netto dei problemi già citati – che nella sua versione più radicale suona piuttosto inquietante e non facilmente praticabile. Un sistema a cui potrebbero avvicinarsi solo i Gafa, paradossalmente proprio coloro che hanno fatto dell’opacità del dato un’arma competitiva. Per non parlare del problema etico di un sistema che dovrebbe monitorare tutti i cittadini, senza sosta.

Dall’altra parte, al di là delle fantasie distopiche, ciò che è realisticamente auspicabile è la creazione di un sistema integrato di misuratori, in grado di salvaguardare la specificità di ogni mezzo, in termini di esperienza ed efficacia. Questi misuratori devono lavorare insieme con degli elementi di orchestrazione: la condivisione di alcuni asset di ricerca (strumenti, panel) e la condivisione di convenzioni e regole comuni per rendere quanto più omogenei e convergenti i dati raccolti. Rimarranno chiaramente delle approssimazioni molto forti (tutte quelle già citate che derivano dall’utilizzo del sistema censuario e dalle modellizzazioni statistiche del campionario), ma ciò che importa è che il modo in cui i dati sono integrati sia trasparente. 

Convergenza e divergenza

C’è un ultimo problema. Ed è l’asimmetria di un sistema in cui non tutto è convergente. Perché se sugli schermi personali si danno appuntamento video, testi e audio, e i device personali diventano la vetrina unica per l’offerta di una pluralità di soggetti (broadcaster televisivi e radiofonici, publisher, case discografiche, produttori di film e serie tv, operatori di ecommerce, distributori di videogiochi), d’altra parte questi stessi soggetti rimangono profondamente diversi. Perché operano in mercati diversi e con logiche di business e vincoli normativi differenti.

I broadcaster tradizionali, per esempio, operano in un mercato fortemente regolato e devono sottostare a obblighi di tutela dei minori, veridicità dell’informazione, responsabilità editoriale, investimento sul prodotto italiano ed europeo, solo per citarne alcuni. Un operatore come Netflix, invece, che pure sottostà alla normativa dei Servizi Media Audiovisivi (perché è, per definizione, un “fornitore di servizi media a richiesta” e ha sede in Europa) non ha gli stessi vincoli (per esempio, non deve rispettare un limite di affollamento pubblicitario). Amazon poi, che non ha sede in Unione Europea, non pare dover sottostare neanche a quella normativa… E così lo stesso contenuto (una partita di Champions League, poniamo), recapitato sul medesimo schermo (la tv di casa) risponde a regole diverse in base all’operatore che lo distribuisce. Si viene quindi a creare un mercato che, per così dire, converge a valle (l’esperienza dell’utente), ma rimane profondamente divergente a monte (i mercati di riferimento degli operatori e le loro regole). Si gioca nello stesso campo, ma con regole diverse! Non per nulla si parla della necessità di un level playing field, ovvero di un terreno di competizione equo che preveda gli stessi diritti e doveri per tutti gli attori in campo, una situazione che dovrebbe essere uniforme, ma che in realtà – nonostante lo sforzo del legislatore attuato attraverso la direttiva Smav – ancora non lo è.
Dobbiamo chiederci, dunque, se sia legittimo misurare tutti allo stesso modo. Non si può certo chiedere al mercato delle metriche di farsi carico di tutta la problematica regolamentare. Ma resta un nodo fondamentale, perché – volente o nolente – è la currency che determina il mercato. E la disparità di condizioni competitive va considerata. Risolvendola a monte o facendola diventare parte dell’equazione.


Federico di Chio

Direttore Marketing strategico di Mediaset e direttore editoriale di Link. Idee per la televisione. Insegna Media Management all’Università di Bologna e all’Università Cattolica di Milano. È stato Ceo di Medusa Film e vicedirettore generale contenuti di Mediaset. Tra i suoi libri, Analisi del film (con Francesco Casetti, Bompiani, 1990), L’illusione difficile (Bompiani, 2011), American Storytelling (Carocci, 2016) e Il cinema americano in Italia (Vita e Pensiero, 2021).

Vedi tutti gli articoli di Federico di Chio

Leggi anche

immagine articolo Le scienze in gioco
immagine articolo Il valore delle storie 

Restiamo in contatto!

Iscriviti alla newsletter di Link per restare aggiornato sulle nostre pubblicazioni e per ricevere contenuti esclusivi.