La disinformazione online nel nostro Paese cresce, lo dicono i dati. Secondo i recenti studi dell’Osservatorio Agcom relativi al fenomeno, nei primi due mesi del 2018 è stata rilevata una crescita sostanziale di contenuti fake veicolati da siti e social, con un aumento del 3% rispetto alla media del 2018.
Numeri impressionanti che fanno pensare a come porre rimedio a questa piaga sociale ed informativa, soprattutto per tutelare gli utenti costretti a navigare nel web, diventato oramai un ‘far web’ digitale. A questo proposito abbiamo intervistato Antonio Martusciello, Commissario dell’Autorità per le Garanzie nelle Comunicazioni, in occasione dell’uscita del suo libro “Il Caos dell’informazione” edito da La Dante, dove affronta il tema del nuovo paradigma comunicativo, realizzato con l’avvento della Rete.
Key4biz. Ha recentemente dato alle stampe un saggio dal titolo emblematico “il caos dell’informazione”, ci avviamo verso un nuovo oscuro medioevo?
Antonio Martusciello. Lungi dal voler diffondere un pericoloso allarmismo, l’intento del mio saggio è quello di lanciare un monito e di cercare di svelare, attraverso un pamphlet di facile e rapida lettura, i fenomeni che si celano dietro quell’information disorder che viviamo costantemente.
Certo non posso negare che siamo di fronte a una situazione complessa e in questo senso, i dati non confortano. Agcom, volendo fornire un approccio scientifico sul tema della disinformazione, ha recentemente dato vita all’Osservatorio sulla disinformazione online, incentrato sull’analisi statica e dinamica della produzione di notizie non verificate.
Nei primi due mesi dell’anno è stata rilevata una crescita del fenomeno che si concentra sempre più spesso su argomenti di cronaca e politica. Questi insieme rappresentano il 56% dei contenuti fake dove si stima che un sito di disinformazione pubblichi in media 5 nuovi articoli al giorno.
Lo scorso venerdì è stato pubblicato il terzo numero dell’Osservatorio, secondo il quale si riscontra un volume di contenuti che nel giorno medio del bimestre marzo-aprile 2019 si mantiene su valori analoghi rispetto al giorno medio del bimestre gennaio-febbraio (7%). Inoltre, in linea con le precedenti valutazioni, ancora una volta la distribuzione per categoria degli articoli online di disinformazione nel periodo marzo-aprile 2019 mostra una preponderanza di contenuti dedicati alla cronaca, che, congiuntamente a quelli di politica, costituiscono la metà del totale.
La disinformazione sulle elezioni europee, poi, seppur rappresenti una piccola percentuale del totale, aumenta del 5% nel mese di marzo (rispetto a febbraio) e del 21% nel mese di aprile (rispetto a marzo).
Una circostanza da non sottovalutare se pensiamo che Internet rappresenta la seconda fonte per accesso e importanza per scopi informativi (dopo la tv).
Key4biz. Nessun spiraglio, dunque?
Antonio Martusciello. Come Le dicevo non mi reputo un pessimista. Seppur vero è che i social media e le testate native digitali siano sempre più utilizzati dai cittadini per accedere all’informazione, altrettanto vero è che esse si collocano agli ultimi posti della classifica per attendibilità.
Essi sono percepiti come credibili da meno di un quarto di coloro che li utilizzano per documentarsi correttamente. Un maggior livello di fiducia viene, invece, riconosciuto ai mezzi tradizionali. Ad esempio, i canali televisivi in chiaro nazionali confermano il loro primato, non solo per audience, ma anche per affidabilità (in particolare, il 42,8% dei fruitori dei canali in chiaro nazionali). Opinioni analoghe tra loro di reputazione e qualità si rilevano per le testate quotidiane, ritenute affidabili o molto affidabili da una porzione di fruitori vicina al 40%, potendo contare sulla notorietà e reputazione dei marchi editoriali storici.
Ecco che allora le fake news possono in qualche modo contribuire a fare emergere il giornalismo di qualità, e non costituirne la nemesi. Da un lato un’occasione per chi lavora in redazione, dall’altro uno strumento per il lettore per orientalo nel mare magnum della Rete. Non si tratta di una posizione isolata, già qualche anno fa, l’edizione 2017 del rapporto “Journalism, media and technologies trends and prediction”, realizzato da Nic Newman per conto del Reuters institute for the study of journalism, aveva evidenziato come ben il 70% degli intervistati ritenesse che le fake finiranno con il rafforzare i media, offrendo un’occasione al giornalismo di qualità di emergere.
Guardando alle percentuali del consumo di informazione possiamo condurre anche ulteriori riflessioni. Infatti, sebbene la carta stampata registri una quota inferiore al 20% di individui che la consulta per informarsi tutti i giorni, guadagna terreno (60,1% della popolazione) se si considera una frequenza di lettura meno ravvicinata nel tempo, raggiungendo ancora livelli di accesso non eccessivamente distanti da quelli di Internet (70,2%) e della radio (66,2%).
Non è un caso, poi, che, già qualche anno fa, nel 2013, Jeff Bezos, fondatore di Amazon e re dell’e-commerce, abbia acquistato (per un prezzo irrisorio: solo 250 milioni di dollari[1]), uno dei brand editoriali più prestigiosi, il Washington Post, che aveva chiuso il suo ultimo bilancio con perdite per 53,7 milioni di dollari, con un crollo del 44% negli ultimi sei anni.
Un imprenditore del calibro di Bezos avrà sicuramente intravisto notevoli potenzialità nell’editoria. Oggi infatti la testata è tornata a macinare profitti: dal 2016 gli abbonati online alla testata sono triplicati, arrivando a superare il milione e il fatturato, sulla spinta della raccolta web, è stato maggiore rispetto alle attese.
Key4biz. Ha appena ricordato come le fake news coinvolgano molto i temi politici. C’è il rischio concreto che ciò possa condizionare anche le scelte dell’elettorato?
Antonio Martusciello. È innegabile che strategie comunicative spesso spregiudicate abbiano supportato la convinzione che la Rete, e in particolare i social, possano condizionare il corpo elettorale in modo decisivo. Del resto, secondo il Rapporto di Ricerca “Infosfera” dell’Università Suor Orsola Benincasa, il 65,46% del campione analizzato non riesce a distinguere una notizia falsa, il 78,75% non è in grado di identificare un sito web di bufale. La percentuale sale all’82,83% quando si tratta di identificare la pagina Facebook di un sito disinformativo e si attesta sul 70,28% quando si deve distinguere un fake su Twitter.
Fino all’avvento della Rete sono stati editori e giornalisti professionisti, che hanno tradizionalmente avuto una posizione di controllo sulla distribuzione pubblica di notizie, a controllare esistenza e affidabilità e garantire la veridicità dei fatti su cui avrebbero scritto.
Ovviamente sarebbe ingenuo pensare che, in passato, il giornalismo sia stato l’ancilla veritatis. Tutte le notizie possono essere riportate in diversi modi e ogni fatto può essere descritto in modo diverso per sostenere una specifica agenda ideologica e politica: selezionare un fatto piuttosto che un altro, commentare o non qualcosa è frutto di una determinata strategia comunicativa. Tuttavia, ciò è ben diverso dall’utilizzo di notizie non verificate o deliberatamente false, utilizzate come arma politica contro l’avversario, che fondate sul sentiment degli elettori, sono in grado di polarizzare più efficacemente le opinioni.
Gli effetti di questo sistema quindi non possono escludere l’emergere di una sorta di campagna elettorale permanente, né di tecniche manipolative e propagandistiche. Del resto, recenti risultati mostrano che bastano poche decine di like per identificare, con una probabilità dell’85%, l’orientamento politico di un soggetto. Il pericolo che anche l’offerta politica possa corrispondere esattamente alla domanda, o ancor più subdolamente essere calibrata in base alle aspettative degli elettori è purtroppo concreto.
Key4biz. Ci ha parlato di information disorder. Qual è la sua ricetta per contrastare questo fenomeno?
Antonio Martusciello. Non è facile rispondere alla Sua domanda. Fenomeni patologici di disinformazione tendono ad annidarsi lì dove il sistema dell’informazione, inteso nel suo complesso, fallisce. In termini economici, il fallimento è di mercato: mi riferisco alla difficoltà di monetizzazione dei contenuti e la perdurante riduzione degli investimenti in informazione. Accanto a essi però dobbiamo riscontrare anche una certa regressione nell’uso di meccanismi di verifica delle fonti, la ristrettezza dei tempi dell’informazione online, sia nella fase di produzione sia in quella di consumo. Tutti aspetti che sono tendono a compromettere l’adeguatezza dell’offerta informativa sul piano dell’accuratezza, dell’approfondimento e della copertura delle notizie.
Tali deviazioni costituiscono aspetti di grande attenzione per Agcom, impegnata per la tutela del pluralismo informativo, anche nel suo significato di parità delle condizioni di accesso ai mezzi di informazione (par condicio), e della libertà di informazione. Tuttavia, a fronte della portata generale del principio pluralistico, le discipline positive che attualmente dettano le regole per la tutela effettiva di questo valore costituzionale hanno carattere settoriale e risultano poco aggiornate rispetto all’esigenza di assicurare protezione ai diritti di nuova generazione con forme e metodi tecnologicamente adeguati ai nuovi mezzi di informazione.
La ricerca di un meccanismo di attribuzione di responsabilità per la Rete è probabilmente uno dei problemi di maggior rilievo degli ultimi anni nella materia del diritto dei media. E ciò non soltanto per ragioni di ordine sistematico, bensì per esigenze molto concrete, in primo luogo la frequenza con cui si presentano casi di illeciti commessi in Rete, in seguito ai quali si vada alla ricerca della disposizione adatta.
Un primo aspetto da valutare riguarda quindi l’ormai nota esigenza di garantire quel level playing field tra gli operatori tradizionali – telco, editori, fornitori di servizi media audiovisivi, assicurazioni – e le nuove piattaforme online che offrono i propri servizi, utilizzando l’infrastruttura di altri operatori.
Un secondo elemento coinvolge più direttamente la questione dei dati.
Il nuovo paradigma richiede di aprire la black box, quella scatola nera che regola i processi propri dell’ecosistema dei Big Data. È necessario comprendere i momenti e le modalità di acquisizione del dato, il funzionamento degli algoritmi, i modi di conservazione e analisi, le informazioni derivate, e gli usi (primari e secondari) che ne derivano.
Un terzo elemento riguarda la tecnologia. In tal senso, l’Enisa, l’Agenzia dell’Unione Europea per la cybersecurity, per scongiurare i rischi manipolativi, ha invitato, in un recente paper, gli Stati membri a implementare una tecnologia che identifichi modelli di traffico insoliti che potrebbero essere associati alla diffusione di disinformazione o attacchi informatici ai processi elettorali. Non solo. Secondo l’Agenzia, dovrebbe essere introdotto un obbligo legale che impone alle organizzazioni politiche di attuare un elevato livello di sicurezza informatica nei loro sistemi, processi e infrastrutture.
Un impegno condiviso è allora necessario da parte di tutti i player del mercato. Del resto, riprendendo il pensiero di Einstein, “il mondo è quel disastro che vedete, non tanto per i guai combinati dai malfattori, ma per l’inerzia dei giusti che se ne accorgono e stanno lì a guardare”.
[1] https://www.ilsole24ore.com/art/mondo/2017-01-12/miracolo-bezos-il-washington-post-che-guadagna-e-assume-180929.shtml?uuid=ADb19hWC
https://www.key4biz.it/piu-controllo-su-big-data-e-algoritmi-per-contrastare-linformation-disorder-intervista-a-antonio-martusciello-agcom/260183/