Argomento scottante che il Forum Economico Mondiale mette al primo posto tra le maggiori problematiche per la gestione del mondo dei prossimi anni.
Condivido un articolo (https://www.weforum.org/stories/2025/04/disinformation-governance-online-davos/) pubblicato sul sito ufficiale del WEF che fornisce spunti per riflessioni che trovate sotto.
–
Protezione vs. censura: come trovare il giusto equilibrio per arginare la disinformazione online
I tempi in cui teorie del complotto, disinformazione e fake news erano confinate ai margini di Internet sono ormai lontani. Ora sono parte integrante del dibattito globale, influenzando le elezioni, sconvolgendo i mercati e sfidando i confini della libertà di parola. Come rivelato dal Global Risks Report 2025 del World Economic Forum, la disinformazione rimane il principale rischio a breve termine per il secondo anno consecutivo. Ha il potere di erodere la fiducia, approfondire le divisioni e indebolire la governance e la cooperazione globale. Con una regolamentazione ancora in ritardo rispetto al rapido ritmo del cambiamento tecnologico, il rischio non solo persiste, ma è in crescita.
Durante l’incontro annuale del World Economic Forum di quest’anno, due sessioni chiave – Verità vs. Mito nelle elezioni e Moderare o non moderare? – hanno esplorato le crescenti sfide della disinformazione, i dilemmi della moderazione dei contenuti e il fragile equilibrio tra integrità democratica, diritti umani e innovazione tecnologica. Sebbene i relatori abbiano concordato sull’insostenibilità della traiettoria attuale, la questione è se sia possibile raggiungere un consenso tra le complessità affrontate dalle piattaforme digitali: bilanciare la loro responsabilità di limitare i contenuti dannosi, senza compromettere la libertà di espressione o polarizzare ulteriormente le società.
Disinformazione: una minaccia per la democrazia
Nel 2024, il 50% della popolazione mondiale si è recata alle urne, con false narrazioni e informazioni fuorvianti che hanno plasmato gli scenari politici in tutto il mondo, aggravando la frammentazione geopolitica.
Il caso della Moldavia è esemplificativo. Il suo Primo Ministro, Dorin Recean, ha descritto come le reti di disinformazione straniere abbiano interferito nelle elezioni del suo Paese diffondendo deepfake generati dall’intelligenza artificiale che mostravano bambini in uniformi militari accanto alle bandiere dell’UE, sostenendo falsamente che l’integrazione nell’UE avrebbe portato alla guerra. La disinformazione non riguarda solo le bugie. Riguarda paura, emozioni e divisione. “Stanno cercando di associare l’UE alla guerra e dire: ‘Guardate cosa succede in Ucraina. Se volete l’UE, succederà lo stesso in Moldavia’”, ha avvertito Recean, aggiungendo che il 2,5% del PIL moldavo è stato investito in attacchi di disinformazione.
Governance e moderazione: regole offline, realtà online
Mentre i governi iniziano a comprendere le implicazioni dell’impatto della disinformazione, il Digital Services Act (DSA) della Commissione Europea sta emergendo come punto di riferimento nelle discussioni sulla responsabilità. “Ciò che è illegale offline deve essere illegale online”, ha dichiarato Jean-Noël Barrot, Ministro francese per l’Europa. “La trasparenza negli algoritmi non è negoziabile”, ha sostenuto. In Francia, i commenti razzisti o omofobi sono illegali e possono essere giudicati da un tribunale, quindi le piattaforme dovrebbero seguire le stesse regole online. Per quanto riguarda la disinformazione, la DSA richiede alle piattaforme di adottare misure per ridurre i rischi sistemici che ne derivano. Questo sta diventando sempre più essenziale, soprattutto considerando il modo in cui le giovani generazioni interagiscono con l’informazione.
Tuttavia Sasha Havlicek dell’Institute for Strategic Dialogue ha messo in guardia contro l’eccessiva semplificazione e ha avvertito che i malintenzionati sfruttano la trasparenza sulle piattaforme digitali, utilizzando tattiche ingannevoli come botnet e account falsi per distorcere il discorso pubblico in modi invisibili all’utente medio. “L’infrastruttura algoritmica amplifica ciò che ha maggiori probabilità di interessare. Il modello di business dell’economia dell’attenzione amplifica in modo sproporzionato i più sensazionalisti, i più estremisti, piuttosto che i moderati”, ha affermato.
Moderare miliardi di utenti non è un compito facile. La moderazione dei contenuti rimane tecnicamente complessa e politicamente controversa. Solo nel 2024, le principali piattaforme hanno moderato 1,6 miliardi di contenuti, secondo Michael McGrath, Commissario europeo per la democrazia, la giustizia e lo stato di diritto. “La libertà di espressione deve essere tutelata, e non c’è dubbio. È un principio non negoziabile. Ma esistono delle barriere per raggiungere il giusto equilibrio”, ha aggiunto.
La moderazione su larga scala presenta delle insidie. Tirana Hassan, ex direttrice esecutiva di Human Rights Watch, ha sottolineato che le politiche di moderazione devono basarsi sui principi dei diritti umani per prevenirne l’abuso. “La moderazione dovrebbe proteggere, non silenziare. Un’eccessiva regolamentazione rischia di consentire un controllo autoritario”, ha affermato. “Investire in una buona moderazione dei contenuti, sia digitale che umana, può significare rispettare gli obblighi di legge. Non è in conflitto”, ha aggiunto. Tirana ha anche sottolineato la necessità di proteggere i gruppi vulnerabili online, osservando che in alcuni casi sono stati adescati e denunciati sulle piattaforme, rischiando danni fisici e persino l’espulsione.
Volker Türk, Alto Commissario delle Nazioni Unite per i diritti umani, ha avvertito che “molti di questi prodotti finiscono in situazioni di crisi o conflitto, dove esiste una maggiore responsabilità nel garantire che non vengano utilizzati per disumanizzare o alimentare ulteriore violenza”.
IA: amplificatore o soluzione?
Nel frattempo, le aziende tecnologiche si trovano ad affrontare un paradosso. L’IA generativa ha amplificato la diffusione di contenuti falsi e fuorvianti, ma promette anche di poterli identificare e filtrare. Alcune di queste sfide derivano dalla struttura delle piattaforme e dagli algoritmi che spesso amplificano i contenuti in modi con conseguenze sociali inaspettate.
Secondo Havlicek, gli algoritmi che puntano sull’engagement alimentano le controversie sui contenuti. “A causa dell’economia dell’attenzione, non si tratta di un ambiente basato sulla libertà di parola. È un ambiente curato, dove i giganti della tecnologia decidono in ultima analisi cosa vedere in base ai dati che raccolgono e ai guadagni che ne ricaveranno”, ha affermato.
E non sono solo le istituzioni a essere colpevoli. Secondo l’Edelman Trust Barometer 2025, a livello globale, il 40% afferma di approvare l’attivismo ostile, inclusi gli attacchi alle persone online o la diffusione intenzionale di disinformazione, come strumento legittimo per guidare il cambiamento. Questo sentimento è particolarmente diffuso tra gli intervistati di età compresa tra 18 e 34 anni, con il 53% di loro che afferma di approvare la diffusione intenzionale di disinformazione per una causa che sostiene. Questa tendenza allarmante riflette una crisi di fiducia sempre più profonda. Gli individui stanno ora abbracciando tattiche un tempo considerate immorali.
Cinque priorità per il futuro
Queste due sessioni di Davos non hanno solo fornito un’analisi dell’impatto della disinformazione e di come moderare i contenuti sui social media, ma hanno anche offerto indicazioni. Ecco alcune priorità chiave emerse su come affrontare le sfide della disinformazione:
La trasparenza come strumento: le piattaforme dovrebbero consentire un controllo approfondito su come vengono promossi i contenuti. “Dove i regimi autoritari rispondono con la censura, dobbiamo rispondere con una trasparenza assoluta. Ciò significa ottenere l’accesso ai dati per ricerche indipendenti, in modo da poter valutare l’impatto di questi sistemi sul dibattito pubblico”, ha affermato Havlicek.
Alfabetizzazione mediatica: l’educazione e il pensiero critico sono le migliori vaccinazioni contro la disinformazione. “Educare i giovani a distinguere ciò che è affidabile da ciò che non lo è è utile e necessario. Ma deve essere fatto senza pregiudizi. Si tratta di insegnare alle persone a pensare con la propria testa”, ha affermato Almar Latour, CEO del Wall Street Journal.
Governance multistakeholder: governi, tecnologia e società civile dovrebbero creare congiuntamente regole che proteggano sia la libertà di parola che la sicurezza. La moderazione dovrebbe proteggere, non reprimere. Ma senza trasparenza, rischiamo di barattare la disinformazione con un altro tipo di distorsione: quella in cui solo pochi decidono cosa è visibile. “Abbiamo bisogno di spazi pubblici aperti in cui poter discutere basandoci sui fatti, sulle prove e sulla scienza per trovare le soluzioni politiche di cui il mondo ha così disperatamente bisogno”, ha aggiunto Türk.
Progettazione tecnologica etica: le piattaforme dovrebbero dare priorità alla sicurezza, poiché quasi il 50% dei bambini incontra accidentalmente contenuti dannosi. “Stiamo creando un angolo positivo di internet, privato solo per gli utenti di età inferiore ai 16 anni, e questo era davvero importante per noi perché volevamo garantire la sicurezza dei nostri utenti più vulnerabili”, ha affermato Wanji Walcott, Responsabile Affari Legali e Commerciali di Pinterest. Iain Drennan di WeProtect Global Alliance ha ribadito l’urgenza di tutelare i minori, invocando la “sicurezza fin dalla progettazione per normative ben concepite”.
Moderazione equilibrata dei contenuti: una moderazione efficace richiede un approccio sfumato che incoraggi la libertà di espressione e prevenga al contempo i danni. “La libertà di espressione non è assoluta. Esistono alcune restrizioni necessarie per proteggere i più vulnerabili. La moderazione e la responsabilità delle piattaforme digitali sono importanti anche per garantire che il modello di business, le politiche e la tecnologia siano in linea con i diritti umani internazionali”, ha affermato Hassan.
La verità non si modererà da sola
Giornalisti e organizzazioni della società civile devono svolgere un ruolo cruciale nel contrastare la disinformazione attraverso il giornalismo investigativo, il fact-checking e iniziative di educazione pubblica. Latour ha sottolineato l’importanza di mantenere l’indipendenza editoriale e la trasparenza per ricostruire la fiducia del pubblico nei media. “L’idea che la disinformazione non abbia avuto un ruolo importante nell’ultimo anno [riguardo alle elezioni] è grottesca. Questa è disinformazione”, ha aggiunto.
–
Detto del contenuto condivisibile dell’articolo per quanto riguarda l’impianto complessivo e le idee di fondo: difesa della libertà di parola ed espressione e tutela degli utenti dai raggiri e dalle notizie false, mi soffermo sulle cinque priorità individuate nei panel di discussione del Forum Economico Mondiale.
Il primo punto riguarda la trasparenza che, si dice, deve essere assoluta e contrapposta alla censura dei regimi autoritari.
Sulla trasparenza assoluta inviterei il lettore a prendere in mano “Noi”, romanzo scritto da Evgenij Ivanovič Zamjatin tra il 1919 e il 1921 nel quale raccontava dell’oppressione del regime sovietico utilizzando proprio la metafora della città i cui edifici erano completamente trasparenti.
Pessima idea cari signori del WEF!
La gente non la potete continuare a trattare come se fosse una mandria di idioti da controllare ogni momento.
Sul secondo punto diffido da chi pubblica questo pensiero che, a un primo approccio, potrebbe sembrare più che valido.
Si parla di educazione a pensare con la propria testa. E immagino che quesat educazione dovrebbe essere impartita da quella scuola che ha da sempre formato soldatini ubbidienti.
Stendiamo poi un velo pietoso sui contenuti passati a scuola i quali dovrebbero essere la base da cui partire per miliardi di bambini e ragazzi.
Se questi contenuti sono palesemente falsi e manipolati e gli insegnanti li impongono come verità assolute sappiamo già da assorbire e mandare a memoria in silenzio, come si può pensare che queste prescrizioni del WEF non siano falsi proclami?
Il terzo punto è quello che potremmo definire “specchietto per allodole“. Si parla infatti di governance condivisa e qui tocca solo ridere.
Che lo prescrivano coloro che più di chiunque altro hanno programmato il nostro futuro senza chiedere alcunché ai popoli non merita altre parole se non il biasimo per costoro che credono di poter ancora proseguire con questo doppio gioco.
Il quarto punto, la creazione di ambienti “sicuri” per i più piccoli è ovviamente condivisibile in toto e perciò non aggiungo altro.
Si chiude con la moderazione dei contenuti – ne so qualcosa avendo lavorato su questo punto per una decina di anni e sapendo bene quanto possa essere difficile da applicare nella pratica – che diventa il pilastro fattuale della strategia proposta.
Come ho detto l’applicazione è difficile e, di nuovo, quando penso a coloro che la propongono non ho altra idea se non quella di ciò che potremmo chiamare “censura costruttiva” o “controllo preventivo del pensiero cattivo” o quel che preferite.
Il fatto che “la verità non si modererà da sola”, come da ultimo paragrafo dell’articolo è un’altra ovvietà che però può essere vista in vario modo.
Io opterei per la libertà di pubblicazione delle notizie anche da parte di coloro che mentono spudoratamente.
Da grandi autori del passato è stata sostenuta la necessità della menzogna o del ragionamento fallace per poter dare maggior forza alla verità e al ragionamento logico.
Questa è la mia strada.
Quella di lor signori, seppur infiocchettata alla perfezione, è quella della censura “soft” fatta per il nostro (loro) bene.
Ci aspettano anni duri su questo fronte con una Unione Europea che sta diventando sempre più il campione della manipolazione a fin di bene e della censura positiva.