Tik Tok cerca di arginare la politica. Dopo il periodo di test sperimentali fatti negli ultimi mesi che ha coinvolto i profili dei media e delle testate giornalistiche legati alla Russia e utilizzati per veicolare il racconto della guerra in Ucraina tra gli utenti, il sociale network cinese ha deciso di estendere il programma per evidenziare tali account anche ad altri quaranta paesi. Una soluzione per garantire ai fruitori una maggiore trasparenza sul piano informativo.

Tik Tok replica alla politica. L’obiettivo è la trasparenza

Il sociale network cinese ha sviluppato un programma che inserisce in maniera automatica una etichetta specifica per permettere agli utenti di comprendere immediatamente quali sono i media e le testate giornalistiche governative. Una fase di sperimentazione avviata nel 2022 con i media in Ucraina, Russia e Bielorussa, il progetto attuale si espanderà a oltre quaranta nazioni non ancora rese note. “La nostra politica sui media affiliati allo stato prevede di etichettare gli account gestiti da entità la cui produzione editoriale o processo decisionale è soggetto al controllo o all’influenza di un governo” ha spiegato Justin Erlich, Global Head of Issue Policy & Partnerships, Trust & Safety.

L’intenzione di Tik Tok è “garantire che le persone dispongano di un contesto accurato e trasparente quando interagiscono con gli account dei media che potrebbero presentare il punto di vista di un governo. L’anno scorso abbiamo lanciato un progetto pilota con la collaborazione di oltre 60 esperti di media, politologi, accademici e rappresentanti di organizzazioni internazionali e della società civile in Nord e Sud America, Africa, Europa, Medio Oriente, Asia e Australia“.

Più volte sotto i riflettori per l’eccessiva libertà che veniva concessa ai creatori di contenuti e per i messaggi veicolati senza monitoraggio, stavolta il programma della ByteDance spera di riuscire ad individuare e premiare l’indipendenza editoriale degli account. Questo avverrà prendendo in considerazione la dichiarazione di intenti di un’organizzazione, le sue pratiche editoriali, la composizione della piramide decisionale e le effettive prese di posizioni su fatti locali e globali.


Applichiamo inoltre un controllo aggiuntivo alle entità che potrebbero dipendere fortemente dai finanziamenti statali, direttamente o tramite pubblicità, prestiti e sovvenzioni” conclude il social. Di conseguenza i fruitori riconosceranno gli account governativi da una etichetta che presenterà la dicitura di “media controllato dallo stato”, con l’opportunità di cliccare sull’avviso per informarsi e capire le eventuali tendenze dei post condivisi.

Tik Tok a difesa degli utenti

Il social network cinese è sempre più attento a dinamiche sensibili per gli utenti. Infatti l’iniziativa legata agli account governativa arriva dopo l’inserimento del messaggio “Ci sono sempre strumenti di aiuto disponibili se tu o qualcuno che conosci state attraversando un momento difficile” che compare quando si ricercano video su tematiche controverse come successo per il Choking Game. Oltre allla dicitura prima di far apparire la ricerca, la piattaforma invita gli utenti a contattare il Telefono azzurro o il Telefono amico creando una landing page in cui vengono dati consigli su come comportarsi in caso di invito ad una challenge. «Non è un intervento che abbiamo adottato a seguito della morte della 12enne, ma anche mesi fa, se si fosse cercato lo stesso contenuto sarebbe uscito il banner di aiuto“, ha spiegato alla testata online Open un portavoce di TikTok Italia.

Tik Tok contro i contenuti dannosi

Il social utilizza una serie di algoritmi che hanno come obiettivo di impedire all’utente di trovare contenuti nocivi o che incitano alla violenza. Come in qualunque altro social network chiaramente diventa fondamentale anche la denuncia da parte del fruitore attraverso la segnalazione, questo permette ad un team che opera ventiquattro ore al giorno di intervenire manualmente. “Noi abbiamo una struttura continuamente aggiornata che lavora nella prevenzione della circolazione di contenuti dannosi per gli utenti. Effettuiamo diversi passaggi di verifica che vengono fatti sui video, può succedere però che capiti l’errore e i contenuti escano dal monitoraggio costante della piattaforma“.