Ciao a tutti, amanti dei video brevi e delle challenge virali! Oggi parliamo di un argomento super importante che tocca da vicino il nostro amato TikTok: la lotta contro le fake news e i contenuti dannosi. Sapete come fa la piattaforma a tenere tutto (o quasi) sotto controllo? Ce lo ha raccontato direttamente Luana Lavecchia, che per TikTok si occupa dei rapporti con le istituzioni, durante un incontro ufficiale alla Camera dei Deputati a Roma.
La notizia bomba è questa: ben l'85% dei contenuti che violano le regole della community viene rimosso in automatico dall'intelligenza artificiale. Un numero impressionante che ci fa capire quanto la tecnologia sia diventata un'alleata fondamentale per mantenere la piattaforma un posto sicuro e divertente. Immaginate un esercito di "guardiani digitali" che lavorano 24 ore su 24 per scovare e bloccare video non adatti prima ancora che diventino virali. È un lavoro enorme, considerando che TikTok ha oltre 200 milioni di utenti in Europa e ben 24 milioni solo in Italia.
L'IA è forte, ma l'uomo di più (soprattutto in certi casi)
Ok, l'intelligenza artificiale è una forza della natura, ma può fare tutto da sola? La risposta di TikTok è un sonoro "no". Luana Lavecchia è stata molto chiara su questo punto: "La moderazione umana è importante sulle notizie false in momenti come le elezioni o i referendum". E non possiamo che essere d'accordo. Quando si tratta di politica e di momenti cruciali per la democrazia, serve il discernimento, la sensibilità e la capacità di analisi del contesto che solo una persona in carne e ossa può avere.
Pensateci un attimo: un'IA potrebbe non cogliere una sottile sfumatura ironica o un riferimento culturale specifico che trasforma un contenuto apparentemente innocuo in un messaggio di disinformazione pericoloso. Ecco perché, accanto agli algoritmi, TikTok ha messo in campo una squadra di migliaia di moderatori umani che supervisionano i contenuti, specialmente quelli più delicati.
La sfida dei contenuti creati con l'IA e l'importanza delle etichette
Un'altra gatta da pelare, oggi più che mai, sono i contenuti creati con l'intelligenza artificiale, i cosiddetti deepfake o AIGC (AI-Generated Content). Questi video e immagini, se usati male, possono diventare armi di disinformazione di massa. TikTok ne è consapevole e, già da settembre 2023, ha introdotto un'etichetta specifica per segnalare quando un contenuto non è "reale" ma è stato generato da un'IA.
Lavecchia ha sottolineato che c'è un grande lavoro da fare per educare sia i creator che gli stessi politici a usare questi strumenti in modo responsabile. È fondamentale essere trasparenti e dire chiaramente: "Ehi, guarda che questo video è stato creato con l'intelligenza artificiale!". Per questo, la piattaforma sta anche testando uno strumento che permetterà agli utenti di scegliere di vedere meno contenuti di questo tipo, se lo desiderano.
La squadra anti-fake news: Fact-checker e segnalazioni
Nella sua battaglia per la verità, TikTok non è sola. La piattaforma collabora a livello mondiale con circa 20 organizzazioni di fact-checking che coprono 50 lingue diverse. In Italia, ad esempio, è attiva una partnership con Facta, con cui è stata lanciata una campagna di alfabetizzazione mediatica per insegnare agli utenti a riconoscere le bufale. L'obiettivo è semplice ma ambizioso: dare a tutti gli strumenti per fermarsi, pensare e verificare prima di condividere un contenuto.
Come funziona? Quando un video viene segnalato come potenziale fake news, questi team di esperti indipendenti lo analizzano. Se la notizia è falsa, il video non viene rimosso (per tutelare la libertà di espressione), ma la sua diffusione viene limitata drasticamente: in pratica, non potrà finire nei "Per Te" di nessuno, e comparirà un avviso che informa gli utenti sulla dubbia veridicità del contenuto. Un ruolo cruciale lo abbiamo anche noi utenti, con le nostre segnalazioni. Quando segnaliamo un contenuto che ci sembra inappropriato, aiutiamo i sistemi di moderazione (sia umani che artificiali) a individuarlo più in fretta.
Un impegno per la trasparenza nel quadro delle regole europee
L'audizione di Lavecchia si inserisce in un contesto più ampio di discussione sulle regole per le piattaforme digitali, sia a livello italiano che europeo. Con l'entrata in vigore di normative come il Digital Services Act (DSA), l'Unione Europea ha stabilito regole chiare per aumentare la trasparenza e la responsabilità dei colossi del web. TikTok, come le altre piattaforme, è chiamata a pubblicare regolarmente dei report di trasparenza, dove spiega quanti e quali video ha rimosso e perché.
La sfida è trovare il giusto equilibrio: da un lato, rimuovere i contenuti dannosi e illegali; dall'altro, proteggere la libertà di espressione, che è un pilastro delle nostre democrazie. Un equilibrio difficile, che richiede un dialogo costante tra le piattaforme, le istituzioni e la società civile.
Conclusione: Il mio punto di vista
Da giornalista e utente dei social, trovo che la strada intrapresa da TikTok sia quella giusta, anche se ancora lunga e piena di ostacoli. L'uso massiccio dell'IA per una prima, grande scrematura è inevitabile e necessario data la mole di contenuti caricati ogni secondo. È un po' come avere un buttafuori high-tech all'ingresso di una festa enorme. Ma la vera differenza, la qualità del controllo, la fanno ancora le persone. La sensibilità nel giudicare un contenuto politico, la capacità di comprendere il confine sottile tra satira e disinformazione, sono competenze umane che, almeno per ora, nessuna macchina possiede. La trasparenza dimostrata nell'ammettere i limiti dell'IA e nel valorizzare il lavoro dei fact-checker e dei moderatori umani è un segnale di maturità importante. La vera sfida, per TikTok e per tutti noi, sarà quella di continuare a educarci a vicenda: le piattaforme a migliorare i loro strumenti e noi utenti a sviluppare un pensiero sempre più critico, per non cadere nelle trappole che si nascondono dietro un video virale.
