Ciao a tutti amici del Blog! Oggi affrontiamo un argomento tanto delicato quanto necessario, uno di quelli che ci tocca da vicino come genitori, fratelli maggiori, o semplicemente come persone che hanno a cuore il benessere dei più giovani. Parliamo di Instagram, quel mondo patinato di foto perfette e storie da sogno che, a quanto pare, nasconde un lato oscuro e pericoloso, soprattutto per gli adolescenti più vulnerabili. Una recentissima ricerca interna di Meta (la casa madre di Facebook e Instagram), venuta alla luce grazie a un'inchiesta di Reuters, ha confermato quello che in molti temevano: esiste un legame diretto e inquietante tra il sentirsi a disagio con il proprio corpo e il tipo di contenuti che l'algoritmo di Instagram ti propone.
Lo studio che fa tremare Meta: i dettagli
Immaginate un'indagine condotta non da un critico esterno, ma dagli stessi ricercatori di Meta. Hanno coinvolto 1.149 adolescenti durante l'anno scolastico 2023-2024, ponendo loro una domanda molto diretta: "Quanto spesso ti senti a disagio con il tuo corpo dopo aver usato Instagram?". Sulla base delle risposte, hanno poi analizzato per tre mesi i contenuti che questi ragazzi e ragazze hanno effettivamente visualizzato sulla piattaforma. I risultati, che secondo Reuters erano contrassegnati dalla dicitura "Non distribuire", sono a dir poco allarmanti.
Ecco il dato che fa più impressione: per quel gruppo di 223 adolescenti che ha dichiarato di sentirsi spesso a disagio con il proprio aspetto fisico, ben il 10,5% dei contenuti visualizzati era "correlato ai disturbi alimentari". Per tutti gli altri ragazzi coinvolti nello studio, questa percentuale scendeva al 3,3%. In parole povere, i giovani psicologicamente più fragili e insicuri sono stati esposti a questi contenuti potenzialmente dannosi tre volte di più rispetto ai loro coetanei.
Ma di che contenuti parliamo esattamente?
Quando si parla di "contenuti correlati ai disturbi alimentari", la mente corre subito a immagini estreme, ma la realtà è molto più subdola. Lo studio di Meta ha identificato post che, pur non violando esplicitamente le regole della piattaforma, sono stati ritenuti potenzialmente dannosi. Si tratta di un mix tossico che include:
- Immagini con un'esposizione "prominente" di parti del corpo come petto, glutei o cosce.
 - Post che contengono "giudizi espliciti" su determinati tipi di fisico.
 - Contenuti che alludono a comportamenti alimentari disordinati o a un'immagine corporea negativa.
 
Jenny Radesky, professoressa associata di pediatria presso l'Università del Michigan a cui Reuters ha mostrato la ricerca, ha definito la metodologia "solida" e i risultati "inquietanti". La sua conclusione è tagliente: "Questo supporta l'idea che gli adolescenti con vulnerabilità psicologiche vengano profilati da Instagram e ricevano un'esposizione maggiore a contenuti dannosi".
Un copione già visto: dal "profitto sulla sicurezza" a oggi
Se questa storia vi suona familiare, non vi sbagliate. Già nel 2021, la whistleblower ed ex dipendente di Meta, Frances Haugen, aveva scoperchiato il vaso di Pandora rivelando al Wall Street Journal una serie di documenti interni, i cosiddetti "Facebook Files". L'accusa principale era che l'azienda fosse pienamente consapevole dei danni psicologici che Instagram poteva causare alle adolescenti, in particolare per quanto riguarda l'immagine corporea, ma che avesse scelto di dare priorità ai profitti piuttosto che alla sicurezza degli utenti. Quelle rivelazioni portarono a un'audizione infuocata al Senato degli Stati Uniti, ma a distanza di anni, questa nuova ricerca dimostra che il problema è ancora drammaticamente presente.
La stessa Haugen aveva sottolineato come le ragazze, iniziando a consumare contenuti legati ai disturbi alimentari, entrassero in un "ciclo di feedback" negativo: si sentono sempre più depresse, usano di più l'app e, di conseguenza, odiano sempre di più il loro corpo. È esattamente quello che i dati di questa nuova ricerca interna sembrano confermare.
La difesa di Meta e le azioni intraprese
Di fronte a queste nuove prove, qual è la posizione dell'azienda? Un portavoce di Meta, Andy Stone, ha dichiarato a Reuters che questa ricerca è "un'ulteriore prova dell'impegno nel comprendere le esperienze dei giovani e per costruire piattaforme più sicure e di supporto per gli adolescenti". L'azienda sottolinea di aver introdotto oltre 30 strumenti per supportare le famiglie e di aver reso più restrittive le impostazioni di default per i nuovi account aperti da minori. Inoltre, Meta ha annunciato che inizierà a nascondere agli adolescenti contenuti complessi come quelli legati all'autolesionismo, anche se condivisi da persone che seguono.
Tuttavia, queste misure, seppur benvenute, appaiono a molti come un argine insufficiente di fronte alla potenza di un algoritmo che, per sua natura, è progettato per massimizzare il tempo di permanenza sulla piattaforma, spesso a discapito del benessere psicologico.
Conclusione: Cosa possiamo fare?
Da giornalista e, prima ancora, da essere umano, trovo questi dati agghiaccianti. L'idea che un algoritmo possa "profilare" la vulnerabilità di un adolescente per poi nutrirla con contenuti che la amplificano è l'incubo di ogni genitore. Non si tratta più di stabilire se Instagram possa fare male, ma di prendere atto che, in determinate condizioni, lo fa, e che l'azienda ne è consapevole. La ricerca interna lo dimostra. La questione non è demonizzare la tecnologia in sé, ma esigere trasparenza e responsabilità . L'algoritmo non è un'entità astratta e incontrollabile; è il prodotto di scelte precise, di codice scritto da persone per raggiungere obiettivi specifici, quasi sempre di natura economica. È fondamentale che la sicurezza e la salute mentale dei più giovani diventino l'obiettivo primario, non una nota a piè di pagina nelle informative sulla privacy. Nel frattempo, il nostro ruolo di adulti è quello di dialogare apertamente con i ragazzi, di educarli a un uso critico e consapevole dei social media e, soprattutto, di ricordare loro che il loro valore non si misura in like o follower, ma nella loro meravigliosa e unica imperfezione.
                            