Il punto di partenza è che si dice sempre che sia colpa dei social network, ma poi alla fine siamo noi umani a dover sapere utilizzare gli strumenti che la tecnologia ci dà in mano. D’altro canto, però, il pericolo di mettere a disposizione dei più giovani uno strumento così potente è stato chiaramente sottovalutato, e così la cronaca troppo spesso si riempie di notizie tragiche riguardano una rivoluzione digitale spesso lasciata senza regole.
Il caso, questa volta, riguarda le assurde sfide che passano attraverso le piattaforme fruibili dagli smartphone e che hanno condizionato la mente di alcuni ragazzi portandoli fino al suicidio. Un trend purtroppo senza fine che ha portato sette famiglie francesi a intraprendere un'azione legale contro TikTok presso il Tribunale giudiziario di Créteil, nei pressi di Parigi. L'accusa è grave: la piattaforma sarebbe responsabile di promuovere contenuti che incitano al suicidio, all'autolesionismo e a disturbi alimentari, con conseguenze devastanti soprattutto per i minori. E secondo i legali delle famiglie, tali contenuti avrebbero avuto un impatto diretto sulla salute mentale e fisica di sette adolescenti, portando a esiti tragici per alcuni di loro.
Le famiglie fanno parte di un collettivo chiamato Algos Victima, nato con lo scopo di tutelare i minori esposti a contenuti dannosi sui social media. A rappresentarle è l'avvocata Laure Boutron-Marmion, che, intervistata da FranceInfo, ha dichiarato di voler “vedere TikTok chiamato a rispondere per la sua mancanza di moderazione, che rende il servizio difettoso”. L'obiettivo di questa azione legale è quello di portare la piattaforma a riconoscere le proprie responsabilità nel peggioramento della salute mentale di sette giovani utenti, tra cui due adolescenti che si sono tolti la vita a soli 15 anni, quattro che hanno tentato il suicidio e uno che ha sviluppato problemi di anoressia.
I genitori di una delle adolescenti coinvolte avevano avviato un’azione legale già nel settembre 2023, accusando il social network di "istigazione al suicidio", "mancata assistenza a una persona in pericolo" e "promozione di metodi per l'autolesionismo". E adesso la presunta negligenza di TikTok sarebbe quella di aver permesso che contenuti pericolosi raggiungessero utenti particolarmente vulnerabili come i minori. La denuncia, tra l’altro, fa anche riferimento a un caso simile avvenuto nel Regno Unito, dove il suicidio della quattordicenne Molly Russell ha aperto un dibattito sulla responsabilità delle piattaforme social nella tutela dei propri utenti. In quell’occasione, un medico legale britannico aveva stabilito che la giovane era stata esposta a una serie di contenuti grafici su autolesionismo e suicidio attraverso piattaforme come Pinterest e Instagram.
L'ascesa delle piattaforme social ha portato con sé nuovi rischi, specialmente per gli adolescenti. E l'algoritmo di TikTok, progettato per proporre contenuti basati sugli interessi dell'utente, potrebbe contribuire a creare un circolo vizioso: un adolescente che interagisce con video su temi come la depressione o l’autolesionismo potrebbe essere esposto sempre più spesso a contenuti simili, in un'escalation di immagini e messaggi pericolosi. Secondo gli studi, infatti, l’esposizione a contenuti che incitano al suicidio o al farsi del male può peggiorare il quadro clinico di giovani affetti da disturbi mentali o contribuire a innescarli. E quindi: cosa fare? La richiesta delle famiglie francesi è che TikTok adotti un sistema di moderazione più efficace per prevenire la diffusione di contenuti pericolosi. Mentre la piattaforma afferma di aver introdotto negli ultimi anni diverse funzionalità volte alla sicurezza dei minori, come la limitazione del tempo di utilizzo e l’introduzione di filtri per contenuti inappropriati. Inoltre, ha dichiarato di "non aver ricevuto alcuna notifica di procedure legali relative a queste rivendicazioni". Accorgimenti che probabilmente non bastano, perché poi a guidare tutto resta un calcolo matematico, quell’algoritmo utilizzato per massimizzare l’utilizzo degli utenti senza badare al contenuto. L’azione legale, in pratica, apre una questione etica nei confronti delle Big Tech e solleva interrogativi sulla responsabilità delle piattaforme social nel proteggere la salute mentale dei loro utenti, specialmente dei più giovani.
Se TikTok dovesse essere riconosciuto responsabile per la diffusione di contenuti nocivi, il caso potrebbe avere implicazioni anche per la concorrenza. Un'eventuale condanna potrebbe costituire un precedente per ulteriori azioni legali e spingere le aziende tecnologiche a rafforzare i controlli interni. In Francia, così come in molti altri Paesi, le famiglie e le organizzazioni per la tutela dei minori chiedono da tempo che le piattaforme digitali siano tenute a rendere conto delle conseguenze sociali e psicologiche dei loro algoritmi.
In Italia una petizione firmata da decine di medici, specialisti e personalità dello spettacolo chiede invece alla politica di intervenire per vietare l’uso degli smartphone sotto i 14 anni e dei social sotto i 16, perché “ci sono aree del cervello, fondamentali per l’apprendimento cognitivo, che non si sviluppano pienamente se il minore porta nel digitale attività ed esperienze che dovrebbe invece vivere nel mondo reale”. Certo, poi, toccherebbe a noi genitori controllare che questo avvenga, magari mettendoci contro i nostri figli. Un rischio che però vale il pericolo che sia poi troppo tardi per intervenire.- dal lunedì al venerdì dalle ore 10:00 alle ore 20:00
- sabato, domenica e festivi dalle ore 10:00 alle ore 18:00.