Morire a 10 anni per una challenge su Tiktok: di chi è la responsabilità?

0
21
morire-a-10-anni-per-una-challenge-su-tiktok:-di-chi-e-la-responsabilita?

Se una bimba si è chiusa in bagno per pubblicare un video su TikTok e ha finito per strangolarsi c’è tutto un percorso, fino a quel momento, costellato di lacune e malintesi che va analizzato

I social network, specie alcuni, sono pieni di bambini. Ma chi li protegge? Da anni giriamo intorno allo stesso punto e alla stessa domanda. Se quella bimba palermitana di dieci anni si è chiusa in bagno per una “blackout challenge” da pubblicare su Tiktok (chissà se solo lì) e ha finito per strangolarsi con la cintura di un accappatoio fino a precipitare in morte cerebrale c’è stato tutto un percorso, fino a quel momento, costellato di responsabilità, lacune e malintesi. Dietro a quella prova estrema di resistenza che fa dell’autolesionismo o dell’incoscienza la pietra di confronto a distanza ci sono almeno tre sistemi – educativo, tecnologico e giuridico – che non hanno funzionato. Anzi, hanno fallito.

Foto Pixabay

Il primo è quello dei genitori. Difficile fare oggi quel “mestiere”, ancora più difficile dopo mesi di isolamento in cui lo smartphone e gli altri strumenti di comunicazione sono rimasti la nostra unica finestra sul mondo, il nostro filo contro lo smarrimento che rischia però di strangolarci fra dipendenza e drammatizzazione. Figuriamoci per i ragazzi, che fin da prima ci costruivano un bel pezzo della loro identità, sovrapponendo piano fisico e digitale in un’unica realtà senza confini. Non è tanto l’età, il punto, ma quello che ci si fa con uno smartphone e gli ambienti digitali a cui si ha accesso. Per presidiare quel terreno i genitori devono sporcarsi le mani, sapere di cosa si tratta, frequentare anche loro quelle piattaforme e prevenirne (o almeno cercare di intuirne) le possibili derive.

Children Using Smartphones
(Photo by Sean Gallup/Getty Images)

Non è semplice, è quasi un lavoro nel lavoro, servono impegno e dedizione per correre dietro a piattaforme che cambiano ogni mese, si rinnovano per continuare a piacere e divertire trattenendo nel proprio recinto dorato, attraggono giovani (e meno giovani) con continue soluzioni di gamification e fasulla gratificazione a colpi di like, duetti, visualizzazioni, mancette economiche e scosse di dopamina. Come in una guerriglia, genitori ed educatori non possono pensare di rinviare il più possibile il momento dello smartphone o lavarsene le mani e sperare che non succeda nulla: devono conoscere il “campo di battaglia” – anche da meri osservatori, sarebbe già qualcosa – altrimenti mancheranno loro le coordinate per intervenire in tempo. E soprattutto devono provare ad accompagnare un uso divertente, virtuoso, creativo (ce ne sono eccome) anche utilizzando le funzionalità di TikTok e delle altre piattaforme, dal collegamento degli account con quelli dei genitori al controllo dei contenuti fino al tetto di tempo concesso all’app e limitare così gli scivolosi fuori pista. Ma per farlo serve sapere che quelle risorse esistono e serve saperle organizzare.

C’è poi un tema, enorme, che riguarda i sistemi di sicurezza implementati dalle piattaforme. Tiktok e gli altri ambienti digitali usano diversi strumenti, soprattutto di intelligenza artificiale e poi di revisione umana, per identificare e rimuovere i contenuti che violano le proprie policy. Fra l’altro in questo caso, stando alle parole dell’azienda, non sarebbero stati individuati contenuti “che possano aver incoraggiato un simile accadimento”. Non sarebbe cioè una sorpresa se si scoprisse che in realtà la macabra challenge era proseguita altrove o in qualche chat. Il punto è che evidentemente ancora non riescono a fare di quei luoghi dei posti davvero sicuri: alcune cose sfuggono, altre navigano sul filo di quel che è lecito o appropriato e magari si impiega più tempo per intercettarle, la mole di contenuti caricata quotidianamente è abnorme e inoltre più del 40% degli utenti ha fra i 16 e i 24 anni. Sono probabilmente la punta di un iceberg molto più massiccio che si espande sotto la soglia minima di età prevista per iscriversi a piattaforme del genere e altri servizi digitali.

E qui si arriva al terzo fronte, l’ultima lacuna di una serie di percorsi lastricati di buone intenzioni ma che conducono a pessime conseguenze. Il Regolamento generale europeo per la protezione dei dati personali entrato in vigore nel 2018 ha stabilito a 16 anni l’età minima per esprimere il consenso al trattamento dei propri dati. Tradotto: per iscriversi e utilizzare la stragrande maggioranza di piattaforme digitali. Ha tuttavia lasciato agli stati membri la possibilità di imporre soglie più basse ma comunque non sotto i 13 anni. Nel decreto italiano di recepimento del Gdpr, il n. 101/2018, l’Italia ha fissato quel limite per poter prestare autonomamente e validamente il consenso in 14 anni, uniformandolo per altro ad alcune prescrizioni della legge sul cyberbullismo del 2017.

Ma tutti sappiamo che sono numeri formalmente importanti ma nella sostanza ignorati e che affogano nell’ipocrisia: forniscono infatti un quadro di riferimento rispetto al quale le piattaforme non fanno “enoforcement”, cioè non impongono controlli, né prima né dopo, se non in modo blando. Ma che neanche gli altri fronti visti prima (i genitori, gli educatori) tengono più di tanto in considerazione e anzi spesso liquidano con superficialità.

Se il punto di arrivo è che quella bambina su TikTok (e sugli altri servizi) non doveva starci, quello di partenza è che genitori, leggi e piattaforme non hanno fatto in modo che non ci stesse. Il resto (togliere lo smartphone, demonizzare la rete e così via) è retorica per psicoterapeuti alla frutta.

Potrebbe interessarti anche

Rispondi

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.