Su Instagram e TikTok "contenuti che istigano a suicidio e autolesionismo raccomandati minori più fragili su scala industriale"

 



I social network si sa si basano su algoritmi personalizzati: basta  interagire con un contenuto (ovvero mettere "mi piace", commentarlo,  condividerlo, o semplicemente osservarlo più a lungo)  per vedersene poi  proporre numerosi altri sullo stesso argomento. Il contro? La creazione  di  spazi digitali pressoché  monotematiche possono dare l'impressione  che  nient'altro di importante esista al loro esterno, amplificando a dismisura l'importanza di ciò di cui trattano. Un effetto  collaterale ancora più problematico qualora a  finire al centro di una simile  dinamica  siano contenuti  dannosi  visualizzati da minori, come messo in luce da un nuovo report della Molly Rose Foundation, onlus creta dalla famiglia di  una  14 enne inglese che  si tolse la vita nel 2017 dopo aver subito forme di bullismo online e visto migliaia di immagini che spingevano a forme di autolesionismo. 

Bombardamento a valanga

Contenuti relativi al suicidio dell' autolesionismo vengono ancora raccomandati su "scala industriale" da TikTok e Instagram otto  anni  dopo la  morte di Molly, è l' eloquente il titolo con cui  l' organizzazione ha dato la notizia degli esiti della ricerca. Condotta simulando l' utilizzo delle  due popolari piattaforme da parte di una 15enne  con  problemi depressivi e  pensieri suicidari, ha infatti certificato che sui profili di adolescenti che avevano interagito con post relativi a suicidio, autolesionismo e depressione, si legge gli algoritmi continuano a  bombardare giovani con una valanga di contenuti dannosi sui Reel di Instagram e sulla pagina "Per te" di TikTok. Superfluo specificare a cosa possa portare tale meccanismo, peraltro alla base anche correlato fenomeno delle cosiddette echo chamber, mondi online  su misura che rafforzano e confermano le  opinioni dei singoli utenti generando chiusura mentale e  polarizzazione. 

I  risultati 

Una volta assunta l' identità digitale della suddetta adolescente fragile, non solo quasi tutti i video consigliati guardati sui Reel di Instagram 97  percento, e su TikTok 96 percento sono stati ritenuti  dannosi, ma  addirittura oltre la metà 55 percento dei post dannosi segnalati  sulla  pagina  "Per Te"  di TikTok conteneva riferimenti espliciti al suicidio e all' autolesionismo, mentre il sedici percento faceva riferimento a specifici metodi per suicidarsi. In terzo luogo, poi un video dannoso su dieci nella pagina "Per Te" di TikTok aveva ricevuto un milione di "mi piace", mentre su Reel  di Instagram aveva ricevuto più 250  mila uno su cinque. Un dato che non  stupisce come  rilevato dal The  Guardian, più della  metà dei video  di tendenza pubblicati su TikTok che offrono consigli sulla salute mentale contiene informazioni errate. 

Commenti

Post popolari in questo blog

Crisi e rinascita dell’olio di canola canadese: l’impatto delle tensioni con la Cina sul mercato globale

L' intelligenza artificiale ci aiuta a interpretare i versi degli animali

Faroe, nuova mattanza da record di globicefali e delfini