Su Instagram e TikTok "contenuti che istigano a suicidio e autolesionismo raccomandati minori più fragili su scala industriale"
I social network si sa si basano su algoritmi personalizzati: basta interagire con un contenuto (ovvero mettere "mi piace", commentarlo, condividerlo, o semplicemente osservarlo più a lungo) per vedersene poi proporre numerosi altri sullo stesso argomento. Il contro? La creazione di spazi digitali pressoché monotematiche possono dare l'impressione che nient'altro di importante esista al loro esterno, amplificando a dismisura l'importanza di ciò di cui trattano. Un effetto collaterale ancora più problematico qualora a finire al centro di una simile dinamica siano contenuti dannosi visualizzati da minori , come messo in luce da un nuovo report della Molly Rose Foundation, onlus creta dalla famiglia di una 14 enne inglese che si tolse la vita nel 2017 dopo aver subito forme di bullismo online e visto migliaia di immagini che spingevano a forme di autolesionismo. Bo...