Su Instagram e TikTok "contenuti che istigano a suicidio e autolesionismo raccomandati minori più fragili su scala industriale"
I social network si sa si basano su algoritmi personalizzati: basta interagire con un contenuto (ovvero mettere "mi piace", commentarlo, condividerlo, o semplicemente osservarlo più a lungo) per vedersene poi proporre numerosi altri sullo stesso argomento. Il contro? La creazione di spazi digitali pressoché monotematiche possono dare l'impressione che nient'altro di importante esista al loro esterno, amplificando a dismisura l'importanza di ciò di cui trattano. Un effetto collaterale ancora più problematico qualora a finire al centro di una simile dinamica siano contenuti dannosi visualizzati da minori, come messo in luce da un nuovo report della Molly Rose Foundation, onlus creta dalla famiglia di una 14 enne inglese che si tolse la vita nel 2017 dopo aver subito forme di bullismo online e visto migliaia di immagini che spingevano a forme di autolesionismo.
Bombardamento a valanga
Contenuti relativi al suicidio dell' autolesionismo vengono ancora raccomandati su "scala industriale" da TikTok e Instagram otto anni dopo la morte di Molly, è l' eloquente il titolo con cui l' organizzazione ha dato la notizia degli esiti della ricerca. Condotta simulando l' utilizzo delle due popolari piattaforme da parte di una 15enne con problemi depressivi e pensieri suicidari, ha infatti certificato che sui profili di adolescenti che avevano interagito con post relativi a suicidio, autolesionismo e depressione, si legge gli algoritmi continuano a bombardare giovani con una valanga di contenuti dannosi sui Reel di Instagram e sulla pagina "Per te" di TikTok. Superfluo specificare a cosa possa portare tale meccanismo, peraltro alla base anche correlato fenomeno delle cosiddette echo chamber, mondi online su misura che rafforzano e confermano le opinioni dei singoli utenti generando chiusura mentale e polarizzazione.
Commenti
Posta un commento