Los jóvenes sortean la censura para hablar de suicidio en redes

Utilizan juegos lingüísticos y vídeos con coreografías de moda en TikTok donde incluyen textos sobre autolesiones

Un joven con su teléfono móvil.

Un joven con su teléfono móvil. / LOC

Abel Cobos

“Me voy a su1c1d4r”, así, escrito con números, para que los algoritmos no lo detecten. O la versión anglosajona, “Sue of Cide”, como si fuese el nombre de una mujer, de nuevo, para que una inteligencia artificial no sepa que se está hablando de suicidio. Otro más: “unlive”, en español, “desvivir”. Muchas formas de hablar de lo mismo, de quitarse la vida, y todas con el mismo objetivo, crear un segundo lenguaje que pueda esquivar los sistemas algorítmicos que bloquean cualquier mención a autolesiones en redes sociales. 

En TikTok, por ejemplo, el hashtag #pleaseunaliveme tiene 24,4 millones de visualizaciones. El #unliveme, 3,5 millones. El #sueofcide 28.900. #su1c1d4r, 18.100. Y así, con una retahíla más de términos que sirven para lo mismo, “usar palabras fonéticamente similares que hablen del tema”, apunta Ricardo de Pascual, doctor en Psicología clínica y de la salud. 

Otro contenido recurrente en la app son los bailes. TikTok, que empezó como una plataforma musical, premia el contenido con danza. Algunos usuarios que deciden contar su experiencia con las autolesiones lo hacen a través de un vídeo donde, siguiendo una coreografía de moda, sobreponen textos con historias explícitas de autolesión y suicidio y que, prácticamente, sirven de guía introductoria a aquellos que quieran emularlo. ¿Resultado? No solo evitan la censura, sino que sirve de altavoz de su mensaje. 

La tiktoker Kalya Williams, con 80.000 seguidores, ha dedicado gran parte del contenido de su cuenta a hablar sobre su estancia en alas de psiquiatría, siempre usando este léxico digital para evitar la censura. Según aseguraba en un vídeo, “usar estas palabras falsas te permite hablar del tema de forma más ligera y restarle importancia”. Añade, además, que “en ningún momento se promueve el suicidio, sino que se habla de sus consecuencias y se comparte de forma comunitaria para acompañar a aquellos que estén en un momento de inflexión”. 

De Pascual coincide hasta cierto punto: “El humor es una forma importante de relacionarse con estas cosas”, y aunque bailar frente a la cámara contando un intento de suicidio parezca banalizar esta experiencia, el experto remarca que “es importante permitir a las personas que hablen de las cosas que les hacen sufrir, de una forma que les resulte cómoda, por muy ajena o rara que nos puedan resultar”. Aún así, cree que “hablar mucho de un tema lo vuelve importante en nuestra vida” y que “aquello de lo que más hablemos, será aquello que reciba más atención y por lo tanto entramos en un círculo vicioso que hace que hablemos todavía más de ello”. 

Este refuerzo social se hace aún más palpable en TikTok. Según un estudio de la Universidad de Roma Tor Vergata, el algoritmo de la app está diseñado para captar la atención analizando lo que atrapa al usuario, aunque no lo haya buscado directamente. Por ejemplo, si se hace viral un vídeo del hashtag #su1c1d10 y aleatoriamente le aparece a un adolescente en su página principal y lo mira entero, el algoritmo entenderá que le parece interesante, y le seguirá promocionando esos vídeos. Al final, como concluía el informe, esto podría derivar en conductas obsesivas por parte del usuario. Por supuesto, a TikTok le preocupa este contenido, especialmente después de que en 2021 un vídeo de un suicidio se viralizase sin que ningún tipo de moderador restringiera su alcance, lo que obligó a la plataforma a crear una nueva política de control. De hecho, el 15% del contenido eliminado diariamente es, según sus datos, porque promueve las autolesiones.

TikTok no es la única que batalla contra estos códigos anticensura. Instagram, Facebook, YouTube o ReddIt se topan con lo mismo, porque, a pesar de que si buscas suicidio, depresión, anorexia o autolesiones te derivan automáticamente a ayuda profesional, es fácil hallar contenidos similares. Incluso en YouTube, uno de los principales problemas con los que se están topando los moderadores es que existen canales que, usando estos códigos lingüísticos, logran monetizar vídeos sobre el suicidio, lucrándose con contenido perjudicial para adolescentes.

Otro problema del algoritmo ya no es solo que le cueste detectar las piruetas lingüísticas de sus usuarios, sino que muchas veces el contenido nocivo se esconde tras historias de superación. Por ejemplo, en pleno bum de la salud mental, surgen cuentas contra las autolesiones, hablando de lo mucho que les arruinó la vida intentar suicidarse o no tratar a tiempo una anorexia o una depresión. Y, aunque a priori esto parezca positivo, hay una competición entre estos creadores de contenido para ver quién sufre más, alimentando así, paradójicamente, un contenido que llega a romantizar las autolesiones como vía de escape ante una realidad cada vez más precaria para la juventud.

Suscríbete para seguir leyendo