¡A la escucha!

Una madriguera

Una madriguera de contenido tóxico. Así definía esta semana un portavoz de Amnistía Internacional el peligro de algunos de los contenidos a los que se exponen nuestros hijos en redes, y especialmente en TikTok. Alertaba de esos vídeos que les llegan sin buscarlos, de forma aleatoria, en los que unas veces es porno y, últimamente, han detectado que son vídeos en los que se idealiza el suicidio. El primero llega de forma casual: detenerte en él unos segundos es la clave. A partir de ahí, si siguen navegando llegan más. Vídeos que se van repitiendo, que van siendo habituales y que acaban fagocitando todo lo que ven. Los consumen de forma compulsiva, al principio vídeos sobre estados de ánimo, depresión, después vídeos en los que se enseñan técnicas para autolesionarse y, después, pensamientos que rozan el suicidio y que los presentan como una forma romántica de poner fin a esos pensamientos que todo adolescente tiene: quién soy, cómo soy, encajo donde estoy, nadie me comprende, soy diferente, la vida es una mierda…

Hasta ahora la alerta siempre iba sobre esos contenidos sexuales, anuncios, spam, vídeos que les llegan sin buscarlos y que una vez que entran en su algoritmo, no pueden dejar de ver. Lo mismo ocurre con este tipo de contenido. Y, sobre todo, en esa red que mencionaba, TikTok. Vídeos que se hacen virales, como los retos absurdos de ver quién aguanta más despierto o bebiendo determinada bebida, o limpiándose la cara con productos que cualquier dermatólogo desaconsejaría por pura sensatez. Una red sin control, en la que todo vale y en la que pasan horas, muchas horas.

Las televisiones tenemos controles estrictos sobre lo que podemos o no podemos enseñar y contar en determinadas franjas horarias. Aquellas en las que, se supone, puede haber menores pudiendo ver la tele. Si nos saltamos esas restricciones hay sanciones, multas que pagamos. Pero, ¿quién controla a los creadores de contenido de esas redes? ¿Quién sanciona si determinada aplicación bombardea a sus usuarios con vídeos en los que se habla abiertamente de autolesionarte o quitarte la vida? ¿Dónde están ahí los límites?

¿Quién controla a los creadores de contenido de las redes? ¿Quién sanciona si determinada aplicación bombardea a sus usuarios con vídeos en los que se habla abiertamente de autolesionarte o quitarte la vida? ¿Dónde están ahí los límites?

Una madriguera de contenido. La expresión es lo suficientemente gráfica: un agujero del que les es muy difícil salir a esos chicos y chicas. No tienen las herramientas, ni la madurez, ni la claridad para poder buscar salidas o al menos pedir ayuda. Y todo en un momento en el que, lo repetimos continuamente, su salud mental ha sufrido un deterioro preocupante, especialmente tras la pandemia.

Estos días, un grupo de padres y madres han creado un grupo al que cada vez se suman más personas para coordinarse y controlar la edad a la que un menor puede tener un móvil. Si todos decimos que no, ellos no sentirán la presión de sentirse raros por ser los únicos que no tienen un teléfono. La idea es interesante, puede que funcione, pero no es la solución. No tener un móvil no les aísla de todos esos contenidos. Los pueden encontrar en otras pantallas, en ésas en las que les obligamos ya a hacer los deberes, a estudiar. Les hemos metido la tecnología en las aulas sin antes enseñarles a cómo manejarse en ese enorme mundo digital. Podemos seguir demonizando los móviles, sí, pero hay muchas fugas de agua que se nos están escapando y por las que les está entrando mucha mierda. Demasiada. 

Más sobre este tema
stats