La regulación de las redes sociales
Poner orden en el salvaje Oeste del 'scroll' infinito: “Tenemos chicos y chicas que se nos están rompiendo”
“Instagram es una droga. Básicamente, somos camellos”. Esta frase, escrita por uno de los ingenieros de Meta en un arranque de sinceridad en un chat interno de la compañía propiedad del oligarca tecnológico Mark Zuckerberg, resume hasta qué punto las grandes plataformas son conscientes del producto que manejan. De cómo está diseñado y qué daño causa.
No es de extrañar que este haya sido uno de los primeros argumentos utilizados por la acusación en el histórico juicio de Los Ángeles (California) que por primera vez ha sentado en el banquillo a los gigantes tecnológicos de Estados Unidos.
Los documentos filtrados en litigios recientes pintan un panorama demoledor: las empresas no solo conocen los riesgos, sino que diseñaron sus productos para maximizar el compromiso adolescente aunque el coste fuera la salud mental de toda una generación.
Un informe interno de TikTok, filtrado en 2024, lo admitía sin ambages: “Los menores no tienen una función mental ejecutiva para controlar su tiempo de pantalla”. Es decir: son incapaces de desconectar, atrapados en el scroll infinito.
En 2019, pruebas piloto encargadas por Facebook demostraron que los usuarios que abandonaban la red durante una semana mostraban niveles menores de depresión, ansiedad y soledad. La investigación fue cancelada. Un empleado dejó constancia de su inquietud: ocultarlo les haría parecer “compañías de tabaco” que sabían del daño de los cigarrillos y callaban. La comparación no puede ser más reveladora.
Maximizar ingresos
La pregunta ya no es si estas plataformas son adictivas, sino por qué, conociéndolo, no implementan frenos. La respuesta es simple: menos tiempo de pantalla significa menos anuncios, y menos anuncios significan menos ingresos.
El caso de la plataforma de juegos Roblox recientemente denunciada en Australia, un país pionero en la legislación para regular el acceso a redes sociales, añade otra capa de horror porque se ha convertido en terreno de caza para depredadores que la utilizan para manipular a menores con el objetivo final de obtener concesiones de índole sexual, imágenes íntimas o incluso un encuentro físico. La exposición a contenido gráfico se suma a un ecosistema donde la seguridad infantil queda sistemáticamente supeditada al crecimiento de usuarios activos.
Regular este paisaje resulta endiabladamente complejo. En Estados Unidos, la Sección 230 protege a las plataformas de responsabilidad por contenidos de usuarios, creando un escudo legal casi impenetrable. Los litigios actuales intentan cambiar el foco: el problema no es solo lo que se publica, sino el diseño negligente y adictivo de las plataformas mismas. Pero probar causalidad directa entre un algoritmo y un daño específico es un objetivo que todavía nadie ha conseguido alcanzar.
Lo confirma la doctora en Psicología Silvia Álava. “Determinadas redes sociales están pensadas para hackear la atención del cerebro y que intentemos estar en ellas el máximo tiempo posible”. Algo particularmente dañino “en el cerebro de niños o adolescentes, que es muchísimo más sensible” y está lejos de haber madurado lo suficiente.
No obstante, precisa, y aunque la ciencia nos dice que hay una correlación entre el uso del móvil y un incremento de los problemas de salud mental, sobre todo de ansiedad, depresión y trastornos de la conducta alimentaria, aún no tenemos un estudio que diga “que hay una relación causal”, solo que es “un factor de riesgo”.
Determinadas redes sociales están pensadas para 'hackear' la atención del cerebro y que intentemos estar en ellas el máximo tiempo posible
Son, en todo caso, evidencias suficientes para que gobiernos de todo el mundo traten de poner coto al problema. La cuestión es cómo hacerlo. Una verificación de edad robusta requiere, para muchos, datos biométricos cuyo almacenamiento masivo plantea riesgos monumentales de ciberseguridad. ¿Qué empresa merece custodiar los rostros de millones de menores? ¿Qué ocurre cuando esa base se filtra?
Sin embargo, Mar España, responsable de Control Z y exdirectora de la Agencia Española de Protección de Datos (AEPD), no tiene dudas. La prioridad tiene que ser la defensa del libre desarrollo de la personalidad y el derecho a la salud física y mental de los menores y, para hacerlo, asegura a infoLibre, el problema no es la privacidad.
Son precisamente las grandes plataformas, subraya, las que la están vulnerando al perfilar a los menores a edades tremendamente tempranas con un único objetivo: “Cuanto más pronto se enganchen a las redes, más vulnerables van a ser y más cautivos serán de los productos y servicios que estas grandes plataformas ofrecen”.
Ahora mismo “hay muchísimos menores de 14 años en TikTok y en Instagram” precisamente "porque las redes no están cumpliendo adecuadamente los principios de privacidad". “Hay que ir hasta el fondo” para proteger a los menores. “Igual que no pueden consumir alcohol o conducir un coche. Esto es incluso más perjudicial. ¿Por qué? Porque en la adolescencia es cuando las personas creamos hábitos de comportamiento, nuestros valores y cómo nos relacionamos con el otro”.
Cajas de recompensa
Las redes no son, además, el único problema. A todo esto hay que sumar las cajas de recompensa (loot boxes) en videojuegos que operan mediante refuerzo intermitente —exactamente como las tragaperras— pero se perciben como entretenimiento, no como apuesta. Detectar y regular esta mecánica hasta que el daño económico o la adicción están consolidados resulta extremadamente difícil.
Hay, además, cierta tensión constitucional: algunos sectores advierten de que la prohibición de acceso a los menores puede limitar oportunidades legítimas de participación juvenil. O lesionar otros derechos. Laura Davara, socia del despacho de abogados especializado en derecho digital que lleva su nombre, y experta en educación digital, considera difícil verificar la edad sin incumplir la normativa de protección de datos.
No se puede pedir el DNI, pone como ejemplo, porque ”incumple el principio de minimización, que es esa obligación de únicamente recabar los datos mínimos necesarios para cumplir con la finalidad” que se persigue. Tampoco es fan de la implantación de controles parentales en los dispositivos porque dan “una falsa sensación de seguridad. Yo animo a poner en Google cómo saltar control parental: te salen varios tutoriales”.
Una cosa es poner límites y otra censurar o espiar: podemos estar hablando de situaciones tremendamente graves
El riesgo principal de una regulación, a su juicio, “es que se vulneren derechos fundamentales. En primer lugar, el derecho a la privacidad. Una cosa es poner límites y otra censurar o espiar: podemos estar hablando de situaciones tremendamente graves”. En juego están, además, la libertad de expresión y “el tema del tipo de mensajes que se pueden limitar. ¿Dónde pones el límite?”, se pregunta. “Es algo muy, muy peligroso”.
Mar España discrepa. “Las plataformas sociales tienen medios de sobra para verificar la edad”. Y pone un ejemplo que conoce bien, de su etapa al frente de la AEPD. La única plataforma de distribución de porno que entonces decidió voluntariamente adaptarse a los criterios de la agencia usando servicios de verificación de edad que respetan la privacidad perdió el 85% del tráfico. Es decir: el servicio logró una efectividad de 8,5 sobre 10.
Esto no va de si “les quitamos derechos o no les quitamos derechos”, añade la psicóloga Silvia Álava. Cuando “tenemos evidencia de que hay algo que no funciona bien, que puede provocar problemas, hay que regular su uso, porque lo primero es la protección de la infancia, y la infancia llega hasta los 18 años”.
Frente a quienes dicen que es imposible impedir completamente el acceso, porque siempre habrá quien se lo salte, otros manejan con soltura la analogía de la prohibición del alcohol a los menores. El valor de una ley no reside solo en su capacidad de vetar, dicen, sino en su función pedagógica y simbólica.
Cuando no existe regulación, el problema permanece invisible, relegado a la responsabilidad individual de padres superados por los acontecimientos. Legislar contra cajas de recompensa o acceso a contenidos tóxicos, en cambio, emite un mensaje inequívoco: “Esto no es inofensivo, es un riesgo documentado”. Desnaturaliza lo que la inercia social había normalizado —que un niño de diez años pase seis horas diarias en una red diseñada para adultos— y rompe la aceptación pasiva del daño.
Davara advierte, en todo caso, de que “esto no es una cosa solo de plataformas. Es algo tan grande y tiene tal nivel de implicaciones que se tienen que tener en cuenta muchos más factores. No es algo solo de las familias, de los menores, de los centros educativos, de las plataformas, de las administraciones públicas o de los gobiernos”.
Tampoco debería ser, añade, “una cuestión solo de la edad. Si ponemos el foco solo en la edad, nos vamos a quedar cortísimos. Yo lo digo siempre: todos tenemos un cuchillo en casa y podemos utilizarlo para cortar el filete o para cortarle el cuello a la persona con la que convivimos. Y es el mismo cuchillo”. La cuestión es no dejar "utilizar un cuchillo a gente que no tiene el conocimiento" para hacerlo.
De ahí la importancia, subraya, de la “educación digital”. “Yo soy una de las mayores partidarias, pero de una educación digital de verdad”. Más que de nuevas normativas. Ya hay varias, recuerda, “que imponen obligaciones a las plataformas. No digo que sean perfectas, porque no lo son. Tampoco digo que no haya que imponer más obligaciones”, pero lo importante es hacerlas cumplir, en particular la Ley de Servicios Digitales (DSA, por sus siglas en inglés). Gracias a esta norma, recuerda, se han impuesto multas cuantiosas por diseños adictivos.
Esto tiene que ser un pacto de Estado. Necesitamos consenso y aprobación urgente, pero incorporando el criterio de salud
Es cierto, como sostiene esta abogada, que las prohibiciones se pueden sortear usando, por ejemplo, VPN de fácil acceso. Pero la mayoría de usuarios no poseen conocimientos técnicos ni voluntad de complicarse constantemente la vida. Si una medida evita que el 70% de menores accedan a contenido tóxico, aunque el 30% restante lo consiga, el impacto en salud pública seguiría siendo considerable, subrayan sus partidarios.
Entre tanto, sin regulación, toda la carga recae en padres que deben competir contra equipos de psicólogos conductuales y diseñadores de experiencia dedicados profesionalmente a minimizar la adicción. No se debe “poner todo el peso únicamente en las familias”, explica Álava, aunque tengan un trabajo que hacer de acompañamiento y alfabetización digital. “Las plataformas también tienen que proteger a los menores”. Están hechas precisamente “para enganchar, saben perfectamente que hay contenido que es nocivo”. No solo porno, recuerda, al que los niños están accediendo con ocho años, sino también contenido acerca de cómo autolesionarse, ideación de suicidio, o promoción de trastornos de conducta alimentaria.
Hace décadas, obligar a usar cinturón generó resistencias: resultaba incómodo, paternalista, una intromisión estatal. La ley no evitó todos los accidentes, pero cambió la percepción del riesgo. Hoy, abrochárselo es acto reflejo, y mirar atrás asombra: ¿cómo permitimos que niños viajaran sin protección? Con las redes sociales, cada vez más personas buscan una transformación cultural semejante: pasar del salvaje oeste actual a una cultura de cuidado.
Daños sin precedentes
En todo caso, subraya Mar España, “esto tiene que ser un pacto de Estado. Necesitamos consenso y aprobación urgente, pero incorporando el criterio de salud en el proyecto de ley de protección al menor en el entorno digital que probablemente se impulse en este periodo de sesiones. Porque no puede haber una ley donde el eje principal no sea la salud, desde la evidencia científica y la neutralidad política”.
Sánchez declara la guerra al ‘big tech’: responsabilidad penal para directivos y prohibición a menores de 16
Ver más
Consumir porno o redes sociales desde los 12 años y formar tu atención a través de vídeos cortos de 15 segundos afecta al desarrollo cognitivo, insiste la exdirectora de la AEPD. Nunca como ahora la salud física y mental de los adolescentes se ha visto tan perjudicada. “Los médicos están horrorizados de lo que están viendo en consulta”, remarca. Silvia Álava lo confirma: “Tenemos chicos y chicas que se nos están rompiendo”.
De ahí que la Asociación Española de Pediatría, con el respaldo unánime de todas las sociedades médicas, esté pidiendo prohibir las pantallas en la etapa infantil, la de “mayor plasticidad cerebral”. Recomiendan cero exposición hasta los seis años; de una hora máximo al día entre 6 y 12 años y dos horas máximo al día de 12 a 18 años. “Incluyendo deberes, enseñanza digital y ocio”, remarca España.
“Hasta que consigamos que esté tan mal visto que un adolescente tenga un smartphone con 13, 14 o 15 años —o un bebé, que es una salvajada—, como ahora está mal visto conducir estando borracho o sin el cinturón de seguridad”, habremos perdido “una o dos generaciones”, advierte.