Las redes sociales ante la justicia: el negocio de la adicción empieza a tener precio

Durante décadas, las grandes plataformas digitales han estado operando bajo un principio casi sagrado: lo que publican sus usuarios no es responsabilidad suya. La Sección 230 de la Ley de Decencia en las Comunicaciones de Estados Unidos les otorgó un escudo legal que las blindaba frente a miles de demandas y convertía cualquier intento de atribuirles responsabilidad en un ejercicio jurídico destinado al fracaso. Ese escudo se está agrietando, y lo que está entrando por las grietas, además de un reproche moral, es una abultada factura.

En Los Ángeles, un jurado popular declaró esta semana a Meta —la matriz de Instagram y Facebook— y a YouTube —propiedad de Alphabet, la empresa madre de Google— responsables de negligencia por haber diseñado ambas plataformas de una manera que dañó la salud mental de una joven de veinte años. La indemnización fue de seis millones de dólares, repartidos entre daños compensatorios y punitivos, con Meta asumiendo el 70% de la responsabilidad y Google el 30%.

Una cifra modesta comparada con lo ocurrido unos días antes en Nuevo México, donde Meta fue condenada a pagar 375 millones por permitir que Instagram se convirtiera en un entorno propicio para la explotación sexual infantil y por engañar a los usuarios sobre la seguridad de sus aplicaciones. Snap y TikTok se libraron en el juicio de Los Ángeles gracias a que prefirieron llegar a acuerdos extrajudiciales con la demandante antes de que el jurado emitiera su veredicto. Nadie sabe cuánto pagaron por no ser señaladas en este caso, pero eso no las librará de ser acusadas en en otros procedimientos.

Lo que hace jurídicamente relevantes estos fallos es que no se basan en el contenido que circula por las plataformas sino en cómo están construidas. Los demandantes no están acusando a Meta o a Google de publicar algo ilegal. Las acusan de haber diseñado productos defectuosos: el scroll infinito que elimina cualquier punto natural de parada, las notificaciones de intervalo variable que imitan la lógica de una máquina tragaperras, los algoritmos que priorizan el contenido que más engancha aunque sea el más dañino. Eso no es contenido de terceros. Eso lo fabricaron ellas. Y ahí es exactamente donde la Sección 230 deja de protegerlas.

Una norma desconectada de la realidad

La norma, aprobada en 1996, cuando internet era todavía un espacio marginal y sus riesgos apenas se intuían, fue concebida para proteger a los proveedores de servicios digitales de la responsabilidad por lo que sus usuarios publicaran. Su lógica parecía razonable en aquel contexto: no tenía sentido hacer responsable a una plataforma de mensajería por los insultos que un usuario enviara a otro, del mismo modo que no se considera responsable a una empresa de telefonía por las conversaciones que se producen a través de sus líneas.

Pero las redes sociales del siglo XXI no son una infraestructura pasiva. Son sistemas activos de recomendación, ordenación y amplificación del contenido, diseñados con una intención precisa: mantener al usuario el mayor tiempo posible dentro de la plataforma. Y ese diseño, argumentan los demandantes con creciente éxito, es una decisión de ingeniería cuyas consecuencias dañinas sus autores deben asumir.

Los juristas recurren a la industria tabacalera para explicar el giro histórico que están protagonizando estos procesos. Al igual que ocurrió con las tabaqueras en los años noventa, lo determinante no está siendo solo el daño, sino la evidencia de que las empresas lo conocían. Documentos internos de Meta han demostrado que sus propios equipos sabían que los filtros de belleza de Instagram generaban dismorfia corporal en adolescentes, que sus algoritmos podían empujar hacia contenido relacionado con trastornos alimenticios, y que la empresa eligió priorizar el engagement sobre el bienestar. Sabían, callaron y siguieron optimizando. Ese es el patrón que en los años noventa arruinó a Philip Morris. Y ese es el patrón que los jurados de Los Ángeles y Santa Fe han empezado a penalizar.

La base científica que sustenta estas demandas no es especulativa. El cerebro reacciona a las redes sociales de forma parecida a como reacciona a las drogas. Recibir un “me gusta” libera dopamina —el neurotransmisor que el cerebro segrega cuando anticipa o recibe una recompensa— en sus zonas más instintivas.

Disociación

Con el tiempo, el usuario desarrolla lo que los investigadores llaman una disociación entre el “querer” y el “gustar”, un deseo compulsivo de revisar la plataforma que no va acompañado de satisfacción real, o que incluso coexiste con una satisfacción decreciente. El usuario sigue abriendo la aplicación aunque sepa que no va a encontrar nada que le importe, del mismo modo que un fumador enciende un cigarrillo sin esperar ya ningún placer particular de él. Los adolescentes son especialmente vulnerables porque su corteza prefrontal —la región que regula el control de los impulsos— aún no está completamente desarrollada. No es una metáfora clínica. Es neurobiología con implicaciones jurídicas.

Los mecanismos concretos mediante los que las plataformas explotan esa vulnerabilidad están bien documentados. El scroll infinito, desarrollado por el diseñador Aza Raskin —que después se arrepentiría públicamente de haberlo inventado—, elimina los momentos naturales de pausa que en cualquier otra actividad actúan como señales de que ha llegado el momento de parar. "Es como si estuvieran tomando cocaína conductual", ha llegado a decir Raskin.

La reproducción automática de vídeos hace lo mismo en el terreno audiovisual. Las notificaciones de intervalo variable —que llegan de forma impredecible, como los premios de una tragaperras— generan un hábito de comprobación compulsiva que los psicólogos conductuales llevan décadas identificando como uno de los mecanismos de condicionamiento más potentes conocidos.

Y los algoritmos de recomendación, optimizados para maximizar el tiempo de uso, aprenden rápidamente que el contenido que genera más actividad neuronal es el que activa el sesgo de negatividad: la indignación, el miedo, la comparación social desfavorable. El contenido más rentable tiende a ser también el más tóxico, y los sistemas están diseñados para servirlo con precisión creciente.

Cambios estructurales

La investigación ha empezado a documentar además cambios estructurales en el cerebro asociados al uso intensivo. Niveles más bajos de materia gris en ciertas áreas, alteraciones en los patrones de atención, mayor impulsividad. En adolescentes, cuyo sistema nervioso está todavía en formación, estos efectos pueden condicionar el desarrollo cognitivo de forma duradera. La correlación entre el uso excesivo de redes sociales y el aumento de la depresión, la ansiedad y las ideas suicidas en jóvenes está suficientemente documentada como para que ya no pueda descartarse como alarmismo de padres preocupados.

El problema central es que el diseño adictivo no es un efecto secundario del modelo sino su columna vertebral. Las redes sociales ofrecen sus servicios de forma gratuita porque su negocio no consiste en vender un producto al usuario sino en vender al usuario —su atención, sus datos, su comportamiento— a los anunciantes. En ese modelo, el tiempo que el usuario permanece en la plataforma es literalmente la unidad de medida de la rentabilidad. Cada scroll de más es un anuncio más, un dato de comportamiento más, una fracción de céntimo más. El usuario no es el cliente. Es la materia prima.

Investigaciones con universitarios estiman que, si los usuarios pudieran desactivar todas las funciones de diseño persuasivo, su tiempo de pantalla se reduciría una media del 37%, con casos individuales que llegan al 65%. Una reducción de ese calibre no sería un ajuste menor para estas empresas: sería un colapso de las métricas sobre las que se construyen sus valoraciones bursátiles y se justifican sus ingresos publicitarios. El mercado global de publicidad digital, que valía 350.000 millones de dólares en 2020, alcanzará este año los 768.000 millones, un crecimiento impulsado casi exclusivamente por el aumento del engagement. Sin adicción, no hay negocio a esta escala. Esa es la aritmética del modelo.

Es el modelo

La diferencia con otros sectores que también pueden generar dependencia es reveladora. En un modelo de suscripción —Netflix, Spotify— la empresa es indiferente a la intensidad del uso siempre que el cliente renueve. Un abonado que apenas consume el servicio es tan rentable como uno que lo usa doce horas al día, y de hecho consume menos infraestructura. Una tabaquera puede ser indiferente a si el cliente fuma el cigarrillo o lo tira, siempre que lo compre. En las redes sociales, en cambio, el beneficio no se produce con la compra inicial del servicio —que es gratuita— sino con cada minuto adicional de uso. La adicción no es un riesgo colateral del modelo. Es el modelo.

Tristan Harris, exdiseñador de Google convertido en crítico del sector, lleva años argumentando que estas empresas no pueden reformarse significativamente desde dentro porque sus incentivos financieros están estructuralmente orientados a consumir el tiempo de ocio de las personas. La arquitectura de las plataformas, sostiene, no está diseñada para servir al usuario sino para servirlo a él como producto. Los veredictos judiciales de estos días parecen haberle dado la razón, al menos en los tribunales.

Lo ocurrido en Los Ángeles y Santa Fe es, en términos procesales, un ensayo general. El juicio californiano funciona como caso piloto para más de 1.500 demandas similares consolidadas en ese estado, y sus resultados orientarán el valor de miles de reclamaciones pendientes y la posibilidad de acuerdos globales. En junio comenzará en Oakland un juicio federal impulsado por distritos escolares contra Meta, ByteDance —la matriz de TikTok—, Snap y Google. En julio, otro proceso estatal en California involucrará a las cuatro grandes plataformas. En mayo, un juez de Nuevo México decidirá si impone a Meta cambios estructurales en la arquitectura de sus productos, como verificaciones de edad efectivas que hoy no existen o no funcionan con ninguna fiabilidad.

Meta y Google han confirmado que apelarán, y los expertos prevén que la disputa llegará al Tribunal Supremo, que tendrá que pronunciarse de forma definitiva sobre si las protecciones legales actuales cubren el diseño de algoritmos adictivos. Es una pregunta a la que la Sección 230, redactada treinta años antes de que existiera el scroll infinito, no puede responder.

Nuevas fronteras

La batalla, previsiblemente, se extenderá además hacia nuevas fronteras: Baltimore ha demandado a xAI, la empresa de Elon Musk, alegando que su chatbot Grok genera imágenes sexuales explícitas de menores, y más de 130 demandas apuntan ya contra la plataforma de videojuegos Roblox por reclamos similares de desprotección de la infancia. La teoría del "diseño defectuoso" está encontrando aplicaciones que sus impulsores iniciales apenas anticipaban.

Meta y YouTube condenadas a pagar 3 millones de dólares en EEUU por adicción a redes

Ver más

Hay algo significativo en que sean jurados populares —no legisladores, no reguladores, no académicos— quienes estén forzando este punto de inflexión. El Congreso estadounidense lleva años intentando aprobar la Ley de Seguridad Infantil en Internet sin lograrlo, paralizado por el poder de lobbying de las plataformas, por la dificultad de alcanzar consensos en un sistema político fracturado y por la genuina complejidad de legislar sobre tecnologías que evolucionan más rápido que los ciclos parlamentarios. Doce ciudadanos reunidos en una sala de Los Ángeles han conseguido en días lo que la política no ha logrado en años: establecer, con fuerza de ley, que estas empresas conocían el daño que causaban y eligieron no actuar. Que la ignorancia, en este caso, no es una defensa.

Las plataformas llevan años presentándose como meros intermediarios neutrales, espacios donde las personas se expresan libremente y la empresa solo pone la infraestructura. Es una imagen que siempre tuvo más de relato corporativo que de descripción precisa, pero que funcionó durante tiempo suficiente como para construir sobre ella un muro legal casi impenetrable.

Los veredictos de estos días dicen que ese muro tiene fecha de caducidad. Que el scroll infinito, las notificaciones diseñadas para generar ansiedad y los algoritmos optimizados para maximizar el tiempo de pantalla son decisiones de ingeniería con consecuencias reales sobre personas reales, y que tienen autor, tienen destinatario y tienen precio. Son, simplemente, un producto. Y los productos defectuosos no son neutrales.

Durante décadas, las grandes plataformas digitales han estado operando bajo un principio casi sagrado: lo que publican sus usuarios no es responsabilidad suya. La Sección 230 de la Ley de Decencia en las Comunicaciones de Estados Unidos les otorgó un escudo legal que las blindaba frente a miles de demandas y convertía cualquier intento de atribuirles responsabilidad en un ejercicio jurídico destinado al fracaso. Ese escudo se está agrietando, y lo que está entrando por las grietas, además de un reproche moral, es una abultada factura.

Más sobre este tema