REDES SOCIALES

Por qué Instagram quiere que la 'sección 230' regule las redes para seguir haciendo "oídos sordos"

Un móvil con la aplicación Instagram.

Había puestas muchas expectativas en las palabras del director de Instagram, Adam Mosseri, en la que era el miércoles su primera comparecencia en el Capitolio de EEUU. Ante el subcomité de protección al consumidor del Senado, el máximo responsable de la red social tuvo que responder sobre la toxicidad de la aplicación entre los menores develada por The Wall Street Journal en los conocidos como The Facebook Files: "Todos queremos que los adolescentes estén seguros en línea". No obstante, estos buenos deseos se quedaron en agua de borrajas porque la conclusión fue la misma música de siempre. "Anteponen los beneficios económicos al bienestar de los jóvenes", denuncia Natalia Martos Díaz, CEO y fundadora de Legal Army.  

¿Cómo quieren, entonces, asegurar que los adolescentes estén seguros en Instagram? El resumen a grandes rasgos de Mosseri sería que ellos (la propia red social, pero también su propietario: el imperio Meta) son los buenos de esta película y la culpa la tiene, por un lado, la industria, y por otro, los usuarios. Y todo esto después de que el propio director confesase, entre otras cosas, que la privacidad de los menores sigue comprometida en la plataforma ya que el algoritmo les continúa mostrando publicaciones a favor de los trastornos alimenticios y les permite conectarse con traficantes de drogas

Ante los senadores, propuso dos grandes soluciones. Su medida estrella sería la creación de un organismo de la industria tecnológica para que sea el encargado de abordar problemas como "verificar la edad, diseñar experiencias apropiadas y crear controles parentales". En este organismo, según publica The Verge, también participarían progenitores, reguladores y la sociedad civil. La idea de Mosseri no gustó mucho en el Capitolio: "El tiempo de la autovigilancia ha terminado", le advirtió el senador demócrata Richard Blumenthal.

La otra propuesta del director de Instagram fue reforzar las protecciones que ya ofrece la sección 230 de la ley de decencia en las comunicaciones de 1996, conocida popularmente como "las 26 palabras —en su redacción en inglés— que crearon internet". "Las redes sociales no tienen mecanismos para controlar todo lo que se sube a sus plataformas y necesitan exonerarse y lo que piden es un marco regulatorio para seguir sin asumir su responsabilidad", explica Martos Díaz sobre la postura tomada por Mosseri, una figura mucho menos quemada mediáticamente que la de su jefe, Mark Zuckerberg.

Concretamente, esta legislación del año 1996 es que "ningún proveedor o usuario de un servicio informático interactivo será tratado como el editor o el orador de cualquier información proporcionada por otro proveedor de contenido de información". Es decir, libera a las tecnológicas de la responsabilidad por los contenidos publicados, aunque incumplan la ley. "Ante una eventual demanda por un contenido nocivo, ellos se amparan en la sección 230. Esta norma ampara a las redes sociales para que hagan oídos sordos a lo que sucede en sus plataformas", indica esta abogada especializada en el sector de Internet, medios y nuevas tecnologías que apunta que, en la práctica, lo que hace es proteger a las tecnológicas mientras que "los ciudadanos están totalmente desprotegidos". 

"Todas las cautelas las tienen que tomar en Europa"

Del otro lado del Atlántico, las tecnológicas no tienen tanta manga ancha como en EEUU. "Allí no tienen control alguno, pueden hacer lo que quieran. Todas las cautelas las tienen que tomar en Europa", afirma Martos Díaz que señala la paradoja de que un ciudadano estadounidense está más protegido, digitalmente hablando, en la UE que en su propio país. 

A principios de siglo, en 2002, la UE aprobó una directiva sobre la privacidad y las comunicaciones electrónicas, la 2002/58/CE. "Es más restrictiva. La sección 230 permite, al ser un contenido masivo y generado por el usuario, quitarle responsabilidad a las plataformas. En la UE, tienen la obligación de ponerse manos a la obra y retirar el contenido de inmediato", afirma la CEO y fundadora de Legal Army. En España, se traspuso en la Ley 34/2002 de servicios de la sociedad de la información y de comercio electrónico. Esta norma establece, entre otras cosas, "las obligaciones y responsabilidades de los prestadores de servicios" y les impone "un deber de colaboración para impedir que determinados servicios o contenidos ilícitos se sigan divulgando". 

Pero en Bruselas no se han quedado ahí. En 2016, se aprobó el nuevo Reglamento general de protección de datos (RGPD o GDPR por sus siglas en inglés) para garantizar un nivel uniforme y elevado de protección de los datos en suelo comunitario evitando que las empresas los vendan o existan fugas sin autorización. "Ha sido un hito a nivel regulatorio que se aplica a cualquier empresa del mundo. Tenemos una ley europea que se aplica transnacionalmente", asegura Martos Díaz, que insiste así en que esta norma protege a los ciudadanos americanos cuando están en la UE, pero no en EEUU. En España, el RGPD está recogido en la Ley Orgánica 3/2018 de Protección de Datos Personales y garantía de los derechos digitales.

A finales de 2020, la UE lanzó dos reformas para mantener bajo un control mucho más estricto a los gigantes digitales, tanto desde el punto de vista de su responsabilidad en lo que publican como, desde la perspectiva de la competencia, la posición predominante que les da su posición de gatekeepers, con acceso a datos confidenciales de potenciales competidores. Son dos directivas, la Ley de Servicios Digitales (DSA, por su siglas en inglés) y la de Mercados Digitales (DMA). "Lo que sería ideal es que tuviesen el mismo ámbito de protección que el RGPD", explica esta abogada. 

La DSA y la DMA prevén, entre otras medidas, multas si las plataformas no retiran en un tiempo determinado contenidos juzgados ilegales o incitadores del odio a requerimiento de la justicia. En ambos casos estaban previstas para la primavera del próximo año pero, según publicó Bloomberg a finales de octubre, la última cumbre de líderes europeos hizo ese objetivo más ambiguo y se retrasarán hasta algún momento de 2022. 

Todos quieren actualizar la sección 230, pero no por lo mismo

El llamamiento de mantener la sección 230 de Mosseri, aunque sea con una actualización, no es la primera vez que lo escuchan en Capitol Hill. Zuckerberg también se ha mostrado partidario de que los legisladores actualicen el escudo legal de las empresas tecnológicas. "Congresistas y senadores quieren que las plataformas se hagan responsables de los contenidos y que las redes rindan cuentas sobre el algoritmo", argumenta Martos Díaz, que apunta que Meta, por su parte, pide que se actualice "pero quieren que siga restándoles responsabilidades". 

En Washington tienen claro que quieren actualizar la sección 230, pero no por las mismas razones. Según explica The New York Times, los republicanos aseguran que esta ley da a las empresas demasiado margen de maniobra, mientras que los demócratas, incluyendo al propio presidente Joe Biden, consideran que las tecnológicas tienen demasiada cobertura y que, tal y como señala Martos Díaz, "deberían ser denunciables porque deben ser responsables". 

Pero, tal y como afirman los más críticos con esta actualización, según recoge Bloomberg, una reforma sólo beneficiaría a las plataformas dominantes, como todas las aplicaciones de la familia Meta. Otra razón más del férreo apoyo del imperio Zuckerberg. 

Tal y como recuerda Jillian C. York, la activista y directora de libertad de expresión internacional en la fundación Frontera Electrónica, en un artículo publicado en la revista MIT Technology Review a raíz de la polémica abierta el pasado mes de enero con el cierre de la cuentas sociales de Donald Trump tras el ataque al Capitolio, revocar la sección 230 "obstacularizaría a los competidores de Facebook y demás gigantes tecnológicos". Y va más allá: "Si Facebook quiere echar a Trump, o censurar fotos de madres lactantes, es su decisión. El problema no es que Facebook tenga el derecho de hacerlo, sino que, debido a sus adquisiciones y crecimiento sin obstáculos, sus usuarios prácticamente no tienen a dónde ir y están atrapados bajo reglas cada vez más problemáticas y moderación automatizada de contenido". 

No hay que olvidar que, además de la sección 230, EEUU también cuenta con la ley de protección de la privacidad infantil en Internet, conocida popularmente como COPPA, por sus siglas en inglés. Esta legislación establece que las páginas webs y los servicios online dirigidos a niños deberán informar de sus prácticas y obtener el consentimiento de los padres antes de recopilar información personal de todos los usuarios de menos de 13 años. "Los congresistas también quieren modificar la COPPA ya que quieren que se suba la edad para que los menores usen las redes sociales", expone Martos Díaz. 

Nuevas medidas para proteger a los menores

Después de hacer una férrea defensa de la regulación federal, Mosseri también defendió que la protección de los más jóvenes en Internet no es un asunto "sólo de una empresa" y recordó que los menores también son habituales en otras plataformas como TikTok o YouTube. "Internet no va a desaparecer, y creo que hay un trabajo importante que podemos hacer juntos, la industria y los legisladores, para elevar los estándares en Internet para servir y proteger mejor a los jóvenes", aseguró el director de la red propiedad de Meta.

Tras echar balones fuera y culpar al resto, Mosseri también tuvo tiempo para anunciar algunos mínimos cambios que se van a implementar en Instagram para "cuidar" a los menores. Aunque, tal y como apunta Martos Díaz, "es casi imposible controlar el uso que los menores hacen de las redes sociales"

"No fuimos diseñadas para menores": las redes sociales se ponen estrictas para proteger a los más jóvenes

"No fuimos diseñadas para menores": las redes sociales se ponen estrictas para proteger a los más jóvenes

Por un lado, presentó la opción "tómate un descanso" para obligar a los usuarios a dejar la aplicación cuando llevan mucho tiempo en ella. Por otro lado, anunció que van a mejorar el control parental, que van a dar la opción de volver a ver las fotos por orden cronológico y no algorítmico como durante los últimos años, y van a incrementar la facilidad para borrar fotografías y comentarios viejos. Asimismo, también se comprometió a ceder datos a investigadores externos para analizar el efecto de Instagram en la salud mental de los adolescentes. 

Todas estas medidas llegan después de que The Facebook Files desvelara que un 32% de las chicas dicen que cuando se sienten mal con su cuerpo, la red social "les hace sentir peor". Gracias a esos mismos documentos también se supo, aunque sin tanto interés mediático, que Facebook había diseñado un plan para captar a menores de seis años. La primera víctima de estas revelaciones fue la decisión de Meta de paralizar la idea de un Instagram Kids orientada a usuarios de menos de 13 años.

Antes del escándalo, la plataforma ya parecía interesada en poner una venda antes de la herida porque anunció una serie de medidas para proteger a los menores en la red social, entre las que se encontraba la de convertir por defecto en privadas las cuentas de los usuarios de menos de 18 o 16 años, dependiendo del país. "Facebook e Instagram no fueron diseñados para personas menores de 13 años, por lo que estamos creando nuevas formas de evitar que los menores de edad se registren", dejaron claro en un comunicado en su blog

Más sobre este tema
stats