Facebook

Facebook ignoró estudios internos que advertían de la polarización creciente en la red social

El centro de datos que Facebook tiene en Dublín (Irlanda).

infoLibre

Los algoritmos de Facebook agravan la polarización entre sus usuarios: esta afirmación se desprende de estudios internos de la red social enfocados a atajar este problema y que la compañía decidió ignorar a favor del crecimiento de la plataforma, según una información publicada este miércoles por The Wall Street Journal y recoge Europa Press. La plataforma emplea algoritmos para sugerir nuevos contenidos a los usuarios en base a su experiencia en la plataforma. Estos algoritmos, como se desprende de estudios internos, han contribuido a polarizar la conversación y a dividir a la gente.

Según se dice en una presentación interna de 2018, recogida por The Wall Street Journal, los algoritmos "explotan la atracción del cerebro humano hacia la división. Si se dejan sin comprobar, Facebook alimentará a los usuarios con contenido cada vez más divisivo en un esfuerzo por atraer su atención e incrementar el tiempo en la plataforma". Este informe forma parte de los esfuerzos de la compañía por comprender cómo la red social conforma el comportamiento de los usuarios y cómo se debería atajar el daño potencial que pudiera causar.

Según han señalado personas próximas a estos trabajos a este medio estadounidense, las propuestas fueron ignoradas por altos directivos, entre ellos el CEO, Mark Zuckerberg, y el responsable de Política Pública, Joe Kaplan. Algunas propuestas se rechazaron por la posibilidad de que afectaran desproporcionadamente a los usuarios y medios más conservadores, o por entenderse como paternalistas.

La vinculación de la plataforma con la proliferación de contenido extremista se encuentra en estudios e investigaciones desde 2016, como el de la socióloga y trabajadora de Facebook Monica Lee, quien descubrió que en Alemania los grupos estaban "desproporcionadamente influenciados", según el medio citado, por un subconjunto de usuarios hiperactivos. Preocupaba entonces el número de grupos extremistas, cuyo crecimiento se debía al algoritmo de la plataforma y sus recomendaciones.

En 2017, la compañía creó los llamados Equipos de integridad, para investigar sobre el contenido divisorio y el comportamiento de los usuarios, que plantearon la cuestión de la forma en que Facebook priorizaba el compromiso de los usuarios, expresado en acciones como dejar comentarios, compartir publicaciones, dar 'Me Gusta' o el tiempo que pasan en la red social.

La decisión de esos equipos de integridad se centró en un compromiso con la neutralidad, es decir, no controlar las opiniones de la gente ni detener el conflicto en la plataforma, según un documento interno. En otro documento de 2018, se recoge que la compañía no va a crear "explícitamente" contenido que "atente contra las creencias de la gente" y, en su lugar, se centraría en "productos que incrementen la empatía, la comprensión y la humanización de la 'otra parte'".

Hubo propuestas diversas para cumplir con este fin. Por ejemplo, y según fuentes internas y documentos dictados por The Wall Street Journal, se planteó la creación de subgrupos temporales y moderados que acogieran la conversación más encendida. También la modificación de los algoritmos para que ofrecieran recomendaciones más amplias. Sin embargo, su implantación, según otro informe de mediado de 2018, afectaría al crecimiento de la plataforma.

Procesos de veto interno

La polarización no sólo cuesta ira y ruido: el virus avanza gracias a la división social

La polarización no sólo cuesta ira y ruido: el virus avanza gracias a la división social

Desde las acusaciones, en 2016, de sesgo por parte de los grupos conservadores en Estados Unidos, muchas de las decisiones sobre cambios en la plataforma debían pasar no solo por los responsables de producto e ingenieros, sino también por los equipos de marketing, relaciones públicas y jurídicos de la compañía. Las diferencias de opiniones llevaron a procesos de veto interno, que afectaron, por ejemplo, a la creación de un sistema de clasificación para el contenido hiperpolarizado o a los esfuerzos para suprimir clickbait sobre política más que sobre otros temas. En su lugar, se implementaron cambios más débiles.

Carlos Gomez Uribe, antiguo responsable del sistema de recomendaciones de Netflix, empezó a liderar el equipo de integridad en enero de 2017, del que se marcharía un año después. Entonces, propuso reducir el impacto que tenían los usuarios hiperactivos, ya que debido a los algoritmos, un usuario que interactúa con 1.500 contenidos tiene más influencia que alguien que lo hace con 15. Se trata, además, de cuentas más partidistas, y que tienen mayores probabilidades de mostrar un comportamiento sospechoso, incluso de estar involucrados en acciones de spam. Su propuesta, enfocada a limitar el contenido spam y a potenciar la actividad de los usuarios mediosspam, fue apartada por preocupaciones sobre los editores y por otros grupos no extremistas muy activos en la plataforma, según señaló Kaplan tiempo después.

La compañía tecnológica ha introducido cambios en los últimos años enfocados a combatir el contenido que viole sus políticas. En una conferencia en octubre de 2019, Zuckerberg anunció que no eliminaría contenido político si es noticioso aunque vaya en contra de sus estándares. Según defendió, descubrieron que la estrategia más efectiva para los acasos de desinformación era "centrarse en la autenticidad del que habla más que en intentar juzgar el contenido en sí".

Más sobre este tema
stats