LA PORTADA DE MAÑANA
Ver
El as en la manga de los conservadores para imponer a su candidato para sustituir a Marchena

Economía

Cuando tu trabajo consiste en ver violaciones o ataques terroristas: moderadoras de Facebook relatan su día a día

Una mujer sostiene un móvil con el logo de Facebook.

Detrás de un me gusta en cualquier red social, del entrenamiento de la Inteligencia Artificial (IA) y de los contenidos que se ven o no en internet hay trabajadores, a menudo en cadenas de subcontratación, que no pueden mirar de reojo. Son tareas que es posible hacer de manera remota por lo que las grandes empresas están trasladándolas a países de América Latina, de África o del sureste asiático, lo que afecta a las condiciones laborales de unos empleados que además son invisibles. Sin embargo, en el contexto del 4º Foro Transnacional de Alternativas a la Uberización, impulsado por Podemos, el Grupo Parlamentario de La Izquierda y La Francia Insumisa en el Parlamento europeo, tres mujeres se han atrevido a relatar sus experiencias sin anestesia.

Kauna Malgwi, es ex moderadora de contenido de Facebook en Sama, Kenya, y pensó cuando la contrataron, sin saber que en realidad iba a trabajar para dicha red social, que “era una oportunidad de oro”. Pero, con el tiempo, se convirtió en una negra pesadilla. Le dieron 20 minutos para firmar un acuerdo de no divulgación de información, del que no le permitieron tomar ni una foto. Lo hizo y, a partir de ahí, “repasó contenidos” en “todo tipo de idiomas”. Antes, durante un periodo de formación, “las fotos eran en blanco y negro” y no graves, pero a las pocas semanas empezó a ver suicidios que incluían mirar “a la persona, allí en el suelo” que se había lanzado desde “un edificio de 10 pisos”. “Hay que ir hasta el fondo, verlo todo y tienes 55 segundos para examinar ese contenido, para ver dónde se ha producido...”, cuenta. Y hay mucho más. Ha visto ataques terroristas, avisos de bombardeos, que hay que evaluar y en alguna ocasión han logrado abortar, de lo que se siente “orgullosa"; o a “un niño de dos años violado por un adulto”. “El recto y la vagina estaban totalmente desgarrados”, recuerda aún con espanto, para preguntarse “cómo se puede entregar a un menor” para que “le hagan esas cosas".

Kauna reconoce que observar miles de imágenes de ese tipo, teniendo que volver al día siguiente a su puesto como si nada, la “sobrepasó”. Al no poder divulgar lo que hace, no lo habló con nadie. Señala que debían haberle dicho lo que iba a hacer, para haberse “preparado mentalmente”. Pero no fue así. “Me quitaron la voz y estaba traumatizada”, lamenta. “Esto te perturba físicamente -enlaza-, no tienes ganas de comer, perdí mucho peso, me dieron ataques de ansiedad y tuve que ir al hospital en varias ocasiones”. Pero, “no podía decirle al médico dónde trabajaba”. Tampoco a él, aunque sí le diagnosticaron “un problema psicológico”, unido a que ahora combate una “presión arterial más alta” y “un estrés enorme”. Confiesa sentirse “un poco paranoica”, sobre todo con los niños y con los hombres, tras haber visualizado numerosas violaciones. “Esto me ha cambiado la vida. Mi personalidad cambió, mi familia también, y mientras más contenido ves, una se va convirtiendo en otra persona. Todo lo que he visto me ha hecho otro ser humano”, constata. Como la falta de preocupación de Facebook por sus trabajadores. Su proyecto se canceló “y 200 personas se han quedado sin nada”. Gente entre la que ha habido "tentativas de suicidio", y a la que, tras lo atravesado, le “va a ser muy difícil encontrar otro trabajo”. Denunciaron a la plataforma y, según asevera, un tribunal estimó que, aunque los habían subcontratado, estaban vinculados a ella. Reclama que estas empresas asuman sus responsabilidades en casos como los suyos y paguen “por lo que nos han hecho a muchos”.

Noraly Guevara, es micro-trabajadora en España, aunque es venezolana. Carga datos de forma masiva a la IA, la entrena. Narra que se enfrentan a “listados de tareas infinitas” y luego “un algoritmo dice si te quedas o no”. “Se pagan céntimos por cada lote de datos y te exigen una precisión que requiere mucho tiempo”, resume. En las plataformas de su sector, sí hay cierta opción de “elegir qué trabajo hacer”, si bien, denuncia la ausencia de “control” que hace que “pueda haber un niño de 15 años que acceda a este tipo de trabajo desde su casa”. Operan con textos, voces, vídeos… y aportan datos personales, como sus caras, que no saben dónde acaban. Esto le preocupa porque la Inteligencia Artificial no siempre se usa con fines nobles.

Sakine, moderadora de contenido en línea en Alemania, comparte que “se ha visto afectada” al verse obligada a “revisar contenidos de odio, pornografía, acoso, suicidios… prácticamente 24 horas al día”. Es material “en línea”, que hay que “evaluar en un minuto y con precisión”. Tampoco ella puede compartir con otros lo que ve. “Eso te impone un gran estrés”, musita, confirmando lo escuchado antes. En su caso, todo comenzó en mayo de 2019, tras graduarse de su segundo máster, uno de Filosofía. Se fue a vivir a Berlín y empezó como moderadora de contenidos como algo temporal. A priori, trataría con “un amplio abanico de contenido, violento y no, imágenes muy variadas”. El promedio de revisión era de un minuto y la precisión, según los criterios de las plataformas, fundamental para seguir. “Hacen falta dos años para tener un contrato continuado”, detalla. Llegó un momento en el que “no tenía ni tiempo para respirar, con un nudo en la garganta”, se queja, como de “la supervisión constante” de sus superiores. Trabaja para una subcontrata y su “empleador” da “el mismo servicio a cuatro países distintos” y “ha cambiado tres veces en cuatro años el nombre de la empresa”. Muchos de sus compañeros eran “inmigrantes, que no pueden socializar”. “La imagen más familiar que tengo es un conjunto distópico, es como la Naranja Mecánica -película de Stanley Kubrick-", comparte. Y remata: “El humano se supone que tiene que formar a la IA, pero acaba asqueado de la vida”.  

En la jornada de este jueves estuvo presente, asimismo, Jonas Valente, impulsor del Fairwork Project, vinculado al Oxford Internet Institute, con el que confían en visibilizar buenos y malos ejemplos del uso de nuevas tecnologías en el ámbito laboral. A través de la investigación sobre las plataformas digitales de trabajo y la inteligencia artificial, pretenden que el futuro de los empleos sea mejor y más justo.

Villanueva: "Existe el riesgo real de que la directiva acabe en un cajón"

De su lado, Idoia Villanueva, eurodiputada y responsable de la Secretaría Internacional de Podemos, hizo a Infolibre una “valoración positiva del trabajo de los colectivos” que han participado en el encuentro y que “han conseguido unir sus luchas y visualizar que toca a varios sectores desde la agricultura, la vivienda, la sanidad… más allá de Uber”. “Es un éxito en sí mismo tener un foro como esté, pero también que se hayan inscrito como lobby dentro del Parlamento europeo para hacer presión”. Acepta que “es un gran jarro de agua fría que haya el riesgo de acabar la actual legislatura echando abajo una directiva -sobre Trabajadores de Plataformas (DPT)- que es esencial y que se ha descafeinado muchísimo a lo largo de todo el proceso. Ya sólo contiene cosas básicas, como es reconocer derechos fundamentales que costaron muchos años conseguir”, lanza.

Para la eurodiputada, “lo que hay detrás es una plataforma de beneficios que se basa en dos principales patas: o pagar menos impuestos y acabar en paraísos fiscales a través de trasnacionales enormes y evadir la fiscalidad de los países; o en la precariedad, que es dejar de abonar derechos laborales como las bajas, las pensiones… hasta que directamente ya no te despiden, sino que te desconectan, y hay una competencia feroz”. Con todo, cree que todavía se está “a tiempo”. “Queda muy poco y los gobiernos que están a favor de la directiva tienen que hacer una presión especial. Ahí España juega un papel esencial. Durante su Presidencia no se logró cerrar, pero antes de acabar la legislatura debería ser una prioridad”, recalca. “Si no -engarza-, habrá que ver qué correlación de fuerzas nos traen las elecciones en el Parlamento y existe el riesgo real de que todo el trabajo hecho durante cuatro años se quede en un cajón”, avisa. “Hace falta empujar, por eso pensamos que tener este foro era importante, porque es una cuestión de derechos fundamentales que involucra a toda la ciudadanía”, concluye. De hecho, traslada a los asistentes al mismo que “no todo está perdido. Hay que continuar y luchar hasta vencer”, proclama, convencida de que “la uberización de la economía no es más que un intento por parte de Uber y otras empresas de imponer la esclavitud en pleno siglo XXI”.

"Vamos a una especie de distopía tecno feudal"

¿Queda alguien en Facebook? La red social cumple 20 años incapaz de conectar con la generación Z

¿Queda alguien en Facebook? La red social cumple 20 años incapaz de conectar con la generación Z

Y, si algo ha quedado patente en el espacio transnacional abierto en Bruselas es que la llamada uberización se ha expandido como cuando se echa insecticida, a empuje de algoritmo. “Una parte de la democracia es la empresa, que los trabajadores conozcan y puedan negociar sus condiciones de trabajo, y esto es lo que viene a llevarse por delante la IA”, advierte Fernando García, coordinador estatal de Plataformas Digitales de UGT. 

“Si decisiones como despidos, contrataciones, ascensos, remuneraciones, evaluación del desempeño… se automatizan y el proceso se vuelve totalmente opaco, se hace innegociable y los ciudadanos dejan de serlo y pasan a ser esclavos”, comparte con Villanueva. Alude a la Ley Ryder española para afirmar que fue pionera y tiene “dos puntos básicos: la laboralidad de los repartidores, que estaba ya fijada por el Tribunal Supremo, pero viene a recordar a empresas como Uber, Glovo o Deliveroo que han de contratar como las demás. Y dentro de la contratación y en relación con la digitalización o la algoritmización opaca, viene a decir que aunque se tomen decisiones de manera automatizada los criterios tienen que ser conocidos y negociados con los representantes de los trabajadores”, condensa. Las plataformas argumentaron respecto a lo último que “los algoritmos son propiedad intelectual”, por lo que se fijó que “fueran los comités de empresas los que tengan esa responsabilidad”.

García es de lo que entienden que, aunque los ryders hayan sido “punta de lanza”, al ser el suyo “un caso extremo de opacidad” al no ser tratados “ni siquiera como trabajadores, sino como empresarios en bicicleta”, el fenómeno ha estirado sus tentáculos a “la banca, seguros, la administración pública, la industria…” . “Las relaciones laborales se están digitalizando y la Ley Ryder afecta a todas las empresas y trabajadores de España”, a los que puede llegarles “un email que escriba un bot -robot- para comunicarle que su rendimiento ha bajado y está despedido”, previene. “Esto es una nueva película que tendrá que adecuarse a los sistemas democráticos de control laboral que ya teníamos”, avanza, de ahí que pretendan una directiva que “fije que no haya falsos autónomos y que la digitalización sea con derechos, porque, si no, vamos a una especie de distopía tecno feudal en la que programadores informáticos decidan nuestra vida”, teme. “Los algoritmos no son un fenómeno natural, están diseñados por alguien, bajo las órdenes de una empresa, con unos objetivos, se alimenta con datos y produce unos resultados concretos”, quiere dejar claro para finalizar. Los combativos asistentes al foro terminaron la sesión con una protesta en la Place du Luxembourg de la ciudad.

Más sobre este tema
stats