La inteligencia artificial ha irrumpido en nuestras vidas como un elefante en una chatarrería. Ha llegado para cambiarlo todo y ha conquistado sutilmente móviles, redes sociales, buscadores, aplicaciones de mensajería y correos electrónicos. Ya no es ni una tecnología salida de un capítulo de Black Mirror ni una función más en el smartphone con la que mejorar la última foto o una utilidad encerrada en la aplicación de ChatGPT. Ahora es una fiel compañera en nuestros bolsillos que responde preguntas, organiza ideas, facilita procesos… Y ahora ha comenzado ya a ahorrarnos tiempo resumiendo nuestras conversaciones privadas.
La idea parece, en principio, inofensiva: ayudarnos a ponernos al día sin perdernos lo esencial. Todos lo hemos vivido: un par de horas sin mirar en el móvil y ese grupo de WhatsApp acumula decenas y decenas de mensajes sin leer. Por ello, Meta ha comenzado a implementar los resúmenes de conversaciones en esta aplicación, por ahora solo en EEUU y en inglés, aunque su intención es llevarla a más países en breve.
Esta nueva opción se basa en la inteligencia artificial que lanzaron en abril. Hasta ahora y en un cambio radical de la aplicación que también incluye la introducción de publicidad, los usuarios podían acceder a Meta AI dentro del chat para hacer preguntas generales o etiquetar un mensaje para contextualizarlo. Pero con esta nueva funcionalidad, el objetivo es usarla para resumir de "forma privada y rápida" los mensajes no leídos en un chat para, según detallan desde la tecnológica, "hacerte una idea de lo que está sucediendo antes de leer los detalles".
Sin embargo, lo que parece una ayuda, abre la puerta a un lado oscuro lleno de amenazas para la privacidad, dilemas éticos y dudas sobre cómo una máquina puede interpretar nuestras conversaciones. Sobre todo en un entorno como el del imperio de Mark Zuckerberg con un amplio historial de escándalos como Cambridge Analytica o Los papeles de Facebook.
Una IA con amnesia
Conscientes de su mala fama, desde Meta han vendido esta nueva herramienta dejando claro desde el principio que estos resúmenes utilizan lo que ellos llaman "tecnología de procesamiento privado" insistiendo en que los mensajes de WhatsApp están cifrados de extremo a extremo. Según argumentan en su blog de ingeniería, esto permite a Meta AI generar una respuesta sin que "nadie, excepto tú y tus interlocutores" pueda "acceder ni compartir tus mensajes personales, ni siquiera Meta o WhatsApp". "Los datos compartidos con Private Processing se procesan en un entorno que no los pone a disposición de ningún otro sistema. Esta protección se refuerza mediante el cifrado de datos de extremo a extremo entre el cliente y la aplicación", completan.
Es decir, según sus explicaciones, lo que se traslada, tal y como detalla Xataka, es como si en Meta hubieran inventado un empleado para WhatsApp con amnesia: puede hacer su trabajo, leer tus conversaciones para resumirlas, pero inmediatamente olvida lo que ha visto. ¿Es esto posible? "Si la herramienta está programada para eso, sí. En programación y computación, el código está compuesto de órdenes y una de ellas puede ser, perfectamente, el borrado de datos que ya han sido analizados", asegura Clara González Tosat, profesora de IA de la Facultad de Comunicación de la Universidad de Comunicación. "Esto implica que el modelo puede recibir el contenido, procesarlo, generar una respuesta y luego eliminar la información recibida sin almacenarla en ningún sitio", añade esta experta.
Elisa Gutiérrez García, profesora de la Universidad Complutense, no lo tiene tan claro: "Lo que cabe preguntarse es dónde se alojan los modelos de IA que sirven al propósito de la nueva aplicación y si no son servidores de WhatsApp". Para esta experta en IA, derecho y derechos humanos, es "difícil pensar que un tratamiento de la información semejante quede vedado al acceso de la plataforma", sobre todo, recuerda, "si tenemos en cuenta que todas las inteligencias artificiales que se ofrecen de forma gratuita o a bajo coste se arrogan el derecho paralelo a emplear el contenido del usuario para mejorar sus modelos".
Google y Apple también juegan a los resúmenes de mensajes privados
Más allá de los intentos de WhatsApp por intentar convencer a sus usuarios de su buena fe, lo cierto es que Meta no es el primero en añadir este tipo de funciones. Google, por ejemplo, ya lo hace gracias a la implementación de Gemini en Gmail desde el pasado otoño con sus tarjetas de resumen que se pueden activar en los correos electrónicos. Los de Mountain View nunca han ocultado que acceden y leen los emails. Aunque siempre han defendido que lo hacen para escanearlos y así "detectar spam y malware" y "mejorar la funcionalidad del servicio".
La idea de WhatsApp se parece más a lo que lleva implementando Apple desde el verano de 2024 con Private Cloud Computer. La tecnológica de la manzana mordida luce la privacidad de sus usuarios por bandera por lo que la piedra angular de su inteligencia artificial es "el procesamiento desde el dispositivo" de modo que la herramienta "está al tanto de tu información personal sin recopilarla".
La privacidad, el gran riesgo de estos resúmenes
Meta, Google y Apple lo tienen claro. Pero con la fama de las tecnológicas y la que también se está labrando la inteligencia artificial, genera muchas dudas la cara b que pueden tener estos, en principio, inofensivos resúmenes de conversaciones privadas. Las expertas consultadas por infoLibre señalan cinco riesgos.
El primero, y más grave, es cómo afecta a la privacidad. "Cualquier información compartida en WhatsApp, en este caso, es susceptible de ser pirateada si no se cumplen con los protocolos de ciberseguridad", defiende González Tosat. "Sin entrar en el empleo torticero que puedan hacer las tecnológicas de esos mensajes privados para "mejorar" la oferta de sus servicios, hay que tener en cuenta a terceros, ajenos a la plataforma, que por una brecha de seguridad o de cualquier otro modo puedan acceder a nuestro contenido privado", recuerda Gutiérrez García que apunta que "siempre que los datos se almacenen o procesen fuera de nuestros dispositivos, la privacidad queda comprometida".
El segundo, estrechamente relacionado con el primero, es que se usen los datos de estas conversaciones privadas para entrenar al modelo de inteligencia artificial. "Y hacerlo sin que el usuario tenga conocimiento de ello, aunque esto tiene más que ver con el tema de la transparencia y la explicabilidad del código", asegura González Tosat.
Afecta al derecho a una comunicación libre
El tercero es que afecta al derecho a una comunicación libre. Esto se podría producir, sostiene Gutiérrez García, al perderse información que el sistema considera "secundaria" cuando es de "vital importancia para el receptor" y si se tergiversa "la valoración, opinión o juicio de valor realizado por el emisor".
Esto puede suponer, y aquí el cuarto riesgo, que se malinterpreten los mensajes. "En conversaciones sensibles podrían llegar a generar malentendidos bastante graves", reconoce González Tosat que apunta que todo depende también de cómo se haya entrenado esta inteligencia artificial y exige "una revisión crítica y supervisión humana": "En contextos interpretativos, emocionales o incluso estratégicos es muy sencillo que se pierdan matices, o que se dé peso a partes del mensaje que no son tan relevantes".
"A la inteligencia artificial le cuesta identificar y procesar la ironía de los humanos", recuerda Gutiérrez García. Es decir, que la herramienta, por muy inteligente que sea, puede perder matices, formas concretas de expresarse y también bromas habituales que cada usuarios usa al comunicarse. "Entender lo contrario es como pensar que una IA puede resumir la obra de El Principito sin alterarla. La profundidad filosófica y las metáforas contenidas en el texto de Antoine de Saint-Exupéry, bajo su aparente sencillez, se perderían bajo el tamiz de esta tecnología", defiende esta experta.
Los (múltiples) errores
Y el quinto y último, que se cometan errores ortográficos o se hagan traducciones incorrectas. Algo que, por cierto, ya está pasando en herramientas ya muy asentadas como las traducciones de Google en los correos de Gmail.
La Defensora del Lector de El País alertaba a mediados de junio de que habían detectado que aquellos usuarios con opción "traducir siempre automáticamente" recibían sus newsletter con "errores de bulto". La causa era que la traducción funcionaba sobre textos en español generando errores y cambios de sentido: por ejemplo, en un titular en lugar de "planes" aparecía "aviones" ya que plane se traduce al castellano como avión. Algo que, por cierto, también pasa con los boletines de infoLibre si se tiene activada esta funcionalidad. "Los traductores no son infalibles, sin entrar en el propio sesgo que presentan. La polisemia de las palabras hace que esta labor sea complicada", reconoce Gutiérrez García.
Según explica González Tosat, las traducciones automáticas generalmente usan "métodos muy directos, es decir, palabra por palabra": "Con la llegada de la inteligencia artificial las traducciones se han vuelto más precisas puesto que se basan en probabilidad: mediante cálculos matemáticos analizan grandes volúmenes de texto para predecir qué palabra o construcción es más probable en un determinado contexto lingüístico". Esto permite traducciones "más fluidas y adaptadas al uso real del idioma". Sin embargo, tal y como matiza esta experta, no se puede olvidar que "los modelos de lenguaje actuales operan a partir de dichas correlaciones estadísticas sin una comprensión semántica profunda".
Es más, la IA de Apple también presentó problemas de precisión en sus resúmenes durante su lanzamiento. La compañía de Cupertino tuvo que cambiar la forma en la que se mostraban las notificaciones resumidas de su inteligencia artificial después de que la BBC se quejara por cómo estaba reescribiendo sus titulares. En concreto, llegó a enviar a sus usuarios que Luigi Mangione, el hombre acusado de matar al director ejecutivo de UnitedHealthcare, Brian Thompson, se había disparado o que Rafael Nadal se había declarado gay.
¿Hacía una IA privada?
A pesar de los riesgos, las grandes tecnológicas son conscientes de sus movimientos. Mientras OpenAI con ChatGPT o X con Grok apuestan por un modelo público basado en la máxima de Silicon Valley de "si algo gratis, el producto eres tú", WhatsApp, Gmail y Apple intentan subirse al carro de lo que ya se conoce como inteligencia artificial privada desplegando herramientas que venden que protegen la privacidad y el control de los datos.
Ver másMeta, Google y X despliegan sin control su IA para convertirla en tu amiga, tu buscador y su espía
"Este concepto hace referencia a sistemas que procesan los datos directamente en el dispositivo, sin enviarlo a servidores remotos", sostiene González Tosat que señala, sin embargo, que las herramientas que utilizamos ahora dependen de "la nube". "Las aplicaciones que promueven Apple y Meta son una apuesta por el procesamiento local y el control total por parte del usuario. La implantación de estos sistemas reduciría de manera significativa los riesgos de filtración, por ejemplo", explica esta experta.
"En este entorno, los datos que se comparten con el sistema no deberían compartirse ni ser empleados para mejorar sus modelos. Este sistema debería entrenarse con los datos del usuario (no con grandes conjuntos de datos disponibles en internet), quien conservaría el absoluto control de los mismos", añade Gutiérrez García.
Lo más parecido que existe actualmente a esta inteligencia artificial es el aprendizaje federado, que se usa sobre todo en el ámbito médico. Según detalla Gutiérrez García, se trata de una tecnología que "permite el desarrollo de sistemas de IA a través del machine learning o aprendizaje automático sin comunicar los datos personales entre los distintos usuarios". Es decir, que el entrenamiento del algoritmo tiene lugar de forma centralizada a través de distintos centros de datos que "generan modelos que serán compartidos entre las organizaciones que han participado en los entrenamientos con sus propios datos, pero estos datos conservarán su confidencialidad".
La inteligencia artificial ha irrumpido en nuestras vidas como un elefante en una chatarrería. Ha llegado para cambiarlo todo y ha conquistado sutilmente móviles, redes sociales, buscadores, aplicaciones de mensajería y correos electrónicos. Ya no es ni una tecnología salida de un capítulo de Black Mirror ni una función más en el smartphone con la que mejorar la última foto o una utilidad encerrada en la aplicación de ChatGPT. Ahora es una fiel compañera en nuestros bolsillos que responde preguntas, organiza ideas, facilita procesos… Y ahora ha comenzado ya a ahorrarnos tiempo resumiendo nuestras conversaciones privadas.