INTELIGENCIA ARTIFICIAL
Google retira resúmenes de salud generados por IA tras detectar riesgos para los usuarios
Google ha eliminado algunos de sus resúmenes de salud generados por inteligencia artificial después de que una investigación del diario The Guardian revelara que podían poner en riesgo a las personas al ofrecer información falsa o engañosa.
La compañía defiende que sus AI Overviews —resúmenes creados con IA generativa que aparecen en la parte superior de los resultados de búsqueda— son “útiles” y “fiables”. Sin embargo, la investigación mostró que en varios casos estos contenidos proporcionaban datos médicos inexactos, especialmente relacionados con pruebas de salud.
Uno de los ejemplos más preocupantes, calificado por expertos como “peligroso” y “alarmante”, estaba relacionado con los análisis de función hepática. Al buscar en Google “cuál es el rango normal de los análisis de sangre del hígado”, la IA ofrecía una gran cantidad de cifras sin el contexto necesario y sin tener en cuenta factores clave como la edad, el sexo, la etnia o la nacionalidad del paciente. Según especialistas, esta información podía llevar a personas con enfermedades hepáticas graves a creer erróneamente que estaban sanas y a no acudir a consultas médicas de seguimiento.
Tras la publicación de la investigación, Google retiró los AI Overviews para las búsquedas “cuál es el resultado normal de análisis de sangre del hígado” y “cuál es el resultado normal de una prueba de función hepática”. Un portavoz de la empresa afirmó: “No comentamos eliminaciones individuales dentro del buscador. Cuando los AI Overviews carecen de contexto, trabajamos para realizar mejoras generales y tomamos medidas de acuerdo con nuestras políticas cuando es necesario”.
Vanessa Hebditch, directora de comunicaciones y políticas del British Liver Trust, celebró la retirada de estos resúmenes, pero advirtió que el problema persiste. “Si la pregunta se formula de otra manera, aún puede aparecer un resumen potencialmente engañoso. Nos preocupa que otra información sanitaria producida por IA sea inexacta y confusa”, señaló.
Andalucía reconoce "fallos de información" en la detección del cáncer de mama y llamará a las afectadas "una por una"
Ver más
De hecho, The Guardian comprobó que variaciones mínimas en las búsquedas, como “rangos de referencia para pruebas de función hepática”, seguían generando resúmenes automáticos. Hebditch explicó que las pruebas de función hepática incluyen varios análisis distintos y que interpretar los resultados correctamente es complejo. “La IA presenta listas de cifras que pueden no corresponder siquiera al test realizado y no advierte que una persona puede tener resultados aparentemente normales pese a padecer una enfermedad hepática grave”, añadió.
Otras organizaciones también expresaron su inquietud. Sue Farrington, presidenta del Patient Information Forum, calificó la retirada como “un buen primer paso”, pero subrayó que aún existen demasiados ejemplos de información sanitaria incorrecta generada por IA. “Millones de adultos ya tienen dificultades para acceder a información médica fiable. Por eso es fundamental que Google dirija a los usuarios hacia fuentes sólidas y organizaciones sanitarias de confianza”, afirmó.
Aunque Google asegura que algunos de sus resúmenes sobre cáncer y salud mental se basan en fuentes reconocidas y recomiendan buscar ayuda profesional, expertos en tecnología consideran que el caso demuestra que la empresa aún tiene trabajo pendiente. Victor Tangermann, editor senior del sitio Futurism, concluyó que la investigación evidencia la necesidad de garantizar que estas herramientas no difundan información médica peligrosa.