España delega en Bruselas la respuesta al modelo de IA que tiene en alerta a bancos y gobiernos de todo el mundo
La semana pasada, el secretario del Tesoro de Estados Unidos convocó de urgencia a los principales bancos del país y a la Reserva Federal a una reunión de crisis para hacer frente a la vía de agua en la seguridad corporativa que supuestamente supone Claude Mythos, el modelo de inteligencia artificial de Anthropic que ha puesto en pie de guerra a reguladores, empresas de ciberseguridad y mercados financieros de medio mundo.
La alarma es generalizada en todo el mundo, porque el nuevo modelo, según la propia empresa que lo ha fabricado, es potencialmente capaz de violar la integridad de sistemas que hasta ahora se consideraban seguros y fuera del alcance de cualquier intervención no autorizada. Ese temor, sin embargo, parece no haber alcanzado a España.
“Al tratarse de un sistema de propósito general —como ocurre con otros como, por ejemplo, ChatGPT—, la competencia es de la Comisión Europea”, se limitó a responder la Agencia Española de Supervisión de la Inteligencia Artificial (Aesia) cuando infoLibre le preguntó qué medidas había adoptado o pensaba adoptar para hacer frente al riesgo que representa Mythos.
La primera reacción de la Aesia, dependiente del Ministerio para la Transformación Digital, que dirige Óscar López, fue lavarse las manos ante el problema —un modelo capaz de encontrar vulnerabilidades de décadas de antigüedad en infraestructuras críticas— y dejar cualquier decisión en manos de Bruselas.
La agencia, sin embargo, matizó después que, en su condición de miembro del grupo director del GPAI —la alianza internacional que agrupa a gobiernos de Europa, América del Norte y Asia para coordinar la gobernanza de la IA—, ha trasladado a la Comisión Europea su interés en conocer la información de que dispone Bruselas sobre Mythos. El GPAI no tiene capacidad legislativa, pero sí es el foro donde se coordinan posiciones entre potencias antes de que las normas se escriban.
¿Y qué dice la UE? “Actualmente estamos evaluando las posibles implicaciones a la luz de las políticas y la legislación de la UE”, dijo con cierta vaguedad el portavoz de la Comisión Europea, Thomas Regnier, en un comunicado enviado por correo electrónico. “También estamos monitoreando las implicaciones de seguridad de esta tecnología en rápida evolución, tanto para aumentar nuestras defensas cibernéticas como para posibles usos indebidos”.
Alemania sí reacciona
Las competencias de Bruselas no han impedido que, en Alemania, la Oficina Federal de Seguridad de la Información (BSI) se hiciese eco del problema, admitiendo que Mythos va a tener implicaciones significativas. “Estamos en contacto con el fabricante Anthropic con respecto a Claude Mythos”, anunció la presidenta del BSI, Claudia Plattner.
Aunque su autoridad aún no había podido probar la nueva herramienta, explicó Plattner, sí había podido obtener información sobre la forma en que funciona hablando directamente con los desarrolladores del modelo. Plattner señaló que el BSI se está tomando muy en serio los anuncios de Anthropic porque cree que tendrán consecuencias “en el tratamiento de las vulnerabilidades de seguridad”. Lo que, “a su vez, plantea cuestiones de seguridad y soberanía nacionales y europeas”, precisó.
Mucho más concreta y práctica ha sido la reacción en el Reino Unido. Los reguladores financieros británicos están en conversaciones urgentes con bancos y funcionarios de ciberseguridad para examinar los riesgos.
Según un informe del Financial Times, las autoridades financieras clave del Reino Unido, incluidos el Banco de Inglaterra, la Autoridad de Conducta Financiera y el Tesoro, están en conversaciones con el Centro Nacional de Seguridad Cibernética para verificar si el último modelo de IA de Anthropic podría representar alguna amenaza para los sistemas de tecnologías de la información utilizados en las finanzas. Los reguladores informarán a los bancos, aseguradoras y bolsas en las próximas dos semanas sobre los riesgos de ciberseguridad vinculados a Claude Mythos.
En qué consiste
Lo primero que hay que entender sobre Claude Mythos —conocido internamente en Anthropic como Capybara— es que todavía no existe como producto comercial. Su potencial destructivo es tal que Anthropic ha decidido no lanzarlo al público. Es la primera vez que la compañía restringe así el acceso a uno de sus modelos, y la razón que da no deja lugar a dudas: el sistema es demasiado peligroso para soltarlo sin más.
Durante las pruebas internas, Mythos encontró miles de vulnerabilidades en los principales navegadores y sistemas operativos del mundo, incluyendo fallos que llevaban décadas sin ser detectados. Una brecha de 27 años en OpenBSD, un sistema diseñado específicamente para ser difícil de atacar. Otra de 17 años en FreeBSD que permitía tomar el control completo de una máquina sin contraseña. Una más de 16 años en FFmpeg, la librería que usan casi todas las aplicaciones de vídeo del planeta. El investigador de la compañía Nicholas Carlini lo sintetizó con una frase que ya circula por los foros de seguridad informática: “Ha encontrado más vulnerabilidades en dos semanas que yo en toda mi vida”.
El impacto en los mercados fue inmediato. El índice de software y servicios del S&P 500 cayó un 1,6% el viernes de la semana del anuncio y acumula un descenso del 26% en lo que va de año. CrowdStrike perdió un 4%. Palo Alto Networks, un 7%. Datadog, un 3%. Empresas de crédito privado con exposición al sector del software también sufrieron.
El Financial Times fue el primero en reportar que Scott Bessent, secretario del Tesoro de EEUU, había convocado a los consejeros delegados de Goldman Sachs, Bank of America, Citigroup, Morgan Stanley y Wells Fargo para hablar de los riesgos cibernéticos que plantea el modelo. Jerome Powell, presidente de la Reserva Federal, también estuvo en la reunión.
El escudo privado: Glasswing
Ante la imposibilidad de publicar el modelo sin haber controlado antes sus consecuencias imprevisibles, Anthropic ha optado por una estrategia singular: usar a Mythos para cerrar las mismas vulnerabilidades que podría abrir. Ha puesto en marcha el llamado Proyecto Glasswing, una coalición cerrada de doce empresas —Apple, Microsoft, Google, Amazon Web Services, Nvidia, Cisco, CrowdStrike, Palo Alto Networks, JPMorgan Chase, Broadcom y la Linux Foundation— que tienen acceso controlado al modelo para usarlo en sus propios sistemas y parchear los fallos antes de que otros los descubran.
Lo ocurrido revela una carrera contra el tiempo difícil de ganar. Anthropic da por hecho que otros actores —sus competidores, Estados con capacidades ofensivas, grupos criminales— desarrollarán pronto modelos con capacidades similares. La pregunta no es si eso ocurrirá, sino si la infraestructura digital global estará parcheada cuando suceda.
Para facilitar el proceso, la compañía ha puesto sobre la mesa 100 millones de dólares en créditos de uso para sus socios y cuatro millones adicionales en donaciones a organizaciones de seguridad de código abierto.
El Proyecto Glasswing incluye también infraestructuras críticas más allá del software comercial: sistemas de agua, plantas de energía, redes de transporte. Vulnerabilidades que, de ser explotadas, tendrían consecuencias en el mundo físico.
Es verdad que hay voces que apuntan a que todo esto es, al menos en parte, una operación de relaciones públicas. El analista Gary Marcus, crítico habitual con los grandes anuncios en relación con a la IA, asegura que en las pruebas de explotación del navegador Firefox se desactivó el sandboxing, el mecanismo de aislamiento que en condiciones reales habría dificultado enormemente la tarea del modelo.
Precedentes
También sostiene que modelos de código abierto más pequeños y económicos ya son capaces de realizar análisis de vulnerabilidades similares. La referencia implícita al precedente de GPT-2 —que OpenAI retuvo en 2019 por ser “demasiado peligroso” y que luego resultó ser bastante menos apocalíptico de lo anunciado— flota en el ambiente. El propio Dario Amodei era entonces el responsable de investigación de OpenAI.
Pero hay una diferencia con aquel episodio que los propios escépticos reconocen: las vulnerabilidades de software actuales son verificables. Existen o no existen. Las empresas del Proyecto Glasswing, hasta ahora, no han desmentido nada de lo que Anthropic afirma.
El Reglamento Europeo de Inteligencia Artificial, aprobado en 2024 y en proceso de aplicación progresiva, clasifica los modelos de IA de propósito general según su potencia de cómputo. Los que superen un determinado umbral en su entrenamiento se consideran de “riesgo sistémico” y están sujetos a obligaciones adicionales: evaluaciones de adversarios, notificación de incidentes graves, medidas de ciberseguridad. Mythos, si los datos de Anthropic son fieles, encajaría en esa categoría.
Es verdad que la supervisión de estos modelos corresponde a la Comisión Europea, no a las agencias nacionales. La AI Office —la oficina creada en Bruselas para gestionar precisamente estos casos— tiene competencia sobre los grandes modelos de propósito general. Las agencias nacionales como la Aesia son, en este esquema, auxiliares: pueden participar en investigaciones conjuntas, recibir información y colaborar. Pero la palanca regulatoria no está en Madrid.
Los gigantes de la IA tratan de sortear la regulación europea pactando con grandes grupos de comunicación
Ver más
En todo caso, la tranquilidad institucional española es muy llamativa, sobre todo en comparación con otros países. El reglamento de IA de la UE es, en muchos aspectos, más exigente que cualquier norma equivalente en Estados Unidos. Pero hay una brecha entre tener una regulación y activarla cuando algo pasa. Mythos es, en este sentido, el primer test real de si el sistema europeo de supervisión de la IA es capaz de responder a tiempo a una crisis concreta —o si funciona mejor como marco normativo de largo plazo que como mecanismo de respuesta inmediata—.
España tiene millones de dispositivos conectados a sistemas operativos o plataformas de software que, según Anthropic, contienen vulnerabilidades que Mythos ha identificado. Tiene infraestructura crítica —energía, agua, transporte, banca— tan expuesta como la de cualquier otro país desarrollado. Tiene empresas que compran servicios en la nube a Amazon, Google y Microsoft, tres de los doce socios de Glasswing.
Ni el ministerio ni la Aesia respondieron a otras preguntas de infoLibre. Así que no es posible saber si las infraestructuras críticas españolas están siendo contempladas dentro del paraguas preventivo del Proyecto Glasswing o si hay algún canal abierto para evaluar los riesgos específicos para el tejido digital español.