El escenario es revelador. La Administración Trump, que ha rebautizado el Departamento de Defensa como Departamento de Guerra y al frente del cual está Pete Hegseth, un exmilitar que llegó al cargo directamente desde un programa de la cadena Fox, exigió a las grandes empresas de inteligencia artificial lo que todo poder ejecutivo acaba pidiendo a quienes necesita controlar: acceso sin restricciones. La cláusula era tan amplia como inquietante: "Cualquier uso legal". Bajo ese paraguas cabían, sin mayor matiz, la vigilancia masiva de ciudadanos estadounidenses y el desarrollo de sistemas de armas completamente autónomas —maquinaria bélica que decide por sí misma a quién matar, sin intervención humana en el momento del disparo—.
Anthropic dijo que no. OpenAI respondió que sí.
Ese contraste condensa el debate más sustantivo que atraviesa el sector tecnológico en este momento y que obliga a entender qué son estas empresas. ¿Laboratorios de investigación con responsabilidad pública? ¿Proveedores de infraestructura al servicio del mejor postor? ¿O actores morales con una agenda propia que trasciende el beneficio trimestral? La respuesta no es filosófica. Tiene consecuencias directas sobre cómo se desplegará la tecnología más transformadora del siglo, quién la controlará y bajo qué condiciones.
Para entender el alcance de lo que está en juego, hay que presentar a los actores. Porque en esta industria, los nombres importan menos que las estructuras de poder, las lealtades financieras y, sobre todo, las líneas que cada uno ha decidido —o no— trazar en el suelo.
Anthropic: la empresa que nació del miedo
Para entender por qué Anthropic rechazó al Pentágono, hay que recordar por qué existe Anthropic. La compañía fue fundada en 2021 por Dario Amodei, su hermana Daniela y varios investigadores que abandonaron OpenAI con una convicción compartida: que sin salvaguardas robustas el desarrollo de inteligencia artificial general —la que los científicos entienden que sería equiparable, para bien y para mal, a la del ser humano— representa un riesgo existencial para la humanidad. No era retórica. Era, y sigue siendo, la premisa fundacional de todo lo que hace la empresa.
De esa convicción surgió la llamada IA Constitucional, el enfoque técnico y filosófico que distingue a Claude —el modelo de Anthropic— del resto. La idea es tan elegante como ambiciosa: en lugar de entrenar al modelo mediante el castigo y la recompensa de comportamientos humanos, proceso opaco y difícilmente auditable, se le enseña a evaluarse a sí mismo contra un conjunto de principios escritos. Una Constitución. El modelo aprende a rechazar instrucciones que violen esos principios no porque un operador humano lo castigue en tiempo real, sino porque ha interiorizado una arquitectura ética.
La estructura corporativa de Anthropic —una de las poquísimas tecnológicas que no ha donado dinero a Trump y que respalda la regulación de la IA que está llevando a cabo la Unión Europea— refleja la misma lógica. La empresa opera como una Corporación de Beneficio Público y ha creado un organismo de supervisión independiente, el Long-Term Benefit Trust, con capacidad real de intervenir en decisiones estratégicas. No es marketing. Es una arquitectura diseñada para que ningún inversor, por grande que sea, pueda forzar a la empresa a cruzar ciertas líneas.
Y eso que los inversores son grandes. Amazon ha inyectado 8.000 millones de dólares. Google ha aportado cerca de 2.000 millones. Fondos soberanos de Singapur y gestoras como Coatue, una de las más importantes del sector tecnológico, completan un balance que eleva la valoración de Anthropic a cifras estratosféricas. Pero esas inyecciones de capital no se traducen en control sobre las decisiones éticas de la empresa —al menos no formalmente, no todavía—.
Cuando la Administración Trump designó hace unos días a Anthropic como "riesgo para la cadena de suministro" —etiqueta históricamente reservada para adversarios extranjeros, no para empresas domiciliadas en San Francisco— estaba reconociendo implícitamente que sus mecanismos habituales de presión no habían funcionado. La empresa había dicho no y mantenía el no. A un coste enorme: contratos federales vetados, acceso restringido a determinadas agencias y la señal inequívoca de que Washington puede hacer la vida muy difícil a quien no coopere. Anthropic, aparentemente, lo asume. De momento, con el apoyo del sector.
OpenAI: el pragmatismo como ideología
OpenAI (creadora deChatGPT) nació con una misión igualmente grandiosa: garantizar que la inteligencia artificial general beneficie a toda la humanidad. Durante años, esa misión tomó la forma de una organización sin ánimo de lucro que publicaba sus investigaciones y rechazaba la lógica de la acumulación privada. Lo que siguió es conocido: la necesidad de capital para competir forzó una reestructuración profunda, completada en octubre de 2025, que convirtió a OpenAI en una Corporación de Beneficio Público valorada en 500.000 millones de dólares.
Para comprender qué es hoy OpenAI, hay que mirar quién la financia. Microsoft es el mayor accionista externo, con una participación del 27%. La compañía ha invertido más de 13.000 millones de dólares desde 2019. SoftBank lideró una ronda de financiación de 41.000 millones de dólares y controla aproximadamente el 13% de la empresa. Entre los inversores de esa ronda figuran también Founders Fund —el vehículo de Peter Thiel, el dueño de Palantir y pieza clave de la estrategia del Pentágono—, Sequoia Capital y Andreessen Horowitz, tres de las firmas más influyentes de Silicon Valley.
La Fundación OpenAI, heredera de la estructura sin ánimo de lucro original, conserva alrededor del 26% y mantiene el poder de nombrar al consejo directivo. Lo paradójico es que su CEO, Sam Altman, no posee ninguna participación accionarial en la empresa que dirige, lo que en teoría elimina conflictos de interés pero en la práctica no limita su capacidad de negociación.
En ese contexto, la firma de un contrato clasificado con el Pentágono responde a una racionalidad perfectamente coherente con esa estructura. OpenAI argumenta que sus salvaguardas internas son suficientes para gestionar los riesgos, que no necesita restricciones contractuales rígidas porque confía en sus propios procesos de revisión.
Es un argumento que suena razonable hasta que se pregunta quién supervisa esos procesos cuando el cliente es el propio Gobierno que podría regularlos, y cuando los accionistas esperan rentabilidad sobre inversiones de decenas de miles de millones de dólares. El propio Altman se lo confesó esta semana a sus empleados: no "tiene la capacidad de tomar decisiones operativas" sobre cómo el Pentágono usará sus tecnologías. Será Hegseth quien decida.
Palantir: la mano que mece la cuna
Ningún análisis del presente se entiende sin una figura que lleva veinte años haciendo exactamente lo que las demás empresas tecnológicas dijeron que jamás harían: vender inteligencia artificial al aparato militar y de seguridad del Estado sin disculpas ni eufemismos.
Palantir fue cofundada en 2003 por Peter Thiel, que acababa de vender PayPal a eBay, y fue financiada en sus inicios parcialmente por el fondo de capital riesgo de la CIA. Thiel la concibió como un noble propósito: software que ayudara a las agencias de inteligencia a detectar amenazas ocultas sin convertir Estados Unidos en un Estado policial.
Para dirigirla reclutó a Alex Karp, filósofo doctorado en Frankfurt, sin formación tecnológica pero con una capacidad extraordinaria para vender la visión de un mundo violento donde los datos son la única defensa posible. El propio Karp, un ejecutivo sin pelos en la lengua, admite que Palantir “se utiliza en ocasiones para matar a personas”, una honestidad brutal que contrasta llamativamente con el lenguaje aséptico del resto del sector.
Durante años, Silicon Valley trató a Palantir como a un paria. Trabajar con gobiernos, con el ejército, con agencias de inteligencia era considerado una transgresión moral inaceptable en los campus tecnológicos de California. Palantir no se disculpó. Karp convirtió esa marginación en argumento: mientras sus competidores miraban hacia otro lado, él construía la infraestructura de datos más profundamente integrada en el Estado que nadie haya levantado jamás.
El resultado es hoy difícil de ignorar. En julio de 2025, el Ejército estadounidense adjudicó a Palantir un contrato por valor de hasta 10.000 millones de dólares durante una década. Su sistema Maven Smart System, plataforma de IA para operaciones en el campo de batalla, es el núcleo del esfuerzo de modernización militar del Pentágono y se basa en la utilización de ChatGPT (el modelo de OpenAI), Grok (el de Elon Musk) y, hasta hace unos días, de Claude (el de Anthropic).
Según The Wall Street Journal, el Departamento de Defensa utilizó los modelos de inteligencia artificial de Anthropic precisamente a través de su contrato con Palantir, para asistir en operaciones militares. Y ahora tendrá que buscar otro modo de hacerlo.
Esta circunstancia revela algo fundamental sobre la arquitectura real del poder en el sector: Palantir no es un competidor de los grandes laboratorios de IA, es su cliente más exigente y su intermediario más poderoso ante el Estado. Palantir opera a través de dos segmentos principales: el Gotham, que sirve a agencias de defensa e inteligencia en todo el mundo, y el AIP, orientado al sector comercial. Su valoración de mercado ronda los 350.000 millones de dólares. En el cuarto trimestre de 2025 registró un crecimiento de ingresos del 70% interanual.
La ideología que anima a Palantir merece atención porque es, a diferencia de la mayoría de sus competidores, completamente explícita. Karp declara que la misión de Palantir es “asustar a sus enemigos y, en ocasiones, matarlos”, refiriéndose a los adversarios de Occidente. Ha dicho que las empresas tecnológicas tienen la obligación de apoyar al ejército estadounidense, y que él y Palantir son “activos en la defensa de los valores de Occidente”.
El resto del tablero: de la apertura al aceleracionismo
El contraste entre estos actores no agota el mapa. Meta, la matriz de Facebook, Instagram y WhatsApp, propiedad de Mark Zuckerberg, ha adoptado una estrategia radicalmente distinta: la apertura total de sus modelos Llama, accesibles para cualquier investigador, empresa o gobierno.
Su filosofía oficial es que la transparencia genera seguridad, que un modelo auditable públicamente es más seguro que uno guardado en una caja negra corporativa. Pero conviene no confundirse, sin embargo, sobre su naturaleza: Meta no es una ONG. Sus ingresos dependen de la publicidad y de las licencias empresariales. La apertura de sus modelos no es filantropía: es una apuesta estratégica para establecer un estándar global que otros tengan que adoptar, erosionando la ventaja competitiva de quienes guardan sus modelos bajo llave. Eso sin contar que, según sus críticos, esa misma apertura permite también a actores maliciosos descargar el modelo, modificarlo y eliminar cualquier salvaguarda.
El panorama no acaba ahí. Los grandes nombres se completan con Google y su modelo, Gemini, que ocupa un territorio peculiar porque modificó sus propios principios de IA —los que en 2018 prometían no desarrollar tecnología bélica— para convertirse en el primer proveedor de la plataforma de IA del Pentágono. La tensión entre la cultura investigadora y ética de DeepMind —el laboratorio de IA de Google— y las demandas comerciales de Google Cloud —la empresa de computación en la nube— es real y no está resuelta.
Y luego está xAI, la empresa de Elon Musk, que ha convertido la ausencia de restricciones en argumento de venta. Grok fue aprobado para uso militar clasificado precisamente porque aceptó el estándar gubernamental sin negociaciones. El aceleracionismo —la convicción de que cualquier freno al desarrollo tecnológico es un error— es aquí una posición explícita, no una consecuencia involuntaria de presiones comerciales.
La designación de Anthropic como "riesgo para la cadena de suministro" es, a su manera, un reconocimiento involuntario de que la arquitectura ética de una empresa puede tener consecuencias políticas reales.
Los gobiernos saben que quienes controlan la infraestructura de IA controlan algo parecido al sistema nervioso de la economía global. Nvidia, el principal fabricante de los chips que mueven la IA, alcanza una valoración de varios billones de dólares gracias a estas empresas. Amazon y Google han tejido una interdependencia entre sus nubes y los modelos de IA que hace casi imposible una desinversión sin daños colaterales sistémicos. En ese contexto, una empresa que dice "no" es, efectivamente, un problema.
Ver másCasi 90 países firman en la India el mayor acuerdo diplomático de la historia sobre IA
Lo que el episodio también revela es que Palantir lleva dos décadas construyendo exactamente el puente que casi todas los demás empresas intentaron evitar —el que conecta el poder computacional privado con el aparato coercitivo del Estado— y que ahora ese puente resulta ser la infraestructura indispensable.
Los nuevos actores de la IA pueden tener principios más sofisticados y modelos más potentes, pero necesitan a Palantir para llegar al cliente que más paga. Y Palantir necesita sus modelos para mantener la ventaja operativa. Es una dependencia mutua que ninguno de los dos lados tiene mucho interés en proclamar.
La pregunta que queda abierta tras la negativa de Anthropic a participar en el festín de la IA capaz de matar de manera autónoma no es técnica sino política: ¿puede sobrevivir un modelo de negocio que antepone límites éticos a los contratos gubernamentales en un entorno donde el Estado controla la regulación, los contratos públicos y, llegado el caso, la etiqueta de “riesgo para la seguridad nacional”? Anthropic apuesta a que sí, que la credibilidad a largo plazo —con clientes corporativos, con reguladores europeos, con la opinión pública informada— vale más que los contratos que rechaza hoy.
El escenario es revelador. La Administración Trump, que ha rebautizado el Departamento de Defensa como Departamento de Guerra y al frente del cual está Pete Hegseth, un exmilitar que llegó al cargo directamente desde un programa de la cadena Fox, exigió a las grandes empresas de inteligencia artificial lo que todo poder ejecutivo acaba pidiendo a quienes necesita controlar: acceso sin restricciones. La cláusula era tan amplia como inquietante: "Cualquier uso legal". Bajo ese paraguas cabían, sin mayor matiz, la vigilancia masiva de ciudadanos estadounidenses y el desarrollo de sistemas de armas completamente autónomas —maquinaria bélica que decide por sí misma a quién matar, sin intervención humana en el momento del disparo—.