La inteligencia artificial y la guerra del futuro: el choque entre el Pentágono, Anthropic y OpenAI
OpenAI firmó un acuerdo con Defensa para desplegar IA con salvaguardas en entornos clasificados.
Actualizado: 04 de Marzo, 2026, 07:18 AM
Publicado: 04 de Marzo, 2026, 10:15 AM
Victor Manuel Grimaldi Céspedes.
Santo Domingo.– En los últimos días ha estallado en Washington un conflicto que revela con claridad una de las grandes batallas estratégicas del siglo XXI: quién controla la inteligencia artificial cuando esta se convierte en instrumento de guerra.
Conflicto entre Anthropic y el Pentágono por límites en IA
El episodio comenzó con un enfrentamiento directo entre el Departamento de Defensa de los Estados Unidos y la empresa Anthropic, una de las compañías más avanzadas del mundo en el desarrollo de inteligencia artificial.
El modelo de lenguaje de Anthropic, llamado Claude, ya estaba siendo utilizado por el Pentágono en sistemas clasificados para tareas de inteligencia, análisis de información, identificación de objetivos y planificación operativa.
La inteligencia artificial, por tanto, ya no es una promesa futurista. Está integrada en los sistemas militares contemporáneos.
No controla todavía drones ni dispara armas directamente, pero participa en los procesos decisivos que determinan cómo se planifica una operación militar, dónde se identifican amenazas y cómo se organiza el campo de batalla.
El conflicto no surgió por el uso actual de la tecnología, sino por sus usos futuros.
Anthropic decidió imponer dos límites explícitos al uso militar de su sistema.
El primero prohibía utilizar su inteligencia artificial para vigilancia masiva de ciudadanos estadounidenses.
El segundo impedía integrar el modelo en sistemas de armas autónomas capaces de matar sin intervención humana.
Para la empresa, estos límites eran indispensables. Sus directivos consideran que la inteligencia artificial representa una tecnología radicalmente distinta a cualquier arma del pasado.
Mientras que un avión o un misil tienen funciones concretas definidas por su diseño físico, los modelos de inteligencia artificial pueden adaptarse a innumerables tareas: analizar datos, diseñar estrategias, identificar objetivos o incluso sugerir ataques cibernéticos.
-
En otras palabras, la IA es una herramienta abierta cuyo potencial evoluciona constantemente.
El Pentágono rechazó frontalmente la idea de que una empresa privada establezca restricciones sobre cómo el gobierno estadounidense puede utilizar una tecnología en materia de defensa.
La posición del Departamento de Defensa es clara: las reglas que limitan el uso de la fuerza ya existen en el derecho internacional y en las leyes de guerra.
Según esta visión, no corresponde a compañías privadas fijar nuevas normas.
El enfrentamiento se intensificó rápidamente.
El secretario de Defensa convocó al director ejecutivo de Anthropic, Dario Amodei, a Washington.
Las negociaciones no lograron un acuerdo. Ante la negativa de la empresa a eliminar sus restricciones, el gobierno de Donald Trump tomó una decisión radical.
La Casa Blanca ordenó a todas las agencias federales suspender el uso de los sistemas de Anthropic.
Al mismo tiempo, el Pentágono clasificó a la compañía como un posible "riesgo para la cadena de suministro de seguridad nacional", una etiqueta que podría impedir a contratistas militares trabajar con esa empresa.
La medida tiene implicaciones profundas. No se trata solo de un contrato perdido, sino de la posible exclusión de una de las empresas líderes de inteligencia artificial del complejo militar estadounidense.
El episodio revela también una guerra cultural dentro de Estados Unidos.
Desde el entorno político cercano al movimiento MAGA, Anthropic ha sido retratada como una compañía "woke", demasiado preocupada por cuestiones éticas y regulaciones.
En cambio, la empresa intenta posicionarse como una firma responsable que busca imponer límites antes de que la inteligencia artificial se convierta en un instrumento incontrolable.
Pero detrás de esa disputa ideológica existe un problema más profundo: el papel del ser humano en la guerra del futuro.
La doctrina oficial estadounidense sostiene que siempre habrá "un humano en el circuito" cuando se trate de decisiones letales.
Sin embargo, la evolución tecnológica plantea un dilema evidente. En un campo de batalla dominado por drones, sensores y sistemas automáticos, la velocidad de decisión puede determinar la victoria o la derrota.
Quien observe, analice y actúe más rápido gana.
La intervención humana, en ese contexto, puede convertirse paradójicamente en un obstáculo operativo.
Por eso el debate sobre la inteligencia artificial militar gira alrededor de una pregunta fundamental: cuál será el papel real de los seres humanos en los conflictos del futuro.
Dimensión geopolítica y competencia con China
El trasfondo geopolítico añade otra dimensión a esta crisis.
Estados Unidos no compite solo consigo mismo. Compite con China.
Mientras que en Washington las empresas tecnológicas intentan imponer límites éticos, el sistema político chino obliga a las compañías a poner su tecnología al servicio del Estado.
En China la inteligencia artificial ya se utiliza de forma sistemática para vigilancia masiva, identificación de disidentes y campañas de desinformación.
Para los estrategas estadounidenses, este modelo representa el escenario que temen reproducir si la tecnología queda completamente en manos del poder político.
El conflicto entre Anthropic y el Pentágono se produce, además, en un momento de enorme tensión internacional.
Las guerras actuales —como el conflicto en Ucrania o las tensiones en el estrecho de Taiwán— ya muestran cómo los drones, los algoritmos y la inteligencia artificial se están convirtiendo en elementos centrales del campo de batalla.
Muchos analistas militares creen que una eventual guerra entre Estados Unidos y China comenzaría precisamente con enjambres de drones controlados por sistemas automatizados.
En ese escenario, la rapidez de cálculo y decisión sería decisiva.
Curiosamente, mientras el gobierno estadounidense sancionaba a Anthropic, otra empresa tecnológica tomó una dirección distinta.
OpenAI, su principal rival en el campo de la inteligencia artificial, firmó inmediatamente un acuerdo con el Departamento de Defensa para desplegar sistemas avanzados de IA en entornos clasificados.
La empresa afirmó que el acuerdo incluye más salvaguardas que cualquier contrato previo, y declaró explícitamente que sus sistemas no deberán utilizarse para vigilancia doméstica de ciudadanos estadounidenses.
Este episodio muestra la complejidad de la nueva relación entre tecnología y poder militar.
Durante gran parte del siglo XX, la innovación militar provenía directamente de los Estados.
Hoy, en cambio, la vanguardia tecnológica se encuentra en empresas privadas del sector digital. Esto crea una tensión inevitable entre el poder político, que busca control total sobre la tecnología, y las compañías que desean mantener ciertos principios éticos o comerciales.
En última instancia, la disputa entre Anthropic, el Pentágono y OpenAI no es simplemente un conflicto contractual. Es el primer gran enfrentamiento sobre el control moral, político y estratégico de la inteligencia artificial en la guerra moderna.
La pregunta que emerge de este episodio es inquietante.
¿Quién establecerá las reglas de la guerra del futuro: los gobiernos, las empresas tecnológicas o los propios algoritmos?
La humanidad apenas comienza a enfrentar esa pregunta. Y el resultado determinará no solo la naturaleza de los conflictos del siglo XXI, sino también los límites éticos de una tecnología que ya está transformando el equilibrio del poder mundial.


