El choque entre el Pentágono y una empresa de IA abre un debate mundial sobre el control de la inteligencia artificial
Un conflicto jurídico emergente entre el Departamento de Defensa de Estados Unidos y la empresa tecnológica Anthropic ha abierto uno de los debates más delicados de la era de la inteligencia artificial: quién tiene el control final sobre los usos estratégicos de los modelos de IA.
La disputa se centra en la posibilidad de que el gobierno estadounidense, a través del Departamento de Defensa de los Estados Unidos —conocido globalmente como el Pentágono— incluya a Anthropic en una lista de riesgo de la cadena de suministro tecnológica después de que la empresa se negara a modificar las restricciones de seguridad incorporadas en su modelo de inteligencia artificial.
Estas restricciones impiden que la tecnología sea utilizada en armas autónomas letales, sistemas de vigilancia masiva o aplicaciones militares ofensivas, lo que ha provocado tensiones con sectores del aparato de defensa que consideran la inteligencia artificial un componente esencial del poder geopolítico del siglo XXI.
El origen del conflicto se encuentra en la filosofía de desarrollo de Anthropic. La empresa, fundada en 2021 por antiguos investigadores de OpenAI y financiada por gigantes tecnológicos como Amazon y Google, se ha posicionado como una de las compañías que más énfasis pone en el desarrollo seguro y ético de la inteligencia artificial.
Su modelo principal, Claude, incluye mecanismos técnicos diseñados para impedir determinados usos considerados de alto riesgo. Entre ellos se encuentran el desarrollo de armas autónomas sin supervisión humana, sistemas de vigilancia masiva de poblaciones civiles, generación automatizada de estrategias de combate ofensivo o manipulación de información con fines de guerra psicológica.
Cuando organismos vinculados al Pentágono solicitaron el acceso a versiones del modelo sin algunas de estas limitaciones para pruebas estratégicas, la compañía rechazó modificar sus políticas internas. Como consecuencia, el Departamento de Defensa evaluó incluir a Anthropic en una lista de proveedores considerados problemáticos para la seguridad nacional, lo que podría limitar su participación en contratos públicos relacionados con defensa o infraestructuras críticas. La empresa respondió iniciando acciones legales para impedir esa clasificación.
El conflicto aparece en un momento en el que la inteligencia artificial se ha convertido en uno de los pilares centrales de la competencia estratégica entre potencias. El gasto militar mundial superó los 2,2 billones de dólares en 2024 y diversos análisis del sector estiman que entre el 8% y el 12% del presupuesto de defensa de Estados Unidos ya se destina a sistemas vinculados con inteligencia artificial, análisis de datos y automatización. El mercado global de inteligencia artificial militar podría superar los 35.000 millones de dólares antes de 2030.
El Pentágono lleva años desarrollando programas de IA avanzada a través de iniciativas como el Joint Artificial Intelligence Center (JAIC), el Project Maven —centrado en el análisis automático de imágenes captadas por drones— y el programa Replicator, cuyo objetivo es desplegar miles de sistemas autónomos en entornos operativos. Estos proyectos dependen cada vez más de tecnología desarrollada por empresas privadas, lo que ha transformado la relación histórica entre Silicon Valley y el sector de defensa.
El núcleo del debate es si un gobierno puede presionar a una empresa tecnológica para que elimine restricciones éticas de su software cuando considera que ese software es estratégico para la seguridad nacional. Analistas en gobernanza tecnológica señalan que el resultado de este caso podría redefinir la relación entre las compañías de inteligencia artificial y los Estados.
Si el Pentágono lograra imponer su posición, se abriría la puerta a que los gobiernos exigieran a las empresas adaptar sus sistemas de inteligencia artificial para usos militares específicos. Esto podría afectar a grandes actores tecnológicos como Microsoft, Google, Meta Platforms o NVIDIA, cuyas infraestructuras y modelos de IA están en el centro del ecosistema tecnológico global.
Por el contrario, si la empresa ganara el litigio, se reforzaría la idea de que las compañías privadas pueden establecer límites estrictos sobre cómo se utiliza su tecnología, incluso frente a presiones gubernamentales. Esto consolidaría un modelo en el que la ética corporativa desempeña un papel central en la gobernanza de la inteligencia artificial.
Este enfrentamiento ocurre además en medio de una carrera tecnológica cada vez más intensa entre Estados Unidos y China. El gobierno chino declaró la inteligencia artificial como prioridad estratégica nacional en 2017 y ha impulsado inversiones públicas y privadas que podrían superar los 150.000 millones de dólares antes de 2030.
En paralelo, otras instituciones internacionales están intentando construir marcos regulatorios para esta nueva tecnología. La Unión Europea ha aprobado el AI Act, considerado el primer marco legal amplio para la inteligencia artificial, mientras que la Naciones Unidas mantiene negociaciones sobre posibles tratados para regular los sistemas de armas autónomas.
Más allá del caso concreto, el choque entre Anthropic y el Pentágono refleja un cambio estructural en la distribución del poder tecnológico global. Durante gran parte del siglo XX, los gobiernos controlaban la mayor parte de las tecnologías militares avanzadas. En la actualidad, muchas de las capacidades más avanzadas de inteligencia artificial se desarrollan dentro de empresas privadas.
La cuestión que emerge de este conflicto es profunda y tendrá consecuencias durante décadas: quién debe decidir cómo se utiliza la inteligencia artificial más poderosa del mundo, si los gobiernos, las empresas tecnológicas o un nuevo sistema internacional de gobernanza digital.
Share/Compártelo
- Compartir en LinkedIn (Se abre en una ventana nueva) LinkedIn
- Compartir en WhatsApp (Se abre en una ventana nueva) WhatsApp
- Comparte en Facebook (Se abre en una ventana nueva) Facebook
- Compartir en X (Se abre en una ventana nueva) X
- Compartir en Threads (Se abre en una ventana nueva) Threads
- Enviar un enlace a un amigo por correo electrónico (Se abre en una ventana nueva) Correo electrónico
- Imprimir (Se abre en una ventana nueva) Imprimir
- Más
Relacionado
Descubre más desde THE INTELLIGENCE
Suscríbete y recibe las últimas entradas en tu correo electrónico.













