EMPRESA DE AI PERDIÓ CONTRATO DE 200 MILLONES
Redacción Agencia Efe
La compañía tecnológica Anthropic anunció que no cederá a los términos del Pentágono para el uso completo de su herramienta de inteligencia artificial Claude. El director ejecutivo de Anthropic, Dario Amodei, considera que permitir su uso en armas totalmente autónomas o en vigilancia masiva sería “incompatible con los valores democráticos”.
Amodei dice que “no puede, de buena fe, acceder a la solicitud” del Departamento de Guerra de EE.UU de permitir el uso sin restricciones de su tecnología. Anthropic no se retiró de las negociaciones, pero el nuevo texto del contrato recibido “prácticamente no avanzó en la prevención de usar Claude para la vigilancia masiva de estadounidenses ni en establecer armas totalmente autónomas”.
Pentágono niega argumentos de Anthropic
Por su parte, Sean Parnell, el principal portavoz del Pentágono afirmó que el Departamento de Guerra no tiene “ningún interés en usar IA para la vigilancia masiva de estadounidenses (lo cual es ilegal) ni para desarrollar armas autónomas que funcionen sin intervención humana”, algo que calificó como “narrativa falsa”. Anthropic señaló que apoya el uso de la IA para misiones legales de inteligencia extranjera y contrainteligencia.
La empresa agregó que “el uso de estos sistemas para vigilancia doméstica masiva es incompatible con los valores democráticos” y representa “riesgos novedosos y graves para nuestras libertades fundamentales”. Según un comunicado, Claude se utiliza ampliamente para “análisis de inteligencia, modelado y simulación, planificación operativa, operaciones cibernéticas y más”.
Armas autónomas no confiables
Sin embargo, advirtió que las armas totalmente autónomas “no son lo suficientemente confiables para poner en riesgo a nuestros soldados y civiles” y que “necesitan ser desplegadas con salvaguardas adecuadas, que hoy no existen”. Mientras, el Pentágono ha declarado que solo contratará a empresas de IA que acepten “cualquier uso legal” y eliminen estas salvaguardas.
El Pentágono incluso llegó a amenazar con retirar a Anthropic de sus sistemas, catalogarla como “riesgo de la cadena de suministro” e invocar la Ley de Producción de Defensa. Anthropic considera que estas amenazas son “inherentemente contradictorias” y reafirma que su posición no cambia. La empresa perdió su negocio con el Ejército estadounidense porque el Pentágono había dado plazo a Anthropic hasta el 27 de febrero para conceder el uso de Claude.
Contrato de 200 millones se esfumó
La tecnológica había recibido un contrato de 200 millones de dólares en julio de 2025 para desarrollar capacidades de IA de seguridad nacional. Sin embargo, Anthropic ha buscado garantías de que Claude no se use para “armas autónomas ni espionaje de ciudadanos estadounidenses”, mientras que el Pentágono quiere aplicarlo en “todos los casos de uso legal”.
Así, la empresa concluyó que, de ser retirada del contrato, trabajará para “permitir una transición fluida a otro proveedor, evitando cualquier interrupción en la planificación militar, operaciones u otras misiones críticas”. También reafirmó también su disposición a “continuar apoyando la seguridad nacional de Estados Unidos siempre que sus salvaguardas permanezcan intactas”.

otras noticias
Salvadoreños en el exterior tendrán sus representantes en el Congreso
Apuñalamiento en escuela de Washington deja 6 heridos
Torneo del Cinco de Mayo con fútbol y cultura