El gobierno estadounidense excluyó a la firma tecnológica de contratos federales tras su rechazo a adaptar su modelo Claude para su uso en sistemas de armas autónomas, alegando que sus salvaguardas éticas constituyen un riesgo para la defensa nacional.
La administración del presidente Donald Trump vetó a la empresa tecnológica Anthropic y la catalogó como un “riesgo para la cadena de suministro”. La medida se produce tras la negativa de la firma a permitir el uso irrestricto de su modelo de inteligencia artificial Claude en sistemas de armas autónomas.
Según informaron fuentes oficiales, el Departamento de Defensa de los Estados Unidos buscó integrar las capacidades de procesamiento de lenguaje natural y razonamiento lógico de Claude en los centros de mando que coordinan operaciones en Medio Oriente. Para la Casa Blanca, las salvaguardas éticas de la empresa constituyen una “obstrucción operativa” para las capacidades de defensa nacional.
La administración republicana sostiene que las limitaciones autoimpuestas por Anthropic ralentizan la respuesta de sistemas automatizados en escenarios de combate real y representan una vulnerabilidad estratégica frente a potencias extranjeras. La medida excluye a la compañía de cualquier licitación vinculada a la infraestructura crítica del Estado y prohíbe a las agencias federales renovar licencias de software con la firma californiana.
El conflicto escaló cuando el Pentágono exigió acceso al código fuente y a las capas de seguridad de Claude para su implementación en el programa Project Maven, que utiliza IA para identificar objetivos militares mediante imágenes satelitales y datos en zonas de conflicto. Los técnicos de Anthropic se negaron a eliminar los filtros que impiden generar respuestas relacionadas con la planificación de ataques físicos, lo que fue interpretado por el Departamento de Defensa como una “falta de cooperación”.
La administración actual sostuvo que la prioridad es la “superioridad algorítmica” en el campo de batalla, especialmente ante el avance de sistemas similares desarrollados en China. La sanción administrativa podría ralentizar el entrenamiento de futuros modelos de la serie Claude, que depende de infraestructura de gran escala. Sin embargo, la empresa mantiene su base de clientes en el sector privado, principalmente empresas financieras e instituciones de salud.
Expertos en seguridad nacional indicaron que la medida define la frontera entre la IA civil y la militar. Mientras la Casa Blanca busca establecer que cualquier desarrollo debe ser “militarizable”, Anthropic defiende su postura y ratifica su compromiso con la seguridad del usuario, argumentando que sus protocolos son precisamente lo que garantiza que la tecnología no sea mal utilizada. La empresa inició un proceso de revisión legal para apelar la designación.
