martes, 10 de marzo de 2026 | Galicia, España
ÚLTIMA HORA Reniero-Unzueta: dupla de eficacia probada en el CD Lugo
Galego Castelán

Anthropic demanda al Pentágono por poner su IA en la lista negra de Estados Unidos

Anthropic demanda al Pentágono por poner su IA en la lista negra de Estados Unidos

Anthropic, la start-up estadounidense creadora del modelo de IA Claude, ha presentado dos demandas contra el Departamento de Defensa de Estados Unidos tras ser incluida en una lista negra que restringe su relación con contratistas militares. La empresa acusa a la administración de haberla señalado como un «riesgo para la cadena de suministro» por razones ideológicas, una designación que suele aplicarse a firmas extranjeras como Huawei.

La medida del Pentágono anula de facto un contrato valorado en unos 200 millones de dólares y prohíbe a cualquier proveedor del Gobierno mantener vínculos comerciales con Anthropic.

CONTENIDO PATROCINADO
Playa Privada Salado Resort

Salado Golf & Beach Resort

Descubre la oportunidad de inversión más exclusiva del Caribe. Villas de lujo con retorno garantizado del 12% anual en Punta Cana.

Conoce más →

La compañía, dirigida por Dario Amodei, asegura que la decisión responde a su oposición al uso de Claude en tareas de vigilancia masiva y en el desarrollo de armas autónomas, y ha recurrido a los tribunales en California y en Washington para revertir la sanción.

## Qué implica la designación

El calificativo de «riesgo para la cadena de suministro» impone restricciones amplias sobre las relaciones comerciales entre Anthropic y el ecosistema de defensa.

  • Prohibición de contratos nuevos con contratistas del Departamento de Defensa.
  • Ruptura del acuerdo de 200 millones de dólares con el Gobierno.
  • Estigmatización que puede limitar otras alianzas públicas y privadas.

Según Anthropic, la etiqueta se ha utilizado históricamente contra firmas extranjeras que se consideran amenazas a la seguridad nacional.

## La respuesta legal y pública de Anthropic

En sus demandas la empresa sostiene que la decisión es discriminatoria y motivada por criterios políticos más que por un análisis técnico.

Anthropic ha declarado que la sanción pone en riesgo su negocio, sus clientes y sus socios, y que agotará todas las vías legales y diplomáticas para buscar una solución.

La compañía presentó recursos en dos jurisdicciones: una en el estado de California y otra en la capital federal, Washington D.C.

Además de la acción judicial, Anthropic ha pedido diálogo directo con las autoridades para aclarar sus políticas internas sobre usos militares y de seguridad.

## Reacciones del sector y contexto

La sanción del Pentágono ha reavivado el debate sobre la relación entre la industria de la IA y las Fuerzas Armadas estadounidenses.

Tras conocerse la medida contra Anthropic, OpenAI comunicó su colaboración con el Pentágono, un paso que ha sido interpretado por algunos actores del sector como oportunista.

El propio director de OpenAI, Sam Altman, reconoció la rapidez con la que su firma pactó con el Departamento de Defensa, lo que ha alimentado críticas y campañas de boicot entre defensores de una IA con límites éticos más estrictos.

Organizaciones y expertos en ética tecnológica recuerdan que la tecnología de modelos de lenguaje puede utilizarse tanto en aplicaciones civiles beneficiosas como en herramientas de vigilancia o sistemas de armamento.

  • Riesgos éticos: vigilancia masiva y vulneración de privacidad.
  • Riesgos militares: automatización de decisiones letales.
  • Riesgos comerciales: pérdida de contratos y reputación.

## Qué puede pasar ahora

La batalla legal determinará si la Administración puede aplicar esa categoría a una empresa nacional por motivos que Anthropic califica de ideológicos.

Si los tribunales fallan a favor de Anthropic, la empresa podría recuperar acceso a contratos y socios del sector público.

Si la decisión se mantiene, la medida podría sentar un precedente para otras firmas tecnológicas que cuestionen usos militares de sus productos.

Anthropic ha dicho que seguirá explorando vías de negociación y que mantiene el compromiso de impedir usos dañinos de sus modelos.

La disputa plantea preguntas sobre la regulación de la IA, la transparencia en contratos públicos y los límites entre seguridad nacional y libertad empresarial en un sector que avanza con rapidez.

¿Buscas una Inversión Segura?

Salado Golf & Beach Resort te ofrece la oportunidad de invertir en el Caribe con rentabilidad garantizada del 12% anual

Solicitar Información Ahora

Compartir esta noticia

R

Redacción

Periodista de Galicia Universal.