17.4 C
Buenos Aires
domingo, 12 abril, 2026
InicioTecnologíaEstados Unidos veta a Anthropic por negarse a militarizar su inteligencia artificial...

Estados Unidos veta a Anthropic por negarse a militarizar su inteligencia artificial Claude

El gobierno estadounidense excluyó a la empresa tecnológica de contratos federales tras su negativa a adaptar su modelo de IA para su uso irrestricto en sistemas de armas autónomas, un conflicto que marca la frontera entre el desarrollo civil y militar de la tecnología.

La administración de Estados Unidos vetó a la empresa tecnológica Anthropic y la catalogó como un «riesgo para la cadena de suministro». La medida se produce tras la negativa de la firma a permitir el uso irrestricto de su modelo de inteligencia artificial Claude en sistemas de armas autónomas, según informaron fuentes oficiales.

El Departamento de Defensa de los Estados Unidos buscó integrar las capacidades de procesamiento de lenguaje natural y razonamiento lógico de Claude en los centros de mando que coordinan operaciones en Medio Oriente. Según la Casa Blanca, las salvaguardas éticas de la empresa «constituyen una obstrucción operativa» para las capacidades de defensa nacional.

Para la administración, Anthropic presenta limitaciones que ralentizan la respuesta de sistemas automatizados en escenarios de combate real y representa una «vulnerabilidad estratégica» frente a potencias extranjeras. La medida excluye a la compañía de cualquier licitación vinculada a la infraestructura crítica del Estado y prohíbe a las agencias federales renovar licencias de software con la firma californiana.

Mientras tanto, Anthropic defendió su postura y ratificó su compromiso con la seguridad del usuario. El conflicto escaló cuando el Pentágono exigió acceso al código fuente y a las capas de seguridad de Claude para su implementación en el programa Project Maven, que utiliza IA para identificar objetivos militares mediante imágenes satelitales y datos en zonas de conflicto.

Los técnicos de la firma se negaron a eliminar los filtros que impiden generar respuestas relacionadas con la planificación de ataques físicos. La negativa fue interpretada por el Departamento de Defensa como una «falta de cooperación». La administración sostuvo que la prioridad es la «superioridad algorítmica» en el campo de batalla, especialmente ante el avance de sistemas similares desarrollados en China.

La sanción administrativa podría ralentizar el entrenamiento de futuros modelos de la serie Claude, que depende de infraestructura de gran escala. Sin embargo, la empresa mantiene su base de clientes en el sector privado, principalmente empresas financieras e instituciones de salud.

Expertos en seguridad nacional indicaron que la medida define la frontera entre la IA civil y la militar. Mientras la Casa Blanca busca establecer que cualquier desarrollo debe ser «militarizable», la firma de San Francisco cuenta con un equipo de seguridad propio encargado de garantizar que el avance tecnológico no supere los límites de seguridad humana.

La situación en Medio Oriente aceleró la urgencia del Gobierno por adquirir herramientas de análisis predictivo que funcionen sin las restricciones de seguridad habituales. Estados Unidos busca que la IA proponga cursos de acción letales de manera autónoma para reducir los tiempos de reacción humana.

Por su parte, la empresa inició un proceso de revisión legal para apelar la designación, bajo el argumento de que sus protocolos de seguridad son precisamente lo que garantiza que la tecnología no sea robada o utilizada de manera no ética.

Más noticias
Noticias Relacionadas