The Hong Kong Telegraph - EEUU dice que la IA de Anthropic representa un "riesgo inaceptable" para el ejército

Hong Kong -

EN LAS NOTICIAS

EEUU dice que la IA de Anthropic representa un "riesgo inaceptable" para el ejército
EEUU dice que la IA de Anthropic representa un "riesgo inaceptable" para el ejército / Foto: Joel Saget - AFP/Archivos

EEUU dice que la IA de Anthropic representa un "riesgo inaceptable" para el ejército

La firma de inteligencia artificial Anthropic plantea un "riesgo inaceptable" para las cadenas de suministro militares, insistió el gobierno de Estados Unidos el martes al justificar su decisión de designarla como peligrosa para el país.

Tamaño del texto:

El modelo de IA Claude de Anthropic ha estado en el punto de mira en las últimas semanas tanto por su supuesto uso en la identificación de objetivos para bombardeos estadounidenses en Irán como por la negativa de la compañía a que sus sistemas se utilicen para impulsar la vigilancia masiva en Estados Unidos o sistemas de armas letales totalmente autónomos.

Para justificar su decisión de cortar lazos con Anthropic en respuesta a una demanda de la empresa, el Departamento de Guerra (DoW) estadounidese dijo que le preocupaba que "permitir que continuara accediendo a la infraestructura de combate técnico y operacional del DoW introduciría un riesgo inaceptable en las cadenas de suministro del DoW", según un documento judicial al que tuvo acceso la AFP.

"Los sistemas de IA son especialmente vulnerables a la manipulación", añadió el gobierno en la presentación ante un tribunal federal de California.

"Anthropic podría intentar desactivar su tecnología o alterar de forma preventiva el comportamiento de su modelo antes o durante operaciones bélicas en curso, si Anthropic —a su discreción— considera que se están traspasando sus 'líneas rojas' corporativas", señaló.

La negativa de Anthropic a aceptar que su tecnología de IA pudiera ser empleada por los militares para "cualquier uso legal" planteaba, por tanto, un "riesgo inaceptable para la seguridad nacional", según el documento.

La clasificación de Anthropic como "riesgo para la cadena de suministro”, que la firma ha impugnado en una causa contra el Pentágono y otros órganos del gobierno federal, implica en teoría que todos los proveedores del gobierno tendrían prohibido hacer negocios con la empresa.

Esta designación suele reservarse para organizaciones de países adversarios extranjeros, como el gigante tecnológico chino Huawei.

Otras grandes tecnológicas estadounidenses, como Microsoft, que a su vez utiliza el modelo Claude de Anthropic y abastece al ejército estadounidense, se han alineado con la compañía de IA.

"No es el momento de poner en riesgo el ecosistema de IA que la administración ha contribuido a impulsar", afirmó Microsoft en un escrito 'amicus curiae' presentado ante el tribunal la semana pasada.

高-I.Gāo--THT-士蔑報