INTERNACIONAL

Anthropic dice que no dará al ejército de EU un uso incondicional de su IA

La compañía Anthropic declaró este jueves que no otorgaría al Departamento de Guerra de Estados Unidos el uso militar sin restricciones de su tecnología de inteligencia artificial, a pesar de las presiones del Pentágono.

«Estas amenazas no cambian nuestra posición: no podemos, en conciencia, acceder a su solicitud», indicó en un comunicado, Dario Amodei, director ejecutivo de la empresa. La compañía señaló que no se está retirando de la negociación, pero que el nuevo lenguaje contractual recibido del Departamento de Guerra “prácticamente no avanzó nada en impedir el uso (del chatbot) Claude para la vigilancia masiva de estadunidenses o en armas totalmente autónomas”.

El gobierno del presidente Donald Trump le dio a la startup hasta las 17 horas de este viernes para aceptar el uso militar incondicional de su IA, a pesar de que esa petición viola los lineamientos éticos de la empresa.

De negarse, el Pentágono amagó que la empresa se enfrentaba a una orden de cumplimiento forzoso bajo la Ley de Producción de Defensa. El principal vocero del Pentágono, Sean Parnell escribió en redes sociales que el Pentágono “no tiene ningún interés en usar la IA para realizar vigilancia masiva de estadunidenses (lo cual es ilegal), ni queremos usar la IA para desarrollar armas autónomas que operen sin participación humana”.

Esta normativa de la era de la guerra fría otorga al gobierno federal amplios poderes para obligar a la industria privada a priorizar las necesidades de seguridad nacional.

El Pentágono también amenazó con calificar a Anthropic como un riesgo para la cadena de suministro, una designación normalmente reservada para empresas de países adversarios que podría perjudicar seriamente la reputación de la compañía.

Amodei recalcó que los modelos de Anthropic han sido desplegados por el Pentágono y las agencias de inteligencia para defender al país, pero que la compañía traza una línea ética respecto a su uso para la vigilancia masiva de ciudadanos estadounidenses y para armas totalmente autónomas. «El uso de estos sistemas para la vigilancia doméstica masiva es incompatible con los valores democráticos», afirmó el ejecutivo.

Y añadió que los sistemas de IA de vanguardia aún no son lo bastante fiables como para confiarles el control de armas letales sin que haya un ser humano con el control último.

Durante una reunión el pasado martes entre el secretario de Defensa, Pete Hegseth, y Amodei, funcionarios militares advirtieron que podrían designar a Anthropic como un riesgo para la cadena de suministro, cancelar su contrato o invocar una ley de la era de la Guerra Fría, llamada Ley de Producción para la Defensa, con el fin de otorgar a las fuerzas armadas una autoridad más amplia para usar sus productos, incluso si la empresa no lo aprueba.