La empresa de inteligencia artificial presentó dos demandas judiciales contra la administración Trump por declarar que representa un riesgo para la cadena de suministro del Departamento de Defensa. El Pentágono le exigió que deje de lado sus restricciones éticas, como supuestamente hicieron OpenAI y Meta.

La empresa de inteligencia artificial Anthropic demandó a la administración Trump ante dos tribunales federales por declarar que la compañía representa un riesgo para la cadena de suministro del Departamento de Defensa. La calificación le impide trabajar con el gobierno estadounidense y amenaza su modelo de negocios.
La primera demanda fue interpuesta ante el Tribunal de Distrito para el Distrito Norte de California. En ella, Anthropic acusó al gobierno de violar sus derechos amparados por la Primera Enmienda, de exceder el alcance legal de la normativa sobre riesgos en la cadena de suministro y de eludir el proceso mediante el cual el presidente y los secretarios de gabinete pueden cancelar contratos gubernamentales. Una segunda demanda fue presentada ante el Tribunal de Apelaciones para el Circuito de Washington DC.
El trasfondo del conflicto es la presión del Pentágono para que Anthropic abandone sus límites éticos en el desarrollo de inteligencia artificial, siguiendo el camino que, según los reportes, ya habrían tomado OpenAI, Meta Platforms, xAI y otros competidores del sector. Anthropic ha construido su identidad corporativa precisamente sobre la seguridad y los controles éticos en el desarrollo de sistemas de IA.
La disputa refleja una tensión creciente entre las empresas de IA que priorizan la seguridad ética de sus sistemas y las demandas del gobierno estadounidense de contar con herramientas de inteligencia artificial sin restricciones para uso militar y de defensa.



