Em resumo
- Um juiz federal bloqueou o Pentágono de rotular a Anthropic como um risco para a cadeia de abastecimento, considerando que a medida provavelmente violou os direitos da empresa à Primeira Emenda e ao devido processo legal.
- A disputa decorreu de um contrato de IA de 200 milhões de dólares do Departamento de Defesa que colapsou depois de a Anthropic se recusar a permitir o uso do seu modelo para vigilância em massa ou guerra autónoma letal.
- A decisão restabelece temporariamente a posição da Anthropic junto dos contratantes federais e poderá moldar a forma como as empresas de IA estabelecem limites de utilização em acordos governamentais.
Um juiz federal bloqueou o Pentágono de rotular a Anthropic como um risco para a cadeia de abastecimento, decidindo quinta-feira que a campanha do governo contra a empresa de IA violou os seus direitos à Primeira Emenda e ao devido processo legal.
A juíza distrital dos EUA Rita Lin emitiu uma liminar preliminar do Distrito Norte da Califórnia dois dias após ouvir os argumentos orais de ambas as partes, num caso que observadores dizem ter sido tornado inevitável pela própria documentação do governo.
"Nada no estatuto vigente apoia a noção orwelliana de que uma empresa americana possa ser rotulada como um potencial adversário e sabotador dos EUA por expressar discordância com o governo", escreveu a juíza Lin.
O registo interno foi fatal para o caso do governo, segundo Andrew Rossow, advogado de assuntos públicos e CEO da AR Media Consulting, que disse à Decrypt que a designação foi "desencadeada pela conduta de imprensa, não por uma análise de segurança."
"O governo essencialmente escreveu o seu próprio motivo, e foi retaliação", disse Rossow.
A disputa centra-se num contrato de dois anos e 200 milhões de dólares atribuído à Anthropic em julho de 2025 pelo Gabinete Digital e de Inteligência Artificial do Departamento de Guerra.
As negociações para implementar o Claude na plataforma GenAI.Mil do departamento falharam depois de ambas as partes não chegarem a acordo sobre as restrições de utilização.
A Anthropic insistiu em duas condições: que o Claude não fosse usado para vigilância em massa de americanos ou para uso letal em guerra autónoma, argumentando que o modelo ainda não era seguro para nenhum dos propósitos.
Numa reunião de 24 de fevereiro, o Secretário de Guerra Pete Hegseth disse aos representantes da Anthropic que, se a empresa não retirasse as suas restrições até 27 de fevereiro, o departamento iria imediatamente designá-la como um risco para a cadeia de abastecimento.
A Anthropic recusou-se a cumprir.
No mesmo dia, o Presidente Trump publicou uma diretiva no Truth Social ordenando a todas as agências federais que "cessassem imediatamente" de usar a tecnologia da empresa, chamando a Anthropic de "empresa radical de esquerda e woke."
Pouco mais de uma hora depois, Hegseth descreveu a posição da Anthropic como uma "aula magistral em arrogância e traição", ordenando que nenhum contratante que fizesse negócios com os militares poderia realizar atividades comerciais com a empresa. A designação formal da cadeia de abastecimento seguiu-se através de uma carta a 3 de março.
A Anthropic processou o governo a 9 de março, alegando violações da Primeira Emenda, do devido processo legal e da Lei de Procedimento Administrativo.
"Punir a Anthropic por trazer escrutínio público à posição contratual do governo é uma retaliação clássica e ilegal à Primeira Emenda", escreveu a juíza Lin na ordem de quinta-feira.
A ordem, que foi suspensa por sete dias, bloqueia todas as três ações governamentais, requer um relatório de conformidade até 6 de abril e restabelece o status quo antes dos eventos de 27 de fevereiro.
Armar a lei
A designação de ser um "risco para a cadeia de abastecimento" tem sido historicamente reservada para agências de inteligência estrangeiras, terroristas e outros atores hostis.
Nunca tinha sido aplicada a uma empresa nacional antes da Anthropic. Os contratantes de defesa começaram a avaliar e, em muitos casos, a encerrar a sua dependência da Anthropic nas semanas que se seguiram, observou a ordem da juíza Lin.
E a postura do governo poderia ter consequências imprevistas, argumentam especialistas.
De facto, a decisão de quinta-feira poderia levar as empresas de IA "a formalizar barreiras éticas ao trabalhar com governos", disse Pichapen Prateepavanich, estratega de políticas e fundadora da empresa de infraestrutura Gather Beyond, à Decrypt.
Até certo ponto, a decisão também sugere que as empresas "podem estabelecer limites claros de utilização sem desencadear automaticamente ação regulatória punitiva", disse ela.
Mas isto "não remove a tensão", acrescentou. O que a decisão limita é "a capacidade de escalar esse desacordo para uma exclusão mais ampla ou rotulagem que pareça retaliatória."
Ainda assim, a aplicação da atual autoridade estatutária para designar uma empresa como um risco para a cadeia de abastecimento "porque se recusou a remover barreiras de segurança" não é uma extensão do estatuto de risco da cadeia de abastecimento, explicou Rossow. Em vez disso, opera como uma "arma" da lei.
"Isto faz parte de um padrão contínuo de comportamento da Casa Branca sempre que são desafiados, resultando em ameaças desproporcionais, impulsionadas emocionalmente e tendenciosas e extorsão governamental", acrescentou.
Se a "teoria" do governo for aceite, criaria um precedente "perigoso" no qual empresas de IA podem ser colocadas numa lista negra por políticas de segurança de que o governo não gosta, "antes de ocorrer qualquer dano", sem devido processo legal, sob a bandeira da segurança nacional, disse Rossow.
Newsletter Daily Debrief
Comece todos os dias com as principais notícias agora, além de conteúdos originais, um podcast, vídeos e muito mais.
Fonte: https://decrypt.co/362548/judge-blocks-pentagon-anthropic-national-security-threat




