O Pentágono emitiu um ultimato para a empresa de inteligência artificial Anthropic retirar suas objeções ao uso de sua tecnologia em armas autônomas. O prazo estabelecido foi até 27 de fevereiro de 2025, às 17h01, horário de Washington.

Conflito sobre uso militar de IA

Durante uma reunião no Pentágono, Emil Michael, subsecretário da defesa para pesquisa e engenharia, propôs um cenário hipotético à Anthropic, empresa responsável pelo modelo de IA Claude. Michael perguntou se seria possível usar o sistema para ajudar a interceptar um míssil balístico intercontinental em aproximação.

Dario Amodei, CEO da Anthropic, teria respondido com resistência, irritando profundamente o subsecretário. A situação escalou para uma reunião com Pete Hegseth, secretário da defesa, que resultou no ultimato atual.

Dario Amodei, CEO da Anthropic. Foto: Chance Yeh/Getty Images.

Ameaças do governo americano

Caso a Anthropic mantenha sua posição, o governo americano ameaçou forçar a entrega da tecnologia e incluir a empresa em uma lista negra. O porta-voz do Pentágono, Shan Parnel, declarou que o departamento quer usar a IA “apenas para todos os fins legais”, uma formulação considerada deliberadamente vaga.

Expansão massiva da IA militar

A administração Trump está promovendo uma expansão massiva do uso militar de inteligência artificial. Em janeiro de 2025, Hegseth emitiu uma diretiva para os militares abraçarem a IA como se o país estivesse em guerra.

Os Estados Unidos já integram autonomia em sistemas de armas, com praticamente todo drone, navio ou aeronave em produção incorporando algum nível de IA. A questão central agora é determinar quanta autonomia esses sistemas terão para tomar decisões letais.

Resistência da Anthropic

A Anthropic mantém duas “linhas vermelhas”: armas autônomas e vigilância em massa. Amodei argumenta que os sistemas de IA atuais não são confiáveis o suficiente para operar armamento sem supervisão humana, e que as leis existentes sobre vigilância não foram pensadas para o potencial das ferramentas baseadas em IA.

Dados preocupantes de simulações

Uma simulação de guerra nuclear conduzida pelo King’s College de Londres revelou dados alarmantes. Vários dos principais modelos de linguagem, incluindo versões do ChatGPT, Claude e Gemini, rapidamente favoreceram o lançamento de ogivas nucleares, mesmo diante de sinais duvidosos e não confirmados de ataques inimigos.

Histórico da empresa

A Anthropic foi fundada em 2021 por pesquisadores que deixaram a OpenAI por preocupações com segurança. A empresa entrou no mundo militar através da Amazon, que desde 2013 fornece infraestrutura de nuvem para a comunidade de inteligência americana.

Entre 2023 e 2024, a Amazon investiu bilhões na Anthropic. A Palantir completou a ponte ao formar parceria com ambas as empresas em 2024, tornando a Anthropic o primeiro grande laboratório de IA a operar em redes militares classificadas dos Estados Unidos.

Contratos milionários

Em julho de 2024, a Anthropic assinou um contrato de US$ 200 milhões com o Departamento de Defesa. O sistema Claude passou a ser amplamente usado em análise de inteligência, planejamento de operações e guerra cibernética.

Tensões políticas

A situação tem componente político significativo, com a Anthropic confrontando a administração Trump em várias áreas, incluindo críticas à exportação de chips de IA para a China. Membros da administração Trump acusam publicamente a empresa de alarmismo.

Enquanto isso, Google, OpenAI e xAI já aceitaram a política de “todos os fins legais” do Pentágono, deixando a Anthropic cada vez mais isolada.

Medidas legais sem precedentes

O Pentágono mencionou o uso do Defense Production Act para forçar a entrega da tecnologia. Esta lei de 1950, criada durante a Guerra da Coreia, permite ao governo federal obrigar empresas a priorizar contratos de defesa.

Aplicar essa lei para tomar um sistema de IA seria algo sem precedentes, com especialistas divididos sobre a legalidade de tal medida.

Riscos da automação militar

Os especialistas alertam que o perigo não está necessariamente em um “robô tomando decisões sozinho”, mas em uma IA tão integrada ao processo que a supervisão humana se torne apenas um “carimbo burocrático”.

A questão central é: até que ponto a IA influenciará a decisão humana? Se o sistema recomenda “lance agora” em frações de segundo com dados e probabilidades na tela, poucos comandantes hesitariam em seguir a recomendação.