Segurança Nacional vs. diretrizes éticas: o embate sobre o modelo Claude, da Anthropic no departamento de Defesa dos EUA
Mesmo sob ordem de suspensão e críticas do governo, as Forças Armadas utilizam tecnologia da Anthropic em operações logísticas e estratégicas, evidenciando o impasse sobre autonomia e vigilância
A interseção entre inteligência artificial de ponta e operações de segurança nacional atingiu um novo patamar de tensão institucional nos Estados Unidos. Segundo fontes familiarizadas com as operações militares, o modelo de IA Claude, desenvolvido pela empresa Anthropic, foi utilizado pelo Departamento de Defesa (DoD) durante ações militares no Irã ocorridas no último final de semana. O uso persiste mesmo após o anúncio de restrições severas impostas pelo governo federal à tecnologia da companhia.
O núcleo do conflito reside em um impasse ético e contratual. A Anthropic, liderada pelo CEO Dario Amodei, buscou implementar “linhas vermelhas” (salvaguardas) que impediriam explicitamente o uso de sua tecnologia para vigilância em massa de cidadãos americanos ou para alimentar sistemas de armas totalmente autônomos. De acordo com Amodei, em entrevista à CBS News, tais limites são fundamentais para preservar os “valores americanos”.
“Discordar do governo é a coisa mais americana do mundo. E nós somos patriotas. Em tudo o que fizemos aqui, defendemos os valores deste país”, afirmou Dario Amodei.
A reação do Pentágono e do Executivo
Por outro lado, o Departamento de Defesa refutou as exigências, demandando a capacidade de utilizar o Claude para “todos os fins legais”. O argumento central da defesa, vocalizado pelo Chief Technology Officer (CTO) do Pentágono, Emil Michael, é de que as preocupações da empresa seriam redundantes, uma vez que a vigilância em massa já é ilegal e políticas internas já restringem armas autônomas.
“Em algum nível, você tem que confiar no seu exército para fazer a coisa certa”, declarou Emil Michael à CBS News.
A resposta política foi imediata. O Presidente Donald Trump ordenou que agências federais encerrem o uso da tecnologia da Anthropic, estabelecendo um prazo de seis meses para a descontinuação total. Paralelamente, o Secretário de Defesa, Pete Hegseth, classificou a empresa como um “risco para a cadeia de suprimentos”, sinalizando uma ruptura profunda entre o setor de tecnologia do Vale do Silício e a atual administração.
Impactos operacionais e logísticos
Apesar da retórica de substituição, o desligamento imediato da ferramenta é tecnicamente complexo. O portal de segurança nacional Defense One reportou que o Pentágono pode levar três meses ou mais para substituir as capacidades do Claude por outra plataforma de IA equivalente.
Atualmente, o modelo é empregado em tarefas críticas que incluem:
Sintetização de grandes volumes de documentos;
Otimização de cadeias de suprimentos militares;
Eficiência logística em teatros de operações.
O episódio levanta um debate profundo sobre até onde empresas privadas podem ditar as regras de uso de suas ferramentas por parte do Estado e como a soberania tecnológica se choca com os princípios éticos das Big Techs.
O novo xadrez das big techs na defesa
Enquanto a Anthropic mantém sua postura de resistência ética, o cenário global de IA militar sofreu uma mudança sísmica nos últimos meses. A OpenAI, liderada por Sam Altman, adotou uma estratégia diametralmente oposta, consolidando-se como a principal parceira do Pentágono após o “imbróglio” com o modelo Claude.
No início de março de 2026, a OpenAI anunciou um acordo formal com o Departamento de Guerra (DoW) para implantar seus modelos mais avançados, como o GPT-4o, em redes militares classificadas. A empresa justificou o movimento como uma forma de “de-escalar” as tensões entre o governo e os laboratórios de IA, preenchendo a lacuna deixada pela saída da Anthropic.
Diferenças estratégicas e “linhas vermelhas”
A tabela abaixo compara o posicionamento das principais empresas de IA em relação ao uso de suas ferramentas pelas forças armadas
Meta e o poder do código aberto
Diferente das demais, a Meta, de Mark Zuckerberg, seguiu o caminho do “Open Source” (código aberto). Em setembro de 2025, a empresa disponibilizou o modelo Llama gratuitamente para agências federais e aliados estratégicos, incluindo OTAN, Reino Unido e Japão.
A vantagem estratégica da Meta é permitir que o exército rode a IA localmente (on-premise), sem depender da nuvem da empresa. Isso possibilita o uso em dispositivos no “front” (edge computing), auxiliando soldados na tradução de idiomas em tempo real ou na identificação de locais seguros para pouso, sem violar a privacidade de dados.
Google: o retorno silencioso
O Google, que enfrentou protestos internos massivos em 2018 devido ao Project Maven, mudou sua postura de forma discreta. Em fevereiro de 2025, a empresa removeu de seu site oficial o trecho que excluía o desenvolvimento de tecnologias para armas e vigilância de seus princípios éticos de IA. Atualmente, a empresa volta a ser peça-chave na análise de dados geoespaciais e inteligência de sinais para o Pentágono.
Impacto político e social
A mudança de tom das Big Techs ocorre em um momento de pressão da administração Trump para que os Estados Unidos mantenham a hegemonia tecnológica frente à China. No entanto, pesquisas de opinião de fevereiro de 2026 indicam que 79% dos americanos acreditam que um ser humano deve sempre tomar a decisão final sobre o uso de força letal, refletindo um ceticismo público persistente sobre a autonomia dessas máquinas no campo de batalha.
🔎 Verificação e confiabilidade
Fontes: Reportagens da CBS News e Defense One.
Status de Verificação: Informações sobre o uso da IA no Irã atribuídas a fontes internas citadas pelos veículos originais. Declarações de Emil Michael, Dario Amodei e medidas do governo Trump confirmadas por registros públicos e entrevistas.
Qual a sua opinião sobre o controle ético de empresas de tecnologia sobre o uso militar? O governo deve ter liberdade total ou as “linhas vermelhas” são necessárias? Comente sua opinião abaixo e compartilhe esta matéria nas suas redes sociais para fomentar o debate!
Palavras-chave (SEO)
Inteligência Artificial, Pentágono, Anthropic, Claude AI, Donald Trump, Pete Hegseth, Segurança Nacional, Ética na IA, Tecnologia Militar.
#️⃣ #PainelPolitico #InteligenciaArtificial #Geopolitica #Defesa #EUA #Tecnologia #DonaldTrump
🌐 Contatos e Redes Sociais — Painel Político
Twitter: @painelpolitico
Instagram: @painelpolitico
📲 Links de Convite
WhatsApp: Canal Painel Político
Telegram: https://t.me/PainelP




