Os Estados Unidos utilizaram a ferramenta de inteligência artificial Claude na ofensiva militar contra o Irã no último sábado (28), informou o jornal The Wall Street Journal, com confirmações do site Axios e da agência Reuters. O uso da IA teve papel em avaliações de inteligência, identificação de alvos e simulação de cenários durante a operação no território iraniano.
O Claude é um modelo de linguagem desenvolvido pela empresa Anthropic, semelhante ao ChatGPT, que responde a perguntas e comandos dos usuários. O sistema pode ser integrado a outros programas para executar funções mais complexas, como apoio em ações militares.
O Comando Central dos EUA no Oriente Médio (Centcom), principal base militar americana na região, incorpora essa tecnologia em suas operações. Segundo o Wall Street Journal, o Centcom relatou o uso do Claude, mas não revelou detalhes sobre seu papel específico no ataque ao Irã.
A operação ocorreu em meio a uma disputa entre os EUA e a Anthropic. Na sexta-feira (27), o ex-presidente Donald Trump determinou que órgãos federais norte-americanos cessassem imediatamente o uso dos programas da Anthropic. Ele declarou que a postura da empresa põe em risco a segurança nacional e a vida das tropas americanas.
O governo dos EUA manifestou insatisfação com a decisão da Anthropic de restringir o uso irrestrito de seus modelos de IA pelo Departamento de Guerra, conhecido como Pentágono. Desde 2025, a companhia mantém um contrato de cerca de US$ 200 milhões para fornecer tecnologia de inteligência artificial para aplicações militares.
O contrato inclui restrições ao uso das ferramentas, como a proibição de vigilância em massa de civis e a aplicação em armamentos totalmente autônomos. Na quinta-feira (26), a Anthropic declarou que manteria sua posição ética e não permitiria o uso irrestrito dessas tecnologias pelo Pentágono.
Dario Amodei, diretor-executivo da Anthropic, afirmou que os sistemas são usados em defesa, mas assegurou que os modelos não são suficientemente confiáveis para operarem armas letais sem supervisão humana. Ele ressaltou a importância de estabelecer limites para o emprego da IA em contextos militares.
Além da operação contra o Irã, o Pentágono utilizou o Claude numa missão anterior que resultou na captura do então presidente da Venezuela, Nicolás Maduro, conforme revelado pelo Wall Street Journal em fevereiro. A inteligência artificial foi empregada em parceria com a Palantir Technologies, empresa americana de análise de dados.
O uso crescente de IA em conflitos militares sinaliza uma mudança nas estratégias de defesa e inteligência, ao integrar tecnologia avançada para avaliação rápida e precisa. O conflito envolvendo EUA, Israel e Irã permanece tenso, com episódios como apagões de internet no Irã e respostas diplomáticas em andamento.
O avanço da inteligência artificial no setor militar traz desafios éticos e operacionais, que continuam a ser debatidos no âmbito governamental e empresarial. As decisões recentes evidenciam a preocupação com o equilíbrio entre inovação tecnológica e responsabilidades legais e morais.
No momento, o impacto total do uso do Claude nas operações contra o Irã ainda não está totalmente esclarecido, e as autoridades americanas mantêm reserva sobre detalhes da estratégia. A situação geopolítica na região permanece instável, com potenciais desdobramentos nas próximas semanas.
—
Palavras-chave: inteligência artificial, Claude, Anthropic, ataque ao Irã, EUA, Pentágono, Centcom, segurança nacional, tecnologia militar, ética em IA, conflito no Oriente Médio, Palantir Technologies, Donald Trump
Fonte: g1.globo.com
Imagem: s2-g1.glbimg.com
Fonte: g1.globo.com

