A Anthropic, empresa de inteligência artificial do Vale do Silício, enfrentou o Pentágono nas últimas semanas após se recusar a retirar limites éticos de sua tecnologia usada em operações militares dos Estados Unidos. O conflito ganhou destaque após o uso da ferramenta de IA Claude na captura do então presidente venezuelano Nicolás Maduro, em janeiro de 2024, e levantou debates globais sobre o controle e o uso da inteligência artificial em contextos bélicos.
Durante a operação na Venezuela, a tecnologia da Anthropic auxiliou na análise de dados estratégicos, segundo fontes do Wall Street Journal e da revista Time. Após a missão, um executivo da empresa questionou a Palantir, parceira do Pentágono, sobre a utilização do software, o que gerou preocupação entre autoridades de defesa. O Pentágono temia que a Anthropic pudesse interromper o funcionamento do modelo em momentos críticos, colocando vidas em risco.
O departamento de Defesa exigiu acesso irrestrito à tecnologia para “todos os usos legais”, pedido que a Anthropic recusou, alegando compromissos éticos e legais. O conflito escalou a ponto de o ex-Secretário de Defesa americano Pete Hegseth classificar a Anthropic como um “risco para a cadeia de suprimentos”, termo normalmente reservado a empresas de países considerados adversários. Em resposta, a Anthropic processou o Pentágono por exceder sua autoridade e desconsiderar salvaguardas éticas.
Fundada por ex-pesquisadores da OpenAI em 2021, a Anthropic prioriza a segurança na criação de IA, considerando os riscos existenciais ligados à tecnologia. Em julho de 2025, a empresa firmou um contrato de US$ 200 milhões com o Departamento de Defesa para usar seus sistemas em operações classificadas. O acordo estabeleceu duas restrições principais: proibição do uso para vigilância doméstica em massa e para armas totalmente autônomas.
Essas “linhas vermelhas” refletem preocupações sobre a delegação de decisões letais a máquinas, já que sistemas autônomos podem agir com mínima supervisão humana. Especialistas alertam para o “viés de automação”, quando operadores tendem a confiar excessivamente nas recomendações das máquinas, podendo levar a erros graves, como prisões injustas ou ataques errôneos.
O debate jurídico e ético sobre o uso da IA em armas autônomas é intensificado pela ausência de regulamentação internacional clara. O direito internacional humanitário ainda é baseado na ação direta de humanos em conflitos, o que cria um “vácuo de responsabilidade” frente a sistemas autônomos que podem agir sem intervenção humana. A resolução da Assembleia Geral da ONU em 2024 para discutir o tema contou com ampla adesão, mas não prevê mecanismos vinculativos ou de fiscalização.
Enquanto isso, governos e setores militares avançam no uso da IA. Em dezembro de 2024, a Ucrânia realizou sua primeira operação com veículos terrestres e drones autônomos sem presença humana em combate. Nos EUA, o Comando Central reconheceu a IA como ferramenta essencial para análise rápida de dados e tomada de decisão.
Após a recusa da Anthropic em ceder às exigências do Pentágono, a empresa perdeu o contrato para a rival OpenAI, que fechou acordo com o Departamento de Defesa. Curiosamente, essa disputa impulsionou o aplicativo Claude da Anthropic a superar o ChatGPT em downloads globais, evidenciando o impacto da controvérsia no mercado.
A situação evidenciou que a governança da inteligência artificial em contextos militares ainda carece de estruturas legais eficazes, além de mostrar o peso das decisões éticas de empresas privadas no desenvolvimento tecnológico global. A Anthropic tornou-se um símbolo de resistência para profissionais e pesquisadorес que pedem limites claros no uso militar da IA, enquanto autoridades discutem normas que possam assegurar responsabilidade e controle.
A experiência com a Anthropic serve como alerta para a necessidade urgente de regulamentação e supervisão internacional que definam os limites para o uso de sistemas autônomos letais, para evitar riscos a civis e a escalada descontrolada de conflitos mediados por inteligência artificial.
—
**Palavras-chave relacionadas:**
Anthropic, inteligência artificial, Pentágono, IA militar, ética na inteligência artificial, armas autônomas, vigilância em massa, direito internacional humanitário, controle de IA, tecnologia de defesa, OpenAI, conflito entre empresas, regulamentação internacional, responsabilidade legal, automação militar.
Fonte: g1.globo.com
Imagem: s2-g1.glbimg.com
Fonte: g1.globo.com

