O governo dos Estados Unidos declarou nesta terça-feira (17) que a empresa de inteligência artificial Anthropic representa um “risco inaceitável” para o abastecimento militar do país. A decisão foi tomada após a empresa recusar o uso irrestrito de sua IA por militares e entrou em litígio contra essa classificação.
A Anthropic foi considerada um risco pelo governo no início de abril, quando a empresa se negou a autorizar o uso de sua tecnologia para qualquer finalidade militar legal. Em resposta, a empresa abriu um processo judicial para contestar a decisão. O modelo de IA da Anthropic, conhecido como Claude, tem sido destaque nas últimas semanas tanto por seu possível uso na identificação de alvos para bombardeios americanos no Irã, quanto pela resistência em ceder sua tecnologia para aplicações militares ilimitadas.
O Departamento de Defesa, anteriormente denominado Departamento de Guerra na administração do ex-presidente Donald Trump, justificou o corte dos vínculos com a Anthropic após o início do processo judicial. Em documento obtido pela AFP, o órgão argumenta que manter o acesso da Anthropic à infraestrutura de combate coloca em risco as cadeias de suprimento essenciais para as operações militares.
Segundo o governo, os sistemas de inteligência artificial são especialmente suscetíveis a manipulações externas. O risco inclui a possibilidade de a Anthropic desativar sua tecnologia ou modificar seu comportamento durante operações militares, caso a empresa avalie que seus “limites corporativos” estejam sendo ultrapassados.
O texto oficial destaca que a recusa da Anthropic em liberar sua tecnologia para uso militar em todas as circunstâncias legais constitui uma ameaça à segurança nacional dos EUA. Essa postura levou à designação da empresa como uma ameaça às cadeias de fornecimento, status que pode impedir que fornecedores do governo celebrem contratos com a companhia.
Essa classificação geralmente é aplicada a empresas consideradas estratégicas ou pertencentes a países adversários, exemplificada pela chinesa Huawei. Contudo, a Anthropic, uma empresa com sede nos Estados Unidos, está sendo tratada de forma similar.
Em reação, grandes empresas tecnológicas americanas, como a Microsoft, manifestaram apoio à Anthropic. A Microsoft utiliza o modelo Claude e também oferece serviços ao setor militar dos EUA. Em documento legal enviado ao tribunal, a empresa ressaltou que não é o momento adequado para comprometer o ecossistema de inteligência artificial que a administração atual ajudou a desenvolver.
O conflito entre o governo dos EUA e a Anthropic evidencia as tensões entre o avanço da tecnologia de inteligência artificial e as preocupações de segurança nacional. A situação permanece em aberto, enquanto os processos jurídicos prosseguem e as discussões sobre o uso militar da IA continuam em evolução.
Palavras-chave relacionadas para SEO: Anthropic, inteligência artificial, Claude, risco para cadeia de suprimento, governo dos EUA, departamento de defesa, segurança nacional, processo judicial, uso militar de IA, Microsoft, conflito tecnológico.
Fonte: g1.globo.com
Imagem: s2-g1.glbimg.com
Fonte: g1.globo.com

