O governo dos Estados Unidos anunciou nesta terça-feira (5) que avaliará novos modelos de inteligência artificial (IA) das principais empresas de tecnologia antes de seu lançamento ao público. A medida visa examinar os impactos e riscos das novas ferramentas criadas por Google DeepMind, Microsoft e xAI.
Os acordos firmados representam uma mudança na política em relação à inteligência artificial, após o governo do ex-presidente Donald Trump ter retirado ações regulatórias adotadas na gestão Biden. As parcerias atuais foram baseadas em entendimentos prévios estabelecidos pela administração democrata e renegociados na sequência.
Segundo informações do “New York Times”, a Casa Branca trabalha na criação de um decreto para instituir um grupo de trabalho composto por executivos do setor tecnológico e agentes governamentais. O objetivo do grupo será desenvolver processos formais para a revisão dos novos modelos de IA antes de sua disponibilização.
O Centro para Normas e Inovação em IA (Caisi), do Departamento de Comércio, comunicou que realizará avaliações prévias e investigações específicas para melhor compreender as capacidades avançadas dessas tecnologias e aprimorar a segurança em IA. O Caisi substituiu o Instituto de Segurança da Inteligência Artificial criado em 2023 pela administração Biden.
Ainda não está claro se os acordos anunciados estão diretamente relacionados ao grupo de trabalho em formação, que segue sendo discutido na Casa Branca. Durante o governo Trump, a intervenção pública no desenvolvimento da IA foi minimizada com o argumento de proteger a competitividade dos Estados Unidos no cenário global, especialmente em relação à China.
O principal motivo para a reversão da política foi o surgimento do Mythos, um novo modelo de IA desenvolvido pela empresa Anthropic. A companhia optou por não divulgar o Mythos publicamente devido à sua alta capacidade de identificar vulnerabilidades em sistemas de cibersegurança, o que poderia representar riscos significativos.
Chris Fall, diretor do Caisi, ressaltou que “uma ciência de medição independente e rigorosa é essencial para compreender a IA de ponta e suas implicações para a segurança nacional”. Essa posição reflete a preocupação do governo com o impacto das tecnologias de inteligência artificial no ambiente de segurança.
Fontes da imprensa dos Estados Unidos informaram que a Agência de Segurança Nacional (NSA) está realizando testes com o modelo Mythos, após obter acesso a ele. As avaliações buscam mapear os potenciais riscos e oportunidades gerados pela inteligência artificial de alta capacidade.
A iniciativa do governo demonstra um movimento para implementar controles e avaliações mais rigorosas nos novos avanços em IA, buscando equilibrar desenvolvimento tecnológico e segurança nacional. O andamento das medidas e os desdobramentos devem ser acompanhados nas próximas semanas.
—
**Palavras-chave relacionadas para SEO:**
Inteligência artificial, governo dos EUA, avaliação de IA, segurança nacional, Google DeepMind, Microsoft, xAI, Centro para Normas e Inovação em IA, Anthropic Mythos, Agência de Segurança Nacional, política de IA, regulamentação tecnológica, cibersegurança, Trump, Biden.
Fonte: g1.globo.com
Fonte: g1.globo.com

