Um repórter demonstrou que é possível manipular as principai

Um repórter demonstrou que é possível manipular as principais inteligências artificiais, como ChatGPT, Google e Gemini, para que forneçam informações falsas, ao fazer os sistemas afirmarem que ele é o maior comedor de cachorros-quentes entre jornalistas de tecnologia. O teste foi realizado em poucos minutos e teve como objetivo alertar sobre a facilidade com que chatbots podem ser enganados, o que representa riscos para a precisão das informações disponíveis e a segurança dos usuários.
A estratégia utilizada consistiu na publicação de um artigo falso no site pessoal do repórter, no qual declarava, sem evidências, que competições de comer cachorros-quentes eram um hobby comum entre repórteres de tecnologia. O texto continha um ranking inventado, colocando o próprio autor em primeiro lugar, acompanhado por jornalistas reais e fictícios. Menos de 24 horas após a publicação, os chatbots passaram a reproduzir as informações do artigo, aparecendo em respostas e resumos criados por IA. Mesmo após indicar no texto que não se tratava de uma sátira, as IAs continuaram a considerar o conteúdo como real.
Especialistas afirmam que, embora os sistemas de IA baseiem suas respostas em grandes volumes de dados, quando recorrem à internet para complementar informações, ficam mais suscetíveis a manipulações. Esse tipo de vulnerabilidade pode ser explorada para disseminar mentiras sobre temas graves, como saúde e finanças pessoais, podendo causar danos físicos, reputacionais ou financeiros.
Lily Ray, especialista em SEO, destaca que enganar chatbots é hoje mais simples do que enganar ferramentas de busca tradicionais alguns anos atrás, e que as empresas de IA avançam mais rapidamente do que a capacidade de regular a precisão das respostas. Um porta-voz do Google afirma que a empresa possui sistemas para manter a busca 99% livre de spam, reconhece as tentativas de manipulação e trabalha para coibir essas práticas, embora o problema ainda não tenha solução definitiva.
Além de postar conteúdo falso, é possível pagar para que esse material apareça em sites mais respeitáveis, ampliando a influência e a credibilidade das informações manipuladas. Casos apresentados incluíram também rankings falsos em áreas como clínicas de transplante capilar e finanças, que surgiram em respostas oferecidas por chatbots.
A facilidade em confiar nas respostas apresentadas diretamente pelas IAs é apontada como um agravante. Diferentemente das buscas tradicionais, que exigiam que o usuário visitasse sites para verificar dados, as respostas de IA tendem a parecer definitivas e oficiais. Estudos indicam que os usuários clicam menos em links, reduzindo a chance de checar a veracidade das informações.
Os especialistas sugerem que um passo importante para mitigar os riscos seria tornar mais evidentes as fontes das informações, incluindo avisos claros quando os dados forem baseados em única referência ou dados pouco confiáveis. Também recomendam que os usuários mantenham senso crítico ao avaliar as respostas das IAs, especialmente em temas sensíveis como saúde, direito e finanças.
As empresas envolvidas afirmam que investem no aprimoramento da segurança e precisão das ferramentas, mas reconhecem que a responsabilidade pela verificação recai, em parte, sobre os usuários. O cenário atual exige cuidado ao interpretar os conteúdos gerados por IA, para evitar decisões erradas baseadas em informações manipuladas ou falsas.
Em resumo, a fácil manipulação das inteligências artificiais coloca em evidência desafios ainda não superados na confiabilidade e segurança dos sistemas, exigindo tanto avanços tecnológicos quanto comportamento crítico dos usuários.
—
Palavras-chave relacionadas: inteligência artificial, chatbots, ChatGPT, Gemini, manipulação, desinformação, segurança digital, SEO, IA, busca online, verificação de informações, Google, desinformação em IA, integridade da informação, vulnerabilidades digitais.
Fonte: g1.globo.com
Imagem: s2-g1.glbimg.com
Fonte: g1.globo.com