O CEO da OpenAI, Sam Altman, pediu desculpas à cidade canadense de Tumbler Ridge por não ter alertado a polícia sobre conteúdos preocupantes de uma usuária do ChatGPT, que em fevereiro matou oito pessoas em um ataque a tiros. Altman reconheceu o erro em carta enviada ao primeiro-ministro da Colúmbia Britânica, David Eby, quase três meses após a tragédia.
Em 10 de fevereiro, uma mulher transgênero de 18 anos matou a mãe e o meio-irmão em casa, depois atirou em uma escola local, onde matou cinco crianças e um professor, antes de tirar a própria vida. A OpenAI havia banido a suspeita do ChatGPT oito meses antes do ataque, após detectar conteúdos que violavam as políticas da empresa.
A empresa explicou que não reportou a conta à polícia na época porque a atividade não foi considerada grave o suficiente para justificar uma notificação às autoridades. Em sua carta, Altman afirmou estar “profundamente arrependido” pela falha e destacou o compromisso da OpenAI em colaborar com os governos para evitar incidentes similares no futuro.
David Eby classificou o pedido de desculpas como “necessário, e ainda assim grosseiramente insuficiente”, ressaltando a necessidade de ações mais eficazes. Autoridades canadenses também convocaram a equipe de segurança da OpenAI e ameaçaram adotar medidas regulatórias caso a empresa não aperfeiçoe seus processos.
A OpenAI utiliza sistemas automatizados de moderação que analisam em tempo real os conteúdos gerados pelos usuários. Contas podem ser restringidas ou banidas ao violar regras que proíbem exploração sexual, incentivo à automutilação, suicídio ou violência. Em casos graves, os sistemas sinalizam potenciais riscos para revisão humana e, se necessário, atribuem dados às autoridades.
Após o ataque, a empresa anunciou reforço nas medidas de segurança e estabeleceu um canal de comunicação direto com a polícia canadense. A iniciativa visa a facilitar o compartilhamento de informações em situações que apresentem riscos concretos.
A família de uma das vítimas graves entrou com ação judicial por negligência contra a OpenAI, alegando que a empresa tinha conhecimento dos planos da atiradora para um “evento com mortes em massa” e não tomou providências adequadas.
A tragédia em Tumbler Ridge trouxe à tona o debate sobre o papel de plataformas de inteligência artificial na prevenção de crimes violentos, a eficácia dos sistemas de moderação e a responsabilidade das empresas diante de ameaças identificadas em suas ferramentas.
A OpenAI reforçou o compromisso em trabalhar com governos e especialistas para aprimorar os mecanismos de detecção e resposta, buscando evitar a repetição de casos como o ocorrido em fevereiro.
—
Palavras-chave relacionadas: Sam Altman, OpenAI, ChatGPT, tiroteio em massa, Tumbler Ridge, polícia canadense, Colúmbia Britânica, moderação automática, segurança em IA, responsabilidade tecnológica, ação judicial, violência, sistemas de detecção, prevenção de crimes.
Fonte: g1.globo.com
Imagem: s2-g1.glbimg.com
Fonte: g1.globo.com
