Sam Altman, CEO da OpenAI, pediu desculpas à cidade canadense de Tumbler Ridge por não ter alertado a polícia sobre conteúdos preocupantes publicados por uma ex-usuária do ChatGPT, que cometeu um tiroteio em massa em fevereiro, deixando oito mortos. A tragédia levou à morte da atiradora, que abriu fogo em uma escola e em sua casa na Colúmbia Britânica.
Em 10 de fevereiro, a suspeita, uma mulher transgênero de 18 anos, matou a mãe e o meio-irmão antes de ir a uma escola secundária local, onde matou cinco crianças e um professor. Após o ataque, ela tirou a própria vida. A OpenAI identificou a conta da usuária em junho do ano anterior e a baniu do ChatGPT, mas não comunicou as autoridades na época.
Altman afirmou estar “profundamente arrependido” por não ter informado a polícia sobre a conta banida, que apresentava sinais de comportamento preocupante. Ele justificou o atraso no pedido de desculpas, divulgado em uma carta em 24 de abril, afirmando ter respeitado o período de luto da comunidade de Tumbler Ridge.
Sistemas automatizados de moderação da OpenAI analisam conteúdos em tempo real e podem banir contas por violar regras relacionadas a exploração sexual, automutilação, suicídio e promoção de violência. Em casos graves, os sistemas são projetados para sinalizar ameaças de alto risco para revisão humana, permitindo o compartilhamento de informações com as autoridades.
O primeiro-ministro da Colúmbia Britânica, David Eby, considerou o pedido de desculpas como “necessário, e ainda assim grosseiramente insuficiente”. Autoridades canadenses convocaram a equipe de segurança da OpenAI após o ataque e ameaçaram ações regulatórias caso medidas não fossem reforçadas.
Em resposta, a OpenAI informou que pretende fortalecer as medidas de segurança e criou um canal direto de comunicação com a polícia. Altman destacou o compromisso da empresa em trabalhar com governos para evitar tragédias similares no futuro.
Além disso, a família de uma menina gravemente ferida no tiroteio entrou com uma ação judicial contra a OpenAI, alegando negligência. Eles afirmam que a empresa tinha conhecimento dos planos da atiradora para um ataque em massa, mas não tomou providências.
O caso reacende debates sobre a responsabilidade de plataformas digitais em monitorar conteúdos que podem indicar riscos à segurança pública, especialmente envolvendo ferramentas baseadas em inteligência artificial.
Palavras-chave relacionadas: OpenAI, Sam Altman, ChatGPT, tiroteio em massa, Tumbler Ridge, Colúmbia Britânica, violência, moderação de conteúdo, segurança pública, ação judicial, inteligência artificial.
Fonte: g1.globo.com
Imagem: s2-g1.glbimg.com
Fonte: g1.globo.com
