Sam Altman, CEO da OpenAI, pediu desculpas à cidade canadense de Tumbler Ridge por não ter alertado a polícia sobre conteúdos preocupantes de uma usuária do ChatGPT que, em fevereiro, matou oito pessoas em um ataque a tiros. O pedido foi feito em carta divulgada nesta sexta-feira (24).
Em 10 de fevereiro, uma mulher transgênero de 18 anos matou a mãe e o meio-irmão em casa, depois seguiu para uma escola secundária em Tumbler Ridge, província da Colúmbia Britânica, e disparou contra alunos e um professor, matando cinco crianças e um docente antes de tirar a própria vida.
Segundo a OpenAI, a conta da atiradora foi identificada por meio de seus sistemas de detecção de abuso em junho do ano passado, oito meses antes da tragédia, e a usuária foi banida do ChatGPT. Na época, a empresa não notificou as autoridades canadenses porque considerou que as violações não tinham gravidade suficiente para justificar o encaminhamento.
Sam Altman afirmou estar “profundamente arrependido” por não ter comunicado a polícia sobre a conta banida. Ele justificou o atraso no pedido de desculpas, dizendo que a OpenAI queria respeitar o luto da comunidade de Tumbler Ridge.
O primeiro-ministro da Colúmbia Britânica, David Eby, classificou o pedido de desculpas como “necessário, e ainda assim grosseiramente insuficiente”.
A OpenAI utiliza sistemas automatizados para moderação, que analisam conteúdos em tempo real e restringem ou banem contas que violam regras, como apoio à violência, suicídio e automutilação. Em casos de risco grave, o sistema sinaliza para revisão humana e pode compartilhar informações com a polícia.
Após o ataque, autoridades canadenses convocaram a equipe de segurança da OpenAI e ameaçaram tomar medidas regulatórias se não houvesse mudanças nas práticas de segurança. A empresa afirmou que reforçaria suas medidas e criou um canal direto de contato com a polícia local.
Altman ressaltou na carta que a OpenAI está comprometida em colaborar com governos para evitar tragédias semelhantes no futuro. “Nosso foco continuará sendo trabalhar com todos os níveis de governo para ajudar a garantir que algo assim nunca aconteça novamente”, disse.
Paralelamente, a família de uma menina ferida no ataque entrou com uma ação judicial por negligência contra a OpenAI, alegando que a empresa tinha conhecimento das intenções da atiradora, mas não tomou medidas para impedir o ataque.
O caso levanta debate sobre a responsabilidade das empresas de tecnologia em monitorar e denunciar conteúdos que podem indicar ameaças de violência, diante do uso crescente de ferramentas de inteligência artificial.
Fonte: g1.globo.com
Imagem: s2-g1.glbimg.com
Fonte: g1.globo.com
