Sam Altman, CEO da OpenAI, pediu desculpas à cidade canadense de Tumbler Ridge por não ter alertado a polícia sobre conteúdos preocupantes gerados por uma usuária do ChatGPT antes de um ataque que matou oito pessoas em fevereiro. O pedido foi enviado em carta ao primeiro-ministro da Colúmbia Britânica, David Eby, após denúncias e críticas sobre a resposta da empresa.
Em 10 de fevereiro, uma mulher transgênero de 18 anos matou a mãe e o meio-irmão em casa, depois atirou contra cinco estudantes e um professor em uma escola local, e, em seguida, cometeu suicídio. A OpenAI identificou a conta da suspeita em junho do ano anterior e a baniu do ChatGPT por violações das regras da plataforma.
Segundo Altman, a empresa não notificou as autoridades na época porque não considerou a atividade grave o suficiente para justificar o encaminhamento. Na carta, ele afirmou estar “profundamente arrependido” por essa decisão e destacou o desejo de respeitar o luto da comunidade antes de se manifestar publicamente.
David Eby respondeu classificando o pedido de desculpas como “necessário, e ainda assim grosseiramente insuficiente”. O governo da Colúmbia Britânica também chamou a equipe de segurança da OpenAI para esclarecer o caso e deu prazo para mudanças, sob risco de ações regulatórias.
A OpenAI explicou que utiliza sistemas automatizados de moderação que analisam os conteúdos em tempo real e que contas podem ser banidas quando violam regras como exploração sexual, apoio ao suicídio e promoção de violência. Em casos de risco elevado, a empresa afirma que seus sistemas sinalizam para revisão humana e compartilham dados com as autoridades policiais.
Após as críticas, a empresa informou que reforçará as medidas de segurança, criou um canal direto de comunicação com a polícia e pretende colaborar com governos para evitar episódios similares no futuro. Altman destacou que o foco agora é prevenir tragédias com o apoio das autoridades.
A família de uma menina ferida no ataque ajuizou ação judicial contra a OpenAI, alegando negligência. Segundo a denúncia, a empresa teria sabido dos planos da atiradora para um “evento com mortes em massa” mas não tomou providências para impedir.
O episódio reacende o debate sobre a responsabilidade das plataformas de inteligência artificial na prevenção de crimes. Autoridades e especialistas apontam a necessidade de aprimorar os mecanismos de detecção e resposta a ameaças online para evitar tragédias.
Palavras-chave relacionadas: Sam Altman, OpenAI, ChatGPT, Tumbler Ridge, Colúmbia Britânica, ataque a tiros, polícia, moderação de conteúdo, segurança digital, plataforma de IA, responsabilidade tecnológica, ação judicial, prevenção de violência.
Fonte: g1.globo.com
Imagem: s2-g1.glbimg.com
Fonte: g1.globo.com
