Sam Altman, CEO da OpenAI, pediu desculpas à cidade canadense de Tumbler Ridge por não ter alertado a polícia sobre conteúdos preocupantes no ChatGPT antes de um ataque que resultou em oito mortes em fevereiro. A vítima, uma mulher transgênero de 18 anos, matou familiares e outras seis pessoas em uma escola antes de tirar a própria vida.
O ataque ocorreu em 10 de fevereiro, quando a mulher abriu fogo em uma residência e em uma escola local, causando a morte da mãe, do meio-irmão, de cinco crianças e de um professor. Ela foi banida do ChatGPT oito meses antes do ocorrido, em junho, por violações detectadas nos sistemas de moderação da OpenAI.
Segundo Altman, a empresa identificou a usuária suspeita através de sistemas automatizados de moderação, mas não comunicou as autoridades porque os conteúdos analisados na época não foram considerados graves o suficiente para justificar um alerta policial. Em carta divulgada no dia 24 de abril, ele afirmou estar “profundamente arrependido” pela ausência do reporte.
O primeiro-ministro da Colúmbia Britânica, David Eby, classificou o pedido de desculpas como “necessário, e ainda assim grosseiramente insuficiente”. Após o ataque, autoridades canadenses solicitaram reuniões com a equipe de segurança da OpenAI, ameaçando ações regulatórias caso as medidas de proteção não fossem aprimoradas.
A OpenAI explicou que seus sistemas de moderação verificam conteúdos em tempo real e podem restringir ou banir contas que promovam exploração sexual, incentivo à automutilação, suicídio, violência ou danos. Em situações de risco elevado, casos são revistos manualmente e podem ser reportados às autoridades.
Após o incidente, a empresa reforçou seu compromisso em melhorar a segurança, incluindo a criação de um canal direto de comunicação com a polícia. Altman declarou que a OpenAI busca colaborar com governos para evitar tragédias semelhantes no futuro.
Familiares de uma menina gravemente ferida no tiroteio entraram com ação judicial contra a OpenAI, acusando a empresa de negligência. Segundo o processo, a organização teria conhecimento dos planos de ataque da usuária, mas não adotou medidas preventivas.
O caso trouxe à tona questionamentos sobre a responsabilidade das plataformas de inteligência artificial no monitoramento e denúncia de comportamentos de risco. A OpenAI segue investigando formas de aprimorar seus sistemas e garantir maior segurança para os usuários e a comunidade.
Palavras-chave relacionadas: Sam Altman, OpenAI, ChatGPT, tiroteio Tumbler Ridge, segurança em IA, moderação de conteúdo, ataque em escola Canadá, responsabilidade tecnológica, denúncia de violência, ação judicial OpenAI.
Fonte: g1.globo.com
Imagem: s2-g1.glbimg.com
Fonte: g1.globo.com
