Sam Altman, CEO da OpenAI, pediu desculpas à cidade canadense de Tumbler Ridge por não ter alertado a polícia sobre conteúdos preocupantes gerados por uma usuária do ChatGPT, que cometeu um ataque a tiros em fevereiro, matando oito pessoas. O incidente ocorreu na província da Colúmbia Britânica, quando a jovem atiradora de 18 anos atacou uma escola e uma residência antes de tirar a própria vida.
No dia 10 de fevereiro, a mulher matou a mãe e o meio-irmão em casa, depois foi até uma escola secundária local onde matou cinco estudantes e um professor. A OpenAI afirmou que identificou a suspeita em seus sistemas de moderação em junho do ano anterior e que a conta dela foi banida do ChatGPT oito meses antes da tragédia. A empresa não notificou as autoridades na época por considerar que o conteúdo não apresentava gravidade suficiente para justificar um alerta policial.
Em uma carta enviada ao primeiro-ministro David Eby, Altman disse estar “profundamente arrependido” por não ter reportado a conta da usuária à polícia. O pedido de desculpas, divulgado em 24 de abril, veio mais de dois meses após o ataque, prazo justificado pelo CEO como uma forma de respeitar o luto da comunidade de Tumbler Ridge. O primeiro-ministro qualificou a retratação como “necessária, e ainda assim grosseiramente insuficiente”.
A OpenAI explicou que utiliza sistemas automáticos de moderação que monitoram conteúdos em tempo real, podendo restringir ou banir contas que violem suas regras, como as que promovem violência, automutilação ou suicídio. Em situações graves, os casos são enviados para análise humana e, se identificada uma ameaça crível, os dados são compartilhados com as autoridades policiais.
Após o ataque, autoridades canadenses convocaram a equipe de segurança da OpenAI e ameaçaram aplicar medidas regulatórias caso a empresa não aperfeiçoasse seus controles. Altman afirmou que a empresa criou um canal de comunicação direta com a polícia e intensificará suas ações para evitar tragédias futuras. “Nosso foco continuará sendo trabalhar com todos os níveis de governo para garantir que algo assim nunca aconteça novamente”, disse.
Familiares de uma menina gravemente ferida no tiroteio ajuizaram uma ação judicial contra a OpenAI por negligência. Eles afirmam que a empresa tinha conhecimento do plano da atiradora para um “evento com mortes em massa” e não adotou providências para impedir o ataque.
Este caso reúne debates sobre responsabilidade das plataformas digitais em monitorar e compartilhar informações que possam prevenir crimes. A investigação ainda está em andamento, e novas medidas regulatórias estão sendo discutidas para aumentar a segurança a partir do uso de ferramentas de inteligência artificial.
—
Palavras-chave relacionadas:
OpenAI, Sam Altman, ChatGPT, tiroteio em massa, Tumbler Ridge, Colúmbia Britânica, ataque a tiros, moderação de conteúdo, responsabilidade digital, segurança pública, regulação de IA, ação judicial, monitoramento automático, violência online.
Fonte: g1.globo.com
Imagem: s2-g1.glbimg.com
Fonte: g1.globo.com
