Sam Altman, CEO da OpenAI, pediu desculpas à cidade canadense de Tumbler Ridge por não ter alertado a polícia sobre conteúdos preocupantes de uma usuária do ChatGPT antes de um ataque que matou oito pessoas em fevereiro. O pedido ocorreu após uma investigação revelar que a empresa identificou e baniu a conta da suspeita oito meses antes do crime, mas não informou as autoridades.
Em 10 de fevereiro, uma mulher de 18 anos com histórico de uso do ChatGPT matou a mãe e o meio-irmão em casa, seguiu até uma escola secundária de Tumbler Ridge e disparou contra alunos e um professor, deixando seis mortos no local antes de tirar a própria vida. A tragédia resultou em dez mortos e 25 feridos.
A OpenAI afirmou que detectou a conta da atiradora por meio de seus sistemas automáticos de moderação, que monitoram conteúdos em tempo real para identificar violações das regras, como promoção de violência ou automutilação. A empresa baniu a usuária em junho do ano anterior, mas não reportou o caso à polícia alegando que a atividade não era grave o suficiente para justificar uma denúncia.
Sam Altman expressou arrependimento por essa decisão e justificou a demora no pedido de desculpas apontando respeito ao luto da comunidade de Tumbler Ridge. Ele ressaltou o compromisso da OpenAI em cooperar com governos para evitar novos incidentes semelhantes e anunciou que as medidas de segurança serão reforçadas, incluindo um canal direto de comunicação com as autoridades.
O primeiro-ministro da Colúmbia Britânica, província onde ocorreu o ataque, classificou as desculpas como necessárias, mas insuficientes diante da gravidade do ocorrido. Autoridades canadenses acionaram a equipe de segurança da OpenAI exigindo mudanças e ameaçando ações regulatórias caso as práticas não fossem aprimoradas.
A família de uma menina gravemente ferida no ataque entrou com uma ação judicial contra a OpenAI por negligência. Eles alegam que a empresa tinha conhecimento de planos da atiradora para cometer um ataque em massa, mas não tomou medidas preventivas.
Os sistemas de moderação do ChatGPT identificam comportamentos de risco através de alertas automatizados, que podem encaminhar casos graves para revisão humana. Quando uma ameaça crível é detectada, a OpenAI pode fornecer informações relevantes às autoridades policiais, conforme previsto em seus protocolos.
As medidas anunciadas buscam aumentar a prevenção de eventos violentos que possam estar relacionados ao uso das plataformas da empresa, além de melhorar a comunicação com órgãos públicos para uma resposta rápida em situações de risco.
O incidente em Tumbler Ridge levanta questões sobre os limites da responsabilidade de empresas de tecnologia na prevenção da violência, especialmente no uso de inteligência artificial para moderar conteúdos.
—
Palavras-chave relacionadas para SEO: Sam Altman, OpenAI, ChatGPT, tiroteio em massa, Tumbler Ridge, crimes no Canadá, moderação de conteúdo, segurança online, inteligência artificial, responsabilidade tecnológica, ataque a escola.
Fonte: g1.globo.com
Imagem: s2-g1.glbimg.com
Fonte: g1.globo.com
