Sam Altman, CEO da OpenAI, pediu desculpas à cidade canadense de Tumbler Ridge por não ter alertado a polícia sobre uma usuária do ChatGPT que matou oito pessoas em fevereiro. A ação aconteceu após a empresa banir a conta da suspeita oito meses antes do ataque, sem comunicar as autoridades.
Em 10 de fevereiro, uma mulher transgênero de 18 anos matou a mãe e o meio-irmão em casa, depois abriu fogo em uma escola secundária local, onde matou cinco crianças e um professor antes de tirar a própria vida. A OpenAI afirmou que já havia identificado e banido a conta da mulher em junho do ano anterior, por comportamento abusivo nos seus sistemas.
Altman afirmou que a empresa não comunicou a polícia canadense na época porque a atividade identificada não foi considerada grave o suficiente para justificar um repasse às autoridades. Na carta enviada ao primeiro-ministro da Colúmbia Britânica, David Eby, Altman disse estar “profundamente arrependido” pela falha e que um pedido de desculpas era necessário para reconhecer a perda sofrida pela comunidade.
O primeiro-ministro David Eby considerou o pedido de desculpas “necessário, e ainda assim grosseiramente insuficiente”. Ele já havia convocado a equipe de segurança da OpenAI e ameaçado ações regulatórias caso não fosse reforçada a proteção contra conteúdos perigosos na plataforma.
A OpenAI utiliza sistemas automatizados de moderação que analisam conteúdos em tempo real para identificar violações, como exploração sexual, apoio à automutilação, suicídio e promoção de violência. Em casos considerados graves, o sistema sinaliza a situação para revisão humana, que pode levar ao compartilhamento dos dados com as autoridades.
Após a tragédia, a empresa anunciou que iria aprimorar suas medidas de segurança e criou um canal de comunicação direta com as polícias. Altman ressaltou o compromisso da OpenAI em trabalhar com governos para evitar casos similares.
Além disso, a família de uma das crianças gravemente feridas no ataque entrou com uma ação judicial contra a OpenAI por negligência. Eles afirmam que a empresa estava ciente de que a atiradora planejava “um evento com mortes em massa” e não tomou nenhuma medida para prevenir o ataque.
O caso reacendeu o debate sobre a responsabilidade de plataformas de inteligência artificial em monitorar e relatar comportamentos suspeitos. A OpenAI enfrenta pressão para melhorar seus sistemas de vigilância e colaborar com as autoridades de forma mais efetiva.
Mesmo com as medidas anunciadas, especialistas e autoridades seguem cobrando transparência e ações mais rigorosas para garantir a segurança dos usuários e das comunidades afetadas por conteúdos potencialmente perigosos nas plataformas digitais.
Palavras-chave relacionadas para SEO: Sam Altman, OpenAI, ChatGPT, tiroteio em massa, Tumbler Ridge, polícia canadense, moderação de conteúdo, segurança digital, ação judicial, inteligência artificial.
Fonte: g1.globo.com
Imagem: s2-g1.glbimg.com
Fonte: g1.globo.com
