Sam Altman, CEO da OpenAI, pediu desculpas à cidade canadens

Sam Altman, CEO da OpenAI, pediu desculpas à cidade canadense de Tumbler Ridge por não ter alertado a polícia sobre mensagens preocupantes de uma ex-usuária do ChatGPT que cometeu um ataque em fevereiro, resultando na morte de oito pessoas. A mulher, banida do chatbot oito meses antes da tragédia, atacou uma escola e uma residência local antes de se suicidar.

O ataque ocorreu em 10 de fevereiro, quando a jovem de 18 anos matou a mãe e o meio-irmão em casa, depois abriu fogo em uma escola secundária, onde matou cinco crianças e um professor. A polícia confirmou que a atiradora, uma mulher transgênero, tirou a própria vida após o ataque. Em resposta, a OpenAI afirmou que havia identificado e banido a conta da suspeita ainda em junho do ano anterior por meio de sistemas de detecção automática.

Sam Altman enviou uma carta ao primeiro-ministro da Colúmbia Britânica, David Eby, na qual manifesta arrependimento pela falta de comunicação com as autoridades locais na época do banimento. “Estou profundamente arrependido por não termos alertado as autoridades policiais sobre a conta que foi banida em junho”, disse Altman. Ele justificou a demora no pedido de desculpas para respeitar o luto da comunidade afetada.

O primeiro-ministro David Eby descreveu o pedido como “necessário, e ainda assim grosseiramente insuficiente”, ressaltando a gravidade da situação enfrentada pela população de Tumbler Ridge. Autoridades canadenses também pressionaram a OpenAI a reforçar seus protocolos de segurança, ameaçando medidas regulatórias caso não houvesse melhorias.

A OpenAI explicou que seus sistemas de moderação automatizados analisam conteúdos em tempo real e podem restringir ou banir contas que violem regras relacionadas a exploração sexual, automutilação, suicídio e promoção de violência. Em casos considerados de alto risco, a moderação humana revisa as interações e, se uma ameaça credível é identificada, informações podem ser repassadas às autoridades policiais.

Apesar disso, a empresa afirmou que a atividade da suspeita detectada em 2023 não era grave o suficiente para justificar notificação imediata às forças de segurança. Após o ataque, a OpenAI anunciou a criação de um canal direto de comunicação com a polícia para responder a eventos futuros com maior agilidade.

Familiares de uma das vítimas, uma menina que ficou gravemente ferida no tiroteio, entraram com uma ação judicial contra a OpenAI por negligência. Eles alegam que a empresa tinha conhecimento dos planos da atiradora para um ataque em massa, mas não tomou medidas preventivas.

Altman reafirmou o compromisso da OpenAI em colaborar com governos para evitar reincidências. “Nosso foco continuará sendo trabalhar com todos os níveis de governo para garantir que algo assim nunca aconteça novamente”, disse na carta.

O episódio levanta discussões sobre os limites e responsabilidades das plataformas de inteligência artificial no monitoramento e prevenção de conteúdos violentos, além do papel das empresas na comunicação com autoridades para proteger comunidades.

Palavras-chave relacionadas: Sam Altman, OpenAI, ChatGPT, tiroteio em massa, Tumbler Ridge, ataque a tiros, moderação de conteúdo, segurança digital, denúncia de violência, processo judicial, Colúmbia Britânica, sistemas automatizados, responsabilidade de plataformas, colaboração com autoridades.

Fonte: g1.globo.com

Imagem: s2-g1.glbimg.com


Fonte: g1.globo.com

Sair da versão mobile