Sam Altman, ex-CEO da OpenAI, pediu desculpas à cidade canadense de Tumbler Ridge por não ter alertado a polícia sobre conteúdos preocupantes gerados por uma usuária do ChatGPT que, em fevereiro, matou oito pessoas em um ataque. Em carta divulgada em 24 de abril, Altman afirmou “estar profundamente arrependido” pela falha em comunicar as autoridades.
No dia 10 de fevereiro, uma mulher transgênero de 18 anos matou a mãe e o meio-irmão em casa, depois foi a uma escola secundária local e abriu fogo contra alunos e um professor, que também morreram. Ela então tirou a própria vida. Entre as vítimas, estavam cinco crianças, um professor e familiares da autora do ataque.
A OpenAI identificou a conta da suspeita em junho do ano anterior, banindo-a do ChatGPT após detectar conteúdos que violavam as regras de uso da plataforma. Apesar disso, a empresa não informou a polícia canadense, alegando que a atividade da usuária não justificava um alerta formal às autoridades.
O primeiro-ministro da província da Colúmbia Britânica, David Eby, classificou o pedido de desculpas como “necessário, e ainda assim grosseiramente insuficiente”. Ele ressaltou que a resposta da OpenAI não foi adequada para a gravidade dos acontecimentos.
Segundo Altman, o atraso no pedido de desculpas ocorreu para respeitar o período de luto da comunidade de Tumbler Ridge. Ao mesmo tempo, ele afirmou que a empresa está comprometida em colaborar com governos para evitar que tragédias semelhantes ocorram no futuro.
A OpenAI informou que utiliza sistemas automatizados de moderação que monitoram conteúdos em tempo real. Esses sistemas podem banir contas por violações que incluem exploração sexual, promoção de violência, apoio ao suicídio e automutilação. Em casos de risco elevado, o sistema encaminha os dados para revisão humana e pode encaminhar informações às autoridades policiais.
Após o ataque, autoridades canadenses contataram a equipe de segurança da OpenAI e ameaçaram adotar medidas regulatórias caso a empresa não revisasse suas políticas de segurança. Em resposta, a OpenAI anunciou o fortalecimento de suas práticas de monitoramento e criou um canal de comunicação direta com a polícia.
Família de uma das vítimas entrou com uma ação judicial contra a OpenAI por negligência, alegando que a empresa tinha conhecimento dos planos da suspeita e falhou em agir para evitar o ataque. Eles afirmam que a empresa “não adotou nenhuma medida” após identificar o risco.
O caso levanta questionamentos sobre a responsabilidade das plataformas de inteligência artificial em monitorar e reportar conteúdos que possam indicar riscos reais à segurança pública. A OpenAI reforçou seu compromisso em aprimorar seus sistemas de detecção e cooperação com as autoridades.
Palavras-chave relacionadas: Sam Altman, OpenAI, ChatGPT, tiroteio em massa, Tumbler Ridge, Colúmbia Britânica, ataque em escola, moderação de conteúdo, responsabilidade digital, denúncia de violência, segurança pública, inteligência artificial.
Fonte: g1.globo.com
Imagem: s2-g1.glbimg.com
Fonte: g1.globo.com
