Sam Altman, ex-CEO da OpenAI, pediu desculpas à cidade canadense de Tumbler Ridge por não ter alertado a polícia sobre conteúdos preocupantes de uma ex-usuária do ChatGPT, que em fevereiro cometeu um ataque a tiros e matou oito pessoas. A ação da empresa ocorreu após a usuária ser banida da plataforma oito meses antes da tragédia.
Em 10 de fevereiro, uma mulher transgênero de 18 anos matou a mãe e o meio-irmão em casa, depois atirou em uma escola secundária local, onde tirou a vida de cinco alunos e um professor antes de cometer suicídio. A OpenAI identificou a conta da suspeita em junho do ano anterior por meio de seus sistemas de detecção de abuso e tomou a decisão de bani-la da plataforma.
A empresa não comunicou as autoridades canadenses sobre a conta banida na época alegando que a atividade não era grave o suficiente para justificar um alerta policial. Em carta enviada ao primeiro-ministro da Colúmbia Britânica, David Eby, e divulgada em 24 de abril, Altman afirmou estar “profundamente arrependido” pela falha da empresa em informar as autoridades.
O primeiro-ministro David Eby classificou o pedido de desculpas como “necessário, e ainda assim grosseiramente insuficiente”. Ele destacou a importância de medidas mais efetivas para evitar ocorrências semelhantes no futuro. Altman explicou que o atraso no pedido ocorreu para respeitar o luto da comunidade de Tumbler Ridge.
A OpenAI utiliza sistemas automatizados que monitoram em tempo real conteúdos enviados no ChatGPT, podendo restringir ou banir contas que violem suas regras, incluindo exploração sexual, incentivo à automutilação, suicídio e promoção de violência. Em casos considerados graves, o sistema sinaliza as contas para revisão humana e pode compartilhar informações relevantes com as autoridades.
Após o ataque, autoridades canadenses reuniram-se com a equipe de segurança da OpenAI e ameaçaram implementar medidas regulatórias caso a empresa não reforçasse seus controles. Em resposta, a OpenAI afirmou que criou um canal direto de comunicação com a polícia e pretende intensificar as medidas de segurança.
Altman declarou que a empresa está comprometida em colaborar com governos para evitar tragédias futuras. “Nosso foco continuará sendo trabalhar com todos os níveis de governo para ajudar a garantir que algo assim nunca aconteça novamente”, afirmou na carta.
Ainda relacionada ao caso, a família de uma menina que ficou gravemente ferida durante o tiroteio entrou com uma ação judicial contra a OpenAI. Eles alegam que a empresa tinha conhecimento do plano da atiradora para um “evento com mortes em massa” e não tomou providências para impedir o ataque.
A tragédia em Tumbler Ridge reacende o debate sobre a responsabilidade das plataformas de inteligência artificial no monitoramento e prevenção de comportamentos violentos, assim como sobre os limites da atuação de empresas que controlam esses sistemas.
—
Palavras-chave relacionadas: Sam Altman, OpenAI, ChatGPT, tiroteio em massa, Tumbler Ridge, Colúmbia Britânica, ataque a tiros, monitoramento de IA, segurança digital, responsabilidade social, moderação de conteúdo, ação judicial, prevenção de violência.
Fonte: g1.globo.com
Imagem: s2-g1.glbimg.com
Fonte: g1.globo.com
