Sam Altman, CEO da OpenAI, pediu desculpas à cidade canadense de Tumbler Ridge por não ter alertado a polícia sobre conteúdos preocupantes de uma ex-usuária do ChatGPT antes de ela cometer um ataque que matou oito pessoas em fevereiro. A empresa identificou e baniu a conta da suspeita oito meses antes, mas não fez o reporte às autoridades.
No dia 10 de fevereiro, uma mulher transgênero de 18 anos matou a mãe e o meio-irmão em casa e, em seguida, abriu fogo numa escola secundária, matando cinco crianças e um professor antes de tirar a própria vida. A OpenAI confirmou ter banido a conta da suspeita em junho do ano anterior, após detectar conteúdos preocupantes por meio de seus sistemas automatizados.
Sam Altman afirmou estar “profundamente arrependido” por não ter comunicado o caso às autoridades policiais no momento do banimento. Ele justificou o atraso no pedido formal de desculpas para respeitar o luto da comunidade de Tumbler Ridge. O primeiro-ministro da Colúmbia Britânica, David Eby, chamou o pedido de “necessário, e ainda assim grosseiramente insuficiente”.
A OpenAI usa sistemas automáticos de monitoramento para identificar e banir conteúdos que violem suas regras, incluindo promoção de violência, suicídio e automutilação. Quando a ameaça é considerada grave, os casos são encaminhados para revisão humana, podendo resultar em compartilhamento de informações com as autoridades.
Após o ataque, autoridades canadenses requereram uma resposta da OpenAI, ameaçando ações regulatórias caso as medidas de segurança não fossem reforçadas. Em resposta, a empresa anunciou a criação de um canal de comunicação direta com a polícia e o fortalecimento das suas políticas internas.
Em sua carta, Altman reafirmou o compromisso da OpenAI em trabalhar com o governo para prevenir futuras tragédias. Ele destacou que a empresa busca melhorar a identificação precoce de ameaças e a cooperação com as autoridades.
A família de uma menina ferida no ataque entrou com uma ação judicial contra a OpenAI, alegando negligência. Segundo o processo, a empresa teria conhecimento do plano da atacante para um “evento com mortes em massa” e não teria tomado providências adequadas para impedir o ataque.
A discussão sobre a responsabilidade das empresas de tecnologia em monitorar e denunciar conteúdos de risco ganha destaque após o caso. O uso de inteligência artificial para identificar violência e potencial ameaça será tema central nos ajustes regulatórios exigidos por governos, como o do Canadá.
O episódio coloca em evidência a complexidade do equilíbrio entre proteção da privacidade dos usuários e a segurança pública. A OpenAI enfrenta agora a necessidade de aprimorar suas políticas para evitar falhas que possam resultar em danos graves.
O diálogo entre setores público e privado sobre a regulamentação do uso de inteligência artificial deve avançar para minimizar riscos e responsabilizar agentes quando suas ferramentas forem usadas para causar violência.
—
Palavras-chave: Sam Altman, OpenAI, ChatGPT, tiroteio em massa, Tumbler Ridge, Canadá, polícia, segurança, moderação automática, responsabilidade, tecnologia, ação judicial, prevenção, inteligência artificial.
Fonte: g1.globo.com
Imagem: s2-g1.glbimg.com
Fonte: g1.globo.com
