O ex-CEO da OpenAI, Sam Altman, pediu desculpas à cidade
O ex-CEO da OpenAI, Sam Altman, pediu desculpas à cidade canadense de Tumbler Ridge por não ter alertado a polícia sobre conteúdos preocupantes gerados por uma usuária do ChatGPT, envolvida em um ataque que matou oito pessoas em fevereiro. O pedido foi feito em carta divulgada em 24 de abril, após a repercussão do incidente ocorrido no dia 10 de fevereiro, quando uma mulher transgênero de 18 anos matou familiares em casa, feriu uma escola e se suicidou.
Altman afirmou estar “profundamente arrependido” por a empresa ter banido a conta da suspeita oito meses antes do ataque, sem comunicar as autoridades policiais. Na carta enviada ao primeiro-ministro da Colúmbia Britânica, David Eby, o executivo explicou que a decisão de não reportar a conta se baseou na avaliação de que o conteúdo não era grave o suficiente para justificar a notificação à polícia.
No ataque, a atiradora matou a mãe, o meio-irmão, cinco crianças e um professor na escola local antes de tirar a própria vida. Após o evento, a OpenAI informou que o sistema de detecção de abuso identificou a usuária e a baniu do ChatGPT em junho do ano anterior. A empresa disse usar ferramentas automatizadas para monitorar conteúdos com potencial risco, incluindo sinais de violência, automutilação e suicídio.
As autoridades canadenses pressionaram a OpenAI para que adotasse medidas mais rigorosas, ameaçando ações regulatórias. A empresa respondeu que fortaleceria seus mecanismos de segurança e abriria um canal direto de comunicação com a polícia. Em sua carta, Altman ressaltou o compromisso da OpenAI em trabalhar com governos para evitar que tragédias semelhantes se repitam.
A resposta do governo provincial foi crítica. O primeiro-ministro David Eby chamou o pedido de desculpas de “necessário, e ainda assim grosseiramente insuficiente”. Segundo ele, a empresa deveria ter agido de forma mais proativa para evitar o massacre.
Familiares de uma menina que ficou gravemente ferida no tiroteio entraram com uma ação judicial por negligência contra a OpenAI, alegando que a empresa tinha conhecimento do plano de “evento com mortes em massa” e não adotou medidas preventivas.
O sistema da OpenAI monitora conteúdos e pode restringir ou banir contas que violem regras, como incentivo à violência ou apoio ao suicídio. Em casos considerados graves, informações podem ser compartilhadas com autoridades policiais. No entanto, no caso de Tumbler Ridge, essa etapa não foi acionada.
O episódio destaca desafios no uso de tecnologias de inteligência artificial para identificar e prevenir comportamentos de risco. A OpenAI segue revisando seus processos em resposta às demandas legais e sociais relativas à segurança e supervisão do ChatGPT.
Palavras-chave relacionadas para SEO:
OpenAI
Sam Altman
Tumbler Ridge
ChatGPT
tiroteio em massa
inteligência artificial
segurança digital
moderação de conteúdo
Colúmbia Britânica
ação judicial por negligência
Fonte: g1.globo.com
Imagem: s2-g1.glbimg.com
Fonte: g1.globo.com