O CEO da OpenAI, Sam Altman, pediu desculpas à cidade

O CEO da OpenAI, Sam Altman, pediu desculpas à cidade canadense de Tumbler Ridge por não ter alertado a polícia sobre conteúdos preocupantes gerados por uma ex-usuária do ChatGPT que matou oito pessoas em fevereiro. O pedido foi feito em carta divulgada no dia 24 de abril, mais de dois meses após o ataque.

Em 10 de fevereiro, uma mulher transgênero de 18 anos matou a mãe e o meio-irmão em casa antes de abrir fogo em uma escola secundária local. O ataque resultou na morte de cinco crianças e um professor, além do suicídio da atiradora.

A OpenAI identificou a conta da suspeita e a baniu do ChatGPT em junho do ano anterior, oito meses antes do massacre. A empresa afirmou que não reportou o caso às autoridades na época porque a atividade detectada não foi considerada grave o suficiente para justificar denúncia.

Sam Altman declarou estar “profundamente arrependido” por não ter comunicado a polícia canadense sobre a conta banida. Ele também justificou o atraso no pedido de desculpas para respeitar o período de luto dos moradores de Tumbler Ridge.

O primeiro-ministro da Colúmbia Britânica, David Eby, qualificou o pedido de desculpas como “necessário, e ainda assim grosseiramente insuficiente”. Ele expressou críticas em relação à resposta da OpenAI diante do ocorrido.

A OpenAI utiliza sistemas automatizados de moderação que analisam conteúdos em tempo real para identificar comportamentos que violam regras, como apoio à violência, automutilação e suicídio. Em casos de alto risco, os sistemas sinalizam para revisão humana e podem encaminhar dados das contas às autoridades policiais.

Após o tiroteio, autoridades canadenses convocaram a equipe de segurança da OpenAI e advertiram sobre possíveis medidas regulatórias caso as práticas de segurança não fossem aprimoradas. A empresa informou que reforçará a segurança e criou um canal de contato direto com a polícia local.

Altman destacou no comunicado que a OpenAI está comprometida em trabalhar com governos para prevenir novos incidentes semelhantes. A empresa afirmou buscar formas de garantir que tragédias como essa não se repitam.

A família de uma das vítimas feridas no ataque entrou com ação judicial por negligência contra a OpenAI. Eles alegam que a empresa tinha conhecimento do plano da atiradora para cometer um “evento com mortes em massa” e, mesmo assim, não tomou medidas preventivas.

Este episódio levantou debates sobre a responsabilidade das plataformas de inteligência artificial na identificação e tratamento de conteúdos que possam indicar risco à segurança pública. O caso em Tumbler Ridge evidencia desafios na comunicação entre empresas de tecnologia e autoridades policiais.

Palavras-chave relacionadas:
OpenAI, Sam Altman, ChatGPT, Tumbler Ridge, tiroteio em massa, segurança digital, moderação de conteúdo, inteligência artificial, responsabilidade civil, Canadá, ataque a tiros

Fonte: g1.globo.com

Imagem: s2-g1.glbimg.com


Fonte: g1.globo.com

Sair da versão mobile