Sam Altman, CEO da OpenAI, pediu desculpas à cidade canadense de Tumbler Ridge pela não comunicação à polícia de conteúdos preocupantes gerados por uma usuária do ChatGPT que cometeu um ataque com morte de oito pessoas em fevereiro de 2024. Ele afirmou estar “profundamente arrependido” pelo fato de a empresa não ter alertado as autoridades sobre a conta da suspeita.
Em 10 de fevereiro, uma mulher transgênero de 18 anos matou a mãe e o meio-irmão em casa antes de abrir fogo em uma escola local, onde matou cinco crianças, um professor e depois tirou a própria vida. A OpenAI identificou a conta da atiradora por sistemas automatizados de detecção de abuso em junho de 2023 e baniu a usuária do ChatGPT oito meses antes da tragédia.
A empresa justificou não ter reportado o caso à polícia na época por entender que a atividade não configurava um risco grave suficiente para encaminhamento às autoridades. Altman enviou uma carta ao primeiro-ministro da Colúmbia Britânica, David Eby, afirmando que o pedido de desculpas, embora tardio, é necessário para reconhecer o dano à comunidade de Tumbler Ridge.
O primeiro-ministro canadense considerou o pedido “necessário, e ainda assim grosseiramente insuficiente”. Ele expressou preocupação com a atuação da OpenAI diante dos sinais apresentados pela usuária antes dos ataques.
A OpenAI utiliza sistemas automatizados que monitoram conteúdos em tempo real e podem restringir ou banir contas por violação das regras, incluindo promoção de violência, apoio ao suicídio e automutilação. Em situações de alto risco, as informações são encaminhadas para revisão humana e, se identificada ameaça crível, os dados podem ser compartilhados com a polícia.
Após o ataque, autoridades canadenses convocaram a equipe de segurança da OpenAI e ameaçaram medidas regulatórias caso as práticas de segurança não fossem aprimoradas. Em resposta, a empresa reforçou que instalou um canal direto de comunicação com as forças policiais e se comprometeu a melhorar os protocolos para evitar incidentes futuros.
Altman declarou que a OpenAI está empenhada em colaborar com governos para prevenir novas tragédias. “Nosso foco continuará sendo trabalhar com todos os níveis de governo para ajudar a garantir que algo assim nunca aconteça novamente”, afirmou.
Uma família de uma menina gravemente ferida no ataque entrou com ação judicial contra a OpenAI por negligência, alegando que a empresa tinha conhecimento dos planos da atiradora para um “evento com mortes em massa” e não adotou medidas preventivas.
O caso levanta questões sobre a responsabilidade das empresas de inteligência artificial na prevenção de crimes e o limite entre privacidade, moderação e segurança pública.
—
Palavras-chave relacionadas: OpenAI, Sam Altman, ChatGPT, tiroteio em massa, Tumbler Ridge, segurança digital, moderação de conteúdo, responsabilidade de IA, ação judicial, Colúmbia Britânica, ataquede arma de fogo, inteligência artificial e segurança.
Fonte: g1.globo.com
Imagem: s2-g1.glbimg.com
Fonte: g1.globo.com
