Tecnologia

Sam Altman, CEO da OpenAI, pediu desculpas à cidade canadens

  • Publishedabril 27, 2026

Sam Altman, CEO da OpenAI, pediu desculpas à cidade canadense de Tumbler Ridge pela falta de alerta à polícia sobre conteúdos preocupantes compartilhados por uma usuária do ChatGPT que, em fevereiro, matou oito pessoas em um ataque a tiros. A empresa havia identificado e banido a conta da suspeita oito meses antes do crime, mas não acionou as autoridades.

Em 10 de fevereiro, uma mulher transgênero de 18 anos matou a mãe e o meio-irmão em casa. Depois, ela foi a uma escola local, onde atirou em cinco crianças e um professor antes de cometer suicídio. A OpenAI afirmou que a conta da suspeita foi suspensa em junho do ano anterior por violações às regras do chatbot.

Sam Altman declarou estar “profundamente arrependido” por não ter informado a polícia em 2023. Ele justificou o atraso no pedido de desculpas para respeitar o luto da comunidade de Tumbler Ridge. O primeiro-ministro da Colúmbia Britânica, David Eby, classificou a resposta da OpenAI como “necessária, e ainda assim grosseiramente insuficiente”.

A OpenAI usa sistemas automatizados que monitoram conteúdos em tempo real e podem banir usuários que violam regras, como promover violência ou autoagressão. Em casos graves, as violações são revisadas por pessoas, e a empresa pode informar autoridades se detectar ameaças credíveis.

Após o ataque, as autoridades canadenses solicitaram revisão das práticas de segurança da OpenAI e ameaçaram aplicar medidas regulatórias caso não houvesse melhorias. A empresa afirmou que reforçará suas políticas e criou um canal direto com a polícia para facilitar comunicação futura.

Em carta enviada a David Eby, Altman afirmou que a OpenAI está comprometida em trabalhar com governos para evitar tragédias semelhantes no futuro. A empresa pretende fortalecer seus mecanismos para identificar e reportar riscos reais de violência.

A família de uma menina que ficou gravemente ferida no ataque entrou com uma ação judicial contra a OpenAI por negligência. Eles alegam que a empresa sabia do planejamento do ataque, mas não tomou nenhuma medida para evitar o massacre.

A situação destaca desafios no uso de inteligência artificial para monitorar e prevenir comportamentos violentos, especialmente em plataformas com ampla base de usuários. O caso suscita debates sobre responsabilidade das empresas de tecnologia na segurança pública e na proteção contra ameaças.

A OpenAI enfrenta pressão para ajustar suas políticas internas e garantir respostas mais eficazes a sinais de alerta detectados por seus sistemas de moderação. A investigação e o processo judicial devem acompanhar medidas regulatórias no setor de IA e sistemas automatizados.

Palavras-chave relacionadas para SEO: Sam Altman, OpenAI, ChatGPT, tiroteio em massa, Tumbler Ridge, policiamento digital, moderação de conteúdo, inteligência artificial, denúncia de violência, ação judicial, segurança pública, Colúmbia Britânica, responsabilidade tecnológica.

Fonte: g1.globo.com

Imagem: s2-g1.glbimg.com


Fonte: g1.globo.com

Written By
Caio Marcio

Leave a Reply