O CEO da OpenAI, Sam Altman, pediu desculpas à cidade canadense de Tumbler Ridge por não ter alertado a polícia sobre conteúdos preocupantes compartilhados por uma usuária do ChatGPT, que em fevereiro cometeu um ataque a tiros e matou oito pessoas. O pedido ocorreu em carta enviada ao primeiro-ministro da Colúmbia Britânica, David Eby, divulgada em 24 de abril.
Em 10 de fevereiro, uma mulher transgênero de 18 anos matou a mãe e um meio-irmão em casa, depois abriu fogo em uma escola secundária local, onde matou cinco crianças e um professor antes de tirar a própria vida. A OpenAI identificou a conta da suspeita e a baniu do ChatGPT em junho do ano anterior, oito meses antes do ataque.
A empresa não avisou as autoridades à época porque considerou que a atividade da usuária não apresentava gravidade suficiente para justificar um repasse oficial. Altman declarou estar “profundamente arrependido” por essa decisão e afirmou que o pedido de desculpas visa reconhecer o dano e a perda irreversível sofridos pela comunidade de Tumbler Ridge.
Altman justificou o atraso no pedido de desculpas afirmando que a empresa procurou respeitar o período de luto da população local. O primeiro-ministro David Eby classificou a retratação como “necessária, e ainda assim grosseiramente insuficiente”.
A OpenAI utiliza sistemas automatizados de moderação para analisar conteúdos do ChatGPT em tempo real. Perfis podem ser restritos ou banidos por violar regras relacionadas a exploração sexual, promoção de violência, apoio à automutilação e ao suicídio. Em situações consideradas graves, o sistema sinaliza casos para revisão humana e pode compartilhar dados com as autoridades.
Após o ataque, autoridades canadenses convocaram a equipe de segurança da OpenAI e ameaçaram ações regulatórias caso não houvesse aumento nas medidas de controle. Em resposta, a empresa anunciou o fortalecimento das suas políticas de segurança e a criação de um canal de comunicação direta com a polícia local.
Na carta, Altman afirmou que a OpenAI trabalha para evitar que tragédias similares aconteçam no futuro e pretende colaborar com governos em diferentes níveis para esse fim. Ele reforçou o compromisso da empresa em aperfeiçoar seus mecanismos de detecção de riscos.
A família de uma menina que foi gravemente ferida no ataque abriu uma ação judicial contra a OpenAI por negligência. Eles alegam que a empresa tinha conhecimento dos planos da atiradora para um “evento com mortes em massa” e não tomou medidas para impedir o incidente.
O caso trouxe à tona o debate sobre a responsabilidade das plataformas de inteligência artificial na prevenção de crimes e a efetividade dos sistemas automatizados de moderação em detectar ameaças reais.
—
**Palavras-chave relacionadas:** OpenAI, Sam Altman, ChatGPT, tiroteio em massa, Tumbler Ridge, moderação de conteúdo, responsabilidade de IA, segurança digital, ataque a tiros, negligência, legislação de tecnologia, inteligência artificial.
Fonte: g1.globo.com
Imagem: s2-g1.glbimg.com
Fonte: g1.globo.com
