Sam Altman, CEO da OpenAI, pediu desculpas à cidade canadens

Sam Altman, CEO da OpenAI, pediu desculpas à cidade canadense de Tumbler Ridge pela falta de aviso à polícia sobre conteúdos preocupantes gerados por uma usuária do ChatGPT que matou oito pessoas em um ataque em fevereiro.

A mulher transgênero, de 18 anos, matou a mãe e o meio-irmão em casa antes de abrir fogo em uma escola local, onde matou cinco crianças e um professor e se suicidou. Após o ataque, a OpenAI revelou que havia banido a usuária do chatbot em junho, oito meses antes da tragédia, mas não notificou as autoridades, alegando que a atividade não era grave o suficiente para isso.

Em carta divulgada em 24 de abril, Altman manifestou arrependimento por não ter reportado a conta às autoridades. Ele afirmou que o pedido de desculpas foi feito com atraso para respeitar o luto da comunidade afetada. “Embora eu saiba que palavras nunca são suficientes, acredito que um pedido de desculpas é necessário para reconhecer o dano e a perda irreversível que sua comunidade sofreu”, disse.

O primeiro-ministro da Colúmbia Britânica, David Eby, classificou o pedido como “necessário, e ainda assim grosseiramente insuficiente”. Ele e outras autoridades canadenses exigem aprimoramento nos processos de controle da OpenAI para evitar falhas semelhantes.

A empresa informou que utiliza sistemas automatizados de moderação para analisar conteúdos em tempo real no ChatGPT. As contas podem ser limitadas ou banidas em caso de violação das regras, que proíbem exploração sexual, apoio à automutilação e suicídio, além da promoção de violência.

Em situações consideradas graves, os sistemas sinalizam a atividade para revisão humana e, se houver ameaça plausível, os dados podem ser compartilhados com as autoridades policiais. A OpenAI afirmou que irá reforçar suas medidas de segurança e criou um canal direto de comunicação com a polícia.

Após o atentado, as autoridades canadenses convocaram a equipe de segurança da OpenAI e alertaram sobre a possibilidade de ações regulatórias caso não houvesse aprimoramento nos mecanismos de prevenção.

A família de uma menina que ficou gravemente ferida no tiroteio entrou com uma ação judicial contra a OpenAI, alegando negligência da empresa, que teria tido conhecimento dos planos da atiradora para um “evento com mortes em massa” e não adotado medidas para impedir o ataque.

Na carta, Altman afirmou que a empresa está comprometida em trabalhar com governos para evitar que tragédias similares ocorram no futuro. “Daqui para frente, nosso foco continuará sendo trabalhar com todos os níveis de governo para ajudar a garantir que algo assim nunca aconteça novamente”, afirmou.

O caso reforça o debate sobre a responsabilidade das empresas de inteligência artificial na detecção e prevenção de conteúdos perigosos e no encaminhamento de suspeitas às autoridades competentes.

Palavras-chave relacionadas: Sam Altman, OpenAI, ChatGPT, tiroteio em massa, Tumbler Ridge, polícia, moderação de conteúdo, inteligência artificial, segurança digital, ação judicial, prevenção de violência, atacado em escola, Colúmbia Britânica.

Fonte: g1.globo.com

Imagem: s2-g1.glbimg.com


Fonte: g1.globo.com

Sair da versão mobile