Sam Altman, CEO da OpenAI, pediu desculpas à cidade canadense de Tumbler Ridge por não ter avisado a polícia sobre conteúdos preocupantes de uma usuária do ChatGPT antes dela cometer um ataque que matou oito pessoas em fevereiro. A justificativa da empresa é que o comportamento detectado não era grave o suficiente para justificar a comunicação às autoridades na época.
No dia 10 de fevereiro, uma mulher transgênero de 18 anos matou a mãe e o meio-irmão em casa antes de atirar em uma escola local, onde matou cinco estudantes e um professor. Após o ataque, ela tirou a própria vida. A OpenAI identificou a conta da suspeita por meio de seus sistemas automatizados de detecção de abuso e a baniu do ChatGPT em junho do ano anterior, oito meses antes do crime.
A empresa afirmou que suas políticas envolvem sistemas que monitoram conteúdos em tempo real e restringem ou banem contas que violem regras contra exploração sexual, automutilação, suicídio e promoção de violência. Em casos considerados de alto risco, as informações podem ser compartilhadas com a polícia. No entanto, a OpenAI decidiu não comunicar o caso às autoridades canadenses por entender que o comportamento não cumpria esse critério.
Após a tragédia, as autoridades da Colúmbia Britânica exigiram mudanças da empresa e afirmaram que poderiam tomar medidas regulatórias. A OpenAI anunciou o fortalecimento de suas medidas de segurança e criou um canal de comunicação direta com a polícia local.
Sam Altman enviou uma carta ao primeiro-ministro da província, David Eby, em que diz estar “profundamente arrependido” pela falta de alerta à polícia, reconhecendo o impacto da tragédia. O primeiro-ministro classificou o pedido de desculpas como “necessário, e ainda assim grosseiramente insuficiente”.
A OpenAI afirmou que seguirá trabalhando com governos para evitar situações semelhantes no futuro, enquanto uma família de uma das vítimas feridas no tiroteio entrou com processo judicial contra a empresa, alegando negligência e conhecimento prévio sobre o potencial ataque.
Este caso levanta questões sobre a responsabilidade de plataformas digitais quanto à vigilância de conteúdos potencialmente perigosos e a comunicação com autoridades, especialmente em situações que envolvem ameaças à segurança pública. A discussão sobre os limites e protocolos para o monitoramento automatizado de usuários segue em pauta no Canadá e globalmente.
Palavras-chave relacionadas: Sam Altman, OpenAI, ChatGPT, tiroteio em massa, Tumbler Ridge, Colúmbia Britânica, segurança digital, moderação de conteúdo, responsabilidade tecnológica, sistema de denúncia, ataque a tiros, legislação de tecnologia.
Fonte: g1.globo.com
Imagem: s2-g1.glbimg.com
Fonte: g1.globo.com
