Sam Altman, CEO da OpenAI, pediu desculpas à cidade canadense de Tumbler Ridge por não ter alertado a polícia sobre conteúdos preocupantes relacionados a uma usuária do ChatGPT que, em fevereiro, matou oito pessoas em um ataque a tiros. O pedido de desculpas foi feito em carta divulgada em 24 de abril, mais de dois meses após a tragédia.
Em 10 de fevereiro, uma mulher transgênero de 18 anos matou a mãe e o meio-irmão em casa, depois foi até uma escola secundária e atirou contra alunos e um professor, matando seis pessoas no local antes de tirar a própria vida. A suspeita havia sido banida do ChatGPT oito meses antes do ataque, em junho do ano passado, por violações às regras da plataforma.
A OpenAI identificou a conta da suspeita por meio de seus sistemas automáticos de detecção de abuso e decidiu banir a usuária sem notificar as autoridades policiais. A justificativa da empresa foi que as atividades registradas não configuravam ameaça grave o suficiente para requerer comunicação formal às forças de segurança.
Sam Altman afirmou estar “profundamente arrependido” por não ter informado a polícia naquela ocasião e justificou o atraso no pedido de desculpas para respeitar o luto da comunidade de Tumbler Ridge. Ele ressaltou o compromisso da OpenAI em trabalhar com governos para prevenir eventos semelhantes no futuro.
O primeiro-ministro da Colúmbia Britânica, David Eby, considerou o pedido de desculpas “necessário, e ainda assim grosseiramente insuficiente”. Autoridades canadenses convocaram a equipe de segurança da OpenAI após o ataque e indicaram que podem adotar medidas regulatórias caso a empresa não implemente mudanças nas suas políticas de monitoramento.
A OpenAI usa sistemas automatizados que analisam conteúdos publicados no ChatGPT em tempo real, restringindo contas por violações como promoção de violência, automutilação e suicídio. Em situações de risco grave, os casos são encaminhados para revisão humana, podendo ser compartilhados com autoridades policiais.
Depois do ataque, a empresa informou que reforçaria suas medidas de segurança e criou um canal de contato direto com a polícia local. Enquanto isso, a família de uma menina que ficou gravemente ferida no tiroteio ajuizou uma ação judicial alegando negligência da OpenAI, afirmando que a empresa tinha conhecimento dos planos da atiradora para um “evento com mortes em massa” e não tomou providências.
O caso traz à tona o desafio das empresas de tecnologia em lidar com conteúdos potencialmente perigosos e a responsabilidade no monitoramento de atos que podem resultar em violência. Embora sistemas automatizados possam detectar comportamentos de risco, o debate sobre quando e como acionar as autoridades segue em pauta.
A OpenAI reforça o compromisso público de intensificar a cooperação com órgãos governamentais para evitar desdobramentos semelhantes e aprimorar seus protocolos internos. O episódio em Tumbler Ridge destaca a complexidade do acompanhamento e intervenção em plataformas digitais diante de possíveis ameaças reais.
Palavras-chave relacionadas: OpenAI, Sam Altman, ChatGPT, tiroteio em massa, Tumbler Ridge, Colúmbia Britânica, ataque a tiros, segurança digital, monitoramento de conteúdo, responsabilidade social, sistemas de moderação, ação judicial, tecnologia e violência.
Fonte: g1.globo.com
Imagem: s2-g1.glbimg.com
Fonte: g1.globo.com
