Sam Altman, CEO da OpenAI, pediu desculpas à cidade canadense de Tumbler Ridge por não ter comunicado a polícia sobre conteúdos preocupantes gerados por uma usuária do ChatGPT, que cometeu um ataque que matou oito pessoas em fevereiro deste ano.
Em 10 de fevereiro, uma mulher transgênero de 18 anos matou a mãe e o meio-irmão em casa, antes de abrir fogo em uma escola local, onde matou cinco crianças e um professor, e depois tirou a própria vida. A OpenAI revelou que havia banido a usuária do ChatGPT oito meses antes da tragédia, após identificar atividades preocupantes em sua conta em junho.
Altman afirmou estar “profundamente arrependido” por não ter alertado as autoridades policiais sobre o caso na época do banimento. Ele enviou uma carta ao primeiro-ministro da Colúmbia Britânica, David Eby, explicando que o pedido de desculpas foi feito com atraso para respeitar o período de luto da comunidade de Tumbler Ridge.
O primeiro-ministro David Eby classificou o pedido como “necessário, e ainda assim grosseiramente insuficiente”, ressaltando a gravidade do ocorrido e a resposta da empresa. Após o ataque, autoridades canadenses pressionaram a OpenAI a reforçar seus protocolos de segurança e criaram um canal direto de comunicação entre a empresa e a polícia local.
A OpenAI utiliza sistemas automatizados para monitorar conteúdos gerados no ChatGPT, buscando detectar violações que incluam violência, automutilação e exploração sexual. Em casos considerados de alto risco, os sistemas sinalizam as ocorrências para revisão humana e, se necessário, informações são repassadas às autoridades competentes.
Segundo Altman, a OpenAI está comprometida em colaborar com governos para evitar futuros incidentes semelhantes. A empresa informou que irá intensificar as medidas de segurança e melhorar o diálogo com órgãos de segurança pública para prevenir atos violentos.
A família de uma vítima ferida no tiroteio entrou com uma ação judicial alegando negligência por parte da OpenAI. Eles afirmam que a empresa tinha conhecimento dos planos da atiradora para um “evento com mortes em massa” e não tomou providências eficazes para impedir o ataque.
O caso levanta questões sobre a responsabilidade das empresas de tecnologia na moderação de conteúdos e na comunicação de riscos às autoridades. A discussão sobre regulamentações específicas para inteligência artificial e sistemas automatizados de detecção de ameaças deverá ser intensificada nos próximos meses.
Palavras-chave relacionadas para SEO: Sam Altman, OpenAI, ChatGPT, tiroteio em massa, Tumbler Ridge, violência, moderação de conteúdo, inteligência artificial, segurança digital, ação judicial, Colúmbia Britânica, alerta policial.
Fonte: g1.globo.com
Imagem: s2-g1.glbimg.com
Fonte: g1.globo.com
