O CEO da OpenAI, Sam Altman, pediu desculpas à cidade

O CEO da OpenAI, Sam Altman, pediu desculpas à cidade de Tumbler Ridge, no Canadá, por não ter alertado a polícia sobre sinais preocupantes detectados em uma conta do ChatGPT usada por uma suspeita de tiroteio em massa que matou oito pessoas em fevereiro. O pedido foi feito em carta enviada ao primeiro-ministro da Colúmbia Britânica, David Eby, nesta sexta-feira (24).

Em 10 de fevereiro, uma jovem transgênero de 18 anos matou a mãe e o meio-irmão em casa e depois atacou uma escola local, causando a morte de cinco crianças e um professor antes de tirar a própria vida. A OpenAI identificou a conta da suspeita em junho do ano anterior, quando ela foi banida por violar regras do chatbot, mas não comunicou a polícia porque considerou que as violações não justificavam um alerta às autoridades.

Altman afirmou estar “profundamente arrependido” por não ter informado a polícia sobre os conteúdos preocupantes. Ele explicou que o pedido de desculpas foi feito com atraso para respeitar o período de luto da comunidade afetada. O primeiro-ministro David Eby classificou a declaração de Altman como “necessária, e ainda assim grosseiramente insuficiente”.

A OpenAI utiliza sistemas automatizados de moderação para identificar atividades que possam indicar risco, incluindo conteúdos que envolvam violência, automutilação ou suicídio. Em casos de ameaças avaliadas como críveis, os dados são revisados por equipes humanas e podem ser compartilhados com as autoridades. A empresa afirmou que possui um canal direto com a polícia desde o ocorrido e prometeu reforçar suas medidas de segurança.

Após o ataque, autoridades canadenses convocaram a equipe de segurança da OpenAI e ameaçaram aplicar ações regulatórias caso as mudanças solicitadas não fossem implementadas. A OpenAI declarou estar empenhada em colaborar com governos para evitar que casos similares se repitam.

A família de uma menina gravemente ferida no ataque entrou com uma ação por negligência contra a OpenAI, alegando que a empresa tinha conhecimento de um plano para um “evento com mortes em massa” e não tomou providências para impedir a tragédia.

A controvérsia ressalta desafios relacionados ao monitoramento e à responsabilização de tecnologias de inteligência artificial diante de riscos de segurança pública. Altman destacou que a prioridade da empresa é trabalhar em conjunto com autoridades para garantir que situações como essa não se repitam.

Palavras-chave relacionadas: OpenAI, Sam Altman, ChatGPT, tiroteio em massa, Tumbler Ridge, Colúmbia Britânica, pedido de desculpas, moderação de conteúdo, responsabilidade de IA, segurança pública, ação judicial, negligência, inteligência artificial, violência, tecnologia.

Fonte: g1.globo.com

Imagem: s2-g1.glbimg.com


Fonte: g1.globo.com

Sair da versão mobile