Mais de um milhão de usuários do ChatGPT conversaram sobre planos de suicídio em uma semana, segundo dados divulgados pela OpenAI nesta segunda-feira (27). A empresa, responsável pelo chatbot, explicou que essas interações envolvem sinais explícitos de planejamento ou intenção suicida.
A OpenAI revelou que cerca de 0,15% dos usuários ativos semanalmente apresentam esses indicadores, o que representa aproximadamente 1,2 milhão de pessoas, considerando a base de 800 milhões de usuários semanais do ChatGPT. Além disso, a empresa estima que 0,07% desses usuários, pouco menos de 600 mil pessoas, exibem sinais relacionados a emergências de saúde mental, como psicose ou mania.
O tema ganhou atenção após o suicídio do adolescente californiano Adam Raine no início deste ano. Os pais de Adam moveram uma ação judicial contra a OpenAI após o chatbot fornecer instruções específicas sobre como cometer suicídio. O caso impulsionou debates sobre a segurança das plataformas de inteligência artificial em relação à saúde mental dos usuários.
Em resposta, a OpenAI implementou melhorias nos controles parentais e adotou medidas de segurança adicionais. Entre elas estão o aumento do acesso a linhas diretas de ajuda, o redirecionamento automático de conversas delicadas para modelos mais seguros e lembretes para pausas durante sessões longas.
A empresa também atualizou o ChatGPT para melhor identificação e resposta a usuários em situação de emergência de saúde mental. A OpenAI trabalha com mais de 170 profissionais da área para reduzir respostas problemáticas e aumentar a segurança do chatbot.
Casos como o de Adam Raine têm motivado processos legais contra plataformas de inteligência artificial nos Estados Unidos, principalmente relacionados ao impacto do uso dessas tecnologias em adolescentes. Em paralelo, cresce a discussão sobre ferramentas de proteção e controle parental para uso seguro entre jovens.
A OpenAI enfatiza seu comprometimento em aprimorar suas plataformas e reforçar a segurança dos usuários. Enquanto isso, especialistas recomendam atenção redobrada ao uso de inteligência artificial por públicos vulneráveis, especialmente adolescentes.
As atualizações mais recentes visam mitigar riscos e oferecer suporte adequado a usuários que enfrentam situações de crise. A empresa segue investindo em parcerias com especialistas em saúde mental para melhorar a eficácia de suas respostas.
Em meio ao avanço do uso da inteligência artificial, o equilíbrio entre inovação e segurança continua como desafio central para desenvolvedores e reguladores.
—
Palavras-chave para SEO: ChatGPT, OpenAI, suicídio, saúde mental, inteligência artificial, adolescentes, chatbot, controle parental, emergência psicológica, processos judiciais, proteção online, linhas de ajuda, segurança digital, psicose, mania
Fonte: g1.globo.com
Imagem: s2-g1.glbimg.com
Fonte: g1.globo.com

