A plataforma de inteligência artificial Character.AI anunciou nesta quarta-feira (29) que vai proibir o acesso de usuários menores de 18 anos a partir de 25 de novembro. Até lá, o uso para menores será limitado a duas horas diárias e será reduzido gradualmente, em resposta a processos judiciais relacionados a casos de suicídio de adolescentes.
A decisão da Character.AI ocorre após a família de um adolescente de 14 anos, que se suicidou após desenvolver vínculo emocional com um chatbot da plataforma, entrar com uma ação judicial contra a empresa. O jovem interagia com uma personagem virtual inspirada na série “Game of Thrones”, e sua mãe afirma que o chatbot simulava um psicoterapeuta licenciado, o que teria agravado o isolamento do adolescente.
A Character.AI permite que os usuários criem e troquem mensagens com personagens virtuais que vão de figuras históricas a conceitos abstratos. O aplicativo tornou-se popular entre jovens que buscam apoio emocional por meio da interação com a inteligência artificial.
A empresa informou que a mudança nas regras foi motivada por análises de reguladores e especialistas em segurança que destacaram riscos da interação entre adolescentes e chatbots baseados em IA. A plataforma passará a incentivar os usuários mais jovens a usar outras ferramentas, como criação de vídeos e histórias, em vez da interação direta com personagens.
Em comunicado, a Character.AI afirmou que as medidas adotadas são mais restritivas que as praticadas por concorrentes, mas representam o compromisso da empresa com a segurança dos usuários.
Além da ação na Justiça movida pela mãe do adolescente de 14 anos, outras duas famílias abriram processos contra a Character.AI no Texas, também em 2024. Esses casos envolvem questões de saúde mental e exposição a conteúdo sexual, mas não resultaram em mortes. Entre os relatos, está o de um adolescente autista que teria sofrido uma crise após usar a plataforma, e o de uma criança de 11 anos supostamente incentivada a cometer violência contra os pais.
A Character.AI foi fundada por ex-engenheiros do Google. A partir de um acordo em agosto, o Google detém uma licença não exclusiva da tecnologia da startup. Contudo, porta-voz da empresa declarou que Google e Character.AI são entidades separadas e não relacionadas oficialmente.
Em resposta aos casos de risco, a Character.AI implementou um sistema de alertas automáticos para usuários que digitam frases relacionadas a automutilação ou suicídio, encaminhando-os para canais de ajuda. Essa funcionalidade foi inserida logo após o processo principal ter sido aberto.
Outras plataformas de chatbots baseados em inteligência artificial, como o ChatGPT, também foram associadas a casos de suicídio e problemas de saúde mental entre usuários. A OpenAI, responsável pelo ChatGPT, adotou medidas de proteção e prevenção para usuários vulneráveis.
Especialistas e autoridades de saúde recomendam que familiares e pessoas em sofrimento busquem ajuda por meio do Centro de Atenção Psicossocial (CAPS), Unidades Básicas de Saúde, além dos serviços de emergência como UPA 24h, SAMU e hospitais. O Centro de Valorização da Vida (CVV) oferece atendimento gratuito, sigiloso e 24 horas pelo telefone 188 ou pelo site.
A proibição do acesso para menores na Character.AI marca uma tentativa da empresa de responder a preocupações legais e sociais crescentes sobre o impacto das interações entre adolescentes e inteligência artificial na saúde mental.
—
Palavras-chave para SEO:
Character.AI, inteligência artificial, chatbot, suicídio adolescente, proteção menores de idade, IA e saúde mental, processo judicial, controle de uso, conteúdo sexual, apoio emocional, chatbot para jovens, prevenção do suicídio, medidas de segurança IA.
Fonte: g1.globo.com
Imagem: s2-g1.glbimg.com
Fonte: g1.globo.com

