Gigantes das redes sociais Meta e TikTok priorizaram

Imagem: s2-g1.glbimg.com

Gigantes das redes sociais Meta e TikTok priorizaram o engajamento em detrimento da segurança dos usuários, segundo denúncias de ex-funcionários divulgadas em 2025. Denunciantes relataram que as empresas permitiram a disseminação de conteúdo nocivo para manter a competitividade dos seus algoritmos após o crescimento do TikTok.

Mais de uma dúzia de pessoas ligadas às plataformas afirmaram à BBC que as companhias abriram espaço para publicações envolvendo violência, chantagem sexual, discurso de ódio e teorias conspiratórias. Internamente, pesquisas indicaram que conteúdos que provocam indignação aumentavam o engajamento dos usuários, mas as medidas para conter esses riscos foram insuficientes.

Um engenheiro da Meta afirmou que recebeu ordens para permitir conteúdos “limítrofes”, como misoginia e teorias conspiratórias, para que a empresa competisse com o TikTok, principalmente devido à queda do preço das ações. Outro ex-funcionário do TikTok relatou que casos envolvendo políticos recebiam prioridade na moderação em detrimento de denúncias relacionadas a crianças, visando manter um bom relacionamento com autoridades e evitar regulações.

O documentário “Inside the Rage Machine” expôs a pressão por enfrentamento entre os algoritmos das redes, mostrando que a Meta lançou o Instagram Reels em 2020 sem proteções suficientes. Pesquisas internas indicavam aumento significativo de bullying, discurso de ódio e violência nos comentários do Reels em comparação ao feed principal do Instagram.

Ex-funcionários revelaram que, enquanto a Meta investia na expansão do Reels contratando 700 pessoas, pedidos para reforçar equipes de segurança foram negados. Documentos internos mostraram que o Facebook sabia que seu algoritmo incentivava conteúdos que traziam lucro, mesmo prejudicando a audiência e contrariando a missão da empresa de conectar pessoas.

No TikTok, um engenheiro que trabalhou no desenvolvimento do algoritmo entre 2020 e 2024 afirmou que os sistemas são caixas-pretas difíceis de controlar e que ele dependia das equipes de segurança para filtrar conteúdos nocivos. Segundo ele, a empresa atualizava seus algoritmos semanalmente para ampliar sua participação de mercado, o que elevava a exposição a conteúdos problemáticos.

Adolescentes relataram à BBC que as ferramentas para evitar conteúdos nocivos funcionam mal. Um jovem disse ter sido radicalizado pelo algoritmo desde os 14 anos, exibindo visões racistas e misóginas estimuladas pelos vídeos que consumia. Especialistas antiterrorismo britânicos confirmaram aumento e normalização de posts antissemitas, racistas e violentos nas redes sociais.

Durante meses, a BBC teve acesso a um painel interno do TikTok, por meio de um funcionário identificado como Nick. Ele afirmou que a empresa priorizava casos políticos em vez de denúncias de abuso envolvendo menores, como chantagem sexual e cyberbullying, deixando crianças e adolescentes mais vulneráveis. Segundo Nick, cortes e reestruturações aumentaram o uso de inteligência artificial na moderação, prejudicando o combate efetivo a conteúdos nocivos.

A empresa negou que conteúdos políticos recebam prioridade e afirmou que há equipes específicas para questões de segurança infantil que operam paralelamente aos demais fluxos de moderação. O TikTok destacou ainda que oferece dezenas de recursos de segurança para contas de adolescentes e investe em tecnologia para impedir exposição a conteúdos prejudiciais.

Na Meta, o pesquisador Matt Motyl afirmou que a empresa lançou o Reels para competir com o TikTok sem as salvaguardas necessárias. Ele revelou a existência de um dilema entre proteger os usuários e garantir o engajamento. Pesquisa interna indicava que o Reels apresentava mais bullying, discurso de ódio e violência do que o restante do Instagram.

Ex-funcionários relataram que equipes de segurança enfrentavam dificuldades para aprovar contratações e o lançamento de ferramentas que poderiam diminuir conteúdos tóxicos, pois isso poderia afetar negativamente o engajamento. Um vice-presidente sênior teria determinado a flexibilização da moderação para recuperar participação no mercado e melhorar o valor das ações da empresa.

Documentos internos da Meta indicam que seus algoritmos amplificavam conteúdos que provocavam indignação, elevando o engajamento, ainda que isso prejudicasse o bem-estar dos usuários. Um ex-funcionário disse que a postura da empresa evoluiu de introspectiva para defensiva, afirmando que a Meta não é responsável pela polarização, embora contribua para ela.

Em respostas às acusações, Meta e TikTok negaram qualquer intenção deliberada de ampliar conteúdos nocivos para lucro. A Meta destaca seus investimentos em segurança e proteção a adolescentes, enquanto o TikTok afirma que as alegações não refletem a realidade de suas operações.

O relato dos denunciantes revela a tensão entre o crescimento acelerado das plataformas e os riscos à segurança dos usuários, especialmente dos mais jovens, que enfrentam exposição contínua a conteúdos nocivos e limitações nas ações das equipes responsáveis pela moderação.

Palavras-chave relacionadas para SEO: TikTok, Meta, algoritmos de redes sociais, segurança digital, conteúdo nocivo, moderação de conteúdo, Instagram Reels, discurso de ódio, bullying online, child safety online, engajamento nas redes sociais, denúncias internas, redes sociais e adolescentes.

Fonte: g1.globo.com

Imagem: s2-g1.glbimg.com


Fonte: g1.globo.com

Sair da versão mobile