Pop & Arte

A inteligência artificial tem ampliado a produção e

A inteligência artificial tem ampliado a produção e
  • Publishedmarço 9, 2026

A inteligência artificial tem ampliado a produção e a disseminação de vídeos falsos de conteúdo sexual, conhecidos como deepfakes, que utilizam imagens de pessoas sem consentimento em plataformas adultas desde 2026. Essas ferramentas fizeram do “pornô falso” uma prática comercial acessível, gerando preocupação sobre a violência e o abuso envolvidos.

Em sites adultos e aplicativos, essas imagens são oferecidas como serviços, muitas vezes promovendo a conveniência de criar vídeos falsos com rostos de atrizes, atores, celebridades ou até mesmo pessoas comuns. A facilidade de uso dessas tecnologias permite que qualquer usuário converta fotos de conhecidos, ex-parceiros ou mesmo vizinhos em material explícito digitalmente manipulado.

Além do aspecto técnico, o problema está no modelo de negócio que transforma a intimidade forjada em produto consumível. Quanto maior a familiaridade do usuário com a pessoa retratada, maior o interesse pela reprodução e compartilhamento do conteúdo falso. Isso reforça a circulação dessas imagens e torna a prática uma forma disseminada de violência digital.

Pesquisas indicam que parte da adesão a esse mercado está ligada a crenças que minimizam o impacto dos deepfakes, como a ideia equivocada de que figuras públicas estariam legitimamente sujeitas a esse tipo de exposição ou que não há crime na manipulação digital de imagens. Um estudo realizado pela University College Cork (UCC) com mais de dois mil participantes apontou que essas crenças aumentam a propensão para assistir, criar ou compartilhar esses vídeos falsos.

Um projeto do instituto alemão ITAS-KIT, em parceria com universidades locais, apontou que 98% dos deepfakes são pornográficos. Segundo a pesquisa, o dano não depende da veracidade da imagem, mas do fato de que a intimidade da vítima é simulada e exposta sexualmente sem o seu consentimento. Essa prática resulta em perda de controle sobre a própria imagem e configura uma forma de violência.

A punição e a responsabilização dos envolvidos no desenvolvimento e na circulação desses conteúdos ainda enfrentam obstáculos devido ao anonimato dos autores e à relutância das vítimas em registrar denúncias. O avanço na legislação e na aplicação das normas existentes esbarra na rápida circulação dos vídeos e na subnotificação dos casos, dificultando a identificação e a responsabilização dos agressores.

Especialistas defendem que o combate ao problema exige maior regulação das plataformas e também ações educativas para conscientizar os usuários sobre os impactos desse tipo de abuso. A combinação dessas medidas é vista como essencial para frear a expansão de um mercado que utiliza a manipulação digital para explorar a intimidade das pessoas de maneira ilegal e prejudicial.

Apesar dos desafios, o debate sobre deepfakes e o chamado “pornô falso” evidencia a necessidade de adaptação das políticas públicas e das leis para enfrentar o uso crescente da inteligência artificial na produção de conteúdos abusivos. O avanço tecnológico amplifica a complexidade do combate a essa forma de violência digital, que afeta tanto celebridades quanto pessoas comuns.

Palavras-chave para SEO: deepfake, pornografia falsa, violência digital, inteligência artificial, manipulação de imagem, privacidade, conteúdo sexual sem consentimento, regulação digital, anonimato na internet, abuso virtual.

Fonte: g1.globo.com

Imagem: s2-g1.glbimg.com


Fonte: g1.globo.com

Written By
Vitor Souza

Leave a Reply