Nos últimos dois anos, avanços em tecnologias de IA facilitaram a criação de imagens e vídeos com conteúdo sexual envolvendo crianças, tipo de material que tem crescido de forma alarmante. Agora, entidades como a Internet Watch Foundation (IWF) e o Centro Nacional para Crianças Desaparecidas e Exploradas (NCMEC, na sigla em inglês) relatam uma escalada de material quase indistinguível de registros reais de abuso.
De acordo com dados publicados na quinta-feira (10) pela IWF — uma organização britânica sem fins lucrativos que monitora e recebe denúncias de material de abuso sexual infantil — foram identificados 1.286 vídeos desse tipo gerados por IA em 2025, um salto exponencial em relação aos dois registrados no mesmo período de 2024.
Leia: Menores de 12 anos não pagam no Sindpd On Fire
Segundo analistas da fundação, os vídeos estão mais sofisticados e fluidos graças a melhorias tecnológicas e à colaboração entre grupos atuando na dark web para sua produção.
Essa proliferação de vídeos extremamente realistas ocorre em meio a um aumento generalizado de imagens geradas por IA com conteúdo abusivo. Nos EUA, o NCMEC informou ter recebido 485 mil denúncias desse tipo de material — incluindo fotos e vídeos — apenas no primeiro semestre do ano. Em 2024, foram 67 mil ao longo de todo o ano.
Derek Ray-Hill, CEO interino da IWF, destacou que parte do conteúdo mistura imagens reais de crianças com material gerado artificialmente: “Há um tsunami absoluto que estamos vendo”.
O volume crescente de imagens artificiais coloca em xeque a capacidade das forças policiais. Embora ainda representem uma pequena parcela do total de denúncias sobre material de abuso sexual infantil — que somam milhões —, essas imagens exigem investigações e desviam os recursos das autoridades de casos envolvendo vítimas reais.
Segundo as forças de segurança, as leis federais que tratam de pornografia infantil e obscenidade já abrangem conteúdos criados por IA, mesmo aqueles sem nenhuma imagem real envolvida.
Novas leis para enfrentar problema
Além da legislação federal, vários estados americanos vêm aprovando normas específicas para criminalizar imagens geradas por IA com conteúdo de abuso. Nos últimos anos, mais de 30 estados aprovaram leis nesse sentido.
Especialistas alertam, no entanto, que o sistema judiciário ainda está começando a lidar com as complexidades jurídicas trazidas por esse tipo de material.
Essas produções utilizam tecnologias de IA generativa — uma vertente que se popularizou com o lançamento do ChatGPT em 2022. Em seguida, surgiram geradores de imagens e vídeos, gerando preocupação entre autoridades e organizações de proteção infantil.
Boa parte do conteúdo atual utiliza imagens reais reaproveitadas de materiais anteriores, ou fotos de crianças extraídas de redes sociais e sites escolares. Os arquivos costumam ser distribuídos em fóruns, redes sociais e plataformas de mensagens.
Em dezembro de 2023, o Stanford Internet Observatory identificou centenas de arquivos de abuso infantil num conjunto de dados utilizados numa versão inicial do gerador de imagens Stable Diffusion. A empresa Stability AI, responsável atualmente pela ferramenta, afirmou que não participou do treinamento desse modelo, criado por uma companhia terceirizada antes de a Stability assumir o desenvolvimento exclusivo.
Foi apenas nos últimos meses que as ferramentas de IA passaram a produzir imagens com grau de realismo suficiente para enganar o olhar humano, superando falhas anteriores como número incorreto de dedos, fundos desfocados ou cortes bruscos em vídeos.
No mês passado, a IWF encontrou, em fóruns subterrâneos, usuários elogiando a nova geração de vídeos por seu realismo. Os comentários destacavam a fluidez das cenas, os ambientes detalhados — com pinturas nas paredes e móveis — e a presença de múltiplos indivíduos envolvidos em atos violentos e ilegais contra crianças.
Atualmente, cerca de 35 empresas de tecnologia encaminham denúncias de imagens de abuso sexual infantil geradas por IA ao NCMEC, informou John Shehan, executivo do centro. Segundo ele, algumas empresas são mais sistemáticas do que outras, mas as que fazem mais relatos tendem a ser mais ativas na detecção desse tipo de conteúdo.
Extorsão de vítimas
A Amazon, que oferece serviços de IA por meio de sua plataforma de nuvem, relatou 380 mil casos no primeiro semestre do ano — todos removidos. A OpenAI informou 75 mil casos. Já a Stability AI registrou menos de 30.
A Stability declarou que adotou medidas adicionais de segurança e afirmou estar “profundamente comprometida em prevenir o uso indevido de nossa tecnologia, particularmente na criação e disseminação de conteúdo prejudicial, incluindo materiais de abuso sexual de crianças”.
Amazon e OpenAI, ao serem procuradas, indicaram relatórios públicos com informações sobre seus esforços de combate a esse tipo de material.
Além disso, algumas organizações criminosas estão utilizando IA para produzir imagens sexualmente explícitas de menores com o objetivo de extorquir as vítimas, disse um representante do Departamento de Justiça sob anonimato. Outras vezes, jovens utilizam aplicativos para criar deepfakes de nudez a partir de fotos reais de colegas.
Apesar de a legislação ser clara quanto à ilegalidade de imagens que envolvem crianças reais, o enquadramento legal de material totalmente artificial ainda está em debate, segundo estudiosos do direito.
Em março, um homem de Wisconsin foi acusado pelo Departamento de Justiça de criar, armazenar e distribuir imagens sintéticas de abuso infantil. Ele conseguiu derrubar uma das acusações com base na Primeira Emenda da Constituição. O juiz James Peterson, da Corte Distrital do Oeste de Wisconsin, escreveu que “a Primeira Emenda geralmente protege o direito de possuir material obsceno em casa” desde que não se trate de “pornografia infantil real”.
Mesmo assim, o julgamento prosseguirá em relação às outras acusações, que envolvem a produção e disseminação de 13 mil imagens geradas artificialmente. De acordo com os promotores, o homem tentou compartilhar esse material com um menor por meio do Instagram, que acabou fazendo a denúncia.
“O Departamento de Justiça vê todas as formas de material de abuso sexual infantil gerado por IA como uma ameaça séria e emergente”, afirmou Matt Galeotti, chefe da divisão criminal do órgão.
Campanha Salarial começa no segundo semestre
A Campanha Salarial 2026 do Sindpd começa no segundo semestre deste ano e o seu lançamento promete ser em alto estilo! Vem aí o Sindpd On Fire, uma experiência inédita e ousada, exclusiva para sócios e contribuintes do sindicato e seus convidados!
Vale lembrar que é na campanha salarial que são definidas as reivindicações da categoria a serem levadas para a mesa de negociação com os patrões, para a celebração da próxima Convenção Coletiva de Trabalho (CCT). Os dois eixos centrais da pauta deste ano já estão definidos: o fim da escala 6×1 no setor de TI paulista e a conquista de aumento real nos salários, demandas que refletem a busca do Sindpd por melhores condições de trabalho e pela valorização dos profissionais de TI.
O Sindpd vai promover o maior open churrasco do Brasil, com shows ao vivo com Fernando e Sorocaba em grandes encontros que prometem fazer história. Já estão confirmados quatro eventos, em Campinas (16/08), Sorocaba (19/10), Ribeirão Preto (26/10) e São Paulo (15/11)! (Acesse o site oficial do Sindpd On Fire e saiba tudo)
(Com informações de Folha de S. Paulo)
(Foto: Reprodução/Freepik)