Uma nova onda de vídeos produzidos por inteligência artificial está se espalhando pelas redes sociais e inaugurando um cenário digital para o qual usuários, plataformas e autoridades parecem despreparados. Criados com poucas instruções e cada vez mais realistas, esses conteúdos conseguem burlar regras de identificação, retirar rótulos de aviso e alcançar milhões de pessoas antes que qualquer moderação seja aplicada.
Em outubro, um vídeo que circulou no TikTok mostrava uma mulher sendo entrevistada por uma repórter de TV sobre o programa de vale-alimentação dos Estados Unidos. A cena, no entanto, nunca existiu. Nenhuma das mulheres era real, e a conversa foi inteiramente gerada por IA. Mesmo assim, muitos usuários acreditaram que se tratava de uma entrevista verdadeira sobre a troca de cupons de alimentação por dinheiro vivo, prática que seria criminosa.
Leia: Day Off de Aniversário é proposta do Sindpd na Campanha Salarial
Nos comentários, a reação foi tratada como se o episódio fosse autêntico. Apesar de alguns sinais discretos de simulação, centenas de pessoas chamaram a mulher de criminosa, algumas com ataques racistas explícitos, enquanto outras aproveitaram o vídeo para criticar programas de assistência governamental. A repercussão ocorreu em meio ao debate nacional sobre os cortes planejados pelo presidente Donald Trump no programa.
O caso é um entre muitos exemplos que surgiram após o lançamento do Sora, novo aplicativo da OpenAI. Em apenas dois meses, segundo especialistas que monitoram esse tipo de conteúdo, vídeos enganosos se multiplicaram no TikTok, X, YouTube, Facebook e Instagram, acendendo alertas sobre uma nova geração de desinformação e farsas digitais.
Embora as principais plataformas tenham políticas que exigem a divulgação do uso de IA e proíbam conteúdos feitos para enganar, essas regras se mostraram insuficientes diante do salto tecnológico representado pelas novas ferramentas. Se parte dos vídeos se limita a memes ou imagens falsas de bebês e animais, outros exploram ressentimentos e tensões típicos de debates políticos online, já tendo sido associados a operações de influência estrangeira, como a campanha contínua da Rússia para prejudicar a imagem da Ucrânia.
Para pesquisadores que acompanham o fenômeno, cabe agora às plataformas fazer mais para garantir que o público consiga distinguir o que é real do que não é.
“Eles poderiam fazer melhor na moderação de conteúdo com desinformação? Sim, claramente não estão fazendo”, disse Sam Gregory, diretor-executivo da Witness, organização de direitos humanos focada nos riscos da tecnologia. “Poderiam fazer melhor em buscar proativamente conteúdo gerado por IA e rotulá-lo? A resposta também é sim.”
O vídeo sobre o vale-alimentação surgiu durante o impasse orçamentário que suspendeu atividades do governo dos EUA, afetando diretamente beneficiários do programa de assistência alimentar.
A Fox News caiu em uma armadilha semelhante ao tratar outro vídeo falso como evidência de indignação pública com um suposto abuso do programa. A reportagem foi retirada do ar posteriormente; um porta-voz da emissora confirmou a remoção, sem explicar o motivo.
Conteúdos enganosos também têm sido usados para zombar de figuras públicas, incluindo Trump. Um vídeo no TikTok mostrava a Casa Branca acompanhada de um áudio que parecia que o presidente estava repreendendo seu gabinete pela divulgação de documentos sobre Jeffrey Epstein. Segundo a NewsGuard, o vídeo, sem qualquer identificação de IA, ultrapassou 3 milhões de visualizações em poucos dias.
Até agora, as plataformas dependem em grande parte da boa vontade dos criadores para informar quando um conteúdo não é real, algo que raramente acontece. Embora empresas como YouTube e TikTok tenham meios técnicos para detectar vídeos feitos com IA, os alertas nem sempre são exibidos de imediato. “Eles deveriam estar preparados”, afirmou Nabiha Syed, diretora-executiva da Mozilla Foundation, organização de segurança digital responsável pelo navegador Firefox.
As empresas por trás das ferramentas de IA dizem tentar deixar clara a origem artificial dos vídeos. O Sora e o Veo, aplicativo concorrente do Google, inserem marcas-d’água visíveis, além de metadados invisíveis que podem ser lidos por computadores. A proposta é informar o público e fornecer sinais digitais para que as plataformas detectem automaticamente esse tipo de conteúdo.
Algumas redes já utilizam essas tecnologias. O TikTok anunciou recentemente regras mais rígidas para a divulgação do uso de IA e prometeu ferramentas para que usuários escolham quanto conteúdo artificial desejam ver. O YouTube, por sua vez, usa a marca-d’água invisível do Sora para adicionar avisos automáticos de que o vídeo foi “alterado ou é criado por IA”. “Os espectadores querem, cada vez mais, transparência sobre o conteúdo”, disse Jack Malon, porta-voz do YouTube.
Ainda assim, os rótulos muitas vezes surgem apenas depois que milhares ou milhões de pessoas já assistiram aos vídeos e, em alguns casos, nem chegam a aparecer. Pessoas mal-intencionadas aprenderam a ignorar as exigências, editar vídeos para remover marcas visíveis ou eliminar metadados ao compartilhá-los. O New York Times encontrou dezenas de vídeos do Sora no YouTube sem qualquer rótulo automático, além de empresas que oferecem serviços para remover logos e marcas-d’água.
Mesmo quando o aviso está presente, muitos usuários não o percebem ao navegar rapidamente. Uma análise do New York Times, que usou ferramentas de IA para classificar comentários, mostrou que quase dois terços dos mais de 3.000 comentários no vídeo do TikTok sobre o vale-alimentação reagiam como se ele fosse real.
Em comunicado, a OpenAI afirmou que proíbe o uso do Sora para fins enganosos ou que induzam ao erro e que toma medidas contra quem viola suas políticas. A empresa ressaltou que seu aplicativo é apenas um entre dezenas de ferramentas capazes de produzir vídeos cada vez mais realistas, muitas delas sem qualquer tipo de proteção.
“Vídeos gerados por IA são criados e compartilhados por meio de muitas ferramentas diferentes, portanto, lidar com conteúdo enganoso exige um esforço de todo o ecossistema”, disse a empresa.
A Meta, dona do Facebook e do Instagram, declarou que nem sempre é possível rotular todos os vídeos gerados por IA, especialmente devido à rápida evolução da tecnologia, mas que trabalha para melhorar seus sistemas. X e TikTok não responderam aos pedidos de comentário sobre o aumento de vídeos falsos.
Para Alon Yamin, presidente-executivo da Copyleaks, empresa especializada na detecção de conteúdo produzido por IA, as plataformas não têm incentivo financeiro imediato para frear a disseminação desses vídeos enquanto eles continuarem gerando cliques.
“No longo prazo, quando 90% do tráfego de conteúdo na sua plataforma for gerado por IA, surgem algumas questões sobre a qualidade da plataforma e do conteúdo”, disse Yamin. “Então, talvez a longo prazo haja mais incentivos financeiros para realmente moderar o conteúdo de IA. Mas, no curto prazo, isso não é uma grande prioridade.”
(Com informações de Folha de S.Paulo)
(Foto: Reprodução/Freepik)
