Nenhuma das ferramentas de inteligência artificial generativa mais utilizadas atualmente obedece integralmente às exigências mínimas da Lei Geral de Proteção de Dados (LGPD), aponta um estudo da Fundação Getúlio Vargas (FGV). A legislação tem como objetivo garantir a segurança dos usuários no Brasil contra vigilância indevida e distorções em transações comerciais.
Os especialistas do Centro de Tecnologia e Sociedade da FGV Direito Rio analisaram as políticas de privacidade das seis plataformas de IA mais acessadas, segundo dados do App Magic. Incluíram também a Meta AI, integrada a serviços populares e de acesso subsidiado, como WhatsApp, Facebook e Instagram.
Leia: Déficit de profissionais de TI cai, mas informalidade cresce
A chinesa DeepSeek (5 de 14 requisitos) e o Grok (6 de 14), de Elon Musk, violam mais da metade dos requisitos listados no Guia de Segurança da Informação para Agentes de Tratamento de Pequeno Porte, da Autoridade Nacional de Proteção de Dados (ANPD), publicado em 2021. Os pesquisadores adotaram essas diretrizes não obrigatórias como parâmetro mínimo, já que foram elaboradas para empresas de menor porte.
Ambas as ferramentas, por exemplo, não disponibilizam uma versão de suas políticas de privacidade em português. A DeepSeek nem sequer menciona dados de contato do encarregado pelo tratamento de informações – responsável por receber solicitações de usuários e se comunicar com a ANPD. Já o Grok não informa que transfere dados de brasileiros para servidores no exterior.
Sobre isso, a advogada Juliana Abrusio, do Machado Meyer Advogados, explica: “A ANPD permite a transferência internacional de dados, desde que a prática esteja adequada a um regulamento elaborado pela autoridade. A transparência é um dos requisitos cobrados pelo regulador”, diz.
Entre as plataformas, apenas o Claude, da Anthropic, emprega um mecanismo de transferência internacional aceito pela ANPD. Contudo, a ferramenta não especifica para qual país os dados são enviados. O Claude divide a liderança no ranking de conformidade com a LGPD ao lado do Gemini (Google) e da Meta AI — os três atendem 11 dos 14 critérios analisados.
O Gemini e a Meta AI, entretanto, falham ao não justificar a transferência de dados com base em mecanismos legais locais e por não explicitarem claramente os direitos dos usuários. Já o popular ChatGPT não revela a identidade do responsável pelos dados nem o destino das informações dos brasileiros.
Os pesquisadores alertam que o uso abusivo de dados pode estar associado a fins criminosos na falta de regulação adequada. Luca Belli, professor da FGV e coordenador do estudo, ressalta: “É o caso especialmente dos Estados Unidos, onde é sabido desde as revelações do [delator Edward] Snowden que dados de indivíduos que não sejam cidadãos americanos estão desprotegidos, e é o país onde a maioria dessas empresas são sediadas.”
Outro ponto crítico é a falta de transparência sobre quais dados são utilizados para treinar os modelos de IA. Embora as empresas afirmem orientar suas ferramentas a evitar o processamento de informações pessoais, há registros de falhas nesse processo, inclusive em tecnologias do Google e da OpenAI, criadora do ChatGPT.
De acordo com a LGPD, as empresas devem garantir “informações claras, precisas e facilmente acessíveis” para que o tratamento de dados seja considerado regular. O estudo reforça a urgência de avanços na regulamentação para proteger os usuários em um cenário de rápidas inovações tecnológicas.
(Com informações de Folha de S. Paulo)
(Foto: Reprodução/Freepik)