Destilação – Grandes nomes da inteligência artificial, como OpenAI, Microsoft e Meta, estão adotando um processo conhecido como “destilação” na disputa global por modelos de IA mais acessíveis para consumidores e empresas.
A estratégia ganhou destaque após a chinesa DeepSeek demonstrar sua eficácia ao criar sistemas avançados e eficientes com base em tecnologias de código aberto de rivais como Meta e Alibaba. O avanço chinês levantou dúvidas sobre a hegemonia das big techs no setor, fazendo com que investidores de Wall Street retirassem bilhões em valor de mercado das empresas do Vale do Silício.
Leia: Startup de IA recusa proposta bilionária da Meta
Na destilação, as companhias utilizam um modelo de linguagem amplo, chamado de “professor”, que prevê a próxima palavra em uma frase. Esse modelo gera dados que, por sua vez, treinam um modelo “aluno” mais compacto, transferindo conhecimento rapidamente do sistema maior para o menor.
Apesar de ser uma técnica conhecida há anos, recentes aprimoramentos levaram especialistas a acreditar que ela será cada vez mais vantajosa para startups que buscam formas econômicas de desenvolver aplicações baseadas em IA.
“A destilação é mágica”, afirmou Olivier Godement, líder de produto da OpenAI. “Ela pega um modelo de ponta, extremamente complexo, e o usa para ensinar outro menor. É altamente eficiente em tarefas específicas, com custo e velocidade muito reduzidos.”
Modelos como o GPT-4 (OpenAI), Gemini (Google) e Llama (Meta) demandam volumes imensos de dados e poder computacional para operar. Embora as empresas não divulguem valores exatos, estima-se que o treinamento desses sistemas custe centenas de milhões de dólares.
Com a destilação, desenvolvedores e empresas podem acessar capacidades similares por uma fração do preço, permitindo que modelos de IA rodem até em dispositivos como laptops e smartphones.
A OpenAI oferece uma plataforma para destilação, onde desenvolvedores aprendem com seus grandes modelos, como os que sustentam o ChatGPT. A Microsoft, maior investidora da OpenAI, usou o GPT-4 para criar sua linha de modelos compactos Phi, após injetar cerca de US$ 14 bilhões na empresa.
No entanto, a startup de São Francisco suspeita que a DeepSeek tenha utilizado seus modelos para treinar um concorrente — violando seus termos de serviço, mas sem apresentar provas concretas. A DeepSeek não se manifestou sobre as acusações.
Apesar de sua eficiência, especialistas alertam que modelos destilados têm limitações.
“Há um trade-off claro: ao reduzir o tamanho, você perde parte da capacidade do modelo”, explicou Ahmed Awadallah, da Microsoft Research. Ele dá o exemplo que um sistema destilado pode se sair bem em tarefas específicas, como resumir e-mails, mas ser inútil em outras.
David Cox, vice-presidente de IA da IBM Research, destacou que muitas empresas não precisam de modelos gigantescos. Sistemas compactos são suficientes para chatbots de atendimento ou uso em dispositivos móveis.
“Se você consegue reduzir custos sem perder desempenho, não há motivo para não fazer”, avaliou.
Esse cenário desafia os modelos de negócios das líderes em IA. Mesmo que desenvolvedores usem versões destiladas de sistemas como os da OpenAI, elas geram menos receita, já que são mais baratas de criar e operar. Empresas como a OpenAI cobram menos por modelos compactos, que exigem menos processamento.
Godement, porém, ressalta que modelos grandes ainda serão essenciais para “tarefas de alta complexidade e risco”, em que a precisão justifica custos elevados. Além disso, eles são necessários para descobrir novas funcionalidades que depois podem ser transferidas para versões menores.
Ainda assim, a OpenAI tenta impedir que rivais usem seus modelos para destilação. A empresa monitora o uso e pode bloquear contas suspeitas de gerar dados em massa para treinar concorrentes — como alega ter feito com supostos perfis ligados à DeepSeek. Contudo, grande parte dessa fiscalização ocorre após o fato consumado.
A técnica também beneficia defensores do código aberto, que permitem o uso livre de suas tecnologias. A DeepSeek, por exemplo, liberou seus últimos modelos para desenvolvedores.
“Vamos adotar [a destilação] em nossos produtos imediatamente”, disse Yann LeCun, diretor de IA da Meta. “Essa é a essência do código aberto: todos se beneficiam do progresso coletivo, desde que as inovações sejam compartilhadas.”
A destilação também significa que criadores de modelos podem investir bilhões em avanços, apenas para ver concorrentes replicarem suas conquistas em meses — como demonstrado pela DeepSeek. Isso levanta dúvidas sobre a vantagem de ser pioneiro em IA quando as inovações podem ser rapidamente absorvidas pelo mercado.
“Em um cenário de evolução tão acelerada… você pode gastar fortunas desenvolvendo algo complexo, e o resto do campo chegar logo atrás”, refletiu Cox, da IBM. “É um panorama desafiador para os negócios.”
(Com informações de Folha de S.Paulo)
(Foto: Canva)