IA – Pesquisadores sul-coreanos desenvolveram um modelo de inteligência artificial que imita um princípio fundamental do funcionamento do cérebro humano, permitindo que sistemas revisem suas próprias previsões antes de chegar a uma conclusão.
A inteligência artificial avançou de forma acelerada nas últimas décadas, mas ainda apresenta uma diferença essencial em relação aos humanos quando enfrenta situações inesperadas. Sistemas convencionais analisam grandes volumes de dados e geram respostas com base em padrões previamente aprendidos — porém raramente questionam se sua própria conclusão pode estar errada.
LEIA: Falso app do INSS é porta de entrada para vírus que espiona vítimas
Já o cérebro humano atua de outra maneira. Em vez de apenas reagir aos estímulos do ambiente, ele tenta antecipar constantemente o que acontecerá em seguida. Quando a realidade contradiz essa previsão, a mente rapidamente reinterpreta a situação e ajusta sua compreensão.
Agora, pesquisadores conseguiram transportar esse princípio biológico para o campo da inteligência artificial.
O estudo foi liderado por Sang Wan Lee, do Instituto Avançado de Ciência e Tecnologia da Coreia (KAIST). A equipe apresentou uma nova arquitetura de IA capaz de revisar suas próprias previsões sempre que identifica sinais de erro. O trabalho foi apresentado na conferência internacional ICLR 2026, um dos principais eventos globais dedicados ao aprendizado profundo.
Lógica da “codificação preditiva”
A base da nova tecnologia está em um conceito da neurociência conhecido como codificação preditiva. Segundo essa teoria, o cérebro não apenas recebe informações sensoriais: ele também formula hipóteses sobre o que espera encontrar.
Um exemplo simples é o de um jogador de xadrez antecipando o movimento do adversário. Caso a jogada ocorra exatamente como previsto, a estratégia segue normalmente. Mas, diante de um movimento inesperado, o jogador precisa recalcular rapidamente sua posição no tabuleiro. O cérebro humano funciona de maneira semelhante.
Os pesquisadores Myoung Hean Ha e Sang Wan Lee aplicaram esse princípio no desenvolvimento de redes neurais artificiais mais capazes de lidar com erros. Em vez de apenas ajustar parâmetros após grandes ciclos de treinamento, o sistema utiliza cada erro como um sinal ativo de aprendizado.
Assim, a máquina não apenas corrige a resposta final — ela também revisa o processo que levou à previsão equivocada.
Aprender com o erro sem perder estabilidade
Um dos desafios centrais do aprendizado profundo atual é a instabilidade dos modelos. À medida que as redes neurais se tornam mais profundas e complexas, seu treinamento tende a ficar mais delicado e suscetível a dados contraditórios.
Para enfrentar esse problema, os cientistas do KAIST criaram um mecanismo chamado “meta-erros de previsão”.
Na prática, trata-se de uma camada adicional de monitoramento que acompanha como o sistema está aprendendo com suas próprias falhas. Esse mecanismo permite avaliar se o processo de aprendizado está melhorando as previsões ou se o modelo está se desviando do caminho correto.
Com esse controle extra, o sistema consegue ajustar sua trajetória antes que os erros se propaguem por toda a rede neural.
Segundo os pesquisadores, isso torna o treinamento mais robusto mesmo em cenários onde os dados são incompletos, inconsistentes ou contêm ruído.
Eficiência inspirada no cérebro
Outro aspecto importante do estudo é a busca por maior eficiência energética. O cérebro humano realiza tarefas extremamente complexas consumindo cerca de 20 watts de energia, aproximadamente o equivalente ao gasto de uma pequena lâmpada LED.
Já sistemas modernos de inteligência artificial frequentemente exigem enormes centros de dados para operar. Grandes modelos de linguagem e sistemas avançados de visão computacional podem demandar quantidades gigantescas de eletricidade.
A nova arquitetura tenta reduzir esse problema ao evitar cálculos desnecessários. Em vez de processar tudo continuamente, o sistema reage apenas quando percebe algo que contradiz suas previsões.
Isso significa que a máquina processa menos informações, consome menos energia e aprende de maneira mais eficiente.
Possível novo caminho para a IA
Para Sang Wan Lee, o estudo pode representar uma mudança importante na forma de desenvolver inteligência artificial. Em vez de focar exclusivamente na criação de modelos cada vez maiores e mais poderosos, a proposta é construir sistemas mais inteligentes na forma como lidam com erros e incertezas.
A habilidade de questionar a própria resposta — algo natural para os humanos — pode ser essencial para tornar a inteligência artificial mais confiável e adaptável.
Além disso, essa abordagem pode ser aplicada em diferentes contextos tecnológicos. Desde sensores inteligentes e robôs autônomos até grandes sistemas de computação em nuvem, diversas aplicações poderiam se beneficiar de algoritmos capazes de aprender de forma mais eficiente.
No fim das contas, a inspiração vem da própria biologia: inteligência não significa nunca cometer erros, mas sim reconhecer rapidamente quando algo deu errado e ajustar o caminho. Ao ensinar máquinas a “pensar duas vezes”, os cientistas podem ter dado um passo importante para aproximar a inteligência artificial do funcionamento da mente humana.
(Com informações de Gizmodo)
(Foto: Reprodução/Freepik)
