O Google retirou o recurso “Visão Geral criada por IA” de determinadas pesquisas após a divulgação de uma investigação do jornal britânico The Guardian, que apontou falhas graves nas respostas fornecidas pela ferramenta. Segundo a apuração, os resumos gerados por inteligência artificial apresentavam informações incorretas e potencialmente enganosas, sobretudo em temas sensíveis como saúde.
Um dos casos destacados envolveu a pergunta “Quais os valores de referência normais para exames de sangue relacionados ao fígado?”. De acordo com o The Guardian, o resumo exibido pela IA não levava em conta fatores essenciais, como sexo e idade, comprometendo a precisão dos dados e podendo induzir o usuário ao erro.
Leia: Reunião marcada! Negociações da Campanha Salarial já têm data para começar!
Após a publicação da reportagem, em 2 de janeiro, o jornal observou que algumas das buscas mencionadas deixaram de apresentar a “Visão Geral criada por IA”. Ainda assim, variações dessas mesmas pesquisas continuam exibindo resumos gerados por modelos de linguagem.
Testes realizados pelo site TecMundo indicam que a busca “quais são os valores normais para exames de sangue relacionados ao fígado?” ainda apresenta normalmente a Visão Geral criada por IA. No caso da pesquisa em português, o resumo diferencia os valores por gênero e destaca que os resultados podem variar de acordo com o laboratório responsável pelo exame.
Caso foi revisado pelo Google
Em resposta ao The Guardian, um porta-voz do Google afirmou que a empresa não comenta alterações em pesquisas específicas, mas ressaltou que trabalha de forma contínua para aprimorar o sistema. Segundo o executivo, um time interno de clínicos revisou os casos apontados e confirmou que respostas incorretas apareciam em múltiplas situações.
A Visão Geral criada por IA é um recurso que gera resumos automáticos para determinadas pesquisas, com base em grandes modelos de linguagem. A funcionalidade chegou ao Brasil em agosto de 2024 e, desde então, tem sido alvo de debates sobre sua confiabilidade e precisão.
Por serem suscetíveis a erros, grandes modelos de linguagem não devem ser tratados como fontes definitivas de informação. O episódio denunciado pelo The Guardian reforça esse alerta, especialmente quando o tema envolve saúde, área em que informações imprecisas podem representar riscos reais aos usuários.
Esse cuidado, no entanto, não se limita à Visão Geral criada por IA. Ferramentas de IA generativa, de modo geral, não são infalíveis. Para obter informações corretas e contextualizadas, a alternativa mais segura continua sendo a consulta a conteúdos produzidos por especialistas ou a profissionais qualificados.
(Com informações de Tecmundo)
(Foto: Reprodução/Freepik)