Pular para o conteúdo
Tecnologia

Quando a IA erra na saúde: o recuo do Google que acendeu um alerta global

Após revelar orientações médicas equivocadas e potencialmente perigosas, o Google decidiu limitar o uso de resumos por inteligência artificial em buscas sobre saúde. O episódio expõe os riscos da automação em temas sensíveis.
Por

Tempo de leitura: 5 minutos

A promessa era simples: facilitar o acesso à informação médica com respostas rápidas geradas por inteligência artificial. Mas, quando o assunto envolve saúde, um detalhe fora de contexto pode significar muito mais do que um erro técnico. Nos últimos meses, uma série de falhas em orientações médicas automatizadas colocou o Google sob pressão, levantando dúvidas sobre até onde a IA pode — ou deve — ir quando vidas estão em jogo.

Quando a praticidade vira risco real

O Google decidiu remover os resumos gerados por IA em buscas relacionadas à saúde após uma investigação jornalística revelar problemas graves na forma como a ferramenta interpretava dados médicos. A intenção original era oferecer explicações rápidas e acessíveis sobre exames e condições clínicas, mas, na prática, o sistema ignorava variáveis essenciais para qualquer diagnóstico confiável.

Em buscas sobre exames de sangue, por exemplo, a IA apresentava resultados sem considerar fatores como idade, sexo e etnia. Esses detalhes são fundamentais na interpretação de indicadores clínicos. Em certos perfis de pacientes, números aparentemente normais podem esconder doenças sérias, como problemas hepáticos. Ao omitir esse contexto, os resumos criavam uma falsa sensação de segurança.

O impacto não era apenas teórico. Especialistas alertaram que pacientes poderiam atrasar a procura por atendimento médico ou até abandonar tratamentos, confiando em informações incompletas apresentadas como respostas “inteligentes”.

A pressão aumentou quando orientações ainda mais problemáticas vieram à tona. Em um dos casos, a ferramenta sugeriu que pacientes com câncer de pâncreas evitassem alimentos gordurosos — justamente o contrário do que recomendam os protocolos médicos. Esse tipo de dieta restritiva pode comprometer a ingestão calórica necessária para suportar tratamentos agressivos como quimioterapia e cirurgias.

Outros erros incluíram a associação incorreta do exame de Papanicolau à detecção de câncer vaginal, o que poderia atrasar diagnósticos adequados. Em temas de saúde mental, como psicose e transtornos alimentares, os resumos foram considerados prejudiciais por reforçarem estigmas e oferecerem conselhos arriscados.

Diante desse cenário, o Google optou por restringir o uso da IA em buscas sobre exames laboratoriais e outros tópicos sensíveis. A empresa afirmou que a maioria dos resumos era útil, mas reconheceu a necessidade de agir quando a ferramenta perde contexto ou interpreta mal o conteúdo disponível na internet.

Ainda assim, entidades de saúde criticaram a abordagem, afirmando que remover apenas termos específicos não resolve a falha estrutural da IA ao lidar com informações médicas complexas.

O desafio da IA em contextos médicos

A saúde é um dos campos mais delicados para a aplicação de inteligência artificial. Diferente de temas como entretenimento ou tecnologia, um erro aqui pode ter consequências diretas sobre decisões clínicas e comportamentos de pacientes.

Os sistemas de IA baseados em buscas abertas funcionam analisando grandes volumes de conteúdo da web. O problema é que nem toda informação online é precisa, atualizada ou contextualizada corretamente. Quando a IA sintetiza esses dados em respostas curtas, nuances importantes se perdem.

Além disso, diagnósticos médicos raramente são universais. Um mesmo resultado de exame pode significar coisas diferentes dependendo do histórico do paciente, de condições pré-existentes e de fatores demográficos. Sem acesso a esse contexto, a IA acaba oferecendo respostas genéricas para situações que exigem análises personalizadas.

Especialistas alertam que, em saúde, não basta parecer confiável — é preciso ser preciso. E, no caso dos resumos automáticos, a aparência de autoridade pode ser enganosa. Quando uma resposta vem do Google, muitos usuários tendem a aceitá-la como verdade, sem buscar uma segunda opinião médica.

Mesmo após as remoções, variações de termos técnicos ainda conseguem acionar resumos automáticos em algumas buscas, segundo investigações recentes. Isso mostra como o problema é mais profundo do que simplesmente desativar uma função.

Um novo caminho: IA integrada a dados clínicos

Enquanto o Google enfrenta críticas por sua abordagem baseada em buscas genéricas, outras empresas estão apostando em modelos mais especializados para o setor de saúde.

A Anthropic lançou o Claude for Healthcare, uma ferramenta voltada não ao público leigo, mas a médicos, pesquisadores e profissionais da área. Em vez de resumir conteúdos da internet, o sistema se conecta a bases oficiais, como bancos de dados do Medicare e códigos clínicos internacionais.

O objetivo é cruzar diretrizes médicas com prontuários reais, agilizando processos burocráticos, revisando documentos regulatórios e ajudando na identificação de falhas em testes clínicos. Nesse modelo, a IA atua como suporte técnico, não como substituta do julgamento médico.

Já a OpenAI apresentou o ChatGPT Health, um hub voltado para o gerenciamento pessoal de informações de bem-estar. A proposta é permitir que usuários acompanhem dados de sono, atividade física e outros indicadores, integrando informações de dispositivos vestíveis como smartwatches.

Para reduzir riscos, a ferramenta foi avaliada com o HealthBench, um sistema desenvolvido com a participação de mais de 260 médicos especialistas. A empresa enfatiza que o serviço não substitui diagnósticos profissionais e funciona apenas como apoio informativo.

A diferença central dessas abordagens está na fonte dos dados. Em vez de depender da web aberta, esses sistemas trabalham com bases técnicas, protocolos clínicos e informações verificadas. Isso reduz o risco de “alucinações” — quando a IA inventa ou distorce fatos.

O futuro da IA na saúde ainda está em construção

O recuo do Google marca um momento importante na relação entre tecnologia e medicina. Ele mostra que nem toda inovação pode ser aplicada de forma direta em áreas sensíveis.

A tendência para 2026 aponta para uma transição: menos respostas genéricas em mecanismos de busca e mais integração com dados clínicos, exames reais e protocolos médicos rigorosos. O foco deixa de ser apenas conveniência e passa a ser segurança.

Ainda assim, o desafio permanece. Mesmo sistemas especializados precisam garantir transparência, precisão e limites claros de atuação. A confiança de pacientes e profissionais de saúde depende da certeza de que a IA não vai simplificar demais aquilo que exige cuidado extremo.

No fim das contas, a tecnologia continua sendo uma ferramenta poderosa. Mas, quando o assunto é saúde, o erro custa caro — e o caminho para uma IA realmente confiável ainda está sendo traçado.

[Fonte: Olhar digital]

Partilhe este artigo

Artigos relacionados