A inteligência artificial já é uma realidade presente em diversos setores, inclusive na medicina. A promessa de diagnósticos mais rápidos e precisos com o apoio de sistemas automatizados tem chamado a atenção de hospitais, clínicas e profissionais de saúde.
Mas essa tecnologia ainda está longe de ser perfeita. Um erro recente envolvendo a IA médica do Google levantou preocupações sobre o uso dessa ferramenta sem supervisão humana adequada, reacendendo debates sobre segurança, confiabilidade e responsabilidade no setor da saúde.
Clique no botao abaixo para liberar o conteudo completo gratuitamente.

LEIA MAIS:
- Internet grátis? Confira os celulares que agora têm acesso sem custo
- Sábado é campeão em furtos de celulares no Brasil; veja os estados mais afetados
- Google enfrenta crise com celulares que pegam fogo; update não funciona
Inteligência artificial médica: O caso que chamou atenção do mundo
A ferramenta do Google e o erro anatômico
O Google, por meio de seu laboratório de IA DeepMind, desenvolveu o Med-Gemini — uma inteligência artificial projetada para atuar como assistente na interpretação de exames e prontuários médicos. No entanto, em uma das avaliações divulgadas pela própria empresa, a IA cometeu um erro bizarro: citou uma parte do corpo que simplesmente não existe.
Em vez de identificar corretamente os gânglios basais (“basal ganglia”), estruturas reais e bem documentadas do cérebro humano, o Med-Gemini diagnosticou um “old left basilar ganglia infarct” — um termo incorreto. A confusão teria ocorrido por associação indevida com a “artéria basilar” (basilar artery), outra estrutura cerebral legítima, mas totalmente distinta.
Alucinação da IA: quando a máquina inventa
Esse tipo de erro é classificado por especialistas como uma alucinação de IA — situação em que o sistema gera termos que parecem plausíveis, mas que são completamente incorretos ou fictícios. O fenômeno é comum em grandes modelos de linguagem, como o próprio Gemini, e representa um risco grave em áreas sensíveis como a saúde.
Segundo o Google, embora o Med-Gemini tenha conseguido identificar a lesão cerebral, falhou ao utilizar a terminologia adequada. O erro, por mais técnico que pareça, poderia comprometer o entendimento do caso clínico e até levar a intervenções médicas equivocadas.
O impacto de falhas em diagnósticos automatizados
Riscos para pacientes
A medicina é uma ciência que lida com vidas humanas, e qualquer equívoco pode ter consequências sérias. Um diagnóstico impreciso pode resultar em tratamentos inadequados, atrasos críticos na intervenção e até agravamento do quadro clínico.
A confusão entre duas estruturas cerebrais distintas, por exemplo, pode alterar significativamente o plano terapêutico adotado por uma equipe médica. A depender do contexto, uma decisão baseada em dados gerados pela IA pode ser determinante para o prognóstico do paciente.
Falhas que escapam até da validação humana
Outro ponto preocupante é o fato de que esse erro passou despercebido por toda a equipe do Google durante a validação do Med-Gemini. Isso mostra que, além de falhas na IA, há também fragilidades nos processos de revisão e auditoria.
Se até uma empresa com os recursos e o prestígio do Google comete deslizes como esse, o que esperar de instituições menores que podem não ter o mesmo grau de controle ou acesso a especialistas?
A resposta do Google e as justificativas
O reconhecimento público do erro
Após a publicação do caso pelo portal The Verge, o Google reconheceu publicamente a falha. A empresa confirmou que o Med-Gemini identificou corretamente uma lesão antiga nos gânglios basais, mas admitiu o uso incorreto da nomenclatura.
A big tech também afirmou que está trabalhando para corrigir o problema e melhorar a precisão dos modelos, com foco especial em terminologia médica padronizada.
IA ainda em fase de testes
O Google ressaltou que o Med-Gemini é uma ferramenta ainda em fase de testes e não está sendo usada de forma autônoma em hospitais ou clínicas. No entanto, especialistas alertam que o simples fato de divulgar resultados imprecisos pode gerar confiança indevida por parte do público e dos profissionais de saúde.
É essencial deixar claro que a tecnologia ainda não está pronta para substituir diagnósticos humanos, especialmente em casos complexos ou que envolvam múltiplas interpretações clínicas.
MedGemma: a nova geração da IA médica
Promessas e limitações
Na tentativa de aprimorar o projeto, o Google lançou uma nova versão do sistema, batizada de MedGemma. A ferramenta promete ser mais precisa, com capacidade para analisar exames de imagem, interpretar descrições clínicas e formular hipóteses diagnósticas.
No entanto, profissionais que testaram a nova IA observaram variações nos diagnósticos conforme a forma como as perguntas eram formuladas. Pequenas mudanças na redação do enunciado resultaram em respostas significativamente diferentes, o que compromete a confiabilidade do sistema.
A importância da supervisão humana
Essa instabilidade reforça a necessidade de manter o elemento humano no centro do processo. Embora a IA possa atuar como ferramenta complementar, a supervisão médica é essencial para garantir a segurança dos pacientes.
Diagnósticos dependem de mais do que dados técnicos. Exigem interpretação clínica, conhecimento contextual e experiência — elementos que uma máquina ainda não é capaz de replicar de forma confiável.
Inteligência artificial na saúde: benefícios e dilemas
Potencial de transformação
Apesar das falhas, não se pode negar o potencial transformador da IA na medicina. Ferramentas como Med-Gemini podem, em teoria, agilizar diagnósticos, detectar padrões ocultos e auxiliar profissionais em decisões complexas.
Além disso, em regiões com carência de especialistas, a IA pode ajudar a reduzir desigualdades de acesso ao diagnóstico. A triagem automatizada, por exemplo, já é uma realidade em muitos sistemas públicos de saúde ao redor do mundo.
Ética e responsabilidade
Mas o avanço da IA levanta questões éticas relevantes. Quem é o responsável por um erro cometido por uma máquina? O desenvolvedor do sistema? O hospital que implementou a ferramenta? Ou o profissional que confiou no resultado?
Esses dilemas ainda não têm respostas claras. O que se sabe é que a legislação atual, na maioria dos países, ainda não está preparada para lidar com incidentes causados por inteligência artificial no ambiente clínico.
Caminhos para o futuro
Investimento em validação rigorosa
O episódio envolvendo o Med-Gemini evidencia a necessidade de testes rigorosos antes que qualquer IA médica seja utilizada em larga escala. Modelos como esse devem passar por validação clínica com profissionais multidisciplinares, além de auditorias externas.
As tecnologias também devem ser treinadas com bases de dados diversificadas, que representem diferentes populações, línguas e contextos culturais. Isso é fundamental para garantir que os algoritmos não reproduzam viéses ou cometam erros sistemáticos.
Transparência nos relatórios e processos
Outro ponto crucial é a transparência. Empresas que desenvolvem IA para a saúde precisam divulgar claramente as limitações do sistema, seus níveis de acurácia e os contextos em que devem (ou não) ser utilizados.
A publicação de relatórios de falhas, como ocorreu neste caso, deve se tornar uma prática comum e incentivada — afinal, só se melhora o que é monitorado e analisado de forma crítica.
Cooperação entre humanos e máquinas
Por fim, o futuro da medicina com inteligência artificial não está em substituir médicos, mas sim em potencializar seu trabalho. A IA pode ser uma poderosa aliada, desde que utilizada com responsabilidade, supervisão e critérios técnicos bem definidos.
Cabe às instituições de saúde, governos e desenvolvedores construírem um ecossistema que favoreça a integração segura da tecnologia, sempre com foco no que realmente importa: a vida dos pacientes.

O erro cometido pelo Med-Gemini ao inventar uma estrutura cerebral evidencia o quanto a inteligência artificial ainda está em fase de amadurecimento — especialmente em áreas sensíveis como a medicina. Apesar dos avanços promissores, a IA precisa ser tratada com cautela, testada rigorosamente e, acima de tudo, supervisionada por seres humanos.
A tecnologia tem potencial para transformar o setor da saúde, mas erros como o do Google mostram que ainda há um longo caminho até que se possa confiar cegamente em diagnósticos gerados por máquinas. A chave está na cooperação inteligente entre profissionais da saúde e ferramentas digitais, e não em uma substituição precipitada.

