26/03/2026
@»ortopediacoluna»Inteligência artificial na saúde: benefício ou risco para pacientes?

Inteligência artificial na saúde: benefício ou risco para pacientes?

Muitas pessoas se deparam com resultados de exames de sangue que incluem termos como “leucócitos”, “hematócrito” e “PCR elevado” em PDFs enviados por e-mail. Esse tipo de situação pode causar desconforto e até medo, levando muitos a buscar respostas rápidas no Google ou em ferramentas de Inteligência Artificial, como ChatGPT ou Gemini, perguntando “o que eu tenho?”. Essas respostas são geralmente rápidas e certas, mas é fundamental ter cuidado.

Usar a Inteligência Artificial (IA) na área da saúde pode ser uma ferramenta valiosa, mas também pode ser perigosa. O uso correto dessa tecnologia depende de como se faz as perguntas.

Onde a IA Pode Ajudar

A IA atua como um “tradutor” de termos médicos, facilitando a comunicação entre o médico e o paciente. Os usuários podem utilizar essas ferramentas de IA para:

  1. Entender Termos Técnicos: Perguntas como “O que significa triglicérides e por que eles sobem?” podem ajudar a esclarecer informações.

  2. Resumir Informações de Bulas: É possível perguntar sobre efeitos colaterais de medicamentos ou o melhor horário para tomá-los, sempre lembrando de consultar um médico.

  3. Preparar Perguntas para Consultas: A IA pode auxiliar na elaboração de perguntas úteis para levar ao médico, como sobre pressão alta.

Nesses casos, a inteligência artificial serve como uma fonte de conhecimento, preparando o paciente para uma consulta melhor informada.

Onde a IA Pode Ser Perigosa

O problema surge quando se tenta usar a IA como se fosse um médico. Um fenômeno grave conhecido como “alucinação” acontece quando a IA fornece informações que parecem verdadeiras, mas são inventadas. Estudos revelam que a taxa de alucinação varia entre 33% e 79%, dependendo do modelo utilizado. Um exemplo preocupante ocorreu quando, em 2025, um homem recebeu a sugestão de substituir sal de cozinha por brometo de sódio, uma substância tóxica que causou graves complicações de saúde. A falta de contextualização levou a essa recomendação perigosa.

Além disso, a IA não possui conhecimento sobre o histórico médico do usuário, condições específicas ou fatores pessoais, como idade e tipo de pele. Um simples exame pode apresentar resultados “fora do normal”, que, na verdade, podem ser comuns dependendo da sua situação.

A confiança excessiva em respostas de IA já resultou em diagnósticos atrasados, colocando vidas em risco.

Diretrizes da Organizações de Saúde

Em janeiro de 2024, a Organização Mundial da Saúde (OMS) lançou um guia ético sobre o uso da IA na saúde. Uma das principais recomendações é usar a tecnologia para buscar informações e educação, mas nunca para fazer diagnósticos. Este princípio visa proteger a autonomia do paciente e manter o médico no controle das decisões clínicas.

Como Usar a IA em Saúde com Segurança

O que Fazer:

  1. Utilize a IA para se educar sobre doenças e exames.
  2. Compartilhe informações com seu médico para discutir.
  3. Prefira ferramentas que mostrem fontes, como o Perplexity.
  4. Consulte fontes confiáveis ao pesquisar.
  5. Pergunte ao seu médico se as informações obtidas são aplicáveis ao seu caso.
  6. Evite compartilhar dados pessoais sensíveis.
  7. Desconfie de respostas que parecem certas demais.

O que Evitar:

  1. Não use IA para auto-diagnósticos.
  2. Evite tomar decisões médicas baseadas apenas na IA.
  3. Não compartilhe resultados de exames com ferramentas públicas.
  4. Não ignore sintomas graves baseando-se em respostas da IA.
  5. Não adie consultas médicas esperando uma resposta da IA.
  6. Não tome medicamentos recomendados pela IA sem orientação médica.
  7. Esteja atento a informações falsas, especialmente diagnósticos inventados.

Usar a Inteligência Artificial na saúde pode facilitar a compreensão de questões médicas, mas é vital lembrar que ela não substitui o aconselhamento de profissionais de saúde qualificados.

Sobre o autor: suporte

Ver todos os posts →