Muitas pessoas se deparam com resultados de exames de sangue que incluem termos como “leucócitos”, “hematócrito” e “PCR elevado” em PDFs enviados por e-mail. Esse tipo de situação pode causar desconforto e até medo, levando muitos a buscar respostas rápidas no Google ou em ferramentas de Inteligência Artificial, como ChatGPT ou Gemini, perguntando “o que eu tenho?”. Essas respostas são geralmente rápidas e certas, mas é fundamental ter cuidado.
Usar a Inteligência Artificial (IA) na área da saúde pode ser uma ferramenta valiosa, mas também pode ser perigosa. O uso correto dessa tecnologia depende de como se faz as perguntas.
Onde a IA Pode Ajudar
A IA atua como um “tradutor” de termos médicos, facilitando a comunicação entre o médico e o paciente. Os usuários podem utilizar essas ferramentas de IA para:
-
Entender Termos Técnicos: Perguntas como “O que significa triglicérides e por que eles sobem?” podem ajudar a esclarecer informações.
-
Resumir Informações de Bulas: É possível perguntar sobre efeitos colaterais de medicamentos ou o melhor horário para tomá-los, sempre lembrando de consultar um médico.
-
Preparar Perguntas para Consultas: A IA pode auxiliar na elaboração de perguntas úteis para levar ao médico, como sobre pressão alta.
Nesses casos, a inteligência artificial serve como uma fonte de conhecimento, preparando o paciente para uma consulta melhor informada.
Onde a IA Pode Ser Perigosa
O problema surge quando se tenta usar a IA como se fosse um médico. Um fenômeno grave conhecido como “alucinação” acontece quando a IA fornece informações que parecem verdadeiras, mas são inventadas. Estudos revelam que a taxa de alucinação varia entre 33% e 79%, dependendo do modelo utilizado. Um exemplo preocupante ocorreu quando, em 2025, um homem recebeu a sugestão de substituir sal de cozinha por brometo de sódio, uma substância tóxica que causou graves complicações de saúde. A falta de contextualização levou a essa recomendação perigosa.
Além disso, a IA não possui conhecimento sobre o histórico médico do usuário, condições específicas ou fatores pessoais, como idade e tipo de pele. Um simples exame pode apresentar resultados “fora do normal”, que, na verdade, podem ser comuns dependendo da sua situação.
A confiança excessiva em respostas de IA já resultou em diagnósticos atrasados, colocando vidas em risco.
Diretrizes da Organizações de Saúde
Em janeiro de 2024, a Organização Mundial da Saúde (OMS) lançou um guia ético sobre o uso da IA na saúde. Uma das principais recomendações é usar a tecnologia para buscar informações e educação, mas nunca para fazer diagnósticos. Este princípio visa proteger a autonomia do paciente e manter o médico no controle das decisões clínicas.
Como Usar a IA em Saúde com Segurança
O que Fazer:
- Utilize a IA para se educar sobre doenças e exames.
- Compartilhe informações com seu médico para discutir.
- Prefira ferramentas que mostrem fontes, como o Perplexity.
- Consulte fontes confiáveis ao pesquisar.
- Pergunte ao seu médico se as informações obtidas são aplicáveis ao seu caso.
- Evite compartilhar dados pessoais sensíveis.
- Desconfie de respostas que parecem certas demais.
O que Evitar:
- Não use IA para auto-diagnósticos.
- Evite tomar decisões médicas baseadas apenas na IA.
- Não compartilhe resultados de exames com ferramentas públicas.
- Não ignore sintomas graves baseando-se em respostas da IA.
- Não adie consultas médicas esperando uma resposta da IA.
- Não tome medicamentos recomendados pela IA sem orientação médica.
- Esteja atento a informações falsas, especialmente diagnósticos inventados.
Usar a Inteligência Artificial na saúde pode facilitar a compreensão de questões médicas, mas é vital lembrar que ela não substitui o aconselhamento de profissionais de saúde qualificados.