09/02/2026
@»Medicina Geriátrica Notícias»Inteligência artificial na saúde: aliados ou riscos para pacientes?

Inteligência artificial na saúde: aliados ou riscos para pacientes?

Riscos e Benefícios do Uso de Inteligência Artificial na Saúde

Hoje em dia, é comum receber o resultado de exames de sangue por e-mail. Ao abrir o arquivo em PDF, muitas pessoas se deparam com termos como “Leucócitos”, “Hematócrito” e “PCR elevado”. Essas palavras podem causar preocupação, levando a uma busca rápida na internet ou, mais recentemente, a uma consulta em ferramentas de inteligência artificial (IA), como ChatGPT ou Gemini, na tentativa de entender o que pode estar errado.

Embora essas ferramentas possam oferecer respostas rápidas e com tom amigável, é importante ter cautela. A utilização da IA na saúde pode ser muito útil, mas também pode apresentar riscos. O que acontece é que a forma como fazemos perguntas pode influenciar as respostas recebidas.

Onde a IA é Útil

Essas ferramentas podem ajudar a esclarecer termos médicos e proporcionar informações que facilitam o entendimento. Veja algumas maneiras seguras de utilizar a IA:

  1. Entender termos técnicos: Você pode perguntar, por exemplo, “O que são triglicerídeos?” e receber uma explicação clara.

  2. Resumir bulas de medicamentos: Ao perguntar sobre os efeitos colaterais de um remédio, a IA pode oferecer um resumo, sempre lembrando de conferir com seu médico.

  3. Preparar para consultas médicas: Fazer perguntas como “Quais são as principais dúvidas que devo abordar com meu cardiologista?” pode te ajudar a se preparar melhor para a visita.

Nesse contexto, a IA atua como uma ferramenta de apoio ao paciente, promovendo mais conhecimento sobre sua saúde.

Onde a IA Pode Ser Perigosa

Por outro lado, o problema surge quando as pessoas tentam usar a IA como se ela fosse um médico. Um fenômeno conhecido como “alucinação” ocorre quando a IA gera informações que parecem corretas, mas são falsas ou inventadas. Os dados são alarmantes:

  • A taxa de alucinação pode variar entre 33% e 79%, dependendo do modelo.
  • Em referências médicas, cerca de 47% das informações geradas pelo ChatGPT foram criações fictícias.
  • No caso de diagnósticos pediátricos, a taxa de acerto do ChatGPT foi apenas de 17%.

Um exemplo crítico envolveu um homem de 60 anos que foi aconselhado pela IA a substituir o sal comum por brometo de sódio, um composto químico tóxico, resultando em problemas neurológicos graves. Isso evidencia que a IA pode gerar informações sem levar em conta o contexto da situação.

Por que a IA Erra?

A IA não é capaz de considerar todos os fatores relevantes ao fazer uma análise. Por exemplo, ao analisar uma imagem de uma mancha na pele, a IA não saberá sobre o histórico de saúde do paciente ou outros sintomas importantes. Um valor fora do padrão em um exame pode ser normal para uma pessoa e, nesse contexto, a IA pode oferecer uma resposta incorreta, seja acalmando o paciente indevidamente ou criando pânico desnecessário.

Recentemente, houve registros de diagnósticos imprecisos, incluindo atrasos em casos de AVC que colocaram vidas em risco devido à confiança excessiva nas respostas da IA.

Princípios Éticos

Em janeiro de 2024, a Organização Mundial da Saúde (OMS) lançou um guia ético para o uso de IA na saúde. Um dos princípios mais importantes é que a tecnologia deve ser usada para informar, e nunca para diagnosticar. Isso significa que o paciente e o médico sempre devem estar no controle das decisões sobre a saúde.

Uso Seguro da IA na Saúde

A OMS sugere algumas formas de utilizar a IA com segurança. Aqui estão algumas recomendações:

O que fazer:

  1. Use a IA para obter informações sobre doenças e exames.
  2. Compartilhe o que encontrou com seu médico para discutir.
  3. Prefira ferramentas que citam fontes confiáveis.
  4. Pergunte ao seu médico se a informação é apropriada para seu caso.
  5. Nunca forneça informações pessoais sensíveis.
  6. Desconfie de respostas definitivas, pois a saúde é sempre contextual.

O que evitar:

  1. Não use a IA para auto-diagnósticos.
  2. Não tome decisões médicas apenas com base nas informações da IA.
  3. Não ignore sintomas sérios porque a IA diz que não são preocupantes.
  4. Não aguarde por respostas da IA em vez de buscar ajuda médica.

Em suma, enquanto a inteligência artificial pode ser um recurso valioso para complementar a assistência médica, é fundamental utilizá-la com responsabilidade e sempre buscar a orientação de profissionais de saúde.

Sobre o autor: suporte

Ver todos os posts →