Quando a IA ameaça a saúde: o risco de consultas, treinos e dietas virtuais

Por Erick Balbino | 7Segundos

A popularização dos chatbots e de outras ferramentas de inteligência artificial (IA) transformou o modo como buscamos informações sobre saúde. Em poucos segundos, qualquer pessoa consegue um “plano” de emagrecimento, uma rotina de treinos ou orientações sobre medicamentos, sem precisar falar com um profissional.

O problema é que a mesma velocidade com que as respostas chegam não garante precisão, contexto clínico ou segurança. E o custo do erro pode ser alto.

Nas últimas semanas, um caso ganhou repercussão internacional: um homem de 60 anos foi hospitalizado após substituir o sal de cozinha por brometo de sódio, acreditando que seria uma alternativa “mais saudável”, decisão tomada depois de consultar um chatbot. Ele desenvolveu bromismo, um quadro tóxico raro, com alucinações e sintomas psiquiátricos. O episódio, descrito em periódico clínico e noticiado por vários veículos, tornou-se símbolo do risco de se tomar decisões médicas com base em respostas automatizadas e sem supervisão profissional.

Especialistas alertam que modelos de linguagem “parecem” confiantes mesmo quando erram. Em saúde, esse verniz de autoridade gera uma combinação perigosa: informação incompleta, linguagem persuasiva e leitores em busca de soluções rápidas.

“O grande risco de recorrer a ferramentas de inteligência artificial para esclarecer sintomas de saúde é a possibilidade de interpretações equivocadas. A IA pode até oferecer informações gerais e servir como apoio educativo, mas não conhece o histórico clínico do paciente, não realiza exame físico e não tem a sensibilidade de avaliar fatores individuais, como uso de medicamentos, condições preexistentes ou até mesmo aspectos emocionais. Isso pode levar à automedicação inadequada, atraso na procura por atendimento profissional e até ao agravamento de doenças que poderiam ser tratadas mais rapidamente", alertou o médico alagoano Jefferson Vieira, que é especialista em Medicina do Esporte.

Jefferson Vieira é médico especialista em Medicina do Esporte (Foto: Acerv Pessoal)

Segundo o profissional, outro ponto importante é que o excesso de informações, muitas vezes técnicas ou imprecisas, pode gerar ansiedade e confusão no paciente: "A orientação médica personalizada continua sendo fundamental e insubstituível”, deixou claro o médico, reforçando que nada substitui avaliação profissional, seja ela com médico, nutricionista, psicólogo, etc.

A pergunta central, portanto, não é se devemos usar IA na saúde, mas como, quando e sob quais salvaguardas.

DIETAS E TREINOS: ONDE A IA ERRA

A promessa é tentadora: peça “um plano de 8 semanas” e receba séries, repetições e macros. Mas estudos mostram lacunas importantes. Em avaliação acadêmica, respostas sobre exercício cobriram apenas cerca de 41% do conteúdo esperado segundo padrões de referência, faltaram detalhes de frequência, intensidade e progressão (o princípio FITT), justamente os itens que evitam lesão.

Para além da técnica, há vulnerabilidades populacionais. Investigações recentes mostraram que chatbots podem, sob certos prompts, fornecer a adolescentes conselhos perigosos sobre dieta extrema, álcool e até autolesão. Na seara dos transtornos alimentares, já houve casos documentados de ferramentas “de apoio” que acabaram sugerindo conteúdos nocivos, levando seus operadores a desligá-las.

Para Lucas Magalhães, profissional de Educação Física alerta que toda prescrição de treinos deve ser feita de maneira individualizada, onde o planejamento é feito a partir da real necessidade e das condições físicas de cada pessoa.

Lucas Magalhães é profissional de Educação Física e atua como personal trainer (Foto: Acervo Pessoal).

"Ao utilizar ferramentas de inteligência artificial para ter um treino, corre-se o risco de fazer exercícios que a sua atual condição física não está preparada. Os exercícios prescritos pela inteligência artificial serão citados de maneira generalizada, então se você possui alguma condição física ou de saúde que limite a sua prática, você pode correr o risco de piorar essas condições, pois não foi feita uma avaliação prévia e muito menos um planejamento direcionado para a suas necessidades", esclareceu o personal.

PRESCRIÇÃO E AUTOMEDICAÇÃO: O RISCO OCULTO

Quando a conversa muda para medicamentos, o perigo cresce. Meta-análises e revisões apontam variação grande de acerto, com respostas incompletas e, às vezes, imprecisas. Em cenários simulados, modelos podem “alucinar” orientações, listar interações inexistentes ou omitir contraindicações. Reguladores têm insistido em rotulagem clara quando funções de LLM estão “embutidas” em dispositivos e apps de saúde.

Em testes comparando instruções para uso de fármacos, a qualidade oscilou e faltaram alertas cruciais, algo inaceitável quando falamos de anticoagulantes, antidepressivos ou hormônios. Mesmo quando a resposta é “majoritariamente correta”, a ausência de completude e personalização pode induzir à automedicação insegura.

ORGANISMOS INTERNACIONAIS PEDEM PRUDÊNCIA

  • A Organização Mundial da Saúde (OMS) publicou, em janeiro de 2024, diretrizes específicas para o uso de modelos generativos e multimodais em saúde, com mais de 40 recomendações envolvendo governo, empresas e provedores, enfatizando transparência, validação clínica, gestão de risco e supervisão humana.

    Nos Estados Unidos, a Food and Drug Administration (FDA) vem atualizando a regulação de softwares como dispositivos médicos e de funções habilitadas por IA. O órgão publicou princípios de transparência e planos de mudança pré-determinada para algoritmos que se atualizam ao longo do ciclo de vida, justamente para mitigar riscos de segurança e eficácia.

  • Na prática assistencial, entidades de qualidade e segurança do paciente também lembram que modelos generativos podem introduzir novas ameaças: alucinações plausíveis, enviesamentos, recomendações descontextualizadas e sobrecarga cognitiva para quem tenta checar tudo depois. É o tipo de risco que não aparece em demonstrações de produto, mas se materializa no cotidiano.

    No Brasil, o Conselho Federal de Medicina (CFM) tem debatido o tema em audiências e estudos, reforçando preocupações éticas como a possível diluição da relação médico-paciente, a proteção de dados sensíveis e a dependência excessiva de sistemas automatizados.

CHECKLIST DO USO RESPONSÁVEL - PARA QUEM BUSCA INFORMAÇÃO

> Trate IA como rascunho, não como receita. Use-a para entender termos, não para fechar diagnóstico, dieta, treino ou posologia.

> Peça referências e confira a fonte. Sem citação rastreável, considere a informação não confiável.

> Exija contexto pessoal. Qual seu histórico, medicações, exames, limitações? Se a resposta ignora isso, não serve.

> Procure o profissional certo. Dieta é com nutricionista; treino, com educador físico; prescrição, com médico.

> Cuidado com “atalhos” e milagres. Planos que prometem perda rápida de peso, ciclos hormonais “seguros” ou supostos substitutos alimentares são bandeiras vermelhas.

> Privacidade importa. Evite inserir dados sensíveis; prefira plataformas que detalham como modelos são treinados e auditados.

> Desconfie do tom de certeza. Em saúde, dúvidas bem-explicadas são mais seguras do que certezas infundadas.

> Sinais de alerta: recomendação de trocar um insumo essencial por um químico pouco conhecido; incentivo à automedicação; supressão total de grupos alimentares sem justificativa clínica; treinos sem progressão e sem descanso.


O QUE PLATAFORMAS E AUTORIDADES PRECISAM FAZER AGORA

A discussão não é tecnofóbica; é de governança. Operadores devem validar clinicamente casos de uso, incorporar supervisão humana, publicar limites e taxonomias de erro, além de adotar rastreabilidade de fontes e planos de mudança para algoritmos que evoluem. Reguladores, por sua vez, precisam acelerar marcos que diferenciem bem-estar geral de função médica, com transparência para o usuário final.

No Brasil, há espaço para liderar: consolidar diretrizes do CFM e entidades multiprofissionais, criar selos de conformidade para apps que usem IA em saúde e fomentar letramento digital em saúde para a população. É nesse encontro, tecnologia responsável, regras claras e cuidado centrado na pessoa, que a IA pode, de fato, somar.