
Com a popularização das inteligências artificiais generativas, cresce o uso de chatbots para consultas e orientações sobre saúde. Um estudo publicado nesta quarta-feira (15) na revista científica BMJ Open aponta que cerca de 50% das respostas médicas fornecidas por ferramentas como ChatGPT, Gemini, Meta AI, Grok e DeepSeek não são confiáveis e podem ser potencialmente prejudiciais.
A pesquisa indica que um dos principais problemas é o excesso de confiança das ferramentas, que raramente demonstram incerteza mesmo quando apresentam informações incorretas. Em 250 perguntas analisadas, houve apenas duas recusas de resposta, ambas registradas na Meta AI.
Do total avaliado, aproximadamente 20% das respostas foram classificadas como altamente problemáticas e 50% como problemáticas. O estudo também observou melhor desempenho das IAs em temas mais consolidados, como câncer e vacinas, enquanto apresentaram maior risco de erro em áreas como nutrição, performance física e terapias com células-tronco.
Os pesquisadores apontam que o treinamento dos modelos, baseado em grandes volumes de dados da internet incluindo redes sociais e fóruns, contribui para a reprodução de informações sem base científica. Isso pode gerar o chamado falso equilíbrio, quando conteúdos sem evidência são tratados no mesmo nível de estudos médicos consolidados.
Entre os principais riscos citados estão diagnósticos incorretos, orientações genéricas e a geração de referências inexistentes. As IAs generativas não substituem profissionais de saúde e não possuem capacidade de diagnóstico clínico.
Apesar dos alertas, o uso dessas ferramentas na área da saúde segue em expansão. Segundo a OpenAI, mais de 200 milhões de pessoas fazem perguntas sobre saúde e bem-estar ao ChatGPT semanalmente, enquanto empresas do setor ampliam o desenvolvimento de soluções específicas para a área médica.


