A cena é comum. Você atende uma paciente com dor abdominal difusa, histórico de ansiedade, dois filhos pequenos e vida estressante. Ela já perguntou ao ChatGPT antes de chegar. O app disse que era provavelmente gastrite. Você examina, questiona melhor, e descobre que é uma apendicite no início. Ela quase não foi operada por conselho de IA.

Um estudo recente publicado na Nature Medicine trouxe dados que todo médico que trabalha no Brasil deveria conhecer: o ChatGPT falha de forma previsível em cenários de triagem clínica quando os casos não seguem um roteiro clássico. Não é notícia que IA erra. O problema é mais específico: erra justamente nos casos que você mais encontra no dia a dia.

O achado que importa

O estudo testou o ChatGPT em cenários de apresentação atípica e casos complexos que exigem integração de múltiplas informações. Quando o padrão clínico era textbook, o modelo se saía bem. Mas quando havia sobreposição de sintomas, contexto socioeconômico relevante ou apresentações incomuns, a taxa de erro era significativa. O modelo também mostrava confiança desproporcional às vezes em que acertava ou errava, sem sinais claros de incerteza.

Para quem trabalha em consultório conveniado, isso ressoa alto. Você não vê casos de livro didático. Vê mulher com dor epigástrica que pode ser refluxo, pode ser infarto, pode ser síndrome do pânico. Vê idoso que nega febre mas tem infecção. Vê criança com queixa vaga que os pais já googlearam extensivamente.

O risco real não é que a IA substituirá o seu julgamento clínico. É que pacientes (e alguns colegas menos experientes) acreditam que ela pode, especialmente em triagem inicial.

Por que falha justamente aí

Triagem é uma arte de exclusão de emergências. Você não está diagnosticando. Está respondendo a uma pergunta binária: "Preciso de atendimento urgente agora?" Isso parece simples, mas depende de você captar sinais sutis, fazer perguntas que o paciente nem sabia que deveria responder, e incorporar seu conhecimento sobre prevalência e preço de erros.

Um modelo treinado em textos consegue reproduzir conhecimento factual. Mas triagem demanda calibração contínua. Um médico que viu 500 apendicites atípicas tem um repertório de padrões que sua mente acessa sem consciência. IA não tem isso. Tem estatísticas de padrões em dados de treinamento. Quando a realidade diante dele se desvia, ele confia demais no que sabe ou sinaliza confiança onde há incerteza.

No Brasil, isso é amplificado porque triagem acontece em vários pontos. Não é só pronto-socorro. É a recepcionista do convênio respondendo chat, é a enfermeira da telemedicina filtrando casos, é o médico do SUS em UPA com 30 pessoas na sala de espera tentando decidir quem entra primeiro.

IA como ferramenta, não oráculo

O estudo não diz que ChatGPT não serve para nada em medicina. Diz que usá-lo como triador independente é inadequado. Mas usar como amplificador do seu pensamento é diferente.

Você documenta uma consulta, e a IA resume em SOAP estruturado, economizando 3 minutos que você recupera para examinar melhor o próximo paciente. Você prescreve e a IA valida CID, TUSS e interações medicamentosas contra as diretrizes da SBD e Anvisa. Você quer checar um sintoma raro e a IA busca PubMed, LILACS e SciELO em segundos, funcionando como bibliotecário que nunca dorme.

Nesses casos, você é o filtro. IA é o auxiliar. A ordem importa.

O que isso muda na prática

Se você trabalha com telemedicina, o risco é maior. Teleconsulta sem exame físico, usuário talvez ansioso, tendência a confiar em triagem automática ou chatbot. O CFM já reconhece telemedicina (norma CFM 2.294/21), mas o padrão ouro de quem avalia é sempre o médico. Se você delegou triagem completamente para um chatbot sem supervisão, e um caso grave passou, a responsabilidade segue sendo sua.

Se você trabalha em SUS ou convênio com demanda muito alta, a tentação de terceirizar decisão é maior. Mas estudos como este lembram: o vácuo de decisão clínica não se preenche só com tecnologia. Preenche com erro acumulado.

O caminho daqui

Esperar que IA melhore em triagem? Sim, vai melhorar. Mas não linearmente. E não para todos os cenários. O argumento "em breve será perfeito" é conforto, não estratégia.

A estratégia real é simples: use IA para amplificar você. Use para documentação, para busca de evidências, para integração de dados fragmentados. Mas triagem e decisão clínica ficam com você. Sempre.

No dia que você tiver 20 minutos para 20 pacientes, e a IA cuidar bem de resumir, prescrever com segurança e buscar diretrizes enquanto você examina e pensa, terá ganho tempo real. No dia que deixar IA decidir quem precisa atendimento urgente, terá perdido algo que não recupera.

O estudo da Nature Medicine é um lembrança: ferramentas ampliam capacidade. Não substituem responsabilidade clínica.

Conheça o Médico AI em https://medicoai.com.br