A automação avança na medicina com uma velocidade que desconforta. Sistemas de triagem por IA, modelos de linguagem integrados ao prontuário, algoritmos de diagnóstico por imagem. A pergunta que domina congressos e redações de hospitais universitários é, na maioria das vezes, sobre os próprios médicos: nossos empregos estão seguros? Essa pergunta é legítima, mas obscurece outra muito mais urgente. Para quem essa tecnologia está sendo construída?
O problema não está no algoritmo. Está nos dados que o alimentam.
Modelos de IA treinados predominantemente com dados de populações brancas, de renda média a alta, atendidas em grandes centros urbanos reproduzem e amplificam desigualdades existentes. Isso não é hipótese teórica. O algoritmo de gestão de risco desenvolvido pela Optum, amplamente utilizado em hospitais americanos, foi documentado em 2019 no periódico Science como sistematicamente subrreferenciando pacientes negros para programas de cuidados complexos. O sistema usava custo histórico como proxy de necessidade clínica. Populações que historicamente tiveram menos acesso ao sistema geraram menos custo, foram classificadas como menos doentes e receberam menos recursos. A IA não criou o racismo estrutural no acesso à saúde. Mas o codificou em escala industrial.
O mecanismo é direto: viés nos dados de entrada produz viés nos resultados, que produz decisões clínicas enviesadas aplicadas automaticamente a milhares de pacientes. A velocidade e a escala que tornam a IA atraente são as mesmas que tornam seus erros sistemáticos devastadores quando a injustiça está embutida no modelo.
O que "equidade em IA" realmente significa na prática clínica
Não se trata de adicionar diversidade como checklist no final do desenvolvimento. Equidade em IA clínica exige decisões técnicas específicas desde a concepção do modelo: estratificação de desempenho por raça, gênero, faixa etária e condição socioeconômica durante a validação; auditorias regulares após implantação; e representatividade intencional nos dados de treinamento.
Ferramentas de diagnóstico por imagem para dermatologia são um exemplo concreto do problema. Modelos treinados com imagens de pele predominantemente clara apresentam desempenho inferior para peles escuras, incluindo no reconhecimento de melanoma e outras lesões malignas. Se esse modelo for implantado em UBS de uma capital brasileira sem validação local, o risco não é abstrato.
A Food and Drug Administration (FDA) já exige que submissões de dispositivos de IA/ML em saúde incluam análise de desempenho por subgrupos. A Anvisa ainda estrutura sua regulamentação para IA, e o caminho que esse arcabouço tomará definirá quão expostos estaremos a modelos importados sem validação para a nossa população.
Tecnologia boa para quem já tem acesso não resolve desigualdade
Existe um otimismo genuíno, e não completamente infundado, de que a IA pode reduzir lacunas de acesso. Modelos de triagem automatizada poderiam funcionar em regiões com escassez de especialistas. Algoritmos de interpretação de ECG já mostraram sensibilidade comparável à de cardiologistas em populações rurais com cobertura limitada. Isso é real e relevante.
Mas há uma condição que raramente aparece nos slides de conferência: esse potencial só se realiza se a infraestrutura existir, se o modelo foi validado naquela população específica, e se o sistema de saúde local tiver capacidade de agir sobre os alertas gerados. IA que detecta risco cardiovascular elevado em paciente sem acesso a cardiologista nem medicamento básico entrega informação sem consequência. O problema não era o diagnóstico.
A IA não substitui política de saúde. Ela pode potencializar sistemas que já funcionam e amplificar falhas de sistemas que não funcionam.
O que médicos podem fazer agora
Quando avaliamos ou adotamos qualquer ferramenta de IA na prática clínica, algumas perguntas precisam ser feitas com firmeza: Em qual população esse modelo foi treinado e validado? O desempenho foi testado separadamente em subgrupos relevantes? Existe plano de auditoria pós-implantação? Quem responde quando o algoritmo erra?
Essas não são perguntas filosóficas. São perguntas de uso responsável de tecnologia médica, do mesmo tipo que fazemos sobre eficácia e segurança de qualquer intervenção.
A IA chegou à medicina. A equidade ainda não chegou por tabela. Isso depende de quem projeta, quem valida, quem audita e quem tem poder de recusar ferramentas inadequadas. Médicos estão nessa cadeia.
Para quem usa IA clínica no dia a dia e quer manter a prática baseada em evidências sólidas, o Médico AI oferece acesso a um chat com inteligência artificial integrado ao PubMed, LILACS, SciELO e diretrizes brasileiras, permitindo consulta rápida à literatura relevante para a sua população de pacientes. Conheça o Médico AI em https://medicoai.com.br