A convergência entre inteligência artificial, edição genômica e medicina de precisão criou um conjunto de dilemas bioéticos que as estruturas regulatórias atuais não conseguem resolver, e a lacuna entre o avanço tecnológico e o debate ético está crescendo mais rápido do que nossa capacidade de fechá-la.

Não se trata de filosofia especulativa. São questões práticas que afetam decisões clínicas, políticas públicas e responsabilidade profissional agora.

Quem é dono dos dados genéticos do paciente?

Quando um paciente realiza um sequenciamento genômico, o dado gerado não pertence apenas a ele. Contém informações sobre familiares que nunca consentiram com nada. Pode ser compartilhado com seguradoras, empregadores ou plataformas comerciais, dependendo da jurisdição e dos termos de uso aceitos sem leitura.

No Brasil, a LGPD classifica dado genético como dado sensível, com proteção reforçada. Na prática, porém, os contratos de empresas de genômica direta ao consumidor frequentemente transferem propriedade intelectual derivada dos dados para a empresa. A regulação existe no papel; a fiscalização, ainda não.

O debate bioético aqui não é abstrato: é sobre qual médico assume responsabilidade quando um dado genético vaza e resulta em discriminação.

CRISPR, germline e o consenso que não veio

A edição de células germinativas com CRISPR-Cas9 foi declarada prematura pela comunidade científica após o caso He Jiankui, em 2018, quando nasceram as primeiras crianças com edição genômica intencional. He foi preso. As crianças existem.

O que não existiu até hoje é um consenso internacional vinculante sobre onde termina terapia e começa aprimoramento. Tratar uma distrofia muscular via edição somática é aceito no horizonte próximo. Editar embriões para aumentar coeficiente intelectual presumivelmente é diferente. Mas a linha entre os dois é menos nítida do que parece quando se começa a discutir genes associados a risco de Alzheimer, predisposição a obesidade ou variantes relacionadas ao humor.

A Organização Mundial da Saúde criou em 2019 um comitê de governança para edição genômica humana, mas suas recomendações não têm força regulatória. Países com capacidade técnica para fazer a edição não estão esperando consenso.

Aprimoramento cognitivo e o problema da linha de corte

Metilfenidato e modafinil já são usados por pessoas sem diagnóstico para melhorar desempenho cognitivo. Isso não é novidade. O que muda com novas tecnologias é a escala e a profundidade possíveis: interfaces cérebro-computador como as desenvolvidas pela Neuralink prometem integração direta entre córtex e processamento digital.

A pergunta bioética concreta é: se esse aprimoramento se tornar acessível apenas para quem tem renda, como isso afeta igualdade de oportunidades em educação, mercado de trabalho e acesso a cargos de decisão? A desigualdade biológica induzida por tecnologia é categoricamente diferente da desigualdade natural porque é produto de escolha coletiva, não de acaso evolutivo.

Responsabilidade civil de algoritmos: quem processa, quem responde?

Sistemas de IA com aprovação regulatória já auxiliam diagnóstico de imagem, estratificação de risco e recomendação terapêutica. O FDA aprovou mais de 500 dispositivos de IA médica até 2023. No Brasil, a ANVISA ainda está construindo o marco regulatório específico para software como dispositivo médico (SaMD).

Quando um algoritmo erra e o paciente é prejudicado, a responsabilidade recai sobre o médico que aceitou a recomendação, sobre o hospital que implantou o sistema ou sobre a empresa que o desenvolveu? A resposta jurídica ainda não existe de forma consolidada em nenhuma jurisdição relevante. Médicos estão usando ferramentas cuja cadeia de responsabilidade civil é incerta, e isso não é hipótese futura: é a situação atual.

O debate precisa sair dos congressos de bioética

Essas questões costumam circular em eventos acadêmicos e artigos de filosofia médica. O problema é que as decisões que as tornam irreversíveis, como aprovar uma terapia, lançar um algoritmo ou editar um embrião, são tomadas antes que o debate chegue à prática clínica.

Médicos que usam IA no dia a dia, que prescrevem exames genômicos ou que trabalham com protocolos baseados em algoritmos precisam ter clareza sobre onde estão os limites éticos e legais de cada ferramenta. Não como questão filosófica, mas como proteção profissional e responsabilidade com o paciente.

O Médico AI foi desenvolvido com conformidade à LGPD, ao CFM e à certificação ISO 27001, justamente porque o tratamento de dados clínicos sensíveis exige mais do que boa intenção. Conheça o Médico AI em https://medicoai.com.br

---

Perguntas Frequentes

P: O dado genético do paciente é protegido pela LGPD no Brasil?
R: Sim. A LGPD (Lei 13.709/2018) classifica dado genético como dado pessoal sensível, sujeito a requisitos mais rígidos de consentimento e tratamento. Na prática, o compartilhamento com empresas privadas de genômica exige consentimento específico e a finalidade deve ser declarada, mas a fiscalização ainda é incipiente no país.

P: Um médico pode ser responsabilizado por erro de diagnóstico causado por um algoritmo de IA?
R: Juridicamente, o cenário ainda é indefinido no Brasil. O CFM, na Resolução 2.314/2022, mantém que a responsabilidade pelo ato médico é do profissional, mesmo quando ferramentas de apoio são utilizadas. Isso significa que aceitar uma recomendação algorítmica sem julgamento clínico próprio pode configurar culpa por negligência.

P: Edição genética em células somáticas já é permitida no Brasil?
R: Pesquisas com edição genética em células somáticas humanas são reguladas pela CTNBio e pelo CEP/CONEP. Terapias gênicas somáticas com fins terapêuticos têm caminho regulatório possível, mas edição de linhagem germinativa (que se transmite a descendentes) é vedada pela Lei de Biossegurança (Lei 11.105/2005).