5 riscos jurídicos da inteligência artificial na medicina que quase ninguém está falando

A inteligência artificial está entrando rapidamente na medicina. Hoje já existem sistemas sendo utilizados para análise de exames de imagem, apoio ao diagnóstico, triagem de pacientes, geração automática de relatórios médicos e até sugestão de hipóteses clínicas.

Hospitais, clínicas e healthtechs estão incorporando essas tecnologias em ritmo acelerado. Em muitos casos, a promessa é clara: maior eficiência, apoio à decisão médica e melhor capacidade de análise de grandes volumes de dados.

Mas junto com essas tecnologias surgem também novos riscos jurídicos que muitos profissionais da saúde ainda não estão percebendo.

Esse debate ganhou ainda mais relevância com a publicação da Resolução CFM nº 2.454/2026, que estabelece regras para o desenvolvimento, uso, governança e supervisão de sistemas de inteligência artificial na medicina no Brasil.

A norma deixa claro que a inteligência artificial pode apoiar a prática médica — mas não substitui o julgamento clínico humano.

E isso levanta uma pergunta inevitável:

quem responde quando a inteligência artificial erra?

A seguir, apresento cinco riscos jurídicos que já começam a surgir com o uso de inteligência artificial na área da saúde.

1. Diagnóstico automatizado sem supervisão médica

O primeiro risco envolve o uso de sistemas de inteligência artificial para gerar diagnósticos ou conclusões clínicas sem supervisão humana adequada.

A Resolução CFM nº 2.454/2026 é explícita ao afirmar que a inteligência artificial deve ser utilizada como ferramenta de apoio à decisão médica, e não como substituta do médico.

Isso significa que o diagnóstico final precisa sempre passar por validação humana.

Quando um sistema automatizado apresenta uma conclusão clínica e essa informação é utilizada diretamente, sem análise crítica por um profissional de saúde, surge um risco jurídico relevante.

Caso o paciente sofra dano decorrente dessa decisão, pode haver questionamento sobre responsabilidade profissional ou institucional.

2. Vieses algorítmicos e decisões distorcidas

Outro risco importante envolve vieses algorítmicos.

Sistemas de inteligência artificial são treinados com bases de dados. Se esses dados forem incompletos, desatualizados ou pouco representativos, o algoritmo pode produzir resultados distorcidos.

Isso pode ocorrer, por exemplo, quando determinados grupos populacionais estão subrepresentados nos dados de treinamento.

Nesses casos, a inteligência artificial pode apresentar menor precisão diagnóstica para certos perfis de pacientes, gerando decisões potencialmente inadequadas.

Quando essas falhas resultam em danos ao paciente, podem surgir discussões jurídicas envolvendo responsabilidade médica, responsabilidade institucional e falhas na governança tecnológica.

3. Vazamento ou uso indevido de dados de saúde

A inteligência artificial depende de grandes volumes de dados para funcionar.

E dados médicos são classificados pela Lei Geral de Proteção de Dados (LGPD) como dados pessoais sensíveis.

Isso significa que instituições que utilizam inteligência artificial na área da saúde precisam adotar medidas rigorosas de segurança e governança de dados.

Entre essas medidas estão:

  • controle de acesso às informações médicas;
  • mecanismos de proteção contra vazamentos;
  • registro e rastreabilidade de acessos;
  • políticas adequadas de retenção e descarte de dados.

Caso ocorra vazamento ou uso indevido de dados de pacientes, podem surgir consequências relevantes, incluindo responsabilidade civil, sanções administrativas e investigações regulatórias.

4. Quem responde por erro da inteligência artificial?

Talvez a pergunta mais importante nesse debate seja justamente esta: quem responde quando a inteligência artificial erra?

A resposta jurídica depende do caso concreto, mas algumas possibilidades já começam a ser discutidas.

Pode haver responsabilidade do médico, caso ele utilize a recomendação gerada pelo sistema sem análise crítica adequada.

Pode haver responsabilidade da instituição de saúde, caso tenha adotado tecnologias sem mecanismos adequados de governança, auditoria ou supervisão.

Em alguns casos, também pode surgir responsabilidade do desenvolvedor da tecnologia, especialmente se houver defeito no sistema ou falhas relevantes na informação fornecida ao usuário, o que poderá ser apurado pela perícia digital em IA.

Em outras palavras, o uso de inteligência artificial não elimina a responsabilidade humana.

Na prática, ele pode até ampliar a necessidade de supervisão e controle sobre os sistemas utilizados.

5. Uso de IA sem governança institucional

O quinto risco envolve o uso de inteligência artificial sem estrutura de governança tecnológica.

A Resolução CFM nº 2.454/2026 exige que hospitais, clínicas e instituições de saúde implementem mecanismos formais de avaliação e monitoramento dessas tecnologias.

Isso inclui medidas como:

  • mapear todas as soluções de inteligência artificial utilizadas na instituição;
  • avaliar o risco dessas tecnologias;
  • garantir supervisão humana sobre decisões assistidas por IA;
  • monitorar o desempenho dos sistemas;
  • implementar medidas adequadas de proteção de dados.

Quando instituições utilizam inteligência artificial sem essas estruturas de governança, aumentam significativamente os riscos jurídicos, regulatórios e assistenciais.

O que clínicas e hospitais devem fazer agora

A nova resolução do Conselho Federal de Medicina deixa claro que o uso responsável de inteligência artificial exige estrutura institucional.

Na prática, instituições que utilizam essas tecnologias precisam desenvolver dois pilares fundamentais.

O primeiro é um programa de governança de inteligência artificial, com avaliação de risco das soluções utilizadas, supervisão humana das decisões assistidas por algoritmos e monitoramento contínuo do desempenho dessas tecnologias.

O segundo é um programa de governança e proteção de dados em saúde, alinhado às exigências da LGPD, incluindo políticas de segurança da informação, controle de acesso a dados sensíveis e mecanismos de resposta a incidentes envolvendo dados de pacientes.

Esses dois pilares são essenciais para reduzir riscos jurídicos e garantir uso responsável da tecnologia.

Conclusão

A inteligência artificial tem potencial enorme para transformar a medicina.

Ela pode ampliar a capacidade de análise de dados, ajudar na identificação de padrões clínicos e tornar processos de saúde mais eficientes.

Mas essa transformação precisa acontecer com responsabilidade jurídica, supervisão humana e governança tecnológica adequada.

Resolução CFM nº 2.454/2026 representa um passo importante nesse processo.

E quanto mais a inteligência artificial avançar na medicina, mais importante será discutir não apenas inovação tecnológica, mas também responsabilidade, ética médica e proteção de pacientes.