fbpx

Conteúdo

Resolução CFM nº 2.454/2026: o marco regulatório da IA na medicina brasileira

Tire suas dúvidas!
Foto Resolução CFM nº 2.454/2026: o marco regulatório da IA na medicina brasileira

A Resolução CFM nº 2.454/2026 marca uma nova era para a medicina brasileira ao estabelecer o primeiro marco regulatório para o uso da Inteligência Artificial (IA) na saúde. Publicada em 27 de fevereiro de 2026, a norma define critérios rigorosos de ética médica, responsabilidade civil e segurança do paciente. Com o objetivo de alinhar o Brasil aos padrões internacionais, o CFM determina que a IA deve atuar estritamente como ferramenta de apoio, preservando a autonomia do médico e a obrigatoriedade da supervisão humana em todas as decisões clínicas.

Resolução CFM nº 2.454/2026: as regras de IA na saúde

Publicada em 27 de fevereiro de 2026, a Resolução CFM nº 2.454/2026 estabelece as diretrizes éticas e jurídicas para o uso da Inteligência Artificial (IA) na medicina no Brasil. Inspirada no AI Act da União Europeia, a norma visa equilibrar a inovação tecnológica com a segurança jurídica do médico e a integridade do paciente.

Com vigência plena a partir de setembro de 2026, a resolução reforça que a IA é uma ferramenta de apoio, e nunca uma substituta para o julgamento clínico humano.

Pilares éticos: a IA como apoio à decisão

A estrutura da norma baseia-se na preservação da autonomia do médico e na transparência algorítmica.

  1. Supervisão humana obrigatória: A palavra final em diagnósticos, terapias ou prognósticos é exclusiva do médico. O profissional tem o direito de rejeitar sugestões do algoritmo sem sofrer penalidades técnicas.

  2. Responsabilidade profissional: O médico mantém a responsabilidade integral pelos atos praticados. No entanto, a norma oferece uma camada de proteção: o profissional não será responsabilizado por falhas intrínsecas e exclusivas do sistema de IA, desde que comprove o uso diligente, crítico e fundamentado da tecnologia.

 

Direitos e deveres: médicos, pacientes e instituições

Para que o conteúdo do seu blog fique mais fluido e melhore a experiência de leitura (especialmente em dispositivos móveis, onde tabelas podem ser difíceis de visualizar), transformei os dados em um formato de lista estruturada.

Aqui está o texto adaptado com foco em escaneabilidade e clareza jurídica:

Responsabilidades e prerrogativas na era da IA médica

A nova regulamentação define claramente o papel de cada agente no ecossistema da saúde digital. Confira os principais pontos de atenção:

1. Médicos

  • Direitos: O profissional tem a prerrogativa de utilizar a IA como suporte em diagnósticos, terapias e pesquisas, possuindo total autonomia para recusar o uso de tecnologias que não estejam devidamente validadas.

  • Obrigações: É indispensável registrar formalmente no prontuário sempre que um algoritmo auxiliar na tomada de decisão. A responsabilidade final pela conduta permanece sendo do médico.

2. Pacientes

  • Direitos: O paciente deve ser informado de forma clara sobre o uso de IA em seu plano de cuidado, tendo o direito de solicitar uma segunda opinião exclusivamente humana.

  • Garantias: A proteção de dados (conforme a LGPD) é um pilar central, sendo garantido ao paciente o direito de recusar o uso da tecnologia em seu tratamento.

3. Instituições de saúde

  • Direitos: Hospitais e clínicas podem desenvolver soluções tecnológicas próprias, desde que sob rigorosa governança técnica e ética.

  • Obrigações: As instituições devem instituir Comissões de IA e Telemedicina, além de realizar auditorias de segurança contínuas para mitigar riscos de falhas algorítmicas.

Vedação Importante: É expressamente proibido delegar à Inteligência Artificial a comunicação direta de diagnósticos graves ou óbitos ao paciente ou familiares sem a mediação humana.

Classificação de riscos e governança

A Resolução categoriza os sistemas de IA em quatro níveis de risco, exigindo diferentes graus de conformidade:

  • Risco baixo: sistemas de gestão administrativa ou impacto clínico reduzido.

  • Risco médio: impacto moderado; exige supervisão constante e revisão técnica.

  • Risco alto: decisões clínicas críticas; requer avaliação rigorosa e validação prévia.

  • Risco inaceitável: sistemas que violam a ética médica (uso vedado no Brasil).

Conformidade com a LGPD e desafios

A proteção de dados sensíveis é um requisito inegociável. Instituições de saúde e clínicas devem garantir que o treinamento de algoritmos respeite o anonimato e a finalidade específica dos dados de saúde, sob fiscalização dos CRMs.

Embora a resolução seja um avanço, juristas debatem a competência normativa do CFM em relação a entes jurídicos (empresas de software e hospitais). Contudo, a norma já se estabelece como o padrão de “melhores práticas” que servirá de base para futuras perícias médicas e decisões judiciais.

Checklist de implementação para clínicas e médicos.

Para garantir a segurança jurídica da sua atuação ou da sua instituição, observe os seguintes pontos:

  • No prontuário: documente formalmente sempre que um algoritmo auxiliar na conduta clínica.

  • No consentimento: atualize os Termos de Consentimento Livre e Esclarecido (TCLE) informando sobre o uso de ferramentas preditivas.

  • Na gestão: hospitais e clínicas de grande porte devem instituir Comissões de IA vinculadas à Direção Técnica.

  • Na tecnologia: exija que os desenvolvedores classifiquem o nível de risco dos produtos contratados.

    Advogado, Sérgio Meredyk Filho

    Advogado, Sérgio Meredyk Filho

 

Este artigo possui caráter meramente informativo e educativo, não constituindo consulta jurídica ou promessa de resultados.

Conteúdo publicado em: 0503/2026

Autoria técnica: Sérgio Meredyk Filho, advogado e sócio do Vilhena Silva Advogados – OAB: 331.970

Revisão jurídica: Equipe Vilhena Silva Advogados

11 3256-1283|11 99916-5186
Ícone Whatsapp