Conselho Federal de Medicina regulamenta o uso da Inteligência Artificial na Saúde

March 18, 2026
Autor Andre Peixoto
Advogado. Mestre em Direito Constitucional Privado. Pós-Graduado em Direito Empresarial. Professor de Pós-graduação em Direito Digital. Especializado em Privacidade e Proteção de Dados Pessoais. 'Data Protection Officer' (CDPO/CIPM/LGPD) certificado pela International Association of Privacy Professionals (IAPP). Autor do livro “A Responsabilidade Civil das Redes Sociais Eletrônicas por Dano à Privacidade”.

A incorporação da inteligência artificial (IA) no setor da saúde deixou de ser uma tendência futura para se tornar uma realidade operacional em clínicas, hospitais e healthtechs. A recente Resolução CFM nº 2.454/2026 estabelece parâmetros relevantes para esse uso, especialmente ao reforçar que a tecnologia deve atuar como apoio à decisão médica, e não como substituta do profissional.

Para os profissionais de saúde brasileiros, o tema exige atenção estratégica. A adoção sem governança adequada pode gerar riscos regulatórios, reputacionais e operacionais.

IA na prática médica: inovação com responsabilidade

A resolução do Conselho Federal de Medicina apoia o uso da IA em atividades como apoio diagnóstico, análise de exames e gestão de informações clínicas. No entanto, estabelece um princípio fundamental: a responsabilidade final permanece com o médico.

Isso significa que sistemas automatizados não podem operar de forma autônoma em decisões clínicas críticas. O uso deve ser supervisionado, documentado e tecnicamente validado.

Do ponto de vista médico, isso impacta diretamente a escolha de fornecedores, contratos tecnológicos e fluxos assistenciais.

Proteção de dados na saúde: um requisito estratégico, não apenas legal

Dados de saúde são classificados como dados pessoais sensíveis pela Lei nº 13.709/2018 (LGPD). Seu tratamento exige cuidados reforçados, especialmente quando utilizados por sistemas de IA.

A Resolução CFM nº 2.454/2026 converge com esse entendimento ao exigir:

  • proteção da confidencialidade e integridade dos dados;
  • uso limitado ao mínimo necessário (princípio da necessidade);
  • adoção de medidas de segurança compatíveis com o risco;
  • transparência ao paciente quanto ao uso de IA.

Na prática, isso apoia a necessidade de uma estrutura de governança em privacidade e proteção de dados, integrada à estratégia do negócio.

Boas práticas para adoção segura de IA na saúde

A implementação de IA deve ser acompanhada de medidas organizacionais e técnicas. Abaixo, um modelo prático:

EtapaAção recomendada
Avaliação da ferramentaVerificar validação científica e conformidade regulatória
Due diligence de fornecedorAnalisar segurança da informação e tratamento de dados
Governança internaDefinir responsabilidades e fluxos de uso da IA
Registro em prontuárioDocumentar uso da IA como apoio à decisão médica
Transparência ao pacienteInformar de forma clara o uso relevante da tecnologia
Monitoramento contínuoAvaliar desempenho, riscos e possíveis vieses
Treinamento de equipeCapacitar médicos e colaboradores para uso crítico da tecnologia

Esse modelo apoia a construção de um ciclo de vida seguro para sistemas de IA.

Governança e accountability: o novo diferencial competitivo

A resolução reforça a necessidade de auditoria, monitoramento e rastreabilidade dos sistemas de IA. Isso se aproxima de conceitos já consolidados em proteção de dados, como:

  • accountability (prestação de contas);
  • privacy by design (privacidade desde a concepção);
  • gestão de riscos.

Profissionais que estruturam esses elementos tendem a apresentar maior maturidade regulatória e confiança no mercado.

O papel do gestor: decisão estratégica e cultura organizacional

A adoção de IA na saúde não deve ser tratada apenas como decisão tecnológica, mas como decisão estratégica. Cabe ao gestor na área da saúde:

  • promover cultura de uso responsável da tecnologia;
  • integrar áreas jurídica, tecnológica e assistencial;
  • investir em segurança da informação e proteção de dados;
  • apoiar processos de conformidade regulatória.

A ausência dessas medidas pode comprometer não apenas a conformidade legal, mas também a confiança de pacientes e parceiros.

Conclusão: inovação com governança é o caminho sustentável

A Resolução CFM nº 2.454/2026 sinaliza um movimento claro: a IA é bem-vinda na saúde, desde que utilizada com responsabilidade, supervisão humana e respeito à proteção de dados.

Para o setor de saúde, o desafio não é apenas adotar tecnologia, mas fazê-lo de forma estruturada e segura. A combinação entre inovação e governança apoia a sustentabilidade do negócio, reduz riscos e promove maior confiança no ecossistema de saúde.

0 Comments

Submit a Comment

Your email address will not be published. Required fields are marked *

Nova Regulamentação de DPO: O Essencial para Empresas

Nova Regulamentação de DPO: O Essencial para Empresas

A figura do ‘Encarregado pelo Tratamento de Dados Pessoais’ (também conhecido como DPO - Data Protection Officer) costuma despertar certo estranhamento num primeiro contato com as normas de proteção de dados. É que, diferentemente do ‘Controlador’ e do ‘Titular’ - que...

A dosimetria das sanções da ANPD

A dosimetria das sanções da ANPD

Por dentro da Resolução nº 04/2023. Por mais bem preparada que esteja, qualquer organização está sujeita a denúncias e incidentes relacionados aos dados pessoais. A adoção de Políticas e Regras de Boas Práticas e de Governança, bem a estruturação de Programa de...