arrow-left-square Created with Sketch Beta.

Brasil cria primeira regra para controlar a IA na medicina; entenda

A inteligência artificial entrou no consultório, mas não entrou sozinha.

O Conselho Federal de Medicina publicou a primeira norma específica para uso de IA na prática médica no Brasil. E o recado é claro: IA é ferramenta de apoio, a decisão humana precisa continuar por trás de tudo.

A resolução entra em vigor em 180 dias e estabelece um marco ético para o uso da tecnologia no cuidado em saúde.

IA não substitui médico

O texto deixa explícito que sistemas de IA podem apoiar decisões clínicas, gestão em saúde, pesquisa e educação médica. Mas não podem substituir o julgamento profissional.

O médico não é obrigado a seguir recomendações automáticas.
A tecnologia não pode limitar a autonomia profissional.
A palavra final é sempre do médico.

A norma ainda reforça que as soluções apresentadas pelos modelos de IA não são soberanas e exigem supervisão humana obrigatória.

Diagnóstico não pode ser comunicado por máquina

Um dos pontos mais sensíveis da resolução é direto ao ponto.

É proibido delegar à IA a comunicação de diagnósticos, prognósticos ou decisões terapêuticas sem mediação humana.

Ou seja, nada de paciente receber diagnóstico crítico direto de um sistema automatizado.

Além disso, o paciente deve ser informado quando a IA for utilizada como apoio relevante no seu atendimento. E mais: ele pode recusar o uso da tecnologia.

Consentimento e transparência viram regra.

A responsabilidade continua sendo do médico

Mesmo usando sistemas avançados, o profissional permanece integralmente responsável pelos atos praticados.

O uso de IA não substitui o Código de Ética Médica.
Falhas exclusivamente atribuíveis ao sistema não geram responsabilização indevida, desde que o médico tenha agido com diligência.
Riscos e falhas precisam ser comunicados às instâncias competentes.

E tem mais: o uso de IA deverá ser registrado em prontuário.

IA passa a ter classificação de risco

A norma cria quatro níveis de risco para sistemas de IA: baixo, médio, alto e inaceitável.

A classificação leva em conta impacto nos direitos fundamentais, sensibilidade dos dados, grau de autonomia do sistema e criticidade do contexto clínico.

Instituições públicas e privadas terão que fazer avaliação prévia antes de implementar qualquer tecnologia.

Hospitais terão que criar Comissão de IA

Hospitais que desenvolverem ou utilizarem sistemas próprios precisarão criar uma Comissão de IA e Telemedicina, subordinada à diretoria técnica e coordenada por médico.

Essa comissão será responsável por governança, monitoramento contínuo, auditoria e garantia de uso ético e seguro.

A fiscalização ficará a cargo dos Conselhos Regionais de Medicina.

A resolução reforça a necessidade de cumprir rigorosamente a Lei Geral de Proteção de Dados.

Uso de dados para treinamento ou validação de sistemas precisa seguir princípios éticos, científicos e padrões de segurança da informação.

Modelos que não garantam proteção adequada a dados sensíveis simplesmente não poderão ser utilizados.

Na prática, as mudanças serão:

  • Médicos terão que registrar o uso de IA no prontuário.
  • Pacientes terão direito de saber quando a tecnologia está sendo usada.
  • Hospitais precisarão estruturar governança formal.
  • Diagnósticos não poderão ser comunicados por sistemas automáticos.
  • A decisão clínica final continua sendo exclusivamente humana.