Verificações gerais de saúde abrem auditorias para o uso de inteligência artificial na sociedade do SNS

As inspeções gerais de atividades de saúde (IGA) começaram a auditar o uso da inteligência artificial pela entidade dos Serviços Nacionais de Saúde (NHS) que avaliará as fontes de financiamento, segurança e respeito pelos direitos do usuário.

A auditoria deve ser responsável pelo uso de inteligência artificial (IA) no NHS, avaliando estratégias de IA em serviços de saúde pública e investindo em treinamento e treinamento para profissionais, explicou a IGA em uma nota publicada em seu site.

Inteligência artificial, segurança da informação e robustez do sistema e o impacto da inteligência artificial são outras áreas dessa auditoria.

Na semana passada, a fundação da Ordem do Doutor Carlos Cortes alertou que a inteligência artificial não pode substituir os médicos, alertando que ferramentas como ChatGPT não são elegíveis para diagnóstico médico.

"Deve -se dizer que a inteligência artificial não substitui o julgamento clínico, a experiência médica ou o contato humano. O diagnóstico é uma parte importante da Lei da Saúde, que envolve não apenas dados objetivos, mas também interpretação contextual, escuta ativa e simpatia".

O presidente acrescentou que a IA deve ser vista como uma ferramenta de suporte à decisão clínica e não como um agente de diagnóstico automático.

Carlos Cortes insistiu que as ferramentas de IA não são elegíveis para o diagnóstico, então lembrou: "Há fortes evidências científicas, mecanismos de verificação estritos e, o mais importante, a transparência do algoritmo, que permitem aos médicos entender e confiar decisões sugeridas".

No caso de um diagnóstico errado, o presidente observou que “as consequências podem ser muito graves: terapia apropriada atrasada, status clínico agravado, exposição a tratamentos desnecessários ou inadequados, dor evitável e até perda da vida humana” e que a ferramenta AMA não assume a responsabilidade moral.

A RMedic também disse que não há situação em Portugal, onde o uso da IA ​​causa consequências clínicas relevantes, embora não haja falta de casos nem risco.

Em seu discurso de Lusa, Carlos Cortes também defendeu o órgão internacional que estabeleceu uma agência nacional de saúde para impedir o diagnóstico falso e a desinformação médica.