A ordem do médico alerta sobre os riscos de usar inteligência artificial em saúde

"e É necessário afirmar que a IA não substitui o julgamento clínico, a experiência médica ou a exposição humana. O diagnóstico é uma parte importante da lei médica, que envolve não apenas dados objetivos, mas também interpretação contextual, escuta ativa e empatia. ”

O presidente acrescentou que a IA deve ser vista como uma ferramenta de suporte à decisão clínica e não como um agente de diagnóstico automático.

Carlos Cortes insiste que as ferramentas de IA não são elegíveis para o diagnóstico devido à falta de "fortes evidências científicas, mecanismos de verificação rigorosos e, o mais importante, a transparência algorítmica permite que os médicos entendam e a confiança sugeriu decisões".

O Conselho de Médicos da IA ​​enfatizou que "a IA na medicina só pode se basear na verificação científica na verificação científica e tem interpretabilidade, responsabilidade e supervisão médica contínua. A integração da IA ​​no fluxo clínico requer respeito por princípios éticos, como autonomia, não mestres e justiça".

No caso de um diagnóstico errado, “as consequências podem ser estados básicos muito graves: atrasos na terapia apropriada, estados clínicos agravados, exposição a tratamentos desnecessários ou inadequados, dor evitável e até vida humana”, enquanto não assumem a responsabilidade moral.

Além disso, muitos algoritmos não têm natureza explicativa, dificultando a identificação de erros, provocam escopo de responsabilidade e ameaçar a confiança dos pacientes em médicos e medicina.

O funcionário também disse que em Portugal, nenhum uso de IA pode levar a consequências clínicas relevantes, embora nenhum caso seja confundido com a falta de riscos.

"A implementação de tecnologias disruptivas requer monitoramento, capacidade de auditoria, sistemas de relatórios estruturados e regulamentação proativa, porque não há entidades dedicadas ao monitoramento da IA ​​em saúde no país, representando uma lacuna séria em segurança clínica para" segurança clínica, segurança clínica direta, leis diretas e médicas "", disse o presidente.

As declarações de Bastonary foram publicadas nos malditos "sites" de circulação e redes sociais comprovadas, de pessoas que pediram diagnóstico como modelos de IA.

Como “pedi ao chatgpt para ler minha mão e ele encontrou alegações de câncer de pele” ou “O diagnóstico do chatgpt teve câncer no ano anterior ao médico” circulava em redes sociais, observando que as ferramentas de IA são capazes de fazer diagnóstico médico.

No entanto, os resultados dos chatbots da IA ​​podem ser baseados na probabilidade, os dados de treinamento podem não ser confiáveis ​​e não podem ser totalmente analisados ​​pelos médicos.

Leia também: Bastonário dos médicos defende a criação da IA ​​Health Institution