Não se surpreenda se o seu médico começar a escrever mensagens excessivamente amigáveis. Eles podem estar recebendo ajuda da inteligência artificial.
Novas ferramentas de IA podem ajudar os médicos a se comunicarem com os pacientes, inclusive respondendo mensagens e fazendo anotações durante os exames. Já se passaram 15 meses desde que a OpenAI lançou o ChatGPT. Milhares de médicos já utilizam produtos similares baseados em modelos de linguagem em larga escala. Uma empresa afirma que suas ferramentas funcionam em 14 idiomas.
Os entusiastas dizem que a IA economizará tempo dos médicos e evitará o esgotamento. Também prejudica a relação médico-paciente, levantando questões futuras de confiança, transparência, privacidade e relacionamentos.
Vamos dar uma olhada em como as novas ferramentas de IA podem impactar os pacientes.
Meu médico usa IA?
Nos últimos anos, dispositivos médicos equipados com aprendizado de máquina estão lendo mamografias, diagnosticando doenças oculares, detectando doenças cardíacas e muito mais. A novidade é a capacidade da IA generativa de responder a instruções complexas por meio de linguagem preditiva.
Seu próximo exame de saúde será registrado por um aplicativo de smartphone com tecnologia de IA que escuta e documenta tudo e compila notas instantaneamente para ler mais tarde. A ferramenta também pode significar mais dinheiro para os empregadores médicos porque não esquece detalhes que podem ser cobrados legalmente.
Os médicos devem obter consentimento antes de usar a ferramenta. A nova redação também pode aparecer na papelada que você assina no consultório médico.
Outras ferramentas de IA poderiam ajudar os médicos a elaborar as suas mensagens, mas eles podem não saber disso.
“Seu médico pode ou não lhe dizer que o está usando”, diz o grupo com sede em Boston, que trabalha para uma comunicação transparente entre médicos e pacientes. Kate Desroches, diretora do OpenNotes, disse: Alguns sistemas de saúde incentivam a divulgação, enquanto outros não.
Um médico ou enfermeiro deve aprovar a mensagem gerada pela IA antes de enviá-la. Num sistema de saúde do Colorado, essas mensagens incluem uma declaração que deixa claro que foram geradas automaticamente. No entanto, seu médico pode remover a linha.
“Parecia exatamente como ele. Foi incrível”, disse o paciente Tom Detner, 70 anos, de Denver. Recentemente recebi a seguinte mensagem gerada por IA: É importante ouvir o seu corpo. A mensagem terminava com “Por favor, tenha cuidado”, deixando claro que havia sido gerada e editada automaticamente por um médico.
Detner disse que está satisfeito com a transparência. “A divulgação completa é muito importante”, disse ele.
Há algum erro?
Grandes modelos de linguagem podem interpretar mal as informações ou fabricar respostas imprecisas, um processo chamado alucinações. A nova ferramenta possui proteções internas para evitar que informações imprecisas sejam comunicadas aos pacientes ou registradas em prontuários eletrônicos.
“Você não quer informações falsas em seus registros clínicos”, disse o Dr. Alistair Erskine, chefe de inovação digital da Emory Healthcare, com sede na Geórgia. O médico disse que centenas de médicos usam os produtos da Abridge para registrar consultas de pacientes.
A ferramenta conduz a conversa médico-paciente em vários modelos de linguagem de grande escala, eliminando ideias estranhas, disse Erskine. “Esta é uma forma de manipular alucinações.”
No final das contas, “os médicos são a proteção mais importante”, diz o CEO da Abridge, Dr. Shiv Rao. Ao revisar notas geradas por IA, os médicos podem clicar em qualquer palavra e ouvir partes específicas da consulta do paciente para verificar a precisão.
Em Buffalo, Nova York, outra ferramenta de IA ouviu mal a Dra. Lauren Bruckner quando ela disse a uma paciente adolescente com câncer que estava feliz por não ter alergia a sulfas. A nota gerada pela IA dizia “Alergia: medicamentos Sulfa”.
A ferramenta “interpretou mal a conversa”, disse Bruckner. “Isso não acontece com muita frequência, mas é definitivamente um problema.”
E o toque humano?
As ferramentas de IA podem encorajá-lo a ser amigável, empático e prestativo.
Mas eles podem se deixar levar. No Colorado, um paciente que sofria de coriza foi alertado por uma mensagem gerada por IA de que o problema poderia ser um vazamento de fluido cerebral. (Não foi.) A enfermeira não revisou cuidadosamente e acidentalmente enviou a mensagem.
“Às vezes é incrivelmente útil e às vezes não ajuda em nada”, disse o Dr. CT Lin, chefe de inovação da UC Health, com sede no Colorado. Os aproximadamente 250 médicos e funcionários do hospital usam ferramentas de IA da Microsoft para criar certificados médicos. Primeiro rascunho da mensagem aos pacientes. As mensagens são entregues através do portal do paciente da Epic.
Esta ferramenta era necessária para aprender sobre a nova vacina contra o VSR. Porque estávamos criando uma mensagem de que tal coisa não existia. Mas se houver conselhos de rotina para entorses de tornozelo, como repouso, gelo, compressão e elevação, “isso é ótimo”, diz Lin.
Além disso, o lado positivo é que os médicos que usam IA não ficarão mais vinculados aos seus computadores durante as consultas. A ferramenta de IA registra o exame para que você possa fazer contato visual com o paciente.
Dr. Robert Burt, diretor de informações médicas da UPMC, com sede em Pittsburgh, disse que a ferramenta requer linguagem audível, então os médicos estão aprendendo como explicá-la em voz alta. Seu médico pode dizer: Está bastante inchado. Sinto como se houvesse água no meu cotovelo direito. ”
Bart disse que aproveitar as ferramentas de IA para conversar durante o exame também pode ajudar os pacientes a entender o que está acontecendo. “Nos exames que fiz, ouvi sons de buzinas e buzinas enquanto o médico fazia os exames. E sempre me pergunto: 'Então, o que isso significa?'
E quanto à privacidade?
A lei dos EUA exige que os sistemas de saúde obtenham garantias dos parceiros comerciais de que protegerão informações de saúde protegidas, e o não cumprimento desta obrigação poderá sujeitar as empresas a investigações e multas do Departamento de Saúde e Serviços Humanos.
Os médicos entrevistados para este artigo disseram estar confiantes na segurança dos dados do novo produto e que suas informações não seriam vendidas.
As informações partilhadas em novas ferramentas são utilizadas para melhorar as ferramentas, aumentando potencialmente o risco de violações de dados de saúde.
Dr. Lance Owens é Diretor de Informações Médicas da University of Michigan HealthWest. Na universidade, 265 médicos, assistentes médicos e enfermeiros usam ferramentas da Microsoft para documentar exames de pacientes. Ele acredita que os dados dos pacientes estão protegidos.
“Quando nos dizem que nossos dados estão seguros e isolados, acreditamos nisso”, disse Owens.
___
O Departamento de Saúde e Ciência da Associated Press recebe apoio do Grupo de Mídia de Ciência e Educação do Howard Hughes Medical Institute. A AP é a única responsável por todo o conteúdo.