Escrevi vários artigos sobre a adoção de tecnologia na área da saúde, incluindo registros médicos eletrônicos (EMR), análise de dados, ferramentas de tomada de decisão no local de atendimento e inteligência artificial (IA) e aprendizado de máquina (ML). Cada uma ou todas as inovações podem ter implicações médicas. por que? Isto ocorre porque há muitas melhorias que precisam ser feitas para ajudar os médicos a fornecer cuidados conscientes em termos de custos, mas focados na qualidade.
Escrevi pela primeira vez sobre tecnologia na área da saúde para Forbes.com em março de 2019 A tecnologia Blockchain pode (eventualmente) resolver a saúde: não prenda a respiração. Uma coisa que percebi em meus 35 anos no setor de saúde é que a próxima melhor tecnologia “resolve tudo” (mas ainda assim…). Este é meu terceiro artigo focado em IA, então parece um pouco oportuno.
Ponto de partida: a IA não é amorfa, é um ser senciente e não é o principal tomador de decisões diretamente abaixo de Deus. Em vez disso, é um algoritmo de computador (programação) construído por humanos e implantado para permitir que os computadores “aprendam” e criem resultados sofisticados com base nesse “aprendizado”. No entanto, embora a IA possa, vá e deva expandir-se nos cuidados de saúde e na prestação de cuidados de saúde (otimizando visitas aos pacientes, utilização/análise de dados mais rápida e melhor, gestão do ciclo de receitas, redução da pré-aprovação, etc.), todas estas ferramentas baseadas em decisões requerem uma abordagem inicial entrada e intervenção humana como linha de base e código central. Embora isto possa ter excelentes resultados no futuro, precisamos de estar conscientes dos blocos de construção na codificação de modelos de IA, especialmente quando se trata de prestação de cuidados.
Uma grande lição recente de arrogância foi o falhanço espectacular de uma grande plataforma tecnológica internacional no lançamento de um produto de IA muito alardeado (não específico para cuidados de saúde). Após um lançamento desfavorável e um rigoroso (alguns chamam-lhe “brutal”) “escrutínio” e julgamento nas redes sociais, o produto está imbuído de falhas históricas e preconceitos raciais, e descobriu-se que o inevitável produziu resultados claramente falsos. O programa terminou rapidamente com uma espécie de “blá, blá, blá” sobre a necessidade de desenvolvimento adicional do produto. Embora este episódio tenha sido cômico e previsível, também é assustador quando pensamos em um futuro que depende ainda mais de IA e ML para nos ajudar a calcular e compreender grandes quantidades de dados. Espera-se que a programação subjacente seja simples e não contenha qualquer tipo de preconceito para não contaminar o produto/resultado final. Mas este mais recente “produto” de grande tecnologia é um excelente exemplo de como a IA pode seguir direções terríveis. O preconceito racial não simplesmente “acontece”. Conforme mencionado anteriormente, a IA não é um recipiente onde os dados são lidos e os computadores são muito inteligentes para fornecer resultados de alta qualidade. Não, como eu disse antes, a IA é como uma pirâmide. A fundação deve ser bem construída e fornecer uma base sólida para que os blocos de construção restantes resistam estruturalmente ao teste do tempo. Bases mal construídas têm consequências prejudiciais (como o colapso da estrutura). Talvez o mesmo seja verdade para a IA. Em última análise, o valor do produto é determinado pela estrutura subjacente (a base da pirâmide). Se a base for insuficiente, o produto também apresentará defeito. Entrada inadequada (codificação/construção) leva a resultados imprecisos, de baixa qualidade, não confiáveis e questionáveis.
A IA está crescendo, e isso é bom e bom. Precisamos abraçar a forma como esses avanços tecnológicos nos capacitam e nos ajudam. Este crescimento pode ser evidenciado pelos recentes relatórios de lucros e crescimento meteóricos e insanos da Nvidia (pergunte a qualquer membro do Congresso quanto retorno a Nvidia está obtendo em seu portfólio). Digamos apenas que muitas dessas pessoas são melhores selecionadoras de ações do que os analistas de Wall Street. A prestação de cuidados de saúde pode certamente beneficiar da introdução de modelos de IA. A economia de custos e o potencial aprimoramento dos cuidados podem ser obtidos com base na implementação adequada, e isso é bom.
Alguém me perguntou isso outro dia. “…Você está fazendo IA?” A resposta é certamente: “…Como você define “IA”?” Quer dizer, sou fácil de entender, entendo o básico, o Large Language Model (LLM) e as partes de ML, e codifiquei um pouco. Vejo meu papel em preencher a lacuna na prestação de cuidados entre cientistas de dados, seus resultados e médicos/operadores. Eu sei que a IA pode e terá valor na área médica um dia. Mas também sabemos que existem campos minados de preconceito muito reais que podem surgir, definidos e construídos por codificadores/programadores. Isso é perigoso. Como eu disse antes, o lixo entra e o lixo sai.
Este pode ser o meu aviso enquanto as pessoas correm de ou para a IA e suas aplicações na área médica. Não odeie Frankenstein. não gosto Dr.Frankenstein. Em outras palavras, o resultado não é um monstro. Em vez disso, o monstro é o criador.

