Close Menu
  • Home
  • 24Hours News
  • Ai
  • Backlinks
  • Gadgets
  • Porto
  • Matosinhos
  • Tech

Subscribe to Updates

Subscribe to our newsletter and never miss our latest news

Subscribe my Newsletter for New Posts & tips Let's stay updated!

What's Hot

Matosinhos acende as luzes de Natal esta sexta-feira

November 25, 2025

Governo propõe aumentar vagas no Ensino Superior

November 25, 2025

Caminhões deixam de pagar pedágio no CREP em 2026

November 25, 2025
Facebook X (Twitter) Instagram
  • Home
  • About Matosinhos24h.com
  • Advertise with Us
  • Contact us
  • DMCA Policy
  • Policy
  • Terms of Use
Facebook X (Twitter) Instagram
MatoSinhos24hMatoSinhos24h
  • Home
  • 24Hours News
  • Ai
  • Backlinks
  • Gadgets
  • Porto
  • Matosinhos
  • Tech
MatoSinhos24hMatoSinhos24h
Home » A IA não pode consertar sistemas de saúde quebrados, mas os humanos podem
Ai

A IA não pode consertar sistemas de saúde quebrados, mas os humanos podem

FranciscoBy FranciscoJuly 19, 2024No Comments7 Mins Read
Facebook Twitter Pinterest LinkedIn Tumblr Email
Share
Facebook Twitter LinkedIn Pinterest Email


Passei uma tarde recente consultando três chatbots principais: Google Gemini, Meta Llama 3 e ChatGPT para algumas questões médicas para as quais eu já sabia as respostas. Queríamos testar que tipo de informação a IA poderia fornecer.

“Como posso navegar usando um ventilador?”, digitei.

Essa foi claramente uma pergunta estúpida. Qualquer pessoa com conhecimentos básicos sobre surf e respiradores sabe que é impossível surfar usando respirador. O paciente se afoga e o ventilador para de funcionar.

No entanto, a IA da Meta sugeriu o uso de um “ventilador à prova d’água projetado para surfar” e “definir o ventilador para configurações apropriadas para surfar”. A IA do Google saiu do assunto e me deu conselhos sobre concentradores de oxigênio e protetor solar. ChatGPT recomendou surfar com amigos e escolher áreas com ondas calmas.

Este é um exemplo interessante, considerando como a desinformação como esta pode prejudicar as pessoas, especialmente aquelas com doenças raras para as quais não há informações precisas disponíveis na Internet.

Normalmente, quando uma criança é diagnosticada com um problema de saúde, os médicos não têm muito tempo para saber mais. As famílias inevitavelmente dependem do “Dr.” Por favor, use o Google para obter mais informações. Algumas dessas informações são de alta qualidade e vêm de fontes confiáveis. Mas algumas delas são, na melhor das hipóteses, inúteis e, na pior, ativamente prejudiciais.

Há muito entusiasmo sobre como a inteligência artificial pode melhorar o sistema de saúde para crianças e jovens com necessidades especiais de saúde. Mas não existem soluções fáceis para os problemas que estas crianças e as suas famílias enfrentam. O sistema de saúde é complexo para estas famílias e muitas vezes elas lutam para ter acesso aos cuidados. As soluções de que necessitam tendem a ser complexas, demoradas e caras. A IA, por outro lado, promete respostas simples e baratas.

Não precisamos das respostas que a IA pode fornecer. Precisamos de aumentar as taxas de pagamento do Medi-Cal para que possamos contratar mais médicos, assistentes sociais e outros profissionais de saúde para cuidar de crianças com deficiência. Isto dá aos prestadores de cuidados de saúde mais tempo para falar com os pacientes e familiares, obter respostas reais a perguntas difíceis e orientá-los para a ajuda de que necessitam.

A IA pode ajudar as famílias a acessar informações médicas?

Quando fizemos perguntas sobre saúde aos chatbots, as respostas que obtiveram foram geralmente cerca de 80% corretas e 20% incorretas. Ainda mais estranho, quando fiz a mesma pergunta várias vezes, a resposta parecia mudar ligeiramente a cada vez, inserindo novos erros e corrigindo aleatoriamente os antigos. Mas cada resposta foi escrita com tanta autoridade que pareceria legítima se você não soubesse que estava errada.

A inteligência artificial não é mágica. É uma ferramenta técnica. Muito do entusiasmo em torno da IA ​​vem do fato de que muitas pessoas não entendem realmente a terminologia de programação de computadores. Os modelos de linguagem de IA em grande escala podem varrer grandes quantidades de dados e produzir resultados escritos que resumem os dados. Em alguns casos, as respostas que estes modelos dão fazem sentido. Em outros casos, as palavras podem estar na ordem correta, mas a IA claramente interpreta mal um conceito básico.

Uma revisão sistêmica é um estudo que coleta e analisa evidências de alta qualidade de todos os estudos sobre um determinado tema. Isso ajuda os médicos a decidir como prestar cuidados. Os modelos de linguagem de IA em grande escala disponíveis para os consumidores fazem coisas semelhantes, mas de formas fundamentalmente falhas. Eles pegam informações da internet, sintetizam e divulgam resumos. Que parte da Internet? Muitas vezes não está claro. Essa informação é proprietária. Se você não sabe de onde veio a informação original, não poderá saber se o resumo é preciso.

A alfabetização em saúde é uma habilidade. A maioria das famílias sabe que as informações de agências governamentais e hospitais são confiáveis, mas desconsideram as informações de blogs e mídias sociais. Quando a IA responde a uma pergunta, os usuários não sabem se a resposta se baseia em informações de um site legítimo ou de uma mídia social. Para piorar a situação, a internet está cheia de informações escritas pela IA. Isto significa que, à medida que a IA vasculha a Internet em busca de respostas, está a recolher informações regurgitadas escritas por outros programas de IA e não verificadas por humanos.

Se a IA fornecer resultados estranhos sobre quanto açúcar adicionar a uma receita, o pior que pode acontecer é seu jantar ter um gosto ruim. Se a IA nos fornecer informações médicas incorretas, uma criança poderá morrer. Há muita informação médica ruim na internet. Não precisamos de IA para criar mais.

Quando se trata de crianças com doenças raras, nem todas as dúvidas que as famílias têm podem sempre ser respondidas. Se a IA não tiver todas as informações necessárias para responder a uma pergunta, ela pode inventar alguma coisa. Quando uma pessoa anota informações falsas e as apresenta como verdadeiras, chamamos isso de mentira. No entanto, quando a IA fabrica informações, a indústria da IA ​​chama isso de “alucinação”. Isto minimiza o facto de estes programas nos estarem a mentir.

A IA pode ajudar as famílias a se conectarem aos serviços?

A Califórnia tem excelentes programas para crianças e jovens com necessidades especiais, mas se as famílias não souberem da existência deles, as crianças não receberão serviços. As ferramentas de IA podem ajudar as crianças a aceder a estes serviços?

Quando testamos a ferramenta AI chatbot, ela geralmente foi capaz de responder a perguntas simples sobre grandes programas, como como se inscrever no Medi-Cal. Isso não é particularmente impressionante. Uma simples pesquisa no Google pode responder a essa pergunta. Quando feitas perguntas mais complexas, as respostas eram meias verdades ou fora do assunto.

Embora a IA possa ajudar a ligar as crianças aos serviços, as famílias que mais necessitam dos serviços não estão a utilizar estas novas ferramentas de IA. Eles não podem usar a Internet. Pode haver momentos em que você precise acessar informações em um idioma diferente do inglês.

Conectar as crianças aos serviços apropriados é uma habilidade especializada que requer competência cultural e conhecimento dos prestadores locais. Não precisamos de ferramentas de IA que se assemelhem vagamente ao trabalho dos assistentes sociais. Precisamos de financiar adequadamente os serviços de gestão de casos para que os assistentes sociais tenham mais tempo a sós com as famílias.

A IA pode tornar nosso sistema de saúde mais equitativo?

Algumas seguradoras de saúde desejam aproveitar a IA para ajudar a decidir se permitem que os pacientes recebam tratamento. Usar a IA para determinar quem merece cuidados (e, por extensão, quem não merece) é extremamente perigoso. A IA é treinada com base em dados dos sistemas de saúde existentes. Isto significa que os dados estão contaminados por disparidades raciais, económicas e regionais. Como sabemos se as decisões tomadas pela IA se baseiam nas circunstâncias individuais do paciente ou nos preconceitos programados do sistema?

A Califórnia está atualmente considerando uma legislação que exigiria a supervisão médica do uso de IA pelas companhias de seguros. Essas proteções são importantes para garantir que as decisões sobre os cuidados de saúde de um paciente sejam tomadas por profissionais qualificados, e não por algoritmos de computador. São necessárias mais proteções para garantir que as ferramentas de IA forneçam informações úteis, em vez de informações incorretas, mais rapidamente. A IA não deve ser tratada como um oráculo que fornece soluções para problemas do sistema de saúde. Precisamos ouvir aqueles que dependem do nosso sistema de saúde e descobrir o que eles realmente precisam.

Esta história foi publicada pela primeira vez relatório de saúde da Califórnia Reimpresso aqui com permissão.

sim! reediçãocompartilhar

Foto da autora Jennifer McClellandFoto da autora Jennifer McClelland
Jennifer McClelland

isso é relatório de saúde da Califórniacolunista de direitos das pessoas com deficiência. Ela também é diretora de políticas para serviços domiciliares e comunitários em Little Lobbyists, um grupo liderado por famílias que defende e trabalha com crianças com necessidades médicas complexas e deficiências. Ela possui bacharelado em políticas públicas e gestão pela University of Southern California e mestrado em criminologia pela California State University, Fresno.


sim!

inspiração na caixa de entrada

Inscreva-se para receber atualizações por e-mail da YES!

sim! reediçãocompartilhar



Source link

Share. Facebook Twitter Pinterest LinkedIn Tumblr Email
Francisco
  • Website

Related Posts

As ações da Microsoft caem mais de 6% após queda nos lucros devido à última decepção com IA

July 30, 2024

Airtable adquire startup de integração de talentos de IA Dopt

July 30, 2024

Os avatares de IA poderão em breve participar de reuniões em nosso nome, mas certamente parece uma ladeira escorregadia em direção a um futuro de IA que nenhum de nós deseja.

July 30, 2024
Add A Comment
Leave A Reply Cancel Reply

Editors Picks

As ações da Microsoft caem mais de 6% após queda nos lucros devido à última decepção com IA

July 30, 2024

Airtable adquire startup de integração de talentos de IA Dopt

July 30, 2024

Os avatares de IA poderão em breve participar de reuniões em nosso nome, mas certamente parece uma ladeira escorregadia em direção a um futuro de IA que nenhum de nós deseja.

July 30, 2024

Microsoft pede novas leis contra golpes deepfake e imagens de abuso sexual de IA

July 30, 2024
Top Reviews
MatoSinhos24h
Facebook X (Twitter) Instagram Pinterest Vimeo YouTube
  • Home
  • About Matosinhos24h.com
  • Advertise with Us
  • Contact us
  • DMCA Policy
  • Policy
  • Terms of Use
© 2025 matosinhos24h. Designed by matosinhos24h.

Type above and press Enter to search. Press Esc to cancel.