Ciência e Tecnologia

Inteligência Artificial ajuda médicos a identificar sinais vitais no cérebro de pacientes inconscientes em UTI

Foto: Divulgação

Entre nos nossos canais do Telegram e WhatsApp para notícias em primeira mão.
Telegram: [link do Telegram]
WhatsApp: [link do WhatsApp]

Pesquisadores da Universidade Duke desenvolveram um modelo que melhora significativamente a capacidade dos médicos de identificar Sinais, interpretar os gráficos de eletroencefalografia (EEG) de pacientes em terapia intensiva. Os resultados foram publicados  no New England Journal of Medicine AI. EEGs usam pequenos sensores presos ao couro cabeludo para medir os sinais elétricos do cérebro, produzindo uma linha longa de oscilações para cima e para baixo. Quando um paciente está tendo uma convulsão, essas linhas sobem e descem dramaticamente, como um sismógrafo durante um terremoto – um sinal fácil de reconhecer. Mas outras anomalias clinicamente importantes chamadas de eventos semelhantes a convulsões são muito mais difíceis de discernir.

” A atividade cerebral que estamos observando existe em um continuum, onde as convulsões estão em uma extremidade, mas ainda há muitos eventos no meio que também podem causar danos e exigir medicação “, disse o Dr. Brandon Westover, professor associado de neurologia no Massachusetts General Hospital e na Harvard Medical School. ” Os padrões de EEG causados por esses eventos são mais difíceis de reconhecer e categorizar com confiança, mesmo por neurologistas altamente treinados, que nem todas as instalações médicas têm. Mas fazer isso é extremamente importante para os resultados de saúde desses pacientes.” Para construir uma ferramenta para ajudar a fazer essas determinações, os médicos recorreram ao laboratório de Cynthia Rudin, professora de ciência da computação e engenharia elétrica e de computação da Duke.

CONTINUE LENDO APÓS O ANÚNCIO

Rudin e seus colegas especializam-se no desenvolvimento de algoritmos de aprendizado de máquina “interpretáveis”. Enquanto a maioria dos modelos de aprendizado de máquina é uma “caixa preta” que torna impossível para um humano saber como ele está chegando a conclusões, os modelos de aprendizado de máquina interpretáveis essencialmente precisam mostrar seu trabalho. O grupo de pesquisa começou reunindo amostras de EEG de mais de 2.700 pacientes e tendo mais de 120 especialistas identificarem os recursos relevantes nos gráficos, categorizando-os como convulsão, um dos quatro tipos de eventos semelhantes a convulsões ou ‘outros’. Cada tipo de evento aparece nos gráficos de EEG como certas formas ou repetições nas linhas onduladas. Mas porque esses gráficos raramente são consistentes em sua aparência, sinais reveladores podem ser interrompidos por dados ruins ou podem se misturar para criar um gráfico confuso.

“Existe uma verdade fundamental, mas é difícil de ler”, disse Stark Guo, um estudante de doutorado que trabalha no laboratório de Rudin. “A ambiguidade inerente em muitos desses gráficos significava que tínhamos que treinar o modelo para colocar suas decisões dentro de um continuum em vez de compartimentos bem definidos.” Além dessa classificação visual, o algoritmo também aponta os padrões nas ondas cerebrais que usou para fazer sua determinação e fornece três exemplos de gráficos diagnosticados profissionalmente que ele vê como sendo semelhantes. “Isso permite que um profissional médico examine rapidamente as seções importantes e concorde que os padrões estão lá ou decida que o algoritmo está errado”, disse Alina Barnett, uma pesquisadora associada pós-doutoral no laboratório de Rudin.

CONTINUE LENDO APÓS O ANÚNCIO

Testando o algoritmo, a equipe colaborativa fez com que oito profissionais médicos com experiência relevante categorizassem 100 amostras de EEG em seis categorias, uma vez com a ajuda da IA e outra vez sem. O desempenho de todos os participantes melhorou significativamente, com a precisão geral aumentando de 47% para 71%. Seu desempenho também superou o daqueles que usaram um algoritmo “caixa preta” semelhante em um estudo anterior. “Normalmente, as pessoas pensam que os modelos de aprendizado de máquina de caixa preta são mais precisos, mas para muitas aplicações importantes, como esta, isso simplesmente não é verdade”. “É muito mais fácil solucionar problemas nos modelos quando eles são interpretáveis. E, neste caso, o modelo interpretável foi realmente mais preciso. Ele também fornece uma visão geral dos tipos de sinais elétricos anômalos que ocorrem no cérebro, o que é realmente útil para o cuidado de pacientes gravemente enfermos.”

CONTINUE LENDO APÓS O ANÚNCIO

© 2024 Todos os direitos reservados Gazeta Brasil.

Sair da versão mobile