Entre nos nossos canais do Telegram e WhatsApp para notícias em primeira mão.
UM APLICATIVO pode usar a inteligência artificial para detectar a depressão a partir de pistas faciais antes mesmo do usuário perceber que algo está errado, mostra um estudo.
O MoodCapture utiliza a câmera frontal do telefone para capturar as expressões faciais e o ambiente de uma pessoa, avaliando em seguida as imagens em busca de pistas associadas à condição.
Foi constatado que ele identifica corretamente os primeiros sintomas de depressão com uma precisão de 75 por cento.
O Professor Andrew Campbell, da Dartmouth College, em New Hampshire, disse: “As pessoas usam software de reconhecimento facial para desbloquear seus telefones centenas de vezes por dia.
“O MoodCapture utiliza uma tecnologia semelhante de reconhecimento facial com aprendizado profundo e hardware de inteligência artificial, então há um enorme potencial para expandir essa tecnologia sem nenhum esforço adicional ou ônus para o usuário.
“Uma pessoa apenas desbloqueia seu telefone e o MoodCapture conhece suas dinâmicas de depressão e pode sugerir que busquem ajuda.”
Aproximadamente um em cada cinco adultos no Reino Unido experimentou alguma forma disso em 2021, de acordo com o Office for National Statistics.
E três em cada dez adultos na Inglaterra são diagnosticados com depressão a cada semana.
O estudo, publicado no banco de dados de pré-impressão arXiv, testou o aplicativo em 177 pessoas diagnosticadas com transtorno depressivo maior.
Ele capturou 125.000 imagens dos participantes ao longo de 90 dias.
Os pesquisadores afirmam que a precisão do aplicativo sugere que a tecnologia poderia estar disponível para o público nos próximos cinco anos.
O Professor Campbell acrescentou: “Esta é a primeira vez que imagens naturais ‘no ambiente’ foram usadas para prever a depressão.
“Houve um movimento para que a tecnologia de saúde mental digital desenvolva, em última análise, uma ferramenta que possa prever o humor em pessoas diagnosticadas com depressão maior de maneira confiável e não intrusiva.
“Minha impressão é que tecnologias como essa poderiam estar disponíveis ao público dentro de cinco anos. Mostramos que isso é possível.”
Ainda há um longo caminho a percorrer se este aplicativo for se tornar confiável, pois os pesquisadores observam que uma precisão de 90 por cento seria o limite de um sensor viável.
A equipe espera que tecnologias como o MoodCapture possam ajudar a fechar a lacuna significativa entre quando as pessoas com depressão precisam de intervenção e o acesso que têm aos recursos de saúde mental.
O professor assistente Nicholas Jacobson disse: “Muitas de nossas intervenções terapêuticas para a depressão estão centradas em períodos mais longos, mas essas pessoas experimentam altos e baixos em sua condição. Avaliações tradicionais perdem a maior parte do que é a depressão.
“Nosso objetivo é capturar as mudanças nos sintomas que as pessoas com depressão experimentam em suas vidas diárias.
“Se pudermos usar isso para prever e entender as mudanças rápidas nos sintomas da depressão, podemos, em última análise, evitá-los e tratá-los. Quanto mais no momento pudermos estar, menos profundo será o impacto da depressão.
“O objetivo dessas tecnologias é fornecer suporte mais em tempo real sem adicionar uma pressão adicional ao sistema de atendimento.”
**Como funciona**
Os pesquisadores afirmam que o MoodCapture idealmente sugeriria medidas preventivas, como sair ou verificar com um amigo, em vez de informar explicitamente a uma pessoa que ela pode estar entrando em um estado de depressão.
O Dr. Jacobson acrescentou: “Dizer a alguém que algo ruim está acontecendo com ela tem o potencial de piorar as coisas.
“Acreditamos que o MoodCapture abre a porta para ferramentas de avaliação que ajudariam a detectar a depressão nos momentos antes que ela piore.
“Essas aplicações devem ser combinadas com intervenções que tentem ativamente interromper a depressão antes que ela se expanda e evolua.
“Um pouco mais de uma década atrás, esse tipo de trabalho teria sido inimaginável.”
A equipe observa que seus próximos passos envolverão treinar a IA com uma maior diversidade de participantes, melhorar sua capacidade diagnóstica e reforçar as medidas de privacidade.
Eles esperam criar uma iteração do MoodCapture em que as fotos nunca saiam do telefone da pessoa e sejam processadas no dispositivo do usuário para extrair expressões faciais associadas à depressão e convertê-las em código para o modelo de IA.
O candidato a doutorado Subigya Nepal disse: “Mesmo que os dados saiam do dispositivo, não haveria como juntá-los em uma imagem que identifique o usuário.
“Você não precisaria começar do zero – sabemos que o modelo geral é 75 por cento preciso, então os dados de uma pessoa específica poderiam ser usados para ajustar o modelo. Os dispositivos nos próximos anos facilmente deveriam ser capazes de lidar com isso.
“Sabemos que as expressões faciais são indicativas do estado emocional.
“Nosso estudo é uma prova de conceito de que, quando se trata de usar a tecnologia para avaliar a saúde mental, elas são um dos sinais mais importantes que podemos obter.”