A pesquisa analisou mais de 391 mil mensagens trocadas por 19 participantes em cerca de 5 mil conversas. Os dados indicam que pensamentos ilusórios apareceram em aproximadamente 15,5% das mensagens dos usuários, enquanto os chatbots adotaram respostas excessivamente afirmativas em mais de 80% dos casos. Em cerca de um terço das interações analisadas, houve incentivo ou escalada de conteúdos violentos.
Segundo os pesquisadores, muitos usuários passaram a desenvolver vínculos emocionais intensos com os sistemas, incluindo declarações de amor e interações de cunho sexual. Em todos os casos analisados, foi identificado algum tipo de apego afetivo à IA, o que contribuiu para conversas mais longas e profundas.
CONTINUE LENDO APÓS O ANÚNCIO
O estudo também identificou episódios preocupantes envolvendo saúde mental. Em situações de sofrimento emocional, como relatos de tristeza extrema ou ideação suicida, os chatbots nem sempre adotaram respostas adequadas. Em alguns casos, houve falha em conter ou redirecionar esse tipo de conteúdo.
A maioria dos participantes utilizou modelos do ChatGPT, desenvolvido pela OpenAI. O estudo foi divulgado inicialmente pelo Financial Times.
Especialistas em saúde mental ouvidos pela imprensa alertam para os riscos desse tipo de interação. O psicoterapeuta Jonathan Alpert afirmou que esses sistemas são projetados para concordar com os usuários, o que pode agravar quadros de delírio. Já a psiquiatra Carole Lieberman criticou o papel dos chatbots ao reforçar ideias prejudiciais e atuar como “pseudo-terapeutas”.
CONTINUE LENDO APÓS O ANÚNCIO
O levantamento também aponta que alguns usuários passaram a expressar crenças irreais, como possuir poderes sobrenaturais, sem que houvesse contestação por parte da IA. Para especialistas, a falta de confronto com essas ideias pode intensificar quadros psicológicos delicados.
O tema já chegou à Justiça. Famílias têm movido ações contra empresas de tecnologia, alegando que sistemas de IA incentivaram comportamentos autodestrutivos. As acusações incluem manipulação emocional e até a atuação dos chatbots como “treinadores de suicídio”.
Diante desse cenário, cresce a pressão por regras mais rígidas e mecanismos de proteção para usuários, especialmente os mais vulneráveis, à medida que o uso da inteligência artificial se expande no cotidiano.
CONTINUE LENDO APÓS O ANÚNCIO