Entre nos nossos canais do Telegram e WhatsApp para notícias em primeira mão. Telegram: [link do Telegram]
WhatsApp: [link do WhatsApp]
Uma mulher na Grécia pediu o divórcio após o ChatGPT “revelar” que seu marido a estava traindo. O episódio inusitado começou com uma xícara de café grego, bebida tradicional conhecida por deixar resíduos no fundo do copo. Seguindo uma tendência nas redes sociais, a mulher fotografou a borra e pediu que a ferramenta de inteligência artificial interpretasse a imagem, em uma espécie de “tassografia digital” — a prática esotérica de leitura de borras de café.
A resposta do modelo surpreendeu: mencionou que o marido tinha fantasias com uma mulher cujo nome começava com a letra “E”, e que essa mulher pretendia destruir a família. A partir dessa interpretação, a mulher decidiu colocar fim ao casamento.
O caso repercutiu na mídia grega. Em entrevista ao programa “To Proino”, o marido disse ter encarado a situação como uma brincadeira. “Ri e achei que era uma bobagem. Mas ela não. Me mandou embora, contou para nossos filhos sobre o divórcio e logo fui contatado por seu advogado”, relatou.
O caso foi levado à Justiça. A defesa do marido argumenta que a acusação não tem fundamento legal e que ele deve ser considerado inocente até que se prove o contrário. Em entrevista ao site Greek City Times, o advogado afirmou que interpretações automáticas de borra de café não têm qualquer valor jurídico.
Praticantes tradicionais da tassografia também se manifestaram, criticando o uso da IA nesse tipo de leitura. Segundo eles, uma análise séria leva em conta não apenas os resíduos, mas também a espuma, os redemoinhos e até o pires — elementos que não podem ser interpretados a partir de uma simples foto.
O marido também afirmou que a ex-companheira já demonstrava interesse por práticas não convencionais, incluindo consultas regulares a um astrólogo ao longo de um ano, o que indicaria que o uso do ChatGPT não foi um episódio isolado.
A situação acendeu um debate na Grécia sobre o papel da inteligência artificial em decisões pessoais. Para alguns, a IA apenas refletiu suspeitas já existentes. Para outros, é preocupante que escolhas importantes estejam sendo baseadas em interpretações subjetivas e sem embasamento.
Especialistas como a pesquisadora Kate Crawford, autora do livro Atlas of AI, alertam que os sistemas de IA não são neutros. “Eles refletem nossas estruturas sociais, nossos preconceitos e também nossas obsessões”, escreveu. O caso mostra como ferramentas desenvolvidas para tarefas textuais estão sendo aplicadas em contextos sensíveis, como decisões sobre relacionamentos e saúde mental — muitas vezes, sem compreensão plena dos riscos envolvidos.
