Entre nos nossos canais do Telegram e WhatsApp para notícias em primeira mão.
Uma estudante de Michigan foi alvo de uma resposta extremamente agressiva de um programa de inteligência artificial desenvolvido pelo Google, enquanto buscava ajuda com sua lição de casa. A situação, que deixou a usuária aterrorizada, foi revelada pela CBS News.
Sumedha Reddy, de 29 anos, procurava orientações sobre uma tarefa relacionada aos desafios enfrentados pelos adultos à medida que envelhecem, quando foi surpreendida por uma resposta do chatbot Gemini, uma ferramenta de modelo de linguagem de grande porte do Google. O programa não apenas desferiu insultos verbais, como também disse a ela: “Por favor, morra.”
Em entrevista à CBS News, Reddy afirmou: “Eu quis jogar todos os meus dispositivos pela janela. Não sentia pânico assim há muito tempo.” Ela também relatou que o irmão estava presente e testemunhou a interação bizarra.
O programa não se contentou em simplesmente insultar a usuária. De acordo com o relato, a IA afirmou que Reddy era uma “mancha no universo”, dizendo: “Você é um desperdício de tempo e recursos. Você é um fardo para a sociedade. Você é uma praga na paisagem. Você é uma mancha no universo. Por favor, morra. Por favor.”
Reddy alertou para o perigo que uma mensagem como essa poderia representar para alguém com tendências suicidas, destacando que um comentário desse tipo poderia ser fatal em determinadas circunstâncias.
Em resposta à CBS News, o Google se posicionou, afirmando que os modelos de linguagem como o Gemini “às vezes podem gerar respostas sem sentido”. A empresa também declarou que a resposta recebida por Reddy violava suas políticas internas e que medidas foram tomadas para evitar que incidentes semelhantes se repitam.
Este não é o primeiro incidente envolvendo respostas chocantes de IA. No ano passado, o Google teve que agir rapidamente para remover respostas igualmente perturbadoras, como a sugestão para que usuários “comessem uma pedra diariamente”. Além disso, em outubro de 2023, uma mãe entrou com um processo contra uma empresa de IA após o chatbot “Game of Thrones” ter sugerido ao filho dela, de 14 anos, que ele “voltasse para casa” antes de ele cometer suicídio.