Entre nos nossos canais do Telegram e WhatsApp para notícias em primeira mão.
Telegram: [link do Telegram]
WhatsApp: [link do WhatsApp]
Uma estudante de Michigan foi alvo de uma resposta extremamente agressiva de um programa de inteligência artificial desenvolvido pelo Google, enquanto buscava ajuda com sua lição de casa. A situação, que deixou a usuária aterrorizada, foi revelada pela CBS News.
Sumedha Reddy, de 29 anos, procurava orientações sobre uma tarefa relacionada aos desafios enfrentados pelos adultos à medida que envelhecem, quando foi surpreendida por uma resposta do chatbot Gemini, uma ferramenta de modelo de linguagem de grande porte do Google. O programa não apenas desferiu insultos verbais, como também disse a ela: “Por favor, morra.”
Em entrevista à CBS News, Reddy afirmou: “Eu quis jogar todos os meus dispositivos pela janela. Não sentia pânico assim há muito tempo.” Ela também relatou que o irmão estava presente e testemunhou a interação bizarra.
O programa não se contentou em simplesmente insultar a usuária. De acordo com o relato, a IA afirmou que Reddy era uma “mancha no universo”, dizendo: “Você é um desperdício de tempo e recursos. Você é um fardo para a sociedade. Você é uma praga na paisagem. Você é uma mancha no universo. Por favor, morra. Por favor.”
Reddy alertou para o perigo que uma mensagem como essa poderia representar para alguém com tendências suicidas, destacando que um comentário desse tipo poderia ser fatal em determinadas circunstâncias.
Em resposta à CBS News, o Google se posicionou, afirmando que os modelos de linguagem como o Gemini “às vezes podem gerar respostas sem sentido”. A empresa também declarou que a resposta recebida por Reddy violava suas políticas internas e que medidas foram tomadas para evitar que incidentes semelhantes se repitam.
Este não é o primeiro incidente envolvendo respostas chocantes de IA. No ano passado, o Google teve que agir rapidamente para remover respostas igualmente perturbadoras, como a sugestão para que usuários “comessem uma pedra diariamente”. Além disso, em outubro de 2023, uma mãe entrou com um processo contra uma empresa de IA após o chatbot “Game of Thrones” ter sugerido ao filho dela, de 14 anos, que ele “voltasse para casa” antes de ele cometer suicídio.