Entre nos nossos canais do Telegram e WhatsApp para notícias em primeira mão.
Telegram: [link do Telegram]
WhatsApp: [link do WhatsApp]
Especialistas em cibersegurança estão emitindo alertas sobre uma sofisticada fraude que usa inteligência artificial para clonar vozes de pessoas conhecidas, visando enganar vítimas e extorquir dinheiro. O golpe, que pode fazer com que uma ligação pareça ser de um amigo ou familiar em apuros financeiros, está se tornando cada vez mais comum. No entanto, há medidas simples que podem ajudar a detectar e evitar essa armadilha, incluindo o uso de uma palavra de segurança e a verificação cuidadosa de detalhes durante a ligação.
À medida que a IA se torna mais sofisticada, criminosos estão utilizando a tecnologia para criar clones de voz praticamente indistinguíveis de pessoas reais. Esses clones são então usados em chamadas telefônicas para solicitar dinheiro de maneira urgente, muitas vezes se passando por amigos, familiares ou colegas de trabalho. Para se proteger contra esse tipo de golpe, especialistas em segurança cibernética recomendam adotar uma abordagem cautelosa e fazer perguntas específicas durante a ligação para verificar a identidade do suposto chamador.
CONTINUE LENDO APÓS O ANÚNCIO
Curtis Wilson, especialista do Grupo de Integridade de Software da Synopsys, destaca a importância de solicitar detalhes específicos durante a conversa. Ele sugere que, ao receber uma ligação suspeita, seja de um filho alegando estar com um amigo ou de um colega mencionando um projeto, é crucial pedir mais informações para confirmar a autenticidade da chamada. Além disso, ele recomenda tentar contatar a pessoa por outros meios para verificar sua identidade.
Simon Newman, CEO do Centro de Resiliência Cibernética de Londres, enfatiza a necessidade de não ceder ao pânico diante de solicitações urgentes de dinheiro. Ele destaca a importância de verificar a identidade do chamador fazendo perguntas específicas que apenas a pessoa real seria capaz de responder. Newman também sugere tentar entrar em contato com a pessoa por meio do número que ela normalmente utiliza, como uma camada adicional de verificação.
CONTINUE LENDO APÓS O ANÚNCIO
Além disso, os especialistas recomendam estabelecer uma palavra de segurança com amigos próximos, familiares e colegas importantes. Essa palavra de segurança pode ser usada para confirmar a identidade do chamador durante uma ligação suspeita. Caso a pessoa do outro lado da linha não consiga fornecer a palavra de segurança correta, isso pode indicar que se trata de um clone de voz de IA.
Embora a indústria de cibersegurança esteja trabalhando arduamente para desenvolver ferramentas que facilitem a identificação e o bloqueio de deepfakes, a adoção de uma abordagem cautelosa ainda é a melhor estratégia para evitar cair em golpes financeiros. Os especialistas alertam que solicitações de dinheiro por métodos incomuns, como criptomoedas ou cartões-presente, devem ser tratadas como um grande alerta de fraude.
CONTINUE LENDO APÓS O ANÚNCIO
Em um cenário em que a tecnologia está sendo cada vez mais utilizada para perpetrar fraudes sofisticadas, é essencial estar vigilante e adotar medidas de segurança proativas. Ao fazer perguntas específicas, verificar a identidade do chamador e estabelecer palavras de segurança, as pessoas podem se proteger melhor contra os clones de voz de IA e outros tipos de golpes cibernéticos.
CONTINUE LENDO APÓS O ANÚNCIO