- Os cibercriminosos estão usando clonagem de voz de IA para explorar a confiança, imitando entes queridos em emergências para roubar dinheiro por meio de golpes como o “Oi, mãe”.
- Golpistas podem clonar vozes de apenas alguns segundos de áudio de mídia social, fazendo com que falsos pedidos de ajuda financeira urgente pareçam assustadoramente reais.
- O golpe “Oi, mãe” começa com uma mensagem de um número desconhecido, geralmente usando notas de voz de IA para se passar por uma criança em perigo precisando de dinheiro rápido.
- Especialistas alertam que esses golpes dependem de manipulação psicológica, pressionando as vítimas a agir rapidamente sem verificar a identidade de quem liga.
- Para se proteger, faça uma pausa antes de enviar dinheiro, verifique o remetente por meio de um número conhecido e denuncie mensagens suspeitas às autoridades.
Especialistas alertam que os criminosos cibernéticos têm usado a inteligência artificial como arma para explorar os laços de confiança entre familiares e amigos e obter lucros significativos.
Uma nova onda preocupante de golpes, conhecida como “Oi, mãe”, está se espalhando por plataformas de mensagens como o WhatsApp, usando clones de voz gerados por IA e manipulação emocional para roubar centenas de milhares de dólares de vítimas desavisadas. Com os golpistas agora capazes de imitar a voz de um ente querido usando apenas alguns segundos de áudio de redes sociais, especialistas alertam que esses golpes estão evoluindo a uma “velocidade vertiginosa”, colocando em risco até mesmo os indivíduos mais experientes.
A anatomia do golpe
O esquema começa com uma mensagem simples: “Oi, mãe” ou “Oi, pai”, muitas vezes enviada de um número desconhecido. O remetente alega ter perdido o celular e ter o acesso à conta bancária bloqueado, instando o destinatário a enviar dinheiro urgentemente, seja para o aluguel, um novo aparelho para substituir o perdido ou outra emergência inventada. O que torna esses golpes particularmente insidiosos é que eles frequentemente também utilizam clonagem de voz por IA, que permite aos criminosos reproduzir a voz de um ente querido com uma precisão assustadora.
Jake Moore, consultor global de segurança cibernética da ESET, explica: “Com esse software, os fraudadores podem copiar qualquer voz encontrada online e, em seguida, enviar mensagens de voz convincentes o suficiente para que seus familiares caiam no golpe.” Dados do Santander revelam que se passar por um filho tem a maior taxa de sucesso, seguido por filhas e mães.
Engano de IA e engenharia social
A eficácia do golpe reside na sua manipulação psicológica. Os fraudadores exploram as redes sociais em busca de informações pessoais, elaborando narrativas críveis para pressionar as vítimas a agirem rapidamente. Chris Ainsley, chefe de gestão de risco de fraude do Santander, observa: “Estamos ouvindo relatos de casos em que a tecnologia de imitação de voz por IA está sendo usada para criar mensagens de voz para WhatsApp e SMS, tornando o golpe cada vez mais realista.”
Uma vez estabelecida a confiança, o golpista passa a exigir dinheiro, sempre direcionando os fundos para uma conta desconhecida. Moore alerta: “Os golpistas estão cada vez mais aprimorando a manipulação das pessoas para que façam o que pedem, pois a história muitas vezes parece convincente e legítima.” Por exemplo, o “filho” ou “filha” da vítima pode alegar estar bloqueado de sua conta bancária porque o banco enviou um código de confirmação para o telefone que supostamente perdeu.
Como se proteger
Especialistas enfatizam vigilância e verificação. As principais etapas incluem:
- Pare e pense: faça uma pausa antes de responder a pedidos inesperados de dinheiro.
- Verifique o remetente: ligue diretamente para a pessoa usando um número conhecido ou solicite uma nota de voz com uma “senha familiar” pré-definida (evitando frases óbvias).
- Denunciar atividades suspeitas: encaminhe mensagens fraudulentas para a polícia ou denuncie pelo WhatsApp.
Moore aconselha: “Nunca envie dinheiro para nenhuma conta nova sem fazer a devida diligência, mesmo que a narrativa pareça plausível.”
À medida que as ferramentas de IA se tornam mais acessíveis, esses golpes se tornarão cada vez mais sofisticados. A melhor defesa é o ceticismo. Certifique-se de questionar solicitações incomuns, verificar identidades e lembre-se de que nenhum pedido legítimo de ajuda o punirá por perder um momento para confirmar sua autenticidade. Na era digital, a confiança deve ser conquistada, não presumida.
Fonte: https://www.newstarget.com/2025-05-06-ai-voice-cloning-text-hoaxes.html