ROUBO DE VOZ
Alerta: sua voz pode estar sendo usada por bandidos para aplicar golpe
Especialista discorda sobre clonagem rápida, mas alerta que IA pode facilitar crime

Por Andrêzza Moura

Uma nova modalidade de golpe envolvendo suposta clonagem de voz por inteligência artificial tem assustado a população e mobilizado as autoridades de segurança pública brasileiras. Segundo informações preliminares, criminosos estariam captando trechos da fala das vítimas durante ligações telefônicas e usando ferramentas de IA para simular suas vozes em fraudes contra familiares e amigos.
Os golpes, que já estariam ocorrendo em São Paulo e no Rio de Janeiro, aparentemente são simples. No estado paulista, segundo informações da Polícia Civil, os criminosos usam chamadas 'mudas' - em que o telefone toca, mas ninguém fala - para gravar alguns segundos da voz da vítima no momento em que ela atende. As investigações indicam que poucas palavras são suficientes para simular a fala.
Já no Rio de Janeiro, os criminosos estariam fazendo ligações telefônicas, muitas das vezes, se passando por representantes de órgãos públicos e conduzindo a conversa com perguntas rápidas e simples com o objetivo de gravar trechos da voz da vítima.
Nos dois casos, com a obtenção do material/voz, eles estariam utilizando ferramentas de inteligência artificial para montar áudios falsos que imitam com alta fidelidade a pessoa gravada para aplicar outros golpes.
Golpes em Salvador
Em Salvador, na Delegacia de Repressão a Crimes Cibernéticos (DRCC), até o momento, não há registros formais desse tipo de golpe envolvendo clonagem de voz com uso de inteligência artificial. A informação foi confirmada pelo delegado Bruno Oliveira, titular da unidade policial.
“Aqui na minha unidade não houve, ainda, registro nesse sentido”, afirmou Oliveira, ao revelar ter feito registrado de um caso de deepfake de imagem - tipo de fraude com uso de imagem de vítimas.
Diante da disseminação do crime em outras cidades do país, o delegado afirma que permanece em estado de alerta e destaca a importância da prevenção como principal forma de proteção. Ele aproveitou a oportunidade para repassar orientações à população, com medidas práticas que podem ajudar a evitar ser vítima desse tipo de golpe.
Leia Também:
Cuidados para evitar cair nesses golpes
- Desconfie de urgência excessiva: golpistas sempre apelam para medo e pressa. Se alguém ligar pedindo dinheiro “imediato”, respire fundo e confirme a identidade antes de agir.
- Valide a identidade da pessoa: Crie palavras-código em família (ex.: uma senha ou pergunta combinada); Confirme com outra forma de contato (ligue de volta no número oficial ou mande mensagem em outro canal).
- Evite expor sua voz em chamadas de números desconhecidos: não exponha sua voz em ligações de números desconhecidos, pois o criminoso pode utilizar mecanismos para captar e clonar sua voz.
- Não exponha áudios desnecessários em público: Evite deixar mensagens de voz abertas em redes sociais ou aplicativos que qualquer pessoa possa baixar.
- Proteja suas informações pessoais; Quanto menos dados sobre você e sua família circularem na internet, mais difícil fica personalizar o golpe.
- Oriente familiares e idosos: São os mais visados. Explique o risco e combine procedimentos de checagem.
- Bloqueie e denuncie: Caso receba uma ligação suspeita, não forneça dados, desligue e registre ocorrência policial.
Especialistas divergem sobre clonagem rápida
Enquanto alguns especialistas em cibersegurança afirmam que bastam poucos segundos de gravação para gerar uma imitação convincente da voz, outros pedem cautela.
É o caso de Luis Gaban, especialista em tecnologia. Ele foi categórico ao afirmar que ainda não é possível clonar vozes com qualidade apenas com um 'alô' gravado durante uma ligação.
"Sobre essas informações que estão circulando a respeito de gravação de voz apenas com a pessoa dizendo alô, alô, tem alguém aí? Alô?, nos dias atuais, eu vejo que é impossível qualquer inteligência artificial conseguir fazer isso. Não consegue. Agora, existem algumas inteligências artificiais que podem sim e fazem isso muito bem de copiar a voz de uma pessoa", explicou Gaban.
No entanto, ele segue dizendo que é necessário um volume muito maior de gravações com diferentes entonações, sotaques e situações para que a IA consiga simular a voz humana com naturalidade.
"Então, não é assim um simples alô, oi, que vai no telefone, conseguir fazer essa gravação. Isso aí não. Mas, com a quantidade, às vezes, ao depender do sotaque da pessoa, a forma como a pessoa fala, você pode demorar, sei lá, duas horas, três horas de gravações, de diversos tipos de gravações, a pessoa cantando, a pessoa falando, a pessoa discursando, a pessoa lendo um texto, ou seja, você pegar todas as formas da pessoa verbalizar as palavras, soltar as palavras. E a com esse aprendizado que a IA vai conseguir construir ali a sua voz de forma artificial", acrescentou.
Questionado se, diante da repercussão do caso, a população pode ficar tranquila, Gaban afirmou: "por enquanto, eu digo que sim. Foi o que eu disse ao meu pai. Fique tranquilo! Por enquanto, fique tranquilo".
Mas, mesmo assim, ele reconhece que o avanço das ferramentas de inteligência artificial pode tornar esse tipo de golpe mais acessível no futuro.
"Agora, daqui pra frente, eu não sei quanto tempo, porque tudo está acontecendo de forma exponencial e muito rápido, com a velocidade que vai será possível criar uma IA que consiga copiar a voz com uma celeridade muito maior e com a quantidade de voz utilizada muito pouca de 10 segundos, 20 segundos. Mas, que vai ser necessário muito mais do que duas ou três palavras, com certeza isso sim", finalizou o especialista.
Siga o A TARDE no Google Notícias e receba os principais destaques do dia.
Participe também do nosso canal no WhatsApp.
Compartilhe essa notícia com seus amigos
Siga nossas redes