Menu
Pesquisa
Pesquisa
Busca interna do iBahia
HOME > POLÍCIA
Ouvir Compartilhar no Whatsapp Compartilhar no Facebook Compartilhar no X Compartilhar no Email

ROUBO DE VOZ

Alerta: sua voz pode estar sendo usada por bandidos para aplicar golpe

Especialista discorda sobre clonagem rápida, mas alerta que IA pode facilitar crime

Andrêzza Moura

Por Andrêzza Moura

09/10/2025 - 6:07 h
População e autoridades ficam em alerta diante de novo golpe com clonagem de voz por IA
População e autoridades ficam em alerta diante de novo golpe com clonagem de voz por IA -

Uma nova modalidade de golpe envolvendo suposta clonagem de voz por inteligência artificial tem assustado a população e mobilizado as autoridades de segurança pública brasileiras. Segundo informações preliminares, criminosos estariam captando trechos da fala das vítimas durante ligações telefônicas e usando ferramentas de IA para simular suas vozes em fraudes contra familiares e amigos.

Os golpes, que já estariam ocorrendo em São Paulo e no Rio de Janeiro, aparentemente são simples. No estado paulista, segundo informações da Polícia Civil, os criminosos usam chamadas 'mudas' - em que o telefone toca, mas ninguém fala - para gravar alguns segundos da voz da vítima no momento em que ela atende. As investigações indicam que poucas palavras são suficientes para simular a fala.

Tudo sobre Polícia em primeira mão!
Entre no canal do WhatsApp.

Já no Rio de Janeiro, os criminosos estariam fazendo ligações telefônicas, muitas das vezes, se passando por representantes de órgãos públicos e conduzindo a conversa com perguntas rápidas e simples com o objetivo de gravar trechos da voz da vítima.

Nos dois casos, com a obtenção do material/voz, eles estariam utilizando ferramentas de inteligência artificial para montar áudios falsos que imitam com alta fidelidade a pessoa gravada para aplicar outros golpes.

Golpes em Salvador

Em Salvador, na Delegacia de Repressão a Crimes Cibernéticos (DRCC), até o momento, não há registros formais desse tipo de golpe envolvendo clonagem de voz com uso de inteligência artificial. A informação foi confirmada pelo delegado Bruno Oliveira, titular da unidade policial.

“Aqui na minha unidade não houve, ainda, registro nesse sentido”, afirmou Oliveira, ao revelar ter feito registrado de um caso de deepfake de imagem - tipo de fraude com uso de imagem de vítimas.

Diante da disseminação do crime em outras cidades do país, o delegado afirma que permanece em estado de alerta e destaca a importância da prevenção como principal forma de proteção. Ele aproveitou a oportunidade para repassar orientações à população, com medidas práticas que podem ajudar a evitar ser vítima desse tipo de golpe.

Leia Também:

Cuidados para evitar cair nesses golpes

  • Desconfie de urgência excessiva: golpistas sempre apelam para medo e pressa. Se alguém ligar pedindo dinheiro “imediato”, respire fundo e confirme a identidade antes de agir.
  • Valide a identidade da pessoa: Crie palavras-código em família (ex.: uma senha ou pergunta combinada); Confirme com outra forma de contato (ligue de volta no número oficial ou mande mensagem em outro canal).
  • Evite expor sua voz em chamadas de números desconhecidos: não exponha sua voz em ligações de números desconhecidos, pois o criminoso pode utilizar mecanismos para captar e clonar sua voz.
  • Não exponha áudios desnecessários em público: Evite deixar mensagens de voz abertas em redes sociais ou aplicativos que qualquer pessoa possa baixar.
  • Proteja suas informações pessoais; Quanto menos dados sobre você e sua família circularem na internet, mais difícil fica personalizar o golpe.
  • Oriente familiares e idosos: São os mais visados. Explique o risco e combine procedimentos de checagem.
  • Bloqueie e denuncie: Caso receba uma ligação suspeita, não forneça dados, desligue e registre ocorrência policial.

Especialistas divergem sobre clonagem rápida

Enquanto alguns especialistas em cibersegurança afirmam que bastam poucos segundos de gravação para gerar uma imitação convincente da voz, outros pedem cautela.

É o caso de Luis Gaban, especialista em tecnologia. Ele foi categórico ao afirmar que ainda não é possível clonar vozes com qualidade apenas com um 'alô' gravado durante uma ligação.

"Sobre essas informações que estão circulando a respeito de gravação de voz apenas com a pessoa dizendo alô, alô, tem alguém aí? Alô?, nos dias atuais, eu vejo que é impossível qualquer inteligência artificial conseguir fazer isso. Não consegue. Agora, existem algumas inteligências artificiais que podem sim e fazem isso muito bem de copiar a voz de uma pessoa", explicou Gaban.

No entanto, ele segue dizendo que é necessário um volume muito maior de gravações com diferentes entonações, sotaques e situações para que a IA consiga simular a voz humana com naturalidade.

"Então, não é assim um simples alô, oi, que vai no telefone, conseguir fazer essa gravação. Isso aí não. Mas, com a quantidade, às vezes, ao depender do sotaque da pessoa, a forma como a pessoa fala, você pode demorar, sei lá, duas horas, três horas de gravações, de diversos tipos de gravações, a pessoa cantando, a pessoa falando, a pessoa discursando, a pessoa lendo um texto, ou seja, você pegar todas as formas da pessoa verbalizar as palavras, soltar as palavras. E a com esse aprendizado que a IA vai conseguir construir ali a sua voz de forma artificial", acrescentou.

Questionado se, diante da repercussão do caso, a população pode ficar tranquila, Gaban afirmou: "por enquanto, eu digo que sim. Foi o que eu disse ao meu pai. Fique tranquilo! Por enquanto, fique tranquilo".

Mas, mesmo assim, ele reconhece que o avanço das ferramentas de inteligência artificial pode tornar esse tipo de golpe mais acessível no futuro.

"Agora, daqui pra frente, eu não sei quanto tempo, porque tudo está acontecendo de forma exponencial e muito rápido, com a velocidade que vai será possível criar uma IA que consiga copiar a voz com uma celeridade muito maior e com a quantidade de voz utilizada muito pouca de 10 segundos, 20 segundos. Mas, que vai ser necessário muito mais do que duas ou três palavras, com certeza isso sim", finalizou o especialista.

Siga o A TARDE no Google Notícias e receba os principais destaques do dia.

Participe também do nosso canal no WhatsApp.

Compartilhe essa notícia com seus amigos

Compartilhar no Email Compartilhar no X Compartilhar no Facebook Compartilhar no Whatsapp

Tags:

Bahia chamadas mudas cibercrime clonagem de voz clonagem por IA deepfake DRCC exposição de dados fraudes telefônicas golpe golpes em família gravação de voz Inteligência Artificial ligações falsas orientação a idosos Polícia Civil prevenção proteção pessoal Rio de Janeiro Salvador São Paulo segurança digital simulação de voz tecnologia

Siga nossas redes

Siga nossas redes

Publicações Relacionadas

A tarde play
População e autoridades ficam em alerta diante de novo golpe com clonagem de voz por IA
Play

Idoso é agredido com socos e chutes em blitz da GCM em Salvador

População e autoridades ficam em alerta diante de novo golpe com clonagem de voz por IA
Play

Homem é acusado de dar golpe de quase R$ 4 milhões na RMS

População e autoridades ficam em alerta diante de novo golpe com clonagem de voz por IA
Play

Vídeo: empresário dono de hotéis na Chapada é preso por exploração sexual

População e autoridades ficam em alerta diante de novo golpe com clonagem de voz por IA
Play

Simões Filho: Tamara foi morta por vingança; Mayane foi queima de arquivo

x