Circula nas redes sociais e em grupos do WhatsApp um texto intitulado “ALERTA SOBRE AS NOVAS TECNOLOGIAS (NTIC)”, pedindo partilha urgente entre familiares e amigos.

A mensagem descreve um suposto novo nível de burla que utiliza Inteligência Artificial (IA) para clonar vozes. O cenário apresentado é o seguinte: a vítima recebe uma chamada de um número desconhecido, ouve a voz idêntica à de um familiar em pânico e, em seguida, um suposto “polícia” ou “médico” exige uma transferência urgente de dinheiro via Multicaixa Express ou depósito bancário.
O texto também afirma que criminosos estariam a ligar para números aleatórios, mantendo-se em silêncio para gravar o “Alô?” da vítima e usar esse áudio para clonar a sua voz.
A equipa do Verifica.ao analisou o conteúdo e concluiu que a informação é verdadeira, mas com ressalvas.
O que é verdade
A tecnologia de clonagem de voz por IA (voice cloning) e os chamados deepfakes de áudio existem e já foram utilizados em fraudes reais.
Autoridades e meios de comunicação internacionais têm reportado casos em que:
-
Criminosos usam ferramentas de IA para gerar vozes semelhantes às de familiares;
-
São feitas chamadas simulando situações de emergência;
-
É solicitado envio urgente de dinheiro.
A clonagem de voz pode ser feita com base em amostras de áudio públicas, como vídeos publicados em redes sociais.
Portanto, a base tecnológica do alerta é real: é possível clonar vozes com IA e essa técnica já foi usada em esquemas fraudulentos.
O que o texto exagera ou não está comprovado
Apesar da base real, o conteúdo viral contém elementos que não estão devidamente confirmados:
Não há evidência sólida de que golpistas estejam a gravar chamadas silenciosas para capturar a voz das vítimas apenas com um “Alô?”
Não existem relatórios oficiais amplamente documentados que comprovem que esta prática esteja a ocorrer de forma sistemática.
Não há dados que indiquem que este tipo de fraude esteja a ocorrer em massa exactamente da forma descrita no texto viral.
Existem casos reportados internacionalmente, mas não há evidência de uma “epidemia” global nos moldes alarmistas apresentados na mensagem.
Até ao momento, não há registo público de casos confirmados deste tipo de burla em Angola.
Medidas de prevenção recomendadas por especialistas
Sem alarmismo, especialistas em segurança digital recomendam:
-
Verificar sempre — Se receber uma chamada de emergência pedindo dinheiro, desligue e contacte directamente o número habitual da pessoa.
-
Estabelecer uma palavra de segurança familiar — Um código combinado pode ajudar a confirmar a identidade.
-
Não partilhar dados pessoais ou financeiros sob pressão emocional.
-
Desconfiar de pedidos urgentes de transferência de dinheiro, especialmente por meios digitais.
Conclusão do Verifica.ao
O alerta é VERDADEIRO, MAS COM RESSALVAS.
A tecnologia de clonagem de voz por IA existe e já foi utilizada em fraudes reais.
No entanto, parte do texto viral exagera ou apresenta como facto práticas que não estão amplamente confirmadas por autoridades.
O Verifica.ao reforça que o combate à desinformação passa por distinguir entre riscos reais e alarmismo exagerado.
Continuamos a trabalhar para garantir que os cidadãos tenham acesso a informações precisas, confiáveis e verificadas, sem pânico desnecessário.
Deixe um comentário