Golpistas podem usar IA para clonar vozes e enganar vítimas por telefone. A evolução da inteligência artificial (IA) trouxe benefícios, mas também abriu espaço para novos golpes digitais. Hoje, criminosos conseguem imitar vozes e rostos com alta fidelidade, usando apenas gravações comuns do dia a dia, como áudios de vídeos ou fotos de redes sociais

Isso significa que áudios e imagens inocentes, compartilhados rotineiramente, podem ser aproveitados para fraudes, deixando o usuário comum vulnerável a novas formas de golpe. A seguir, explicamos quais são os riscos envolvidos em áudios e fotos cotidianos, e como você pode se defender dessas ameaças digitais.
Clonagem de Voz: quando sua voz é usada em golpes
Você atenderia a uma ligação de alguém conhecido pedindo ajuda financeira? Cuidado: pode não ser quem parece. Com IA, golpistas clonam vozes a partir de poucos segundos de áudio público

. Por exemplo, postar um story falando ou ter áudios vazados em vídeos pode fornecer material suficiente para que um programa recrie sua voz de forma realista

. Assim, surgem golpes de falsos telefonemas: o criminoso liga para um parente ou amigo seu, imitando sua voz ou a voz de alguém próximo, e inventa uma emergência para pedir dinheiro imediato

. Esse tipo de golpe de voz clonada já fez vítimas no Brasil – em Minas Gerais, um advogado teve a voz copiada por IA e seus clientes receberam ligações falsas pedindo validação de códigos, causando prejuízo de R$ 12 mil a um deles

. Muitas pessoas não imaginam que essa tecnologia seja possível e acabam confiando na voz que ouvem. Uma pesquisa com mais de 3.000 adultos no Reino Unido revelou que 46% dos entrevistados desconheciam a existência desses golpes de clonagem de voz

. Na mesma pesquisa, 8% dos participantes disseram que mandariam o dinheiro solicitado por um amigo ou familiar ao telefone, mesmo achando a situação estranha

. Essa falta de conscientização é explorada pelos golpistas. Falsos sequestros e emergências são encenados com vozes clonadas para criar pânico e pressionar as vítimas a transferir dinheiro rapidamente

Os perigos vão além de perdas financeiras imediatas. Áudios gerados por IA podem também ser usados para espalhar desinformação ou se passar por você em outros contextos, como autorizar transações em call centers bancários ou validar operações por voz. Imagine um golpista com sua voz ligando para o seu banco; se você tiver algum método de autenticação por voz, ele pode tentar enganar a instituição. Felizmente, bancos e empresas já estão em alerta: uma instituição no Reino Unido alertou que milhões de pessoas podem ser alvo desse tipo de fraude e recomendou medidas extras de verificação

Veremos adiante algumas dicas de proteção, como a ideia da “frase segura” para confirmar identidades por telefone

Deepfakes e Fraudes de Imagem: golpes com fotos e vídeos falsificados
Além da voz, a IA permite criar deepfakes – montagens de vídeo ou imagem extremamente realistas que simulam outra pessoa. Golpistas podem gerar um vídeo falso em que parecem ser você, imitando seu rosto e até seus trejeitos

Com isso, foto e vídeo do dia a dia viram arma: aquela selfie inocente ou gravação de reunião online pode ser manipulada para burlar sistemas de segurança. Já existem casos em que criminosos usaram deepfakes para abrir contas bancárias em nome de terceiros e obter empréstimos, enganando a verificação por selfie ou reconhecimento facial dos bancos

Em outro esquema, uma quadrilha no Rio de Janeiro conseguiu burlar a autenticação facial de apps bancários trocando as fotos cadastradas – substituindo a imagem do cliente pela foto de um comparsa – e assim acessou contas indevidamente, causando prejuízo de mais de R$ 4 milhões

Esse avanço torna os golpes muito mais convincentes e difíceis de detectar. Um estudo recente apontou que, em apenas um ano (2022 a 2023), o uso de deepfakes cresceu impressionantes 830% no Brasil

Ou seja, esse tipo de fraude explodiu em frequência, acompanhando a popularização das ferramentas de IA. Até em videochamadas deve-se ficar alerta: já houve relatos de golpistas fazendo “videochamadas” falsificadas se passando por filhos ou conhecidos para pedir dinheiro, combinando voz clonada e rosto simulado

No exterior, ocorreu um golpe onde executivos foram enganados por uma videochamada deepfake de um suposto colega, resultando em transferências milionárias

Esses casos mostram que qualquer foto ou vídeo seu pode ser utilizado maliciosamente se cair em mãos erradas. As consequências incluem roubo de identidade e perdas financeiras severas. Além do dinheiro que some, recuperar valores é difícil, e seus documentos/biometrias podem ser usados em novos crimes em seu nome

Há também o impacto emocional: vítimas relatam medo, estresse e humilhação após caírem nesses golpes

Por isso, é crucial entender os riscos para não ser pego de surpresa.
Como se Proteger dos Golpes de IA
Embora as fraudes com IA sejam sofisticadas, existem medidas para se defender e evitar cair nessas armadilhas digitais:
Desconfie de urgências ao telefone: Ligações ou áudios inesperados pedindo dinheiro ou dados sigilosos devem acender um alerta. Mantenha a calma e verifique a história por outro meio – ligue de volta para o número oficial da pessoa ou instituição, ou fale pessoalmente se possível

Golpistas costumam criar um senso de urgência para você não raciocinar; não se deixe pressionar.
Use uma “frase segura” com pessoas de confiança: Combine com sua família e amigos próximos um código de verificação para emergências. Por exemplo, uma palavra-chave que só vocês conheçam pode ser usada para confirmar que é realmente você ao telefone

Se alguém ligar supostamente em seu nome sem saber a frase combinada, é sinal de fraude. Nunca compartilhe esse código em mensagens; memorize-o ou guarde em local seguro

Atenção a detalhes em videochamadas: Se receber uma videochamada suspeita de um conhecido pedindo algo, observe cuidadosamente. Deepfakes podem falhar em pequenos detalhes, como movimentos da boca não perfeitamente sincronizados com a fala, expressão facial estranha ou olhar fixo e sem piscar naturalmente

Faça perguntas pessoais que só a pessoa real saberia responder ou sugira mudar de assunto inesperadamente – o impostor pode não conseguir reagir de forma convincente

Na dúvida, encerre a ligação e tente um contato direto alternativo.
Fortaleça suas contas e dados: Muitos golpes começam com invasão de e-mails ou redes sociais para coletar informações. Use senhas fortes e únicas em cada serviço, misturando letras, números e símbolos

Ative a autenticação de dois fatores no e-mail, bancos e redes sociais, adicionando uma camada extra de segurança

Isso dificulta acessos indevidos, mesmo que sua senha vaze.
Cuidado com exposição excessiva: Pense duas vezes antes de publicar áudios muito claros da sua voz ou fotos nítidas de seu rosto em qualquer lugar público. Claro que não vamos parar de usar redes sociais, mas ajuste configurações de privacidade para limitar quem pode ver seus vídeos e stories. Evite informar muitos detalhes pessoais em posts públicos. Quanto menos material disponível para um golpista copiar sua identidade, melhor.
Verifique solicitações estranhas: Se receber mensagens inusitadas de WhatsApp, e-mails ou perfis de pessoas que você conhece pedindo dinheiro ou dados, desconfie. Pode ser alguém usando foto e nome conhecidos mas que na verdade é um perfil falso (possivelmente usando fotos geradas ou roubadas)

Confirme diretamente com a pessoa por um canal oficial antes de qualquer ação. E nunca clique em links suspeitos ou baixe arquivos de origem duvidosa – eles podem ser armadilhas

Em resumo, a tecnologia de IA trouxe golpes mais elaborados, mas com informação e prudência podemos reduzir os riscos. Fique atento a contatos inesperados exigindo decisões rápidas e não confie 100% em voz ou imagem para verificar identidades. Utilize senhas fortes, dupla verificação e códigos de segurança com quem for preciso. Caso suspeite que caiu em um golpe, aja rápido: registre um boletim de ocorrência, avise o banco e empresas envolvidas, e troque suas senhas imediatamente

A segurança digital depende de vigilância constante e de se manter atualizado sobre as ameaças. Compartilhe essas orientações com familiares e colegas menos familiarizados com tecnologia. Assim, todos podem navegar pelas facilidades da IA com mais proteção, evitando que fotos e áudios do dia a dia se tornem portas de entrada para golpistas. Informação é a melhor defesa nesse cenário de golpes cada vez mais criativos. Fique alerta e proteja seus dados!

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *