06 de FEVEREIRO
A evolução da Inteligência Artificial Generativa trouxe muitos avanços para a produtividade de diversos setores de trabalho, mas também abriu portas para usos da ferramenta de maneira ameaçadora tanto para empresas quanto para os usuários com o uso de deepfakes em campanhas de fraude.
As ferramentas de IA também passaram a ser utilizadas por cibercriminosos que, através da manipulação de imagem e voz, podem clonar a identidade de líderes e figuras de autoridade para enganar colaboradores, desviar fundos e destruir reputações construídas ao longo de décadas.
Neste artigo, exploramos como essas campanhas funcionam, por que os executivos são os alvos preferenciais e o que sua empresa pode fazer para se proteger.
O que são deepfakes e como eles alimentam a fraude?
Os deepfakes deixaram de ser apenas vídeos engraçados ou trocas de rosto em memes. Atualmente eles estão cada vez mais realistas para representar ilusões a serviço do crime.
Com apenas alguns segundos de áudio e uma única imagem pública, criminosos conseguem gerar avatares realistas que gesticulam, expressam emoções e até mesmo podem reproduzir a voz de um CEO ou CFO com perfeição.
Essas campanhas não são ataques técnicos aleatórios, elas são operações estratégicas de engenharia social. O objetivo é usar a autoridade da figura executiva para convencer um colaborador a:
- Autorizar transferências bancárias urgentes;
- Liberar acessos a sistemas;
- Divulgar informações estratégicas e sigilosas.
Por que os altos executivos são os novos alvos preferenciais?
Não é por acaso que diretores e líderes de alto escalão estão no centro dessas fraudes. Eles reúnem três variáveis que os tornam alvos extremamente valiosos:
Alto nível de exposição pública: entrevistas, vídeos institucionais e posts em redes sociais fornecem os dados necessários para treinar modelos de IA.
Autoridade: no ambiente corporativo, um comando vindo diretamente de um diretor, por exemplo, por uma chamada de vídeo ou áudio raramente é questionado, especialmente em situações de suposta urgência.
Acesso privilegiado a recursos: executivos detêm o poder de decisão sobre movimentações financeiras e operacionais sensíveis.
A ascensão do Deepfake-as-a-Service (DFaaS)
A barreira de entrada para esses crimes está muito menor. Agora, existe inclusivo um modelo de serviço chamado Deepfake-as-a-Service (DFaaS), onde criminosos sem conhecimento técnico podem contratar ferramentas ou serviços prontos para criar mídias por meio de IA.
Além das fraudes financeiras, existe o risco ético e de difamação, onde os áudios, imagens ou vídeos podem ser usados para criar conteúdos impróprios não consensuais com o objetivo de chantagear ou destruir a imagem pública de pessoas de destaque.
O nosso parceiro Axur divulgou algumas dicas para facilitar a identificação de possíveis deepfakes.
Quais são os sinais que indicam que um vídeo ou imagem pode ser deepfake?
- Áreas borradas ou desfocadas no rosto, diferentes do restante da imagem.
- Mudanças repentinas de tom de pele ou iluminação ao redor da face.
- Bordas duplicadas, como duplo queixo,
sobrancelhas duplicadas.
- Falta ou excesso de piscadas, movimentos faciais artificiais.
- Problemas de sincronização labial e movimentos não naturais.
- Inconsistências entre o fundo e o objeto principal da cena.
Quais são os sinais que indicam que um áudio pode ser deepfake?
- Frases entrecortadas ou fora de ritmo natural.
- Mudanças bruscas na entonação da voz.
- Uso incomum de palavras ou frases que o suposto interlocutor normalmente não diria.
- Contexto fora de uma discussão habitual ou incapacidade de responder perguntas simples relacionadas.
Quais são os sinais que indicam que um texto pode ser manipulado ou fraudulento?
- Erros ortográficos e gramaticais incomuns.
- Falta de coerência lógica e fluidez.
- Email ou número desconhecido ou suspeito.
- Expressões ou vocabulário incomuns para o suposto remetente.
- Mensagem fora de contexto ou inesperada.
Como proteger a empresa contra a manipulação de identidade?
A tecnologia dos ataques está cada vez mais avançada e, por isso, os protocolos de defesa precisam começar a serem trabalhados de forma proativa, com conscientização de usuários e acompanhamento constante.
Educação e conscientização: treine a equipe para reconhecer os sinais de um deepfake (pequenas falhas na sincronia labial, tom de voz robótico ou pedidos incomuns).
Verificação fora de banda: estabeleça um protocolo onde qualquer pedido de transferência financeira ou acesso via vídeo/áudio deve ser confirmado por um segundo canal (como uma mensagem em um app seguro ou uma chave física).
Monitoramento de marca: utilize ferramentas de inteligência para detectar o uso indevido da imagem de executivos em domínios falsos ou perfis fakes.
Implementação de Zero Trust: nada é confiável até que seja verificado. Mesmo uma chamada de vídeo com o CEO deve passar por critérios de autenticação.
Os deepfakes representam um novo desafio para a área de cibersegurança, onde a batalha não é apenas contra malwares, mas contra a manipulação da percepção humana. A inteligência artificial pode ser uma arma poderosa para o ataque, mas, com as estratégias certas, ela também pode ser a base da defesa.
Quer saber como podemos oferecer serviços e soluções para proteger a liderança da sua empresa?
Entre em contato conosco (54) 3027-0708.