Back to Blog

Deepfakes: como vídeos falsos são usados para burlar sistemas de segurança

Rafael Viana

Entenda o que são Deepfakes, por que são um risco e como evitar essas fraudes

Duvidar da autenticidade do que vemos virtualmente deixou de ser excesso de precaução para virar uma necessidade. Os Deepfakes, vídeos falsos super-realistas que imitam pessoas verdadeiras, estão aí para provar esse problema.

De políticos e celebridades até sujeitos comuns, qualquer um pode ser alvo de Deepfakes. E é aqui que o risco mora. Com essa tecnologia, fraudadores podem burlar sistemas de identificação de clientes de empresas usando animações falsas.

Mas como, na prática, essa tecnologia é aplicada? Por que ela está entre os maiores riscos futuros de fraude? E de que forma é possível prevenir esses ataques? É sobre essas questões que falamos neste artigo. Vamos lá?

O que são Deepfakes?

Em poucas palavras, Deepfakes são vídeos falsos desenvolvidos com Inteligência Artificial (IA) imitando pessoas, expressões, movimentos e vozes de forma hiper-realista. A palavra vem da expressão “Deep Learning”, um método de aprendizagem avançada baseado em IA.

Embora a tecnologia exista já há alguns anos, ela tem ficado tão sofisticada que é difícil dizer se o vídeo é real ou falso. Além disso, a técnica estourou com a popularização de um software que ajuda a simular os movimentos com muita precisão. 

No vídeo a seguir, você confere o avanço das animações e os problemas envolvidos:

Em geral, são vídeos de celebridades e de políticos em situações constrangedoras ou fazendo discursos distorcidos. Mas pessoas comuns também são objeto de ataques. Para ter uma ideia, o número de Deepfakes na internet quase dobrou em menos de um ano, passando de 8 mil para 15 mil.

A “brincadeira” ficou tão séria, que virou uma preocupação de big techs como Facebook, que chegou a promover um desafio para identificar e combater os vídeos falsos. O motivo? Deepfakes são uma ameaça à segurança, tanto pública, como privada.

Aí você pode questionar: “Certo, mas o que eles têm a ver com segurança da minha de empresas?” Bom, na verdade, tudo, já que vêm sendo usados para fraudar sistemas de identificação de novos usuários.

Como Deepfakes são usados em fraudes?

Para empresas que precisam fazer a identificação de clientes, os Deepfakes são especialmente perigosos. Isso porque esses vídeos falsos são usados para burlar a segurança delas já no onboarding. Ou seja, é na etapa de validação do usuário que a fraude acontece. 

Para entender melhor, vamos voltar algumas casas: por exemplo, quando um cliente, parceiro ou terceirizado faz o seu cadastro em uma empresa, ela costuma exigir foto do documento de identidade (frente e verso) e uma foto ou captura de movimento do sujeito, que normalmente é feita com a câmera do celular.

Tecnologias avançadas, embutidas nessa captura que ocorre no onboarding, costumam garantir segurança em 100% dos casos. Só que com Deepfakes a situação muda. 

Mesmo alguns dos sistemas mais seguros não reconhecem que se trata de vídeos falsos, justamente por serem tão realistas. É por essa dificuldade de identificação que os Deepfakes estão entre os maiores riscos atuais e futuros.

Apesar dos desafios, é possível prevenir esses ataques com uma soma de tecnologias. E é sobre essa solução que você vai entender a seguir. 

Como prevenir esse tipo de ataque?

As formas para prevenir esse tipo de fraude ainda não são totalmente definitivas e têm feito especialistas de todas as áreas quebrarem a cabeça. Mesmo assim, existe uma série de medidas que ajudam a mitigar as ameaças de Deepfakes.

Hoje, no onboarding de empresas, a tecnologia mais eficiente para barrar Deepfakes é a prova de vida passiva, que serve para comprovar se o usuário está presente no momento do cadastro. Nesse caso, a validação é estática, isto é, não exige movimentos do usuário. Mas o grande diferencial é que ela usa Inteligência Artificial

Isso quer dizer que a tecnologia reconhece quando está interagindo com uma pessoa verdadeira ou com outra máquina, uma imagem virtual. 

As empresas que utilizam prova de vida passiva têm mais garantias de que Deepfakes serão identificados e que não serão aprovados no seu sistema. 

De qualquer forma, a recomendação é sempre integrar um conjunto de medidas de segurança: onboarding digital, com prova de vida e face match, biometria facial ou documentoscopia, preferencialmente associados à checagem de histórico do usuário.

Assim, mesmo que os Deepfakes sejam um enorme desafio, quando há a incorporação de diferentes tecnologias antifraude, uma sempre complementa a outra. A melhor solução, principalmente em casos como este, é ser estratégico, combinando o que há de mais sofisticado no mercado para fortalecer o sistema de segurança da sua empresa.

Curtiu esse artigo? Compartilhe com quem vai gostar também!


Mais artigos

Onboarding Digital: quais as vantagens da validação automática de clientes

Além de trazer rapidez, assertividade e redução de prejuízos com fraudes, o onboarding digital também garante a melhor experiência do usuário

Read Story

Como identificar os riscos de uma Pessoa Exposta Politicamente (PEP)

A identificação de pessoas expostas politicamente (PEP) faz parte da política nacional de combate a fraudes financeiras. Saiba como gerenciar os riscos desses clientes

Read Story

Webinar: combateafraude.com discute Tendências em Segurança Digital com Alterbank, Linker e Trampolin

O bate-papo é gratuito e vai acontecer no YouTube na terça-feira, 15/09, às 20h. Saiba como se inscrever

Read Story