Golpes de Reconhecimento Facial: Como Funcionam e as Medidas de Proteção das Empresas

No cenário atual, a biometria se tornou uma ferramenta popular para autenticação de dispositivos e serviços. Uma pesquisa da Accenture revelou que 73% dos brasileiros já optam por utilizar métodos biométricos, como impressão digital, reconhecimento facial e até voz, para proteger seus aparelhos e contas pessoais. Apesar das camadas adicionais de segurança que esses métodos oferecem, eles não são intransponíveis, e golpistas têm encontrado maneiras sofisticadas de burlá-los, especialmente com o uso de deepfakes, que são manipulações digitais extremamente realistas que enganam sistemas de reconhecimento facial.
Os números são impressionantes: a Juniper Research aponta que mais de 4,2 bilhões de dispositivos móveis já empregam tecnologia biométrica ativa. Mais ainda, estima-se que até 2026, 57% de todas as transações digitais serão validadas por biometria. Este aumento do uso também vê a escalada de técnicas de fraude, onde hackers desenvolvem novos métodos para explorar essas tecnologias emergentes.
Anchises Moraes, especialista em inteligência cibernética, explica que embora a biometria prospere como uma ferramenta de segurança tanto para entidades governamentais quanto privadas, sua evolução também pode servir de munição para cibercriminosos. Os fraudadores começam suas tentativas com o uso de impressoras de alta resolução e vídeos em HD no nível mais básico, mas à medida que os alvos se tornam mais valiosos, práticas mais sofisticadas entram em cena, como a criação de máscaras 3D em látex ou silicone e até o uso de deepfakes ultrarrealistas.
Casos práticos mostram o perigo real dessa tecnologia nas mãos erradas. Na China, foi registrado um incidente em que um funcionário foi iludido a transferir uma grande soma de dinheiro após ser enganado por um deepfake de seu suposto supervisor. Utilizando vídeos públicos, golpistas conseguiram replicar a voz e aparência do executivo, resultando em um desfalque significativo. Este tipo de fraude representa uma preocupação global crescente, conforme indicado por um relatório da Deloitte, que projeta um prejuízo econômico de R$ 4,5 bilhões no Brasil em decorrência dessas fraudes movidas por inteligência artificial.
Para mitigar esses riscos, empresas de cibersegurança têm investido em sistemas de identificação que utilizam múltiplas camadas de proteção. Soluções multimodais combinam diferentes tipos de dados—como vídeo, áudio e até profundidade—para dificultar a falsificação dos métodos de autenticação. Além disso, começam a empregar desafios dinâmicos, promovendo interações complexas que um imitador não poderia prever ou reproduzir.
A vigilância constante envolve também o monitoramento de vazamentos na dark web, em busca de imagens e informações que possam ser usadas em fraudes futuras. Esteja claro que a atual situação apresenta sinais de uma guerra digital em plena evolução, que prevê muitas batalhas a serem travadas no front da segurança cibernética.




