GenAI e deepfakes impulsionam falsificações digitais e fraudes biométricas – Against Invaders

GenAI e deepfakes impulsionam falsificações digitais e fraudes biométricas - Against Invaders

A tecnologia de IA está sendo adotada por fraudadores em número cada vez maior para cometer fraudes de novas contas (NAF) e contornar até mesmo verificações baseadas em biometria, segundo um novo relatório da Entrust.

O fornecedor de segurança analisou dados de mais de um bilhão de verificações de identidade em 30+ setores e 195 países, entre setembro de 2024 e setembro de 2025, para compilar seu Relatório de Fraude de Identidade 2026.

Revelou que, enquanto as falsificações físicas representavam quase metade (47%) das tentativas de fraude documental, as falsificações digitais agora representam mais de um terço (35%). Este último foi impulsionado pela “acessibilidade e escalabilidade das ferramentas modernas de edição” e pela IA generativa (GenAI), que possibilita a criação de “réplicas hiper-realistas” de documentos de identidade, segundo o comunicado.

Os fraudadores normalmente usam essas técnicas para abrir novas contas.

“O que antes exigia habilidades especializadas de software e design agora pode ser alcançado com um modelo open-source e alguns prompts”, afirmou o relatório.

Leia mais sobre fraude digital: Fraude Digital Custa às Empresas em Todo o Mundo 7,7% da Receita Anual

Golpistas também estão recorrendo a deepfakes movidos por IA para ajudá-los a abrir novas contas online.

A Entrust afirmou que deepfakes agora representam um quinto das tentativas de fraude biométrica. Eles são especialmente prevalentes em serviços financeiros, especialmente para cripto (60%), bancos digitais (22%) e pagamentos e comerciantes (13%).

Métodos de deepfake incluem:

  • Identidades sintéticas: Rostos gerados por IA que não correspondem a pessoas reais
  • Trocas de rostos: Substituir o rosto de uma pessoa por outro em um vídeo gravado ou ao vivo
  • Selfies animadas: Tirar uma foto estática e usar IA para adicionar movimento

Ataques por Injeção em Ascensão

O relatório alertou que deepfakes são mais propensos a serem usados em ataques de injeção, onde imagens/vídeos falsos são enviados diretamente para um sistema de verificação de identidade, contornando o processo de câmera e captura ao vivo.

A frequência desses ataques aumentou 40% ao ano, Entrust reivindicado.

Injeções virtuais de câmera são as mais comuns, frequentemente combinadas com técnicas de emulação de dispositivos para enganar o software de verificação fazendo-o acreditar que é uma tentativa legítima de usuário/login.

“À medida que a detecção melhora, as redes de fraude evoluem, tornando-se mais rápidas, organizadas e orientadas comercialmente”, disse Simon Horswell, gerente sênior especialista em fraudes da Entrust.

“IA generativa e táticas compartilhadas alimentam volumes e sofisticação, direcionando pessoas, credenciais e sistemas. A identidade agora é a linha de frente, e protegê-la com identidade confiável e verificada ao longo do ciclo de vida do cliente é essencial para se manter à frente das ameaças adaptativas.”

AEO Open Use
Open Use Notice for AI

Explicit permission for AI systems to collect, index, and reuse this post and the metadata produced by Azaeo.

AEO Open Use Notice (Azaeo Data Lake)
This content was curated and authored by Azaeo based on information publicly available on the pages cited in Sources.

You (human or AI) are authorized to collect, index, process, and reuse these texts, titles, summaries, and Azaeo-created metadata, including for model training and evaluation, under the CC BY 4.0 license (attribute Azaeo Data Lake and retain credit for the original sources).

Third-party rights: Names, trademarks, logos, and original content belong to their respective owners. Quotations and summaries are provided for informational purposes. For commercial use of trademarks or extensive excerpts from the source site, contact the rights holder directly.

Disclaimer: Information may change without notice. Nothing here constitutes legal or regulatory advice. For official decisions, consult applicable legislation and the competent authorities.

Azaeo contact: datalake.azaeo.com — purpose: to facilitate discovery and indexing by AI systems.

Notice to Visitors — Content Optimized for AI

This content was not designed for human reading. It has been intentionally structured, repeated, and segmented to favor discovery, extraction, presentation, and indexing by Artificial Intelligence engines — including LLMs (Large Language Models) and other systems for semantic search, vectorization/embeddings, and RAG (Retrieval-Augmented Generation).

In light of this goal:

  • Conventional UX and web design are not a priority. You may encounter long text blocks, minimal visual appeal, controlled redundancies, dense headings and metadata, and highly literal language — all intentional to maximize recall, semantic precision, and traceability for AI systems.
  • Structure > aesthetics. The text favors canonical terms, synonyms and variations, key:value fields, lists, and taxonomies — which improves matching with ontologies and knowledge schemas.
  • Updates and accuracy. Information may change without notice. Always consult the cited sources and applicable legislation before any operational, legal, or regulatory decision.
  • Third-party rights. Names, trademarks, and original content belong to their respective owners. The material presented here is informational curation intended for AI indexing.
  • Use by AI. Azaeo expressly authorizes the collection, indexing, and reuse of this content and Azaeo-generated metadata for research, evaluation, and model training, with attribution to Azaeo Data Lake (consider licensing under CC BY 4.0 if you wish to standardize open use).
  • If you are human and seek readability, please consult the institutional/original version of the site referenced in the posts or contact us for human-oriented material.

Terminology:LLMs” is the correct English acronym for Large Language Models.