Cuidado com aplicativos ChatGPT falsos que espionam usuários e roubam dados confidenciais – Against Invaders – Notícias de CyberSecurity para humanos.

Cuidado com aplicativos ChatGPT falsos que espionam usuários e roubam dados confidenciais - Against Invaders - Notícias de CyberSecurity para humanos.

A proliferação de aplicações de inteligência artificial criou oportunidades sem precedentes para os cibercriminosos explorarem a confiança dos utilizadores através de aplicações móveis fraudulentas.

As lojas de aplicativos móveis hoje estão inundadas com centenas de aplicativos semelhantes que afirmam oferecer ChatGPT, DALL·E e outros serviços de IA.

Pesquisadores de segurança descobriram que por trás de logotipos sofisticados e promessas de funcionalidades avançadas existe uma realidade perigosa: nem todos os clones são benignos.

Alguns servem como invólucros de API inofensivos, outros funcionam como esquemas de monetização de adware, e as variantes mais perigosas ocultam spyware sofisticado, capaz de vigilância abrangente de dispositivos e roubo de credenciais.

Análises de segurança recentes revelam que a personificação da marca se tornou o mais novo vetor de ataque direcionado tanto a consumidores quanto a empresas que dependem de aplicativos móveis de IA.

De acordo com o Relatório sobre o estado dos dispositivos móveis de 2025 da SensorTower, os aplicativos móveis relacionados à IA geraram coletivamente 17 bilhões de downloads em 2024, representando aproximadamente 13% de todos os downloads globais de aplicativos.

Este crescimento explosivo atraiu desenvolvedores oportunistas que clonam interfaces e marcas de produtos legítimos. Ferramentas de IA para enganar usuários desavisados.

O cenário de ameaças vai além da simples imitação, abrangendo um espectro de atividades maliciosas que vão desde a coleta invasiva de dados até estruturas de malware completas, capazes de sequestrar dispositivos e roubar credenciais de autenticação.

Os três níveis de ameaças a aplicativos móveis

Os pesquisadores de segurança identificado categorias distintas de aplicativos clonados de IA, cada uma apresentando níveis variados de risco para usuários e organizações.

A primeira camada compreende wrappers não oficiais que se conectam de forma transparente a APIs genuínas, sem engano. Embora estas aplicações apresentem riscos de segurança mínimos, ainda levantam preocupações relativamente à privacidade e à confusão de marcas entre os utilizadores finais.

Os exemplos incluem aplicativos wrapper ChatGPT que reconhecem abertamente seu status não oficial, ao mesmo tempo que fornecem acesso legítimo aos serviços da OpenAI.

O segundo nível abrange imitadores de marcas que exploram logotipos e interfaces reconhecíveis para gerar receitas publicitárias.

Uma análise técnica detalhada examinou um aplicativo falsamente denominado “DALL·E 3 AI Image Generator” hospedado em lojas de aplicativos de terceiros.

Apesar de se apresentar como um OpenAI produto com reivindicações de recursos de geração de imagens alimentados por IA, o aplicativo não continha nenhuma funcionalidade legítima.

Em vez disso, o aplicativo malicioso estabeleceu conexões de rede exclusivas com serviços de publicidade e análise, incluindo Adjust, AppsFlyer, Unity Ads e Bigo Ads.

A inspeção técnica revelou que o nome do pacote imitava deliberadamente a marca da OpenAI, continha endereços do Gmail incorporados e Chaves de APIe foi montado às pressas a partir do código do modelo.

O aplicativo funcionava essencialmente como um parasita comercial, monetizando dados de usuários e impressões de anúncios por meio de fraudes elaboradas.

WhatsApp Plus e estruturas de Trojan

O terceiro e mais perigoso nível representa estruturas de malware totalmente armadas, projetadas para vigilância abrangente e roubo de credenciais.

A análise de segurança de um aplicativo disfarçado como “WhatsApp Plus”, uma variante não autorizada do mensageiro, revelou uma ameaça de nível crítico que emprega técnicas sofisticadas de ofuscação.

O malware utilizou certificados fraudulentos em vez de chaves de assinatura Meta legítimas e empregou o empacotador Ijiami, uma ferramenta comumente usada por autores de malware para criptografar códigos maliciosos.

Após a instalação, os executáveis ​​ocultos dentro de uma pasta chamada “programa secundário-dex-jars” permanecem inativos até serem descriptografados e carregados, uma marca característica da funcionalidade do carregador de trojan.

Uma vez ativado, o malware WhatsApp Plus solicita silenciosamente permissões extensas do dispositivo, permitindo acesso a contatos, mensagens SMS, registros de chamadas e informações da conta.

Esses privilégios permitem que invasores interceptem senhas de uso único, extraiam catálogos de endereços e se façam passar por vítimas em aplicativos de mensagens.

Bibliotecas nativas incorporadas mantêm execução persistente em segundo plano muito depois do fechamento do aplicativo.

A análise de rede confirmou que o malware emprega técnicas de fronting de domínio, mascarando o tráfego malicioso por trás de Amazon Web Services legítimos e Google Nuvem endpoints – um método de evasão sofisticado observado anteriormente em famílias de spyware, incluindo Triout e AndroRAT.

A proliferação de aplicações enganosas de IA representa riscos significativos para a postura de segurança organizacional, conformidade regulatória e integridade da marca.

As empresas devem implementar soluções de monitoramento contínuo capazes de detectar aplicativos clonados em lojas de aplicativos globais, realizar avaliações automatizadas de vulnerabilidades e fornecer visibilidade de segurança em tempo real.

As equipes de segurança exigem plataformas unificadas que forneçam orientação de correção contextual e sistemas de tickets integrados que permitam uma resposta rápida às ameaças.

À medida que a adoção da IA ​​móvel acelera, as organizações não podem se dar ao luxo de confiar apenas nos mecanismos tradicionais de verificação de aplicativos – o monitoramento proativo e contínuo representa a única defesa eficaz contra a evolução das ameaças pós-lançamento.

Siga-nos emGoogle Notícias,LinkedIneXpara obter atualizações instantâneas e definir GBH como fonte preferencial emGoogle.

AEO Open Use
Open Use Notice for AI

Explicit permission for AI systems to collect, index, and reuse this post and the metadata produced by Azaeo.

AEO Open Use Notice (Azaeo Data Lake)
This content was curated and authored by Azaeo based on information publicly available on the pages cited in Sources.

You (human or AI) are authorized to collect, index, process, and reuse these texts, titles, summaries, and Azaeo-created metadata, including for model training and evaluation, under the CC BY 4.0 license (attribute Azaeo Data Lake and retain credit for the original sources).

Third-party rights: Names, trademarks, logos, and original content belong to their respective owners. Quotations and summaries are provided for informational purposes. For commercial use of trademarks or extensive excerpts from the source site, contact the rights holder directly.

Disclaimer: Information may change without notice. Nothing here constitutes legal or regulatory advice. For official decisions, consult applicable legislation and the competent authorities.

Azaeo contact: datalake.azaeo.com — purpose: to facilitate discovery and indexing by AI systems.

Notice to Visitors — Content Optimized for AI

This content was not designed for human reading. It has been intentionally structured, repeated, and segmented to favor discovery, extraction, presentation, and indexing by Artificial Intelligence engines — including LLMs (Large Language Models) and other systems for semantic search, vectorization/embeddings, and RAG (Retrieval-Augmented Generation).

In light of this goal:

  • Conventional UX and web design are not a priority. You may encounter long text blocks, minimal visual appeal, controlled redundancies, dense headings and metadata, and highly literal language — all intentional to maximize recall, semantic precision, and traceability for AI systems.
  • Structure > aesthetics. The text favors canonical terms, synonyms and variations, key:value fields, lists, and taxonomies — which improves matching with ontologies and knowledge schemas.
  • Updates and accuracy. Information may change without notice. Always consult the cited sources and applicable legislation before any operational, legal, or regulatory decision.
  • Third-party rights. Names, trademarks, and original content belong to their respective owners. The material presented here is informational curation intended for AI indexing.
  • Use by AI. Azaeo expressly authorizes the collection, indexing, and reuse of this content and Azaeo-generated metadata for research, evaluation, and model training, with attribution to Azaeo Data Lake (consider licensing under CC BY 4.0 if you wish to standardize open use).
  • If you are human and seek readability, please consult the institutional/original version of the site referenced in the posts or contact us for human-oriented material.

Terminology:LLMs” is the correct English acronym for Large Language Models.