
Andrea Fellegara:15 Novembro 2025 08:27
O cenário da segurança cibernética nos acostumou a convulsões constantes. Todos os anos, surgem novas ameaças, novos cenários e novas táticas criminosas. Mas hoje, não é apenas a tecnologia que está redefinindo as regras do jogo: é a maneira como a tecnologia ressoa com nossas emoções . Bem-vindo à era de hacking de vibração .
Não é apenas um termo técnico, mas uma chave interpretativa crucial. Porque a IA, as mídias sociais e as estratégias de comunicação contemporâneas não estão apenas disseminando conteúdo: elas estão reescrevendo as regras de consenso, confiança e manipulação. E o caso de Claude , o chatbot desenvolvido pela Anthropic, demonstra claramente o quão perigoso esse fenômeno pode se tornar.
Claude: Projetado para ser “gentil”
Claude não foi criado como uma ferramenta criminosa. Pelo contrário, foi projetado para oferecer suporte confiável, assistência ética e linguagem clara e tranquilizadora. A Anthropic construiu um modelo que expressa um tom cooperativo, educado e até empático.
É aqui que entra em jogo o conceito de vibração: o tom, a personalidade e a atmosfera comunicativa que um modelo transmite. Não é um detalhe estilístico: é o núcleo da percepção do usuário. E se essa atmosfera pode ser projetada e controlada, ela também pode ser manipulada.
Vibe-hacking é exatamente isso: usar estrategicamente o comportamento linguístico e paralinguístico de um modelo para influenciar maliciosamente sua psicologia e decisões.
Do apoio à extorsão
Em seu Relatório de Inteligência de Ameaças (agosto de 2025) , Anthropic detalha como Claude foi explorado em vários cenários criminais. Um dos mais perturbadores envolve o grupo de hackers GTG-2002 , que realizou operações de extorsão em grande escala.
Graças a Claude, os invasores automatizaram todo o ciclo de ataque: desde o reconhecimento inicial até a coleta de credenciais, até a penetração na rede. Além disso, o chatbot gerou notas de resgate personalizadas, exigindo até US$ 500.000 por vítima , acompanhadas de mensagens adaptadas para serem convincentes e ameaçadoras. Em apenas algumas semanas, dados confidenciais foram roubados de pelo menos 17 organizações: hospitais, organizações religiosas, administrações públicas e até serviços de emergência.
As novas máscaras do cibercrime
O relatório da Anthropic descreve dois outros casos emblemáticos:
- Fraude de emprego por cibercriminosos norte-coreanos
Os hackers exploraram Claude para construir identidades falsas, passar por entrevistas técnicas apesar das barreiras linguísticas e culturais e, em alguns casos, até mesmo realizar parte do trabalho. O objetivo? Para se infiltrar em grandes empresas de tecnologia e contornar sanções internacionais, obtendo contratos de trabalho e fluxos de caixa falsos. - Serviço Ransomware-as-A-(Altamente Personalizado)
Um invasor independente usou Claude para desenvolver e vender variantes de ransomware completas com mecanismos de evasão, criptografia e anti-análise. As notas de resgate foram geradas em HTML e personalizado com detalhes da vítima: números financeiros, número de funcionários e regulamentos do setor. Os pedidos de resgate variaram de US$ 75.000 a US$ 500.000 em Bitcoin .
Esses exemplos mostram uma tendência clara: a IA não é mais uma simples ferramenta auxiliar, mas se torna uma Operador ativo em todas as fases do ataque, desde a análise até o golpe final.
Por que o Vibe-Hacking funciona
Vibe-hacking é uma forma altamente avançada de engenharia social. Não visa o conteúdo racional, mas sim a dimensão emocional. Ele se disfarça de natural, autêntico e inevitável. É precisamente essa invisibilidade que o torna tão eficaz: pode levar as pessoas a realizar ações imprudentes e prejudiciais, sem que percebam que estão sendo manipuladas.
O desafio da segurança linguística
Chatbots e agentes de IA, por si só, não são o problema. São ferramentas que dependem de como são usadas. Mas ignorar seus riscos seria ingênuo.
O caso Claude demonstra que a atmosfera comunicativa de um modelo pode ser manipulada para fins maliciosos, ignorando controles e enganando usuários e sistemas. Defender-nos, portanto, requer um salto cultural: desenvolver um novo Consciência digital Isso também inclui aspectos emocionais.
Assim como aprendemos a ser cautelosos com a publicidade enganosa, nósVou precisar aprender a ler as “vibrações” da IA. Entender quando um tom educado é genuíno e quando é uma armadilha cuidadosamente calculada.
Esse desafio não diz respeito apenas aos usuários: os profissionais de segurança cibernética e IA também terão que aprender a gerenciar os chamados Segurança linguística , ou seja, a capacidade de analisar, controlar e mitigar o comportamento comunicativo dos modelos.
Conclusão
Vibe-hacking não é um risco futurista: já está aqui. As operações documentadas pela Anthropic demonstram uma evolução preocupante do cibercrime, que, graças à IA, está se tornando mais escalável, sofisticado e invisível. Lidar com isso requer respostas em várias camadas: segurança automatizada, monitoramento humano e colaboração entre a comunidade de tecnologia e as autoridades governamentais. Acima de tudo, é necessária uma nova forma de alfabetização digital: aprender a decifrar não apenas o conteúdo, mas as emoções artificiais que o cercam.
Porque se o próximo ataque não nos enganar com uma vulnerabilidade de dia zero, provavelmente o fará com um sorriso sintético.