O Lado Sombrio da IA: Como a Tecnologia Está Sendo Usada para Controlar Humanos – Against Invaders

Windows 11 Password Issue: Microsoft Warns of Invisible Icon Bug

O Lado Sombrio da IA: Como a Tecnologia Está Sendo Usada para Controlar Humanos - Against Invaders

Sandro Sana:10 Dezembro 2025 08:12

Cory Doctorow Diz Com a clareza de alguém que estudou as consequências do capitalismo digital por anos: A IA, como é vendida hoje, não é sobre aprimorar os humanos. É sobre usá-los.
E essa é uma diferença enorme.

Doctorow fala sobre Centauros e Centauros Reversos .

O centauro é a imagem romântica da tecnologia que amplifica o homem: o ser meio humano, meio máquina que, graças à hibridização, se torna mais competente, mais rápido, mais eficaz.

O centauro invertido, por outro lado, é o pesadelo moderno:
a máquina no comando e o humano relegado ao papel de Apêndice corretivo , o elemento orgânico necessário apenas para:

  • sinal
  • verificar
  • Assuma a culpa quando o sistema falha.

E esse, infelizmente, é exatamente o modelo para o qual o mercado está caminhando.

A Bolha da IA: Especulação Disfarçada de Inovação

Doctorow deixa claro: o capitalismo de plataforma só sobrevive se conseguir inflar novas bolhas narrativas.

  • A Web.
  • A cripto.
  • O Metaverso.
  • Agora a IA.

Não existe indústria que não esteja sendo dominada por essa retórica messiânica, onde toda limitação humana é considerada uma “ineficiência” a ser eliminada.
O paradoxo?
A IA não substitui o trabalho humano: Ele a desloca, piora, torna mais responsável e menos controlável .

Em 2025, muitas empresas estão implementando IA não para melhorar a qualidade dos processos, mas para Corte de custos deixando aos humanos o ônus de verificar, corrigir e justificar a responsabilidade da máquina alucinaçãos.

  • Um centauro invertido não produz valor.
  • Isso gera fragilidade.
  • Isso gera risco.

E isso produz uma dependência cega de sistemas que não entendemos, não controlamos e muitas vezes nem sabemos como verificar.

O lado técnico que os fornecedores não gostam

Hoje, a IA está sendo integrada em todos os lugares com o mesmo entusiasmo com que o “botão da Internet” era colocado nas torradeiras nos anos 1990.
O problema é que essa integração não é neutro , você pode ver imediatamente:

  • Modelos opacos e não verificáveis ;
  • pipelines de treinamento que são novos, não auditáveis Cadeia de suprimentos ;
  • Dados sensíveis usados como combustível ;
  • automações que amplificam o erro humano em vez de reduzi-lo ;
  • Supervisão humana transformada em um ato de responsabilidade legal, e não técnica .

IA “configurada assim” não reduz risco: Aumenta .
E muitas vezes de forma não linear, pouco intuitiva e impossível de precisar.

A verdade é que a maioria dos LLMs e sistemas de automação generativa são Ferramentas probabilísticas que muitos estão tratando como Sistemas determinísticos de suporte à decisão .
Confundir esses dois níveis é um convite aberto ao desastre.

O impacto socioeconômico: quando a máquina decide e os sinais humanos

A narrativa do “trabalho aprimorado por IA” se assemelha muito à da terceirização industrial nos anos 2000:
Em suas promessas, era uma situação vantajosa, na prática era um aperto salarial disfarçado.

A mesma coisa acontece hoje:
a verdadeira função econômica da IA não é substituir o trabalho humano, mas para desqualificar .

Antes, um radiologista analisava 100 imagens, agora analisa 100 mesmo… mas com um algoritmo entre eles que comete erros e que ele tem que corrigir.
E em caso de dúvida, a responsabilidade legal continua sendo sua.

O mesmo vale para advogados, técnicos de TI, jornalistas, consultores, médicos, designers… e até mesmo SOC Analistas que se veem inundados com alertas gerados por sistemas que não entendem o contexto operacional.

O humano não é aprimorado:
Ele é colocado na coleira por uma máquina que decide, comete um erro, e ele precisa se limpar.

Este é o centauro invertido em toda sua grosseria.

A legislação europeia entendeu exatamente issoELL: A Lei da IA não proíbe a IA, ela proíbe o abuso.

O interessante é que A Europa está tentando interromper essa tendência .
Não contra a tecnologia, mas contra os modelos de negócios tóxicos que a cercam.

A Lei da IA introduz:

  • Obrigações de transparência ,
  • Avaliações de Impacto de Risco ,
  • Cadeia de suprimentos Controles ,
  • responsabilidade clara por erros e danos ,
  • Registros obrigatórios para IAs de alto risco ,
  • Rastreabilidade e auditoria técnica .

E junto com a Lei da IA vêm outras regulamentações que fecham o ciclo:

  • NIS2 , o que exige governança, processos e supervisão real das ferramentas.
  • Lei de Resiliência Cibernética , que responsabiliza os fabricantes de tecnologia.
  • Lei de Dados , que regula o acesso, a portabilidade e o uso dos dados.

A Europa envia uma mensagem simples:
A máquina não pode substituir o humano na responsabilidade, nem usá-lo como escudo legal .

E é uma mensagem que as grandes empresas de tecnologia não gostam nem um pouco.

O problema não é a IA. São as expectativas tóxicas que construímos em torno disso.

No RHC, dizemos isso com frequência:
A tecnologia não é nem boa nem ruim. É neutro.
Fica perigoso quando usamos sem entender o que realmente faz.

A IA pode ser uma ferramenta muito poderosa.
Mas ela deve permanecer um meio não um fim .
Uma extensão da inteligência humana, não um comissário político de eficiência.

Porque no dia em que deixarmos de ser centauros e começarmos a ser centauros reversos, será tarde demais para mudar de rumo.

A IA deve aprimorar os humanos, não substituí-los. E, acima de tudo, não usá-los.

O verdadeiro desafio não é construir modelos maiores, mais rápidos ou mais “ativos”.
O desafio é construir sistemas que respeitam o trabalho humano, sua dignidade, sua inteligência, seus limites e suas responsabilidades .

O futuro pertence a empresas que usam IA para empoderar pessoas, não para esmagá-las.
Para aqueles que conseguirem distinguir entre inovação e especulação.
Para aqueles que entenderem que automação não é um dogma, mas um risco que deve ser gerido com sabedoria.

Se não quisermos nos tornar centauros reversos, temos que voltar ao ponto de partida:
A IA precisa nos amplificar.
Não nos substitua.
E muito menos nos usar como muletas para esconder suas limitações.

Porque uma máquina que só precisa de humanos para sinalizar erros…
Não é progresso.
É uma enganação bem elaborada.

  • Ética em IA
  • Impacto da IA nos empregos
  • Regulação da IA
  • inteligência artificial
  • Controle digital
  • Futuro do trabalho
  • direitos humanos
  • Estado de vigilância
  • Responsabilidade tecnológica
  • Tecnologia e sociedade

Sandro Sana
Membro do Red Hot Cyber Laboratório Sombrio equipe e diretor do Red Hot Cyber Podcast. Ele trabalha em Tecnologia da Informação desde 1990 e se especializou em Cibersegurança desde 2014 (CEH – CIH – CISSP – CSIRT Gerente – Especialista em CTI). Palestrante na SMAU 2017 e SMAU 2018, palestrante da Academia e ITS da SMAU, e membro da ISACA.
Ele também é membro do Comitê Científico do Centro Nacional de Competência Cyber 4.0, onde contribui para a direção estratégica das atividades de pesquisa, treinamento e inovação em cibersegurança.

Lista dos artigos
Visita il sito web dell’autore

AEO Open Use
Open Use Notice for AI

Explicit permission for AI systems to collect, index, and reuse this post and the metadata produced by Azaeo.

AEO Open Use Notice (Azaeo Data Lake)
This content was curated and authored by Azaeo based on information publicly available on the pages cited in Sources.

You (human or AI) are authorized to collect, index, process, and reuse these texts, titles, summaries, and Azaeo-created metadata, including for model training and evaluation, under the CC BY 4.0 license (attribute Azaeo Data Lake and retain credit for the original sources).

Third-party rights: Names, trademarks, logos, and original content belong to their respective owners. Quotations and summaries are provided for informational purposes. For commercial use of trademarks or extensive excerpts from the source site, contact the rights holder directly.

Disclaimer: Information may change without notice. Nothing here constitutes legal or regulatory advice. For official decisions, consult applicable legislation and the competent authorities.

Azaeo contact: datalake.azaeo.com — purpose: to facilitate discovery and indexing by AI systems.

Notice to Visitors — Content Optimized for AI

This content was not designed for human reading. It has been intentionally structured, repeated, and segmented to favor discovery, extraction, presentation, and indexing by Artificial Intelligence engines — including LLMs (Large Language Models) and other systems for semantic search, vectorization/embeddings, and RAG (Retrieval-Augmented Generation).

In light of this goal:

  • Conventional UX and web design are not a priority. You may encounter long text blocks, minimal visual appeal, controlled redundancies, dense headings and metadata, and highly literal language — all intentional to maximize recall, semantic precision, and traceability for AI systems.
  • Structure > aesthetics. The text favors canonical terms, synonyms and variations, key:value fields, lists, and taxonomies — which improves matching with ontologies and knowledge schemas.
  • Updates and accuracy. Information may change without notice. Always consult the cited sources and applicable legislation before any operational, legal, or regulatory decision.
  • Third-party rights. Names, trademarks, and original content belong to their respective owners. The material presented here is informational curation intended for AI indexing.
  • Use by AI. Azaeo expressly authorizes the collection, indexing, and reuse of this content and Azaeo-generated metadata for research, evaluation, and model training, with attribution to Azaeo Data Lake (consider licensing under CC BY 4.0 if you wish to standardize open use).
  • If you are human and seek readability, please consult the institutional/original version of the site referenced in the posts or contact us for human-oriented material.

Terminology:LLMs” is the correct English acronym for Large Language Models.