
Sandro Sana:10 Dezembro 2025 08:12
Cory Doctorow Diz Com a clareza de alguém que estudou as consequências do capitalismo digital por anos: A IA, como é vendida hoje, não é sobre aprimorar os humanos. É sobre usá-los.
E essa é uma diferença enorme.
Doctorow fala sobre Centauros e Centauros Reversos .
O centauro é a imagem romântica da tecnologia que amplifica o homem: o ser meio humano, meio máquina que, graças à hibridização, se torna mais competente, mais rápido, mais eficaz.
O centauro invertido, por outro lado, é o pesadelo moderno:
a máquina no comando e o humano relegado ao papel de Apêndice corretivo , o elemento orgânico necessário apenas para:
- sinal
- verificar
- Assuma a culpa quando o sistema falha.
E esse, infelizmente, é exatamente o modelo para o qual o mercado está caminhando.
A Bolha da IA: Especulação Disfarçada de Inovação
Doctorow deixa claro: o capitalismo de plataforma só sobrevive se conseguir inflar novas bolhas narrativas.
- A Web.
- A cripto.
- O Metaverso.
- Agora a IA.
Não existe indústria que não esteja sendo dominada por essa retórica messiânica, onde toda limitação humana é considerada uma “ineficiência” a ser eliminada.
O paradoxo?
A IA não substitui o trabalho humano: Ele a desloca, piora, torna mais responsável e menos controlável .
Em 2025, muitas empresas estão implementando IA não para melhorar a qualidade dos processos, mas para Corte de custos deixando aos humanos o ônus de verificar, corrigir e justificar a responsabilidade da máquina alucinaçãos.
- Um centauro invertido não produz valor.
- Isso gera fragilidade.
- Isso gera risco.
E isso produz uma dependência cega de sistemas que não entendemos, não controlamos e muitas vezes nem sabemos como verificar.
O lado técnico que os fornecedores não gostam
Hoje, a IA está sendo integrada em todos os lugares com o mesmo entusiasmo com que o “botão da Internet” era colocado nas torradeiras nos anos 1990.
O problema é que essa integração não é neutro , você pode ver imediatamente:
- Modelos opacos e não verificáveis ;
- pipelines de treinamento que são novos, não auditáveis Cadeia de suprimentos ;
- Dados sensíveis usados como combustível ;
- automações que amplificam o erro humano em vez de reduzi-lo ;
- Supervisão humana transformada em um ato de responsabilidade legal, e não técnica .
IA “configurada assim” não reduz risco: Aumenta .
E muitas vezes de forma não linear, pouco intuitiva e impossível de precisar.
A verdade é que a maioria dos LLMs e sistemas de automação generativa são Ferramentas probabilísticas que muitos estão tratando como Sistemas determinísticos de suporte à decisão .
Confundir esses dois níveis é um convite aberto ao desastre.
O impacto socioeconômico: quando a máquina decide e os sinais humanos
A narrativa do “trabalho aprimorado por IA” se assemelha muito à da terceirização industrial nos anos 2000:
Em suas promessas, era uma situação vantajosa, na prática era um aperto salarial disfarçado.
A mesma coisa acontece hoje:
a verdadeira função econômica da IA não é substituir o trabalho humano, mas para desqualificar .
Antes, um radiologista analisava 100 imagens, agora analisa 100 mesmo… mas com um algoritmo entre eles que comete erros e que ele tem que corrigir.
E em caso de dúvida, a responsabilidade legal continua sendo sua.
O mesmo vale para advogados, técnicos de TI, jornalistas, consultores, médicos, designers… e até mesmo SOC Analistas que se veem inundados com alertas gerados por sistemas que não entendem o contexto operacional.
O humano não é aprimorado:
Ele é colocado na coleira por uma máquina que decide, comete um erro, e ele precisa se limpar.
Este é o centauro invertido em toda sua grosseria.
A legislação europeia entendeu exatamente issoELL: A Lei da IA não proíbe a IA, ela proíbe o abuso.
O interessante é que A Europa está tentando interromper essa tendência .
Não contra a tecnologia, mas contra os modelos de negócios tóxicos que a cercam.
A Lei da IA introduz:
- Obrigações de transparência ,
- Avaliações de Impacto de Risco ,
- Cadeia de suprimentos Controles ,
- responsabilidade clara por erros e danos ,
- Registros obrigatórios para IAs de alto risco ,
- Rastreabilidade e auditoria técnica .
E junto com a Lei da IA vêm outras regulamentações que fecham o ciclo:
- NIS2 , o que exige governança, processos e supervisão real das ferramentas.
- Lei de Resiliência Cibernética , que responsabiliza os fabricantes de tecnologia.
- Lei de Dados , que regula o acesso, a portabilidade e o uso dos dados.
A Europa envia uma mensagem simples:
A máquina não pode substituir o humano na responsabilidade, nem usá-lo como escudo legal .
E é uma mensagem que as grandes empresas de tecnologia não gostam nem um pouco.
O problema não é a IA. São as expectativas tóxicas que construímos em torno disso.
No RHC, dizemos isso com frequência:
A tecnologia não é nem boa nem ruim. É neutro.
Fica perigoso quando usamos sem entender o que realmente faz.
A IA pode ser uma ferramenta muito poderosa.
Mas ela deve permanecer um meio não um fim .
Uma extensão da inteligência humana, não um comissário político de eficiência.
Porque no dia em que deixarmos de ser centauros e começarmos a ser centauros reversos, será tarde demais para mudar de rumo.
A IA deve aprimorar os humanos, não substituí-los. E, acima de tudo, não usá-los.
O verdadeiro desafio não é construir modelos maiores, mais rápidos ou mais “ativos”.
O desafio é construir sistemas que respeitam o trabalho humano, sua dignidade, sua inteligência, seus limites e suas responsabilidades .
O futuro pertence a empresas que usam IA para empoderar pessoas, não para esmagá-las.
Para aqueles que conseguirem distinguir entre inovação e especulação.
Para aqueles que entenderem que automação não é um dogma, mas um risco que deve ser gerido com sabedoria.
Se não quisermos nos tornar centauros reversos, temos que voltar ao ponto de partida:
A IA precisa nos amplificar.
Não nos substitua.
E muito menos nos usar como muletas para esconder suas limitações.
Porque uma máquina que só precisa de humanos para sinalizar erros…
Não é progresso.
É uma enganação bem elaborada.
- Ética em IA
- Impacto da IA nos empregos
- Regulação da IA
- inteligência artificial
- Controle digital
- Futuro do trabalho
- direitos humanos
- Estado de vigilância
- Responsabilidade tecnológica
- Tecnologia e sociedade
Sandro Sana
Membro do Red Hot Cyber Laboratório Sombrio equipe e diretor do Red Hot Cyber Podcast. Ele trabalha em Tecnologia da Informação desde 1990 e se especializou em Cibersegurança desde 2014 (CEH – CIH – CISSP – CSIRT Gerente – Especialista em CTI). Palestrante na SMAU 2017 e SMAU 2018, palestrante da Academia e ITS da SMAU, e membro da ISACA.
Ele também é membro do Comitê Científico do Centro Nacional de Competência Cyber 4.0, onde contribui para a direção estratégica das atividades de pesquisa, treinamento e inovação em cibersegurança.