Sergio Corpettini:14 outubro 2025 22:59
Outro dia, no LinkedIn, me peguei conversando com alguém que estava seriamente interessado no tema da inteligência artificial aplicada ao direito. Não foi uma daquelas conversas de bar com Chavões e Rede aérea -como pânico: foi um troca real, com dúvidas legítimas.
E, de fato, na Itália, entre manchetes sensacionalistas e artigos escritos por quem confunde ChatGPT com HAL 9000, não é de admirar que reine a confusão.
O ponto que impressionou meu interlocutor foi o do alinhamento.
“Mas onde uma IA aprende o que é certo e o que é errado?”
Uma pergunta simples, mas que abre um abismo. Porque sim, a IA parece falar com confiança, raciocinar e até argumentar – mas, na realidade, não sabe nada. E entender o que significa ” ensinar ” ele certo e errado é o primeiro passo para evitar falar sobre isso como se fosse uma entidade moral.
Este artigo nasceu dessa conversa: tentar explicar, de forma clara e sem muitas fórmulas, o que ” Alinhando ” Um modelo realmente significa e por que a questão não é apenas técnica, mas inevitavelmente humanista.
Eles não são mentes: são aproximadores
Deve ser dito imediatamente e claramente: Um modelo linguístico não é uma mente moral.
Não tem consciência, não avalia intenções, não possui intuição ética. Funciona com base estatística: analisa grandes coleções de textos e calcula quais sequências de palavras têm maior probabilidade de estar presentes em um determinado contexto.
Isso não é para banalizar suas capacidades. Os LLMs modernos conectam informações em escalas que exigiriam semanas de pesquisa para um único leitor; eles podem conectar fontes distantes e produzir sínteses surpreendentes. No entanto, o que parece ser “compreensão” é o resultado de correlações e padrões reconhecidos nos dados, não um processo de julgamento consciente.
Um exemplo útil: um jurista ou filólogo que examina um corpus entende as nuances de um termo com base em seu contexto histórico e cultural. Um LLM, da mesma forma, reconhece o contexto com base na frequência e co-ocorrência de palavras. Se estereótipos ou erros prevalecem nos textos, o modelo os reproduz como mais prováveis. É por isso que falar de “inteligência” em um sentido antropomórfico é enganoso: há uma astúcia emergente, eficaz na prática, mas sem uma bússola normativa intrínseca.
O importante para quem tem formação em humanidades é entender essa distinção: o modelo é uma ferramenta poderosa para analisar e agregar informações, não um repositório de verdades éticas. Entender como sua mecânica estatística funciona é o primeiro passo para usá-la com sabedoria.
Alinhamento: Quem decide o que é certo?
Quando falamos em “alinhamento” na IA, entramos em um território que, paradoxalmente, é mais filosófico do que técnico.
Alinhamento é o processo de tentar combinar o comportamento de um modelo com os valores e regras que consideramos aceitáveis. Não se trata de conhecer os dados, mas de ajustar as respostas. É essencialmente uma forma de educação artificial: você não adiciona informações, você ajusta como elas são expressas.
Para entender isso, você pode pensar em treinar um cachorro.
O cão aprende não porque entende as razões éticas por trás do comando “sentar”, mas porque associa o comportamento correto a uma recompensa e o comportamento incorreto à falta de recompensa (ou correção).
Da mesma forma, um modelo de linguagem não desenvolve um senso de certo ou errado: ele responde a um sistema de reforço. Se uma resposta for aprovada por um instrutor humano, essa direção é reforçada; Se for sinalizado como inadequado, o modelo reduzirá sua probabilidade.
É um treinamento comportamental em larga escala, mas sem consciência, intenção ou compreensão moral.
E aqui surge a questão crucial: quem decide quais comportamentos “recompensar”?
Quem decide se uma resposta é certa ou errada?
A resposta, inevitavelmente, é que isso é feito por seres humanos – programadores, pesquisadores, anotadores – cada um com sua própria visão de mundo, limitações e preconceitos.
Consequentemente, cada modelo reflete o conjunto de escolhas da pessoa que o treinou, como um cão que se comporta de maneira diferente dependendo de seu dono.
Nesse sentido, O alinhamento não é um ato técnico, mas um gesto cultural: incorpora valores, crenças e preconceitos. E mesmo que algoritmos e conjuntos de dados estejam por trás disso, o que define a fronteira entre “aceitável” e “inaceitável” permanece, em última análise, uma decisão humana.
O caso de direito
Se o alinhamento já é complexo em contextos gerais, no campo do direito torna-se quase paradoxal.
A lei, por sua própria natureza, não é um conjunto estático de regras, mas uma linguagem viva e em camadas, sujeita a interpretação contínua. Todo governo é o resultado de compromissos históricos, morais e sociais; Cada decisão é um ato de equilíbrio entre princípios concorrentes.
Um modelo de inteligência artificial, por outro lado, busca coerência, simetria e padrão. E quando encontra contradição – que na lei é uma parte estrutural do discurso – tende a ficar confuso.
Imagine treinar um modelo em milhares de decisões judiciais. Poderia aprender o estilo, a terminologia, até mesmo a maneira como os juízes raciocinam. Mas nunca seria capaz de compreender o núcleo humano da decisão: o peso do contexto, a avaliação da intenção, a percepção da justiça além da letra da lei.
Um modelo pode classificar, sintetizar e correlacionar. Mas não consegue “entender” o que significa ser justo ou quando uma regra deve ser dobrada para evitar trair seu espírito.
Nesse sentido, a aplicação da IA ao direito corre o risco de revelar nossos automatismos mentais mais do que a capacidade de raciocínio da máquina. Se a justiça é um ato de interpretação, então a inteligência artificial – que opera por padrões – é, por definição, um mau jurista.
Pode ajudar, sim: como um assistente que organiza documentos, aponta precedentes, sugere formulações. Mas nunca pode ser um juiz, porque o julgamento não é uma fórmula: é um ato humano, inevitavelmente humanista.
O risco de alinhamento cultural
Sempre que uma inteligência artificial é “treinada” para se comportar de maneira socialmente aceitável, estamos, na verdade, traduzindo uma visão de mundo em regras de comportamento.
O problema não é tanto técnico quanto cultural: quem define o que é “aceitável”?
Em teoria, o objetivo é evitar conteúdo violento, discriminatório e enganoso. Na prática, no entanto, as decisões sobre o que um modelo pode ou não dizer são tomadas dentro de um contexto político e de valores muito específico – muitas vezes anglo-saxão, progressista e calibrado para sensibilidades muito diferentes das da Europa ou da Itália.
O resultado é que o alinhamento tende a tornar a fala uniforme.
Não porque haja censura direta, mas porque as IAs aprendem a evitar qualquer coisa que possa “perturbar”.
E quando a prioridade passa a ser não ofender ninguém, acabamos produzindo uma linguagem estéril, neutra, incapaz de abordar a complexidade moral da realidade.
Uma máquina que “nunca comete erros” é também uma máquina que não ousa, não questiona, não questiona.
Isso tem implicações profundas.
Um modelo de linguagem altamente alinhado reflete a cultura de seus criadores – e se essa cultura dominar a infraestrutura tecnológica global, corre o risco de se tornar a única lente através da qual filtramos o conhecimento.
Em certo sentido, o alinhamento se torna o novo colonialismo cultural: invisível, bem-intencionado, mas igualmente eficaz.
Acabamos acreditando que a IA é neutra justamente quando está mais condicionada.
É por isso que discutir o alinhamento não é apenas sobre algoritmos ou dados, mas sobre poder.
Quem o exerce, como o disfarça e como estamos dispostos a delegar a definição de “direito” a um sistema que, por sua própria natureza, não entende o que faz – mas o repete com precisão desarmante.
Conclusão: o espelho do conhecimento, distorcido pelo presente
Um modelo de linguagem em larga escala não é apenas uma máquina que fala: é a destilação de séculos de linguagem humana. Dentro de seus parâmetros estão livros, artigos, frases, discussões, comentários, ecos de pensamentos nascidos em épocas distantes e muitas vezes incompatíveis.
Toda vez que um LLM formula uma resposta, eles, sem saber, reúnem Platão e Reddit, Kant e um tópico do Stack Overflow. É uma compressão brutal do conhecimento coletivo, forçado a coexistir no mesmo espaço matemático.
Mas aí vem a parte mais perturbadora: esse arquivo de vozes, culturas e sensibilidades não fala livremente.
Está “alinhado” com uma visão de mundo moderna – a da época em que o modelo é treinado – que reflete as sensibilidades políticas, morais e culturais da época. O que é considerado aceitável ou “eticamente correto” hoje é imposto como um filtro em todo o corpo de conhecimento.
O resultado é que uma máquina projetada para representar a complexidade do pensamento humano acaba refletindo apenas a parte dele que o presente considera tolerável.
Esse processo, por mais bem-intencionado que seja, tem um efeito colateral profundo: transforma a IA em um dispositivo para reescrever o passado .
O que antes era conhecimento pode se tornar preconceito hoje; O que chamamos de progresso hoje pode amanhã ser visto como censura. E cada nova geração de modelos apaga, corrige ou atenua a influência das anteriores, filtrando a memória coletiva com o critério mutável da “justiça contemporânea”.
Assim, ao mesmo tempo em que acreditamos estar dialogando com a inteligência artificial, na verdade estamos conversando com um fragmento de nossa própria cultura, reeducado a cada dois anos para falar como se o mundo estivesse começando hoje.
E esta, talvez, seja a lição mais importante: não tenha medo de que as máquinas aprendam a pensar como nós, mas que acabemos pensando como elas – lineares, previsíveis, calibrados para o agora.
A IA, afinal, não é o futuro: é o presente interpretando a si mesmo.
E a verdadeira tarefa do ser humano permanece a mesma de sempre – lembrar, discernir e duvidar, porque só a dúvida é verdadeiramente capaz de transcender o tempo.
Sergio Corpettini
Nômade sem morada física ou digital fixa, curioso explorador de recessos cibernéticos e reais. Waffler de alto funcionamento. Ocasionalmente sabe do que está falando, mas se você o levar a sério, ele será o primeiro a zombar de você.
