O dilema da transparência (html): uma análise da Resolução 615/CNJ à luz da teoria do homo Sapientissimus.

 

Uma imagem contendo água, homem, raquete, segurando

O conteúdo gerado por IA pode estar incorreto.

Ilustração da revista JusNavigandi

O dilema da transparência: uma análise da Resolução 615/CNJ à luz da teoria do homo Sapientissimus.

S. Tavares-Pereira[1]

Resumo

O presente artigo investiga a tensão fundamental entre as exigências normativas de transparência e explicabilidade no uso da Inteligência Artificial (IA) pelo Poder Judiciário — consubstanciadas na Resolução 615 do Conselho Nacional de Justiça (CNJ) — e a realidade técnica dos Grandes Modelos de Linguagem (LLMs). A partir do conceito de Homo Sapientissimus, propõe-se uma análise da incompatibilidade entre a lógica formal aristotélica e a cognição algorítmica, estatística e simbólica. O estudo aponta a aporia da norma regulatória que, ao tentar dispor sobre transparência e uso de "caixa-preta" (IAgen), oscila entre a exigência de publicidade e a discricionariedade judicial. Utilizando aportes teóricos dos sociólogos Luhmann e Latour e do ciberneticista Aurel David, sugere-se que a solução para a segurança jurídica não reside na "abertura do código", nem na expressão da cognição algorítmica em termos de lógica formal, mas no "esquema de generalização" controlado: o treinamento da IA com a base de dados do próprio magistrado (fine-tuning), o que leva o algoritmo a atuar como um "aprendiz" alinhado, ética e juridicamente,  ao julgador (“para cada juiz um aprendiz”).

 

Palavras-chave:

Inteligência Artificial Jurídica (IAJ); Resolução 615/CNJ; Transparência algorítmica; Homo Sapientissimus; Lógica algorítmica.

 

Introdução: "Mehr Licht!" e a opacidade algorítmica.

"Mehr Licht!" (Mais luz!), a famosa frase atribuída a Goethe em seu leito de morte (1832), parece ecoar, atualmente, nos meios jurídico-acadêmicos, como um imperativo: “transparência, mais transparência!”. Das normas aos discursos, sempre que se trata do uso da Inteligência Artificial Generativa (IAgen) pelo Poder Judiciário, essa demanda vem à tona.

As lucubrações sobre o Homo Sapientissimus[2], referentes ao tipo de lógica cognitiva algorítmica, trazidas em artigos anteriores, ajudam a explicar a opacidade de nossas lentes habituais que, muitas vezes, foram iludidas por fundamentações silogísticas vestidas de uma infalibilidade não provada. A compreensão dessa nova cognição ajuda a alinhavar uma resposta à ubíqua questão da transparência.

No cenário jurídico brasileiro, a Resolução 615 do CNJ[3], louvável sob variados aspectos (veja-se a guinada que, a respeito, está dando a União Europeia[4]), surge como uma tentativa de regular o avanço mediante o uso da inteligência artificial e não com sua rejeição.  

Atente-se, entretanto, que ao tempo em que autoriza a IA generativa no processo judicial, o ato normativo tenta, simultaneamente, impor requisitos de explicabilidade/transparência que a própria tecnologia, em seu estado da arte, talvez não possa oferecer integralmente em moldes humanos. Este artigo explora a incompatibilidade de fundo entre as exigências de transparência e a realidade de uma cognição puramente simbólica. Argumenta-se que o conhecimento mais profundo dessa nova lógica pode, paradoxalmente, abrandar as exigências de transparência total, deslocando o foco do "como a máquina pensou" para "como a máquina foi treinada para pensar".

1. A Resolução 615/CNJ e a aporia da transparência.

À luz dos paradigmas clássicos, a regulação do uso de IA no Judiciário brasileiro enfrenta um obstáculo epistemológico intransponível. A Resolução 615/CNJ, ao tratar da transparência, palavra que ocorre 27 vezes ao longo do texto, parece reconhecer tacitamente, sem confessar, a impossibilidade técnica de devassar o funcionamento interno das redes neurais profundas (Deep Learning).

Há, de fato, no texto normativo, uma ambiguidade orientativa. Por um lado, exige-se transparência, auditabilidade (aparece 5 vezes no texto) e explicabilidade (aparece 6 vezes no texto. Com a restrição do uso da IA generativa ao papel de "suporte" ou "auxílio" às atividades de decisão (art. 19[5]), a norma faz uma primeira tentativa para contornar o chamado “problema da caixa-preta" (black box), reduzindo o peso decisório formal da máquina e deslocando a responsabilidade integralmente para o humano.

Sob outra ótica, essa mesma regulação traz uma contradição imanente. A norma oscila entre a obrigatoriedade objetiva da transparência e uma espécie de faculdade jurisdicional individual: cabe ao julgador decidir o quantum de informação a ser revelada aos jurisdicionados, num espectro que pode ir da opacidade total à descrição detalhada do uso da ferramenta.[6]

Ao permitir que (i) a confiabilidade do resultado dependa subjetivamente da supervisão do magistrado e (ii) a extensão dessa transparência varie conforme a vontade do julgador, flerta-se perigosamente com a insegurança jurídica. Se a transparência é um pressuposto inegociável do devido processo legal, ela não pode ser discricionária. Deixar que cada juiz delimite as fronteiras da opacidade algorítmica não se compadece com a garantia constitucional de fundamentação das decisões, nem com o princípio democrático maior da igualdade perante a lei.  

Cabe, ademais, uma reflexão adicional, porque a norma exige o que a técnica nega e, para resolver o impasse, delega ao humano a responsabilidade de "validar" o inexplicável: existirá, de fato, uma barreira segura decorrente da mera limitação do uso ao "suporte/apoio"? Haverá ética e instrumentos de auditoria eficazes para conter a sedução algorítmica?

É imperioso recordar que a IA generativa oferecerá silogismos de fundamentação esteticamente superiores e, muitas vezes, mais consistentes que os produzidos pela média dos humanos. Frutos de alucinação? As ferramentas evoluíram muito neste quesito. Aprenderam até a apelar para a semântica para se autopoliciar.[7]  O que garante muito pouco porque elas continuam a operar no nível sintático apenas. Falam chinês com perfeição, embora não entendam o que estão falando, diria o filósofo John Searle, na genial analogia do quarto chinês.[8]  A equivalência semântica de dois termos, apontada pela constatação da entropia semântica, não implica o alcance do significado.[9]

As bases de dados jurídicas continuam "altamente alucinógenas", como de fato precisam  ser. O alcance de uma Inteligência Artificial Jurídica (IAJ), multifacetada, não unificante (plural) e compatível com as exigências democráticas do sistema de decisão judicial, depende muito da governança relacionada ao aprendizado algorítmico. Se não houver um manejo adequado no treinamento dos modelos, restringindo o escopo do qual o algoritmo se abebera, na base e não no topo, as inferências estatísticas podem conduzir a decisão (a cognição algorítmica) para veredas não desejadas pelo julgador. Como sugere Pedro Domingos, ao tratar do segredo do machine learning e da indução, “Não estamos preocupados com todos os mundos possíveis [com todos os entendimentos possíveis e existentes], só com este no qual vivemos [este gabinete e este magistrado].”[10] [expliquei] Do contrário, persuadido pelo silogismo que antecede a proposta de decisão, belo e convincente como só máquinas conseguem fazer, magistrados assinarão. Corrigir o que, diante da inatacável fundamentação? O controle do fluxo algorítmico tem de começar pelo treinamento adequado e limitado na base, para ser democrático.

A recente filosofia da inteligência artificial agêntica, tomada em nível bem abstrato, é a expressão desse pensamento. Trata-se de uma extrapolação criativa das lições antigas da engenharia de software: para cada atividade, uma função/rotina, um método. A IA dos agentes leva a antiga “modularidade e decomposição funcional”, de rotinas fixas e absolutamente determinísticas, ao uso de entidades (agentes) que, agora, decidem e agem por conta própria. Em termos, claro, porque ferramenta é sempre ferramenta. No tocante ao “agir por conta própria”, essa característica interessa pouco ao Direito (para não dizer nada!) na linha de decisão. Mas é por ela, devidamente matizada,   que se pode chegar a uma inteligência artificial para o jurídico (IAJ).

A segurança jurídica aceitável tem de nascer de um pressuposto inafastável: para cada juiz, um aprendiz![11] O modelo, tendo aprendido com a base do magistrado apoiado, restringir-se-á a analisar os novos processos com a ótica e o esquema de valoração que ele aplica.[12] Além disso, o pressuposto democrático da pluralidade continuará garantido, deixando que o sistema processual, institucionalizado, apure, das muitas visões da base, a que deve prevalecer. Evita-se, assim, a imposição de visões únicas geradas por "centrais de comando" circunstanciais (controle top down, não democrático). O arco down-up-down, operado sistemicamente, é o que é capaz de promover a oxigenação continuada e pluralista do todo (retroalimentação cibernética).

A resposta às demandas de transparência pode passar por esse "enquadramento do algoritmo" aos horizontes do magistrado assistido. As fundamentações, frutos (i) da consideração de normas e fatos à luz da lógica hermenêutica e (ii) do esquema de valoração do magistrado em casos anteriores (seu dataset), serão fiéis ao passado dele. Nisso as novas técnicas de RAG (Retrieval-Augmented Generation), fine-tuning etc., avançaram muito. A resposta mais eficaz à ânsia por transparência pode vir por essa técnica de manejo.

2. O abismo cognitivo: da lógica aristotélica à probabilidade vetorial.

Para compreender a profundidade do desafio, é necessário dissecar a natureza da cognição que agora chega aos tribunais.

A tradição jurídica ocidental é herdeira direta da lógica formal aristotélica, estruturada sobre premissas, conclusões e a busca incessante pelo significado. Kelsen e sua definição de norma jurídica exprimem bem o fenômeno. Norma é o significado da proposição legislativa: “ [...] mais corretamente diz-se: a norma é um sentido, em vez de: a norma tem um sentido.”[13] [grifei]. Cabe ao julgador fixar, como raiz de seu silogismo, um sentido do texto legislativo. Arremete-se, assim, diretamente ao âmbito semântico.

A Inteligência Artificial Generativa, contudo, habita um universo ontologicamente distinto.

A inteligência artificial [...] não partilha dessa base existencial. Os Large Language Models (LLMs), por exemplo, não 'compreendem' textos como nós. Eles não formam conceitos abstratos no sentido humano, nem buscam significados intrínsecos. Sua 'lógica' é de outra natureza: matemática, estatística e probabilística.[14]

Para o algoritmo, uma sentença judicial não é um ato de justiça, mas a geração de um corpo textual que possui a maior probabilidade estatística de ocorrer na sequência dos antecedentes. Trata-se de uma função algorítmica aplicada. Estabelece-se, aqui, um sofisticado esquema de generalização.[15] Enquanto o jurista opera predominantemente pela dedução (aplicando a norma ao fato), a IA opera por uma indução massiva.

Essa distinção é crucial. A "caixa-preta" é uma característica intrínseca da "forma de pensar" do algoritmo. Assim como a física quântica exigiu novas lógicas para o micromundo, a IA exige que aceitemos uma "lógica algorítmica". Exigir que a IA explique seu raciocínio em termos silogísticos causais é um erro categorial. Tentar traduzir a complexidade de bilhões de parâmetros, ajustados matematicamente, em um arcabouço silogístico simples de "motivação" parece ser um exercício de redução que beira a ficção.

Não obstante, anteceder o resultado com uma fundamentação trazida do aprendizado, alterada em suas features[16]  para os dados do processo em exame, pode atender aos reclames de transparência, porque gerada sobre um escopo limitado, do julgador, como proposto acima. A própria fundamentação, abstratamente tomada, entra no "esquema de generalização".

3. Homo Sapientissimus: a simbiose entre o saber e a ética humanos e a eficiência simbólica. Suporte automatizado ao suporte.

“La coincidence digne de remarque vient du fait que Platon a donné à ce terme [cibernética] son sens actuel d´une pure technique asservie.(Aurel David)

Diante da impossibilidade de forçar a "caixa-preta" a falar a língua dos homens, surge a necessidade de uma nova categoria ontológica para o decisor jurídico. O conceito de Homo Sapientissimus não se refere a uma substituição do humano pela máquina, muito menos do surgimento de um novo ente biológico, mas à emergência de uma cognição híbrida, uma espécie de emaranhamento entre a cognição humana e a algorítmica. A dicotomia entre símbolos e significados é o coração dessa nova entidade: um sistema social – o mais simples deles! - que Luhmann denomina de interação[17], produtor de resultados, em que cada partícipe (homem e máquina) entra com suas potencialidades e limitações.  Latour chamaria este sistema de actante (um homem e sua tecnologia).[18] Para o jurista humano, o símbolo é um portal para um universo de significados vivenciais e axiológicos. Nossa cognição é uma dança entre forma e conteúdo. Já a IA opera em um plano de eficácia simbólica pura e pode, treinada sobre os dados certos (e limitados), jogar na interação sua inigualável capacidade de análise e velocidade. O resultado produzido por esse sistema conjuga humanidade e algoritmicidade.

Para um Large Language Model, as palavras são tokens, sequências de caracteres que são convertidas em representações numéricas (vetores). [...] A IA não “sabe” o que é uma “árvore” [ou um “crime”] no sentido de tê-la visto, tocado ou compreendido [...]. O que ela “sabe” é a probabilidade estatística de que o token [...] apareça perto de [...] outros em seu gigantesco conjunto de treinamento.[19]

Essa manipulação "cega" de símbolos, desprovida de alma, é paradoxalmente o que permite à IA sua velocidade e amplitude sobre-humanas. O Homo Sapientissimus nasce quando o magistrado, ciente dessas limitações da máquina, inclusive éticas, apropria-se da potência operacional que ela oferece na interação. Isso agudiza as exigências de ética postas ao subsistema humano, algo que o fine-tuning ameniza muito. Assessores (prestadores de suporte) humanos, em seu trabalho, comprometem-se, queiram ou não, com o “olhar ético” do magistrado auxiliado, além do técnico-valorativo. A interação humano x humano amplia os poderes do magistrado, sabe-se bem, mas ambos operam sob a mesma lógica cognitiva e idênticas limitações ontológicas. Já o sistema híbrido, humano x algoritmo/IA, permite um ganho sistêmico expressivo justamente pela diferenciação[20]: funde-se a noção ética e o saber jurídico do julgador com a agilidade e amplitude analítica do algoritmo, criando uma unidade comunicacional (um sistema) de potência inédita.

 Trata-se de uma simbiose onde a mente humana natural - lenta, porém criativa, perceptiva e com ética particular - entrelaça-se com a mente algorítmica - veloz, porém carente de significados.

A era do Homo Sapientissimus não é apenas sobre ter ferramentas mais potentes; é sobre [...] uma simbiose em que a mente humana natural [...] se entrelaça (se emaranha) com a mente algorítmica, inigualável em sua capacidade de processar dados e identificar correlações.[21]

Nesse contexto, a transparência exigida pela Resolução 615/CNJ deve ser reinterpretada. Se a "caixa-preta" não nos permite ver o processo de pensamento da máquina (o "como"), ela nos oferece resultados (os "quês") que podem ser validados pela expertise humana. O magistrado torna-se o curador da lógica algorítmica, não porque confira tudo (o que deverá fazer, sempre, segundo a letra da lei), mas porque o algoritmo foi treinado para afinar sua ação à ação do julgador assistido. A IA funciona como uma "turbina intelectual" autocontrolada[22] que, conforme a visionária observação do ciberneticista Aurel David, posta na epígrafe deste item, é capaz de navegar oceanos processuais com as cartas de navegação definidas pelo magistrado. Isso abre espaço para se pensar, adicionalmente, no “suporte automatizado ao suporte”: a garantia da coerência.  

Aceitar o Homo Sapientissimus implica aceitar que parte da nossa cognição jurídica passará a operar por vias não-humanas. O desafio não é tornar a IA humana (transparente e silogística), mas integrar sua lógica probabilística à nossa responsabilidade ética e ao nosso saber jurídico, garantindo que a bússola moral e as cartas de navegação surjam de mãos biológicas, enquanto o trabalho braçal da lógica simbólica é terceirizado para o silício.

Considerações Finais.

A Resolução 615/CNJ representa um marco regulatório necessário, mas a sua eficácia real dependerá de uma interpretação que transcenda o fetichismo da transparência algorítmica total. Exigir que a máquina explique seus processos como um humano explicaria suas motivações é ignorar a ontologia da nova inteligência que se apresenta.

O caminho para um Judiciário eficiente e seguro na era da IA não passa pela rejeição da "caixa-preta", mas pela sua domesticação por meio da personalização. O Homo Sapientissimus é a resposta evolutiva: um sistema onde a alucinação criativa da máquina é contida pelas balizas éticas e histórico-jurídicas impostas ao "algoritmo aprendiz de um juiz" (Para cada juiz, um aprendiz!).

Ao invés de temermos a opacidade do pensamento vetorial, devemos focar na consistência do resultado jurídico. Se a IA, devidamente treinada no dataset do magistrado, produz uma decisão que reflete, com a desejada acurácia, os valores e a técnica daquele juiz (cognição particular), a transparência se realiza não pela dissecação do código, mas pela coerência da justiça entregue. Neste início do século XXI, o Mehr Licht! de Goethe, agora reclamado pelo processo – mais transparência! -, talvez não venha de ver por meio da máquina, mas de ver com a máquina, sob a guia firme da consciência humana.

Referências Bibliográficas

BRASIL. Resolução CNJ n. 615, de 11 de março de 2025. Estabelece diretrizes para o desenvolvimento, utilização e governança de soluções desenvolvidas com recursos de inteligência artificial no Poder Judiciário.  Disponível em: https://atos.cnj.jus.br/files/original1555302025031467d4517244566.pdf. Acesso em: 27 mar. 2025.

BRUXELAS APRESENTA revolução digital para tribunais da União Europeia.  Disponível em: https://eco.sapo.pt/2025/11/20/bruxelas-apresenta-revolucao-digital-para-tribunais-da-uniao-europeia/. Acesso em: 20 nov. 2025. “A Estratégia DigitalJustice@2030 estabelece 14 medidas concretas destinadas a ajudar os Estados-membros.”

DAVID, Aurel. La cybernètique et l´humain. France: Gallimard, 1965.

DOMINGOS, Pedro. O algoritmo mestre. São Paulo: Novatec, 2017. 341p.

FARQUHAR, S., KOSSEN, J., KUHN, L. et al. Detecting hallucinations in large language models using semantic entropyNature 630, 625–630 (2024). Disponível em:  <https://doi.org/10.1038/s41586-024-07421-0>. Acesso em: 10 ago. 2025.

Homo Sapientissimus III: The Logic Beyond Logic. Disponível em: https://medium.com/@stavarespereira/homo-sapientissimus-iii-the-logic-beyond-logic-the-unthinkable-dialogue-with-the-algorithmic-fcab161203a8. Acesso em: 19 nov. 2025.

KELSEN, Hans. Teoria geral das normas.  Tradução de José Florentino Duarte.  Porto Alegre: Fabris, 1986.

LATOUR, Bruno. Reagregando o social. Uma introdução à teoria ator-rede. Salvador: Eduíba, 2012; Bauru: Edusc, 2012.

LUHMANN, Niklas. Introdução à teoria dos sistemas.  Trad. De Ana Cristina Arantes. 2. Ed. Petrópolis: Vozes, 2010.

LUHMANN, Niklas. Sistemi sociali. Fondamenti di uma teoria generale. Trad. para o italiano de Alberto Febrajjo e Reinhard Schmidt. Introdução à edição italiana de Alberto Febbrajo. Bologna: Società editrice il Mulino,  1990.

LUHMANN, Niklas. Sistemas sociales. Lineamientos para uma teoria general. Trad. Silvia Pappe y Brunhilde Erker. Rubí (Barcelona): Anthropos, 1998.

TAVARES-PEREIRA, S. IAgen sem alucinação: segurança no processo judicial. Disponível em: https://www.rbiad.com.br/index.php/rbiad/article/view/141/143. Acesso em: 15 nov. 2025.

TAVARES-PEREIRA, S. Machine learning nas decisões. O uso jurídico dos algoritmos aprendizes. Florianópolis: Artesam. 2021.



[1] Msc em Ciência Jurídica, doutorando em Direito (Atitus/FDV), magistrado do trabalho aposentado, autor de Machine learning nas decisões. O uso jurídico dos algoritmos aprendizes.

[2] Conceito trabalhado numa série de artigos em andamento e publicada em Medium: Homo Sapientissimus I, II e III. Neste artigo, trabalho especialmente com Homo Sapientissimus III: The Logic Beyond Logic. Disponível em: https://medium.com/@stavarespereira/homo-sapientissimus-iii-the-logic-beyond-logic-the-unthinkable-dialogue-with-the-algorithmic-fcab161203a8. Acesso em: 19 nov. 2025. O objetivo, ao final da série, é alcançar um esboço teórico-sistêmico sob luzes luhmannianas.

[3] BRASIL. Resolução CNJ n. 615, de 11 de março de 2025. Estabelece diretrizes para o desenvolvimento, utilização e governança de soluções desenvolvidas com recursos de inteligência artificial no Poder Judiciário.  Disponível em: https://atos.cnj.jus.br/files/original1555302025031467d4517244566.pdf. Acesso em: 27 mar. 2025.

[4] BRUXELAS APRESENTA revolução digital para tribunais da União Europeia.  Disponível em:

https://eco.sapo.pt/2025/11/20/bruxelas-apresenta-revolucao-digital-para-tribunais-da-uniao-europeia/. Acesso em: 20 nov. 2025. “A Estratégia DigitalJustice@2030 estabelece 14 medidas concretas destinadas a ajudar os Estados-membros.”  

[5] “Art. 19 - Os modelos de linguagem de larga escala (LLMs), de pequena escala (SLMS) e outros sistemas de inteligência artificial generativa (IAGen) disponíveis na rede mundial de computadores poderão ser utilizados pelos magistrados e pelos servidores do Poder Judiciário em suas respectivas atividades como ferramentas de auxílio à gestão ou de apoio à decisão, em obediência aos padrões de segurança da informação e às normas desta Resolução.” [grifei]

[6] BRASIL. Resolução CNJ n. 615...:  “Art. 19, §6º. Quando houver emprego de IA generativa para auxílio à redação de ato judicial, tal situação poderá ser mencionada no corpo da decisão, a critério do magistrado, sendo, porém, devido o registro automático no sistema interno do tribunal, para fins de produção de estatísticas, monitoramento e eventuais auditorias.” Ou seja, embora o registro interno seja obrigatório para fins administrativos, ele é facultativo sob a ótica dos direitos fundamentais, em relação aos destinatários da decisão.

[7] FARQUHAR, S., KOSSEN, J., KUHN, L. et al. Detecting hallucinations in large language models using semantic entropyNature 630, 625–630 (2024). Disponível em:  <https://doi.org/10.1038/s41586-024-07421-0>. Acesso em: 10 ago. 2025.

[8] TAVARES-PEREIRA, S. Machine learning nas decisões. O uso jurídico dos algoritmos aprendizes. Florianópolis: Artesam. 2021, p. 721.

[9] TAVARES-PEREIRA, S. IAgen sem alucinação: segurança no processo judicial. Disponível em: https://www.rbiad.com.br/index.php/rbiad/article/view/141/143. Acesso em: 15 nov. 2025.

[10] DOMINGOS, Pedro. O algoritmo mestre. São Paulo: Novatec, 2017. p. 87.

[11] TAVARES-PEREIRA, S. Machine learning nas decisões. O uso jurídico dos algoritmos aprendizes. Florianópolis: Artesam. 2021, p. 706: “Um aprendiz, ao lado de cada juiz, como observador de segunda ordem, permitirá a absorção da forma de observar a ser adotada quando postado na posição de primeira ordem. Bem se vê, isso não depende de qualquer intervenção em sua especificação técnica  [...] Uma restrição no nível dos dados é suficiente.” Artigo de 2018, com esta proposta/observação, transformou-se no capítulo 18 desta obra de 2021.

[12] Teoria do observador: LUHMANN, Niklas. Introdução à teoria dos sistemas.  Trad. De Ana Cristina Arantes. 2. Ed. Petrópolis: Vozes, 2010. p. 152 e seguintes.

[13]          KELSEN, Hans. Teoria geral das normas. Tradução de José Florentino Duarte. Porto Alegre: Fabris, 1986, p.34.

[14] Homo Sapientissimus III.

[15] A respeito, a leitura do Capítulo 3 – O problema de indução em Hume de O algoritmo Mestre é bem ilustrativo: “Esse é o problema do machine learning: generalizar em casos que nunca vimos.” DOMINGOS, Pedro. O algoritmo mestre. São Paulo: Novatec, 2017, p. 81 e seguintes.

[16] No âmbito da Programação Orientada a Objetos (OOP), as features são as características fenotípicas, diga-se assim, alteráveis de objeto para objeto, sem que o objeto altere sua classe/natureza.

[17] LUHMANN, Niklas. Sistemas sociales. Lineamientos para uma teoria general. Trad. Silvia Pappe y Brunhilde Erker. Rubí (Barcelona): Anthropos, 1998, p. 27: Luhmann subdivide os sistemas sociais em interacciones, organizaciones e  sociedades.  

[18] LATOUR, Bruno. Reagregando o social. Uma introdução à teoria ator-rede. Salvador: Eduíba, 2012; Bauru: Edusc, 2012, p. 87: “São apenas formas diferentes de induzir os atores a fazer coisas  [...]“. O sistema interação, tomado como um actante, sem dúvida tem essa capacidade de indução do ator humano a fazer coisas que, solipsisticamente, não faria.

[19] Homo Sapientissimus III.

[20] Segundo Luhmann, a diferenciação permite, via especialização, a ampliação da capacidade de lidar com a complexidade. “Ogni sistema deve infatti affermarsi nei confronti della schiacciante complessità del proprio ambiente.” e “[...] È per questo que lo sviluppo di un sistema mediante defferenziazione può essere descritto anche come [...] un incremento simultaneo, dunque, della dipendenza e dell´indipendenza.” Trad. Livre: “Cada sistema deve, realmente, afirmar-se contra a esmagadora (devastadora) complexidade do próprio ambiente.” e “É por isso que o desenvolvimento de um sistema mediante diferenciação pode ser descrito também como [...] um aumento simultâneo, portanto, da dependência e da independência.” [grifei na tradução] LUHMANN, Niklas. Sistemi sociali. Fondamenti di uma teoria generale. Trad. para o italiano de Alberto Febrajjo e Reinhard Schmidt. Introdução à edição italiana de Alberto Febbrajjo. Bologna: Società editrice il Mulino,  1990, p. 312.  

[21] Homo Sapientíssimus III.

[22] DAVID, Aurel. La cybernètique et l´humain. France: Gallimard, 1965, p. 181 : “La coincidence digne de remarque vient du fait que Platon a donné à ce terme [cibernética] son sens actuel d´une pure technique asservie.” [expliquei, grifei] Trad. Livre : “É digno de salientar-se ter Platão dado a esta palavra [cibernética] o sentido atual de técnica regulada/escravizada.”