Ilustração da
revista JusNavigandi
O dilema da transparência:
uma análise da Resolução 615/CNJ à luz da teoria do homo Sapientissimus.
S. Tavares-Pereira[1]
Resumo
O presente artigo investiga a tensão fundamental entre as
exigências normativas de transparência e explicabilidade no uso da Inteligência
Artificial (IA) pelo Poder Judiciário — consubstanciadas na Resolução 615 do
Conselho Nacional de Justiça (CNJ) — e a realidade técnica dos Grandes Modelos
de Linguagem (LLMs). A partir do conceito de Homo Sapientissimus,
propõe-se uma análise da incompatibilidade entre a lógica formal aristotélica e
a cognição algorítmica, estatística e simbólica. O estudo aponta a aporia da
norma regulatória que, ao tentar dispor sobre transparência e uso de
"caixa-preta" (IAgen), oscila entre a exigência de publicidade e a
discricionariedade judicial. Utilizando aportes teóricos dos sociólogos Luhmann
e Latour e do ciberneticista Aurel David, sugere-se que a solução para a
segurança jurídica não reside na "abertura do código", nem na
expressão da cognição algorítmica em termos de lógica formal, mas no
"esquema de generalização" controlado: o treinamento da IA com
a base de dados do próprio magistrado (fine-tuning), o que leva o
algoritmo a atuar como um "aprendiz" alinhado, ética e juridicamente,
ao julgador (“para cada juiz um aprendiz”).
Palavras-chave:
Inteligência Artificial Jurídica (IAJ); Resolução 615/CNJ;
Transparência algorítmica; Homo Sapientissimus; Lógica algorítmica.
Introdução: "Mehr Licht!" e a opacidade algorítmica.
"Mehr Licht!" (Mais luz!), a famosa frase
atribuída a Goethe em seu leito de morte (1832), parece ecoar, atualmente, nos
meios jurídico-acadêmicos, como um imperativo: “transparência, mais
transparência!”. Das normas aos discursos, sempre que se trata do uso da
Inteligência Artificial Generativa (IAgen) pelo Poder Judiciário, essa demanda
vem à tona.
As lucubrações sobre o Homo Sapientissimus[2],
referentes ao tipo de lógica cognitiva algorítmica, trazidas em artigos
anteriores, ajudam a explicar a opacidade de nossas lentes habituais que,
muitas vezes, foram iludidas por fundamentações silogísticas vestidas de uma
infalibilidade não provada. A compreensão dessa nova cognição ajuda a alinhavar
uma resposta à ubíqua questão da transparência.
No cenário jurídico brasileiro, a Resolução 615 do CNJ[3],
louvável sob variados aspectos (veja-se a guinada que, a respeito, está dando a
União Europeia[4]), surge
como uma tentativa de regular o avanço mediante o uso da inteligência
artificial e não com sua rejeição.
Atente-se, entretanto, que ao tempo em que autoriza a IA
generativa no processo judicial, o ato normativo tenta, simultaneamente, impor
requisitos de explicabilidade/transparência que a própria tecnologia, em seu
estado da arte, talvez não possa oferecer integralmente em moldes humanos. Este
artigo explora a incompatibilidade de fundo entre as exigências de
transparência e a realidade de uma cognição puramente simbólica. Argumenta-se
que o conhecimento mais profundo dessa nova lógica pode, paradoxalmente, abrandar
as exigências de transparência total, deslocando o foco do "como a máquina
pensou" para "como a máquina foi treinada para pensar".
1. A Resolução 615/CNJ e a aporia da transparência.
À luz dos paradigmas clássicos, a regulação do uso de IA no
Judiciário brasileiro enfrenta um obstáculo epistemológico intransponível. A
Resolução 615/CNJ, ao tratar da transparência, palavra que ocorre 27 vezes ao
longo do texto, parece reconhecer tacitamente, sem confessar, a impossibilidade
técnica de devassar o funcionamento interno das redes neurais profundas (Deep
Learning).
Há, de fato, no texto normativo, uma ambiguidade
orientativa. Por um lado, exige-se transparência, auditabilidade (aparece 5
vezes no texto) e explicabilidade (aparece 6 vezes no texto. Com a restrição do
uso da IA generativa ao papel de "suporte" ou "auxílio" às
atividades de decisão (art. 19[5]),
a norma faz uma primeira tentativa para contornar o chamado “problema da
caixa-preta" (black box), reduzindo o peso decisório formal da
máquina e deslocando a responsabilidade integralmente para o humano.
Sob outra ótica, essa mesma regulação traz uma contradição
imanente. A norma oscila entre a obrigatoriedade objetiva da transparência e
uma espécie de faculdade jurisdicional individual: cabe ao julgador
decidir o quantum de informação a ser revelada aos jurisdicionados, num
espectro que pode ir da opacidade total à descrição detalhada do uso da
ferramenta.[6]
Ao permitir que (i) a confiabilidade do resultado
dependa subjetivamente da supervisão do magistrado e (ii) a extensão
dessa transparência varie conforme a vontade do julgador, flerta-se
perigosamente com a insegurança jurídica. Se a transparência é um pressuposto
inegociável do devido processo legal, ela não pode ser discricionária. Deixar
que cada juiz delimite as fronteiras da opacidade algorítmica não se compadece
com a garantia constitucional de fundamentação das decisões, nem com o
princípio democrático maior da igualdade perante a lei.
Cabe, ademais, uma reflexão adicional, porque a norma exige
o que a técnica nega e, para resolver o impasse, delega ao humano a
responsabilidade de "validar" o inexplicável: existirá, de fato, uma
barreira segura decorrente da mera limitação do uso ao "suporte/apoio"?
Haverá ética e instrumentos de auditoria eficazes para conter a sedução
algorítmica?
É imperioso recordar que a IA generativa oferecerá
silogismos de fundamentação esteticamente superiores e, muitas vezes, mais
consistentes que os produzidos pela média dos humanos. Frutos de alucinação? As
ferramentas evoluíram muito neste quesito. Aprenderam até a apelar para a
semântica para se autopoliciar.[7]
O que garante muito pouco porque elas
continuam a operar no nível sintático apenas. Falam chinês com perfeição,
embora não entendam o que estão falando, diria o filósofo John Searle, na
genial analogia do quarto chinês.[8]
A equivalência semântica de dois termos,
apontada pela constatação da entropia semântica, não implica o alcance do
significado.[9]
As bases de dados jurídicas continuam "altamente
alucinógenas", como de fato precisam ser. O alcance de uma Inteligência
Artificial Jurídica (IAJ), multifacetada, não unificante (plural) e compatível
com as exigências democráticas do sistema de decisão judicial, depende muito da
governança relacionada ao aprendizado algorítmico. Se não houver um manejo
adequado no treinamento dos modelos, restringindo o escopo do qual o algoritmo
se abebera, na base e não no topo, as inferências estatísticas podem conduzir a
decisão (a cognição algorítmica) para veredas não desejadas pelo julgador. Como
sugere Pedro Domingos, ao tratar do segredo do machine learning e da indução, “Não
estamos preocupados com todos os mundos possíveis [com todos os entendimentos
possíveis e existentes], só com este no qual vivemos [este gabinete e este
magistrado].”[10]
[expliquei] Do contrário, persuadido pelo silogismo que antecede a proposta de
decisão, belo e convincente como só máquinas conseguem fazer, magistrados
assinarão. Corrigir o que, diante da inatacável fundamentação? O controle do
fluxo algorítmico tem de começar pelo treinamento adequado e limitado na base,
para ser democrático.
A recente filosofia da inteligência artificial agêntica,
tomada em nível bem abstrato, é a expressão desse pensamento. Trata-se de uma extrapolação
criativa das lições antigas da engenharia de software: para cada atividade, uma
função/rotina, um método. A IA dos agentes leva a antiga “modularidade e
decomposição funcional”, de rotinas fixas e absolutamente determinísticas, ao
uso de entidades (agentes) que, agora, decidem e agem por conta própria. Em
termos, claro, porque ferramenta é sempre ferramenta. No tocante ao “agir por
conta própria”, essa característica interessa pouco ao Direito (para não dizer nada!)
na linha de decisão. Mas é por ela, devidamente matizada, que se
pode chegar a uma inteligência artificial para o jurídico (IAJ).
A segurança jurídica aceitável tem de nascer de um
pressuposto inafastável: para cada juiz, um aprendiz![11]
O modelo, tendo aprendido com a base do magistrado apoiado, restringir-se-á a
analisar os novos processos com a ótica e o esquema de valoração que ele aplica.[12]
Além disso, o pressuposto democrático da pluralidade continuará garantido,
deixando que o sistema processual, institucionalizado, apure, das muitas visões
da base, a que deve prevalecer. Evita-se, assim, a imposição de visões únicas
geradas por "centrais de comando" circunstanciais (controle top
down, não democrático). O arco down-up-down, operado sistemicamente,
é o que é capaz de promover a oxigenação continuada e pluralista do todo
(retroalimentação cibernética).
A resposta às demandas de transparência pode passar por esse
"enquadramento do algoritmo" aos horizontes do magistrado assistido.
As fundamentações, frutos (i) da consideração de normas e fatos à luz da
lógica hermenêutica e (ii) do esquema de valoração do magistrado em
casos anteriores (seu dataset), serão fiéis ao passado dele. Nisso as
novas técnicas de RAG (Retrieval-Augmented Generation), fine-tuning
etc., avançaram muito. A resposta mais eficaz à ânsia por transparência pode
vir por essa técnica de manejo.
2. O abismo cognitivo: da lógica aristotélica à probabilidade vetorial.
Para compreender a profundidade do desafio, é necessário
dissecar a natureza da cognição que agora chega aos tribunais.
A tradição jurídica ocidental é herdeira direta da lógica
formal aristotélica, estruturada sobre premissas, conclusões e a busca
incessante pelo significado. Kelsen e sua definição de norma jurídica exprimem
bem o fenômeno. Norma é o significado da proposição legislativa: “ [...] mais
corretamente diz-se: a norma é um sentido, em vez de: a norma tem um sentido.”[13]
[grifei]. Cabe ao julgador fixar, como raiz de seu silogismo, um sentido
do texto legislativo. Arremete-se, assim, diretamente ao âmbito semântico.
A Inteligência Artificial Generativa, contudo, habita um
universo ontologicamente distinto.
A inteligência artificial [...] não partilha dessa base
existencial. Os Large Language Models (LLMs), por exemplo, não 'compreendem'
textos como nós. Eles não formam conceitos abstratos no sentido humano, nem
buscam significados intrínsecos. Sua 'lógica' é de outra natureza: matemática,
estatística e probabilística.[14]
Para o algoritmo, uma sentença judicial não é um ato de
justiça, mas a geração de um corpo textual que possui a maior probabilidade
estatística de ocorrer na sequência dos antecedentes. Trata-se de uma função
algorítmica aplicada. Estabelece-se, aqui, um sofisticado esquema de
generalização.[15]
Enquanto o jurista opera predominantemente pela dedução (aplicando a norma ao
fato), a IA opera por uma indução massiva.
Essa distinção é crucial. A "caixa-preta" é uma
característica intrínseca da "forma de pensar" do algoritmo. Assim
como a física quântica exigiu novas lógicas para o micromundo, a IA exige que
aceitemos uma "lógica algorítmica". Exigir que a IA explique seu
raciocínio em termos silogísticos causais é um erro categorial. Tentar traduzir
a complexidade de bilhões de parâmetros, ajustados matematicamente, em um
arcabouço silogístico simples de "motivação" parece ser um exercício
de redução que beira a ficção.
Não obstante, anteceder o resultado com uma fundamentação
trazida do aprendizado, alterada em suas features[16]
para os dados do processo em exame, pode
atender aos reclames de transparência, porque gerada sobre um escopo limitado,
do julgador, como proposto acima. A própria fundamentação, abstratamente
tomada, entra no "esquema de generalização".
3. Homo Sapientissimus: a simbiose entre o saber e a ética humanos e a eficiência
simbólica. Suporte automatizado ao
suporte.
“La coincidence digne de remarque vient du fait
que Platon a donné à ce terme [cibernética] son sens actuel d´une pure technique asservie.” (Aurel David)
Diante da impossibilidade de forçar a
"caixa-preta" a falar a língua dos homens, surge a necessidade de uma
nova categoria ontológica para o decisor jurídico. O conceito de Homo
Sapientissimus não se refere a uma substituição do humano pela máquina, muito
menos do surgimento de um novo ente biológico, mas à emergência de uma cognição
híbrida, uma espécie de emaranhamento entre a cognição humana e a algorítmica. A
dicotomia entre símbolos e significados é o coração dessa nova entidade: um
sistema social – o mais simples deles! - que Luhmann denomina de interação[17],
produtor de resultados, em que cada partícipe (homem e máquina) entra com suas
potencialidades e limitações. Latour
chamaria este sistema de actante (um homem e sua tecnologia).[18]
Para o jurista humano, o símbolo é um portal para um universo de significados
vivenciais e axiológicos. Nossa cognição é uma dança entre forma e conteúdo. Já
a IA opera em um plano de eficácia simbólica pura e pode, treinada sobre os
dados certos (e limitados), jogar na interação sua inigualável
capacidade de análise e velocidade. O resultado produzido por esse sistema
conjuga humanidade e algoritmicidade.
Para um Large Language Model, as palavras são tokens, sequências de caracteres que são convertidas em representações numéricas (vetores). [...] A IA não “sabe” o que é uma “árvore” [ou um “crime”] no sentido de tê-la visto, tocado ou compreendido [...]. O que ela “sabe” é a probabilidade estatística de que o token [...] apareça perto de [...] outros em seu gigantesco conjunto de treinamento.[19]
Essa manipulação "cega" de símbolos, desprovida de
alma, é paradoxalmente o que permite à IA sua velocidade e amplitude
sobre-humanas. O Homo Sapientissimus nasce quando o magistrado, ciente
dessas limitações da máquina, inclusive éticas, apropria-se da potência
operacional que ela oferece na interação. Isso agudiza as exigências de
ética postas ao subsistema humano, algo que o fine-tuning ameniza muito.
Assessores (prestadores de suporte) humanos, em seu trabalho, comprometem-se,
queiram ou não, com o “olhar ético” do magistrado auxiliado, além do
técnico-valorativo. A interação humano x humano amplia os poderes do
magistrado, sabe-se bem, mas ambos operam sob a mesma lógica cognitiva e
idênticas limitações ontológicas. Já o sistema híbrido, humano x algoritmo/IA,
permite um ganho sistêmico expressivo justamente pela diferenciação[20]:
funde-se a noção ética e o saber jurídico do julgador com a agilidade e
amplitude analítica do algoritmo, criando uma unidade comunicacional (um
sistema) de potência inédita.
Trata-se de uma simbiose onde a
mente humana natural - lenta, porém criativa, perceptiva e com ética particular
- entrelaça-se com a mente algorítmica - veloz, porém carente de significados.
A era do Homo Sapientissimus não é apenas sobre ter ferramentas mais potentes; é sobre [...] uma simbiose em que a mente humana natural [...] se entrelaça (se emaranha) com a mente algorítmica, inigualável em sua capacidade de processar dados e identificar correlações.[21]
Nesse contexto, a transparência exigida pela Resolução
615/CNJ deve ser reinterpretada. Se a "caixa-preta" não nos permite
ver o processo de pensamento da máquina (o "como"), ela nos oferece
resultados (os "quês") que podem ser validados pela expertise humana.
O magistrado torna-se o curador da lógica algorítmica, não porque confira tudo
(o que deverá fazer, sempre, segundo a letra da lei), mas porque o algoritmo
foi treinado para afinar sua ação à ação do julgador assistido. A IA funciona
como uma "turbina intelectual" autocontrolada[22]
que, conforme a visionária observação do ciberneticista Aurel David, posta na
epígrafe deste item, é capaz de navegar oceanos processuais com as cartas de
navegação definidas pelo magistrado. Isso abre espaço para se pensar, adicionalmente,
no “suporte automatizado ao suporte”: a garantia da coerência.
Aceitar o Homo Sapientissimus implica aceitar que
parte da nossa cognição jurídica passará a operar por vias não-humanas. O
desafio não é tornar a IA humana (transparente e silogística), mas integrar sua
lógica probabilística à nossa responsabilidade ética e ao nosso saber jurídico,
garantindo que a bússola moral e as cartas de navegação surjam de mãos
biológicas, enquanto o trabalho braçal da lógica simbólica é terceirizado para
o silício.
Considerações Finais.
A Resolução 615/CNJ representa um marco regulatório
necessário, mas a sua eficácia real dependerá de uma interpretação que
transcenda o fetichismo da transparência algorítmica total. Exigir que a
máquina explique seus processos como um humano explicaria suas motivações é
ignorar a ontologia da nova inteligência que se apresenta.
O caminho para um Judiciário eficiente e seguro na era da IA
não passa pela rejeição da "caixa-preta", mas pela sua domesticação por
meio da personalização. O Homo Sapientissimus é a resposta evolutiva: um
sistema onde a alucinação criativa da máquina é contida pelas balizas éticas e
histórico-jurídicas impostas ao "algoritmo aprendiz de um juiz" (Para
cada juiz, um aprendiz!).
Ao invés de temermos a opacidade do pensamento vetorial,
devemos focar na consistência do resultado jurídico. Se a IA, devidamente
treinada no dataset do magistrado, produz uma decisão que reflete, com a
desejada acurácia, os valores e a técnica daquele juiz (cognição particular), a
transparência se realiza não pela dissecação do código, mas pela coerência da
justiça entregue. Neste início do século XXI, o Mehr Licht! de Goethe,
agora reclamado pelo processo – mais transparência! -, talvez não
venha de ver por meio da máquina, mas de ver com a máquina, sob a guia
firme da consciência humana.
Referências Bibliográficas
BRASIL. Resolução CNJ n. 615, de 11 de março de 2025. Estabelece
diretrizes para o desenvolvimento, utilização e governança de soluções
desenvolvidas com recursos de inteligência artificial no Poder Judiciário. Disponível em: https://atos.cnj.jus.br/files/original1555302025031467d4517244566.pdf.
Acesso em: 27 mar. 2025.
BRUXELAS APRESENTA revolução digital para tribunais da União
Europeia. Disponível em: https://eco.sapo.pt/2025/11/20/bruxelas-apresenta-revolucao-digital-para-tribunais-da-uniao-europeia/.
Acesso em: 20 nov. 2025. “A Estratégia DigitalJustice@2030 estabelece 14
medidas concretas destinadas a ajudar os Estados-membros.”
DAVID, Aurel. La
cybernètique et l´humain. France: Gallimard, 1965.
DOMINGOS, Pedro. O algoritmo mestre. São Paulo:
Novatec, 2017. 341p.
FARQUHAR, S., KOSSEN, J., KUHN, L. et al. Detecting hallucinations in large
language models using semantic entropy. Nature 630, 625–630
(2024). Disponível em: <https://doi.org/10.1038/s41586-024-07421-0>.
Acesso em: 10 ago. 2025.
Homo Sapientissimus III: The Logic Beyond Logic. Disponível
em: https://medium.com/@stavarespereira/homo-sapientissimus-iii-the-logic-beyond-logic-the-unthinkable-dialogue-with-the-algorithmic-fcab161203a8.
Acesso em: 19 nov. 2025.
KELSEN, Hans. Teoria geral das normas. Tradução de José Florentino Duarte. Porto Alegre: Fabris, 1986.
LATOUR, Bruno. Reagregando o social. Uma introdução à
teoria ator-rede. Salvador: Eduíba, 2012; Bauru: Edusc, 2012.
LUHMANN, Niklas. Introdução à teoria dos sistemas. Trad. De Ana Cristina Arantes. 2. Ed.
Petrópolis: Vozes, 2010.
LUHMANN, Niklas. Sistemi
sociali. Fondamenti di uma teoria generale. Trad. para o italiano de
Alberto Febrajjo e Reinhard Schmidt. Introdução à edição italiana de Alberto
Febbrajo. Bologna: Società editrice il Mulino,
1990.
LUHMANN, Niklas. Sistemas sociales. Lineamientos para
uma teoria general. Trad. Silvia Pappe y Brunhilde Erker. Rubí (Barcelona):
Anthropos, 1998.
TAVARES-PEREIRA, S. IAgen sem alucinação: segurança no
processo judicial. Disponível em: https://www.rbiad.com.br/index.php/rbiad/article/view/141/143.
Acesso em: 15 nov. 2025.
TAVARES-PEREIRA, S. Machine learning nas decisões. O
uso jurídico dos algoritmos aprendizes. Florianópolis: Artesam. 2021.
[1] Msc em
Ciência Jurídica, doutorando em Direito (Atitus/FDV), magistrado do trabalho
aposentado, autor de Machine learning nas decisões. O uso jurídico dos
algoritmos aprendizes.
[2] Conceito
trabalhado numa série de artigos em andamento e publicada em Medium: Homo Sapientissimus
I, II e III. Neste artigo, trabalho especialmente com Homo
Sapientissimus III: The Logic Beyond Logic. Disponível em: https://medium.com/@stavarespereira/homo-sapientissimus-iii-the-logic-beyond-logic-the-unthinkable-dialogue-with-the-algorithmic-fcab161203a8.
Acesso em: 19 nov. 2025. O objetivo, ao final da série, é
alcançar um esboço teórico-sistêmico sob luzes luhmannianas.
[3] BRASIL.
Resolução CNJ n. 615, de 11 de março de 2025. Estabelece diretrizes para o
desenvolvimento, utilização e governança de soluções desenvolvidas com recursos
de inteligência artificial no Poder Judiciário. Disponível em: https://atos.cnj.jus.br/files/original1555302025031467d4517244566.pdf.
Acesso em: 27 mar. 2025.
[4] BRUXELAS
APRESENTA revolução digital para tribunais da União Europeia. Disponível em:
https://eco.sapo.pt/2025/11/20/bruxelas-apresenta-revolucao-digital-para-tribunais-da-uniao-europeia/.
Acesso em: 20 nov. 2025. “A Estratégia DigitalJustice@2030 estabelece 14
medidas concretas destinadas a ajudar os Estados-membros.”
[5] “Art. 19 - Os modelos de linguagem de larga
escala (LLMs), de pequena escala (SLMS) e outros sistemas de inteligência
artificial generativa (IAGen) disponíveis na rede mundial de computadores
poderão ser utilizados pelos magistrados e pelos servidores do Poder Judiciário
em suas respectivas atividades como ferramentas de auxílio à gestão ou de
apoio à decisão, em obediência aos padrões de segurança da informação e às
normas desta Resolução.” [grifei]
[6] BRASIL.
Resolução CNJ n. 615...: “Art. 19, §6º. Quando
houver emprego de IA generativa para auxílio à redação de ato judicial, tal
situação poderá ser mencionada no corpo da decisão, a critério do
magistrado, sendo, porém, devido o registro automático no sistema interno
do tribunal, para fins de produção de estatísticas, monitoramento e eventuais
auditorias.” Ou seja, embora o registro interno seja obrigatório para fins administrativos,
ele é facultativo sob a ótica dos direitos fundamentais, em relação aos
destinatários da decisão.
[7] FARQUHAR, S., KOSSEN, J., KUHN, L. et
al. Detecting
hallucinations in large language models using semantic entropy. Nature 630,
625–630 (2024). Disponível em: <https://doi.org/10.1038/s41586-024-07421-0>.
Acesso em: 10 ago. 2025.
[8]
TAVARES-PEREIRA, S. Machine learning nas decisões. O uso jurídico dos
algoritmos aprendizes. Florianópolis: Artesam. 2021, p. 721.
[9] TAVARES-PEREIRA,
S. IAgen sem alucinação: segurança no processo judicial. Disponível em: https://www.rbiad.com.br/index.php/rbiad/article/view/141/143.
Acesso em: 15 nov. 2025.
[10]
DOMINGOS, Pedro. O algoritmo mestre. São Paulo: Novatec, 2017. p. 87.
[11] TAVARES-PEREIRA,
S. Machine learning nas decisões. O uso jurídico dos algoritmos
aprendizes. Florianópolis: Artesam. 2021, p. 706: “Um aprendiz, ao lado
de cada juiz, como observador de segunda ordem, permitirá a absorção da forma
de observar a ser adotada quando postado na posição de primeira ordem. Bem
se vê, isso não depende de qualquer intervenção em sua especificação técnica [...] Uma restrição no nível dos dados é
suficiente.” Artigo de 2018, com esta proposta/observação, transformou-se no
capítulo 18 desta obra de 2021.
[12] Teoria
do observador: LUHMANN, Niklas. Introdução à teoria dos sistemas. Trad. De Ana Cristina Arantes. 2. Ed.
Petrópolis: Vozes, 2010. p. 152 e seguintes.
[13] KELSEN, Hans. Teoria geral das normas.
Tradução de José Florentino Duarte. Porto Alegre: Fabris, 1986, p.34.
[14] Homo
Sapientissimus III.
[15] A
respeito, a leitura do Capítulo 3 – O problema de indução em Hume de O
algoritmo Mestre é bem ilustrativo: “Esse é o problema do machine learning:
generalizar em casos que nunca vimos.” DOMINGOS, Pedro. O algoritmo
mestre. São Paulo: Novatec, 2017, p. 81 e seguintes.
[16] No
âmbito da Programação Orientada a Objetos (OOP), as features são as características
fenotípicas, diga-se assim, alteráveis de objeto para objeto, sem que o
objeto altere sua classe/natureza.
[17] LUHMANN,
Niklas. Sistemas sociales. Lineamientos para uma teoria general. Trad.
Silvia Pappe y Brunhilde Erker. Rubí (Barcelona): Anthropos, 1998, p. 27: Luhmann
subdivide os sistemas sociais em interacciones, organizaciones e sociedades.
[18] LATOUR,
Bruno. Reagregando o social. Uma introdução à teoria ator-rede.
Salvador: Eduíba, 2012; Bauru: Edusc, 2012, p. 87: “São apenas formas
diferentes de induzir os atores a fazer coisas [...]“. O sistema interação, tomado
como um actante, sem dúvida tem essa capacidade de indução do ator
humano a fazer coisas que, solipsisticamente, não faria.
[19] Homo
Sapientissimus III.
[20] Segundo
Luhmann, a diferenciação permite, via especialização, a ampliação da
capacidade de lidar com a complexidade. “Ogni sistema deve infatti affermarsi nei confronti della schiacciante
complessità del proprio ambiente.” e “[...] È per questo que lo sviluppo di un
sistema mediante defferenziazione può essere descritto anche come [...] un
incremento simultaneo, dunque, della dipendenza e dell´indipendenza.” Trad.
Livre: “Cada sistema deve,
realmente, afirmar-se contra a esmagadora (devastadora) complexidade do
próprio ambiente.” e “É por isso que o desenvolvimento de um
sistema mediante diferenciação pode ser descrito também como
[...] um aumento simultâneo, portanto, da dependência e da independência.”
[grifei na tradução] LUHMANN,
Niklas. Sistemi sociali. Fondamenti di uma teoria generale. Trad.
para o italiano de Alberto Febrajjo e Reinhard Schmidt. Introdução à edição
italiana de Alberto Febbrajjo. Bologna: Società editrice il Mulino, 1990, p. 312.
[21] Homo
Sapientíssimus III.
[22] DAVID, Aurel. La cybernètique et
l´humain. France: Gallimard, 1965, p. 181 : “La coincidence digne de
remarque vient du fait que Platon a donné à ce terme [cibernética] son sens
actuel d´une pure technique asservie.” [expliquei, grifei]
Trad. Livre : “É digno de salientar-se ter Platão dado a esta palavra
[cibernética] o sentido atual de técnica regulada/escravizada.”