domingo, 8 de dezembro de 2019

Aprisionamento tecnológico da Justiça?



Aprisionamento tecnológico da Justiça?

Falando de automatização de decisões com o uso da inteligência artificial, há  quem afirme que é preciso combater a opacidade dos julgamentos humanos. E que a IA, clássica ou de aprendizado automático,  pode ser o meio de se chegar a decisões não humanas (de máquina) e melhores.(1) 

Toda opacidade (intransparência? caixa preta?), inclusive a humana, não se compadece com o espírito constitucional previsto para o processo judicial. Será que a automatização das decisões nos afasta do indesejado ou nos faz mergulhar ainda mais no fosso escuro onde se escondem os pilares das decisões?

Lembro de um ministro que dizia que primeiro decidia e depois construía o silogismo de sustentação da decisão. Mas tinha de fazer esse esforço lógico-discursivo, embora as verdadeiras premissas, talvez, não viessem à tona, dado o descolamento metódico de chegada à conclusão. A construção do silogismo ao revés, de baixo para cima (da conclusão para as premissas), deixa pensar em descompromisso com os corretos e verdadeiros esteios da construção. 


Burla à constituição? Diz a constituição que todas as decisões têm de ser fundamentadas, ou, em outras palavras, o raciocínio conducente à sua expedição deve estar exposto e ter "alguma lógica". 
Todo esse _iter_ está sujeito ao reexame, seja pelo conteúdo (validade das premissas), seja pela logicidade do discurso. E, parece óbvio, o fundamentar passa pela exibição de toda a cadeia do raciocínio desenvolvido para construir a conclusão. A constituição não quer um fundamento qualquer: quer o raciocínio que levou o julgador à conclusão. Quer transparência.

Escamotear conscientemente as "verdadeiras razões" do decidir destrói a fundamentação, por mais lógica que seja e por mais eficiente que seja no convencimento dos destinatários da decisão.  Para Klaus Gunther, quando as verdadeiras razões cedem lugar a um conjunto de premissas válido mas que não corresponde ao realmente utilizado para gerar a conclusão do decisor, está-se diante de fraude. A juridicidade está posta de lado. 

Temos tido imensas demonstrações (às vezes chatérrimas) dessas fundamentações que desnudam inclusive os vieses e tornam-se, até por isso, atacáveis. Quando se abandona o dever de analisar o caso e fundamentar à luz do contexto, como nos julgamentos por "carrinhos de autos" (de antigamente, agora é lote), então os vieses se escondem numa névoa semelhante àquela que a caixa preta de um algoritmo aprendiz, por exemplo, ou pré-programado,  lança sobre as decisões automatizadas. Não tem lógica nenhuma no caso. Um algoritmo de aprendizado é apenas um papagaio repetidor do dizer majoritário constante das massas de dados de aprendizado. Os tecnólogos chamam tais visões majoritárias de padrões.   

O encaixe de um conjunto de antecedentes com um consequente esperado (e cujo alcance foi estabelecido, sob supervisão, e que pode ser antecipado pelo exame de uma matriz), pode parecer lógico. Mas é prisioneiro de uma causalidade inafastável e fechada (operativamente fechada, trivial =Foerster), como é toda máquina, encerrada num liame estrutural-operativo baseado na renuncia ao alargamento da análise e da contextualização. 

Não fosse assim, como pensar em termos preditivos, como está na moda de utilização dos novos ferramentais de IA? Pensa-se como se o passado pudesse conter (e contivesse de fato) toda a verdade do futuro e como se a emergência fosse uma invenção dos cientistas e não um fenômeno "surpresa" no caminho do real para a complexidade crescente. Nessa visão, há um ranço platônico de assunção da falsa verdade de que, em algum lugar, existe "o certo", bastando apenas encontrá-lo. 

O processo deve ser causalmente aberto, autopoiético (coisa que a _algoritmização_ mata na casca) e essa autopoiese se faz na fase de programação (não na de codificação) pelas mãos dos humanos intérpretes frente às condições de contexto (Gunther, analisando esse aspecto em Luhmann, fala em  perístases da situação). 

O Direito se faz, enquanto realidade estrutural-operativa (tecnologia social - Ferraz Jr.), por uma necessária reflexão do fato sobre o normativo, na construção (linguajar do kelsen) do sentido do texto legislativo a ser usado no deslinde do caso concreto. Então, precisamos usar bem a IA (algoritmos clássicos ou de aprendizado automático) para ajudar os juízes (sistemas psíquicos cognitivamente abertos) a fazer, de forma otimizada, o que só eles podem fazer. Não se trata de substituir mas de auxiliar para otimizar. É o que defendo em O Machine Learning e o máximo apoio ao juiz.

(1) 
VALENTINI, Rômulo. Mensagem no grupo Whatsapp do IDEIA – Instituto de Direito Eletrônico e Inteligência Artificial. Discussão de 4 set. 2018.  "[...] reexaminar as premissas da opacidade dos julgamentos humanos e repensar o modo institucional de prestação da jurisdição para que consigamos pensar em algo melhor do que o que está aí."  O autor defende a ideia de que a automatização das decisões pode proporcionar o "algo melhor".

Para referir este post: PEREIRA, S. Tavares. Disponível em: 
https://stavarespereira.blogspot.com/2019/12/enganar-se-com-ia-interessa-ao-poder.html. 

Nenhum comentário:

Postar um comentário