Mostrando postagens com marcador Machine learning. Mostrar todas as postagens
Mostrando postagens com marcador Machine learning. Mostrar todas as postagens

domingo, 20 de fevereiro de 2022

MACHINE LEARNING NAS DECISÕES: live de lançamento editada e indexada.


"Finalmente uma obra que fala de tecnologia para os juristas e de Direito para os tecnólogos! Sem excessos!" 

DISPONIBILIDADE DO LIVRO:
E-book na Amazon.com.br.
Livro físico: por enquanto, apenas na Amazon.com (vem dos EUA). 
A amatra12 ainda tem alguns exemplares físicos (5), impressos no Brasil, para o lançamento e os repassa pelo preço de custo/impressão. Interessados devem:
(1)  enviar PIX para a chave livro@stp.pro.br  de R$75,00 (custo de impressão - o livro tem 796 páginas) mais R$20,00 de correio (envio registrado para qualquer lugar do Brasil)==> total R$95,00;
(2) enviar nome e endereço completos para secretaria@amatra12.org.br com comprovante do PIX. 

LIVE DE LANÇAMENTO EM SEGMENTOS:

Agora está mais fácil de rever a live de lançamento.

Em pequenos vídeos (2,5 a 5 minutos cada), com edições, você pode rever partes específicas que lhe interessem.

Escolha o vídeo abaixo:

[VÍDEO 1: CONSIDERAÇÕES INICIAIS/PRIMEIRAS PROVOCAÇÕES] 3m54s 

Abertura/considerações iniciais. Nelas, falo das diferenças entre as áreas técnicas e jurídica. E as dificuldades de substituir com equivalência sistemas psíquicos por algoritmos. Uma preocupação para os juristas e um desafio para os tecnólogos. Menciono: Estrutura, Lei do Fator Hermenêutico e axiomas e leis dos capítulos 13 e 14. 

[VÍDEO 2: O TÍTULO DO LIVRO! 4 IDEIAS BÁSICAS]: 3m20s 

Neste vídeo, falo das quatro categorias teórico-pragmáticas do título da obra: machine learning, decisão, uso jurídico e algoritmos aprendizes.  Juristas são tecnólogos do social, segundo Ferraz Jr.  Somos tecnólogos do social e podemos incorporar a tecnologia técnica para acelerar nossa própria tecnologia.

[VÍDEO 3: USO DO MACHINE LEARNING EM TODA A CADEIA PROCEDIMENTAL?]: 3m54s - Afinal, pode-se usar os aprendizes em toda a cadeia procedimental? (base, tribunais regionais, tribunais federais, STF?).  

[VÍDEO 4: UM DOS GRANDES DESAFIOS DA PRODUÇÃO DO LIVRO!]: 2m30s - Falo do que considero o maior desafio para a produção do livro: falar para os dois públicos, juristas e tecnólogos. Manter a exposição num nível adequado para transmitir ao leitor os saberes da outra área que são relevantes para orientar-se na execução do seu trabalho de construção do e-processo. Há quem pense que ele está terminado. Mas o e-processo está longe de terminar. 

[VÍDEO 5: PENSAMENTO JURÍDICO-TECNOLÓGICO]: 5m20s - Justecnólogo e tecnojuristas, os profissionais que serão capazes de nos levar ao e-processo, este produto híbrido, técnico-jurídico, este amálgama das duas tecnologias: a jurídica e a técnica.  Juristas precisam desenvolver a competência do PENSAR DIGITAL e os tecnólogos a competência do PENSAR JURÍDICO. 

[VÍDEO 6: COISAS QUE FACILITAM O DIÁLOGO DE JURÍSTAS E TECNÓLOGOS]: 3m27s - Afinal, o que me levou a escrever o livro? Anos de acompanhamento dos embates de juristas e tecnólogos, no esforço de construção do e-processo, demonstraram que era importante facilitar o diálogo desses dois profissionais sem os quais não é possível construir processo eletrônico capaz de responder às demandas da sociedade atual.   

[VÍDEO 7: RISCOS DAS CENTRAIS DE DECISÃO]: 5m33s - Até onde a tecnologia técnica pode avançar no processo para ajudar os tecnólogos do social? Centrais decisórias, tocadas por algoritmos, podem representar riscos para valores democráticos e jurídicos?  

EM BREVE, NOVOS VÍDEOS SERÃO DISPONIBILIZADOS:

[ASSISTIR VÍDEO 8!]: 0m0s - em produção. 

[ASSISTIR VÍDEO 9!]0m0s - em produção. 

[ASSISTIR VÍDEO 10!]0m0s - em produção. 


quinta-feira, 25 de novembro de 2021

Machine learning nas decisões: meu novo livro.


Está no prelo (virtual e físico) meu livro Machine learning nas decisões. O uso jurídico dos algoritmos aprendizes. Estará disponível na Amazon em alguns dias.

Sem excessos técnicos, jurídicos ou tecnológicos (especialmente matemáticos),  tento conversar com juristas e tecnólogos e dar uma pequena contribuição para (i) facilitar o diálogo interdisciplinar dos envolvidos na construção de um processo eletrônico com o melhor das atuais tecnologias e (ii) apontar caminhos para, sem violar a Constituição e a lei, incorporar a inteligência artificial (IA) do aprendizado de máquina (machine learning) ao sistema eletrônico-processual,

O uso da IA nas decisões pode ajudar a vencer o conhecido gargalo do processo eletrônico?  No trajeto para uma resposta, em 18 capítulos, após um esforço de ambientação semântica e pragmática, trato do necessário para entender, de maneira fundamentada, o que significa entregar decisões a algoritmos: estrutura, algoritmos, modelos, inteligência artificial - machine learning, redes neurais, função/variância/tendenciosidade. Busco sempre conectar a exposição com a teoria e a prática jurídicas.   

A partir do capítulo 12, postos os fundamentos, trago diretrizes práticas para nortear o esforço de automatizar decisões. Chamo tais diretrizes de axiomas e leis: axioma da substituição, axioma do monojuízo, lei da variância, lei da tendenciosidade, lei da compatibilidade e lei do fator hermenêutico. Finalizo a obra com uma sugestão aos tecnólogos (capítulo 18). 

Anexos trazem noções complementares: argumento do quarto chinês, de John R. Searle; interpenetração - de Parsons/Luhmann; o modelo GPT-3 da OpenAI e métodos e modelos dos sistemas sociais.

Orgulho-me de ter como prefaciador o professor doutor Aires J. Rover, notório vanguardista da área de IA e assíduo incentivador dos programas interdisciplinares de Direito e Engenharia e Gestão do Conhecimento da UFSC. 

domingo, 8 de dezembro de 2019

Aprisionamento tecnológico da Justiça?



Aprisionamento tecnológico da Justiça?

Falando de automatização de decisões com o uso da inteligência artificial, há  quem afirme que é preciso combater a opacidade dos julgamentos humanos. E que a IA, clássica ou de aprendizado automático,  pode ser o meio de se chegar a decisões não humanas (de máquina) e melhores.(1) 

Toda opacidade (intransparência? caixa preta?), inclusive a humana, não se compadece com o espírito constitucional previsto para o processo judicial. Será que a automatização das decisões nos afasta do indesejado ou nos faz mergulhar ainda mais no fosso escuro onde se escondem os pilares das decisões?

Lembro de um ministro que dizia que primeiro decidia e depois construía o silogismo de sustentação da decisão. Mas tinha de fazer esse esforço lógico-discursivo, embora as verdadeiras premissas, talvez, não viessem à tona, dado o descolamento metódico de chegada à conclusão. A construção do silogismo ao revés, de baixo para cima (da conclusão para as premissas), deixa pensar em descompromisso com os corretos e verdadeiros esteios da construção. 


Burla à constituição? Diz a constituição que todas as decisões têm de ser fundamentadas, ou, em outras palavras, o raciocínio conducente à sua expedição deve estar exposto e ter "alguma lógica". 
Todo esse _iter_ está sujeito ao reexame, seja pelo conteúdo (validade das premissas), seja pela logicidade do discurso. E, parece óbvio, o fundamentar passa pela exibição de toda a cadeia do raciocínio desenvolvido para construir a conclusão. A constituição não quer um fundamento qualquer: quer o raciocínio que levou o julgador à conclusão. Quer transparência.

Escamotear conscientemente as "verdadeiras razões" do decidir destrói a fundamentação, por mais lógica que seja e por mais eficiente que seja no convencimento dos destinatários da decisão.  Para Klaus Gunther, quando as verdadeiras razões cedem lugar a um conjunto de premissas válido mas que não corresponde ao realmente utilizado para gerar a conclusão do decisor, está-se diante de fraude. A juridicidade está posta de lado. 

Temos tido imensas demonstrações (às vezes chatérrimas) dessas fundamentações que desnudam inclusive os vieses e tornam-se, até por isso, atacáveis. Quando se abandona o dever de analisar o caso e fundamentar à luz do contexto, como nos julgamentos por "carrinhos de autos" (de antigamente, agora é lote), então os vieses se escondem numa névoa semelhante àquela que a caixa preta de um algoritmo aprendiz, por exemplo, ou pré-programado,  lança sobre as decisões automatizadas. Não tem lógica nenhuma no caso. Um algoritmo de aprendizado é apenas um papagaio repetidor do dizer majoritário constante das massas de dados de aprendizado. Os tecnólogos chamam tais visões majoritárias de padrões.   

O encaixe de um conjunto de antecedentes com um consequente esperado (e cujo alcance foi estabelecido, sob supervisão, e que pode ser antecipado pelo exame de uma matriz), pode parecer lógico. Mas é prisioneiro de uma causalidade inafastável e fechada (operativamente fechada, trivial =Foerster), como é toda máquina, encerrada num liame estrutural-operativo baseado na renuncia ao alargamento da análise e da contextualização. 

Não fosse assim, como pensar em termos preditivos, como está na moda de utilização dos novos ferramentais de IA? Pensa-se como se o passado pudesse conter (e contivesse de fato) toda a verdade do futuro e como se a emergência fosse uma invenção dos cientistas e não um fenômeno "surpresa" no caminho do real para a complexidade crescente. Nessa visão, há um ranço platônico de assunção da falsa verdade de que, em algum lugar, existe "o certo", bastando apenas encontrá-lo. 

O processo deve ser causalmente aberto, autopoiético (coisa que a _algoritmização_ mata na casca) e essa autopoiese se faz na fase de programação (não na de codificação) pelas mãos dos humanos intérpretes frente às condições de contexto (Gunther, analisando esse aspecto em Luhmann, fala em  perístases da situação). 

O Direito se faz, enquanto realidade estrutural-operativa (tecnologia social - Ferraz Jr.), por uma necessária reflexão do fato sobre o normativo, na construção (linguajar do kelsen) do sentido do texto legislativo a ser usado no deslinde do caso concreto. Então, precisamos usar bem a IA (algoritmos clássicos ou de aprendizado automático) para ajudar os juízes (sistemas psíquicos cognitivamente abertos) a fazer, de forma otimizada, o que só eles podem fazer. Não se trata de substituir mas de auxiliar para otimizar. É o que defendo em O Machine Learning e o máximo apoio ao juiz.

(1) 
VALENTINI, Rômulo. Mensagem no grupo Whatsapp do IDEIA – Instituto de Direito Eletrônico e Inteligência Artificial. Discussão de 4 set. 2018.  "[...] reexaminar as premissas da opacidade dos julgamentos humanos e repensar o modo institucional de prestação da jurisdição para que consigamos pensar em algo melhor do que o que está aí."  O autor defende a ideia de que a automatização das decisões pode proporcionar o "algo melhor".

Para referir este post: PEREIRA, S. Tavares. Disponível em: 
https://stavarespereira.blogspot.com/2019/12/enganar-se-com-ia-interessa-ao-poder.html. 

quinta-feira, 6 de dezembro de 2018

Todo algoritmo tem viés. Exatamente como os humanos...



Podemos  dividir os algoritmos em clássicos ou tradicionais, feitos com as tecnologias tradicionais da engenharia de software, e de aprendizado (aprendizes). Há atividades que não são programáveis classicamente e que, nos últimos anos, têm sido abordadas pela técnica do machine learning. Dirigir um carro é uma atividade típica não programável. É necessário um algoritmo que, observando muitos motoristas dirigindo, aprenda com eles.

Falando em viés (tendências/preconceitos/desvios/preferência não razoável/preferência pessoal etc), é necessário dizer que nem um tipo de algoritmo, nem outro,  é "puro", no sentido de estar livre de vieses.  Algoritmos "puros", nesse sentido,  são uma  utopia.

Exatamente como os humanos têm suas diferentes visões de mundo (interpretações/preferências não razoáveis e pessoais/entendimentos), os algoritmos também os têm.  Sempre terão.

Num caso (tradicionais), estão impregnados diretamente dos vieses postos pelos humanos ao explicitarem as regras de negócio de que são feitos. Isso decorre diretamente do modus faciendi como  eu penso que explico no livro sobre os princípios do e-processo (1).

No outro (aprendizes), as vias de enviesamento são duas: ou são absorvidas diretamente dos big data utilizados para aprender (dos quais extraem seu buzilhão de regras de inferência - antecedentes e consequentes ) ou, ainda, são injetadas pelos supervisores de aprendizado (pela vida das ponderações paramétricas).

Nem mesmo os humanos aprendem "puramente". Todos aprendemos com vieses pois nossas estruturas operativas internas são construídas pelo aprendizado, fortemente condicionado pelas estruturas pré-existentes e pelo que recebemos do meio, na maior parte das vezes, sob supervisão.

Portanto, imaginar que os algoritmos, porque tecnológicos, são de alma branca e virgem, para mim é utopia pura.

De tudo isso, decorre uma consequência, a meu ver, extremamente relevante para o estabelecimento de formas de postar os algoritmos na cadeia procedimental do e-processo, por exemplo. A natureza distinta dos algoritmos os qualifica ou os desqualifica para o exercício/assunção de determinados papéis no processo. No artigo "O machine learning e o máximo apoio aos juízes" (2), sugiro se postem os algoritmos aprendizes, ao lado dos juízes,  como apoiadores e não como decisores.

----------------------------
(1) PEREIRA, S. Tavares.  Que é isto, a eNorma? Elementos para a teoria geral do eDireito. In: Princípios do processo em meio reticular-eletrônico:  fenomenologia, normatividade e aplicação prática. Cláudio Brandão (Org.) São Paulo: LTr, 2017. p. 23-52. Especificamente no item 3.1.

(2) 
PEREIRA, Sebastião Tavares. O machine learning e o máximo apoio ao juiz. Revista Democracia Digital e Governo Eletrônico, Florianópolis, v. 2, n. 18, p. 2-35, 2018.  Disponível em:  http://buscalegis.ufsc.br/revistas/index.php/observatoriodoegov/article/view/303. Acesso em: 6 dez. 2018.

sexta-feira, 3 de agosto de 2018

Juristas e tecnólogos: quem precisa entender quem?



Tenho recebido vários questionamentos a respeito do artigo O machine learning e o máximo apoio ao juiz.
(clique aqui para ver artigo). 


Naturalmente, os questionamentos são diferentes segundo venham de tecnólogos ou de juristas.

Os tecnólogos costumam ter dúvidas sobre aspectos jurídicos.

Para os tecnólogos, é incompreensível trabalhar-se sobre o conjunto de dados de um juiz para descobrir formas de ajudá-lo a fazer o trabalho que somente ele pode fazer (competência/juiz natural). Somente ele? 
E fica pior quando se diz que deve ser feito exatamente do jeito que aquele juiz faz.
Os técnicos sabem que há ferramentas para isso, mas acham uma imensa perda de tempo. Oras, e se o jeitão de decidir do cara está errado?

Os técnicos querem logo achar o jeito correto e único de resolver definitivamente e generalizadamente o problema, analisando todas as sentenças brasileiras, desde a última alteração legal sobre a matéria. Quanto mais processos e sentenças melhor. Só aí parecem admitir que se estaria trabalhando, por exemplo,  no âmbito dos big data, aplicando técnicas de IA adequadamente (como analytics, jurimetria, volumetria etc) de modo a resolver, de uma vez por todas, os problemas que a Justiça humana não consegue resolver. Esse negócio de "cada cabeça uma sentença" tem de ser superado!

Daí preferirem alinhar-se, nas decisões algorítmicas, às visões de A ou de B (padrões/patterns), conforme um critério majoritário (probability), ou numa mescla miraculosa de ambas. O embate atual no STF, sobre as questões da lava-jato,  é um bom exemplo de como se convive juridicamente com a contradição desafiando as soluções únicas e corretas.
E, de fato, é mesmo difícil de entender e aceitar que o Direito não é assim como sonhado, limpo de contradições e de diferentes visões (no STF uma turma solta e a outra prende?!?). Como a fonte das inovações é, em geral, o país do norte com seu sistema jurídico de precedentes, a cabeça dos técnicos dá um nó.

Tomando-se o termo processo no sentido da expressão  processo da história, por exemplo, ou de processo dialético hegeliano (os tecnólogos preferem processo industrial)pode-se dizer que o direito estatutário continental é contradição em processo (o Direito do Brasil).   E isso conflita com a visão tecnológica do "é ou não é com terceira opção excluída!".

Um rápido bosquejo em obras de IA demonstra que a "verdade" (única?), mesmo sob inspiração das lógicas não ortodoxas (em que são utilizados mecanismos lógicos para diluir a fixação do verdadeiro), é um norte que nunca é abandonado pelos tecnólogos.

Jaron Lanier e Yuval Harari, em recentes palestras TED (referidas no artigo), demonstram imensa preocupação com esses centros de poder totalizantes, senhores absolutos da verdade única e verdadeira sobre todas e quaisquer coisas.  O Direito tem seus meios de "fixá-la" como fez, por exemplo,  no caso das decisões de repercussão geral e onde o Victor está sendo preparado para ajudar (STF). Mas os caminhos estão bem regulamentados pelo próprio Direito. O que o Victor vai fazer é o que o Direito estabeleceu que deve ser feito de maneira única. Verdadeira ou não, justa ou não, essa é a forma legal de fazer até que o sistema jurídico mude o jeitão, não a tecnologia.
E, além disso, é bom que os tecnólogos entendam, isso não é a regra. É a exceção.

Juristas são céticos sobre as possibilidades da tecnologia. 

Para a maioria deles, não é possível um algoritmo replicar um esquema de análise de algum processo, tal como feito por um juiz. Até mesmo em aspectos parciais isso seria impossível. E, de fato, é nesses aspectos parciais que o aprendiz pode,  com mais facilidade, ser postado para ajudar o juiz.

Mineração de textos, deep learning, ferramentas de análise de dados não estruturados não são coisas para algoritmos, pensam os juristas. Mas algoritmos encontram padrões nesses dados textuais e os utilizam como estruturas operativas (ótica do machine learning). Dessa maneira, já são aplicados exitosamente em muitas áreas.

Os avanços da IA permitem trabalhar sobre uma matriz de hipóteses (antecedentes e respectivos consequentes - classes ou hipóteses) com as quais o algoritmo se vira para classificar um caso novo (pedido X, por exemplo) numa classe, segundo os atributos,  e, em consequência, aplica a regra correspondente (consequente). Em outros termos, opera do jeito que aprendeu. O aprendizado, em geral, é supervisionado (humanos ajudam e submetem a testes o aluno aprendiz até ser aprovado).  É natural a dificuldade de um jurista entender que ferramentas tecnológicas possam fazer esse caminho.  Um algoritmo que lê e entende? Para, né!

Conjuntos, matrizes, base de conhecimento, teorema disso e daquilo, bases não estruturadas, mineração de textos e suas novas possibilidades complementam-se com noções de algoritmo e das  linguagens adotadas para construí-los, gerando uma névoa difícil de espancar e sob a qual vicejam as dúvidas e ceticismos dos juristas.

Como se vê, cada lado tem de abrir-se para entender limites e possibilidades do outro. Nem a tecnologia pode atropelar o jurídico. Nem o jurídico pode rejeitar o imenso apoio que pode receber da tecnologia.  Há uma barreira de obstáculos epistemológicos a ser derrubada.




quarta-feira, 23 de maio de 2018

Finalmente a Inteligência Artificial (IA) pode ajudar os juízes



Foi um caminho longo, de algumas décadas, até se alcançar o atual estágio da Inteligência Artificial (IA). Vitórias e derrotas se sucederam sem tirar, em nenhum momento, o otimismo dos cientistas tecnólogos.

Avanços de várias tecnologias e uma mudança de abordagem dos desafios, segundo Pedro Domingos, professor da Washington University de Seattle, feita nos últimos anos, permitiram os avanços que agora podem ser vistos, todos os dias, em diferentes áreas.  Os chamados algoritmos aprendizes estão num estágio que impressiona.

Os automóveis com direção assistida começam a chegar ao mercado e ocupar seus espaços. Não é possível programar um algoritmo para fazer isso. O algoritmo tem de aprender sozinho.

Máquinas virtuais de diálogo que, na manutenção da conversa,  parecem humanas, estão chegando com força. E não apenas seguem uma conversa orientada pelo lado humano do diálogo.
Ao contrário, impõem elas mesmas o sentido, segundo a intenção (ou propósito) da conversa que tomaram a iniciativa de puxar.
O google duplex, recentemente anunciado, assombrou a platéia quando a pessoa do diálogo pediu: - poderia aguardar um momento, por favor? - e o robô respondeu com naturalidade: -ãmrãm!

As vitórias nessa caminhada colocaram os chamados aprendizes em condições de ajudar efetivamente os juízes e tornar concreto o princípio do ciberprocesso do máximo apoio ao juiz. O antigo sonho anunciado em artigo de 2008 ganhou condições de concretização.

Examino isso, sob  luzes sistêmicas, no artigo O machine learning e o máximo apoio ao juiz.

Eis o resumo do artigo:
Este artigo está escrito para juristas e traz ao menos uma indicação relevante para os tecnólogos. A e-contemporaneidade será marcada pelos algoritmos que aprendem (aprendizes). Eles já podem apoiar maximamente o juiz se postados como observadores de segunda ordem (Luhmann) para aprender. Para cada juiz um aprendiz é a proposta que respeita o modelo constitucional processual.  A pesquisa bibliográfica comprova a presença dos algoritmos, como verdadeiros actantes (Latour, Law, Callon) nos cenários jurídicos. E desvela os  debates acadêmico (Teubner) e jurisprudencial sobre os modos de lidar com tais entes tecnológicos. O processo judicial tem incorporado as inovações técnicas desde sempre (escrita, datilografia, computadores, internet). Agora tem de adotar os aprendizes, expertos em mineração de textos, para apoiar maximamente os julgadores (foco do trabalho) e demais operadores. Instiga-se, também, uma revisita à teoria dos sujeitos e dos atos processuais. Espera-se contribuir para: (1) a percepção e o entendimento do fenômeno evolutivo - qualitativo e paradigmático – dos algoritmos; (2) facilitar a aceitação de sua presença nos cenários jurídicos e (3) fomentar a disposição e os estudos para incorporá-los de forma adequada na teoria e na prática do processo. O método utilizado é o indutivo, mas com liberdades hipotético-dedutivas preditivas.
                                                              PDF DO ARTIGO!