Mostrando postagens com marcador inteligência artificial. Mostrar todas as postagens
Mostrando postagens com marcador inteligência artificial. Mostrar todas as postagens

segunda-feira, 3 de novembro de 2025

Jamais fomos democráticos



Com orgulho, contribuí com este artigo para o jornal ETR - Estado, Tecnologia e Regulação,  lançado, em 22 de outubro de 2025, na casa da ATITUS, com matérias produzidas pelos alunos do Curso de Doutorado em Direito, da disciplina Estado, Tecnologia e Regulação. Trata-se da  edição inaugural do jornal e traz relevantes reflexões dos integrantes da primeira turma.   

O pano de fundo de inspiração dos autores foram os atuais desafios ligados ao impacto e à regulação da introdução da Inteligência Artificial nos diversos sistemas sociais

A IA, especialmente a IAgen, tem sido vista, por muitos, como uma ameaça à democracia e aos seus fundamentos. Então elegi o tema IA e democracia para minhas reflexões. Parodiando Bruno Latour (Jamais fomos modernos) e recorrendo a Chomsky sobre a noção que, segundo ele, é a mais difundida sobre democracia, forcei-me a perguntar: algum dia fomos, realmente, democráticos? Meu artigo saiu nas páginas 4 e 5 do recém-nascido jornal,  

O artigo completo está aqui: Jamais fomos democráticos!

Lançado apenas em versão impressa, o novo Veículo traz, em seu Expediente, os professores Dra. Salete Oro Boff (Coordenadora) e Dr. José Luis Bolzan de Morais (Titular da disciplina), além dos alunos Júlio César de Carvalho Pacheco (Jornalista responsável) e Júlia Colussi (revisora).  Parabéns a todos. 

segunda-feira, 10 de abril de 2023

A realidade está mudando e todas as teorias estão em polvorosa: a IA é a culpada!



Vou repetir a frase mais dita dos últimos tempos: “estamos vivendo em um período de mudanças significativas”.

Isso quer dizer que todas as teorias e conceitos que utilizamos para compreender o mundo estão sendo questionados e reavaliados: liberdade de expressão, comunicação, emprego, democracia - tudo está no pilão e sendo esmagado!
O pior a fazer, nesse cenário, é se apegar a visões ultrapassadas. Morrer crente em coisas, conceitos e paradigmas (Thomaz Kuhn), que já não são mais os mesmos, é como embarcar em canoa furada sabendo do furo.
O marzão, lá fora, agitado e com vagalhões imensos, engole até os mais bem intencionados.
Isso não é novo, embora nunca tenha sido tão intenso.
A história da ciência e da filosofia mostra que as teorias e conceitos que usamos para descrever a realidade estão sempre sujeitos a mudanças, revisões e atualizações.
À medida que novas evidências são descobertas e novas tecnologias são desenvolvidas, precisamos adotar novas perspectivas e novas teorias sobre o mundo natural e social. Esse é o ponto mais relevante.
Nos últimos 100 anos, temos visto mudanças significativas, em várias áreas do conhecimento, como a física quântica, a biologia molecular, a inteligência artificial e a economia comportamental. A engenharia social ganhou ferramentas de IA de potência inacreditável.
Essas mudanças têm desafiado algumas das teorias e conceitos fundamentais usados para entender o mundo desde Newton.
O mundinho, firme e seguro de três dimensões, está sendo invadido por sistemas de apoio à cognição que trabalham com milhares/milhões de dimensões. De repente, estamos falando todas as línguas e escrevendo até sobre o que não sabíamos nada.

Coisas que vêm das “nuvens” metem-se em nossas vidas, saberes e produções. Nuvens são o nome simplório que damos a esses mundos habitados pelos novos seres de apoio (virtuais). Onde habitam o chatGPT, o BingGPT, e o chatPDF? Nas nossas máquinas fajutas é que não estão, certamente.
A física quântica mostrou que a realidade pode ser muito mais complexa e paradoxal do que pensávamos. Ninguém sabe onde está o elétron pois pode estar em vários lugares ao mesmo tempo. Segundo Heisenberg, a única certeza é a incerteza. O Eintein provou que é possível curvar a luz.
Nossas intuições sobre tempo, espaço e causalidade estão em crise. Na biologia molecular, a descoberta da epigenética tem mostrado que as características dos organismos podem ser influenciadas por fatores ambientais e sociais, além de sua herança genética. O genético acopla-se ao ambiente, natural e social, para garantir a perpetuação do sistema.

A economia comportamental também tem suas pesquisas. As decisões econômicas que tomamos não são racionais. São marcadas por fatores emocionais e cognitivos complexos, por medos muitas vezes infundados, pela notícia de ontem (falsa). Contradizer a teoria econômica clássica é o mais comum.
Chega a ser melhor entregar tudo a um algoritmo, um ser sem emoções, expressão fixada e inalterável de um complexo cognitivo previamente estabelecido por quem entende do riscado. Ele está blindado contra as fakenews da hora. Orienta-se por dados. Um ser “objetivo”, sem subjetividade. Se depois de A deve vir B, virá o B, ainda que um meteorito gigante vá atingir o planeta no minuto seguinte. Essa é a vantagem das máquinas.
Enfim, todas as teorias estão em polvorosa, dando-se conta de que seus esquemas de interpretação do real apresentam anomalias. Certas áreas são receptivas à ideia de mudança e sofrem menos.
Mas há, principalmente entre as sociais e jurídicas (estas as que incorporam modelos regulatórios), as que sofrem muito, agarradas a antigos paradigmas e verdades que são expressão de ideologias demonstrativamente falsas.
A tecnologia ( com ênfase para a IA) está chutando os paus das barracas, provocando correrias e exibindo os que estavam de fora do bom aconchego.
A constatação das anomalias teóricas e jurídicas é válida e importante para reconhecer que nosso conhecimento sobre o mundo está sempre evoluindo e sendo reavaliado.
Temos de cultivar a humildade, como dizia meu professor de metodologia científica. Sabemos pouco e limitadamente acerca de tudo. Todo saber é fugaz e relativo. Só novas perspectivas nos habilitam para entender o mundo transformado e nossas relações com ele.
(Ilustração BingGPT/Dall-E)

quarta-feira, 13 de abril de 2022

PADRÕES QUE SÓ A IA É CAPAZ DE DESCOBRIR...

 


Este artigo do OLHAR DIGITAL traz uma novidade muito interessante: https://olhardigital.com.br/2022/04/10/seguranca/mit-cria-inteligencia-artificial-que-reconstroi-rostos-a-partir-da-voz/

PADRÕES, ah os padrões!

Você tem essa aparência porque fala assim? Ou fala assim porque tem essa aparência?
Os padrões são a base da IA dos aprendizes. Isso a gente já sabia. Agora, este estudo do MIT parece tornar isso ainda mais evidente.
Bilhões, trilhões de faces e as respectivas vozes!
Quem ousaria sonhar com padrões conectivos de imagem/áudio no mundo só de cérebros que precedeu este mundo de "metas" de todo tipo em que estamos imersos agora? Metadados, metaverso? Meta-aparencia?
No mundinho antigo, sem tantos metas, entregávamos os pontos diante de abundantes dificuldades/impossibilidades. Era muita areia para o nosso caminhãozinho...
Descartes extraiu a CERTEZA DA EXISTÊNCIA a partir do penso (penso, logo existo!). Ufa! Entusiasmado, esqueceu do PENSO, LOGO DESISTO, tão ou mais abundante e certo que o primeiro.
Afinal, PARA CADA EXISTÊNCIA, MUITAS DESISTÊNCIAS... rs!
Pensamos, logo existimos. Para quê? Diante de muitas coisas, apenas para desistir.
Não conseguimos, no cercadinho de nossas limitações, nem imaginar a possibilidade dessa conexão estranha voz/aparência. Onde é que se esconde o "LIAME FENOGENOTÍPICO" que nos caracteriza, que junta aparência e existência segundo regras (padrões) que desafiam nossa curta imaginação?
Talvez LOMBROSO(1), se andasse por aí, fosse se aproveitar da ideia para tentar ratificar as ideias dele. Afinal, se há algo mais profundo (ou mais alto, abstrato), que conforma fenótipo e voz (cordas vocais), por que não poderia conectar, também, comportamentos e aparências?
Teremos de começar a pensar nos PADRÕES QUE NÃO PODEM SER OBJETO DE INVESTIGAÇÃO PELA IA? Haja regulação...
Pensamos, logo existimos! Para quê? Para correr atrás da IA... rsrs
Como era simples o mundo cartesiano.
Agora, PENSAMOS, LOGO REGULAMOS!
(1) Para quem não é da área jurídica, esclareço bem basicamente: Lombroso defendia a ideia de que, pelos traços faciais, era possível saber se a pessoa tinha tendências criminosas.

domingo, 8 de dezembro de 2019

Aprisionamento tecnológico da Justiça?



Aprisionamento tecnológico da Justiça?

Falando de automatização de decisões com o uso da inteligência artificial, há quem afirme que é preciso combater a opacidade dos julgamentos humanos. E que a IA, clássica ou de aprendizado automático,  pode ser o meio de se chegar a decisões não humanas (de máquina) e melhores.(1) 

Toda opacidade (intransparência? caixa preta?), inclusive a humana, não se compadece com o espírito constitucional previsto para o processo judicial. Será que a automatização das decisões nos afasta do indesejado ou nos faz mergulhar ainda mais no fosso escuro onde se escondem os pilares das decisões?

Lembro de um ministro que dizia que primeiro decidia e depois construía o silogismo de sustentação da decisão. Mas tinha de fazer esse esforço lógico-discursivo, embora as verdadeiras premissas, talvez, não viessem à tona, dado o descolamento metódico de chegada à conclusão. A construção do silogismo ao revés, de baixo para cima (da conclusão para as premissas), deixa pensar em descompromisso com os corretos e verdadeiros esteios da construção. 


Burla à constituição? Diz a constituição que todas as decisões têm de ser fundamentadas, ou, em outras palavras, o raciocínio conducente à sua expedição deve estar exposto e ter "alguma lógica". 
Todo esse _iter_ está sujeito ao reexame, seja pelo conteúdo (validade das premissas), seja pela logicidade do discurso. E, parece óbvio, o fundamentar passa pela exibição de toda a cadeia do raciocínio desenvolvido para construir a conclusão. A constituição não quer um fundamento qualquer: quer o raciocínio que levou o julgador à conclusão. Quer transparência.

Escamotear conscientemente as "verdadeiras razões" do decidir destrói a fundamentação, por mais lógica que seja e por mais eficiente que seja no convencimento dos destinatários da decisão.  Para Klaus Günther, quando as verdadeiras razões cedem lugar a um conjunto de premissas válido, mas que não corresponde ao realmente utilizado para gerar a conclusão do decisor, está-se diante de fraude. A juridicidade está posta de lado. 

Temos tido imensas demonstrações (às vezes chatérrimas) dessas fundamentações que desnudam inclusive os vieses e tornam-se, até por isso, atacáveis. Quando se abandona o dever de analisar o caso e fundamentar à luz do contexto, como nos julgamentos por "carrinhos de autos" (de antigamente, agora é lote), então os vieses se escondem numa névoa semelhante àquela que a caixa preta de um algoritmo aprendiz, por exemplo, ou pré-programado, lança sobre as decisões automatizadas. Não tem lógica nenhuma no caso. Um algoritmo de aprendizado é apenas um papagaio repetidor do dizer majoritário constante das massas de dados de aprendizado. Os tecnólogos chamam tais visões majoritárias de padrões.   

O encaixe de um conjunto de antecedentes com um consequente esperado (e cujo alcance foi estabelecido, sob supervisão, que pode ser antecipado pelo exame de uma matriz), pode parecer lógico. Mas é prisioneiro de uma causalidade inafastável e fechada (operativamente fechada, trivial =Foerster), como é toda máquina, encerrada num liame estrutural-operativo baseado na renúncia ao alargamento da análise e da contextualização. 

Não fosse assim, como pensar em termos preditivos, como está na moda de utilização dos novos ferramentais de IA? Pensa-se como se o passado pudesse conter (e contivesse de fato) toda a verdade do futuro e como se a emergência fosse uma invenção dos cientistas e não um fenômeno "surpresa" no caminho do real para a complexidade crescente. Nessa visão, há um ranço platônico de assunção da falsa verdade de que, em algum lugar, existe "o certo", bastando apenas o encontrar. 

O processo deve ser causalmente aberto, autopoiético (coisa que a _algoritmização_ mata na casca) e essa autopoiese se faz na fase de programação (não na de codificação) pelas mãos dos humanos intérpretes frente às condições de contexto (Günther, analisando esse aspecto em Luhmann, fala em  perístases da situação). 

O Direito se faz, enquanto realidade estrutural-operativa (tecnologia social - Ferraz Jr.), por uma necessária reflexão do fato sobre o normativo, na construção (linguajar do kelsen) do sentido do texto legislativo a ser usado no deslinde do caso concreto. Então, precisamos usar bem a IA (algoritmos clássicos ou de aprendizado automático) para ajudar os juízes (sistemas psíquicos cognitivamente abertos) a fazer, de forma otimizada, o que só eles podem fazer. Não se trata de substituir, mas de auxiliar para otimizar. É o que defendo em O Machine Learning e o máximo apoio ao juiz.

(1) 
VALENTINI, Rômulo. Mensagem no grupo Whatsapp do IDEIA – Instituto de Direito Eletrônico e Inteligência Artificial. Discussão de 4 set. 2018.  "[...] reexaminar as premissas da opacidade dos julgamentos humanos e repensar o modo institucional de prestação da jurisdição para que consigamos pensar em algo melhor do que o que está aí."  O autor defende a ideia de que a automatização das decisões pode proporcionar o "algo melhor".

Para referir este post: PEREIRA, S. Tavares. Disponível em: 
https://stavarespereira.blogspot.com/2019/12/enganar-se-com-ia-interessa-ao-poder.html. 

quinta-feira, 6 de dezembro de 2018

Todo algoritmo tem viés. Exatamente como os humanos...



Podemos  dividir os algoritmos em clássicos ou tradicionais, feitos com as tecnologias tradicionais da engenharia de software, e de aprendizado (aprendizes). Há atividades que não são programáveis classicamente e que, nos últimos anos, têm sido abordadas pela técnica do machine learning. Dirigir um carro é uma atividade típica não programável. É necessário um algoritmo que, observando muitos motoristas dirigindo, aprenda com eles.

Falando em viés (tendências/preconceitos/desvios/preferência não razoável/preferência pessoal etc), é necessário dizer que nem um tipo de algoritmo, nem outro,  é "puro", no sentido de estar livre de vieses.  Algoritmos "puros", nesse sentido,  são uma  utopia.

Exatamente como os humanos têm suas diferentes visões de mundo (interpretações/preferências não razoáveis e pessoais/entendimentos), os algoritmos também os têm.  Sempre terão.

Num caso (tradicionais), estão impregnados diretamente dos vieses postos pelos humanos ao explicitarem as regras de negócio de que são feitos. Isso decorre diretamente do modus faciendi como  eu penso que explico no livro sobre os princípios do e-processo (1).

No outro (aprendizes), as vias de enviesamento são duas: ou são absorvidas diretamente dos big data utilizados para aprender (dos quais extraem seu buzilhão de regras de inferência - antecedentes e consequentes ) ou, ainda, são injetadas pelos supervisores de aprendizado (pela vida das ponderações paramétricas).

Nem mesmo os humanos aprendem "puramente". Todos aprendemos com vieses pois nossas estruturas operativas internas são construídas pelo aprendizado, fortemente condicionado pelas estruturas pré-existentes e pelo que recebemos do meio, na maior parte das vezes, sob supervisão.

Portanto, imaginar que os algoritmos, porque tecnológicos, são de alma branca e virgem, para mim é utopia pura.

De tudo isso, decorre uma consequência, a meu ver, extremamente relevante para o estabelecimento de formas de postar os algoritmos na cadeia procedimental do e-processo, por exemplo. A natureza distinta dos algoritmos os qualifica ou os desqualifica para o exercício/assunção de determinados papéis no processo. No artigo "O machine learning e o máximo apoio aos juízes" (2), sugiro se postem os algoritmos aprendizes, ao lado dos juízes,  como apoiadores e não como decisores.

----------------------------
(1) PEREIRA, S. Tavares.  Que é isto, a eNorma? Elementos para a teoria geral do eDireito. In: Princípios do processo em meio reticular-eletrônico:  fenomenologia, normatividade e aplicação prática. Cláudio Brandão (Org.) São Paulo: LTr, 2017. p. 23-52. Especificamente no item 3.1.

(2) 
PEREIRA, Sebastião Tavares. O machine learning e o máximo apoio ao juiz. Revista Democracia Digital e Governo Eletrônico, Florianópolis, v. 2, n. 18, p. 2-35, 2018.  Disponível em:  http://buscalegis.ufsc.br/revistas/index.php/observatoriodoegov/article/view/303. Acesso em: 6 dez. 2018.