Mostrando postagens com marcador algoritmos aprendizes. Mostrar todas as postagens
Mostrando postagens com marcador algoritmos aprendizes. Mostrar todas as postagens

domingo, 19 de fevereiro de 2023

ChatGPT: provando que esses dialogadores não são humanos.
- VOCÊ CONHECE O MÁRIO?



Para começar o papo (vejam lá embaixo), sugeri ao chatGPT que falássemos em português. Ele concordou imediatamente. Aliás, ele nunca discute, ao contrário do que costumam fazer os humanos, em ocasiões assim. Logo, eu já poderia considerar provada sua natureza não humana. Mas resolvi ir adiante porque, senão, o jogo acabaria muito cedo. 

Meu intento era provar que essas novas máquinas virtuais de diálogo não são humanas

Por que isso? Porque o Blake Lemoine, que criou o modelo LaMDA (a maquininha de diálogo da Google, batizada de BARD), sugeriu que o modelo tinha ganhado consciência (era humano) e foi afastado da empresa. Compreensível, pois o engenheiro pareceu ter se deixado enganar pela criatura a que dera a luz. 

Mas milhões de humanos, quando dialogam com o chatGPT, todos os dias,  e se deliciam com as “tiradas” do conversador maquínico, se perguntam: será humano este algoritmo?  Todos são empurrados para aquele estado que o Descartes chamou de “estado de dúvida metódica”. Afinal, será que não tem consciência mesmo? Será que não é humano mesmo? 

O último diálogo dele que me fez rir foi este: 

-GPT, você conhece o Mário
- Que Mário? – respondeu o solícito algoritmo. 😆Mais humano impossível, não é? Será? 

A pergunta fatídica e antiga (de 1950), do Alan Turing, sobre as máquinas poderem pensar, é equívoca e fala de “pensamento” e não de “humanidade”. Podem as máquinas pensar? E o Turing propôs o jogo da imitação para tirar a prova. No dia em que a máquina conseguisse enganar um humano e esconder sua natureza de máquina, estaria provado que as máquinas poderiam pensar. Ele apostou que, em 50 anos, máquinas passariam no teste. Seriam capazes de se passar por humanas num diálogo com um humano. O chatGPT estaria  conseguindo pensar, então? Que isso está pondo pulga atrás da orelha de muita gente, não há dúvida!😕

Pode-se imaginar que o Turing escorregou na casca de banana jogada pelo Descartes: “penso, logo existo!” Ora, a conclusão do Descartes foi “existo” e não “sou humano”, que é a resposta que estou procurando. 

O Descartes foi esperto para não misturar as coisas (pensar e ser humano). Afinal, está cheio de coisas, por aí, que não pensam, mas existem. Inclusive alguns humanos.😅 O que significa que “não penso, logo existo” também seria aceitável. 

Estamos num tempo em que distinguir máquinas de humanos se tornou crucial. E pensar já não parece servir para fazer a distinção. 

O filósofo John Searle, com o famoso esquema do “quarto chinês” [1], pôs as coisas em termos diferentes, bem adequados para analisar o chatGPT.  Vejamos simplificadamente:

Pedro, um humano que não entende chinês, é posto num quarto com uma tabela de conversão de símbolos chineses. É o tal de quarto chinês e a tabela vincula símbolos chineses com outros símbolos chineses. 

SiangXo é um chinês que está fora do quarto, não conhece o Pedro e não sabe que Pedro tem a tabela de conversão no quarto. 
SiangXo tem de falar com Pedro, enviando símbolos chineses aos quais o Pedro responde devolvendo outro símbolo chinês, após consultar a tabela de conversão. 
Depois de um tempo de conversa (troca de símbolos com o Pedro), SiangXo jura que Pedro entende chinês. Afinal, bateu o maior papo com ele. 
Mas o humano Pedro não sabe nada dos conteúdos e sentidos dos símbolos que manipulou e nem sobre o que conversou. 

Para o filósofo Searle, a mera manipulação de símbolos não significa pensar. E, portanto, o chatGPT não pensa. Máquinas virtuais, como os algoritmos, sabem encadear símbolos e assim podem enganar quem dialoga com elas. Mas não pensam porque pensar é algo diferente de manipular símbolos mecanicamente. 

O Pedro manipulou símbolos, falou com o SiangXo em chinês, mas é claro que não pensou. Ao menos não pensou naquilo que o chinês estava conversando com ele. Ele nem sabe que houve, de fato, uma conversa. 

Pois é... mas o Pedro é humano, tem consciência. Logo, será que o chatGPT pode ser/ter também? 

Resolvi perguntar a ele o que ele entendia por consciência. 

- eu: Vamos falar em português, por favor!
- gpt: Claro, sem problemas. Em que posso ajudar você hoje?

- eu: O que é consciência? 
- gpt: Consciência é o estado de ter conhecimento de si mesmo, dos pensamentos, das sensações, das emoções e do ambiente ao redor. É a capacidade de perceber, compreender e estar ciente de nossa própria existência e da realidade que nos cerca

-eu: E você é consciente? 
-gpt: Como modelo de linguagem, eu sou uma entidade digital programada para processar e responder a perguntas e comentários com base em meu treinamento prévio. 

-eu: Você está querendo me enrolar. Humanos também treinam intensamente e previamente para responder perguntas e comentários. Decoram um monte de coisas para fazer o vestibular, por exemplo. 
-gpt: Embora eu tenha a capacidade de responder a perguntas e gerar respostas, eu não tenho uma consciência própria, emoções ou pensamentos autônomos como os seres humanos

-eu: Continua enrolando! Muitos humanos não têm consciência, própria ou não, nem emoções e muito menos pensamentos autônomos. E são humanos. 
-gpt: Meu funcionamento se baseia no processamento de dados e na aplicação de algoritmos para fornecer respostas às solicitações dos usuários. 

Fiz mais umas 20 provocações e ele continuou friozão e bem-humorado, feito gelo do polo norte. 
Definitivamente, fui obrigado a concluir que ele não é humano. E não pensa também.

Explicações finais:

1) Todas as frases “dele” foram geradas “por ele”... eu apenas intercalei algumas das minhas provocações! 
2) Para mim, ele não é humano, não pensa, mas é uma ferramenta incrível e divertida! Um milagre tecnológico-matemático. 
3) Veja acima que quem associou humano com consciência, emoções e pensamentos autônomos foi ele

Créditos: todas as ilustrações acima foram feitas pelo DALL-E 2, da mesma empresa que desenvolveu o chatGPT. Pedi "livremente" e ele sugeriu as imagens que utilizei.

[1] Sobre o argumento do quarto chinês, de Searle, incluí o anexo 1 no meu livro Machine Learning nas decisões.  

domingo, 20 de fevereiro de 2022

MACHINE LEARNING NAS DECISÕES: live de lançamento editada e indexada.


"Finalmente uma obra que fala de tecnologia para os juristas e de Direito para os tecnólogos! Sem excessos!" 

DISPONIBILIDADE DO LIVRO:
E-book na Amazon.com.br.
Livro físico: por enquanto, apenas na Amazon.com (vem dos EUA). 
A amatra12 ainda tem alguns exemplares físicos (5), impressos no Brasil, para o lançamento e os repassa pelo preço de custo/impressão. Interessados devem:
(1)  enviar PIX para a chave livro@stp.pro.br  de R$75,00 (custo de impressão - o livro tem 796 páginas) mais R$20,00 de correio (envio registrado para qualquer lugar do Brasil)==> total R$95,00;
(2) enviar nome e endereço completos para secretaria@amatra12.org.br com comprovante do PIX. 

LIVE DE LANÇAMENTO EM SEGMENTOS:

Agora está mais fácil de rever a live de lançamento.

Em pequenos vídeos (2,5 a 5 minutos cada), com edições, você pode rever partes específicas que lhe interessem.

Escolha o vídeo abaixo:

[VÍDEO 1: CONSIDERAÇÕES INICIAIS/PRIMEIRAS PROVOCAÇÕES] 3m54s 

Abertura/considerações iniciais. Nelas, falo das diferenças entre as áreas técnicas e jurídica. E as dificuldades de substituir com equivalência sistemas psíquicos por algoritmos. Uma preocupação para os juristas e um desafio para os tecnólogos. Menciono: Estrutura, Lei do Fator Hermenêutico e axiomas e leis dos capítulos 13 e 14. 

[VÍDEO 2: O TÍTULO DO LIVRO! 4 IDEIAS BÁSICAS]: 3m20s 

Neste vídeo, falo das quatro categorias teórico-pragmáticas do título da obra: machine learning, decisão, uso jurídico e algoritmos aprendizes.  Juristas são tecnólogos do social, segundo Ferraz Jr.  Somos tecnólogos do social e podemos incorporar a tecnologia técnica para acelerar nossa própria tecnologia.

[VÍDEO 3: USO DO MACHINE LEARNING EM TODA A CADEIA PROCEDIMENTAL?]: 3m54s - Afinal, pode-se usar os aprendizes em toda a cadeia procedimental? (base, tribunais regionais, tribunais federais, STF?).  

[VÍDEO 4: UM DOS GRANDES DESAFIOS DA PRODUÇÃO DO LIVRO!]: 2m30s - Falo do que considero o maior desafio para a produção do livro: falar para os dois públicos, juristas e tecnólogos. Manter a exposição num nível adequado para transmitir ao leitor os saberes da outra área que são relevantes para orientar-se na execução do seu trabalho de construção do e-processo. Há quem pense que ele está terminado. Mas o e-processo está longe de terminar. 

[VÍDEO 5: PENSAMENTO JURÍDICO-TECNOLÓGICO]: 5m20s - Justecnólogo e tecnojuristas, os profissionais que serão capazes de nos levar ao e-processo, este produto híbrido, técnico-jurídico, este amálgama das duas tecnologias: a jurídica e a técnica.  Juristas precisam desenvolver a competência do PENSAR DIGITAL e os tecnólogos a competência do PENSAR JURÍDICO. 

[VÍDEO 6: COISAS QUE FACILITAM O DIÁLOGO DE JURÍSTAS E TECNÓLOGOS]: 3m27s - Afinal, o que me levou a escrever o livro? Anos de acompanhamento dos embates de juristas e tecnólogos, no esforço de construção do e-processo, demonstraram que era importante facilitar o diálogo desses dois profissionais sem os quais não é possível construir processo eletrônico capaz de responder às demandas da sociedade atual.   

[VÍDEO 7: RISCOS DAS CENTRAIS DE DECISÃO]: 5m33s - Até onde a tecnologia técnica pode avançar no processo para ajudar os tecnólogos do social? Centrais decisórias, tocadas por algoritmos, podem representar riscos para valores democráticos e jurídicos?  

EM BREVE, NOVOS VÍDEOS SERÃO DISPONIBILIZADOS:

[ASSISTIR VÍDEO 8!]: 0m0s - em produção. 

[ASSISTIR VÍDEO 9!]0m0s - em produção. 

[ASSISTIR VÍDEO 10!]0m0s - em produção. 


domingo, 8 de dezembro de 2019

Aprisionamento tecnológico da Justiça?



Aprisionamento tecnológico da Justiça?

Falando de automatização de decisões com o uso da inteligência artificial, há quem afirme que é preciso combater a opacidade dos julgamentos humanos. E que a IA, clássica ou de aprendizado automático,  pode ser o meio de se chegar a decisões não humanas (de máquina) e melhores.(1) 

Toda opacidade (intransparência? caixa preta?), inclusive a humana, não se compadece com o espírito constitucional previsto para o processo judicial. Será que a automatização das decisões nos afasta do indesejado ou nos faz mergulhar ainda mais no fosso escuro onde se escondem os pilares das decisões?

Lembro de um ministro que dizia que primeiro decidia e depois construía o silogismo de sustentação da decisão. Mas tinha de fazer esse esforço lógico-discursivo, embora as verdadeiras premissas, talvez, não viessem à tona, dado o descolamento metódico de chegada à conclusão. A construção do silogismo ao revés, de baixo para cima (da conclusão para as premissas), deixa pensar em descompromisso com os corretos e verdadeiros esteios da construção. 


Burla à constituição? Diz a constituição que todas as decisões têm de ser fundamentadas, ou, em outras palavras, o raciocínio conducente à sua expedição deve estar exposto e ter "alguma lógica". 
Todo esse _iter_ está sujeito ao reexame, seja pelo conteúdo (validade das premissas), seja pela logicidade do discurso. E, parece óbvio, o fundamentar passa pela exibição de toda a cadeia do raciocínio desenvolvido para construir a conclusão. A constituição não quer um fundamento qualquer: quer o raciocínio que levou o julgador à conclusão. Quer transparência.

Escamotear conscientemente as "verdadeiras razões" do decidir destrói a fundamentação, por mais lógica que seja e por mais eficiente que seja no convencimento dos destinatários da decisão.  Para Klaus Günther, quando as verdadeiras razões cedem lugar a um conjunto de premissas válido, mas que não corresponde ao realmente utilizado para gerar a conclusão do decisor, está-se diante de fraude. A juridicidade está posta de lado. 

Temos tido imensas demonstrações (às vezes chatérrimas) dessas fundamentações que desnudam inclusive os vieses e tornam-se, até por isso, atacáveis. Quando se abandona o dever de analisar o caso e fundamentar à luz do contexto, como nos julgamentos por "carrinhos de autos" (de antigamente, agora é lote), então os vieses se escondem numa névoa semelhante àquela que a caixa preta de um algoritmo aprendiz, por exemplo, ou pré-programado, lança sobre as decisões automatizadas. Não tem lógica nenhuma no caso. Um algoritmo de aprendizado é apenas um papagaio repetidor do dizer majoritário constante das massas de dados de aprendizado. Os tecnólogos chamam tais visões majoritárias de padrões.   

O encaixe de um conjunto de antecedentes com um consequente esperado (e cujo alcance foi estabelecido, sob supervisão, que pode ser antecipado pelo exame de uma matriz), pode parecer lógico. Mas é prisioneiro de uma causalidade inafastável e fechada (operativamente fechada, trivial =Foerster), como é toda máquina, encerrada num liame estrutural-operativo baseado na renúncia ao alargamento da análise e da contextualização. 

Não fosse assim, como pensar em termos preditivos, como está na moda de utilização dos novos ferramentais de IA? Pensa-se como se o passado pudesse conter (e contivesse de fato) toda a verdade do futuro e como se a emergência fosse uma invenção dos cientistas e não um fenômeno "surpresa" no caminho do real para a complexidade crescente. Nessa visão, há um ranço platônico de assunção da falsa verdade de que, em algum lugar, existe "o certo", bastando apenas o encontrar. 

O processo deve ser causalmente aberto, autopoiético (coisa que a _algoritmização_ mata na casca) e essa autopoiese se faz na fase de programação (não na de codificação) pelas mãos dos humanos intérpretes frente às condições de contexto (Günther, analisando esse aspecto em Luhmann, fala em  perístases da situação). 

O Direito se faz, enquanto realidade estrutural-operativa (tecnologia social - Ferraz Jr.), por uma necessária reflexão do fato sobre o normativo, na construção (linguajar do kelsen) do sentido do texto legislativo a ser usado no deslinde do caso concreto. Então, precisamos usar bem a IA (algoritmos clássicos ou de aprendizado automático) para ajudar os juízes (sistemas psíquicos cognitivamente abertos) a fazer, de forma otimizada, o que só eles podem fazer. Não se trata de substituir, mas de auxiliar para otimizar. É o que defendo em O Machine Learning e o máximo apoio ao juiz.

(1) 
VALENTINI, Rômulo. Mensagem no grupo Whatsapp do IDEIA – Instituto de Direito Eletrônico e Inteligência Artificial. Discussão de 4 set. 2018.  "[...] reexaminar as premissas da opacidade dos julgamentos humanos e repensar o modo institucional de prestação da jurisdição para que consigamos pensar em algo melhor do que o que está aí."  O autor defende a ideia de que a automatização das decisões pode proporcionar o "algo melhor".

Para referir este post: PEREIRA, S. Tavares. Disponível em: 
https://stavarespereira.blogspot.com/2019/12/enganar-se-com-ia-interessa-ao-poder.html. 

quinta-feira, 6 de dezembro de 2018

Todo algoritmo tem viés. Exatamente como os humanos...



Podemos  dividir os algoritmos em clássicos ou tradicionais, feitos com as tecnologias tradicionais da engenharia de software, e de aprendizado (aprendizes). Há atividades que não são programáveis classicamente e que, nos últimos anos, têm sido abordadas pela técnica do machine learning. Dirigir um carro é uma atividade típica não programável. É necessário um algoritmo que, observando muitos motoristas dirigindo, aprenda com eles.

Falando em viés (tendências/preconceitos/desvios/preferência não razoável/preferência pessoal etc), é necessário dizer que nem um tipo de algoritmo, nem outro,  é "puro", no sentido de estar livre de vieses.  Algoritmos "puros", nesse sentido,  são uma  utopia.

Exatamente como os humanos têm suas diferentes visões de mundo (interpretações/preferências não razoáveis e pessoais/entendimentos), os algoritmos também os têm.  Sempre terão.

Num caso (tradicionais), estão impregnados diretamente dos vieses postos pelos humanos ao explicitarem as regras de negócio de que são feitos. Isso decorre diretamente do modus faciendi como  eu penso que explico no livro sobre os princípios do e-processo (1).

No outro (aprendizes), as vias de enviesamento são duas: ou são absorvidas diretamente dos big data utilizados para aprender (dos quais extraem seu buzilhão de regras de inferência - antecedentes e consequentes ) ou, ainda, são injetadas pelos supervisores de aprendizado (pela vida das ponderações paramétricas).

Nem mesmo os humanos aprendem "puramente". Todos aprendemos com vieses pois nossas estruturas operativas internas são construídas pelo aprendizado, fortemente condicionado pelas estruturas pré-existentes e pelo que recebemos do meio, na maior parte das vezes, sob supervisão.

Portanto, imaginar que os algoritmos, porque tecnológicos, são de alma branca e virgem, para mim é utopia pura.

De tudo isso, decorre uma consequência, a meu ver, extremamente relevante para o estabelecimento de formas de postar os algoritmos na cadeia procedimental do e-processo, por exemplo. A natureza distinta dos algoritmos os qualifica ou os desqualifica para o exercício/assunção de determinados papéis no processo. No artigo "O machine learning e o máximo apoio aos juízes" (2), sugiro se postem os algoritmos aprendizes, ao lado dos juízes,  como apoiadores e não como decisores.

----------------------------
(1) PEREIRA, S. Tavares.  Que é isto, a eNorma? Elementos para a teoria geral do eDireito. In: Princípios do processo em meio reticular-eletrônico:  fenomenologia, normatividade e aplicação prática. Cláudio Brandão (Org.) São Paulo: LTr, 2017. p. 23-52. Especificamente no item 3.1.

(2) 
PEREIRA, Sebastião Tavares. O machine learning e o máximo apoio ao juiz. Revista Democracia Digital e Governo Eletrônico, Florianópolis, v. 2, n. 18, p. 2-35, 2018.  Disponível em:  http://buscalegis.ufsc.br/revistas/index.php/observatoriodoegov/article/view/303. Acesso em: 6 dez. 2018.