domingo, 19 de fevereiro de 2023

ChatGPT: provando que esses dialogadores não são humanos.
- VOCÊ CONHECE O MÁRIO?



Para começar o papo (vejam lá embaixo), sugeri ao chatGPT que falássemos em português. Ele concordou imediatamente. Aliás, ele nunca discute, ao contrário do que costumam fazer os humanos, em ocasiões assim. Logo, eu já poderia considerar provada sua natureza não humana. Mas resolvi ir adiante porque, senão, o jogo acabaria muito cedo. 

Meu intento era provar que essas novas máquinas virtuais de diálogo não são humanas

Por que isso? Porque o Blake Lemoine, que criou o modelo LaMDA (a maquininha de diálogo da Google, batizada de BARD), sugeriu que o modelo tinha ganhado consciência (era humano) e foi afastado da empresa. Compreensível, pois o engenheiro pareceu ter se deixado enganar pela criatura a que dera a luz. 

Mas milhões de humanos, quando dialogam com o chatGPT, todos os dias,  e se deliciam com as “tiradas” do conversador maquínico, se perguntam: será humano este algoritmo?  Todos são empurrados para aquele estado que o Descartes chamou de “estado de dúvida metódica”. Afinal, será que não tem consciência mesmo? Será que não é humano mesmo? 

O último diálogo dele que me fez rir foi este: 

-GPT, você conhece o Mário
- Que Mário? – respondeu o solícito algoritmo. 😆Mais humano impossível, não é? Será? 

A pergunta fatídica e antiga (de 1950), do Alan Turing, sobre as máquinas poderem pensar, é equívoca e fala de “pensamento” e não de “humanidade”. Podem as máquinas pensar? E o Turing propôs o jogo da imitação para tirar a prova. No dia em que a máquina conseguisse enganar um humano e esconder sua natureza de máquina, estaria provado que as máquinas poderiam pensar. Ele apostou que, em 50 anos, máquinas passariam no teste. Seriam capazes de se passar por humanas num diálogo com um humano. O chatGPT estaria  conseguindo pensar, então? Que isso está pondo pulga atrás da orelha de muita gente, não há dúvida!😕

Pode-se imaginar que o Turing escorregou na casca de banana jogada pelo Descartes: “penso, logo existo!” Ora, a conclusão do Descartes foi “existo” e não “sou humano”, que é a resposta que estou procurando. 

O Descartes foi esperto para não misturar as coisas (pensar e ser humano). Afinal, está cheio de coisas, por aí, que não pensam, mas existem. Inclusive alguns humanos.😅 O que significa que “não penso, logo existo” também seria aceitável. 

Estamos num tempo em que distinguir máquinas de humanos se tornou crucial. E pensar já não parece servir para fazer a distinção. 

O filósofo John Searle, com o famoso esquema do “quarto chinês” [1], pôs as coisas em termos diferentes, bem adequados para analisar o chatGPT.  Vejamos simplificadamente:

Pedro, um humano que não entende chinês, é posto num quarto com uma tabela de conversão de símbolos chineses. É o tal de quarto chinês e a tabela vincula símbolos chineses com outros símbolos chineses. 

SiangXo é um chinês que está fora do quarto, não conhece o Pedro e não sabe que Pedro tem a tabela de conversão no quarto. 
SiangXo tem de falar com Pedro, enviando símbolos chineses aos quais o Pedro responde devolvendo outro símbolo chinês, após consultar a tabela de conversão. 
Depois de um tempo de conversa (troca de símbolos com o Pedro), SiangXo jura que Pedro entende chinês. Afinal, bateu o maior papo com ele. 
Mas o humano Pedro não sabe nada dos conteúdos e sentidos dos símbolos que manipulou e nem sobre o que conversou. 

Para o filósofo Searle, a mera manipulação de símbolos não significa pensar. E, portanto, o chatGPT não pensa. Máquinas virtuais, como os algoritmos, sabem encadear símbolos e assim podem enganar quem dialoga com elas. Mas não pensam porque pensar é algo diferente de manipular símbolos mecanicamente. 

O Pedro manipulou símbolos, falou com o SiangXo em chinês, mas é claro que não pensou. Ao menos não pensou naquilo que o chinês estava conversando com ele. Ele nem sabe que houve, de fato, uma conversa. 

Pois é... mas o Pedro é humano, tem consciência. Logo, será que o chatGPT pode ser/ter também? 

Resolvi perguntar a ele o que ele entendia por consciência. 

- eu: Vamos falar em português, por favor!
- gpt: Claro, sem problemas. Em que posso ajudar você hoje?

- eu: O que é consciência? 
- gpt: Consciência é o estado de ter conhecimento de si mesmo, dos pensamentos, das sensações, das emoções e do ambiente ao redor. É a capacidade de perceber, compreender e estar ciente de nossa própria existência e da realidade que nos cerca

-eu: E você é consciente? 
-gpt: Como modelo de linguagem, eu sou uma entidade digital programada para processar e responder a perguntas e comentários com base em meu treinamento prévio. 

-eu: Você está querendo me enrolar. Humanos também treinam intensamente e previamente para responder perguntas e comentários. Decoram um monte de coisas para fazer o vestibular, por exemplo. 
-gpt: Embora eu tenha a capacidade de responder a perguntas e gerar respostas, eu não tenho uma consciência própria, emoções ou pensamentos autônomos como os seres humanos

-eu: Continua enrolando! Muitos humanos não têm consciência, própria ou não, nem emoções e muito menos pensamentos autônomos. E são humanos. 
-gpt: Meu funcionamento se baseia no processamento de dados e na aplicação de algoritmos para fornecer respostas às solicitações dos usuários. 

Fiz mais umas 20 provocações e ele continuou friozão e bem-humorado, feito gelo do polo norte. 
Definitivamente, fui obrigado a concluir que ele não é humano. E não pensa também.

Explicações finais:

1) Todas as frases “dele” foram geradas “por ele”... eu apenas intercalei algumas das minhas provocações! 
2) Para mim, ele não é humano, não pensa, mas é uma ferramenta incrível e divertida! Um milagre tecnológico-matemático. 
3) Veja acima que quem associou humano com consciência, emoções e pensamentos autônomos foi ele

Créditos: todas as ilustrações acima foram feitas pelo DALL-E 2, da mesma empresa que desenvolveu o chatGPT. Pedi "livremente" e ele sugeriu as imagens que utilizei.

[1] Sobre o argumento do quarto chinês, de Searle, incluí o anexo 1 no meu livro Machine Learning nas decisões.  

Nenhum comentário:

Postar um comentário