Mostrando postagens com marcador chatGPT. Mostrar todas as postagens
Mostrando postagens com marcador chatGPT. Mostrar todas as postagens

terça-feira, 4 de abril de 2023

O CHAT ESTUDA UM PDF E CONVERSA COM VOCÊ SOBRE O CONTEÚDO!


 

Era bem previsível que esta ferramenta (os TRANSFORMERS ou GPTs, os geradores pré-treinados de textos) ia mudar muita coisa. Mas não se fazia idéia do alcance das aplicações.

Nos últimos dias, anunciou-se uma aplicação muito especial. O algoritmo de diálogo lê um texto passado para ele, em formato .PDF, e depois conversa sobre o conteúdo do texto com quem lhe deu o PDF para "estudar". É simplicíssimo de usar.

Fiz uma experiência. Usei um trabalho meu, do doutorado, de 40 páginas. Ele recebeu o texto e aí conversei com ele, fiz perguntas etc. Eu pude avaliar a fidelidade das respostas, pois o trabalho é meu. Mas poderia ter feito a experiência com o pdf de um livro, uma dissertação, uma tese.
Robot produzido pela 
ferramenta Dall-E2.

Meu queixo desmoronou!

Fiz várias perguntas e ele respondeu corretamente, dizendo em que página do meu trabalho estava a resposta.
Fiz perguntas para as quais o trabalho não tinha respostas e ele informou, corretamente, que eu não dera uma resposta para aquela pergunta no trabalho. E não tinha dado mesmo.... 😆

Uma colega professora viu minha matéria no Face, experimentou e disse que ficou bouche-bée! (de boca aberta, estupefata!). E não é para menos.

Vale a pena ver: https://www.chatpdf.com/

A versão free tem limites. Mas é possível experimentar....

terça-feira, 7 de março de 2023

GPT, GePeTo: soltaram o pinóquio virtual?

Um amigo desembargador me enviou uma observação interessante. Ele me disse:

- Você percebeu   que e
ssas iniciais GPT lembram o professor GePeTO, o criador do pinóquio?  

E de fato, está todo mundo testando o chatGPT e suas “mentiras”. Eu prefiro chamar de enganos. 😂

Associei tudo imediatamente, claro. Um pinoGPT?  Será que, de fato, temos por aí um GPT pinóquio? 

Muitos neuros dizem que ele até alucina.
Outros 
 falam que ele pira. [1] 

De repente, pode vir à tona o instinto assassino do mentiroso como ocorreu com a mulher do filme  Minha mãe é de morte, lembram?  Ela arrancou o rim da personagem, com um espeto, porque usava sapato branco de manhã. Onde já se viu?  
Ainda bem que o GPT vem sem espeto! 😓


Pois eu também tenho testado bastante o GPT pinóquio. 
Às vezes, faço a pergunta e saio da frente da tela. Não quero levar uma estocada mortal do nariz dele. Afinal, quando o pinóquio mente,  cresce o nariz, lembram?

 O Presidente da Google não conseguiu se esquivar do nariz do GPT deles. Embarcou direitinho. 

Anunciou orgulhoso o chat da empresa (o BARD!) e levou uma pinochatada imperdoável do algoritmo.[2]
O amiguinho infiel pregou a maior mentira e ele repercutiu no anúncio mundial do BARD. 
Dizia respeito a fotos de exoplanetas. O BARD disse prá ele que as primeiras fotos eram de um telescópio, e eram de outro. Um fiasco!

Hoje descobri que o algoritmo  pode ser levado a uma situação interessante. Deu branco nele. Pode? Essa ferramenta está ficando muito humana!

Conversamos sobre um político francês e o papo rolou para comparar comunismo e mutação.

Ele foi muito bem ao falar de comunismo. Mas quando chegou em mutação, começou a piscar, piscar, e não apareceu mentira prá contar.  

Achei bem engraçado. Penso que, ao chegar na aplicação do mecanismo de “atenção”, na fase de decoder, ou seja, naquele momento em que ele olha o que já escreveu na frase para encontrar a palavra seguinte, deu branco nele.😂😂



 
O pinoGPT, coitado, não pôde terminar a verdade que estava contando. Mas também não desandou prá mentira, o que eu achei virtuoso do meu novo amiguinho.
 
Ele só ficou se piscando todo. Parecia que a palavra estava na “ponta da língua”, mas não vinha.
Uma coisa que acontece muito comigo.   

Sem dúvida, podemos colocar defeitos, mas que esta ferramenta é espetacular, não há como negar.
O mundo nunca mais será como antes. Os algoritmos conversadores já puseram até os legisladores da União Europeia em polvorosa enquanto faziam leis para as IAs. [3]
______________________

[1] https://www.metropoles.com/negocios/chatgpt-cuidado-ele-alucina-diz-especialista
[2] 
https://manualdousuario.net/citacao-bard-erro-factual/

[3] ChatGPT quebrou o plano da UE para regular a IA: O plano original da Europa de controlar a IA não é páreo para o novo e brilhante aplicativo de chatbot da tecnologia. VEJA: https://www.politico.eu/article/eu-plan-regulate-chatgpt-openai-artificial-intelligence-act/

 [4] Ilustrações deste post do DALL.E2 da OpenAI, a mesma empresa do chatGPT. 

quinta-feira, 2 de março de 2023

FACEBOOK ACUSA GOLPE DO chatGPT E NEM FICA VERMELHO!

 

O Facebook está "acusando o golpe" do chatGPT.
Ninguém mais fala do metaverso, só do chat...
Não foi golpe baixo, mas a pancada doeu... 😜😂😅
E deve ter doído na chinesada, também, conforme notícia divulgada agora: os chineses lançaram o chat deles. Se chama MOSS. A plataforma diz que está "entalado com os acessos". Algo bem compreensível, uma vez que falar em chinês deve ser difícil mesmo. 😂
Este engenheiro do Facebook diz um monte de verdades (e, neste caso, é bem útil o artigo) e algumas obviedades que a gente não espera ouvir mais (que o chat é a ponta de uma história de desenvolvimentos técnicos, por exemplo...).
O que, no mundo, não é a bola da vez numa montanha de conquistas precedentes?
O trato de linguagem natural, como está sendo feito nessas ferramentas de diálogo, é revolucionário.
Chega até a dar a impressão de que máquinas PENSAM, que operam em meio ao sentido (como nós).
E isso é uma impressão errada. Algoritmos são máquinas. A gente é bem mais complicado: somos sistemas psíquicos.

domingo, 19 de fevereiro de 2023

ChatGPT: provando que esses dialogadores não são humanos.
- VOCÊ CONHECE O MÁRIO?



Para começar o papo (vejam lá embaixo), sugeri ao chatGPT que falássemos em português. Ele concordou imediatamente. Aliás, ele nunca discute, ao contrário do que costumam fazer os humanos, em ocasiões assim. Logo, eu já poderia considerar provada sua natureza não humana. Mas resolvi ir adiante porque, senão, o jogo acabaria muito cedo. 

Meu intento era provar que essas novas máquinas virtuais de diálogo não são humanas

Por que isso? Porque o Blake Lemoine, que criou o modelo LaMDA (a maquininha de diálogo da Google, batizada de BARD), sugeriu que o modelo tinha ganhado consciência (era humano) e foi afastado da empresa. Compreensível, pois o engenheiro pareceu ter se deixado enganar pela criatura a que dera a luz. 

Mas milhões de humanos, quando dialogam com o chatGPT, todos os dias,  e se deliciam com as “tiradas” do conversador maquínico, se perguntam: será humano este algoritmo?  Todos são empurrados para aquele estado que o Descartes chamou de “estado de dúvida metódica”. Afinal, será que não tem consciência mesmo? Será que não é humano mesmo? 

O último diálogo dele que me fez rir foi este: 

-GPT, você conhece o Mário
- Que Mário? – respondeu o solícito algoritmo. 😆Mais humano impossível, não é? Será? 

A pergunta fatídica e antiga (de 1950), do Alan Turing, sobre as máquinas poderem pensar, é equívoca e fala de “pensamento” e não de “humanidade”. Podem as máquinas pensar? E o Turing propôs o jogo da imitação para tirar a prova. No dia em que a máquina conseguisse enganar um humano e esconder sua natureza de máquina, estaria provado que as máquinas poderiam pensar. Ele apostou que, em 50 anos, máquinas passariam no teste. Seriam capazes de se passar por humanas num diálogo com um humano. O chatGPT estaria  conseguindo pensar, então? Que isso está pondo pulga atrás da orelha de muita gente, não há dúvida!😕

Pode-se imaginar que o Turing escorregou na casca de banana jogada pelo Descartes: “penso, logo existo!” Ora, a conclusão do Descartes foi “existo” e não “sou humano”, que é a resposta que estou procurando. 

O Descartes foi esperto para não misturar as coisas (pensar e ser humano). Afinal, está cheio de coisas, por aí, que não pensam, mas existem. Inclusive alguns humanos.😅 O que significa que “não penso, logo existo” também seria aceitável. 

Estamos num tempo em que distinguir máquinas de humanos se tornou crucial. E pensar já não parece servir para fazer a distinção. 

O filósofo John Searle, com o famoso esquema do “quarto chinês” [1], pôs as coisas em termos diferentes, bem adequados para analisar o chatGPT.  Vejamos simplificadamente:

Pedro, um humano que não entende chinês, é posto num quarto com uma tabela de conversão de símbolos chineses. É o tal de quarto chinês e a tabela vincula símbolos chineses com outros símbolos chineses. 

SiangXo é um chinês que está fora do quarto, não conhece o Pedro e não sabe que Pedro tem a tabela de conversão no quarto. 
SiangXo tem de falar com Pedro, enviando símbolos chineses aos quais o Pedro responde devolvendo outro símbolo chinês, após consultar a tabela de conversão. 
Depois de um tempo de conversa (troca de símbolos com o Pedro), SiangXo jura que Pedro entende chinês. Afinal, bateu o maior papo com ele. 
Mas o humano Pedro não sabe nada dos conteúdos e sentidos dos símbolos que manipulou e nem sobre o que conversou. 

Para o filósofo Searle, a mera manipulação de símbolos não significa pensar. E, portanto, o chatGPT não pensa. Máquinas virtuais, como os algoritmos, sabem encadear símbolos e assim podem enganar quem dialoga com elas. Mas não pensam porque pensar é algo diferente de manipular símbolos mecanicamente. 

O Pedro manipulou símbolos, falou com o SiangXo em chinês, mas é claro que não pensou. Ao menos não pensou naquilo que o chinês estava conversando com ele. Ele nem sabe que houve, de fato, uma conversa. 

Pois é... mas o Pedro é humano, tem consciência. Logo, será que o chatGPT pode ser/ter também? 

Resolvi perguntar a ele o que ele entendia por consciência. 

- eu: Vamos falar em português, por favor!
- gpt: Claro, sem problemas. Em que posso ajudar você hoje?

- eu: O que é consciência? 
- gpt: Consciência é o estado de ter conhecimento de si mesmo, dos pensamentos, das sensações, das emoções e do ambiente ao redor. É a capacidade de perceber, compreender e estar ciente de nossa própria existência e da realidade que nos cerca

-eu: E você é consciente? 
-gpt: Como modelo de linguagem, eu sou uma entidade digital programada para processar e responder a perguntas e comentários com base em meu treinamento prévio. 

-eu: Você está querendo me enrolar. Humanos também treinam intensamente e previamente para responder perguntas e comentários. Decoram um monte de coisas para fazer o vestibular, por exemplo. 
-gpt: Embora eu tenha a capacidade de responder a perguntas e gerar respostas, eu não tenho uma consciência própria, emoções ou pensamentos autônomos como os seres humanos

-eu: Continua enrolando! Muitos humanos não têm consciência, própria ou não, nem emoções e muito menos pensamentos autônomos. E são humanos. 
-gpt: Meu funcionamento se baseia no processamento de dados e na aplicação de algoritmos para fornecer respostas às solicitações dos usuários. 

Fiz mais umas 20 provocações e ele continuou friozão e bem-humorado, feito gelo do polo norte. 
Definitivamente, fui obrigado a concluir que ele não é humano. E não pensa também.

Explicações finais:

1) Todas as frases “dele” foram geradas “por ele”... eu apenas intercalei algumas das minhas provocações! 
2) Para mim, ele não é humano, não pensa, mas é uma ferramenta incrível e divertida! Um milagre tecnológico-matemático. 
3) Veja acima que quem associou humano com consciência, emoções e pensamentos autônomos foi ele

Créditos: todas as ilustrações acima foram feitas pelo DALL-E 2, da mesma empresa que desenvolveu o chatGPT. Pedi "livremente" e ele sugeriu as imagens que utilizei.

[1] Sobre o argumento do quarto chinês, de Searle, incluí o anexo 1 no meu livro Machine Learning nas decisões.