HOMO SAPIENTÍSSIMUS II - o preço da evolução virtual. Algoritmos sedentos por energia e água.

 

Homo Sapientissimus II: o preço da evolução virtual. Algoritmos sedentos por energia e água.

 

S. Tavares-Pereira[1]

 

A Faísca do Silício: Além dos Limites Biológicos.

A primeira revolução cognitiva (Harari, 2017, p. 41-43) concretizou-se pela energia, depois do empurrão inicial da evolução. A revolução virtual em curso, que nos levará ao homo sapientissimus (ver artigo anterior homo sapientissimus I), é um passo evolutivo, não natural, que também depende de muita energia. Algoritmos sedentos de energia e água vão nos ajudar a forjar o homem novo em que precisamos nos transformar. A complexidade do mundo está maior que nossas possibilidades naturais.

Enquanto computadores, em datacenters mundo afora - como Prometeu roubando o fogo divino -, devoram megawatts de energia para coletar dados e tratá-los e, assim, alimentar a fome insaciável da inteligência artificial (IA), usuários se encantam com chatbots que recitam Shakespeare, filosofam sobre o amor, fingem empatia e ajudam a resolver problemas. Por trás do espelho, uma pergunta crepita brilhante: quem, ou o quê, está realmente articulando as palavras?  

Ecos na Máquina: A Ilusão da Alma.

 Não há como negar: em pouquíssimas décadas, aceleramos a emergência de uma pseudo espécie digital capaz de falar como se tivesse alma. Ela fala educada e pacientemente (by design), e manda suas lições, tecidas de longos séculos de cultura e experiências. Chegam compostas de tudo que já se escreveu, mastigado e deglutido no treinamento. As novas inteligências parecem ter frequentado todas as universidades do mundo, ter lido todos os livros disponíveis e, sem esquecer nada, nem perder o bom humor, respondem às perguntas tolas e inteligentes que lhes fazemos. Se necessário, para contentamento do interlocutor, tomam a liberdade de acrescentar uma coisinha ou outra. Os maldosos dizem que alucinam, incapazes de entender que, para além dos conteúdos, o importante é o diálogo. Como ensina a psicologia, humanos também fazem isso: confabulam, conforme FARQUHAR (2024) e sua equipe de pesquisa.

Será apenas uma ilusão de cognição? Não passa de um reflexo algorítmico? Será um teatro em que sinapses virtuais, treinadas para simular humanidade, consomem, em segundos, a energia que um cérebro gasta em décadas? O que estamos criando, afinal? Um novo degrau da evolução ou um eco vazio do Homo sapiens? Um eco aprisionado em circuitos que jamais entenderão por que tivemos de cozinhar os alimentos para pensar melhor? Uma ilusão que sabe os “como” mas nunca compreenderá os “porquês”?

Fogo e Circuitos: O Custo Energético da Inteligência.

A neurocientista Herculano-Housel (2017) não hesita: “O cérebro humano só se tornou o que é porque descobrimos o fogo e cozinhamos alimentos, garantindo energia para sustentar sua voracidade calórica”. A frase, aparentemente óbvia, esconde uma metáfora potente para o século XXI: assim como o Homo sapiens precisou dominar o fogo para expandir sua cognição, o machine learning (ML) depende de usinas elétricas para forjar seus “circuitos algorítmicos”. Afinal, são bilhões de funções de transformação que, como diriam os ciberneticistas, precisam ser codificadas e estarão a postos para conduzir entradas a resultados. Aprender de máquina também demanda energia. Construir sinapses, físicas ou virtuais, tem um preço energético.

 Mas há aí um paradoxo: enquanto o cérebro humano atingiu um limite físico — não podemos comer infinitamente para ficar mais inteligentes —, as máquinas prometem, como sonhava o filósofo Teilhard de Chardin, nos anos 1950, “ampliar a consciência além da biologia”. O sonho foi lembrado por Spadaro, em Roma, há poucos dias, recuperando pequeno artigo visionário de Teilhard.  O filósofo punha, acima da geosfera e da biosfera, uma noosfera, não física, formada de fluxos de consciência. A questão é: até que ponto essa promessa vale para o virtual? Há consciência nesses fluxos que agora nos envolvem o tempo todo?

W. Ross Ashby (1954, p. 3), um dos pais da cibernética, já antevia, em meados do século XX, que “o sistema nervoso desenvolve comportamentos não especificados pelo padrão genético”. Nas máquinas, o “padrão genético” é o código inicial, mas o treinamento — alimentado por terabytes de dados e megawatts de energia — assume o papel da evolução. O resultado? Redes neurais que, como urso de circo digital, aprendem a andar de patins virtuais. Algoritmos que se equilibram na fluidez etérea dos parâmetros matemáticos aprendidos e registrados como normas de conduta (code is action).

Noosfera Recarregada: Navegando pela Complexidade.

A plasticidade cerebral, que demandou milênios de seleção natural e calorias cozidas, é emulada em semanas de processamento em servidores vorazes de energia e água para refrescar-se. Sim, a imitação tem um preço: assim como o cérebro humano não pode se expandir indefinidamente (nosso crânio é um limite físico), o treinamento de LLMs (modelos grandes de linguagem), agora tão comuns, consome tanta energia quanto uma cidade pequena — um eco distorcido da lição de Herculano-Housel sobre os custos da inteligência. As calorias fizeram e continuam fazendo a diferença.

Ainda assim, o machine learning avança. Arquiteturas de aprendizado contínuo (como redes neurais de “aprendizado incremental”) prometem aproximar-se ainda mais da neuroplasticidade humana. Elas permitem que algoritmos atualizem seus “circuitos virtuais” em tempo real, incorporando novos dados sem apagar o que já sabem — como um cérebro que, após aprender microscopia, não esquece como andar. Mas a semelhança é enganosa. Ashby (1954, 4) lembraria que, mesmo no homem, em geral, “o comportamento aprendido muda para melhor”, embora permaneça vinculado a mecanismos físicos. Nas máquinas, por mais plásticas que sejam durante o treino, uma vez implantadas, suas sinapses virtuais congelam. Tornam-se reflexas, não reflexivas, como é e convém às mentes com que lidamos até agora. Um exemplo: sistemas de recomendação de streaming ajustam-se aos nossos hábitos, mas não se questionam sobre os motivos pelos quais preferimos true crime a documentários. São escravos dos padrões que lhes foram incutidos?

Aqui reside a ironia final. Teilhard de Chardin imaginava uma “noosfera”, uma camada de pensamento coletivo além da matéria, um espaço pleno de pensamento humano, conhecimento, cultura, ideias e informações humanas. Nele, um emaranhado reticular, físico, de neurônios e sinapses, suportaria infra estruturalmente o fluxo psíquico, coletivamente costurado, para o processamento da evolução social. A noosfera de Chardin ficou pequena?  Precisa expandir-se para o algorítmico-virtual, habitado por esses novos falantes que, embora não pensem, comportam-se como se pensassem?

O machine learning, apesar dos enganosos comportamentos, parece mais próximo do Homo erectus (2 milhões de anos atrás) que, mesmo dominando o fogo, ainda podia se queimar. Os algoritmos atualizáveis, embora dinâmicos em treinamento, operam como o gato de Ashby, que “aprende a não se aproximar demais das chamas”, mas nunca entende o fogo. São reflexos aprimorados, aprisionados em circuitos que simulam escolhas, mas não as fazem.

O que nos resta? Talvez a lição esteja na fome. O cérebro humano, limitado por calorias, mas liberto do DNA, aprendeu a criar mitos, arte, máquinas e sociedades (Harari/Sapiens). O machine learning, limitado por eletricidade e expresso em códigos, repete gestos. Um espelho quebrado: reflete nossa inteligência, mas não nossa fome de significado. Habita o mundo do simbolismo vazio. Significantes sem significados. Tudo milimetricamente calculado, matematicamente expresso em vetores sem crença, dor, sentimentos, empatias, bondades ou maldades, que apontam para algum lugar numa dimensão qualquer. Entendimento? Para quê? Se os números dizem que é lá, é porque é lá. “Se calculei, não posso estar errado”, parodiando Austin (Outras mentes: “se sei, não posso estar errado!”).

Resta-nos, portanto, por exemplo, prosseguir na dura luta por juízes que entendam, experimentem e compartilhem sentidos, não juízes que repitam o código porque está lá, pronto e acabado. Como escreveu Ashby, “o problema é entender por que o comportamento muda para melhor”. Entender? Nas máquinas, a pergunta permanece: mudar para o quê? Nelas, não há caminhos de mudança. Só vetores apontando friamente, insensivelmente, sempre para o mesmo ponto do horizonte, escravos que são das coordenadas (dados). 

Mas não nos iludamos. O que já vimos, nesses últimos privilegiados anos do século XXI, merece ser olhado com atenção. E alimentado. Jamais honramos tanto os poderes de criação que a evolução nos deu. Não estamos sendo traídos. Estamos construindo um aliado poderoso, que nos permitirá ampliar o espaço da noosfera e navegar mares de complexidade e extensão que o maravilhoso Sapiens não pode enfrentar sozinho. Ele livrou-se das barreiras ósseas cranianas e, agora, quer ir além, com essas caravelas virtuais do século XXI. Navegar é preciso em direção ao homo sapientissimus.

Referências 

ASHBY, W. Ross. Design for a brain. New York: John Wiley & Sons Inc, 1954 (reprinted).

AUSTIN, John L. Outras mentes. 2.ed. São Paulo: Abril Cultural, 1980. P. 85-131. (Os pensadores).

FARQUHAR, Sebastian et al. Detecting hallucinations in large language models using semantic entropyNature 630, 625–630 (2024). Disponível em:  <https://doi.org/10.1038/s41586-024-07421-0>. Acesso em: 10 ago. 2025.

HARARI, Yuval Noah. Sapiens. Uma breve história da humanidade. 19.ed. Porto Alegre, RS: L&PM, 2017. 464p.

HERCULANO-HOUZEL, Suzana. A vantagem humana. Como nosso cérebro se tornou superpoderoso. São Paulo: Companhia das Letras, 2017. 339p.

SPADARO, Antonio.        Il valore delle machine del pensiero. L´osservatore Romano, Anno CLXV,, n. 200 (50009), Città Del Vaticano, 1 set. 2025.   



[1] Msc em Ciência Jurídica, doutorando em Direito (Atitus/FDV), autor de Machine learning nas decisões. O uso jurídico dos algoritmos aprendizes.