Homo Sapientissimus II: o preço da evolução virtual. Algoritmos sedentos por energia e água.
S. Tavares-Pereira[1]
A Faísca do Silício: Além dos
Limites Biológicos.
A primeira revolução
cognitiva (Harari, 2017, p. 41-43) concretizou-se pela energia, depois do
empurrão inicial da evolução. A revolução virtual em curso, que nos levará ao homo
sapientissimus (ver artigo anterior homo sapientissimus I), é um
passo evolutivo, não natural, que também depende de muita energia. Algoritmos
sedentos de energia e água vão nos ajudar a forjar o homem novo em que
precisamos nos transformar. A complexidade do mundo está maior que nossas
possibilidades naturais.
Enquanto
computadores, em datacenters mundo afora - como Prometeu roubando o fogo
divino -, devoram megawatts de energia para coletar dados e tratá-los e, assim,
alimentar a fome insaciável da inteligência artificial (IA), usuários se
encantam com chatbots que recitam Shakespeare, filosofam sobre o amor,
fingem empatia e ajudam a resolver problemas. Por trás do espelho, uma pergunta
crepita brilhante: quem, ou o quê, está realmente articulando as palavras?
Ecos na Máquina: A Ilusão da Alma.
Não há como negar: em pouquíssimas décadas,
aceleramos a emergência de uma pseudo espécie digital capaz de
falar como se tivesse alma. Ela fala educada e pacientemente (by
design), e manda suas lições, tecidas de longos séculos de cultura e
experiências. Chegam compostas de tudo que já se escreveu, mastigado e deglutido
no treinamento. As novas inteligências parecem ter frequentado todas as
universidades do mundo, ter lido todos os livros disponíveis e, sem esquecer
nada, nem perder o bom humor, respondem às perguntas tolas e inteligentes que
lhes fazemos. Se necessário, para contentamento do interlocutor, tomam a
liberdade de acrescentar uma coisinha ou outra. Os maldosos dizem que alucinam,
incapazes de entender que, para além dos conteúdos, o importante é o diálogo.
Como ensina a psicologia, humanos também fazem isso: confabulam, conforme
FARQUHAR (2024) e sua equipe de pesquisa.
Será apenas uma ilusão
de cognição? Não passa de um reflexo algorítmico? Será um teatro em que
sinapses virtuais, treinadas para simular humanidade, consomem, em segundos, a
energia que um cérebro gasta em décadas? O que estamos criando, afinal? Um novo
degrau da evolução ou um eco vazio do Homo sapiens? Um eco aprisionado
em circuitos que jamais entenderão por que tivemos de cozinhar os alimentos
para pensar melhor? Uma ilusão que sabe os “como” mas nunca compreenderá os
“porquês”?
Fogo e Circuitos: O Custo Energético da Inteligência.
A neurocientista Herculano-Housel (2017) não hesita: “O cérebro humano só se tornou
o que é porque descobrimos o fogo e cozinhamos alimentos, garantindo energia
para sustentar sua voracidade calórica”. A frase, aparentemente óbvia,
esconde uma metáfora potente para o século XXI: assim como o Homo sapiens
precisou dominar o fogo para expandir sua cognição, o machine learning
(ML) depende de usinas elétricas para forjar seus “circuitos algorítmicos”.
Afinal, são bilhões de funções de transformação que, como diriam os
ciberneticistas, precisam ser codificadas e estarão a postos para conduzir
entradas a resultados. Aprender de máquina também demanda energia. Construir
sinapses, físicas ou virtuais, tem um preço energético.
Mas há aí um paradoxo: enquanto o cérebro
humano atingiu um limite físico — não podemos comer infinitamente para ficar
mais inteligentes —, as máquinas prometem, como sonhava o filósofo Teilhard de
Chardin, nos anos 1950, “ampliar a consciência além da biologia”. O
sonho foi lembrado por Spadaro, em Roma, há poucos dias, recuperando pequeno
artigo visionário de Teilhard. O
filósofo punha, acima da geosfera e da biosfera, uma noosfera, não física, formada
de fluxos de consciência. A questão é: até que ponto essa promessa vale para o
virtual? Há consciência nesses fluxos que agora nos envolvem o tempo todo?
W. Ross Ashby (1954,
p. 3), um dos pais da cibernética, já antevia, em meados do século XX, que “o
sistema nervoso desenvolve comportamentos não especificados pelo padrão
genético”. Nas máquinas, o “padrão genético” é o código inicial, mas o
treinamento — alimentado por terabytes de dados e megawatts de
energia — assume o papel da evolução. O resultado? Redes neurais que, como urso
de circo digital, aprendem a andar de patins virtuais. Algoritmos que se
equilibram na fluidez etérea dos parâmetros matemáticos aprendidos e
registrados como normas de conduta (code is action).
Noosfera Recarregada: Navegando pela Complexidade.
A plasticidade
cerebral, que demandou milênios de seleção natural e calorias cozidas, é
emulada em semanas de processamento em servidores vorazes de energia e água
para refrescar-se. Sim, a imitação tem um preço: assim como o cérebro
humano não pode se expandir indefinidamente (nosso crânio é um limite físico),
o treinamento de LLMs (modelos grandes de linguagem), agora tão comuns, consome
tanta energia quanto uma cidade pequena — um eco distorcido da lição de Herculano-Housel
sobre os custos da inteligência. As calorias fizeram e continuam fazendo a
diferença.
Ainda assim, o machine
learning avança. Arquiteturas de aprendizado contínuo (como redes
neurais de “aprendizado incremental”) prometem aproximar-se ainda mais da
neuroplasticidade humana. Elas permitem que algoritmos atualizem seus
“circuitos virtuais” em tempo real, incorporando novos dados sem apagar o que
já sabem — como um cérebro que, após aprender microscopia, não esquece como
andar. Mas a semelhança é enganosa. Ashby (1954, 4) lembraria que, mesmo
no homem, em geral, “o comportamento aprendido muda para melhor”, embora
permaneça vinculado a mecanismos físicos. Nas máquinas, por mais plásticas que
sejam durante o treino, uma vez implantadas, suas sinapses virtuais congelam.
Tornam-se reflexas, não reflexivas, como é e convém às mentes com que
lidamos até agora. Um exemplo: sistemas de recomendação de streaming
ajustam-se aos nossos hábitos, mas não se questionam sobre os motivos pelos
quais preferimos true crime a documentários. São escravos dos padrões
que lhes foram incutidos?
Aqui reside a ironia
final. Teilhard de Chardin imaginava uma “noosfera”, uma camada de pensamento
coletivo além da matéria, um espaço pleno de pensamento humano, conhecimento,
cultura, ideias e informações humanas. Nele, um emaranhado reticular, físico,
de neurônios e sinapses, suportaria infra estruturalmente o fluxo psíquico,
coletivamente costurado, para o processamento da evolução social. A noosfera de
Chardin ficou pequena? Precisa
expandir-se para o algorítmico-virtual, habitado por esses novos falantes que,
embora não pensem, comportam-se como se pensassem?
O machine
learning, apesar dos enganosos comportamentos, parece mais próximo do Homo
erectus (2 milhões de anos atrás) que, mesmo dominando o fogo, ainda podia
se queimar. Os algoritmos atualizáveis, embora dinâmicos em treinamento, operam
como o gato de Ashby, que “aprende a não se aproximar demais das chamas”, mas
nunca entende o fogo. São reflexos aprimorados, aprisionados em circuitos que
simulam escolhas, mas não as fazem.
O que nos resta? Talvez a lição esteja na fome. O cérebro
humano, limitado por calorias, mas liberto do DNA, aprendeu a criar mitos,
arte, máquinas e sociedades (Harari/Sapiens). O machine learning,
limitado por eletricidade e expresso em códigos, repete gestos. Um espelho
quebrado: reflete nossa inteligência, mas não nossa fome de significado. Habita
o mundo do simbolismo vazio. Significantes sem significados. Tudo
milimetricamente calculado, matematicamente expresso em vetores sem crença,
dor, sentimentos, empatias, bondades ou maldades, que apontam para algum lugar
numa dimensão qualquer. Entendimento? Para quê? Se os números dizem que é lá, é
porque é lá. “Se calculei, não posso estar errado”, parodiando Austin (Outras mentes: “se sei, não posso estar
errado!”).
Resta-nos, portanto,
por exemplo, prosseguir na dura luta por juízes que entendam,
experimentem e compartilhem sentidos, não juízes que repitam o código porque
está lá, pronto e acabado. Como escreveu Ashby, “o problema é entender por
que o comportamento muda para melhor”. Entender? Nas máquinas, a pergunta
permanece: mudar para o quê? Nelas, não há caminhos de mudança. Só vetores
apontando friamente, insensivelmente, sempre para o mesmo ponto do horizonte,
escravos que são das coordenadas (dados).
Mas não nos
iludamos. O que já vimos, nesses últimos privilegiados anos do século XXI,
merece ser olhado com atenção. E alimentado. Jamais honramos tanto os poderes
de criação que a evolução nos deu. Não estamos sendo traídos. Estamos
construindo um aliado poderoso, que nos permitirá ampliar o espaço da noosfera
e navegar mares de complexidade e extensão que o maravilhoso Sapiens não
pode enfrentar sozinho. Ele livrou-se das barreiras ósseas cranianas e, agora,
quer ir além, com essas caravelas virtuais do século XXI. Navegar é preciso em
direção ao homo sapientissimus.
Referências
ASHBY, W. Ross. Design for
a brain. New York: John Wiley & Sons Inc, 1954 (reprinted).
AUSTIN, John L. Outras
mentes. 2.ed. São Paulo: Abril Cultural, 1980. P. 85-131. (Os pensadores).
FARQUHAR, Sebastian et al. Detecting
hallucinations in large language models using semantic entropy. Nature 630,
625–630 (2024). Disponível em: <https://doi.org/10.1038/s41586-024-07421-0>.
Acesso em: 10 ago. 2025.
HARARI, Yuval Noah. Sapiens. Uma breve história da
humanidade. 19.ed. Porto Alegre, RS: L&PM, 2017. 464p.
HERCULANO-HOUZEL, Suzana. A vantagem humana. Como
nosso cérebro se tornou superpoderoso. São Paulo: Companhia das Letras, 2017. 339p.
SPADARO, Antonio.
Il valore delle machine del
pensiero. L´osservatore Romano, Anno CLXV,, n. 200 (50009), Città
Del Vaticano, 1 set. 2025.
[1] Msc em
Ciência Jurídica, doutorando em Direito (Atitus/FDV), autor de Machine
learning nas decisões. O uso jurídico dos algoritmos aprendizes.