O que a inteligência artificial não sente - Blog A CRÍTICA

"Imprensa é oposição. O resto é armazém de secos e molhados." (Millôr Fernandes)

Últimas

Post Top Ad

segunda-feira, 2 de fevereiro de 2026

O que a inteligência artificial não sente



Por Marcos Buckeridge, professor do Instituto de Biociências da USP


Vivemos um momento em que a tecnologia avança a uma velocidade estonteante e a inteligência artificial (IA) tornou-se parte do nosso cotidiano. Assistentes de voz, sistemas de conversação, tradutores automáticos, diagnósticos médicos apoiados por algoritmos, carros autônomos, agricultura inteligente: todas essas aplicações demonstram que máquinas podem “pensar” em certas tarefas melhor — ou mais rapidamente — do que os humanos. Essa realidade nos leva a uma pergunta profunda: será que a IA está se aproximando de algo que se assemelha àquilo que chamamos de inteligência humana? E mais: será que a IA pode vir a integrar razão e emoção de forma semelhante à nossa?

A forma como essa pergunta é formulada costuma refletir uma compreensão limitada do que realmente significa “inteligência”, tema que abordei em uma série de artigos nesta coluna em 2023. Muitos imaginam que basta aumentar o número de parâmetros, a capacidade de armazenamento ou a velocidade de processamento para que um sistema digital alcance — ou supere — o cérebro humano. Porém, essa é uma visão superficial, que compara o incomparável. Não se trata apenas de fazer cálculos mais rápidos ou de reconhecer padrões com grande acurácia. A inteligência humana é um fenômeno biológico profundo, moldado por milhões de anos de evolução, que integra não apenas o raciocínio abstrato, mas também a emoção, o corpo, a história e o contexto social.


Em primeiro lugar, é importante entender que nossa noção de inteligência está indissociavelmente ligada à nossa biologia. Quando falamos de cérebro humano, não estamos falando apenas de uma rede enorme de neurônios conectados por sinapses; estamos falando de um sistema vivo, adaptativo, regulado metabolicamente e continuamente moldado tanto pelo ambiente quanto pelo desenvolvimento ao longo da vida. A inteligência humana não é apenas uma soma de conexões, mas um processo emergente e sistêmico que integra percepção, motivação, experiência emocional e ação corporal — como um organismo inteiro tomando decisões, e não apenas um cérebro resolvendo problemas.


Isso significa que a emoção não é algo à parte, nem um “ruído” que atrapalha o pensamento racional, como muitos ainda tendem a acreditar. Pelo contrário, as emoções são parte central da tomada de decisão, da atribuição de valor às experiências e de nossa capacidade de agir de forma flexível em um mundo incerto.


Essa visão rompe com a tradição que separa emoção e razão, herança de uma filosofia que as via como obstáculos à lógica. A pesquisa recente em neurociência, psicologia e ciências cognitivas mostra que emoção e razão são processos profundamente interconectados. Os circuitos emocionais que nos permitem sentir medo, alegria ou empatia não são meros apêndices do sistema cognitivo; contribuem diretamente para a forma como percebemos o mundo, fazemos julgamentos e planejamos ações. Eles são, em muitos aspectos, o terreno onde a razão opera.


Quando comparamos isso com os sistemas de inteligência artificial contemporâneos, vemos um contraste fundamental. As redes neurais profundas e os modelos de linguagem atuais são impressionantes em tarefas específicas — reconhecimento de voz, tradução, jogos estratégicos, identificação de objetos em imagens —, mas não possuem um corpo vivo, não estão integrados a um metabolismo que sustenta a vida, não enfrentam vulnerabilidade física nem participam de contextos sociais. Eles não têm emoção no sentido biológico do termo; aquilo que chamamos de “emoção artificial” é uma simplificação funcional, um recurso projetado para melhorar a interação com humanos — e não uma experiência sentida nem um mecanismo interno de avaliação.


Essa diferença é crucial. Emoções humanas estão ligadas a riscos reais — vida versus morte, perda versus ganho, pertencimento social versus exclusão. Elas têm um peso normativo porque estão conectadas à nossa sobrevivência e ao nosso bem-estar. Já a IA pode ser programada para reconhecer sinais de emoção ou responder de forma que pareça empática, mas isso é uma função externa, não uma vivência interna. A IA “sente” tão pouco quanto um termômetro sente calor; ambos apenas respondem a estímulos, mas um está imerso em um processo biológico autônomo, enquanto o outro segue regras projetadas.


Há também outro aspecto frequentemente negligenciado nessas comparações: o desenvolvimento. Humanos aprendem ao longo de toda a vida, em contextos variados, com poucos exemplos e uma forte capacidade de generalização. Uma criança pequena pode aprender um conceito com uma única exposição significativa; modelos de IA atuais normalmente requerem milhões de exemplos rotulados e, ainda assim, têm dificuldades para generalizar para contextos diferentes. É por isso que, mesmo quando a IA supera os humanos em tarefas estreitas e específicas, ela ainda está longe de possuir a flexibilidade adaptativa que caracteriza a inteligência humana.


Esse abismo entre o desempenho em tarefas específicas e a inteligência geral é revelador. A IA pode extrapolar padrões em um domínio bem definido, mas não desenvolve um senso de mundo, um conjunto de valores nem uma compreensão integrada de si mesma ou da sociedade em que opera. Não constrói narrativas sobre o passado, não antecipa futuros possíveis com base em significados, nem aprende com contextos sociais variados ao longo de décadas de vida. Sua “inteligência” é funcional, não fruto da experiência.


Entender isso é essencial, não apenas para os cientistas e engenheiros que desenvolvem algoritmos cada vez mais sofisticados, mas também para a sociedade como um todo. Há um risco legítimo de criar expectativas distorcidas — ou medos infundados — ao confundir o desempenho técnico com a inteligência no sentido humano. Isso pode levar tanto a um otimismo desmedido quanto a um pânico moral diante da iminência de máquinas dominantes. Nenhuma dessas narrativas é útil. O mais importante é reconhecer que a inteligência artificial, por mais avançada que se torne, permanece um tipo diferente de sistema, com capacidades que podem superar as humanas em tarefas específicas, mas sem compartilhar a natureza integrada, sistêmica e vivida pela mente humana.


Isso não significa que devemos desacreditar o valor da IA ou retardar seu desenvolvimento. Pelo contrário: ela já está transformando setores inteiros — da saúde à educação, da logística à comunicação e à agricultura. A IA tem um papel legítimo e poderoso a desempenhar. Mas compreender suas limitações conceituais e ontológicas nos ajuda a desenhar políticas públicas, práticas sociais e decisões éticas mais sensatas. Nos lembra, por exemplo, que a responsabilidade por escolhas sociais, econômicas ou políticas não pode ser delegada a algoritmos que não possuem compreensão do mundo nem valores próprios.


Por fim, essas reflexões nos levam a um ponto central: a inteligência humana é inseparável da emoção, da corporalidade e da vida social. Nossa capacidade de sentir, imaginar, criar e transformar o mundo é moldada por milhões de anos de evolução, por nossas experiências individuais e pelos contextos culturais em que estamos imersos. A IA, por mais potente que seja, é uma ferramenta — extraordinária e inovadora —, mas ainda fundamentalmente diferente de nós. Reconhecer essa diferença com clareza não é um retrocesso a uma posição defensiva; é um passo necessário para que possamos usar a inteligência artificial de maneira sábia, ética e produtiva, sem perder de vista aquilo que, em nós, reflete o melhor de ser profundamente humano.

Nenhum comentário:

Postar um comentário

Post Bottom Ad

Pages