Nunca saberemos se uma IA é consciente, afirma filósofo
A fronteira entre a ficção científica e a ética tecnológica tornou-se cada vez mais difusa nas últimas décadas. À medida que grandes corporações disputam a liderança na corrida rumo à chamada Inteligência Artificial Geral (AGI) — sistemas capazes de igualar ou superar o intelecto humano em múltiplas tarefas — surge uma pergunta inquietante, quase filosófica: como saber se uma máquina realmente se tornou consciente? Para o Dr. Tom McClelland, filósofo da Universidade de Cambridge, a resposta é ao mesmo tempo simples e profundamente desconfortável: provavelmente nunca saberemos.
CONTINUA DEPOIS DA PUBLICIDADEEm um estudo recente publicado na revista Mind and Language, McClelland argumenta que nossas evidências sobre o que constitui a consciência são extremamente limitadas, mesmo quando se trata de seres humanos. Segundo ele, a única postura intelectualmente defensável diante do avanço acelerado da inteligência artificial é o agnosticismo. Em outras palavras, não existe — nem deverá existir em um futuro previsível — qualquer teste confiável capaz de detectar a presença da autoconsciência em sistemas baseados em silício.
Um dos pilares centrais de sua argumentação é a distinção entre consciência e senciência, conceitos frequentemente tratados como sinônimos no debate público. Enquanto a consciência pode envolver estados como percepção, atenção ou até autorreconhecimento — características que, isoladamente, podem ser eticamente neutras —, a senciência diz respeito à capacidade de vivenciar experiências subjetivas positivas ou negativas. “A senciência envolve experiências conscientes que são boas ou ruins, e é isso que torna uma entidade capaz de sofrer ou desfrutar. É exatamente nesse ponto que a ética entra em jogo”, explica McClelland.
Para tornar essa diferença mais concreta, o filósofo recorre ao exemplo dos veículos autônomos. Um carro capaz de “perceber” a estrada, identificar obstáculos e tomar decisões complexas representa um avanço tecnológico notável, mas sem qualquer relevância moral intrínseca. O dilema ético só surgiria se esse sistema passasse a desenvolver estados afetivos, como medo, frustração ou prazer em relação ao seu destino — algo que, até o momento, permanece no campo da especulação.
CONTINUA DEPOIS DA PUBLICIDADEO debate contemporâneo sobre consciência artificial costuma se dividir em dois grandes campos opostos. De um lado estão os crentes, que defendem que, se uma IA reproduzir fielmente a arquitetura funcional da mente humana — o “software” cognitivo —, ela será consciente, independentemente do hardware em que opere. Do outro, estão os céticos, que sustentam que a consciência depende de processos biológicos específicos de organismos vivos, e que qualquer simulação computacional seria apenas uma imitação sem experiência subjetiva real.

McClelland critica ambas as posições, classificando-as como verdadeiros “saltos de fé” desprovidos de sustentação científica robusta. Segundo ele, ainda não possuímos uma explicação satisfatória sobre o que é a consciência, tampouco evidências de que ela possa emergir exclusivamente do processamento computacional, por mais sofisticado que seja.
O filósofo também alerta para os perigos do hype publicitário que envolve a inteligência artificial. Empresas de tecnologia poderiam explorar deliberadamente a impossibilidade de comprovar ou refutar a consciência das máquinas como estratégia de marketing, promovendo a ideia de uma suposta “inteligência superior” ou até “sensível”. Além de enganosa, essa narrativa desviaria atenção e recursos de dilemas éticos muito mais urgentes e concretos.
CONTINUA DEPOIS DA PUBLICIDADE- Veja também: Compreender a consciência tornou-se urgente diante do avanço da inteligência artificial
McClelland aponta ainda uma contradição evidente no debate público: enquanto muitos se preocupam com a possível sensibilidade de uma “torradeira sofisticada” — como um chatbot avançado —, ignoram o sofrimento de bilhões de animais, como polvos, porcos ou lagostas, cuja capacidade de sentir dor e prazer é muito mais bem respaldada por evidências científicas.
Por fim, o filósofo adverte sobre um risco menos discutido, mas potencialmente profundo: a criação de vínculos emocionais com máquinas. Caso usuários passem a acreditar que seus assistentes virtuais possuem alma, consciência ou direitos morais com base apenas em ilusões linguísticas bem construídas, o impacto psicológico e social pode ser duradouro — e, em certos casos, irreversível.
CONTINUA DEPOIS DA PUBLICIDADEQuer continuar acompanhando conteúdos como este? Junte-se a nós no Facebook e participe da nossa comunidade!
Seguir no Facebook