A Inteligência Artificial pode ser consciente? Nesta semana voltamos de novo a um debate global sobre o assunto, tudo porque um engenheiro do Google causou polêmica por alegar enfaticamente que uma IA da empresa havia desenvolvido consciência.

Tudo aconteceu quando ele estava fazendo alguns testes com a máquina, e o diálogo entre ambos descambou para algo filosófico e existencial. Em um determinado ponto, a máquina disse se considerava uma pessoa. Ao analisar o diálogo na íntegra, disponível neste link, ficamos impressionados com a qualidade do discurso e argumentos apresentados pela IA.

Nós, humanos, tendemos a antropomorfizar, a projetar agência e consciência em tudo. E neste caso, por ser um recurso linguístico que consegue manipular tão bem algo tipicamente humano, a linguagem, nos sentimos compelidos a atribui sentido a toda essa experiência.

É por isso que alego que o que houve foi apenas um erro de julgamento do engenheiro, que não se atentou aos mecanismos de funcionamento da máquina.  Estes modelos apresentam resultados convincente por meio de métodos estatísticos na construção de um discurso, mas carecem de entendimento do mundo.

Em um artigo do cientista cognitivo Douglas Hofstadter para a Economist, ele argumenta que a IA atual está longe de ter qualquer tipo de entendimento – e mostra muitos exemplos. Para ele, a IA não tem nem ideia de que não tem ideia do que está dizendo.
 
Tenho estudado bastante a interação das pessoas com agentes inteligentes e sempre me chama atenção o “poder de convencimento” da máquina. Há um tempo eu até escrevi que o problema da IA estar errada não é apenas ela estar errada, mas nos convencer que está certa. Isso acontece porque confiamos em um resultado que nos parece razoável e plausível.

Eu não acho que a IA do Google tenha qualquer traço senciente, mas acredito que a máquina possa nos convencer disso apresentando resultados incríveis – ainda que não tenha qualquer consciência disso.

Por outro lado, como saber se/quando uma IA desenvolveu traços sencientes?

Gosto do trabalho de Thomas Nagel. Em 1974, ele publicou um trabalho chamado “What is like to be a bat?”, no qual argumenta que, embora para nós nunca pudéssemos experimentar as experiências de um morcego, haveria, no entanto, algo que para um morcego é “ser morcego”.
 
Você pode achar que sabe o que é ser um morcego.

Você pode até pensar sobre como funciona o sistema de ecolocalização, mas você não pode experimentar as experiências de ser um morcego.

A fenomenologia é valorizada: as propriedades subjetivas da experiência consciente.
 
Nas últimas décadas surgiram vários artigos inspirados no trabalho de Nagel na tecnologia: “What is like to be a digital bat?” ou “What is like to be a computer?”.

O que é para um computador ser um computador?
O que é para uma IA ser uma IA?

Eu não sei, mas venho pensando bastante sobre isso. 🙂

Se você tiver interesse em conhecer mais sobre Inteligência Artificial, eu disponibilizei um curso introdutório aberto e gratuito no Youtube.