A Inteligência Artificial é a mais sexy das tecnologias. Ela nos entrega serviços de qualidade que são acompanhados de um ar místico, como se fosse algo que fugisse da nossa capacidade de conhecimento. E esse clima de encantamento influencia no tanto que acreditamos nas suas decisões e comportamentos. 

No ano passado, um engenheiro do Google afirmou que uma IA da empresa, um tipo de chatbot, exibia traços de consciência. A polêmica virou manchete no mundo inteiro, apesar da comunidade técnica ter sido unânime ao dizer que não havia qualquer evidência para isso. Se não foi uma mentira descarada do funcionário, então aconteceu um erro de julgamento dele, que se deixou levar pela qualidade de interação da máquina.

Eu analisei a conversa que ele teve com a IA e fiquei impressionado com o que encontrei. É um diálogo de alto nível, envolvendo construções complexas sobre temas sensíveis. Entendi o porquê de ele ter acreditado que a IA se comportava como uma pessoa. Ainda bem que esta é uma das minhas áreas de especialidades, então foi mais fácil decifrar que a máquina estava apenas encaixando as palavras com as melhores probabilidades, uma em sequência da outra, sem ter qualquer tipo de consciência do que estava fazendo.

O ChatGPT é o xamã tecnológico do momento, uma IA que consegue responder perguntas, escrever poesia e produzir textos com uma fluência invejável. Tem até gente dizendo que ele irá substituir o Google em breve, o que eu acho exagerado porque são dois mecanismos diferentes, apesar de complementares.  

O ChatGPT funciona de forma similar ao chatbot do Google, colocando uma palavra após a outra sem ter qualquer entendimento de seus significados. Confiar em uma resposta factual vinda do ChatGPT é um risco porque o texto pode estar gramaticalmente perfeito, mas com o conteúdo errado. E não sou o único alertando sobre isso, até o CEO da OpenAI, empresa dona da tecnologia, já se mostrou preocupado com essa situação.

Ainda assim, muita gente confia que o ChatGPT não será apenas o próximo Google, mas também o próximo professor, o próximo médico e, talvez, o próximo amigo virtual das novas gerações. Será este um futuro possível? 

Sim, acho possível. Eu falo muito sobre um mundo híbrido em que interagiremos mais com agentes inteligentes do que com outros humanos no dia a dia. Por isso que a humanidade precisa saber distinguir o que é realidade e o que fantasia no funcionamento da IA para alinhar as expectativas.

Esta não é uma tarefa fácil porque nem todos entendem como a tecnologia funciona. E o nome “Inteligência Artificia” também ajuda a criar uma atmosfera atraente. Veja que até mesmo especialistas correm o risco de serem seduzidos pela máquina, como aconteceu com o engenheiro do Google. A IA é uma caixa-preta que não sabemos em detalhes como funciona, mas suas respostas e comportamentos convencem. Se confiarmos demais nela, poderemos acreditar que ela está certa, mesmo quando está errada.

No ano passado, pesquisadores treinaram uma IA para detectar pacientes com COVID-19 usando apenas imagens de raio-x. Os resultados pareciam promissores, mas não demorou para que descobrissem que as imagens utilizadas para treinar o modelo eram de pacientes doentes deitados e de pacientes saudáveis em pé. A máquina aprendeu a classificar a posição das pessoas, mas nada sobre a doença.

Uma auditoria da IA foi possível neste caso porque existiam dados objetivos de quem estava doente ou não. O problema fica mais complicado quando estamos falando sobre o desenvolvimento de modelos que supostamente podem reconhecer e representar aspectos subjetivos das pessoas, como emoções, personalidade ou preferências.

Estudo há alguns anos o uso potencial e os riscos da Computação Afetiva, uma área que usa IA para aprender sobre as emoções humanas. Um tipo de aplicação comercial popular é a de detecção de emoções por meio do reconhecimento facial. Com uma câmera simples, o sistema passa a indicar as emoções de todas as pessoas presentes na imagem. 

É uma experiência fascinante, como se um agente inteligente pudesse conhecer a natureza humana melhor do que nós mesmos. E, para uma pessoa não especialista, fica muito difícil questionar a decisão da máquina. No entanto, há controvérsias, porque na ciência ainda não há consenso de que seja possível identificar emoções de alguém com base nas suas expressões faciais – na verdade, as abordagens mais recentes dizem que isso é totalmente falho.

No fim de 2022, nós organizamos um painel sobre Computação Afetiva no Internet Governance Forum da ONU, um evento anual para discutir governança de tecnologias. Reunimos renomados neurocientistas, pesquisadores e representantes das indústrias para refletirmos sobre os limites do uso da tecnologia. O resultado foi um consenso de que o reconhecimento de emoções usando IA, especialmente por meio de expressões faciais, é algo que não funciona por não se basear nas evidências contemporâneas da ciência.  

A Microsoft parece ter reconhecido isso ao anunciar a remoção do seu sistema de detecção de emoções. Uma das razões alegadas pela empresa foi justamente a falta de consenso científico sobre emoções e os desafios de detectá-las em diferentes regiões do mundo e culturas.

O problema é que demais fabricantes continuam oferecendo serviços deste tipo em contextos ainda mais sensíveis, aplicados na educação e saúde mental. E nada impede que novos sistemas sejam lançados para supostamente identificar outros aspectos da subjetividade humana, mesmo que não haja qualquer rigor científico.

Eu não sou pessimista. Acho que a IA pode nos ajudar a descobrir coisas da natureza humana, mas temos que fazer isso sabendo das limitações impostas pelo estágio atual da ciência e do próprio desenvolvimento tecnológico. Caso contrário, corremos o risco de sermos enganados por IAs pseudocientíficas.

Diogo Cortiz

Professor na PUC-SP e pesquisador no NIC.br. Doutor em Tecnologias da Inteligência e Design Digital pela PUC-SP, com PhD fellowship pela Université Paris I – Sorbonne. Especialista em Neurociência. Fez estágio pós-doc em Realidade Virtual e Metaverso na Universidade de Salamanca. Foi professor visitante no laboratório de Ciência Cognitiva da Queen Mary University of London. Coordena o programa de Mestrado e Doutorado em Tecnologias da Inteligência e Design Digital da PUC-SP.