O problema da IA inferir sobre a subjetividade humana não é apenas que ela pode estar errada, mas o pior é que ela pode nos fazer acreditar que está certa.
Vou dar um exemplo para ficar mais didático. Eu estou há quatro anos trabalhando com Computação Afetiva, uma área que utiliza IA para aprender sobre emoções humanas. Esse é um tema quente e controverso, porque mesmo nas ciências afetivas – que envolvem neurociência, psicologia, antropologia, filosofia – não há um consenso sobre a natureza e arquitetura das emoções.
Algumas abordagens vão trabalhar com a hipótese das emoções básicas e universais, outras com a perspectiva da avaliação, e tem até aquelas que defendem que a emoção é um processo de construção cognitiva e que não temos qualquer marcador biológico ou traços elementares nas expressões.
Nos últimos anos a área teve um verdadeiro boom, com grandes empresas apresentando ferramentas de IA que inferem emoções a partir das expressões faciais. Acho esta situação sensível por vários motivos.
Primeiro, dependendo do pressuposto teórico que você está utilizando, isso não faz muito sentido. A Lisa Feldman Barrett, por exemplo, tem diversos trabalhos mostrando as limitações do uso de tecnologia de detecção de emoção.
Segundo, muitas dessas tecnologias apresentam uma proposta One-size-fits-all. Ou seja, pegam uma ferramenta global, treinada com dados de sabe lá Deus de quem, e implementam em regiões sem levar em considerações aspectos culturais, o que pode ser importante para algumas emoções mais granulares.
Semana passada, apresentamos um paper exatamente sobre isso no Workshop sobre o futuro das emoções em Interação Humano-Computador da conferência ACM CHI. Discutimos sobre a importância de uma abordagem cultural e baseada na língua em projetos de emoções em IHC e IA.
Terceiro ponto – e o mais sensível na minha opinião. A tecnologia é sexy e nos seduz facilmente. Eu vejo pesquisas que aplicam Machine Learning para estudar aspectos subjetivos e comportamentos dos humanos. Os pesquisadores pegam uma quantidade absurda de dados, alimentam um modelo, que, por sua vez, cospe uma saída convincente de dados. Os pesquisadores começam então a construir argumentos e teorias com base nisso, sem ter muita certeza sobre o que isso significa.
Isso quer dizer que a máquina está sempre errada? Não. Pelo contrário. Machine Learning é uma ótima técnica para nos fazer enxergar aquilo que sozinho não conseguiríamos. O problema é que às vezes ela aprende a coisa errada e nos faz acreditar que aprendeu a coisa certa.
Por exemplo, teve o caso de uma pesquisa que treinou modelo de IA usando imagens de raio-x para detectar COVID. Para um usuário final pode até parecer algo promissor, mas a IA aprendeu uma coisa esquisita. Os dados utilizados no treinamento continham imagens de pessoas em pé e deitadas. Como os pacientes escaneados deitados tinham maior probabilidade de estarem doentes, a IA aprendeu erroneamente a prever covid a partir da posição do paciente.
Esse problema aconteceu em situação mais objetiva na qual máquina deveria encontrar padrões em um exame de imagem. E ela encontrou, mas não aqueles que queríamos. Agora pensa na complicação quando estamos tentando investigar aspectos mais subjetivos da existência humana?
Devemos parar tudo então? não! Só quero alertar para o desafio disso tudo. Imagine ferramentas de detecção de emoções sendo usadas em entrevistas de empregos? Imigrações? No policiamento?
Eu mesmo vou continuar investigando na área de Computação Afetiva, mas com clareza das limitações impostas pelo estágio atual da ciência.
Quem sabe, em breve, a gente volte para este texto e veja que ele envelheceu mal – ou não. 🙂