Viés e discriminação na Inteligência Artificial? O avanço e a rápida adoção de tecnologias de Inteligência Artificial (AI) em diferentes contextos trazem uma série de questionamentos sobre seus impactos sociais. Talvez o que acontecerá com os empregos seja um dos desafios mais debatidos já há algumas décadas. No entanto, mais recentemente surgiu também preocupações se os algoritmos são justos em suas decisões. Esse é um questionamento que faz todo o sentido, porque se uma máquina está decidindo por nós, seres humanos, devemos entender e garantir que o seu processo de decisão não esteja prejudicando um grupo específico de pessoas — ou até mesmo um único indivíduo.
Nos últimos anos, essa preocupação invadiu o espaço acadêmico, e muitos pesquisadores começaram a estudar sobre como os algoritmos decidiam, se estavam sendo justos e se conseguiam explicar a suas escolhas. Criou-se até um termo para essa área, FAT, que visa estudar sobre Equidade (Fairness), Transparência (Transparency) e Responsabilidade (Accountability) na área de algoritmos e inteligência artificial. Inclusive, sou um dos organizadores do Workshop FATES (Workshop on Fairness, Accountability, Transparency, Ethics and Society on the Web) que acontecerá em conjunto com a prestigiada The Web Conference.
Este é um termo amplo, mas aqui vou tratar mais especificamente sobre vies e se o algoritmo pode apresentar comportamentos discriminatórios e preconceituosos. Esse debate começou certamente com o estudo da ProPublica (Bias Machine), que dissecou um sistema utilizando pela justiça americana (em vários estados dos EUA) para mostrar que o algoritmo apresentava um índice muito maior de falso positivo para os negros. Ou seja, o sistema tinha a tendência de marcar os negros com uma probabilidade de reincidência — ainda que isso não fosse verificado na prática, nas ruas. Este estudo foi a abertura de portas para que novos estudos fossem feitos no sentido de entender se algoritmos utilizados comercialmente apresentavam algum prejuízos para determinados grupos de acordo com sua classe social, gênero, orientação sexual, etnia, entre outros.
Mais recentemente, a revista Science publicou um artigo que explora como um sistema de inteligência artificial utilizado em hospitais nos Estados Unidos apresentava um comportamento discriminatório. No caso, o sistema dava preferência aos pacientes brancos em detrimento dos negros. Mas será que a IA tinha preconceito? O algoritmo foi programado desta maneira ou ele aprendeu isso? Se aprendeu, como foi então esse aprendizado?
E para responder estas perguntas — que não são simples e nem tem uma resposta fácil — eu fiz esse vídeo para explicar que os algoritmos em si não tem viés, mas que eles podem “aprender” isso de acordo com os dados utilizados na fase de treinamento. E lembro que dados são um recorte da nossa própria realidade. Entenda mais no vídeo.