Na última semana o mundo acompanhou aquelas que os americanos diziam ser a eleição mais importante na história moderna dos Estados Unidos. A alta taxa de votação mostrou o engajamento das pessoas em um país polarizado. Uma possível troca na Casa Branca indicaria mudanças no combate à pandemia, nos estímulos à economia e na configuração geopolítica. O resultado das eleições era importante, mas muita gente, incluindo eu, estava preocupada em entender como a grande mídia e as plataformas de redes sociais se comportariam no combate à desinformação.
As empresas de tecnologia vêm sofrendo pressão de alguns setores da sociedade para colocar em prática um processo transparente de combate ao mau uso da plataforma para distribuição de notícias falsas, desinformação e conteúdos danosos contra uma pessoa, um grupo de pessoas ou até mesmo a própria democracia. As eleições americanas de 2016 materializaram algo que até então eram elucubrações e cenas de distopias ficcionais: a possibilidade de manipular em larga escala o jogo democrático de um país inteiro.
Não posso afirmar que o resultado do pleito tenha sido causado pelo processo de desinformação, até porque isso seria ignorar todas as outras dimensões sociais e políticas, mas também seria ingênuo achar que a estratégia adotada não tenha tido qualquer influência no resultado. O escândalo da Cambridge Analytica escancarou uma sofisticada estratégia para conhecer bem os eleitores do país; e o caso da Pizzagate mostrou como mentiras criadas no universo digital pode ter consequências perigosas e violentas no mundo real.
Naquele mesmo ano o dicionário de Oxford escolheu “pós-verdade” como a palavra do ano, e talvez tenha sido um prenúncio de algo que se tornaria uma espécie de regra e não mais uma exceção. De lá pra cá, a estratégia adotada por diversos líderes populistas se baseou na construção de discursos ambíguos, confusos e muitas vezes repletos de desinformação. O jornal Washington Post reportou que o presidente Donald Trump fez mais de 20 mil alegações falsas ou enganosas durante a sua gestão, enquanto a agência Aos Fatos apurou que o presidente Bolsonaro já deu quase 2 mil declarações falsas ou distorcidas desde que foi eleito.
Os dois políticos não fazem isso para que suas mensagens sejam veiculadas na imprensa tradicional. Eles esperam que a amplificação ocorra em outras mídias. Uma afirmação falsa vira um tweet ou meme que se espalha rapidamente como uma informação verdadeira nas redes sociais. Os jornalistas se esforçam para checar os fatos, mas muitas vezes, quando chegam à resposta, o estrago está feito. Um estudo de pesquisadores do MIT, bastante citado, mostra que notícias falsas e as desinformações são mais propensas a se espalharem do que notícias verdadeira e, ao contrário do que se pensa, os robôs não são tão importantes neste processo.
Apesar das críticas e pressões da sociedade, as plataformas de redes sociais sempre relutaram em propor uma política ou uma autorregulação mais dura de combate a este tipo de discurso. Zuckerberg declarou várias vezes que o Facebook não era o “árbitro da verdade”. No entanto, com eleições presidenciais acirradas e uma pandemia colocando em risco as vidas das pessoas, as plataformas acabaram mudando um pouco suas posturas. Não foi necessariamente um “cavalo de pau” em suas políticas, mas algumas ações chamaram atenção.
Algumas organizações sociais pediam pelo fim de anúncios políticos nas plataformas. O Facebook não chegou a bani-los, mas lançou a plataforma Biblioteca de Anúncios para trazer maior transparência ao processo. Por lá os usuários podem verificar os anúncios que foram feitos e o alcance. O Twitter foi mais duro e anunciou o banimento de todos os anúncios políticos da plataforma.
Em maio a plataforma fez a sua primeira ofensiva contra a desinformação propagada por Trump. Ao postar uma mensagem alegando fraudes na votação por correios, sem apresentar qualquer evidência, o Twitter marcou a postagem do presidente com um alerta e justificou que a postagem poderia confundir os eleitores. Trump reagiu com críticas à rede social.
“O Twitter está reprimindo A LIBERDADE DE EXPRESSÃO, e eu, como presidente, não permitirei que isso aconteça!”.
A ação chamou a atenção da comunidade técnica, com alguns defendendo e outros criticando a postura da rede social. O design do alerta também foi alvo de críticas. A mensagem apresentava o texto “obtenha os fatos sobre voto pelo correio”, colocada logo abaixo ao texto do tweet original. Pesquisadores argumentaram que isso poderia ajudar a legitimar o discurso em vez de combatê-lo. De qualquer forma, foi a primeira decisão mais dura de uma empresa de tecnologia contra o presidente.
Em outubro, o Twitter atualizou a sua política de integridade cívica para tentar minimizar o impacto da distribuição de desinformação durante as eleições , como permitir o retweet somente com comentários e inibir as recomendações de conteúdos por meio de likes. A medida mais drástica foi anunciar que usuários com alto engajamento, incluindo as contas oficiais dos candidatos presidenciais, poderiam ser rotuladas com alertas de conteúdo enganoso caso postassem informações falsas.
O Facebook, por sua vez, também de olho na repercussão do seu comportamento durante as eleições, anunciou uma força tarefa para monitorar e tentar manter a plataforma como um espaço saudável durante o período eleitoral. Entre as ações listadas estavam a rotulação de conteúdos e o monitoramento em tempo real, usando sistemas de Inteligência Artificial para identificar potenciais casos danosos.
Não demorou muito para que as plataformas tivessem que colocar em prática suas novas políticas. Na madrugada de 04 de novembro, enquanto os votos ainda estavam sendo apurados, Trump declarou, mais uma vez sem mostrar evidência, que estavam tentando “roubar” as eleições. Imediatamente o Twitter rotulou a mensagem com o alerta:
“Parte ou todo o conteúdo compartilhado neste Tweet é contestado e pode ser enganoso sobre uma eleição ou outro processo cívico”.
Desta vez o design implementado pela plataforma foi mais adequado, com uma máscara que cobria todo o conteúdo fazendo com que o usuário tivesse que clicar na mensagem para ler o Tweet original. O compartilhamento também foi dificultado para que a mensagem não fosse viralizada.
Trump postou o mesmo conteúdo no Facebook. A rede social de Zuckerberg foi mais contida. Apenas alertou os usuários que os resultados poderiam ser diferentes das apurações iniciais. Não tampou totalmente a mensagem nem dificultou o seu compartilhamento.
A plataforma também tinha comunicado que se o candidato declarado vencedor pelos principais meios de comunicação fosse contestado pelo outro, eles mostrariam o nome vencedor com notificações no topo do Facebook e Instagram. Após a confirmação de que Biden estava eleito, as postagens em que Trump se declarava vencedor receberam um alerta.
Houve quem defendeu que só colocar um alerta não era suficiente e que as plataformas deveriam remover o conteúdo. Lembro que o Twitter tem a política de não deletar mensagens de contas de políticos por entender que são de interesse público. Em contrapartida, mesmo a plataforma mantendo as mensagens e apenas adicionando o alerta, outras pessoas argumentaram que a rede social estava censurando e que não é papel das plataformas regular o discurso e decidir o que é verdade. O próprio Zuckerberg pensava assim, como já vimos: “O Facebook não é o árbitro da verdade”.
Mas, afinal, a ação das plataformas foi uma espécie censura ou uma medida de combate à desinformação?
Para tentar responde-la vou trazer um argumento que escutei esses dias. Um pesquisador da área de comunicação disse que as redes sociais são como praças públicas, e assim como não há “árbitros da verdade” que monitoram o que é discutido nestes espaços, também não haveria de existir nenhum sistema de controle nas redes sociais.
Esta analogia me parece equivocada e infundada. As redes sociais estão longe de ser “praças públicas”. Acho que estão mais para “parques de diversão privados” que fazem de tudo para nos manter lá dentro. Os algoritmos são as novas montanhas-russas que nos viciam e nos fazem querer voltar a procura de adrenalina e dopamina. A “praça pública” também é diferente na sua arquitetura, sendo um espaço menor e restrito. Já os “parques de diversão” são mais extensos e lotados, com pessoas desconhecidas que se encontram por causa de um interesse em comum ao pegar a fila para um mesmo brinquedo.
Listo três principais características das redes sociais que devemos nos atentar em um debate sobre o processo de desinformação: dimensão, dinâmica e velocidade. A dimensão da rede é global. Não estamos falando apenas com nossos vizinhos do bairro, mas podemos conversar com pessoas do mundo inteiro, o que é genial, mas que ao mesmo tempo traz um risco de magnitude alta quando as coisas saem do controle.
Em segundo lugar, as dinâmicas das redes não são transparentes, não conhecemos os seus algoritmos, mas sabemos que foram projetados para maximizar o engajamento das pessoas. Por fim, a rede é extremamente veloz. Em poucos segundos uma postagem pode viralizar. Pegue por exemplo o grupo “Stop the Steal” do Facebook, criado dois dias após as eleições nos EUA para distribuir notícias falsas sobre o processo eleitoral. Em 22 horas o grupo já contava com mais de 320 mil membros distribuídos geograficamente e uma taxa de crescimento alucinante de 100 novos membros por 10 segundos. Em qual “praça pública” isso é possível?
Essas características criam o terreno ideal para que ações orquestradas sejam utilizadas para propagar notícias falsas, desinformações, mensagens ambíguas e discurso de ódio com objetivos sombrios. Não se trata da opinião de alguém, mas de um conteúdo planejado para manipular ou suprimir a opinião de outrem. Neste ponto, eu gostaria de adicionar uma dimensão que também deve ser considerada, mas que acaba esquecida nos debates: a dimensão cognitiva e psicológica.
Muitas vezes debatemos tanto sobre os riscos do processo de desinformação para a democracia que nos esquecendo que ele age no nível do indivíduo, de cada pessoa. Um estudo do psicólogo cognitivo Stephan Lewandowsky e seus colegas mostra que as desinformações e notícias falsas têm um impacto profundo na vida das pessoas. Uma vez aceitas, elas continuam influenciando as crenças dos indivíduos mesmo depois que eles deixam de acreditar e endossá-las.
As notícias falsas e as desinformações agem como um processo de reconfiguração, o que as torna difíceis de serem corrigidas. De acordo com o pesquisador, se as pessoas forem informadas preventivamente de que podem ser induzidas ao erro, isso pode ajudá-las a desenvolver resiliência em relação a conteúdos falsos e mensagens conspiratórias. Uma estratégia eficaz é advertir no momento inicial de exposição à desinformação. Neste sentido, as plataformas caminham para um cenário que parece ser adequado.
O fato de estar caminhando não quer dizer que se chegou em algum lugar. Entendo que as ações das plataformas durante as eleições americanas de 2020 marcam o primeiro passo para romper com a omissão. No entanto, precisamos de cautela para que as plataformas não assumam o papel de controle que não desejamos. O Facebook recentemente mostrou um caminho possível ao criar o Oversight Board, um comitê de supervisão e julgamento independente para garantir o respeito à liberdade de expressão. O caminho é longo, a rota incerta. Mas uma coisa eu sei: a construção do mapa que marca o destino deve ser colaborativo e envolver a participação de diferentes setores da sociedade.