A investigação é a mais recente de um crescente corpo de evidências de que as plataformas sociais não estão conseguindo conter uma enxurrada de desinformação sobre seus serviços antes do segundo turno de domingo entre o presidente Jair Bolsonaro e o ex-presidente Luiz Inácio Lula da Silva. Na semana passada, os legisladores brasileiros deram unilateralmente ao chefe eleitoral do país o poder de forçar as empresas de tecnologia a remover desinformação dentro de duas horas após a publicação do conteúdo – uma das ações legais de mídia social mais agressivas que um país tomou.
O partido de direita Bolsonaro alegou repetidamente, sem evidências, que as urnas eletrônicas usadas no Brasil há um quarto de século são suscetíveis a fraudes. A retórica dos apoiadores de Bolsonaro muitas vezes parecia se alinhar com a dos apoiadores do presidente Donald Trump nas eleições de 2020 nos EUA, que questionaram os resultados das eleições sob a bandeira do Stop the Steal.
Algumas das principais histórias que circularam no Brasil antes do primeiro turno da votação em 2 de outubro incluíram alegações específicas de fraude, mensagens atacando a Suprema Corte e falsos apelos para “inspetores” nas urnas, disseram investigadores brasileiros e foram embora. . organização de direitos humanos Avaaz. Áudios e vídeos virais no Telegram, WhatsApp, Facebook e TikTok alegadas urnas foram pré-preenchidas com votos para o ex-presidente Luiz Inácio Lula da Silva.
A desinformação também foi espalhada por links. As mensagens contêm falsas alegações de que Bolsonaro confessou canibalismo e pedofilia.
As principais empresas de mídia social permitiram que o conteúdo do Stop the Steal fosse distribuído quase sem controle até que as consequências violentas da retórica se tornassem aparentes em 6 de janeiro de 2021. Grupos no Facebook, em particular, foram descobertos por pesquisadores como importantes vetores de organização antes do Stop the Steal. Steal reunião no Capitólio, e que os algoritmos de software proprietário do Facebook desempenharam um papel importante em ajudar esses grupos a ganhar membros.
Desde então, empresas como Meta e, em menor grau, TikTok se comprometeram a fazer melhor, incluindo reprimir conteúdo relacionado a eleições que poderia levar à violência. Mas as evidências mais recentes mostram que as empresas não estão cumprindo suas promessas, especialmente fora dos Estados Unidos.
“O que vemos é que Meta e Google levam a proteção dos eleitores brasileiros menos a sério do que… [that] de seus colegas americanos”, disse Nell Greenberg, vice-diretora da Avaaz. No período que antecedeu as eleições de meio de mandato dos EUA no próximo mês, ela observou, as empresas marcaram, rebaixaram e removeram conteúdo que incita à violência e divulga informações falsas sobre a eleição.
“Ainda há ações cruciais que eles podem tomar para garantir um dia de eleição seguro e evitar um possível ‘6 de janeiro’ no Brasil”, escreveu ela em um e-mail. “A questão é, eles vão fazer alguma delas?”
O porta-voz da Meta, Tom Reynolds, disse que a empresa vem atualizando suas ferramentas de busca nas últimas semanas que antecederam a eleição. Ele disse que os melhores resultados de busca agora levam os usuários a informações das autoridades brasileiras.
“Estamos trabalhando para remover várias recomendações de palavras-chave que podem levar à desinformação e colocamos rótulos em postagens relacionadas a eleições em ambos os aplicativos”, disse ele. “Cerca de 30 milhões de pessoas no Brasil clicaram nessas tags eleitorais no Facebook e foram redirecionadas para o site do sufrágio.”
A porta-voz do TikTok, Jamie Favazza, disse que a empresa investiu na proteção do site antes das eleições no Brasil.
“Levamos muito a sério nossa responsabilidade de proteger a integridade de nossa plataforma e nossas eleições e agradecemos o feedback de ONGs, acadêmicos e outros especialistas”, disse ela em um e-mail. “Continuamos a investir em nossas equipes políticas, de segurança e de segurança para combater a desinformação eleitoral, pois também fornecemos acesso a informações oficiais por meio de nosso guia eleitoral.”
O instituto de pesquisa brasileiro NetLab descobriu que Meta e Google permitiram que candidatos políticos exibissem anúncios em suas plataformas durante a primeira votação de 2 de outubro, embora tais anúncios sejam proibidos pela lei brasileira durante esse período. O grupo também encontrou evidências de anúncios pagos incentivando a intervenção militar nas eleições quando os eleitores foram às urnas.
Um teste dos sistemas de anúncios do Meta e do YouTube pelo grupo de direitos humanos Global Witness descobriu que as empresas endossaram uma série de anúncios enganosos, incluindo lugares incentivando as pessoas a não votar ou dando falsas datas de postagem de cédulas. O YouTube disse que “analisou os anúncios em questão e removeu quaisquer anúncios que violassem nossas políticas”, embora o relatório da Global Witness tenha descoberto que todos os anúncios enviados foram aprovados pelo site do Google.
Para estudar como as plataformas empurravam as pessoas para a desinformação, os pesquisadores da SumOfUs criaram contas fictícias no Facebook, Instagram e TikTok. Eles então digitaram os termos ‘votação’, ‘intervenções’ e ‘fraude’ nas barras de busca desses serviços de mídia social e contaram os resultados.
Eles descobriram que cinco dos sete grupos recomendados pelo Facebook nas buscas pelo termo “intervenção” pediram intervenção militar nas eleições brasileiras, enquanto cinco dos sete grupos recomendados sob o termo de busca “fraude” encorajaram as pessoas a participar de grupos que questionaram a questão . integridade das eleições. Os grupos têm nomes como “Intervenção para Salvar o Brasil” e “Toda a Intervenção Militar”.
No geral, o grupo descobriu que 60% de todo o conteúdo recomendado pelo Facebook e Instagram divulgam informações falsas sobre o processo eleitoral.
“Criador. Totalmente nerd de comida. Aspirante a entusiasta de mídia social. Especialista em Twitter. Guru de TV certificado. Propenso a ataques de apatia.”