A militância forjada dos bots:

A campanha municipal de 2016 como laboratório eleitoral

 

Rose Marie Santini[1]

Débora Salles[2]

Giulia Tucci[3]

Charbelly Estrella[4]

 

Resumo: Os “bots políticos” são perfis automatizados programados para atuar nas redes sociais com o objetivo de influenciar as discussões políticas, endossar ou difamar um candidato, disseminar propaganda de campanha, criar ruído no debate público e interferir na formação da opinião dos usuários. Este artigo investiga como essas contas afetaram a conversação política no Twitter durante o primeiro turno das eleições municipais de 2016 no Rio de Janeiro, contribuindo para a discussão de como os bots podem colocar em risco a comunicação on-line e afetar a campanha e os resultados eleitorais (HOWARD; WOOLLEY; CALO, 2018). A partir da abordagem da teoria fundamentada, utilizamos a netnografia observacional aliada à análise de discurso para estudar o comportamento de um conjunto de bots no Twitter durante o primeiro turno das eleições municipais no Rio de Janeiro. Detectamos 3.101 bots, responsáveis por 19.915 tuítes, e classificamos nossa amostra em três categorias de bots com base no conteúdo dos tuítes: bots gerados por usuário, spambots de mídia e bots políticos. Estes últimos foram divididos em duas subcategorias, em função do tipo de discurso que difundiram na rede: “ativistas” e “agentes provocadores”. Os resultados da pesquisa demonstram que os bots políticos representam um problema social crítico por ocuparem um vácuo de opiniões políticas oferecendo posições partidárias para aqueles que não as possuem. Concluímos que estas contas automatizadas prepararam o terreno para a vitória de Jair Bolsonaro nas eleições presidenciais de 2018, apoiando o então deputado e fortalecendo sua presença nas redes.

 

Palavras-chave: Bots; Opinião Pública; Eleições; Netnografia; Twitter.

 

Astroturfing with bots:

The 2016’s municipal campaign as an electoral laboratory

Rose Marie Santini[5]

Débora Salles[6]

Giulia Tucci[7]

Charbelly Estrella[8]

 

Abstract: Political bots are automated profiles programmed to act on social media with the purpose of influencing political discussions, endorsing or defaming a candidate, spreading campaign propaganda, creating noise in public debate, and interfering with the formation of user opinion. This article investigates how these accounts affected the political conversation on Twitter during the first round of the 2016 Rio de Janeiro municipal elections, contributing to the discussion of how bots can endanger online communication and affect campaign and election results (HOWARD; WOOLLEY; CALO, 2018). Based on the Grounded Theory approach, we used observational netnography coupled with discourse analysis to study the behavior of bots on Twitter during the first round of the elections. In our dataset, we detected 3,101 bots, accounting for 19,915 tweets, and classified our sample into three bot categories based on tweet content: user-generated bots, media spambots, and political bots. The latter were divided into two subcategories, depending on the type of discourse they spread on the platform: "activists" and "provocateurs". The research results show that political bots represent a critical social problem because they occupy a political opinion vacuum by offering partisan positions to those who do not have them. We conclude that these automated accounts prepared the ground for Jair Bolsonaro's victory in the 2018 presidential election, supporting the former deputy and strengthening his presence online.

Keywords: Bots; Public Opinion; Elections; Netnography; Twitter.

 

Introdução

Depois da vitória de Donald Trump nos Estados Unidos, em 2016, há evidências substanciais, amplamente divulgadas pelos meios de comunicação em todo o mundo, de que as plataformas das redes sociais estão tomadas por robôs (bots), exércitos de trolls [1],, perfis falsos, entre outros personagens maliciosos financiados para se manifestar de forma coordenada (BASTOS; MERCEA, 2019; JOATHAN; ALVES, 2020).  Essa prática, em inglês, é chamada de astroturfing e indica ação falsa patrocinada por grupos ou corporações para apoiar discursos a seu favor ou para criticar adversários (CHO et al., 2011; MCNUTT, 2010;). A popularização das redes sociais on-line modificou a dimensão, a importância e as implicações sociais desse fenômeno. São chamadas de “bots sociais” (tradução do inglês de social bots) as contas falsas e automatizadas usadas para produzir e disseminar intencionalmente informações enganosas nas redes sociais, criando uma espécie de opinião pública artificial. Os “bots políticos” (em inglês, political bots) representam um tipo específico de “bot social”: são contas atreladas a uma rotina computacional, cujos algoritmos são programados para influenciar discussões políticas, endossar ou difamar um candidato,  disseminar propaganda de campanha ou criar ruído no debate político nas redes sociais digitais (WOOLLEY, 2018; WOOLLEY; HOWARD, 2016).

Esses robôs, inseridos em estratégias de propaganda computacional, que combinam algoritmos, automação e curadoria humana para influenciar e manipular a opinião dos usuários on-line (WOOLLEY; HOWARD, 2016), têm interferido nos processos políticos de diferentes países (BRADSHAW; HOWARD, 2017). No Brasil, a aplicação dessas técnicas de automatização foi identificada nas redes sociais desde 2010 (ARNAUDO, 2017) e empiricamente evidenciadas durante as campanhas para prefeitura em 2016 (ALBUQUERQUE, 2016).

Nas eleições municipais do Rio de Janeiro de 2016, onze candidatos fragmentaram a votação em um primeiro turno concorrido e com campanha polarizada (JOATHAN; ALVES, 2020). Esse processo eleitoral reforçou a importância das redes sociais para divulgar propostas, campanhas de financiamento coletivo e agendas (ALVES, 2017). Os diferentes usos das plataformas digitais, assim como o cenário político polarizado e o ecossistema de mídia, indicam que a eleição carioca, assim como a eleição presidencial dois anos depois, foi um espaço fragmentado e segmentado de disputa política (SANTINI; SALLES; TUCCI, 2021).

O objetivo deste artigo é, por meio do estudo de caso das eleições municipais de 2016 no Rio de Janeiro, contribuir para a discussão de como os bots podem manipular a comunicação on-line, afetando a campanha e o resultado de uma eleição. As questões de pesquisa são: (i) qual a natureza do conteúdo postado pelos bots no Twitter durante o primeiro turno daquela eleição? (ii) como os bots políticos atuam socialmente e de que maneira são programados para disseminar ou reproduzir valores específicos? (iii) qual o comportamento político e a ordem moral representados por essas contas automatizadas? Para responder a essas questões, partimos da abordagem da teoria fundamentada e utilizamos métodos mistos para desenvolver a pesquisa, como netnografia observacional, análise de conteúdo e análise de discurso.

 

Propaganda e eleições: novas mídias e dinâmicas    

Desde os primeiros estudos sobre a comunicação de massa, na primeira metade do século XX, as pesquisas em comunicação e política têm empregado esforços de investigação sobre as estratégias de propaganda e seus efeitos sobre os eleitores, uma vez que os políticos contam com esse tipo de comunicação para informar e influenciar a opinião pública. Lazarsfeld e Merton (1948) demonstraram que a mídia tradicional exerce influência social, beneficiando grupos poderosos e moldando as visões da realidade social. Nesse sentido, os políticos negociam com as regras, prazos, formatos, objetivos, lógicas de produção e restrições da mídia, uma vez que a disseminação de informações pelos meios de comunicação é considerada a principal interface entre políticos e sociedade.

A atuação da mídia como guardiã dos interesses coletivos, ao determinar as questões que devem ganhar relevância social e política, promove uma esfera pública midiatizada (MAZZOLENI; SCHULZ, 1999). McCombs e Shaw (1972) argumentam que os meios de comunicação podem direcionar a atenção para certas questões e construir imagens públicas de políticos, criar uma hierarquia de pautas (ROGERS; DEARING, 1988) e influenciar como o público percebe a iminência de questões políticas (MCLEOD; BECKER; BYRNES, 1974).

Na medida em que a midiatização da política evidencia a interferência da mídia no processo democrático (MAZZOLENI; SCHULZ, 1999), o surgimento da Internet suscitou questionamentos sobre a mediação das novas tecnologias na relação entre mídia e política. Apesar de a perspectiva da Teoria do Agendamento ter sido ampliada para lidar com possíveis reciprocidades entre as mídias digitais e as mídias off-line (MCCOMBS; SHAW; WEAVER, 2014), os efeitos das redes sociais sobre as agendas públicas ainda estão em debate e muitas questões permanecem em aberto.

Nesse cenário, é importante chamar a atenção para questões contraditórias inerentes à participação on-line. Apesar de as discussões políticas terem aflorado nesse ambiente, estudos sobre os avanços democráticos e os impactos práticos da Internet na agenda política permanecem conflitantes e não generalizáveis. Segundo Howard (2005, p. 153), a Internet contribui para a democracia na medida em que aprofunda e amplia a difusão de informação política e dá visibilidade à diversidade de opiniões na esfera pública. Entretanto, de acordo com o autor, esse meio torna a cidadania mais superficial se considerarmos a facilidade com que as pessoas passam a se expressar politicamente, sem estarem substancialmente engajadas.

As plataformas digitais vêm transformando a comunicação política e seus efeitos sobre o público, mas ainda é difícil ver efeitos claros, tornando-se crucial abordar as complexidades do conteúdo, uso e efeitos das mídias sociais na dinâmica da formação da opinião pública.

 

A opinião pública artificial: a militância forjada nas redes sociais

Informação e poder computacional tornaram-se essenciais para o sucesso nas campanhas eleitorais: as vitórias passaram a depender da qualidade e quantidade de dados, da capacidade de processamento de informação e das estratégias de disseminação de mensagens extremamente segmentadas, chamadas de microtargeting (PENNEY, 2017). As campanhas políticas contemporâneas dependem fundamentalmente das estratégias digitais, como por exemplo: o uso de plataformas para arrecadar recursos de campanha, o engajamento de voluntários nas redes sociais, o monitoramento de outros candidatos e a coleta de dados sobre o perfil do eleitorado (HOWARD, 2005). Diante desse cenário, com o intuito de dar ampla visibilidade às propostas de candidatura, promover debates e interagir com a sociedade, candidatos e partidos buscam ampliar suas redes de apoio on-line como uma estratégia para escapar do controle editorial da mídia tradicional e se aproximar de seu eleitorado. (SKOGERBØ; KRUMSVIK, 2015).

Diversos tipos de agenciamentos coletivos, engajamento político e movimentos sociais on-line surgiram desde a década de 2000, porém simultaneamente foram criadas formas para sua falsificação com as mesmas ferramentas: campanhas políticas começaram a direcionar seus orçamentos para fabricação de debates, produção de informações calculadas e mobilização coordenada de eleitores na Internet (MCNUTT; BOLAND, 2007).

As chamadas “militâncias políticas de base” são movimentos políticos coletivos que agem voluntariamente e buscam influenciar causas específicas de natureza social e/ou política (CHO et al., 2011; GUNDELACH, 1979). Por outro lado, as militâncias forjadas on-line estão assumindo uma nova dimensão na arena política com o intuito de interferir no processo eleitoral (SISSON, 2017). As técnicas de astroturfing on-line fazem parte de estratégias mais sofisticadas de propaganda computacional, usadas mundialmente por governos, candidatos e figuras políticas para distribuir informação enganosa em plataformas de redes sociais (BRADSHAW; HOWARD, 2017). Bots programados para atuar ideologicamente são empregados para afetar as tomadas de decisão e a percepção dos cidadãos e assim impactar diretamente em eleições, referendos e na formação de opinião.

Esses robôs simulam uma militância política de base (STIEGLITZ et al., 2017) e imitam a lógica de comportamento comunitário, divulgando mensagens e falsificando a popularidade e a espontaneidade de campanhas eleitorais. Há uma demanda crescente por pesquisas empíricas sobre esses agentes e suas intenções, considerando a condição cada vez mais personificada e segmentada da militância digital, orquestrada a partir do uso cruzado de big data e perfis falsos e automatizados nas redes sociais (SANTINI et al., 2018). Diante desse cenário, este trabalho investiga o primeiro turno das eleições municipais do Rio de Janeiro em 2016, enquanto estudo de caso sobre o tema.

 

Materiais e métodos

Para investigar os bots e analisar seus diferentes comportamentos nas campanhas políticas on-line, recorremos à teoria fundamentada. Esta abordagem é indicada para temas novos e complexos por propor o uso de estratégias adaptáveis em um processo comparativo, conduzido em zigue-zague de coleta e análise de dados (CHARMAZ; MITCHELL, 2014), e por permitir o desenvolvimento de teorias ou hipóteses sobre as ações, interações e processos de indivíduos ou grupos (CRESWELL, 2007). Para descrever os objetos de nossa análise como um grupo social (CHARMAZ; MITCHELL, 2014), utilizamos princípios da netnografia observacional (KOZINETS, 2010). A partir de Venturini e Latour (2010), que defendem os rastros digitais como material empírico válido para a abordagem etnográfica, realizamos a observação sem qualquer interação com o objeto de pesquisa.

Os bots não são humanos, mas são desenvolvidos, programados e gerenciados por pessoas ou grupos com o objetivo de fazê-los parecer pessoas reais, para que se conectem facilmente com usuários reais. Portanto, enquanto objeto de pesquisa, os bots não constituem uma comunidade de pessoas em si, mas mimetizam e assumem uma personificação humana, simulam perfis reais, cujas conexões tendem a ser baseadas nos princípios de homofilia.

Para estudar os papéis e características dos bots sociais no Twitter, durante o primeiro turno das eleições, entre 17 de agosto a 02 de outubro de 2016, criamos um conjunto de dados com tuítes postados por bots e os metadados dessas contas. Os critérios de coleta incluíram a palavra “Rio”, os nomes dos candidatos que lideravam as pesquisas: Crivella, Freixo, “Pedro Paulo”, “Índio da Costa”, Bolsonaro, Jandira, Molon e Osório (G1, 2016); e hashtags de campanha (#Crivella10, #freixo50, #é15, #molonprefeito18, #indio55, #forçapramudar e #Jandira65). Por meio da API Firehose[2], extraímos 152.372 tuítes postados por 57.616 perfis.

A identificação e a filtragem das contas automatizadas foram baseadas em dois critérios apresentados na literatura da área (GORWA, 2017; CHAVOSHI; HAMOONI; MUEEN, 2017; FGV DAPP, 2017): (i) a conta deve ter publicado dois tuítes consecutivos em menos de um segundo de intervalo, em pelo menos duas ocasiões e (ii) ao menos 10% do conteúdo postado pela conta deve ter sido produzido por plataformas de automação, aplicativos criados por desenvolvedores externos que executam ações no Twitter via API. Há plataformas autorizadas, que podem ser conectadas a uma conta e programadas para interagir automaticamente, porém existem aquelas que infringem as regras de automação do Twitter. As contas com selos de verificação de autenticidade pelo Twitter foram excluídas do corpus de análise, embora muitas utilizem mecanismos de automação. Contas híbridas, com comportamento automatizado e humano, foram consideradas bots. O classificador adotado marca como bots apenas as contas com programação de automação menos elaborada, o que garante baixo risco de inclusão de falsos positivos na amostra. Entretanto, outros registros  mais sofisticados podem não ter sido identificados.  O processo de classificação das contas resultou em nossa “amostra teórica” inicial, composta por 3.101 bots e 19.915 tuítes. Para entender a dinâmica das contas em relação à quantidade de conteúdo postado, plotamos um histograma da distribuição de tuítes por contas (Figura 1).

 

Figura 1: Histograma da distribuição de tuítes por contas. A quantidade de tuítes postados (em escala logarítmica) foi plotada em função da quantidade de contas.

https://bit.ly/3eFmMcO  

Fonte: Elaborada pelas autoras (2019)

 

Com base em princípios etnográficos, combinamos diferentes técnicas de pesquisa para identificar os “informantes ideal-tipo” em função da quantidade de tuítes e do conteúdo das postagens. Classificamos nossa amostra em três níveis (Figura 2): “bots pouco ativos” (2.588 bots responsáveis por 7.444 tuítes, com média de 2,9 tuítes por bot no período), “bots de atividade média” (453 bots responsáveis por 8.463 tuítes, com média de 18,7 tuítes por bot no período) e “bots muito ativos” (61 bots responsáveis por 4.008 tuítes, com média de 65,7 tuítes por bot no período).

 

Figura 2 - Processo de coleta de dados e amostragem. Cada retângulo cinza contém o número de contas do Twitter e o respectivo número de tuítes entre parênteses.    

https://bit.ly/330hlQ8

Fonte: Elaborada pelas autoras (2019)

 

 

A partir desta classificação, definimos como “amostra intencional” o conjunto de 61 “bots mais ativos”, devido à intensidade de sua atuação e consequentemente maior capacidade de influência nos temas da campanha eleitoral em curso. Interessante notar que os “bots mais ativos” representam 2% do total de bots, porém foram responsáveis por 20,1% dos tuítes automatizados no período de coleta. Além disso, os “bots mais ativos” foram selecionados como corpus analítico, considerando seu potencial de fornecer dados mais significativos sobre o comportamento dessas contas automatizadas.

 

A tipologia dos “bots mais ativos”

A partir da definição da amostra intencional, procedemos com a etapa da análise de conteúdo dos tuítes dos 61 “bots mais ativos”, o que resultou na identificação de três categorias: “bots gerados por usuário”, “spambots de mídia” e “bots políticos”, estes últimos divididos em duas subcategorias — “ativistas” e “agentes provocadores”. Embora as duas primeiras categorias tenham sido identificadas em nossas etapas de análise, não nos dedicamos a estudá-los profundamente nesta pesquisa, considerando nosso objetivo de tratar do uso político de agentes automatizados no processo eleitoral.

A categoria “bots gerados por usuário” remete a um grupo de contas cujo comportamento automatizado discrepante estava atrelado a um programa de pontos da empresa de telefonia móvel TIM — o TIM Beta. Para publicar conteúdo massivamente, esses usuários automatizam suas contas e, em consequência, apresentam comportamento de bot. Foram identificadas 117 contas TIM Betas, que publicaram 1.347 tuítes. Entre os perfis de nossa amostra intencional, identificamos seis “bots gerados por usuários”.

Os “spambots de mídia” correspondiam a 35 contas, que postaram apenas links para sites de mídia (57% dos perfis de nossa amostra intencional). As evidências apontam a existência de um padrão de comportamento de robô, representado por perfis programados para disseminar apenas links de mídia no Twitter. Considerando esses 35 spambots de mídia, 21 perfis postaram apenas uma fonte de conteúdo de mídia. Além de links dos sites do Grupo Globo, as outras contas dessa categoria postaram outras fontes, com destaque para o Grupo Folha (uol.com.br).

Não apenas os “spambots de mídia”, mas também os “bots gerados por usuários” e os “bots políticos” compartilharam majoritariamente links de conteúdo jornalístico da imprensa tradicional brasileira. Esse elemento empírico comum — a onipresença dos links da mídia tradicional — provavelmente tem um papel na legitimação das mensagens dos bots. A disseminação de conteúdo de mídia é uma tática para camuflar as ações e intenções dessas contas automatizadas, conferindo-lhes uma pseudoneutralidade política.

Em nossa amostra qualitativa, identificamos ainda dois padrões distintos de atuação dos 20 bots políticos, que classificamos como “ativistas” e “agentes provocadores” (ANEXOS A e B). Os “bots políticos ativistas” são contas que atuam da mesma forma que militantes de base de uma campanha eleitoral: endossam candidatos, partidos e personalidades do cenário político, elogiando e promovendo suas propostas de governo e histórico de atuação política. Esses robôs ativistas difundem discurso moderado e pouco agressivo; promovem o candidato com argumentos que sugerem um processo de escolha racional e pragmática, baseada em propostas políticas. Dessa forma atuam como ferramentas de divulgação que emulam eleitores reais, justificando suas escolhas de voto em função de supostas qualidades políticas de seus candidatos. Os ativistas geralmente criticam o desempenho e as habilidades dos adversários, sem atacá-los moralmente.

Por outro lado, os “agentes provocadores” são bots que atuam por incitação emocional. Sua tática inclui difamação, defesa apaixonada de determinada posição política, ataques morais reiterados e apoio irrestrito a seu candidato, que é apresentado como líder e até mesmo uma espécie de “redentor”, sem que haja qualquer referência a programa ou plataforma de governo. Há duas características marcantes na atuação desses robôs: (i) apresentam diagnósticos simplórios sobre problemas sociais complexos, a partir de um enquadramento exclusivamente moral para interpretar e julgar a realidade e (ii) disseminam sentimentos negativos em busca de engajamento político por contágio afetivo. Para os “agentes provocadores” não há oponentes políticos, mas “inimigos”, que vão desde personagens da política nacional a ideias liberais e progressistas, consideradas uma ameaça à ordem social. Dessa forma, ao difundirem alardes reiterados contra os “inimigos”, os “agentes provocadores” tornam-se uma ferramenta eficaz para desinformação e polarização política.

 

Resultados e discussão

A partir das informações disponíveis sobre as contas, dados públicos e metadados, analisamos os perfis dos 20 bots políticos mais ativos em nossa amostra. Identificamos dez bots políticos que agiam em favor da família Bolsonaro e todos se comportavam como agentes provocadores. Cinco bots ativistas apoiavam o candidato Índio da Costa, dois defendiam a Jandira Feghali e outros três, Marcelo Freixo.

Com a análise das informações extraídas pela API do Twitter, foi possível observar que todos os agentes provocadores e quatro ativistas usaram explicitamente ao menos um serviço de automação para gerenciar suas contas do Twitter. Essas plataformas permitem a automação (parcial ou total) da atividade da conta , que pode ser executada por meio de compartilhamento programado, enfileiramento de tuítes e "reciclagem de conteúdo" (DEMERS, 2017). Os tuítes e retuítes das 14 contas eram disparados quando fontes conhecidas mencionavam o nome do político apoiado. As fontes de conteúdo eram geralmente os perfis oficiais do candidato no Twitter e no Facebook, blogs e sites com marcada posição editorial político-ideológica, que apesar de não integrarem o rol dos veículos da imprensa tradicional, são conhecidas e amplamente compartilhadas pela militância.

Como podemos observar nos quadros 1 e 2, no que diz respeito à inclinação político-partidária, em geral, os partidos políticos são alvo de menções negativas, principalmente com ataques direcionados àqueles identificados com o ideário de esquerda (PT, PSOL, PCdoB, PSTU) e centro-esquerda (REDE). Por exemplo, @getuliosantana retuita um post de Jair Bolsonaro em comemoração à votação para destituir Dilma Rousseff da presidência, atacando organizações de esquerda e celebrando a “vitória” do golpe militar de 1964, do qual é defensor declarado: "RT @jairbolsonaro: Você perdeu em 1964, perdeu novamente em 2016. #VoltaPraCadeiaQuerida #choraPT #choraPSOL #choraREDE #choraPCdoB". Apenas três dos 20 dos bots políticos declararam apoio partidário, são eles: @oconsciente, @stelles_13 e @maisdireita, os dois primeiros apoiaram o PT e o PCdoB, e o terceiro, o PSC.

 

Quadro 1 – Comportamento político-moral  do bots agentes provocadores

 

 

Fonte: Elaborado pelas autoras (2020)

 

O caso de Jair Bolsonaro, deputado federal à época, merece destaque. A família Bolsonaro faz amplo e intenso uso das mídias sociais, tanto como ferramenta de campanha eleitoral como meio rotineiro de comunicação com seu eleitorado. Flávio Bolsonaro, apesar de candidato a prefeito, não teve protagonismo nos tuítes e retuítes. Dentre os personagens compartilhados, Flávio é menos mencionado que seu pai e seu irmão mais novo, Eduardo Bolsonaro, à época deputado estadual em São Paulo, que sequer era candidato. Em nossa análise, há evidências sugerindo que desde 2016 Jair Bolsonaro preparava as bases nas redes sociais para sua candidatura presidencial em 2018. O slogan “O Brasil acima de tudo, Deus acima de todos” foi retuitado por seus bots, como @xavier_br, que postou: “RT @ jairbolsonaro: Brasil acima de tudo! Deus acima de todos![...]".

 

Quadro 2 - Comportamento político-moral  dos bots ativistas

https://bit.ly/2SdBEHV

https://bit.ly/3vlSLW4

Fonte: Elaborado pelas autoras (2020)

 

Os bots pró-Bolsonaro apresentaram inclinação político-ideológica de extrema-direita, refutavam radicalmente as agendas progressistas e exibiam fotos e informações sobre suas opiniões, crenças morais e religiosas. Seus tuítes faziam eco à distorção da realidade disseminada no discurso da família Bolsonaro, a exemplo do perfil @maisdireita, que retuitou um post do então candidato a vereador Carlos Bolsonaro: “RT @carlosbolsonaro: sexualidade para as crianças nas escolas! Inacreditável! No Rio, eles querem diretrizes semelhantes! Sobre nossos cadáveres! [...]”. A performance se dá no sentido de polarizar o debate com o uso de frases de efeito, falsas acusações, exclamações e convocações para que o “cidadão de bem” reaja a uma iminente ameaça de caos social.

Os agentes pró-Bolsonaro adotavam um tom agressivo e irônico, defendiam a ditadura militar em seus posts, a ação das forças armadas para promover a ordem social, tortura como tática legítima de Estado e armamento irrestrito para a população civil. O retuíte do perfil @arthurdalomba exemplifica: "RT@jairbolsonaro: Parabéns aos apoiadores do controle pró-armas. A sociedade, segundo os bastardos dos direitos humanos, está cada vez mais protegida [...]".

O grupo de bots apoiadores da candidatura Bolsonaro caracterizou-se por repetidos ataques a partidos de esquerda, especialmente ao Partido dos Trabalhadores (PT) e a seus militantes e simpatizantes, forjando uma espécie de corrente antiesquerda. Os ataques ocorreram com desqualificação moral, insultos pessoais e responsabilização irrestrita por qualquer fato negativo de impacto social, político e econômico. O tom histriônico aparece no excesso de uso de pontos de exclamação, onomatopeias, ironia e zombaria, como por exemplo, @neivacr: "@bolsonarosp E há pessoas que defendem e acreditam neste charlatão!!! E as lágrimas de crocodilo? “Que fraude, Lula!” Hahaha”.

Foi possível observar que Lula e Dilma foram as figuras políticas mais atacadas e, cabe destacar, que não foram identificadas menções relevantes ao adversários de Flávio Bolsonaro na concorrência à Prefeitura do Rio de Janeiro. De outra forma, os cinco bots que apoiavam o candidato Índio da Costa apresentaram foco distinto em relação aos adversários políticos: seus posts eram claramente voltados para questões locais, citando ex-governadores do Rio de Janeiro, como Anthony Garotinho e Sérgio Cabral, e seus aliados. Os ataques foram majoritariamente dirigidos à gestão do então prefeito Eduardo Paes, a seu possível sucessor Pedro Paulo e a seu partido, o MDB. Por exemplo, @agnescampello ressaltou o problema do desemprego, responsabilizando a gestão de Paes: "O Rio tem milhões de desempregados, a capital [é] onde esse número mais cresceu. De quem foi a culpa? Eduardo Paes e Pedro Paulo".

Os bots ativistas @stelles_13 e @oconsciente, identificados como apoiadores à candidata Jandira Feghali (PCdoB), frequentemente trataram do impeachment de Dilma Roussef não apenas como uma questão partidária, mas provavelmente devido à atuação da candidata como deputada federal, posicionando-se em defesa da presidenta. Ambos demonstraram apoio ao PT e ao PCdoB, especialmente na defesa dos líderes do partido, como no tuíte de @stelles_13: "#PT #DemocraciaJá #ForaTemer [...] Eleger Jandira para prefeita do Rio é uma 'volta Dilma', afirma o presidente ".

Os perfis @filipe_nelson, @sophyavictria e @thewayhp foram classificados como ativistas e apoiaram o candidato Marcelo Freixo (PSOL). Esses perfis postaram frequentemente apelos à ação coletiva, especialmente para a participação de base na campanha, como no tuíte de @filipe_nelson: "RT @marcelofreixo: Apenas 20 dias pela frente! Você quer que kits com material promocional sejam entregues em sua casa para que você possa ajudar a ganhar a cidade? Registre-se aqui [...]". Foi comum o uso de um tom positivo e entusiástico, destacando as qualidades de seu candidato e suas propostas, com emprego frequente das hashtags relacionadas aos debates realizados durante a campanha, como no post de @thewayhp: "RT@eu_bulhoes: Acho muito claro que o Freixo está melhor preparado, não é? #DebateGloboRio". Nesses casos, os ataques pessoais aos adversários foram incomuns e, apesar de declararem apoio ao candidato do PSOL, esses bots mencionaram outros candidatos de esquerda de maneira positiva, como Feghali e Molon.

Ao interpretarmos o discurso disseminado pelos bots políticos, encontramos evidências de que a atividade desses perfis ocorre no sentido de simular e falsear o comportamento de um militante on-line. Assim, os bots que imitam pessoas comuns tornam-se uma fonte de informação política e eleitoral, transformando as contas automatizadas em agentes de desinformação e de manipulação da opinião pública, emulando uma esfera de debate político inexistente.

Observamos que os bots políticos estão agindo para beneficiar os partidos de direita, centro e de esquerda, mas a atuação para disseminação do discurso conservador é proeminente, considerando seu conteúdo e escala. O conteúdo postado pelos robôs pode induzir à formação equivocada de opinião ou de leitura de uma situação e, assim, disseminar informações distorcidas, e até falsas, entre os usuários comuns. Os agentes provocadores ao misturarem pautas e agendas nas incitações à hostilidade, produzem dolosamente distorções no debate político nas redes sociais e, dessa forma, seu comportamento extremista na comunicação política pode comprometer as discussões democráticas na Internet.

 

Considerações Finais

No Brasil, o poder das mídias sociais para influenciar os resultados de votações foi impulsionado por mudanças na legislação eleitoral: a primeira, em 2015, promovida pelo Tribunal Superior Eleitoral (TSE), proibiu doações de empresas e instituições para campanhas (RAMALHO, 2015); a segunda, em 2017, refere-se à autorização dada pelo Congresso Nacional para que partidos políticos e candidatos possam pagar para promover conteúdo de campanha nas redes sociais sem que os usuários precisem seguir as páginas para receber as postagens patrocinadas (VENTURINI, 2018). Tais mudanças combinadas tornaram a Internet o principal campo de batalha da campanha eleitoral no Brasil.

Durante nossa análise, baseada na teoria fundamentada, observamos novas formas de manipulação da opinião pública que ganharam relevância. A utilização de scripts de automatização por pessoas comuns e empresas de mídia, como estratégia para alcançar maior popularidade no Twitter, fornece evidências do aumento do uso de ferramentas de manipulação por partidos, políticos, usuários reais e veículos de mídia. O modelo de negócios das mídias sociais e a ênfase dos meios de comunicação de massa nos aspectos comerciais em detrimento da responsabilidade ética aumentam a vulnerabilidade dos processos de comunicação.

Por um lado, observamos que as contas automatizadas são usadas por empresas de mídia para divulgar notícias e ampliar sua audiência. Por outro, programar bots para publicar conteúdo noticioso é útil e conveniente para todos os tipos de atores que tentam manipular as mídias sociais, seja para dar-lhes relevância ou para mascarar suas intenções de dominação. De qualquer forma, nossos resultados reforçam que esses atores automatizados funcionam em consonância com a mídia tradicional.

É também interessante notar que a fala é um campo importante de produção ideológica e de distinção social (BOURDIEU, 2000). Quando pessoas sem as habilidades necessárias para construir uma opinião política são obrigadas a expressar algum posicionamento, como no caso de enquetes ou voto obrigatório,  utilizam conversas cotidianas como fonte de informação para garantir que estão adotando uma opinião socialmente aceita. Em outras palavras, os indivíduos mapeiam as opiniões dos outros para identificar pessoas com o mesmo “habitus de classe” (BOURDIEU, 2000), reproduzindo a ideia mais conveniente disponível. Neste caso, a ampla atuação de bots no Twitter representa um problema social crítico, pois esses agentes ocupam um vácuo de opiniões políticas, oferecendo posições partidárias e polarizadas, facilmente acessível e replicável, para aqueles que não as possuem.

 

Notas

[1] Trolls são agentes, espontâneos ou contratados, que participam ativamente de uma discussão nas redes, com o objetivo de desestabilizar a conversa, importunar outros usuários e desvirtuar o debate, agindo eventualmente de forma agressiva ou provocativa.

[2] A versão Firehose do Twitter inclui 100% dos tuítes públicos sem taxa de limite para coleta de dados.

 

Referências

ALBUQUERQUE, A.L. Eleição no Rio tem tática “antiboato” e suspeita de uso de robôs. Folha de São Paulo, São Paulo, 18 out. 2016. Disponível em: <https://www1.folha.uol.com.br/poder/eleicoes-2016/2016/10/1823713-eleicao-no-rio-tem-tatica-antiboato-e-suspeita-de-uso-de-robos.shtml>. Acesso em: 22 mai. 2018.

ARNAUDO, D. Computational Propaganda in Brazil: Social Bots during Elections. In: WOOLLEY, Samuel; HOWARD, Philip N. (eds). Working Paper 2017.8. Oxford, UK: Project on Computational Propaganda, 2017. 38 p. Disponível em:<http://comprop.oii.ox.ac.uk/>. Acesso em: 22 mai. 2018.

BASTOS, M.; MERCEA, D. The Brexit Botonet and User-Generated Hyperpartisan News. Social Science Computer Review, v. 37, n.1, p. 38-54, 2019. Disponível em: <https://doi.org/10.1177/0894439317734157>. Acesso em: 25 set. 2019.

BOURDIEU, Pierre. Distinction: a social critique of the judgement of taste.  Cambridge, Mass: Harvard University Press, 2000.

BRADSHAW, Samantha; HOWARD, Philip N. Troops, Trolls and Troublemakers: A Global Inventory of Organized Social Media Manipulation. In: WOOLLEY, Samuel; HOWARD, Philip N. (eds.). Working Paper 2017.12. Oxford, UK: Project on Computational Propaganda, 2017. Disponível em: <http://comprop.oii.ox.ac.uk/>. Acesso em: 22 mai. 2018.

CHARMAZ, Kathy; MITCHELL, R G. Grounded Theory in Ethnography. In: ATKINS, P. et al. (org.). Handbook of Ethnography.  Los Angeles: Sage Publications, 2014, p. 160-174.

CHAVOSHI, Nikan; HAMOONI, Hossein; MUEEN, Abdullah. Temporal Patterns in Bot Activities. WWW ’17 Companion, 2017, Republic and Canton of Geneva, Switzerland. Anais... Republic and Canton of Geneva, Switzerland: International World Wide Web Conferences Steering Committee, 2017. p. 1601–1606. Disponível em: <https://doi.org/10.1145/3041021.3051114>. Acesso em: 25 set. 2019.

CHO, C.H. et al. Astroturfing Global Warming: It Isn’t Always Greener on the Other Side of the Fence. J Bus Ethics, v. 104, n. 4, p. 571–587, 2011. Disponível em: <https://www.jstor.org/stable/41476328>. Acesso em: 22 mai. 2018.

CRESWELL, John; POTH, Cheryl. Qualitative inquiry and research design: Choosing among five approaches. 2. ed. Thousand Oaks: Sage Publications, 2007.

CRIVELLA tem 27%, Freixo, 12%, e Bolsonaro, 11%, diz Ibope no Rio. Eleições 2016 no Rio de Janeiro. G1, Rio de Janeiro, 23 ago. 2016. Disponível em: <http://g1.globo.com/rio-de-janeiro/eleicoes/2016/noticia/2016/08/crivella-tem-27-freixo-12-e-bolsonaro-11-diz-ibope-no-rio.html> Acesso em 25 ago. 2020.

DEMERS, Jayson. How To Create Evergreen Content That Earns Value Indefinitely. Forbes, New York, 09. abr. 2017. Disponível em: <https://www.forbes.com/sites/jaysondemers/2017/04/09/how-to-create-evergreen-content-that-earns-value-indefinitely/>. Acesso em: 25 set. 2018.

GORWA, Robert. Computational Propaganda in Poland: False Amplifiers and the Digital Public Sphere. In: WOOLLEY, Samuel; HOWARD, Philip N. (eds.). Working Paper 2017.2. Oxford, UK: Project on Computational Propaganda, 2017, 38 p. Disponível em: <https://www.oii.ox.ac.uk/blog/computational-propaganda-in-poland-false-amplifiers-and-the-digital-public-sphere/>. Acesso em: 22 mai. 2018.

GUNDELACH, P. Grass Roots Organizations. Acta Sociologica, v. 22, n. 2, p. 187-189, 1979. Disponível em: <https://doi.org/10.1177/000169937902200206>. Acesso em: 22 mai. 2018.

HOWARD, Philip N. Deep Democracy, Thin Citizenship: The Impact of Digital Media in Political Campaign Strategy. The Annals of the American Academy of Political and Social Science, v.597, p. 153–170, jan. 2005. Disponível em: <https://www.bibsonomy.org/bibtex/2484cd7889d491e7b80186c6c29bde0a3/sgiersig>. Acesso em: 22 mai. 2018.

HOWARD, Philip N.; WOOLLEY, Samuel; CALO, Ryan. Algorithms, bots, and political communication in the US 2016 election: The challenge of automated political communication for election law and administration. Journal of Information Technology & Politics, v. 15, n. 2, p. 81–93, 2018. Disponível em: <https://doi.org/10.1080/19331681.2018.1448735>. Acesso em: 15 set. 2019.

JOATHAN, Ícaro;  ALVES, Marcelo. O Twitter como ferramenta de campanha negativa não oficial: uma análise da campanha eleitoral para a Prefeitura do Rio de Janeiro em 2016. Galáxia, n.43, p.81-98, 2020. Disponível em: <http://dx.doi.org/10.1590/1982-25532020141565>. Acesso em: 27 jun. 2020.

LAZARSFELD, Paul F.; MERTON, Robert K. Mass communication, popular taste and organized social action. The Communication of Ideas. New York: Institute for Religious and Social Studies,  1948.

KOZINETS, Robert V. Netnography: ethnographic research in the age of the internet. 1.ed. Thousand Oaks: Sage Publications, 2010.

MAZZOLENI, Gianpietro; SCHULZ, Winfried. “Mediatization” of Politics: A Challenge for Democracy? Political Communication, v. 16, n. 3, p. 247–261, 1999. Disponível em: <https://doi.org/10.1080/105846099198613>. Acesso em: 15 set. 2019.

MCCOMBS, Maxwell E.; SHAW, Donald L. The Agenda-Setting Function of Mass Media. The Public Opinion Quarterly, v. 36, n. 2, p. 176–187, 1972.  Disponível em: <http://dx.doi.org/10.1075/asj.1.2.02mcc>. Acesso em 15 set. 2019.

MCCOMBS, Maxwell E.; SHAW, Donald L.; WEAVER, David H. New Directions in Agenda-Setting Theory and Research. Mass Communication and Society, v. 17, n. 6, p. 781–802, 2014. Disponível em: <https://doi.org/10.1080/15205436.2014.964871>. Acesso em: 15 set. 2019.

MCLEOD, Jack M.; BECKER, Lee B.; BYRNES, James E. Another Look At the Agenda-Setting Function of the Press. Communication Research, v. 1, n. 2, p. 131–166, 1974. Disponível em: < https://doi.org/10.1177/009365027400100201>. Acesso em: 25 set. 2018.

MCNUTT, J.G. Researching advocacy groups: Internet sources for research about public interest groups and social movement organizations. Journal of Policy Practice, v. 9, n. 3–4, p. 308–312, 2010. Disponível em: <https://doi.org/10.1080/15588742.2010.487247>. Acesso em: 25 set. 2018.

MCNUTT, J.G.; BOLAND, K. Astroturf, technology and the future of community mobilization: Implications for nonprofit theory. Journal of Sociology and Social Welfare, v. 34, n. 3, p. 165–178, 2007. Disponível em: < https://scholarworks.wmich.edu/cgi/viewcontent.cgi?article=3278&context=jssw>. Acesso em: 9 abr. 2021.

PAPACHARISSI, Zizi. The Virtual Sphere: The Internet as a Public Sphere. New Media & Society, v. 4, n. 1, p. 9–27, 2002. Disponível em: < http://nms.sagepub.com/cgi/content/abstract/4/1/9>. Acesso em: 25 set. 2018.

PENNEY, Joel. The Citizen Marketer: Promoting Political Opinion in the Social Media Age. Oxford, New York: Oxford University Press, 2017. E-book. Disponível em: < https://doi.org/10.1093/joc/jqy034>. Acesso em: 10 jul. 2019.

RAMALHO, Renan. Supremo proíbe doação de empresas para campanhas eleitorais. G1, Brasília, 17 set. 2015. Disponível em: <http://g1.globo.com/politica/noticia/2015/09/supremo-decide-proibir-doacoes-de-empresas-para-campanhas-eleitorais.html>. Acesso em: 25 set. 2018.

ROBÔS, redes sociais e política no Brasil: Estudo sobre interferências ilegítimas no debate público na web. FGV Dapp, Rio de Janeiro, 2018. Disponível em: <http://dapp.fgv.br/robos-redes-sociais-e-politica-estudo-da-fgvdapp-aponta-interferencias-ilegitimas-no-debate-publico-na-web/>. Acesso em: 9 jul. 2019.

SANTINI, Rose Marie et al. Software Power as Soft Power. A Literature Review on Computational Propaganda Effects in Public Opinion and Political Process. Partecipazione e Conflitto, v. 11, n. 2, p. 332-360, 2018. Disponível em: < http://siba-ese.unisalento.it/index.php/paco/article/view/19546>. Acesso em: 9 jul. 2019.

SANTINI, R.M.; SALLES, D.; TUCCI, G.. When machine behavior targets future voters: The use of social bots to test narratives for political campaigns in Brazil. International Journal of Communication, v.15, p.1.220-1.243, 2021. Disponível em: < https://ijoc.org/index.php/ijoc/article/view/14803>. Acesso em 10 set. 2020.

SISSON, D.C. Inauthentic communication, organization-public relationships, and trust: A content analysis of online astroturfing news coverage. Public Relations Review, v. 43, p. 788–795, 2017. Disponível em: https://doi.org/10.1016/J.PUBREV.2017.05.003. Acesso em: 25 mai. 2018.

SKOGERBØ, E.; KRUMSVIK, A.H. Newspapers, Facebook and Twitter: Intermedial agenda setting in local election campaigns. Journalism Practice, v. 9, p. 350–366, 2015. Disponível em: <https://doi.org/10.1080/17512786.2014.950471>. Acesso em 20 jul. 2018.

STIEGLITZ, Stefan et al. Do Social Bots (Still) Act Different to Humans? – Comparing Metrics of Social Bots with Those of Humans. In: MEISELWITZ, Gabriele (org.). Social Computing and Social Media. Human Behavior. Cham: Springer International Publishing, 2017,  p. 379–395. Disponível em: <http://link.springer.com/10.1007/978-3-319-58559-8_30>. Acesso em: 20 jul. 2018.

VENTURINI, Lilian. O que esperar do patrocínio de posts de candidatos durante a eleição. Nexo Jornal, São Paulo, 07 jan. 2018. Disponível em: <https://www.nexojornal.com.br/expresso/2018/01/07/O-que-esperar-do-patroc%C3%ADnio-de-posts-de-candidatos-durante-a-elei%C3%A7%C3%A3o>. Acesso em: 25 jan. 2019.

VENTURINI, T.; LATOUR, B. The Social Fabric: Digital Traces and Quali-quantitative Methods. In: Proceedings of Future En Seine 2009. Paris: Editions Future en Seine, 2010, p. 87–101.

WOJCIK, Stefan et al. Bots in the Twittersphere. [S.l.]: Pew Research Center, abr. 2018.

WOOLLEY, Samuel. The Political Economy of Bots: Theory and Method in the Study of Social Automation. In: KIGGINS, Ryan (ed.). The political economy of robots: Prospects for Prosperity and Peace in the Automated 21st Century. [S.l.]: Springer International Publishing, 2018, p. 127–155.

WOOLLEY, S.C.; HOWARD, P.N. Political Communication, Computational Propaganda, and Autonomous Agents. International Journal of Communication, v. 10, p. 4.882–4.890, 2016. Disponível em: <https://ijoc.org/index.php/ijoc/article/view/6298>. Acesso em: 30 jan. 2019.

 

 

 

 



[1] Professora Associada da Escola de Comunicação da UFRJ e do PPGCI-UFRJ. Coordenadora do NetLab (Laboratório de Estudos de Internet e Redes Sociais) na ECO/UFRJ. E-mail: marie.santini@eco.ufrj.br

[2] Doutora em Ciência da Informação (UFRJ), pós-doutoranda no NetLab (Laboratório de Estudos de Internet e Redes Sociais) na ECO/UFRJ. E-mail: debora.g.salles@gmail.com

[3] Mestre em Engenharia Biomédica (COPPE/UFRJ), doutoranda em Ciência da Informação (IBICT/ECO/UFRJ), pesquisadora no NetLab (Laboratório de Estudos de Internet e Redes Sociais) na ECO/UFRJ. E-mail: giuliatucci@gmail.com

[4] Doutoranda em Ciência da Informação (IBICT-UFRJ), pesquisadora do Netlab (Laboratório de Estudos de Internet e Redes Sociais) na ECO/UFRJ. E-mail: charbelly.estrella@gmail.com

[5] Professora Associada da Escola de Comunicação da UFRJ e do PPGCI-UFRJ. Coordenadora do NetLab (Laboratório de Estudos de Internet e Redes Sociais) na ECO/UFRJ. E-mail: marie.santini@eco.ufrj.br

[6] Doutora em Ciência da Informação (UFRJ), pós-doutoranda no NetLab (Laboratório de Estudos de Internet e Redes Sociais) na ECO/UFRJ. E-mail: debora.g.salles@gmail.com

[7] Mestre em Engenharia Biomédica (COPPE/UFRJ), doutoranda em Ciência da Informação (IBICT/ECO/UFRJ), pesquisadora no NetLab (Laboratório de Estudos de Internet e Redes Sociais) na ECO/UFRJ. E-mail: giuliatucci@gmail.com

[8] Doutoranda em Ciência da Informação (IBICT-UFRJ), pesquisadora do Netlab (Laboratório de Estudos de Internet e Redes Sociais) na ECO/UFRJ. E-mail: charbelly.estrella@gmail.com

1 Professora Associada da Escola de Comunicação da UFRJ e do PPGCI-UFRJ. Coordenadora do NetLab (Laboratório de Estudos de Internet e Redes Sociais) na ECO/UFRJ. E-mail: marie.santini@eco.ufrj.br

2 Doutora em Ciência da Informação (UFRJ), pós-doutoranda no NetLab (Laboratório de Estudos de Internet e Redes Sociais) na ECO/UFRJ. E-mail: debora.g.salles@gmail.com

3 Mestre em Engenharia Biomédica (COPPE/UFRJ), doutoranda em Ciência da Informação (IBICT/ECO/UFRJ), pesquisadora no NetLab (Laboratório de Estudos de Internet e Redes Sociais) na ECO/UFRJ. E-mail: giuliatucci@gmail.com

4 Doutoranda em Ciência da Informação (IBICT-UFRJ), pesquisadora do Netlab (Laboratório de Estudos de Internet e Redes Sociais) na ECO/UFRJ. E-mail: charbelly.estrella@gmail.com