A
militância forjada dos bots:
A campanha
municipal de 2016 como laboratório eleitoral
Rose
Marie Santini[1]
Débora
Salles[2]
Giulia
Tucci[3]
Charbelly Estrella[4]
Resumo: Os “bots
políticos” são perfis automatizados programados para atuar nas redes sociais
com o objetivo de influenciar as discussões políticas, endossar ou difamar um
candidato, disseminar propaganda de campanha, criar ruído no debate público e
interferir na formação da opinião dos usuários. Este artigo investiga como
essas contas afetaram a conversação política no Twitter
durante o primeiro turno das eleições municipais de 2016 no Rio de Janeiro,
contribuindo para a discussão de como os bots podem colocar em risco a comunicação
on-line e afetar a campanha e os resultados eleitorais (HOWARD; WOOLLEY; CALO,
2018). A partir da abordagem da teoria fundamentada, utilizamos a netnografia observacional aliada à análise de discurso para
estudar o comportamento de um conjunto de bots no Twitter
durante o primeiro turno das eleições municipais no Rio de Janeiro. Detectamos
3.101 bots,
responsáveis por 19.915 tuítes, e classificamos nossa
amostra em três categorias de bots com base no conteúdo dos tuítes:
bots
gerados por usuário, spambots
de mídia e bots
políticos. Estes últimos foram divididos em duas subcategorias, em função do
tipo de discurso que difundiram na rede: “ativistas” e “agentes provocadores”.
Os resultados da pesquisa demonstram que os bots políticos representam um
problema social crítico por ocuparem um vácuo de opiniões políticas oferecendo
posições partidárias para aqueles que não as possuem. Concluímos que estas
contas automatizadas prepararam o terreno para a vitória de Jair Bolsonaro nas
eleições presidenciais de 2018, apoiando o então deputado e fortalecendo sua
presença nas redes.
Palavras-chave: Bots; Opinião Pública; Eleições; Netnografia; Twitter.
Astroturfing with bots:
The 2016’s municipal campaign as an electoral laboratory
Rose
Marie Santini[5]
Débora
Salles[6]
Giulia
Tucci[7]
Charbelly Estrella[8]
Abstract: Political bots are
automated profiles programmed to act on social media with the purpose of
influencing political discussions, endorsing or defaming a candidate, spreading
campaign propaganda, creating noise in public debate, and interfering with the
formation of user opinion. This article investigates how these accounts
affected the political conversation on Twitter during the first round of the
2016 Rio de Janeiro municipal elections, contributing to the discussion of how
bots can endanger online communication and affect campaign and election results
(HOWARD; WOOLLEY; CALO, 2018). Based on the Grounded Theory approach, we used
observational netnography coupled with discourse
analysis to study the behavior of bots on Twitter during the first round of the
elections. In our dataset, we detected 3,101 bots, accounting for 19,915
tweets, and classified our sample into three bot
categories based on tweet content: user-generated bots, media spambots, and political bots. The latter were divided into
two subcategories, depending on the type of discourse they spread on the
platform: "activists" and "provocateurs". The research
results show that political bots represent a critical social problem because
they occupy a political opinion vacuum by offering partisan positions to those
who do not have them. We conclude that these automated accounts prepared the
ground for Jair Bolsonaro's victory in the 2018
presidential election, supporting the former deputy and strengthening his
presence online.
Keywords:
Bots;
Public Opinion; Elections; Netnography; Twitter.
Introdução
Depois da vitória de Donald Trump
nos Estados Unidos, em 2016, há evidências substanciais, amplamente divulgadas
pelos meios de comunicação em todo o mundo, de que as plataformas das redes
sociais estão tomadas por robôs (bots), exércitos de trolls [1],, perfis falsos,
entre outros personagens maliciosos financiados para se manifestar de forma
coordenada (BASTOS; MERCEA, 2019; JOATHAN; ALVES, 2020). Essa prática, em inglês, é
chamada de astroturfing
e indica ação falsa patrocinada por grupos ou corporações para apoiar discursos
a seu favor ou para criticar adversários (CHO et al., 2011; MCNUTT, 2010;). A popularização das redes sociais
on-line modificou a dimensão, a importância e as implicações sociais desse
fenômeno. São chamadas de “bots sociais” (tradução do inglês de social bots) as contas falsas e
automatizadas usadas para produzir e disseminar intencionalmente informações
enganosas nas redes sociais, criando uma espécie de opinião pública artificial.
Os “bots
políticos” (em inglês, political bots)
representam um tipo específico de “bot social”: são contas atreladas a uma rotina
computacional, cujos algoritmos são programados para influenciar discussões
políticas, endossar ou difamar um candidato, disseminar propaganda de campanha ou
criar ruído no debate político nas redes sociais digitais (WOOLLEY, 2018;
WOOLLEY; HOWARD, 2016).
Esses robôs,
inseridos em estratégias de propaganda computacional, que combinam algoritmos,
automação e curadoria humana para influenciar e manipular a opinião dos
usuários on-line (WOOLLEY; HOWARD, 2016), têm interferido nos processos
políticos de diferentes países (BRADSHAW; HOWARD, 2017). No Brasil, a aplicação
dessas técnicas de automatização foi identificada nas redes sociais desde 2010
(ARNAUDO, 2017) e empiricamente evidenciadas durante as campanhas para
prefeitura em 2016 (ALBUQUERQUE, 2016).
Nas eleições
municipais do Rio de Janeiro de 2016, onze candidatos fragmentaram a votação em
um primeiro turno concorrido e com campanha polarizada
(JOATHAN; ALVES, 2020). Esse processo eleitoral reforçou a importância das
redes sociais para divulgar propostas, campanhas de financiamento coletivo e
agendas (ALVES, 2017). Os diferentes usos das plataformas digitais, assim como
o cenário político polarizado e o ecossistema de mídia, indicam que a eleição
carioca, assim como a eleição presidencial dois anos depois, foi um espaço
fragmentado e segmentado de disputa política (SANTINI; SALLES; TUCCI, 2021).
O objetivo deste artigo é, por meio do estudo de
caso das eleições municipais de 2016 no Rio de Janeiro, contribuir para a
discussão de como os bots
podem manipular a comunicação on-line, afetando a campanha e o resultado de
uma eleição. As questões de pesquisa são: (i) qual a natureza do conteúdo
postado pelos bots
no Twitter durante o primeiro turno daquela eleição?
(ii) como os bots políticos atuam socialmente e de que maneira são
programados para disseminar ou reproduzir valores específicos? (iii) qual o comportamento político e a ordem moral
representados por essas contas automatizadas? Para responder a essas questões,
partimos da abordagem da teoria fundamentada e utilizamos métodos mistos para
desenvolver a pesquisa, como netnografia
observacional, análise de conteúdo e análise de discurso.
Propaganda e
eleições: novas mídias e dinâmicas
Desde os primeiros estudos sobre a comunicação de
massa, na primeira metade do século XX, as pesquisas em comunicação e política
têm empregado esforços de investigação sobre as estratégias de propaganda e
seus efeitos sobre os eleitores, uma vez que os políticos contam com esse tipo
de comunicação para informar e influenciar a opinião pública. Lazarsfeld e Merton (1948) demonstraram que a mídia
tradicional exerce influência social, beneficiando grupos poderosos e moldando
as visões da realidade social. Nesse sentido, os políticos negociam com as
regras, prazos, formatos, objetivos, lógicas de produção e restrições da mídia,
uma vez que a disseminação de informações pelos meios de comunicação é considerada
a principal interface entre políticos e sociedade.
A atuação da mídia como guardiã dos interesses
coletivos, ao determinar as questões que devem ganhar relevância social e
política, promove uma esfera pública midiatizada (MAZZOLENI; SCHULZ, 1999). McCombs e Shaw (1972) argumentam que os meios de
comunicação podem direcionar a atenção para certas questões e construir imagens
públicas de políticos, criar uma hierarquia de pautas (ROGERS; DEARING, 1988) e
influenciar como o público percebe a iminência de questões políticas (MCLEOD;
BECKER; BYRNES, 1974).
Na medida em que a midiatização da política
evidencia a interferência da mídia no processo democrático (MAZZOLENI; SCHULZ,
1999), o surgimento da Internet suscitou questionamentos sobre a mediação das
novas tecnologias na relação entre mídia e política. Apesar de a perspectiva da
Teoria do Agendamento ter sido ampliada para lidar com possíveis reciprocidades
entre as mídias digitais e as mídias off-line (MCCOMBS; SHAW; WEAVER, 2014), os
efeitos das redes sociais sobre as agendas públicas ainda estão em debate e
muitas questões permanecem em aberto.
Nesse cenário, é importante chamar a atenção para
questões contraditórias inerentes à participação on-line. Apesar de as
discussões políticas terem aflorado nesse ambiente, estudos sobre os avanços
democráticos e os impactos práticos da Internet na agenda política permanecem
conflitantes e não generalizáveis. Segundo Howard (2005, p. 153), a Internet
contribui para a democracia na medida em que aprofunda e amplia a difusão de
informação política e dá visibilidade à diversidade de opiniões na esfera
pública. Entretanto, de acordo com o autor, esse meio torna a cidadania mais
superficial se considerarmos a facilidade com que as pessoas passam a se
expressar politicamente, sem estarem substancialmente engajadas.
As plataformas digitais vêm transformando a
comunicação política e seus efeitos sobre o público, mas ainda é difícil ver
efeitos claros, tornando-se crucial abordar as complexidades do conteúdo, uso e
efeitos das mídias sociais na dinâmica da formação da opinião pública.
A opinião pública artificial: a militância forjada nas redes sociais
Informação e poder computacional tornaram-se
essenciais para o sucesso nas campanhas eleitorais: as vitórias passaram a depender
da qualidade e quantidade de dados, da capacidade de processamento de
informação e das estratégias de disseminação de mensagens extremamente
segmentadas, chamadas de microtargeting (PENNEY, 2017).
As campanhas políticas contemporâneas dependem fundamentalmente das estratégias
digitais, como por exemplo: o uso de plataformas para arrecadar recursos de
campanha, o engajamento de voluntários nas redes sociais, o monitoramento de
outros candidatos e a coleta de dados sobre o perfil do eleitorado (HOWARD, 2005).
Diante desse cenário, com o intuito de dar ampla visibilidade às propostas de
candidatura, promover debates e interagir com a sociedade, candidatos e
partidos buscam ampliar suas redes de apoio on-line como uma estratégia para
escapar do controle editorial da mídia tradicional e se aproximar de seu
eleitorado. (SKOGERBØ; KRUMSVIK, 2015).
Diversos tipos de agenciamentos coletivos,
engajamento político e movimentos sociais on-line surgiram desde a década de
2000, porém simultaneamente foram criadas formas para sua falsificação com as
mesmas ferramentas: campanhas políticas começaram a direcionar seus orçamentos
para fabricação de debates, produção de informações calculadas e mobilização
coordenada de eleitores na Internet (MCNUTT; BOLAND, 2007).
As chamadas “militâncias políticas de base” são
movimentos políticos coletivos que agem voluntariamente e buscam influenciar
causas específicas de natureza social e/ou política (CHO et al., 2011; GUNDELACH, 1979). Por outro lado, as militâncias
forjadas on-line estão assumindo uma nova dimensão na arena política com o
intuito de interferir no processo eleitoral (SISSON, 2017). As técnicas de astroturfing
on-line fazem parte de estratégias mais sofisticadas de propaganda
computacional, usadas mundialmente por governos, candidatos e figuras políticas
para distribuir informação enganosa em plataformas de redes sociais (BRADSHAW;
HOWARD, 2017). Bots
programados para atuar ideologicamente são empregados para afetar as tomadas de
decisão e a percepção dos cidadãos e assim impactar diretamente em eleições,
referendos e na formação de opinião.
Esses robôs simulam uma militância política de
base (STIEGLITZ et al., 2017) e
imitam a lógica de comportamento comunitário, divulgando mensagens e
falsificando a popularidade e a espontaneidade de campanhas eleitorais. Há uma
demanda crescente por pesquisas empíricas sobre esses agentes e suas intenções,
considerando a condição cada vez mais personificada e segmentada da militância
digital, orquestrada a partir do uso cruzado de big data e perfis falsos e automatizados nas redes sociais (SANTINI
et al., 2018). Diante desse cenário,
este trabalho investiga o primeiro turno das eleições municipais do Rio de
Janeiro em 2016, enquanto estudo de caso sobre o tema.
Materiais e métodos
Para investigar os bots e analisar seus diferentes
comportamentos nas campanhas políticas on-line, recorremos à teoria
fundamentada. Esta abordagem é indicada para temas novos e complexos por propor
o uso de estratégias adaptáveis em um processo comparativo, conduzido em zigue-zague de coleta e análise de dados (CHARMAZ;
MITCHELL, 2014), e por permitir o desenvolvimento de teorias ou hipóteses sobre
as ações, interações e processos de indivíduos ou grupos (CRESWELL, 2007). Para
descrever os objetos de nossa análise como um grupo social (CHARMAZ; MITCHELL,
2014), utilizamos princípios da netnografia
observacional (KOZINETS, 2010). A partir de Venturini e Latour
(2010), que defendem os rastros digitais como material empírico válido para a
abordagem etnográfica, realizamos a observação sem qualquer interação com o
objeto de pesquisa.
Os bots não são humanos, mas são desenvolvidos, programados e
gerenciados por pessoas ou grupos com o objetivo de fazê-los parecer pessoas
reais, para que se conectem facilmente com usuários reais. Portanto, enquanto
objeto de pesquisa, os bots
não constituem uma comunidade de pessoas em si, mas mimetizam e assumem uma
personificação humana, simulam perfis reais, cujas conexões tendem a ser
baseadas nos princípios de homofilia.
Para estudar os papéis e características dos bots sociais no Twitter, durante o primeiro turno das eleições, entre 17 de
agosto a 02 de outubro de 2016, criamos um conjunto de dados com tuítes postados por bots e os metadados dessas contas.
Os critérios de coleta incluíram a palavra “Rio”, os nomes dos candidatos que
lideravam as pesquisas: Crivella, Freixo, “Pedro Paulo”, “Índio da Costa”,
Bolsonaro, Jandira, Molon e Osório (G1, 2016); e hashtags de
campanha (#Crivella10, #freixo50, #é15, #molonprefeito18, #indio55, #forçapramudar e #Jandira65). Por meio da API Firehose[2], extraímos 152.372 tuítes
postados por 57.616 perfis.
A identificação e a filtragem das
contas automatizadas foram baseadas em dois critérios apresentados na
literatura da área (GORWA, 2017; CHAVOSHI; HAMOONI; MUEEN, 2017; FGV DAPP,
2017): (i) a conta deve ter publicado dois tuítes
consecutivos em menos de um segundo de intervalo, em pelo menos duas ocasiões e
(ii) ao menos 10% do conteúdo postado pela conta deve
ter sido produzido por plataformas de automação, aplicativos criados por desenvolvedores
externos que executam ações no Twitter via API. Há
plataformas autorizadas, que podem ser conectadas a uma conta e programadas
para interagir automaticamente, porém existem aquelas que infringem as regras
de automação do Twitter. As contas com selos de
verificação de autenticidade pelo Twitter foram
excluídas do corpus de análise, embora muitas utilizem mecanismos de automação.
Contas híbridas, com comportamento automatizado e humano, foram
consideradas bots.
O classificador adotado marca como bots apenas as contas com programação de automação menos
elaborada, o que garante baixo risco de inclusão de falsos positivos na
amostra. Entretanto, outros registros mais sofisticados podem não ter sido identificados. O processo de classificação das contas resultou em nossa
“amostra teórica” inicial, composta por 3.101 bots e 19.915 tuítes. Para entender a
dinâmica das contas em relação à quantidade de conteúdo postado, plotamos um
histograma da distribuição de tuítes por contas
(Figura 1).
Figura 1: Histograma da
distribuição de tuítes por contas. A quantidade de tuítes postados (em escala logarítmica) foi plotada em
função da quantidade de contas.
Fonte: Elaborada pelas autoras (2019)
Com base em princípios etnográficos, combinamos
diferentes técnicas de pesquisa para identificar os “informantes ideal-tipo” em
função da quantidade de tuítes e do conteúdo das
postagens. Classificamos nossa amostra em três níveis (Figura 2): “bots pouco
ativos” (2.588 bots
responsáveis por 7.444 tuítes, com média de 2,9 tuítes por bot no período), “bots de atividade
média” (453 bots
responsáveis por 8.463 tuítes, com média de 18,7 tuítes por bot no período) e
“bots muito
ativos” (61 bots
responsáveis por 4.008 tuítes, com média de 65,7 tuítes por bot no período).
Figura 2 - Processo de
coleta de dados e amostragem. Cada retângulo cinza contém o número de contas do
Twitter e o respectivo número de tuítes
entre parênteses.
Fonte: Elaborada pelas autoras (2019)
A partir desta classificação, definimos como
“amostra intencional” o conjunto de 61 “bots mais ativos”, devido à intensidade de sua atuação e
consequentemente maior capacidade de influência nos temas da campanha eleitoral
em curso. Interessante notar que os “bots mais ativos” representam 2% do total de bots, porém foram
responsáveis por 20,1% dos tuítes automatizados no
período de coleta. Além disso, os “bots mais ativos” foram selecionados como corpus analítico, considerando seu
potencial de fornecer dados mais significativos sobre o comportamento dessas
contas automatizadas.
A tipologia dos “bots mais ativos”
A partir da definição da amostra intencional,
procedemos com a etapa da análise de conteúdo dos tuítes
dos 61 “bots
mais ativos”, o que resultou na identificação de três categorias: “bots gerados por
usuário”, “spambots
de mídia” e “bots
políticos”, estes últimos divididos em duas subcategorias — “ativistas” e
“agentes provocadores”. Embora as duas primeiras categorias tenham sido
identificadas em nossas etapas de análise, não nos dedicamos a estudá-los
profundamente nesta pesquisa, considerando nosso objetivo de tratar do uso
político de agentes automatizados no processo eleitoral.
A categoria “bots gerados por usuário” remete
a um grupo de contas cujo comportamento automatizado discrepante estava
atrelado a um programa de pontos da empresa de telefonia móvel TIM — o TIM
Beta. Para publicar conteúdo massivamente, esses usuários automatizam suas
contas e, em consequência, apresentam comportamento de bot. Foram identificadas 117 contas TIM Betas, que publicaram 1.347
tuítes. Entre os perfis de nossa amostra intencional,
identificamos seis “bots
gerados por usuários”.
Os “spambots de mídia” correspondiam a 35 contas, que postaram
apenas links para sites de mídia (57%
dos perfis de nossa amostra intencional). As evidências apontam a existência de
um padrão de comportamento de robô, representado por perfis programados para
disseminar apenas links de mídia no Twitter. Considerando esses 35 spambots de mídia, 21 perfis
postaram apenas uma fonte de conteúdo de mídia. Além de links dos sites do Grupo Globo, as outras contas dessa categoria
postaram outras fontes, com destaque para o Grupo Folha (uol.com.br).
Não apenas os “spambots de mídia”, mas também os
“bots
gerados por usuários” e os “bots políticos” compartilharam majoritariamente links de conteúdo jornalístico da
imprensa tradicional brasileira. Esse elemento empírico comum — a onipresença
dos links da mídia tradicional —
provavelmente tem um papel na legitimação das mensagens dos bots. A disseminação de conteúdo
de mídia é uma tática para camuflar as ações e intenções dessas contas
automatizadas, conferindo-lhes uma pseudoneutralidade política.
Em nossa amostra qualitativa, identificamos ainda
dois padrões distintos de atuação dos 20 bots políticos, que classificamos
como “ativistas” e “agentes provocadores” (ANEXOS A e
B). Os “bots
políticos ativistas” são contas que atuam da mesma forma que militantes de base
de uma campanha eleitoral: endossam candidatos, partidos e personalidades do
cenário político, elogiando e promovendo suas propostas de governo e histórico
de atuação política. Esses robôs ativistas difundem discurso moderado e pouco
agressivo; promovem o candidato com argumentos que sugerem um processo de
escolha racional e pragmática, baseada em propostas políticas. Dessa forma atuam
como ferramentas de divulgação que emulam eleitores reais, justificando suas
escolhas de voto em função de supostas qualidades políticas de seus candidatos.
Os ativistas geralmente criticam o desempenho e as habilidades dos adversários,
sem atacá-los moralmente.
Por outro lado, os “agentes provocadores” são bots que atuam
por incitação emocional. Sua tática inclui difamação, defesa apaixonada de
determinada posição política, ataques morais reiterados e apoio irrestrito a
seu candidato, que é apresentado como líder e até mesmo uma espécie de
“redentor”, sem que haja qualquer referência a
programa ou plataforma de governo. Há duas características marcantes na atuação
desses robôs: (i) apresentam diagnósticos simplórios sobre problemas sociais complexos,
a partir de um enquadramento exclusivamente moral para interpretar e julgar a
realidade e (ii) disseminam sentimentos negativos em
busca de engajamento político por contágio afetivo. Para os “agentes
provocadores” não há oponentes políticos, mas “inimigos”, que vão desde
personagens da política nacional a ideias liberais e progressistas,
consideradas uma ameaça à ordem social. Dessa forma, ao difundirem alardes
reiterados contra os “inimigos”, os “agentes provocadores” tornam-se uma
ferramenta eficaz para desinformação e polarização política.
Resultados e discussão
A partir das informações disponíveis sobre as
contas, dados públicos e metadados, analisamos os
perfis dos 20 bots
políticos mais ativos em nossa amostra. Identificamos dez bots políticos que agiam em favor
da família Bolsonaro e todos se comportavam como agentes provocadores. Cinco bots ativistas
apoiavam o candidato Índio da Costa, dois defendiam a Jandira Feghali e outros três, Marcelo Freixo.
Com a análise das informações extraídas pela API
do Twitter, foi possível observar que todos os
agentes provocadores e quatro ativistas usaram explicitamente ao menos um
serviço de automação para gerenciar suas contas do Twitter.
Essas plataformas permitem a automação (parcial ou total) da atividade da conta , que pode ser executada por meio de compartilhamento
programado, enfileiramento de tuítes e
"reciclagem de conteúdo" (DEMERS, 2017). Os tuítes
e retuítes das 14 contas eram disparados quando
fontes conhecidas mencionavam o nome do político apoiado. As fontes de conteúdo
eram geralmente os perfis oficiais do candidato no Twitter
e no Facebook, blogs e sites com marcada posição
editorial político-ideológica, que apesar de não integrarem o rol dos veículos
da imprensa tradicional, são conhecidas e amplamente compartilhadas pela
militância.
Como podemos observar nos quadros 1 e 2, no que
diz respeito à inclinação político-partidária, em geral, os partidos políticos
são alvo de menções negativas, principalmente com ataques direcionados àqueles
identificados com o ideário de esquerda (PT, PSOL, PCdoB, PSTU) e
centro-esquerda (REDE). Por exemplo, @getuliosantana retuita um post de Jair Bolsonaro em comemoração à votação
para destituir Dilma Rousseff da presidência, atacando organizações de esquerda
e celebrando a “vitória” do golpe militar de 1964, do qual é defensor
declarado: "RT @jairbolsonaro: Você perdeu em
1964, perdeu novamente em 2016. #VoltaPraCadeiaQuerida
#choraPT #choraPSOL #choraREDE #choraPCdoB".
Apenas três dos 20 dos bots
políticos declararam apoio partidário, são eles: @oconsciente,
@stelles_13 e @maisdireita, os dois primeiros
apoiaram o PT e o PCdoB, e o terceiro, o PSC.
Quadro 1 – Comportamento
político-moral do
bots agentes provocadores
Fonte: Elaborado pelas autoras (2020)
O caso de Jair Bolsonaro, deputado federal à
época, merece destaque. A família Bolsonaro faz amplo e intenso uso das mídias
sociais, tanto como ferramenta de campanha eleitoral como meio rotineiro de
comunicação com seu eleitorado. Flávio Bolsonaro, apesar de candidato a
prefeito, não teve protagonismo nos tuítes e retuítes. Dentre os personagens compartilhados, Flávio é
menos mencionado que seu pai e seu irmão mais novo, Eduardo Bolsonaro, à época
deputado estadual em São Paulo, que sequer era candidato. Em nossa análise, há
evidências sugerindo que desde 2016 Jair Bolsonaro preparava as bases nas redes
sociais para sua candidatura presidencial em 2018. O slogan “O Brasil acima de
tudo, Deus acima de todos” foi retuitado por seus bots, como @xavier_br, que postou: “RT @ jairbolsonaro:
Brasil acima de tudo! Deus acima de todos![...]".
Quadro 2 -
Comportamento político-moral
dos bots
ativistas
Fonte: Elaborado pelas autoras (2020)
Os bots pró-Bolsonaro apresentaram inclinação
político-ideológica de extrema-direita, refutavam radicalmente as agendas
progressistas e exibiam fotos e informações sobre suas opiniões, crenças morais
e religiosas. Seus tuítes faziam eco à distorção da
realidade disseminada no discurso da família Bolsonaro, a exemplo do perfil @maisdireita, que retuitou um post
do então candidato a vereador Carlos Bolsonaro: “RT @carlosbolsonaro:
sexualidade para as crianças nas escolas! Inacreditável! No Rio, eles querem
diretrizes semelhantes! Sobre nossos cadáveres! [...]”. A performance se dá no
sentido de polarizar o debate com o uso de frases de efeito, falsas acusações,
exclamações e convocações para que o “cidadão de bem” reaja a uma iminente
ameaça de caos social.
Os agentes pró-Bolsonaro adotavam um tom
agressivo e irônico, defendiam a ditadura militar em seus posts, a ação das
forças armadas para promover a ordem social, tortura como tática legítima de
Estado e armamento irrestrito para a população civil. O retuíte
do perfil @arthurdalomba exemplifica: "RT@jairbolsonaro: Parabéns aos apoiadores do controle
pró-armas. A sociedade, segundo os bastardos dos direitos humanos, está cada
vez mais protegida [...]".
O grupo de bots apoiadores da candidatura
Bolsonaro caracterizou-se por repetidos ataques a partidos de esquerda,
especialmente ao Partido dos Trabalhadores (PT) e a seus militantes e
simpatizantes, forjando uma espécie de corrente antiesquerda.
Os ataques ocorreram com desqualificação moral, insultos pessoais e responsabilização
irrestrita por qualquer fato negativo de impacto social, político e econômico.
O tom histriônico aparece no excesso de uso de pontos de exclamação,
onomatopeias, ironia e zombaria, como por exemplo, @neivacr:
"@bolsonarosp E há pessoas que defendem e
acreditam neste charlatão!!! E as lágrimas de crocodilo? “Que fraude, Lula!” Hahaha”.
Foi possível observar que Lula e Dilma foram as
figuras políticas mais atacadas e, cabe destacar, que não foram identificadas
menções relevantes ao adversários de Flávio Bolsonaro
na concorrência à Prefeitura do Rio de Janeiro. De outra forma, os cinco bots que apoiavam
o candidato Índio da Costa apresentaram foco distinto em relação aos
adversários políticos: seus posts eram claramente voltados para questões locais,
citando ex-governadores do Rio de Janeiro, como Anthony Garotinho e Sérgio
Cabral, e seus aliados. Os ataques foram majoritariamente dirigidos à gestão do
então prefeito Eduardo Paes, a seu possível sucessor Pedro Paulo e a seu
partido, o MDB. Por exemplo, @agnescampello ressaltou
o problema do desemprego, responsabilizando a gestão de Paes: "O Rio tem
milhões de desempregados, a capital [é] onde esse número mais cresceu. De quem
foi a culpa? Eduardo Paes e Pedro Paulo".
Os bots ativistas @stelles_13 e @oconsciente,
identificados como apoiadores à candidata Jandira Feghali
(PCdoB), frequentemente trataram do impeachment
de Dilma Roussef não apenas como uma questão
partidária, mas provavelmente devido à atuação da candidata como deputada
federal, posicionando-se em defesa da presidenta. Ambos demonstraram apoio ao
PT e ao PCdoB, especialmente na defesa dos líderes do partido, como no tuíte de @stelles_13: "#PT #DemocraciaJá
#ForaTemer [...] Eleger Jandira para prefeita do Rio
é uma 'volta Dilma', afirma o presidente ".
Os perfis @filipe_nelson,
@sophyavictria e @thewayhp
foram classificados como ativistas e apoiaram o candidato Marcelo Freixo
(PSOL). Esses perfis postaram frequentemente apelos à ação coletiva,
especialmente para a participação de base na campanha, como no tuíte de @filipe_nelson: "RT
@marcelofreixo: Apenas 20 dias pela frente! Você quer
que kits com material promocional sejam entregues em sua casa para que você
possa ajudar a ganhar a cidade? Registre-se aqui [...]". Foi comum o uso
de um tom positivo e entusiástico, destacando as qualidades de seu candidato e
suas propostas, com emprego frequente das hashtags relacionadas aos debates
realizados durante a campanha, como no post de @thewayhp:
"RT@eu_bulhoes: Acho muito claro que o Freixo
está melhor preparado, não é? #DebateGloboRio".
Nesses casos, os ataques pessoais aos adversários foram incomuns e, apesar de
declararem apoio ao candidato do PSOL, esses bots mencionaram outros
candidatos de esquerda de maneira positiva, como Feghali
e Molon.
Ao interpretarmos o discurso disseminado pelos bots políticos,
encontramos evidências de que a atividade desses perfis ocorre no sentido de
simular e falsear o comportamento de um militante on-line. Assim, os bots que imitam
pessoas comuns tornam-se uma fonte de informação política e eleitoral,
transformando as contas automatizadas em agentes de desinformação e de
manipulação da opinião pública, emulando uma esfera de debate político
inexistente.
Observamos que os bots políticos estão agindo para
beneficiar os partidos de direita, centro e de esquerda, mas a atuação para
disseminação do discurso conservador é proeminente, considerando seu conteúdo e
escala. O conteúdo postado pelos robôs pode induzir à formação equivocada de
opinião ou de leitura de uma situação e, assim, disseminar informações
distorcidas, e até falsas, entre os usuários comuns. Os agentes provocadores ao
misturarem pautas e agendas nas incitações à hostilidade, produzem dolosamente
distorções no debate político nas redes sociais e, dessa forma, seu
comportamento extremista na comunicação política pode comprometer as discussões
democráticas na Internet.
Considerações Finais
No Brasil, o poder das mídias sociais para
influenciar os resultados de votações foi impulsionado por mudanças na legislação
eleitoral: a primeira, em 2015, promovida pelo Tribunal Superior Eleitoral
(TSE), proibiu doações de empresas e instituições para campanhas (RAMALHO,
2015); a segunda, em 2017, refere-se à autorização dada pelo Congresso Nacional
para que partidos políticos e candidatos possam pagar para promover conteúdo de
campanha nas redes sociais sem que os usuários precisem seguir as páginas para
receber as postagens patrocinadas (VENTURINI, 2018). Tais mudanças combinadas
tornaram a Internet o principal campo de batalha da campanha eleitoral no
Brasil.
Durante nossa análise, baseada na teoria
fundamentada, observamos novas formas de manipulação da opinião pública que
ganharam relevância. A utilização de scripts de automatização por pessoas
comuns e empresas de mídia, como estratégia para alcançar maior popularidade no
Twitter, fornece evidências do aumento do uso de
ferramentas de manipulação por partidos, políticos, usuários reais e veículos
de mídia. O modelo de negócios das mídias sociais e a ênfase dos meios de
comunicação de massa nos aspectos comerciais em detrimento da responsabilidade
ética aumentam a vulnerabilidade dos processos de comunicação.
Por um lado, observamos que as contas
automatizadas são usadas por empresas de mídia para divulgar notícias e ampliar
sua audiência. Por outro, programar bots para publicar conteúdo noticioso é útil e
conveniente para todos os tipos de atores que tentam manipular as mídias
sociais, seja para dar-lhes relevância ou para mascarar suas intenções de
dominação. De qualquer forma, nossos resultados reforçam que esses atores
automatizados funcionam em consonância com a mídia tradicional.
É também interessante notar que a fala é um campo
importante de produção ideológica e de distinção social (BOURDIEU, 2000).
Quando pessoas sem as habilidades necessárias para construir uma opinião
política são obrigadas a expressar algum posicionamento, como no caso de
enquetes ou voto obrigatório,
utilizam conversas cotidianas como fonte de informação para
garantir que estão adotando uma opinião socialmente aceita. Em outras palavras,
os indivíduos mapeiam as opiniões dos outros para identificar pessoas com o
mesmo “habitus
de classe” (BOURDIEU, 2000), reproduzindo a ideia mais conveniente disponível.
Neste caso, a ampla atuação de bots no Twitter representa um problema social crítico, pois esses
agentes ocupam um vácuo de opiniões políticas, oferecendo posições partidárias
e polarizadas, facilmente acessível e replicável, para aqueles que não as
possuem.
Notas
[1] Trolls são agentes, espontâneos ou contratados, que participam
ativamente de uma discussão nas redes, com o objetivo de desestabilizar a
conversa, importunar outros usuários e desvirtuar o debate, agindo
eventualmente de forma agressiva ou provocativa.
[2] A versão Firehose do Twitter inclui 100% dos tuítes
públicos sem taxa de limite para coleta de dados.
Referências
ALBUQUERQUE, A.L. Eleição no Rio tem tática “antiboato” e suspeita de uso de robôs. Folha de São Paulo, São Paulo, 18 out. 2016. Disponível em:
<https://www1.folha.uol.com.br/poder/eleicoes-2016/2016/10/1823713-eleicao-no-rio-tem-tatica-antiboato-e-suspeita-de-uso-de-robos.shtml>.
Acesso em: 22 mai. 2018.
ARNAUDO, D. Computational
Propaganda in Brazil: Social Bots
during Elections. In: WOOLLEY,
Samuel; HOWARD, Philip N. (eds). Working Paper 2017.8. Oxford, UK: Project on Computational
Propaganda, 2017. 38 p.
Disponível em:<http://comprop.oii.ox.ac.uk/>. Acesso em: 22 mai. 2018.
BASTOS, M.;
MERCEA, D. The Brexit Botonet
and User-Generated Hyperpartisan News. Social
Science Computer Review, v. 37, n.1, p. 38-54, 2019. Disponível em:
<https://doi.org/10.1177/0894439317734157>. Acesso em: 25 set. 2019.
BOURDIEU,
Pierre. Distinction: a social critique
of the judgement of taste. Cambridge, Mass: Harvard University Press,
2000.
BRADSHAW,
Samantha; HOWARD, Philip N. Troops, Trolls and Troublemakers: A Global
Inventory of Organized Social Media Manipulation. In: WOOLLEY, Samuel; HOWARD,
Philip N. (eds.). Working Paper 2017.12.
Oxford, UK: Project on Computational Propaganda, 2017. Disponível em:
<http://comprop.oii.ox.ac.uk/>. Acesso em: 22 mai. 2018.
CHARMAZ, Kathy;
MITCHELL, R G. Grounded Theory in Ethnography. In: ATKINS, P. et al. (org.). Handbook of Ethnography. Los
Angeles: Sage Publications, 2014, p. 160-174.
CHAVOSHI, Nikan;
HAMOONI, Hossein; MUEEN, Abdullah. Temporal Patterns in Bot Activities. WWW ’17
Companion, 2017, Republic and Canton of Geneva, Switzerland. Anais... Republic and Canton of Geneva,
Switzerland: International World Wide Web Conferences Steering Committee, 2017.
p. 1601–1606. Disponível
em: <https://doi.org/10.1145/3041021.3051114>. Acesso em: 25 set. 2019.
CHO, C.H. et al.
Astroturfing Global Warming: It Isn’t Always Greener
on the Other Side of the Fence. J Bus
Ethics, v. 104, n. 4, p. 571–587, 2011. Disponível
em: <https://www.jstor.org/stable/41476328>. Acesso em: 22 mai.
2018.
CRESWELL,
John; POTH, Cheryl. Qualitative inquiry
and research design: Choosing among five approaches. 2. ed. Thousand Oaks:
Sage Publications, 2007.
CRIVELLA tem 27%, Freixo, 12%, e
Bolsonaro, 11%, diz Ibope no Rio. Eleições 2016 no Rio de Janeiro. G1, Rio de Janeiro, 23 ago. 2016.
Disponível em:
<http://g1.globo.com/rio-de-janeiro/eleicoes/2016/noticia/2016/08/crivella-tem-27-freixo-12-e-bolsonaro-11-diz-ibope-no-rio.html>
Acesso em 25 ago. 2020.
DEMERS, Jayson. How
To Create Evergreen Content That Earns Value
Indefinitely. Forbes, New York, 09.
abr. 2017. Disponível em: <https://www.forbes.com/sites/jaysondemers/2017/04/09/how-to-create-evergreen-content-that-earns-value-indefinitely/>.
Acesso em: 25 set. 2018.
GORWA,
Robert. Computational Propaganda in Poland: False Amplifiers and the Digital
Public Sphere. In: WOOLLEY, Samuel; HOWARD, Philip N. (eds.). Working Paper 2017.2. Oxford, UK:
Project on Computational Propaganda, 2017, 38 p. Disponível
em:
<https://www.oii.ox.ac.uk/blog/computational-propaganda-in-poland-false-amplifiers-and-the-digital-public-sphere/>.
Acesso em: 22 mai. 2018.
GUNDELACH, P. Grass Roots Organizations.
Acta Sociologica,
v. 22, n. 2, p. 187-189, 1979. Disponível em: <https://doi.org/10.1177/000169937902200206>.
Acesso em: 22 mai. 2018.
HOWARD,
Philip N. Deep Democracy, Thin Citizenship: The Impact of Digital Media in
Political Campaign Strategy. The Annals
of the American Academy of Political and Social Science, v.597, p. 153–170,
jan. 2005. Disponível em: <https://www.bibsonomy.org/bibtex/2484cd7889d491e7b80186c6c29bde0a3/sgiersig>.
Acesso em: 22 mai. 2018.
HOWARD,
Philip N.; WOOLLEY, Samuel; CALO, Ryan. Algorithms, bots, and political
communication in the US 2016 election: The challenge of automated political
communication for election law and administration. Journal of Information Technology & Politics, v. 15, n. 2, p.
81–93, 2018. Disponível em:
<https://doi.org/10.1080/19331681.2018.1448735>. Acesso em: 15 set. 2019.
JOATHAN, Ícaro; ALVES, Marcelo. O Twitter como ferramenta de campanha negativa não oficial:
uma análise da campanha eleitoral para a Prefeitura do Rio de Janeiro em 2016. Galáxia,
n.43, p.81-98, 2020. Disponível em: <http://dx.doi.org/10.1590/1982-25532020141565>. Acesso em: 27 jun. 2020.
LAZARSFELD, Paul
F.; MERTON, Robert K. Mass communication,
popular taste and organized social action. The Communication of Ideas. New
York: Institute for Religious and Social Studies, 1948.
KOZINETS,
Robert V. Netnography: ethnographic research in the age of the
internet. 1.ed. Thousand Oaks: Sage Publications, 2010.
MAZZOLENI, Gianpietro; SCHULZ, Winfried. “Mediatization”
of Politics: A Challenge for Democracy? Political
Communication, v. 16, n. 3, p.
247–261, 1999. Disponível em: <https://doi.org/10.1080/105846099198613>. Acesso em: 15 set. 2019.
MCCOMBS, Maxwell
E.; SHAW, Donald L. The Agenda-Setting Function of Mass Media. The
Public Opinion Quarterly, v. 36, n. 2, p. 176–187, 1972. Disponível em: <http://dx.doi.org/10.1075/asj.1.2.02mcc>. Acesso em 15 set. 2019.
MCCOMBS, Maxwell
E.; SHAW, Donald L.; WEAVER, David H. New Directions in Agenda-Setting Theory
and Research. Mass Communication and
Society, v. 17, n. 6, p. 781–802, 2014. Disponível
em: <https://doi.org/10.1080/15205436.2014.964871>. Acesso em: 15 set. 2019.
MCLEOD, Jack M.;
BECKER, Lee B.; BYRNES, James E. Another Look At the
Agenda-Setting Function of the Press. Communication Research, v. 1, n. 2, p. 131–166, 1974. Disponível
em: < https://doi.org/10.1177/009365027400100201>. Acesso em: 25 set. 2018.
MCNUTT,
J.G. Researching advocacy groups: Internet sources for research about public
interest groups and social movement organizations. Journal of Policy Practice, v. 9, n. 3–4, p. 308–312, 2010. Disponível em: <https://doi.org/10.1080/15588742.2010.487247>.
Acesso em: 25 set. 2018.
MCNUTT,
J.G.; BOLAND, K. Astroturf, technology and the future of community
mobilization: Implications for nonprofit theory. Journal of Sociology and Social Welfare, v. 34, n. 3, p. 165–178,
2007. Disponível em: < https://scholarworks.wmich.edu/cgi/viewcontent.cgi?article=3278&context=jssw>.
Acesso em: 9 abr. 2021.
PAPACHARISSI,
Zizi. The Virtual Sphere: The Internet as a Public
Sphere. New Media & Society, v. 4, n. 1, p. 9–27, 2002.
Disponível em: <
http://nms.sagepub.com/cgi/content/abstract/4/1/9>. Acesso em: 25
set. 2018.
PENNEY, Joel. The Citizen Marketer: Promoting
Political Opinion in the Social Media Age. Oxford, New York: Oxford University
Press, 2017. E-book. Disponível em:
< https://doi.org/10.1093/joc/jqy034>.
Acesso em: 10 jul. 2019.
RAMALHO, Renan. Supremo proíbe doação de empresas para campanhas eleitorais.
G1, Brasília, 17 set. 2015. Disponível
em:
<http://g1.globo.com/politica/noticia/2015/09/supremo-decide-proibir-doacoes-de-empresas-para-campanhas-eleitorais.html>.
Acesso em: 25 set. 2018.
ROBÔS, redes sociais e política no Brasil: Estudo sobre
interferências ilegítimas no debate público na web. FGV Dapp, Rio de Janeiro, 2018. Disponível
em:
<http://dapp.fgv.br/robos-redes-sociais-e-politica-estudo-da-fgvdapp-aponta-interferencias-ilegitimas-no-debate-publico-na-web/>.
Acesso em: 9 jul. 2019.
SANTINI,
Rose Marie et al. Software Power as
Soft Power. A Literature Review on Computational Propaganda Effects in Public
Opinion and Political Process. Partecipazione e Conflitto, v. 11, n. 2, p. 332-360,
2018. Disponível em: < http://siba-ese.unisalento.it/index.php/paco/article/view/19546>.
Acesso em: 9 jul. 2019.
SANTINI, R.M.; SALLES, D.; TUCCI, G.. When machine
behavior targets future voters: The use of social bots to test narratives for
political campaigns in Brazil. International
Journal of Communication, v.15, p.1.220-1.243, 2021. Disponível
em: < https://ijoc.org/index.php/ijoc/article/view/14803>. Acesso em 10 set. 2020.
SISSON,
D.C. Inauthentic communication, organization-public relationships, and trust: A
content analysis of online astroturfing news coverage. Public Relations
Review, v. 43, p. 788–795, 2017. Disponível em: https://doi.org/10.1016/J.PUBREV.2017.05.003. Acesso em: 25 mai. 2018.
SKOGERBØ,
E.; KRUMSVIK, A.H. Newspapers, Facebook and Twitter: Intermedial
agenda setting in local election campaigns. Journalism Practice, v. 9, p. 350–366, 2015. Disponível
em:
<https://doi.org/10.1080/17512786.2014.950471>. Acesso
em 20 jul. 2018.
STIEGLITZ,
Stefan et al. Do Social Bots (Still)
Act Different to Humans? – Comparing Metrics of Social Bots with Those of
Humans. In: MEISELWITZ, Gabriele (org.). Social
Computing and Social Media. Human Behavior. Cham: Springer International Publishing, 2017, p. 379–395.
Disponível em: <http://link.springer.com/10.1007/978-3-319-58559-8_30>.
Acesso em: 20 jul. 2018.
VENTURINI, Lilian. O que esperar do patrocínio de posts de candidatos
durante a eleição. Nexo Jornal, São
Paulo, 07 jan. 2018. Disponível em:
<https://www.nexojornal.com.br/expresso/2018/01/07/O-que-esperar-do-patroc%C3%ADnio-de-posts-de-candidatos-durante-a-elei%C3%A7%C3%A3o>.
Acesso em: 25 jan. 2019.
VENTURINI,
T.; LATOUR, B. The Social Fabric: Digital Traces and Quali-quantitative
Methods. In: Proceedings of Future En Seine 2009. Paris: Editions Future en Seine, 2010, p. 87–101.
WOJCIK,
Stefan et al. Bots in the Twittersphere. [S.l.]: Pew
Research Center, abr. 2018.
WOOLLEY,
Samuel. The Political Economy of Bots: Theory and Method in the Study of Social
Automation. In: KIGGINS, Ryan (ed.). The
political economy of robots: Prospects for Prosperity and Peace in the
Automated 21st Century. [S.l.]: Springer
International Publishing, 2018, p. 127–155.
WOOLLEY,
S.C.; HOWARD, P.N. Political Communication, Computational Propaganda, and
Autonomous Agents. International Journal of
Communication, v.
10, p. 4.882–4.890, 2016. Disponível em: <https://ijoc.org/index.php/ijoc/article/view/6298>. Acesso em: 30 jan.
2019.
[1] Professora Associada da Escola de
Comunicação da UFRJ e do PPGCI-UFRJ. Coordenadora do NetLab
(Laboratório de Estudos de Internet e Redes Sociais) na ECO/UFRJ. E-mail: marie.santini@eco.ufrj.br
[2] Doutora em Ciência da Informação (UFRJ),
pós-doutoranda no NetLab (Laboratório de Estudos de
Internet e Redes Sociais) na ECO/UFRJ. E-mail: debora.g.salles@gmail.com
[3] Mestre em Engenharia Biomédica
(COPPE/UFRJ), doutoranda em Ciência da Informação (IBICT/ECO/UFRJ),
pesquisadora no NetLab (Laboratório de Estudos de
Internet e Redes Sociais) na ECO/UFRJ. E-mail: giuliatucci@gmail.com
[4] Doutoranda em Ciência da Informação (IBICT-UFRJ), pesquisadora do Netlab (Laboratório de Estudos de Internet e Redes Sociais) na ECO/UFRJ. E-mail: charbelly.estrella@gmail.com
[5] Professora Associada da Escola de
Comunicação da UFRJ e do PPGCI-UFRJ. Coordenadora do NetLab
(Laboratório de Estudos de Internet e Redes Sociais) na ECO/UFRJ. E-mail: marie.santini@eco.ufrj.br
[6] Doutora em Ciência da Informação (UFRJ),
pós-doutoranda no NetLab (Laboratório de Estudos de
Internet e Redes Sociais) na ECO/UFRJ. E-mail: debora.g.salles@gmail.com
[7] Mestre em Engenharia Biomédica
(COPPE/UFRJ), doutoranda em Ciência da Informação (IBICT/ECO/UFRJ),
pesquisadora no NetLab (Laboratório de Estudos de
Internet e Redes Sociais) na ECO/UFRJ. E-mail: giuliatucci@gmail.com
[8] Doutoranda em Ciência da Informação
(IBICT-UFRJ), pesquisadora do Netlab (Laboratório de
Estudos de Internet e Redes Sociais) na ECO/UFRJ. E-mail: charbelly.estrella@gmail.com
1 Professora Associada da
Escola de Comunicação da UFRJ e do PPGCI-UFRJ. Coordenadora do NetLab (Laboratório de Estudos de Internet e Redes Sociais)
na ECO/UFRJ. E-mail: marie.santini@eco.ufrj.br
2 Doutora em Ciência da
Informação (UFRJ), pós-doutoranda no NetLab (Laboratório
de Estudos de Internet e Redes Sociais) na ECO/UFRJ. E-mail:
debora.g.salles@gmail.com
3 Mestre em Engenharia
Biomédica (COPPE/UFRJ), doutoranda em Ciência da Informação (IBICT/ECO/UFRJ),
pesquisadora no NetLab (Laboratório de Estudos de
Internet e Redes Sociais) na ECO/UFRJ. E-mail: giuliatucci@gmail.com
4 Doutoranda em Ciência da
Informação (IBICT-UFRJ), pesquisadora do Netlab
(Laboratório de Estudos de Internet e Redes Sociais) na ECO/UFRJ. E-mail:
charbelly.estrella@gmail.com