Algoritmos da branquitude: vieses e representações racistas em sistemas de inteligência artificial
Palavras-chave:
Inteligência artificial, Racismo algorítmico, Representação, Branquitude, ViesesResumo
Este artigo objetiva refletir sobre o regime da branquitude em sistemas de inteligência artificial a partir de casos de viéses algorítmicos baseados em representações racistas. Parte do método do estudo de caso aplicado a dois escândalos de viés algorítmico envolvendo o Copilot e o Gemini, chatbots com sistemas de inteligência artificial produzidos pelas empresas de tecnologia Microsoft e Google. Destaca que as práticas de machine learning dos sistemas de inteligência artificial apontados são operadas com base nas estruturas de representação da branquitude,na medida em que são capazes de gerar informações imagéticas que associam pessoas de pele negra a um imaginário social formado por estereótipos, uma suposta representação há muito perpetuada por um sistema colonial racista. Observa que as soluções encaminhadas pelas empresas de tecnologia diante dos problemas relatados se restringem aos ajustes insuficientes nos produtos finais em detrimento de intervenções estruturais eficazes. Conclui-se que as empresas de tecnologia responsáveis por inteligência artificial poderiam apresentar respostas resilientes diante do problema do racismo algorítmico ao elaborarem estratégias eficazes para o aprendizado de máquina fundamentadas em bases de dados decoloniais e diversas, assim também como em treinamentos com feedbacks humanos.
Downloads
Referências
ALMEIDA, S. L. Racismo estrutural (Feminismos Plurais). São Paulo: Pólen, 2019.
ANANNY, M. Toward an ethics of algorithms: convening, observation, probability, and timeliness. Science, Technology & Human Values, v. 41, n. 1, p. 93–117, 2016.
ARAÚJO, E. P. O. Mídia cotidiano e imaginário. In: LINS, E. S.; MORAES H. J. P. (Org.). Informação e Imaginário. João Pessoa: Editora UFPB, 2019. p.59-69.
BARLOW, J. P. Declaração de Independência do Ciberespaço. Dhnet. Davos, Suíça, 8 fev. 1996. Disponível em: https://www.dhnet.org.br/ciber/textos/barlow.htm. Acesso em: 01 jun. 2024.
BASTOS, J. R. B. O lado branco do racismo: a gênese da identidade branca e a branquitude. Revista da Associação Brasileira de Pesquisadores/as Negros/as (ABPN), v. 8, n. 19, p. 211-231, 2016.
BENJAMIN, R. Race After Technology: Abolitionist Tools for the New Jim Code. John Wiley & Sons, 2019.
BENTO, M. A. S. O pacto da branquitude. São Paulo: Companhia das Letras, 2022.
BENTO, M. A. S. Pactos narcísicos no racismo: branquitude e poder nas organizações empresariais e no poder público. Universidade de São Paulo, São Paulo, 2002.
BENTO, M. A. S. Branqueamento e branquitude no Brasil. In: CARONE, I.; BENTO, M. A. S. Psicologia social do racismo: estudos sobre branquitude e branqueamento no Brasil. Editora Vozes Limitadas, 2017.
BOWKER, G. C.; STAR, S. L. Sorting things out: classification and its consequences. Cambridge, MA: MIT Press, 2000.
CASTELLS, M. A Sociedade em Rede: Economia, Sociedade e Cultura. v. 1. 6. ed. São Paulo: Paz e Terra, 2013.
COLLINS, E. New and better ways to create images with Imagen 2. The Keyword Google. 1 fev. 2024. Disponível em: https://blog.google/technology/ai/google-imagen-2. Acesso em: 20 jun. 2024.
COSTA, R. S.; KREMER, B. Inteligência artificial e discriminação: desafios e perspectivas para a proteção de grupos vulneráveis frente às tecnologias de reconhecimento facial. Revista Brasileira de Direitos Fundamentais & Justiça, v. 16, n. 1, 2022. DOI: https://doi.org/10.30899/dfj.v16i1.1316.
COULDRY, N.; MEJIAS, U. The costs of connection: how data is colonizing human life and appropriating it for capitalism.1, Stanford: Stanford Press, 2019.
DAMACENO, S. S.; VASCONCELOS, R. O. Inteligência artificial: uma breve abordagem sobre seu conceito real e o conhecimento popular. Ciências Exatas e Tecnológicas, v. 5, n. 1, p. 11-16, set. 2018.
DANIELS, J. Cyber racism: white supremacy online and the new attack on civil rights. Rowman & Littlefield Publishers, 2009.
DANIELS, J. Race and racism in Internet studies: A review and critique. New Media & Society, v. 15, n. 5, p. 695-719, 2013.
DEPUTADA Renata Souza denuncia racismo em plataformas de IA. Mídia Ninja. [s. l.], 17 nov. 2023. Disponível em: https://midianinja.org/deputada-renata-souza-denuncia-racismo-em-plataformas-de-ia. Acesso em: 11 maio 2024.
GOMES, C. M. D. C. O que era preto se tornou vermelho: representação, identidade e autoria negra na imprensa do século XIX por Luiz Gama. Dissertação (Mestrado em Ciências da Comunicação) - Universidade de São Paulo, São Paulo, 2020.
GOMES, D. S. Inteligência Artificial: Conceitos e Aplicações. Revista Olhar Científico, [s. l.], v. 1, n. 2, p. 2-5, ago. 2010.
GOMES, N. L. Alguns termos e conceitos presentes no debate sobre relações raciais no brasil: uma breve discussão. São Paulo, 13 mar. 2017. Disponível em: https://tinyurl.com/yrez6acu. Acesso em: 10 jul. 2024.
KARAM TIETBOEHL, L.; SZUCHMAN, K. S.; CASAL, C. D.; COSTA, L. A.; DE PAULA, L. R. Especulando narciso: fabulações digitais com a inteligência artificial sobre a branquitude. Revista Cerrados, v. 33, n. 64, p. 17–28, 2024.
LIMA, B. D. F. B. Racismo Algorítmico: o enviesamento tecnológico e o impacto aos direitos humanos. 2022. 127 f. Dissertação (Mestrado em Direito) – Universidade Federal de Sergipe, São Cristóvão, 2022.
LOPES, F.; LINS, E. S. Mídia cotidiano e imaginário. In: LINS, E. S. MORAES H. J. P. (Org.). Jornalismo: campo fértil para a compreensão do imaginário social. João Pessoa: Editora UFPB, 2019. p.85 -95.
LORENA, B. M. PIO, I. M. As imagens de controle no contexto brasileiro: os limites e as potencialidades do conceito de Patricia Hill Collins. In: Cachel, A. Ferreira C. C. (Org.). Conexões Humanas: reflexões do XIII SEPECH-UEL. Londrina: UEL, 2022. p.156-166.
MCCARTHY, J. What is artificial intelligence? Stanford, 2000. Disponível em: http://www-formal.stanford.edu/jmc/whatisai.pdf. Acesso em: 20 abr. 2025.
MORAES, M. L. B. Stuart Hall: cultura, identidade e representação. Revista Educar Mais, v. 3, n. 2, p. 167-172, 2019.
MOURA, C. Sociologia do negro brasileiro. São Paulo: Perspectiva, 2019.
MUSK, E. Google Gemini is super racist & sexist! [s.l.], 27 fev. 2024. X: @elonmusk. Disponível em: Elon Musk no X: "Google Gemini is super racist & sexist!" / X. Acesso em: 10 jun. 2024.
NEWS FROM GOOGLE. Pausa na Geração de Imagens pelo Gemini. 22 fev. 2024. X: @newsfromgoogle. Disponível em: https://x.com/Google_Comms/status. Acesso em: 5 jun. 2024.
NOBLE, S. U. Algorithms of oppression: how search engines reinforce racism. NYU Press, 2018.
NÓBREGA, L. Gemini erra em questões históricas e raciais e Google suspende geração de imagens. Desinformante. 23 fev. 2024. Disponível em: https://desinformante.com.br/gemini-erra-google. Acesso em: 3 jul. 2024.
NOVAES, R. R. Imaginário social e educação. In: TEVES, N. (Org.). Um olhar antropológico. Rio de Janeiro: Gryphus, 1992. p. 122-143.
OLIVEIRA, C. Aprendizado de máquina e modulação do comportamento humano. In: SOUZA, J.; AVELINO, R.; SILVEIRA, S. A. A Sociedade de Controle: manipulação e modulação nas redes digitais. São Paulo: Hedra, 2018.
O'NEIL, C. Algoritmos de destruição em massa. Editora Rua do Sabão, 2021.
RAGHAVAN, P. Gemini image generation got it wrong. We'll do better. The Keyword Google. 23 fev. 2024. Disponível em: https://blog.google/products/gemini/gemini-image-generation-issue/. Acesso em: 15 maio 2024.
RESMINI, C. B.; PAGLIARINI, E.; MORAES, J. D. R.; LANDMEIER, L. V. Os desafios sociais na Era da Inteligência Artificial: um enfoque na lacunar equidade racial. Revista Avant - ISSN 2526-9879, v. 8, n. Especial, p. 221–238, 2024.
RODRIGUES, J. C.; CHAI, C. G. Inteligência artificial e racismo algoritmo: análise da neutralidade dos algoritmos frente aos episódios de violação de direitos nos meios digitais. Revista eletrônica [do] Tribunal Regional do Trabalho da 9ª Região, Curitiba, v. 12, n. 118, p. 92-103, mar. 2023.
SCHWARCZ L. M. Retrato em branco e negro: jornais, escravos e cidadãos em São Paulo no final do século XIX. São Paulo: Círculo do Livro, 1988.
SHAMIM, S. Why Google’s AI tool was slammed for showing images of people of colour. Aljazeera. 9 mar. 2024. Disponível em: https://tinyurl.com/2s3cxefa. Acesso em: 15 jun. 2024.
SILVA, C. M.; CARDOSO, P. J. F. O fim do arco-iris: a branquintude como desafio da luta antirracista no brasil contemporaneo. In: MÜLLER, T. M. P.; CARDOSO, L. (org.). Branquitude: estudos sobre a identidade branca no brasil. Curitiba: Appris, 2017. p. 243-258.
SILVA, T. Visão computacional e racismo algorítmico: branquitude e opacidade no aprendizado de máquina. Revista da Associação Brasileira de Pesquisadores/as Negros/as (ABPN), v. 12, n. 31, 2020.
SILVA, T. Racismo algorítmico: inteligência artificial e discriminação nas redes digitais. Editora Sesc SP; 2022.
SILVEIRA, S. A.; SILVA, T. R. Controvérsias sobre danos algorítmicos. Revista observatório, v. 6, n. 4, p. 1-17, jul./set. 2020.
SOUZA, R. Racismo algorítmico! […]. [s.l.]26 out. 2023. X: @renatasouzario. Disponível em: https://x.com/renatasouzario/status/1717578373826810202. Acesso em: 6 maio 2024.
SOVIK, L. “Através do olhar da representação”: sobre o estereótipo e a comunicação. Heterotopías, v. 3, n. 6, p. 1-27, 2020. Disponível em: https://tinyurl.com/28am3vds. Acesso em: 20 abr. 2025.
SRNICEK, N. Platform Capitalism. Cambridge: Polity Press, 2016.
TEVES, N. Imaginário social e educação. In: TEVES, N. (Org.). O imaginário na configuração da realidade social. Rio de Janeiro: Gryphus, 1992. p.3-33.
TIKU, N.; SCHAUL, K; CHEN; S. Y. These fake images reveal how AI amplifies our worst stereotypes. The Washington Post. [s.l.], 01 nov. 2023. Disponível em: AI generated images are biased, showing the world through stereotypes - Washington Post. Acesso em: 3 jul. 2024.
TYNES, B. M. et al. From Racial Microaggressions to Hate Crimes: A Model of Online Racism Based on the Lived Experiences of Adolescents of Color. In: TORINO, G. C.; RIVERA, D. P.; CAPODILUPO, C. M. Kevin L.; NADAL, K. L.; SUE, D. W. Microaggression Theory: Influence and Implications, 2018.
VYNCK, G.; TIKU, N. Google takes down Gemini AI image generator. Here’s what you need to know. The Washington Post. [s.l.], 23 fev. 2024. Disponível em: https://tinyurl.com/4jkxvsy2. Acesso em: 3 jul. 2024.
YIN, R. K. Case study research, design and methods (applied social research methods). Thousand Oaks. California: Sage Publication, 2009.
YIN, R. K. Estudo de Caso: Planejamento e métodos. Porto Alegre: Bookman, 2015.
Publicado
Como Citar
Edição
Seção
Licença
Autores que publicam nesta revista concordam com os seguintes termos:
- Autores mantém os direitos autorais e concedem à revista o direito de primeira publicação, com o trabalho simultaneamente licenciado sob a Licença Creative Commons Attribution que permite o compartilhamento do trabalho com reconhecimento da autoria e publicação inicial nesta revista.
- Autores têm autorização para assumir contratos adicionais separadamente, para distribuição não-exclusiva da versão do trabalho publicada nesta revista (ex.: publicar em repositório institucional ou como capítulo de livro), com reconhecimento de autoria e publicação inicial nesta revista.
- Autores têm permissão e são estimulados a publicar e distribuir seu trabalho online (ex.: em repositórios institucionais ou na sua página pessoal) a qualquer ponto antes ou durante o processo editorial, já que isso pode gerar alterações produtivas, bem como aumentar o impacto e a citação do trabalho publicado (Veja O Efeito do Acesso Livre).