Leis de proteção ao jornalismo no Brasil e impactos das IAGs nas democracias

Zanei Barcellos1, Andreia de Almeida Marques2 e Eline Sandes3

Resumo

O estudo indica que a procura por notícias na internet migra dos motores de buscas aos chatbots de inteligência artificial generativa. Isso diminui os acessos aos sites jornalísticos e a sua arrecadação. A nova forma de consumo de notícias também afeta a esfera pública ampliada pelo ciberespaço, onde as deliberações estão debilitadas por serem influenciadas por notícias individualizadas algoritmicamente. Os objetivos do artigo são analisar a capacidade da legislação brasileira de proteger os direitos autorais dos jornais diante da atuação das IAGs como novos agentes da distribuição de notícias, e relacionar as notícias produzidas por chatbots às deliberações da ciberesfera. Metodologicamente, a pesquisa exploratória é documental com base em fontes primárias, como textos de leis e notícias. O embasamento aproxima clássicos da teoria social a teóricos da comunicação digital e recorre à interpretação de textos legais por juristas. A pesquisa concluiu que há lacunas na regulamentação do uso dos conteúdos jornalísticos para o treinamento dos chatbots de IAGs e indícios que suas notícias interferem negativamente na ciberesfera.

Palavras-chave

Jornalismo; IAGs; Leis; Direitos Autorais; Democracia.

1 Professor na Graduação e Pós-graduação na Faculdade de Comunicação da Universidade de Brasília. Líder do grupo de pesquisa CNPq Jornalismo e Inteligência Artificial (JoIA). E-mail: zaneibarcellos@unb.br.

2 Mestranda no Programa de Pós-graduação da Faculdade de Comunicação da Universidade de Brasília. Membro do grupo de pesquisa Jornalismo e Inteligência Artificial (JoIA) E-mail: andreiaamarques12@gmail.com.

3 Mestranda no Programa de Pós-graduação da Faculdade de Comunicação da Universidade de Brasília. Membro do grupo de pesquisa Jornalismo e Inteligência Artificial (JoIA). E-mail: sandes.eline@gmail.com.

Juiz de Fora, PPGCOM – UFJF, v. 19, n. 2, p. 19-35, mai./ago. 2025                                                                                                                            10.34019/1981-4070.2025.v19.47134

Journalism protection laws in Brazil and the impact of GAIs on democracies

Zanei Barcellos1, Andreia de Almeida Marques2 and Eline Sandes3

Abstract

The study indicates a shift in online news consumption from search engines to generative artificial intelligence chatbots. This trend reduces traffic to news websites and consequently impacts their revenue. The new mode of accessing news also affects the public sphere expanded by cyberspace, where deliberation is weakened by algorithmically individualized information flows. The article aims to analyze the capacity of Brazilian legislation to protect the copyrights of news outlets in light of the role of generative AI (GAI) chatbots as new agents of news distribution, and to examine how chatbot-generated news relates to deliberation within the cybersphere. Methodologically, the research is exploratory and documentary, based on primary sources such as legal texts and news articles. The theoretical framework combines classics of social theory, scholars of digital communication, and jurists’ interpretations of legal texts. The study concludes that regulatory gaps remain regarding the use of journalistic content for training generative AI chatbots, and that the news they produce negatively affects the cybersphere.

Keywords

Journalism; Generative AI; Laws; Copyright; Democracy.

1 Professor na Graduação e Pós-graduação na Faculdade de Comunicação da Universidade de Brasília. Líder do grupo de pesquisa CNPq Jornalismo e Inteligência Artificial (JoIA). E-mail: zaneibarcellos@unb.br.

2 Mestranda no Programa de Pós-graduação da Faculdade de Comunicação da Universidade de Brasília. Membro do grupo de pesquisa Jornalismo e Inteligência Artificial (JoIA) E-mail: andreiaamarques12@gmail.com.

3 Mestranda no Programa de Pós-graduação da Faculdade de Comunicação da Universidade de Brasília. Membro do grupo de pesquisa Jornalismo e Inteligência Artificial (JoIA). E-mail: sandes.eline@gmail.com.

Juiz de Fora, PPGCOM – UFJF, v. 19, n. 2, p. 19-35, mai./ago. 2025                                                                                                                            10.34019/1981-4070.2025.v19.47134

Introdução

O Google passou a fornecer um resumo em resposta (AI Overview) às buscas feitas no Google Search. O texto é elaborado pela sua inteligência artificial generativa (IAG) Gemini. A novidade pode reduzir significativamente o acesso aos jornais e consequentemente sua arrecadação publicitária, enquanto o faturamento do Google com anúncios deve aumentar (Causin, 2024). Os jornais pedem remuneração pelo uso dos seus conteúdos pelas IAGs, alegando que arcam com os custos de produção (Remuneração […], 2024; Intrieri, 2023; Saad; Malar, 2023).

Os jornais, entretanto, não foram surpreendidos com a decisão do Google. O primeiro aniversário do ChatGPT, em novembro de 2023, pode ser considerado um momento de inflexão. A proximidade da data foi escolhida por grupos de mídia e entidades civis ligadas ao jornalismo como oportunidade para posicionamentos públicos sobre as implicações da IA no jornalismo. O ChatGPT foi o primeiro chat de inteligência artificial generativa disponibilizado massiva e gratuitamente, pela OpenAI e financiado pela big tech Microsoft.

Dois posicionamentos são emblemáticos: a Carta de Paris sobre IA e Jornalismo (Carta […], 2023), e o Global Principles on Artificial Intelligence (AI) (Global […], 2023). A carta foi elaborada por 32 personalidades, de 20 países, ligadas ao jornalismo e à IA, sob a coordenação de Maria Ressa, jornalista ganhadora do Prêmio Nobel da Paz de 2021, e divulgada pela organização Repórteres sem Fronteiras. O segundo documento foi elaborado por 26 entidades representativas de grupos jornalísticos mundiais – inclusive a Associação Brasileira dos Jornais (ANJ).

Os documentos reafirmam os princípios éticos e deontológicos do jornalismo no novo ambiente organizacional e colocam-se como norte em relação à inteligência artificial. Ambos consideram fundamental a autorização prévia, legalizada, para o acesso das IAs aos conteúdos produzidos pelos jornais.

[…] É essencial que os sistemas de IA sejam treinados com conteúdos e dados acessados legalmente, inclusive com autorizações prévias obtidas para o uso de obras protegidas por direitos autorais e outros materiais, e que os conteúdos e fontes usados para treinar os sistemas sejam claramente identificados (Global […], 2023) (Tradução nossa). [1]

A Carta vai além ao congregar empresas e profissionais na defesa da profissão e das empresas ao postular acordos que “preservem os interesses comuns a longo prazo dos meios de comunicação e dos jornalistas” (Carta […], 2023).

As buscas movidas por IAs e a distribuição algoritmizada de notícias promovidas pelas redes sociais interferem na formação da opinião pública e, assim, nas deliberações que ocorrem no espaço público, agora ampliado pelos ambientes digitais, fenômeno que Évora (2023) denomina de ciberesfera e que acarreta na infocracia (Han, 2022), uma deturpação dos processos democráticos.

Isso posto, os objetivos do trabalho são analisar a capacidade da legislação brasileira de proteger os direitos autorais dos jornais diante da atuação das IAGs como novos agentes da distribuição de notícias, e relacionar a produção de notícias pelos chatbots de inteligência artificial generativa às deliberações que ocorrem no espaço público ampliado pela ciberesfera.

A pesquisa parte da hipótese de que a falta de normatização debilita os negócios de imprensa e deturpa o espaço público, tendo as seguintes questões norteadoras: a) existe no Brasil normatização garantidora de equidade nas relações entre os grandes desenvolvedores de IAs e as organizações jornalísticas?; b) as buscas por notícias feitas por meio de chatbots de IAG interferem nos processos democráticos?

O artigo parte dessa contextualização introdutória para depois entrelaçar a teoria política e social (Habermas, 1997, 1996, 2014; Arendt, 1993) com pensadores contemporâneos, que percebem a existência de deliberações democráticas também em espaços públicos ampliados pelo ciberespaço (Évora, 2023; Han, 2022; Sodré, 2021; Castells, 2023). Em seguida, apresenta os procedimentos metodológicos e uma seção com as principais leis e projetos de lei brasileiros relacionados ao digital e a Lei de Direitos Autorais, em cujos textos se prospectam proteções aos conteúdos dos jornais contra o uso indiscriminado no treinamento de Large Language Models (LLMs).

Imprensa, IA e big techs: cidadania e negócios em confronto

A esfera pública, conforme Habermas (1997), funciona como rede para a comunicação de conteúdos, tomadas de partido e formação de opiniões, em que há interações entre arenas internacionais, nacionais, regionais e locais. Nesse ambiente, os públicos são diferenciados e segmentados por temas, interesses e níveis de organização e, assim, dialogam com a linguagem comum e são integrados pelos meios de comunicação.

Ao revisar o conceito, Habermas (1997) classificou a esfera pública em três tipos: episódica, da presença organizada, e abstrata. A abstrata seria produzida pela imprensa, um espaço onde a mídia atua para conectar públicos diversos espalhados geograficamente. O autor, entretanto, reconhece um agendamento e condução dos conteúdos por atores institucionais poderosos, quase inacessíveis àqueles não incluídos no sistema político ou às grandes corporações. Apesar disso, em situações de crises sociais, a esfera pública abstrata pode se tornar alvo dos atores da sociedade civil e atuar de forma mais crítica e ativa para mudar o fluxo de comunicação e poder.

Habermas (2014) avalia a esfera pública da comunicação de massa tendo como parâmetro a imprensa burguesa.

Em comparação com a imprensa da era liberal, os meios de comunicação de massa alcançaram, por um lado, uma enorme abrangência e uma eficácia incomparável – com eles, a própria esfera pública se expandiu – e, por outro, foram cada vez mais deslocados dessa esfera e reassumidos pela antiga esfera privada de circulação de mercadorias (Habermas, 2014, p. 407).

Atualmente, as informações resultantes de pesquisas individualizadas feitas nos buscadores da web e os conteúdos entregues pelas plataformas de redes sociais resultam da ação de sistemas de inteligência artificial que atuam no direcionamento dos fluxos comunicacionais. Os algoritmos desses sistemas são hegemonicamente produzidos pelas big techs e suas ações baseiam-se nos dados coletados das ações corriqueiras do sujeito na web. Os conteúdos entregues como resposta, portanto, são determinados, em muito, pelos hábitos, preferências e relacionamentos de quem demanda a informação. Os conteúdos fornecidos pelas redes sociais são gerados por processos semelhantes (Fisher, 2023; Han, 2022; Pariser, 2012; Sodré, 2021).

Na internet, a plataforma age como um intermediário que não é visto. Ela decide quais dos seus comentários distribuir a quem e em qual contexto. Sua próxima postagem pode aparecer para pessoas que vão amar e aplaudir, ou para pessoas que vão odiar e vaiar, ou para nenhuma. Você nunca saberá, pois as decisões que a plataforma toma são invisíveis (Fisher, 2023, p. 38).

Dessa forma, quando se trata da distribuição de notícias, as big techs exercem, indevidamente, a função jornalística de gatekeeper, uma vez que controlam os algoritmos responsáveis por selecionar quais notícias serão distribuídas, quem as receberá, por quais meios, em quais formatos e em que momento (Barcellos, 2024).

Diante disso, o espaço público (Habermas, 1996, 1997, 2014; Arendt, 1993) fica ampliado pelo ciberespaço de Gibson (1984) e Lévy (1999), e se transforma no ambiente político digitalizado ao qual Évora (2023) denomina ciberesfera. Para Han (2022, p. 25), a digitalização, ao abranger também os âmbitos políticos, “leva a fraturas e disrupções massivas no processo democrático”, que se “degenera em infocracia” (grifo no original). Nesse contexto, Évora (2023) atribui à inteligência artificial não apenas o alargamento do espaço público, mas também a reconfiguração das dinâmicas e configurações da esfera pública.

A inteligência artificial contribui para um novo posicionamento dos atores políticos na esfera pública, alterando os processos de mediação política e a própria constituição do espaço público, que se alarga para o terreno da intangibilidade, constituindo novas formas de intangibilidade e novos processos de interação (Évora, 2023, p. 70).

A distribuição algorítmica de notícias não suprime o processo de gatekeeping realizado pelos jornalistas, tarefa que consta da escolha das notícias a serem publicadas, o tom, o espaço e a ênfase que lhes serão dadas pelo jornal. Não suprime, mas atravessa-se à tarefa dos jornalistas e a debilita em relação aos seus princípios norteadores (Barcellos, 2024).

O gatekeeping feito pelos sistemas de IA atávicos às redes sociais e mecanismos de buscas, responsáveis atualmente pela maioria dos acessos às notícias, pode ser considerado ilegítimo nas sociedades democráticas, que veem nos jornais importantes atores nas deliberações sobre as questões públicas. Isso porque, segundo Barcellos (2024), a distribuição algorítmica não obedece às deontologias do jornalismo, cujo caráter é social e tem como objetivo a busca pela verdade e o bem comum, a serem alcançados com notícias produzidas por profissionais habilitados, baseados em fontes de informação fidedignas e plurais.

Para o autor, algoritmos e sistemas de IA, além de enfraquecerem a ação de um dos principais atores nas deliberações da esfera pública – a imprensa –, “assumem, em grande parte, ao menos três dos seus legítimos atributos: os processos de gatekeeping, de edição e de distribuição de notícias” (Barcellos, 2024, p. 145-146).

Além disso, a entrega algorítmica de notícias, ao privilegiar os desejos, costumes e relações sociais dos receptores em favor dos interesses comerciais dos seus desenvolvedores, pode deixar de apresentar notícias que seriam importantes a grupos de cidadãos e assim contribuir com a desinformação (Nações Unidas, 2024; Metaxa-Kakavouli; Torres-Echeverry, 2017; Simon, 2023), fomentar a formação de bolhas ideológicas (Pariser, 2012; Recuero; Zago; Soares, 2017; Nechustai; Lewis, 2019), interferir em resultados de eleições (Lage; Reale, 2023), alimentar discursos de ódio e estimular radicalismos (Fisher, 2023).

A iminência dos chatbots de IAGs assumirem funções de buscadores colocou as empresas jornalísticas em alerta para uma possível queda de acessos aos seus sites e portais.

[…] para os editores, que dependem do tráfego da Web gerado pelos mecanismos de pesquisa, por exemplo, existe o risco de os usuários encontrarem respostas sem a necessidade de clicar nas páginas de seus sites. O tráfego de referência definitivamente cairá (De Luca, 2023, n.p.).

A perspectiva exacerbou a tensão entre jornais e big techs (Pope, 2024; Newman; Cherubini, 2025). A imprensa, na última década, viu aumentar sua dependência da distribuição algorítmica, cair seus ingressos com anúncios e aumentar a arrecadação publicitária das big techs, que usam e monetizam livremente os conteúdos dos veículos jornalísticos, sem compensá-los pelos gastos de produção. A situação era tolerada pelos jornais porque a difusão algorítmica de notícias também significava a principal via de entrada do público aos seus sites e portais.

Conforme revelou o Relatório Reuters de 2024, comentado e analisado por Newman (2024), uma das tendências estratégicas das empresas jornalísticas para o ano era justamente diminuir a dependência da distribuição algorítmica pelo desenvolvimento e fortalecimento de sistemas de distribuição próprios.

Law e Guan (2025) confirmaram que os temores dos jornais tinham fundamento. Uma pesquisa publicada exatamente um ano após a acoplagem do IA Overview ao Google Search apontou queda 34,5% no número de cliques sobre o primeiro link da lista oferecida logo abaixo do resumo na interface deste buscador.

Assim, a principal preocupação para os negócios de imprensa está migrando da distribuição algorítmica para o treinamento das IAGs. Ao que tudo indica, de maneira opaca, apropriando-se de conteúdos jornalísticos protegidos por direitos autorais.

A inteligência artificial generativa usa um modelo de rede neural de grande escala ou Large Language Model (LLM). São algoritmos para criar novos conteúdos, incluindo textos, áudios, códigos, imagens estáticas e vídeos baseados nos conteúdos com os quais foram treinados. As solicitações são feitas por meio de prompts em linguagem natural (Carpes; Osório; Vieira, 2024; Zewe, 2025).

Conforme Díaz-Noci et al. (2024), as notícias são a terceira principal fonte de informações para o treinamento de grandes modelos de linguagem (LLMs). Se não forem coibidas, as invasões aos conteúdos dos jornais para o treinamento de IAGs podem levar os chatbots a substituírem os jornais no fornecimento digital de notícias e a inviabilizá-los como negócio.

Em reação ao uso de notícias para o treinamento de LLMs, dois documentos de repercussão mundial – um originário das empresas jornalísticas, o Global Principles on Artificial Intelligence (Global […], 2023) e, outro, dos jornalistas e entidades civis ligadas ao jornalismo, a Carta de Paris sobre IA e Jornalismo (Carta […], 2023) – posicionaram-se contrários ao uso de conteúdos jornalísticos para o treinamento de LLMs sem a permissão dos detentores dos direitos autorais. Quase em uníssono e à mesma época, entidades profissionais e grupos empresariais de jornalismo de todo o mundo publicaram seus próprios manifestos, alinhados aos documentos em questão.

A discussão pública decorrente reforçou, mundial e nacionalmente, os pleitos dos veículos jornalísticos pela regulamentação das relações comerciais com as empresas de tecnologia, principalmente as gigantes mundiais do setor. Estas, por sua vez, atuam nos parlamentos e pelos seus próprios mecanismos comunicacionais para fazer valer seus interesses. Esse processo deliberativo ilustra a ciberesfera de Évora (2023) e tende à infocracia de Han (2022), devido à desproporção de poder comunicacional entre as big techs e a imprensa.

Sendo assim, a seguir apresenta-se uma pesquisa empírica para verificar se a legislação brasileira, existente e emergente, garante os direitos autorais dos jornais e jornalistas contra o uso dos seus conteúdos para treinamento de LLMs.

Procedimentos metodológicos

Esta é uma pesquisa exploratória, investigação que auxilia na compreensão de fenômenos ainda pouco estudados e cujos temas ainda estão em processo de consolidação nas discussões científicas (Gil, 2008). De caráter bibliográfico e documental, evidenciou que esse campo de estudo ainda está em desenvolvimento, havendo uma lacuna de bibliografias específicas. A pesquisa documental foi a principal fonte de coleta de dados, sendo também essencial para a contextualização da problemática. Segundo Lakatos e Marconi (2017), a pesquisa documental baseia-se na coleta de dados provenientes de fontes primárias. Assim, foram utilizadas notícias jornalísticas, leis e projetos de leis.

Com abordagem quantitativa e qualitativa, foi realizada a análise de conteúdo das fontes selecionadas, seguida da triangulação dos dados, a fim de alcançar os objetivos anunciados. Desse modo, a coleta dos dados foi dividida em duas etapas. Na primeira, o acompanhamento de notícias nacionais e internacionais relacionadas ao uso de conteúdos jornalísticos pelas big techs. Na segunda, o levantamento de leis e projetos de leis relacionados ao digital.

A primeira etapa da coleta de dados considerou o recorte temporal de 30 de agosto de 2023 a 31 dezembro de 2024. Destacam-se dois marcos importantes para a seleção desse período: antecede em três meses o primeiro aniversário do ChatGPT e o subsegue até o final do mês da aprovação do Projeto de Lei da Inteligência Artificial no Senado Federal. A seleção de temas deu-se pelo acompanhamento do conteúdo do noticiário nacional e internacional – majoritariamente em sites e portais de notícias brasileiros – referente às relações entre a imprensa e as big techs quanto à remuneração pelo uso de conteúdos jornalísticos para o treinamento de inteligências artificiais generativas.

A seleção da amostra de notícias foi realizada a partir das manchetes enviadas à tela do smartphone de um dos pesquisadores pelos portais G1, jornais O Globo e Folha de S. Paulo. Também foram incluídas notícias pertinentes listadas pelo Google Alerts, ferramenta personalizada para fornecer matérias contendo os termos “jornalismo” e “inteligência artificial”, publicadas em quaisquer veículos jornalísticos digitais, à escolha algorítmica da newsletter em questão. Elegeu-se para leitura contextualizadora aquelas cujos títulos evidenciavam o assunto em estudo.

Na segunda etapa, levantou-se as principais leis e projetos de leis brasileiros que tratam mais diretamente de questões relacionadas aos direitos autorais e ao digital, procedimento que resultou na escolha dos seguintes textos para análise: a) Lei dos Direitos Autorais (LDA) – Lei nº 9.610, de 1998 (Brasil, 1998); b) Marco Civil da Internet (MCI) – Lei nº 12.965, de 2014 (Brasil, 2014); c) Lei Geral de Proteção de Dados (LGPD) – Lei nº 13.709, de 2018 (Brasil, 2018); d) Projeto de Lei das Fake News – PL n° 2.630, de 2020 (Brasil, 2020) e e) Projeto de Lei da Inteligência Artificial, PL nº 2.338, de 2023 (Brasil, 2023).

Com base nos termos centrais desta pesquisa (jornalismo, inteligência artificial e direitos autorais), realizou-se uma contagem automatizada de quantas vezes os termos apareciam em cada texto, abrangendo alguns sinônimos, assim agrupados: a) jornalismo, notícia, conteúdo jornalístico e imprensa; b) direitos autorais, direitos de autor e propriedade intelectual; c) inteligência artificial (IA), inteligência artificial generativa (IAG) e algoritmo (Quadro 1).

Quadro 1 - Recorrência dos termos de interesse nos textos das leis e PLs.

 https://encurtador.com.br/2OcKa 

Fonte: Elaborado pelos autores (2025).

Os dados evidenciam pouca aderência das três leis aos termos ligados ao jornalismo, IA e direitos autorais, e muito menos às interfaces entre eles. Notou-se que nenhum dos textos contém simultaneamente os três termos-chave. A pesquisa exploratória também evidenciou que neles não há diretrizes particulares quanto ao uso de conteúdos jornalísticos para o treinamento de LLMs e/ou distribuição algorítmica de notícias pelas plataformas. Tanto é assim que, em dezembro de 2024, por falta de legislação mais específica, o Supremo Tribunal Federal (STF) analisou a constitucionalidade do Artigo 19 do Marco Civil da Internet, que responsabiliza civilmente os provedores de redes sociais apenas após ordem judicial específica e descumprimento da remoção do conteúdo indicado.

A seguir, delineia-se o ambiente organizacional do jornalismo em função das evoluções tecnológicas e analisam-se as leis e os projetos de lei à luz de juristas, pesquisadores de Comunicação e do noticiário de referência.

Análises das notícias, leis e projetos de lei

No ano seguinte à difusão pública do ChatGPT, foram lançadas outras IAGs e, com isso, ficaram evidentes os riscos aos negócios de imprensa pela crescente substituição dos buscadores pelos chatbots. Dois manifestos mundiais sobre os usos da inteligência artificial pelo jornalismo posicionaram-se sobre a questão. Baseados neles, conglomerados de mídia e entidades civis de vários países difundiram seus próprios posicionamentos. Os principais grupos jornalísticos brasileiros – O Globo, Folha de S. Paulo, O Estado de S. Paulo e Gaúcha Zero Hora – agiram da mesma forma. A ação, aparentemente coordenada, ocorreu em período próximo ao primeiro aniversário do ChatGPT.

No período observado, foram recorrentes notícias retratando deliberações sobre leis que regulamentem as relações entre a imprensa e as big techs.

O Marco Civil da Internet, de 2014, foi pioneiro na regulamentação dos usos e recursos da Internet no Brasil, e tem como princípios a liberdade de expressão, a proteção de dados e a neutralidade da rede (Brasil, 2014). No entanto, carece de previsões específicas voltadas ao jornalismo e apresenta lacunas regulatórias, sendo sua constitucionalidade objeto de debate, a exemplo do art. 19 (Silva Filho, 2025).

O debate também permeia o chamado "PL das Fake News", que visa a regulação das plataformas e a responsabilidade civil pelos conteúdos publicados, o combate à desinformação e a criação de um conselho de fiscalização (Brasil, 2023). Embora as redes sociais estejam eivadas de sistemas de IA, difundam e até monetizem notícias, e mesmo que as fake news afetem o jornalismo, as relações entre as gigantes da internet e os jornais não são contempladas diretamente no projeto.

Em 27 de abril de 2023, enquanto o PL aguardava votação de urgência no Plenário da Câmara dos Deputados, o diretor de relações governamentais e políticas públicas do Google no Brasil publicou o texto “PL das Fake News pode aumentar a confusão sobre o que é verdade ou mentira” (Lacerda, 2023a). Quatro dias depois, a empresa fixou em sua página inicial o link “O PL das Fake News pode piorar sua Internet” (Lacerda, 2023b), que foi removido por medida cautelar da Secretaria Nacional do Consumidor. Os resultados de busca também teriam sido enviesados nas pesquisas sob projeto de lei, apontando-o como instrumento de censura (NetLab, 2023).

Durante o julgamento do art. 19 do MCI, em dezembro de 2024, o ministro Dias Toffoli ressaltou que as plataformas devem ser responsabilizadas objetivamente pela disseminação de conteúdos falsos, e considerou que elas também podem identificar anúncios enganosos e contribuir para a redução de fraudes (Rocha, 2024). Esse aspecto dialoga com o conceito de integridade da informação (Nações Unidas, 2024), observado no PL das Fake News e na redação inicial do PL da Inteligência Artificial.

Neste contexto se delineia a problemática da ausência de amparo legal ao jornalismo em relação aos direitos autorais incidentes nos conteúdos publicados nos sites e portais de notícias e disponibilizados nas plataformas movidas por sistemas de IA. De forma convergente, os textos analisados lastreiam-se nas liberdades de expressão e de informação, bem como no combate à desinformação, garantias essenciais à higidez democrática e ao exercício jornalístico. No entanto, é rara a menção a termos relacionados ao jornalismo (Quadro 1). A remuneração do trabalho jornalístico usado pelas big techs chegou a constar no primeiro PL, conforme publicado pelo site da Câmara dos Deputados:

Uma das controvérsias na discussão do PL das Fake News foi justamente a inclusão no texto, pelo relator, deputado Orlando Silva (PCdoB-SP), da previsão de ressarcimento aos jornalistas pelo conteúdo utilizado nas plataformas digitais. Diante do impasse, o tema foi retirado do texto pelo parlamentar (Remuneração […], 2024).

Porém, o trecho foi removido da redação inicial do PL e apensado à proposta de reforma da Lei de Direitos Autorais (PL nº. 2.370/2019), que prevê a remuneração dos titulares pela utilização e reprodução de suas obras nas plataformas digitais. Assim, evidencia-se que nem mesmo a Lei de Direitos Autorais vigente, de 1998, é suficiente para amparar as hipóteses já presentes na Internet (Cabral, 2003; Branco, 2007).

Na LDA não há menção aos meios digitais, nem à relação dos usos e recursos da Internet com os direitos de autor. Quanto ao jornalismo, há apenas três menções diretas à proteção de conteúdo publicado pelos veículos de comunicação: o parágrafo único do art. 10, que se refere à proteção dos títulos de publicações periódicas, inclusive jornais, e o art. 36, juntamente ao seu parágrafo único, nos quais dispõe-se que: “O direito de utilização econômica dos escritos publicados pela imprensa, diária ou periódica, com exceção dos assinados ou que apresentem sinal de reserva, pertence ao editor, salvo convenção em contrário” (Brasil, 1998).

Com isso, a ausência de adequação dos dispositivos da LDA ao digital é um óbice à sua correta aplicação no cenário atual de plataformização e algoritmização, uma vez que a lei não anteviu que, com os avanços tecnológicos, “os problemas decorrentes do uso não autorizado das obras alheias ultrapassaram os limites da simples cópia, primeiro tangível e depois intangível” (Branco, 2007, p. 104).

Para os jornalistas, essa questão afeta as receitas dos sites de notícias, as quais provêm majoritariamente de publicidade e assinaturas. Como não há previsão na LDA – nem, ainda, em nenhuma lei vigente no Brasil – para a remuneração de conteúdo jornalístico nas plataformas, estas utilizam seus algoritmos e sistemas de inteligência artificial para se apropriar de conteúdos noticiosos, direcionando as receitas publicitárias para si sem remunerar veículos de comunicação que os produziram (CGI.BR, 2023; Barcellos 2024).

O substitutivo do Projeto de Lei da Inteligência Artificial, PL nº 2.338 de 2023, aprovado no Senado Federal em dezembro de 2024 “dispõe sobre o desenvolvimento, o fomento e o uso ético e responsável da inteligência artificial com base na centralidade da pessoa humana” (Brasil, 2024). Nele, pela primeira vez, consta o termo “inteligência artificial generativa” – ferramenta que utiliza ampla base de dados para gerar conteúdos textuais e audiovisuais.

O art. 65 prevê a remuneração aos titulares dos direitos autorais e veda a reprodução ou disseminação de conteúdo sem autorização. Por outro lado, o art. 63 permite o uso das produções em mineração e desenvolvimento de sistemas por instituições científicas, de pesquisa, arquivos públicos, museus e bibliotecas (Brasil, 2024). A menção aos jornalistas, apresentada no texto anterior, foi retirada desse artigo.

Ainda sobre os direitos de autores, o art. 62 exige informações sobre os conteúdos protegidos utilizados, e o art. 64 informa sobre a possibilidade dos titulares proibirem a aplicação de suas obras no desenvolvimento de IAs, não abordando diretamente as IAGs.

Assim como os demais textos analisados, este ainda não oferece suporte legal suficiente às relações entre os negócios da imprensa e das big techs desenvolvedoras de IAs. Pelo contrário, a versão aprovada parece favorecer empresas de tecnologia, pois exclui o dispositivo que categoriza como sendo de alto risco o uso de IA pelas plataformas digitais para a produção, análise e recomendação de conteúdos (León, 2024).

De forma pouco profunda, o PL da IA permite o processamento e a incorporação de conjuntos de dados coletados e tratados conforme as exigências legais, especialmente em acordo com a LGPD.

Considerações Finais

O estudo indica que a procura por notícias na internet migra dos motores de busca aos chatbots de inteligência artificial generativa. Esse novo processo tende a reduzir o número de acessos a sites e portais jornalísticos, pois os leitores, satisfeitos com as notícias elaboradas por IAGs, deixam de visitar as fontes originais para se informar.

A queda no número de acessos afeta diretamente o valor dos jornais, já que o cálculo publicitário considera fatores como volume de visitas, cliques e tempo de permanência dos leitores. Além disso, reduz-se também a arrecadação por meio de assinaturas, porque as notícias são fornecidas gratuitamente nos chatbots.

Outro prejuízo para o jornalismo decorre da falta de remuneração pelo uso de seus conteúdos no treinamento de LLMs: enquanto os veículos arcam com os custos de produção das notícias, as big techs as reformatam e monetizam sem compensar os detentores dos direitos autorais. No Brasil, conforme evidências da pesquisa, ainda não há uma normatização adequada para regular as relações comerciais entre essas empresas e os veículos de mídia – tampouco os projetos de lei em deliberação apontam para uma solução efetiva.

Por outro lado, as notícias produzidas por chatbots relevam princípios jornalísticos como veracidade da informação, relevância das fontes e proteção de sigilos. Suas notícias atendem primeiramente aos interesses econômicos das big techs.

O consequente enfraquecimento do papel da imprensa na ciberesfera (Évora, 2023) contribui para a transformação das democracias em infocracias (Han, 2022), determinadas por sistemas opacos de IA, nas quais as deliberações perdem legitimidade.

A presente erosão do espaço público de Habermas (1996, 1997, 2014) e Arendt (1993) origina-se em diversos fatores, como: a) a falta de critérios jornalísticos que desequilibra posicionamentos discordantes; b) a valorização da discórdia em vez do entendimento; c) a disparidade entre poderes comunicacionais das plataformas e veículos tradicionais coloca as big techs como protagonistas das narrativas; d) a opacidade algorítmica dificulta o controle social desses processos; e) a Justiça ressente-se de instrumentos legais eficazes para regular as relações.

Esse conflito corporativo no ciberespaço, antevisto por Gibson (1984), corrompe as relações sociais, transformando-as em uma “sociabilidade de plataforma” – que, segundo Sodré (2021, p. 14), consiste em “uma construção técnica, manipulável por algoritmos, geradora de simulacros participativos”. Poell, Dijck e Nieborg (2020) argumentam que a concentração de poder nas mãos das plataformas exige reflexões urgentes sobre regulação, e para que as instituições públicas atuem de forma democrática e eficaz, é essencial compreender os mecanismos que regem esse processo.

A pesquisa evidenciou lacunas na legislação brasileira quanto à regulação do uso de notícias no treinamento de LLMs. Mas enfrentou dificuldades metodológicas ao relacionar as notícias criadas pelos chatbots de IAGs às deliberações no espaço público ampliado pela ciberesfera. O ineditismo do estudo, devido à popularização recente dos chatbots de IAGs, justifica a inexistência de literatura científica sobre o tema, o que, justamente por isso, se configura como campo promissor para futuras pesquisas.

Notas

[1] [...] It is essential that AI systems are trained on content and data which is accessed lawfully, including by appropriate prior authorization obtained for the use of copyright protected works and other subject matter, and that the content and sources used to train the systems are clearly identified.

Artigo submetido em 12/01/2025 e aceito em 25/07/2025.

Referências

ARENDT, H. A dignidade da política. Rio de Janeiro: Relume Dumará, 1993.

BARCELLOS, Z. R. Os impactos da distribuição de notícias por algoritmos e sistemas de inteligência artificial na cidadania. In: MARTINS, G. L.; SOUZA, M. E. (org.). Jornalismo, tecnologia e cibercultura: panoramas e debates: Cachoeirinha/Brasília, DF: Fi/Editora SBPJor Luiz Gonzaga Motta, 2024, p. 127-151.

BRANCO JR., S. V. Direitos autorais na internet e o uso de obras alheias. Rio de Janeiro: Lumen Juris, 2007. Disponível em: https://hdl.handle.net/10438/2832. Acesso em: 30 nov. 2024

BRASIL. Lei 9.610, de 19 de fevereiro de 1998. Altera, atualiza e consolida a legislação sobre direitos autorais e dá outras providências. Brasília, DF: Presidência da República, 1998. Disponível em: https://tinyurl.com/4w5p366m. Acesso em: 2 jan. 2025.

BRASIL. Lei nº 12.965, de 23 de abril de 2014. Estabelece princípios, garantias, direitos e deveres para o uso da Internet no Brasil. Brasília, DF: Presidência da República, 2014. Disponível em: https://tinyurl.com/d5s6t4sk. Acesso em: 23 abr. 2024.

BRASIL. Lei N° 13.709, de 14 de agosto de 2018. Lei Geral de Proteção de Dados Pessoais (LGPD). Brasília, DF: Presidência da República, 2018. Disponível em: https://tinyurl.com/zcysextn. Acesso em: 1° maio 2024.

BRASIL, Projeto de Lei n° 2630, de 2020. Institui a Lei Brasileira de Liberdade, Responsabilidade e Transparência na Internet. Brasília, DF: Senado Federal, 2020. Disponível em: https://tinyurl.com/b2tw3x65. Acesso em: 9 set. 2024.

BRASIL. Projeto de Lei nº 2338, de 03 de maio de 2023. Dispõe sobre o uso da Inteligência Artificial. Brasília, DF: Senado Federal 2023. Disponível em: https://tinyurl.com/f5ujadzk. Acesso em: 9 maio 2024.

BRASIL. Projeto de Lei n° 2338, de 2023. Congresso Nacional. Brasília, DF, 19 dez. 2024. [Texto revisado]. Disponível em: https://tinyurl.com/2ra8betp. Acesso em: 22 dez. 2024.

CABRAL, P. A Lei de Direitos Autorais: Comentários. 4. ed. São Paulo: Harbra, 2003.

CARTA de Paris sobre IA e Jornalismo. Repórteres sem Fronteiras. Paris, 10 set. 2023. Disponível em:  https://tinyurl.com/2txdfr2w. Acesso em: 11 jun. 2024.

CARPES, G.; OSÓRIO, M.; VIEIRA, L. O mínimo que um jornalista precisa saber sobre inteligência artificial para começar 2024. [S. l.], Farol Jornalismo, 2023. Disponível em: https://tinyurl.com/vy6rma2m. Acesso em: 22 ago. 2025.

CASTELLS, M. The new public sphere: global civil society, communication networks, and global governance. In: AMERICAN ACADEMY OF POLITICAL AND SOCIAL SCIENCE, v. 616, n. 1, 2008. Anais… Londres: Sage, 2008. p. 78-93. DOI:
https://doi.org/10.1177/0002716207311877.

CAUSIN, J. Google expande uso da inteligência artificial em buscas e preocupa produtores de conteúdo. Rio de Janeiro, O Globo, 15 maio 2024. Tecnologia. Disponível em: https://tinyurl.com/2js7p5fs. Acesso em: 11 jun. 2024.

COMITÊ GESTOR DA INTERNET NO BRASIL (CGI.BR). Remuneração do jornalismo pelas plataformas digitais. Câmara de conteúdos e bens culturais. [S. l.]: 2023. Comitê Gestor da Internet no Brasil. Disponível em: https://tinyurl.com/5ey8e5wy. Acesso em: 22 ago. 2025.

DE LUCA, C. Com chatbots de IA as buscas na internet nunca mais serão as mesmas. The Shift. Deep stuff, 8 ago. 2023. Disponível em: https://tinyurl.com/26km8v6s.   Acesso em: 23 ago. 2023.

DÍAZ-NOCI, J.; PEÑA-FERNANDEZ, S.; MESO-AYERDI, K.; LORRONDO-URETA, A. The influence of AI in the media work force: how companies use an array of legal remedies. Tripodos, n. 55, 2024. DOI: https://doi.org/10.51698/tripodos.2024.55.03.

ÉVORA, S. L. Comunicação política, inteligência artificial e ciberesfera. Revista Internacional em Língua Portuguesa, n. 43, p. 67–92, 2023. Disponível em: DOI: https://doi.org/10.31492/2184-2043.RILP2023.43/pp.67-92. Acesso em: 31 ago. 2023.

FISHER, M. A máquina do caos: como as redes sociais reprogramam nossa mente e nosso mundo. São Paulo: Todavia, 2023.

GIBSON, W. Neuromante. Lisboa: Gradiva, 1984.

GIL, A. C. Métodos e técnicas de pesquisa social. 6. ed. São Paulo: Atlas, 2008.

GLOBAL principles on artificial intelligence (AI). [S. l.], ago. 2023. Disponível em: https://tinyurl.com/3zpjj639. Acesso em: 11 jun. 2024.

HABERMAS, J. Between facts and norms: contributions to a discourse theory of law and democracy. Cambridge: The MIT Press, 1996.

HABERMAS, J. Direito e democracia: entre facticidade e validade. Rio de Janeiro: Tempo Brasileiro, 1997.

HABERMAS, J. Mudança estrutural da esfera pública: investigações sobre uma categoria da sociedade burguesa. São Paulo: Editora Unesp, 2014.

HAN, B. C. Infocracia: digitalização e a crise da democracia. Petrópolis: Vozes, 2022.

INTRIERI, L. Big techs podem pagar empresas de notícias no Brasil? Entenda o debate. Terra, 20 set. 2023. Disponível em: https://tinyurl.com/mr2me7fn. Acesso em: 20 set. 2023.

LAKATOS, E. M.; MARCONI, M. A. Fundamentos de metodologia científica. 8. ed. São Paulo: Atlas, 2017.

LACERDA, M. PL das Fake News pode aumentar a confusão sobre o que é verdade ou mentira. Blog do Google Brasil. [S. l.], 27 abr. 2023a. Disponível em: https://tinyurl.com/4xf8vabn. Acesso em: 13 nov. 2024.

LACERDA, M. Como o PL 2630 pode piorar a sua internet. Blog do Google Brasil. [S. l.], 27 abr. 2023b. Disponível em: https://tinyurl.com/2u2v7jaj. Acesso em: 13 nov. 2024.

LAGE, F.; REALE, I. O uso da inteligência artificial nas eleições: impulsionamento de conteúdo, disparo em massa de fake news e abuso de poder. Estudos Eleitorais, [S. l.], v. 17, n. 1, 2024. Disponível em: https://tinyurl.com/yc7tfrnv. Acesso em: 9 dez. 2024.

LAW, R.; GUAN, X. AI Overviev reduce clicks by 34.5%.  Ahrefsblog, [S. l.]. 17 abr. 2025. Disponível em: https://ahrefs.com/blog/ai-overviews-reduce-clicks. Acesso em: 30 abr. 2025.

LEÓN, L. P. Big tech é excluída do rol de Inteligência Artificial de alto risco. Agência Brasil. Brasília, DF, 3 dez. 2024. Disponível em:  https://tinyurl.com/3rz78w7e. Acesso em: 6 dez. 2024.

LEVY, P. Cibercultura. São Paulo: Ed. 34, 1999.

MARCO Civil da Internet: relator vota por responsabilização de plataformas sem necessidade de notificação prévia. Supremo Tribunal Federal. Notícias. Brasília, DF, 5 dez. 2024. Disponível em: https://tinyurl.com/52r59dv7. Acesso em: 6 dez. 2024.

METAXA-KAKAVOULI, D.; TORRES-ECHEVERRY, N. Google’s Role in Spreading Fake News and Misinformation. Fake News and Misinformation: The Roles of the Nation’s Digital Newsstands. SSRN Electronic Journal, 2017.

NETLAB. A guerra das plataformas contra o PL 2630. Rio de Janeiro, NETLAB UFRJ, 1° maio 2023. Disponível em: https://tinyurl.com/yb92fdmz. Acesso em: 12 out. 2024.

NAÇÕES UNIDAS. Princípios globais das Nações Unidas para a integridade da informação. Recomendações para ação de múltiplas partes interessadas, 2024. Disponível em: https://tinyurl.com/4d49e23s. Acesso em: 11 nov. 2024.

NECHUSHTAI, E; LEWIS, S. What kind of news gatekeepers do we want machines to be? Filter bubbles, fragmentation, and the normative dimensions of algorithmic recommendations. Computers in Human Behavior, v. 90, n. 1, p. 298–307, jan. 2019.

NEWMAN, N. Journalism, media and technology trends and predictions 2024. Reuters Institute for the Study ou Journalism, 2024. Disponível em: https://tinyurl.com/5dk26tk4. Acesso em: 8 dez. 2024.

NEWMAN, N.; CHERUBINI, F. Journalism, media, and technology trends and predictions 2025. Reuters Institute. 2025. Disponível em: https://tinyurl.com/4cjen6ss. Acesso em: 31 jan. 2025.

PARISER, E. O filtro invisível: o que a internet está escondendo de você. Rio de Janeiro: Zahar, 2012.

POELL, T.; NIEBORG, D.; DIJCK, J. V. Plataformização (Platformisation, 2019 – tradução: Rafael Grohmann). Fronteiras – Estudos Midiáticos, v. 22, n. 1, p. 2-10 janeiro/abril 2020. Unisinos. DOI: 10.4013/fem.2020.221.01.

POPE, A. NYT v. OpenAI: The Times’s About-Face. Harvard Law Review. [S. l.], 2024. Disponível em: https://tinyurl.com/4fm5muka. Acesso em: 8 jun. 2025.

RECUERO, R.; ZAGO, G.; SOARES, F. Mídia social e filtros-bolha nas conversações políticas no Twitter. In: ENCONTRO ANUAL DA COMPÓS, XXVI. Faculdade Cásper Líbero, São Paulo, 06 a 09 jun. 2017. Anais […]. São Paulo: 2017.

REMUNERAÇÃO de conteúdo jornalístico por plataformas digitais é discussão urgente, afirmam conselheiros. Câmara dos Deputados, Brasília, DF, 4 mar. 2024. Disponível em: https://tinyurl.com/2tkpy7vs. Acesso em: 10 dez. 2024.

SAAD, B; MALAR, J. P. Os desafios da remuneração do jornalismo pelas big techs. Folha de S. Paulo, São Paulo, 17 ago. 2023. Opinião. Disponível em: https://tinyurl.com/475zpsju. Acesso em: 17 ago. 2023.

SENADO aprova regulamentação da inteligência artificial; texto vai à Câmara. Senado Notícias, Brasília, DF, 12 dez. 2024. Disponível em: http://bit.ly/4oNTvzM. Acesso em: 10 dez. 2024.

SILVA FILHO, O. Quatro cautelas para o julgamento do artigo 19. São Paulo. Portal FGV. 24 jan. 2025. Disponível em: https://tinyurl.com/2vnpvabw. Acesso em: 9 jun. 2025

SIMON, F. Escape me if you can: how AI Reshapes News Organisations’ Dependency on Platform Companies. Digital Journalism, v. 12, n. 2, p. 1–22, 29 nov. 2023.

SODRÉ, M. A sociedade incivil: mídia, iliberalismo e finanças. Petrópolis: Vozes, 2021.

ZEWE, A. Explained: Generative AI. MIT News, Cambridge, 9 nov. 2023. Disponível em: https://news.mit.edu/2023/explained-generative-ai-1109. Acesso em: 13 maio 2025.