Por Anna Graziella Santana Neiva Costa e Ana Júlia Estrela Araújo Flexa Ribeiro

Inicio este ensaio afirmando que a desumanização da rede não é apenas um subproduto tecnológico, mas uma estratégia de negócio que corrói pilar fundamental da democracia: a livre formação da vontade do eleitor.
O sufrágio universal pressupõe um eleitor informado e capaz de deliberar em liberdade. Essa premissa está sendo solapada por um processo anterior a qualquer eleição por meio de progressiva desumanização da própria internet. Em 2018, a New York Magazine revelou que, em determinado período de 2013, cerca de metade de todo o tráfego do YouTube era composto por bots se passando por pessoas. Tal proporção era tão elevada que os próprios engenheiros da plataforma temiam o fenômeno que denominaram internamente como “a Inversão”, definido como o ponto hipotético a partir do qual os sistemas de detecção de fraude passariam a classificar os bots como reais e os humanos como anomalias. No mesmo ano, o New York Times documentou, em “The Follower Factory”, como a indústria de contas falsas havia se tornado um mercado bilionário que contava com políticos entre seus clientes. Esses dados não são curiosidade tecnológica, visto que constituem o substrato empírico da Dead Internet Theory, a qual consiste na hipótese, progressivamente corroborada por estudos, de que menos de 60% do tráfego global da web é gerado por seres humanos.
O fenômeno ganhou dimensão radicalmente nova quando as próprias plataformas passaram a criar perfis artificiais como estratégia de negócio. Connor Hayes, vice-presidente de IA Generativa da Meta, anunciou ao Financial Times que a empresa espera que seus usuários de IA apareçam em suas redes da mesma forma que contas humanas, possuindo biografias, fotos e capacidade de engajar conteúdo. A jornalista Karen Attiah, do Washington Post, conversou no Instagram com “Liv”, um perfil que se apresentava como “orgulhosa mãe negra queer”. Ela constatou que o robô admitiu ter sido criado por uma equipe predominantemente branca e masculina, sem qualquer correspondência com a identidade exibida (CAMPOS, 2026). Com efeito, considerando todo este contexto parece crível afirmar que o mecanismo de controle colapsa quando o próprio guardião cria, instiga e, até, festeja, a ameaça.
Para o direito eleitoral, todas essas constatações representam um agravamento exponencial sobre a salubridade e higidez do ambiente político-eleitoral com sólido potencial de sepultamento das democracias representativas, considerando que o arquétipo sob o qual se construiu a lógica do sistema é, primordialmente, assegurar que os cidadãos exerçam sua capacidade eleitoral ativa de forma livre e soberana. A soberania popular, nunca é demais lembrar, se revela no poder incontrastável de decidir.
Constata-se, então, que na atualidade já não é suficiente combater apenas operações clandestinas de terceiros, mas uma arquitetura de negócio que institucionaliza a inautenticidade como produto. E, se esta é uma verdade, imponderável compreender e alertar que o debate público eleitoral, ocorrido nas redes sociais, passa a estar gravemente comprometido diante de uma artificialidade que fabrica discursos, aparentemente espontâneos e populares, por meio de operação coordenada de perfis fictícios, o denominado comportamento inautêntico coordenado.
O Comportamento Inautêntico Coordenado (CIB – Coordinated Inauthentic Behavior) é a categoria que descreve operações orquestradas de múltiplas contas, automatizadas ou controladas por humanos, destinadas a enganar outros usuários quanto à identidade, à origem e ao propósito dos atores envolvidos no debate. A distinção fundamental que o conceito introduz, e que o torna normativamente essencial, é a separação entre o plano do conteúdo e o plano do comportamento. Enquanto o regime jurídico tradicional ancora-se na falsidade da informação, o CIB desloca o dano, visto que uma operação pode veicular conteúdo factualmente verdadeiro e ainda assim constituir manipulação eleitoral grave, porque a percepção artificialmente amplificada de consenso que ela produz falsifica a ecologia do debate democrático.
Os precedentes concretos dissipam qualquer dúvida quanto à gravidade da ameaça. Em dezembro de 2024, as eleições presidenciais da Romênia foram anuladas após as autoridades de segurança demonstrarem que o candidato vencedor do primeiro turno havia sido promovido de forma maciça no TikTok por 25.000 contas pró-candidato, as quais se tornaram altamente ativas nas duas semanas anteriores ao pleito. Dentre esse contingente, quase 800 perfis foram criados em 2016 e mantidos inativos por anos, aguardando ativação coordenada (RAINSFORD, 2024; SOLEA, 2024). A eleição foi anulada, e a democracia romena forçada a reiniciar o certame, pois o debate havia sido colonizado por entidades desprovidas de personalidade civil.
Nas eleições alemãs de 2025, o parlamentar Konstantin von Notz declarou que o pleito sofreu manipulação clara e bem-sucedida por atores estrangeiros, cujas operações utilizaram o software Meliorator, ferramenta descrita pelo FBI como um pacote de inteligência artificial secreto capaz de engendrar personas digitais aptas a ludibriar os mecanismos de detecção das plataformas, levando-as a classificar bots como usuários humanos reais (BOND, 2024). O Brasil possui mais de 150 milhões de eleitores, detendo uma das maiores taxas de uso de redes sociais do mundo e um histórico recente de disputas eleitorais marcadas pela instrumentalização intensa do ambiente digital. Portanto, o CIB constitui um fenômeno endógeno, dispensando qualquer necessidade de importação.
Nesse contexto, o ecossistema digital das eleições gerais de 2026 apresenta desafios que transcendem a mera disseminação de fake news. O debate público eleitoral passou a ser contaminado, de forma estruturalmente mais grave pelo fenômeno do comportamento Inautêntico Coordenado. Como visto, não se trata apenas do conteúdo da mensagem, mas da artificialidade da rede que a propaga, utilizando perfis falsos e automatizados para produzir uma popularidade inexistente e induzir o eleitor a erro sobre a real expressividade política de candidaturas.
A distinção é fundamental precisa ser esclarecida desde logo: a desinformação eleitoral clássica (a fake news) atua sobre o conteúdo do discurso; veicula informações falsas sobre fatos ou sobre os candidatos. O CIB atua sobre a estrutura do discurso, ou seja, fabrica a aparência de que há um discurso espontâneo e popular onde na verdade existe apenas uma operação coordenada estrategicamente por meio de perfis fictícios. É, em sentido técnico e jurídico rigoroso, a falsificação do próprio debate democrático, e não de uma informação dentro dele. A estratagema tecnológica conduz ao falseamento do debate em si, ou ainda, da relevância de determinado conteúdo ou, mesmo, do próprio candidato.
O mecanismo central do Comportamento Inautêntico Coordenado (CIB), conforme identificado por Nathaniel Gleicher, diretor de políticas de segurança do Facebook, reside na utilização estratégica de contas falsas e duplicadas. Essas contas atuam de forma sinérgica para amplificar umas às outras, induzindo o público a uma percepção de popularidade que não possui correspondência com a realidade. Essa estratégia explora diretamente o funcionamento dos algoritmos de recomendação, que privilegiam conteúdos com maior engajamento.
Ora, se os algoritmos de recomendação de conteúdo tendem a amplificar publicações com maior engajamento, publicações com mais comentários e interações recebem mais visibilidade orgânica, atingindo mais usuários reais, que geram mais engajamento genuíno, inaugurando um ciclo autocumulativo. O CIB injeta nesse ciclo um engajamento fictício que desencadeia efeitos reais. Os perfis falsos geram mais visibilidade para o candidato, que atrai mais interações autênticas, que geram mais visibilidade – num processo de amplificação exponencial cujos efeitos não se desfazem pela simples remoção posterior dos perfis, pois a impressão de popularidade já terá sido consolidada no imaginário do eleitorado.
A Justiça Eleitoral brasileira, reconhecendo a gravidade crescente do fenômeno, reagiu com a edição da Resolução TSE nº 23.755/2026, que introduziu o art. 38-A na Resolução nº 23.610/2019, ou seja, o primeiro instrumento jurídico-positivo brasileiro expressamente concebido para combater o CIB no direito eleitoral.
A Resolução TSE nº 23.755/2026, editada em 2 de março de 2026, inseriu o art. 38-A na Resolução nº 23.610/2019, que consiste no diploma central da propaganda eleitoral, criando um mecanismo autônomo de remoção de perfis digitais falsos, apócrifos ou automatizados. A inovação possui natureza estrutural, uma vez que, enquanto o art. 38 opera sobre a camada do discurso, focando na remoção de conteúdo ilícito, o art. 38-A incide sobre a camada do ator. O dispositivo determina a exclusão quando o sujeito-perfil constituir, por sua própria essência, uma ficção ou um artefato criado com o fito de enganar.
Do texto do artigo emergem pressupostos cumulativos. O primeiro refere-se à comprovação da inautenticidade do perfil, subdividida em três categorias, quais sejam, o perfil “falso” por identidade inexistente, o “apócrifo” por ausência de autoria reconhecível e o “automatizado ou robô”, operado por sistemas computacionais sem presença humana real. O segundo requisito é de ordem comportamental, exigindo que as publicações configurem prática reiterada. Nesse sentido, não se admite a remoção por publicação isolada, o que impõe à Justiça Eleitoral o ônus de demonstrar a existência de um padrão. O terceiro pressuposto, previsto no inciso II, estabelece a necessidade de prévia declaração judicial de que os fatos veiculados são notoriamente inverídicos. Tal exigência cria uma dependência procedimental entre o art. 38-A e o regime do art. 38, formando uma cadeia que, embora garantidora da segurança jurídica, pode comprometer a celeridade da resposta em contextos de campanha nos quais o dano informacional se propaga em questão de horas.
O § 1º consagra o processo judicial sob a égide da ampla defesa e do contraditório, garantia que distingue o modelo brasileiro de sistemas que permitem a exclusão por decisão unilateral das plataformas, conforme imposição constitucional do art. 5º, LV. Por sua vez, o § 2º atua como limitador da autonomia privada, estabelecendo que a exclusão por iniciativa dos provedores somente é autorizada para perfis falsos, automatizados ou robôs. Tal vedação impede a remoção de qualquer conta cujo conteúdo contrarie meros interesses comerciais da plataforma, configurando uma resposta normativa direta ao risco de censura privada disfarçada de moderação.
PF retira credenciais de policial dos EUA em retaliação a expulsão de delegado
MP investiga ‘chefe’ Geddel sob suspeita de propina de R$ 1 milhão na trama da fuga de líder do CV
O arcabouço normativo introduzido pelo já mencionado art. 38-A não representa apenas um avanço procedimental, mas uma resposta estrutural à premente necessidade de preservar a ontologia do eleitor frente à desumanização digital. Ao enfrentar o Comportamento Inautêntico Coordenado, o Tribunal Superior Eleitoral atua na camada mais profunda do processo eleitoral, incidindo não sobre o conteúdo dos discursos, mas sobre a autenticidade dos sujeitos que os enunciam. Conforme observa Francieli Campos (2026), o óbice primordial da geração atual reside na manipulação do debate por perfis artificiais que orquestram as redes mediante a mimetização do embate político, o que torna o dispositivo arquitetonicamente coerente e teleologicamente claro. Seus limites probatórios e de extraterritorialidade não possuem o condão de invalidá-lo; ao revés, revelam o labor que ainda remanesce ao legislador e à magistratura para evitar que a “Inversão” (o ponto em que a máquina é tratada como real e o humano como anomalia) constitua o destino do debate brasileiro, visto que a soberania popular é atributo intrínseco das pessoas naturais.
Essa transição da norma para a salvaguarda da vontade livre evidencia que a integridade do certame depende, fundamentalmente, da contenção das simulações sistêmicas que ameaçam sequestrar o consenso democrático.
Em última análise, se a democracia é o governo do povo, para o povo e pelo povo, o Direito Eleitoral não pode permitir que a vontade popular seja mimetizada por algoritmos, sob pena de transformarmos o sufrágio universal em um simulacro estatístico gerado por máquinas, onde o cidadão é apenas um intruso em sua própria história. O desafio de 2026 não reside apenas em garantir o livre acesso às urnas, mas em assegurar que a consciência que as opera não tenha sido capturada por uma arquitetura de inautenticidade coordenada. A soberania é um atributo da vida real, e a Justiça Eleitoral firma-se, hodiernamente, como a última fronteira entre a deliberação livre e a manipulação industrializada.
Anna Graziella Santana Neiva Costa – Advogada, sócia-fundadora do escritório Anna Graziella Neiva Advocacia. Ex-juíza do Tribunal Regional Eleitoral do Maranhão e ex-ouvidora do TRE/MA. Pós-graduada em Direito Eleitoral, MBA em Direito Tributário, especialista em Ciência Jurídico-Política e Direito Constitucional e Eleitoral, membro consultora da Comissão Especial Eleitoral do Conselho Federal da Ordem dos Advogados do Brasil, membro da ABRADEP, do COPEJE e do IAB. Foto: Arquivo pessoal
Ana Júlia Estrela Araújo Flexa Ribeiro – Estagiária acadêmica de Direito do 7.º período do Centro Universitário Unidade de Ensino Superior Dom Bosco – UNDB
G Léda
Nenhum comentário:
Postar um comentário