Como já comentamos aqui algumas vezes, o cenário para as eleições de 2026 no Brasil com o intenso e crescente uso das mídias sociais, acrescido do estreitamento das articulações entre as Big Techs e a extrema-direita brasileira, prometem uma avalanche de riscos que saltam à escolha democrática de nossa população.
Em 2018, 2020, 2022 e 2024 já foi bastante difícil esse enfrentamento. Em 2022, o TSE teve papel de destaque, porém, a avalanche que se vislumbra para 2026, é ainda mais grave, em decorrência de novos instrumentos digitais disponíveis e das incapacidades dos Estados-nacionais em lidar com essas ameaças diante das acusações de censura e falta de liberdade que a extrema-direita alega, para que possa fazer o que quiser, sem respeito aos marcos legais e ao estado democrático e de direito.
James Görgen, especialista em Políticas Públicas e Gestão Governamental é hoje no Brasil, um dos melhores intérpretes sobre a geopolítica e a soberania digital, com leituras totalizantes e em várias dimensões combinando a compreensão do uso da tecnologia e suas repercussões na sociedade e estados nacionais. James tem ido além de apresentar disgnósticos e quase sempre também aponta caminhos não apenas para a resistência, mas tem seguido na linha de propor saídas para a sociedade e suas instituições avançarem na construção de alternativas. O texto abaixo é uma dessas boas leituras sobre as ameaças para as próximas eleições no Brasil, quando Görgen aponta questões ainda pouco conhecidas para a maioria. Vale conferir!
Afetos artificiais e publicidade opaca nas eleições 2026*
Por James Görgen** - 22/6/2025
Sempre que o período eleitoral bate às portas no Brasil, tendemos a nos dar conta de várias lições de casa por fazer. No campo do digital, 2024 para cá algumas novidades tornaram a tarefa de regular a difusão de informação e propaganda política nas redes bastante desafiadora. Considerando que os prazos para o Tribunal Superior Eleitoral (TSE) aprovar as resoluções que vão regular o comportamento dos eleitores, dos partidos, dos candidatos, suas campanhas e dos financiadores se encerram nos primeiros meses do próximo ano, cabe trazer alguns novos elementos para este debate no que diz respeito à Internet e seu entorno.
Na semana passada, a Meta anunciou[1] que o WhatsApp passará a veicular publicidade e promover conteúdos nos próximos meses[2][3]. E que os dados dos usuários do Facebook e Instagram poderão ser usados para formar os perfis para o direcionamento dos anúncios. A empresa garantiu que o conteúdo das conversas (aba “conversas”) não será usado para isso e que os comerciais apareceram em uma barra à parte. O que a empresa ainda não esclareceu é se o 1,5 bilhão de usuários poderão optar por não receber mensagens publicitárias e se esta opção será feita de forma transparente. Não ficou claro, também, se a opção se dará por default ou em um ato posterior. Por fim, não foi comunicado se o assistente virtual de inteligência artificial embutido no aplicativo coletará dados das consultas efetuadas para também formar o perfil do consumidor. Consumidor aqui entenda-se no sentido lato, incluindo eleitor que “consome” propaganda política. A cereja do bolo é o XChat[4], aplicativo de mensageria que o bilionário Elon Musk irá acoplar à sua rede social e que deverá enveredar pelo mesmo caminho da publicidade em busca de novas receitas para o ex-Twitter.
Em outra seara, reportagens em vários jornais e pesquisas científicas estão mostrando que os usuários de chatbots de IA passaram a priorizar conversas íntimas e afetivas com os sistemas no lugar de tarefas que tinham se tornado usuais no caso de IA generativa, ou seja, gerar ideias. Do ano passado para cá, esta opção foi desbancada por suporte emocional ou acompanhamento[5]. Reportagem do The New York Times[6] narrou casos de pessoas que se suicidaram ou se apaixonaram por conta de conversas entabuladas na privacidade de um prompt. Ninguém sabe o que se passa, alegam alguns. Mas não é bem assim. O sistema que absorve estes dados não só sabe como os usa para várias tarefas. The Washington Post[7] e outros veículos revelaram que aplicações disponíveis na loja de IA da Meta permitem que você conheça algumas destas perguntas sem que o responsável por elas saiba que está sendo exposto.
Muito além das fake news
Mais do que um alerta para que você tome cuidado sobre o que fala para seu empático amigo — ou amiga — digital, ou cuidados sobre sua saúde mental e perda de cognição[8], pense onde tudo isso pode nos levar em outras áreas. Por exemplo, no campo da democracia e da política. E coloque de um lado, por um momento, o debate sobre fake news, robots e gabinetes do ódio que dominam a cena desde, pelo menos, o escândalo da Cambridge Analytica em 2016.
Para o pleito do ano que vem, entram em cena também estas duas variáveis: os acompanhantes — ou assistentes — de IA e a publicidade nos serviços de mensageria. Isso significa que mais que a desinformação textual e a manipulação de imagens, vídeos e áudios, conteúdos gerados por algoritmos pouco transparentes, portadores de vieses sem escrutínio, poderá causar tanto estrago quanto a mentira lançada no ventilador virtual. Mais do que isso, a intimidade e os afetos que começamos a trocar com estes sistemas, além dos dados privados que geramos nas redes sociais, acabarão podendo ter influência sobre o voto de indecisos e mesmo eleitores convictos.
Simulando cenários
Imagine a cena: uma jovem de 19 anos, desempregada, estudante do ensino médio e com problemas de auto-estima que está em dúvida sobre quais critérios deve levar em consideração para exercer seu voto. Ela pergunta a seu chatbotpreferido quais são os critérios a serem observados para fazer uma boa escolha. No processo de elaboração da resposta, o software pode vir a considerar todas as conversas anteriores que essa jovem teve com sua interface, seus segredos mais íntimos, seus medos e anseios, até suas perguntas mais non-sense. Ao ler o conteúdo gerado pela máquina, a jovem então faz a pergunta derradeira: qual dos candidatos A, B e C se enquadram melhor nestes critérios? A resposta, convincente mesmo que equivocada como costuma ocorrer com estas ferramentas, será encarada como algo tão determinante e relevante quantos os demais resultados de outras indagações existenciais. E o mesmo processo de não checagem dos fatos que se passa nas redes sociais deverá prevalecer. Possivelmente, valerá o veredicto elaborado de forma empática pela caixa-preta.
Imagine uma outra cena: um usuário com contas em duas redes sociais famosas de uma mesma empresa se manifesta livremente sobre os mais variados assuntos. Curte textos, compartilha opiniões, assiste a vídeos. Sem advertência clara, ele não desconfiará que estes dados estão servindo para a mesma empresa traçar seu perfil a fim de entregar-lhe mensagens publicitárias em seu aplicativo preferido de comunicação interpessoal. Que, por coincidência, pertence ao mesmo conglomerado. Em seguida, começa a corrida eleitoral e ele passará a receber conteúdos — falsos ou não — contra ou a favor um determinado candidato. O potencial de estrago pode ser agravado se ele também usa o assistente virtual de IA do serviço de mensageria para trocar confidências ou pesquisar sobre assuntos diversos. Tudo isso vira matéria-prima para as campanhas de marketing. E o pior cenário: para propaganda gerada por “anunciantes” pouco éticos e de origem duvidosa trabalhando para um candidato de mesma estirpe.
Missão complexa
Ou seja, o que vamos viver na campanha eleitoral do ano que vem é o que assistimos em anos recentes agravado pelo fato de que a fiscalização agora será praticamente impossível porque se dará no âmbito da intimidade, com informações aparentemente confiáveis que nem sempre serão inverídicas. Como se estivéssemos conversando com um amigo na mesa de bar sobre as angústias pré-eleitorais. E isso será vivido novamente sem uma lei que regule as plataformas e os assistentes de IA porque será muito improvável o Congresso aprovar duas leis tão complexas em tempo hábil para o próximo pleito.
Isso nos leva a duas tarefas muito concretas para 2026 se quisermos continuar fortalecendo a democracia e a lisura do processo eleitoral, tão questionado, no Brasil. Uma delas compete ao TSE. Escutar a sociedade para criar normas que permitam algum tipo de regulação sobre os chats de IA e a publicidade nos serviços de mensageria. Aqui vale lembrar que no pleito de 2024 nos Estados Unidos, as próprias empresas trataram de frear seus chatbots [9]para não responderem perguntas que mencionassem candidatos ou abordassem as eleições. Classificada como censura por alguns, a medida contribuiu para haver menos ruído e desinformação no pleito. Acredito ser importante a Corte brasileira propor que estas duas novas variáveis sejam incluídas na escuta pública que colherá subsídios para as resoluções que regrarão a próxima corrida eleitoral.
Outro trabalho caberá aos eleitores e aos partidos. Criar forças-tarefa para monitorar as mensagens que estão sendo dirigidas a cada usuário do WhatsApp ou do XChat, por exemplo, poderá servir como prova para processos junto à Justiça Eleitoral e, no extremo, por impugnação de candidaturas. O mesmo será muito difícil de estabelecer para os “terapeutas” virtuais porque isso se dará na privacidade de seu telefone. Mas o que pode ser feito é testar estes novos oráculos com a simulação de perguntas que podem revelar vieses ou campanhas dirigidas por uma ou outra aplicação.
Portanto, mais do que aprender com as big techs como gravar um bom vídeo para arrasar nas redes sociais com sua propaganda de candidato, em 2026 o olhar-cidadão e os prompts cívicos serão uma arma tão importante quanto o título de eleitor. Se conseguirmos passar a usar IA para afastar de nossa democracia fantasmas não muito distantes, a tecnologia já terá demonstrado seu valor para a sociedade como um todo. Cabem aos partidos e candidaturas democráticas pensarem na melhor estratégia para ir além da denúncia de desinformação. E, aos tribunais eleitorais, criar ferramentas digitais que possam ajudar na tarefa do eleitor em fiscalizar estas novas armadilhas.
* Publicado originalmente no Medim.com - Notas da Floresta Digital
** Especialista em Políticas Públicas e Gestão Governamental.
Notas e referências:
[2] Conforme o anúncio da empresa, a entrada de conteúdo promovido envolve os seguintes serviços no aplicativo:
“Assinaturas de canais: Você poderá apoiar seu canal favorito, como sua rede de notícias favorita, inscrevendo-se para receber atualizações exclusivas por uma taxa mensal.
Canais promovidos: Nós o ajudaremos a descobrir novos canais que podem ser interessantes para você quando estiver pesquisando no diretório. Pela primeira vez, os administradores de canais têm uma maneira de aumentar a visibilidade de seus canais.
Anúncios no status: Você poderá encontrar uma nova empresa e iniciar facilmente uma conversa com ela sobre um produto ou serviço que ela está promovendo no Status.”
Nenhum comentário:
Postar um comentário