Eleições
2026: Afetos artificiais e publicidade opaca
Sempre
que o período eleitoral bate às portas no Brasil, tendemos a nos dar conta de
várias lições de casa por fazer. No campo do digital, de 2024 para cá algumas
novidades tornaram a tarefa de regular a difusão de informação e propaganda
política nas redes bastante desafiadora. Considerando que os prazos para o
Tribunal Superior Eleitoral (TSE) aprovar as resoluções que vão regular o
comportamento dos eleitores, dos partidos, dos candidatos, suas campanhas e dos
financiadores se encerram nos primeiros meses do próximo ano, cabe trazer
alguns novos elementos para este debate no que diz respeito à Internet e seu entorno.
Na
semana passada, a Meta anunciou que o WhatsApp
passará a veicular publicidade e promover conteúdos nos próximos
meses*, e que os dados dos usuários do Facebook e Instagram poderão ser usados
para formar os perfis para o direcionamento dos anúncios. A empresa
garantiu que o conteúdo das conversas (aba “conversas”) não será usado para
isso e que os comerciais aparecerão em uma barra à parte. Na mesma semana, a
dona do serviço de mensageria mais conhecido do mundo informou também que usará
seu sistema de IA para resumir mensagens não lidas dos usuários.
O que a
empresa ainda não esclareceu é se o 1,5 bilhão de usuários poderão optar por
não receber mensagens publicitárias e se esta opção será feita de forma
transparente. Não ficou claro, também, se as opções se darão por default ou
em um ato posterior. Por fim, não foi comunicado se o assistente virtual
de inteligência artificial embutido no aplicativo coletará dados das consultas
efetuadas para também formar o perfil do consumidor. Consumidor aqui entenda-se
no sentido lato, incluindo eleitor que “consome” propaganda
política. A cereja do bolo é o XChat, aplicativo de mensageria que o bilionário Elon Musk irá
acoplar à sua rede social X e que deverá enveredar pelo mesmo caminho da
publicidade em busca de novas receitas para o ex-Twitter.
Em
outra seara, reportagens em vários jornais e pesquisas científicas estão
mostrando que os usuários de chatbots de IA passaram a priorizar conversas
íntimas e afetivas com os sistemas no lugar de tarefas que tinham se tornado
usuais no caso de IA generativa, ou seja, gerar ideias. Do ano passado para cá,
esta opção foi desbancada por suporte
emocional ou acompanhamento. Reportagem do The New York
Times narrou casos de pessoas que se suicidaram ou se apaixonaram por
conta de conversas entabuladas na privacidade de um prompt. Ninguém sabe o que
se passa, alegam alguns. Mas não é bem assim. O sistema que absorve estes dados
não só sabe como os usa para várias tarefas. The Washington Post e outros
veículos revelaram que aplicações disponíveis na loja de IA da Meta permitem
que você conheça algumas destas perguntas sem que o responsável por elas saiba
que está sendo exposto.
<><>
Muito além das fake news
Mais do
que um alerta para que você tome cuidado sobre o que fala para seu empático
amigo (ou amiga) digital, ou cuidados sobre sua saúde mental e perda de cognição, pense onde tudo
isso pode nos levar em outras áreas, por exemplo, no campo da democracia e da
política. E coloque de lado, por um momento, o debate sobre fake news,
robots, deepfake e gabinetes do ódio que dominam a cena desde, pelo
menos, o escândalo da Cambridge Analytica em 2016.
Para o
pleito do ano que vem, entram em cena também estas duas variáveis: os
acompanhantes (ou assistentes) de IA e a publicidade nos serviços de
mensageria. Isso significa que mais que a desinformação textual e a manipulação
de imagens, vídeos e áudios, conteúdos gerados por algoritmos pouco
transparentes, portadores de vieses sem escrutínio, poderão causar tanto
estrago quanto a mentira lançada no ventilador virtual. Mais do que isso, a
intimidade e os afetos que começamos a trocar com estes sistemas, além dos
dados privados que geramos nas redes sociais, acabarão podendo ter influência
sobre o voto de indecisos e mesmo eleitores convictos.
<><>
Simulando cenários
Imagine
a cena: uma jovem de 19 anos, desempregada, estudante do ensino médio e com
problemas de autoestima que está em dúvida sobre quais critérios deve levar em
consideração para exercer seu voto. Ela pergunta a seu chatbot preferido
quais são os critérios a serem observados para fazer uma boa escolha. No
processo de elaboração da resposta, o software pode vir a
considerar todas as conversas anteriores que essa jovem teve com sua interface,
seus segredos mais íntimos, seus medos e anseios, até suas perguntas mais non-sense.
Ao ler
o conteúdo gerado pela máquina, a jovem então faz a pergunta derradeira: qual
dos candidatos A, B e C se enquadram melhor nestes critérios? A resposta,
convincente mesmo que equivocada como costuma ocorrer com estas ferramentas,
será encarada como algo tão determinante e relevante quantos os demais
resultados de outras indagações existenciais. E o mesmo processo de não
checagem dos fatos que se passa nas redes sociais deverá prevalecer.
Possivelmente, valerá o veredicto elaborado de forma empática pela caixa-preta.
Imagine
uma outra cena: um usuário com contas em duas redes sociais famosas de uma
mesma empresa se manifesta livremente sobre os mais variados assuntos. Curte
textos, compartilha opiniões, assiste a vídeos. Sem advertência clara, ele não
desconfiará que estes dados estão servindo para a mesma empresa traçar seu
perfil a fim de entregar-lhe mensagens publicitárias em seu aplicativo
preferido de comunicação interpessoal que, por coincidência, pertence ao
mesmo conglomerado. Em seguida, começa a corrida eleitoral e ele passará a
receber conteúdos (falsos ou não) contra ou a favor de um determinado
candidato.
O
potencial de estrago pode ser agravado se ele também usa o assistente virtual
de IA do serviço de mensageria para trocar confidências ou pesquisar sobre
assuntos diversos. Tudo isso vira matéria-prima para as campanhas de marketing.
E o pior cenário: para propaganda gerada por “anunciantes” pouco éticos e de
origem duvidosa trabalhando para um candidato de mesma estirpe.
<><>
Missão complexa
Ou
seja, o que vamos viver na campanha eleitoral do ano que vem é o que assistimos
em anos recentes agravado pelo fato de que a fiscalização agora será
praticamente impossível porque se dará no âmbito da intimidade, com informações
aparentemente confiáveis que nem sempre serão inverídicas. Como se estivéssemos
conversando com um amigo na mesa de bar sobre as angústias pré-eleitorais. E
isso será vivido novamente sem uma lei que regule as plataformas e os
assistentes de IA porque será muito improvável o Congresso aprovar duas leis
tão complexas em tempo hábil para o próximo pleito.
A
notícia boa é que o Supremo Tribunal Federal ajudou a criar um ambiente
favorável para a ação da autoridade eleitoral. Sua recente decisão sobre a
responsabilização civil dos provedores de aplicações de internet terá um
papel fundamental nas eleições de 2026 no momento em que impera um vácuo legal
na regulação de plataformas e que não será resolvido até o final do pleito.
Primeiro,
porque a tese de repercussão geral obriga estas empresas a monitorarem a
disseminação em massa de conteúdos vinculados a determinados crimes, ataques à
democracia e ao estado de direito, além de incluir deveres para o cuidado com o
impulsionamento em casos de atos ilícitos. Segundo, porque a decisão incluiu a
presunção de responsabilidade em casos de anúncios e impulsionamento de
conteúdos ilícitos, sejam pagos ou distribuídos por chatbots ou
robôs. Terceiro, porque os ministros deixaram uma brecha importante para que as
regras se adequem aos dispositivos da legislação eleitoral.
Esse
panorama nos leva a duas tarefas muito concretas para 2026 se quisermos
continuar fortalecendo a democracia e a lisura do processo eleitoral, tão
questionado, no Brasil. Uma delas compete ao TSE. Escutar a sociedade para
criar normas que permitam algum tipo de regulação sobre os chats de IA e a
publicidade nos serviços de mensageria. Aqui vale lembrar que no pleito de 2024
nos Estados Unidos, as próprias empresas trataram de
frear seus chatbots para
não responderem perguntas que mencionassem candidatos ou abordassem as
eleições. Classificada como censura por alguns, a medida contribuiu para haver
menos ruído e desinformação no pleito.
No ano
passado, o TSE tentou se debruçar sobre o assunto de deepfakes ao baixar a
resolução n. 23.732/2024, que em seu Art. 9.-B determinou a rotulagem dos
conteúdos gerados por IA para propagandas eleitorais, de conteúdo sintético
que, de algum modo sobreponha imagens, substitua, altere velocidade, sons, ou
realize qualquer tipo de sobreposição.
Falta
de capacitação dos tribunais regionais e baixa cooperação das empresas limitou
a efetividade da medida. Em 2026, não resta dúvidas que não bastará definir
tags apenas para propaganda eleitoral formal, mas tudo que for produzido no
período eleitoral deveria sair da plataforma com alguma espécie de marca
d’água. Acredito ser importante a Corte brasileira propor que estas duas novas
variáveis (assistentes de IA e publicidade na mensageria) sejam também
incluídas na escuta pública que colherá subsídios para as resoluções que
regrarão a próxima corrida eleitoral.
Outro
trabalho caberá aos eleitores e aos partidos. Criar forças-tarefa para
desenvolver aplicações que ajudem a monitorar as mensagens que estão sendo
dirigidas a cada usuário do WhatsApp ou do futuro XChat, por exemplo, poderá
servir como prova para processos junto à Justiça Eleitoral e, no extremo, por
impugnação de candidaturas. O mesmo será muito difícil de estabelecer para os
“terapeutas” virtuais porque isso se dará na privacidade de seu telefone. Mas o
que pode ser feito é testar estes novos oráculos com a simulação de perguntas
que podem revelar vieses ou campanhas dirigidas por uma ou outra aplicação.
Portanto,
mais do que aprender com as big techs como gravar um bom vídeo para arrasar nas
redes sociais com sua propaganda de candidato, em 2026 o olhar-cidadão e os
prompts cívicos serão uma arma tão importante quanto o título de eleitor. Se
conseguirmos passar a usar IA para afastar de nossa democracia fantasmas não
muito distantes, a tecnologia já terá demonstrado seu valor para a sociedade
como um todo. Cabem aos partidos e candidaturas democráticas pensarem na melhor
estratégia para ir além da denúncia de desinformação. E, aos tribunais
eleitorais, criar ferramentas digitais que possam ajudar na tarefa do eleitor
em fiscalizar estas novas armadilhas.
Fonte: Por
James Görgen, no Congresso em Foco

Nenhum comentário:
Postar um comentário