Os
riscos da IA e dos algoritmos nas eleições de 2026
Da
Netflix ou no Spotify, um algoritmo ajuda a decidir o que você vai assistir ou
ouvir. Nas redes sociais, outro sistema calcula o que vai aparecer na sua
timeline. Essas linhas de código podem parecer inofensivas e até úteis, mas
acabam trancando o usuário em câmaras de eco e ditando novas regras de
comportamento. Na prática, elas atuam como instituições.
“Eu sou
da ciência da computação. Quando se falava em instituição, eu pensava num
ministério, no Congresso, na Constituição”, diz Virgilio Almeida, professor da
Universidade Federal de Minas Gerais, a UFMG, ex-coordenador do Comitê Gestor
da Internet no Brasil, o CGI.br, e secretário nacional de Política de
Informática de 2011 a 2015, durante o governo de Dilma Rousseff. Quando começou
a estudar a regulação de plataformas, ele buscou na ciência política o caminho
para lidar com o problema na tecnologia.
Foi
assim que se uniu aos cientistas políticos Ricardo Fabrino Mendonça, também da
UFMG, e Fernando Filgueiras, da Universidade Federal de Goiás, para lançar
“Política dos algoritmos – Instituições e as transformações da vida social”
pela editora Ubu. O argumento central
do livro é contundente: os sistemas digitais passaram a definir regras e
estruturas sociais com o mesmo peso do Congresso ou da Constituição.
A
diferença é que o Congresso e a Constituição são (ou deveriam ser) democráticos
e transparentes. Já os códigos das big techs trilionárias são opacos e mudam
sem aviso prévio. Ainda assim, essas ferramentas tecnocráticas ditam as novas
formas de trabalho, de socialização e, em última instância, influenciam as
eleições que definem quem senta no Congresso. Do controle do que lemos nas
redes à identificação de suspeitos por reconhecimento facial, os algoritmos
comandam a esfera pública.
No
livro, os autores argumentam que esses sistemas ocultam a natureza
política das decisões que são programados para tomar. Ao despersonalizar
processos, eles naturalizam injustiças sociais – como os sistemas de
reconhecimento facial, que falham gravemente ao ler rostos de pessoas pretas e
pardas.
Apesar
do controle imposto pelas máquinas, a subversão ainda é uma prerrogativa
humana. O livro traz exemplos do chamado gaming – a arte de driblar as normas
algorítmicas. Um caso famoso é o uso de maquiagens especiais por manifestantes
chineses para cegar as câmeras policiais.
Mas nem
tudo se resolve driblando o sistema. Por isso, os pesquisadores defendem a
democratização dessa tecnologia. “Há quem possa argumentar que essa é uma
postura utópica e irrealista”, eles escrevem. “Mas cabe lembrar que
democratizar o poder político nunca foi fácil.”
A
saída, apontam, é forçar a abertura dessas caixas-pretas para que sejam
auditáveis e compreensíveis. Não se trata de ensinar programação a todos, mas
de expor as intenções e consequências das plataformas.
Em
entrevista ao Intercept Brasil, Filgueiras e Almeida dão exemplos práticos
de como os códigos governam a sociedade. Eles avaliam os riscos das eleições de
2026, a primeira disputa eleitoral brasileira sob o peso da inteligência
artificial generativa. <><> Leia os melhores trechos.
·
O que significa dizer que os algoritmos hoje são
instituições? Como isso acontece na prática?
>>
Virgilio Almeida – As
instituições existem para estabelecer regras formais ou informais, para criar
comportamentos e dar estabilidade. A família é uma instituição, por exemplo.
Você sabe quais regras são permitidas ali dentro.
Os
algoritmos não são neutros, nem mágicos. Eles têm intenções e essas intenções são
definidas pelos humanos. Eles também estabelecem contextos e regras.
‘Os
algoritmos não são neutros, nem mágicos. Eles têm intenções e essas intenções
são definidas pelos humanos’.
Um
exemplo prático: quando você entra na Netflix, o sistema te dá uma resposta
baseada no seu histórico de interação. Ele olha para o que você gosta, o que
deixou de assistir e começa a moldar o seu comportamento de usuário de acordo
com isso.
É isso
que fazem os algoritmos de recomendação e os algoritmos que controlam os fluxos
de notícias das plataformas, tudo de acordo com o que os códigos desses
sistemas acham que vai te manter mais engajado. Esse engajamento amplia a
exposição à publicidade.
Mais
recentemente, vemos novos objetivos. O Grok [IA do X, antigo Twitter] tem
objetivos políticos, privilegia um tipo de notícia e esconde outras. Essa
capacidade de dar visibilidade ou tornar invisível, enterrar uma informação, é
um poder político dos algoritmos, chave na criação do pensamento coletivo.
>>
Fernando Filgueiras – Quando
você pensa em instituições e fala de órgãos governamentais e corporações, você
está falando de coisas que implicam organização coletiva, de como as pessoas
criam regras para estabelecer algum padrão de convivência.
Quando
falamos de uma grande instituição política, como o Congresso, estamos falando
de regras estruturantes da sociedade brasileira. Também podemos pensar em um
conjunto de normas que depois vai derivar em outras regras que nascem da nossa
convivência cotidiana, e podem ser tanto formais – como a Constituição – quanto
informais. Não posso chegar em alguém e dar um tapa na cara dessa pessoa
gratuitamente, desde que eu não seja maluco. A convivência coletiva vai nos
ensinando essas regras.
Hoje,
muitas dessas regras de convivência são determinadas pelos algoritmos. O
trabalho no Brasil está todo estruturado na CLT, que é uma consolidação de
legislações que estruturam as relações de trabalho existentes. As plataformas
que promovem a uberização do trabalho mudam essas regras, a ponto de obrigar o
governo a criar novas regras.
Campanhas
eleitorais também estão sendo alteradas, já que o debate passa antes pelo
Instagram e pelo WhatsApp. Os algoritmos alteram nossas dinâmicas sociais e de
ação política em um âmbito global.
‘Os
algoritmos alteram nossas dinâmicas sociais e de ação política em um âmbito
global’.
Eu fui
num jantar aqui em Brasília organizado por uma parlamentar. Os parlamentares
mais novos estavam preocupados em tirar fotos instagramáveis, enquanto a velha
guarda da política brasileira estava sentada em algum canto tentando articular
alguma coisa. Isso demonstra como a gente está institucionalizando nossos
padrões de ação a partir de sistemas digitais.
·
Como a gente pode regulamentar essas novas instituições,
que são privadas, globais e fechadas?
>>
Virgilio – Alguns
anos atrás foi aprovada no Parlamento Europeu a lei que garante o direito ao
esquecimento na internet. Se você faliu há 20 anos e depois se recuperou, as
notícias sobre a falência continuam aparecendo no Google. Agora, você pode
solicitar ao Google a remoção dessa visibilidade. Isso virou lei porque um
espanhol processou a empresa.
>>
Fernando – A
gente levou séculos para estabelecer os sistemas políticos das sociedades
industriais e democráticas. Hoje, a gente tem um oligopólio de poucas
corporações que controlam uma infraestrutura de dados que vai calibrando e
moldando todo esse processo eleitoral.
São
dilemas novos para a sociedade que partem de uma infraestrutura algorítmica que
vai produzindo novos padrões de institucionalização e desinstitucionalização. A
CLT nunca esteve tão frágil no Brasil como agora, e a dinâmica de comunicação
mudou radicalmente.
É um
processo de mudança muito intenso com uma infraestrutura que a gente não
consegue controlar, que, ao mesmo tempo que é global, afeta dinâmicas locais.
Como mudar isso? No livro, não temos uma resposta definitiva para isso. A gente
aponta direções, como amplificar a participação e colocar o cidadão no centro
do processo de constituição de algoritmos.
Acho
que o ponto que merece muita atenção é que ao mesmo tempo que essa estrutura
digital surge, desinstitucionalizando coisas e institucionalizando outras, a
gente nunca esteve tão próximo do autoritarismo. Claro que isso não é uma
relação linear, mas em muitas situações essas tecnologias ajudam governos
autoritários, seja por vigilância…
>>
Virgilio – Ou
por censura…
·
No livro, vocês argumentam que as redes sociais definem
os limites das nossas escolhas. Como essas limitações aparecem nas eleições?
>>
Fernando – Essas
tecnologias dão o frame [a moldura] para as escolhas. Eu continuo
livre para escolher, mas escolho dentro daquelas opções que limitam as minhas
alternativas. Uma eleição não deixa de ser isso. Nossas escolhas são sempre
limitadas, de certa maneira. A corrida para ser candidato a presidente é muito
grande. O que difere é que agora os frames das escolhas são dados
pelos algoritmos.
>>
Virgilio – Nós
estamos numa nova época. Os mesmos mecanismos de análise e acompanhamento não
funcionam mais. Como controlar essas instituições algorítmicas? No livro, a
gente apresenta a ideia de tornar o controle das instituições algorítmicas mais
democrático, com mecanismos que tenham participação da sociedade. Algo como o
Comitê Gestor da Internet, que é uma instituição multisetorial e envolve a
sociedade como um todo, mas não tem a função de estabelecer regras, só boas
práticas.
·
Já tivemos eleições marcadas por algoritmos. Mas 2026 é a
primeira disputa no Brasil com a IA generativa massificada. A inteligência
artificial pode mudar a forma como votamos?
>>
Fernando – Como
essas tecnologias estabelecem um frame de escolha para cada indivíduo, vai se
produzindo uma mudança epistêmica. O conhecimento muda radicalmente, e essa é
uma coisa que a gente não consegue ter controle.
Brincadeiras
à parte, esse é o meu maior desespero. Porque a gente alterou radicalmente a
forma como o conhecimento é produzido. E o conhecimento que eu estou falando
não é só o científico. Estou falando de várias outras formas de conhecimento,
até o religioso. Na Alemanha tem IAs rezando
missa. É um negócio muito maluco delegar a espiritualidade a uma
inteligência artificial.
‘Inteligência
artificial implica sobretudo mudar as relações de poder’.
Se pode
influenciar como a gente vota? Acho que sim, e pode influenciar muito.
Inteligência artificial implica sobretudo mudar as relações de poder, o que
cria um outro regime de informação e conhecimento que a gente ainda não tem
nenhuma certeza sobre como opera.
>>
Virgilio – O
grande risco é a capacidade de manipulação que esses novos algoritmos têm. Essa
manipulação tem várias facetas. Uma delas é a antropomorfização. As pessoas
hoje buscam a terapia com algoritmos. Não há um conhecimento maior dos efeitos
disso, mas esses chatbots não foram criados para ser terapeutas.
Os
brasileiros enviam cerca de 140 milhões de mensagens para o ChatGPT
diariamente. Essa capacidade de influência complica o jogo da seguinte forma:
ele pode não falar uma mentira, mas pode começar a sugerir informações
incompletas e parciais. E isso pode ser uma forma de manipular as pessoas. O
ChatGPT vai entender o que aquele cidadão tem de preferência e de gosto e vai
ajustando as respostas de acordo com isso.
E aí
que está a grande dificuldade: como é que você controla isso? Uma coisa é
controlar notícias falsas: você pode fazer um serviço de fact-checking. Mas não
tem como você controlar essa conversa tête-à-tête. A não ser que,
institucionalmente, você decida que os chatbots não podem tratar do tema
“eleições”. Isso teria que ser uma decisão que vá em direção às grandes
plataformas. Não tem como controlar isso individualmente.
‘O
grande risco é a capacidade de manipulação que esses novos algoritmos têm’.
Essa é
a grande diferença que vamos ver nas eleições deste ano. A gente não sabe o que
vai acontecer, e estabelecer regras para isso é muito difícil, a não ser que as
empresas atuem. Algumas plataformas já têm restrições parecidas com questões de
suicídio e de terrorismo, os chatbots são programados para não responder. A
pergunta é: isso poderia ser expandido para a questão eleitoral? Talvez. Nós
precisamos discutir quais serão essas regras, e essas regras precisam ser
concebidas com participação da sociedade.
·
Existe alguma proposta sólida para combater essa
desinformação via IA? Fica cada vez mais difícil diferenciar o que é real do
que foi gerado por máquina.
>>
Fernando – Eu
ousaria dizer que não existe uma proposta sólida. O que o TSE [Tribunal
Superior Eleitoral] pretende fazer é criar algumas iniciativas mais educativas
para lidar com isso, ou indicar que conteúdos criados com IA no âmbito de
campanhas eleitorais precisam ser rotulados. Mas eu acho tudo isso muito pouco.
É tranquilo rotular um conteúdo que o partido oficial criou. O problema é o que
acontece em uma sociedade em que qualquer um pode criar esse tipo de conteúdo,
não necessariamente só os filiados de um partido qualquer.
Hoje,
na prática, a gente ainda não tem uma perspectiva sólida de estabelecer isso de
forma mais robusta no âmbito das eleições. Acho que será uma eleição que vai
continuar superpolarizada, que tende a ser muito crítica aos incumbentes – uma
tendência global da última década. Vai ser uma eleição muito difícil, que não
vai dar uma maioria robusta para quem ganhar. Em qualquer situação, o próximo
presidente será um presidente fraco institucionalmente de novo.
Muitas
vezes, esses conteúdos de IA são criados fora do país. Estamos começando a
discutir mais sobre como garantir a soberania digital e o processamento de
dados dentro do território do país. As discussões ainda são tímidas e dependem
de muito investimento orçamentário.
É um
tema sensível para se discutir na esfera pública como ela está hoje. Muita
gente acusa de censura, de controle, de novas formas autoritárias. Parece uma
espécie de jogo de soma zero que a gente criou e é difícil sair dele.
>>
Virgilio – Se
o país fizer valer mais rigorosamente a Lei Geral de Proteção de Dados
Pessoais, a LGPD, de modo a minimizar o acesso a dados pessoais, também vai
diminuir essas possibilidades de manipulação. Porque são os dados pessoais que
acabam levando à construção dos perfis digitais.
Uma
medida concreta é a Autoridade Nacional de Proteção de Dados, a ANPD, agir de
forma rigorosa com as companhias estrangeiras que operam essas plataformas,
porque isso diminuiria a capacidade de manipular um indivíduo, já que seus
dados não estarão tão claros. É importante preservar os dados pessoais, não
deixar que eles sejam usados nas campanhas.
·
Vocês escrevem que “os algoritmos não são estruturas
gravadas em pedra, mas instituições sociais recriadas na ação humana por meio
dela e com ela”. Enxergar os algoritmos como instituições significa que eles
não são definitivos, podem ser transformados e reformados. Por onde a gente
começa a criar algoritmos mais democráticos?
>>
Fernando – O
uso de IA e a expansão de sistemas computacionais de caráter mais disruptivo
têm sido muito discutidos em vários setores. O que se reforça é a ampliação da
transparência e fortalecer como se explicam esses sistemas –
especialmente sistemas de inteligência artificial. Mas tudo isso é muito novo e
a gente não sabe muito bem como fazer.
Sem
dúvida, a gente pode ter uma IA mais explicável e auditável, mas a gente
precisa começar a criar regras novas para os desenvolvedores. E não estou
falando das pessoas que sentam atrás de um computador e programam, mas das
grandes corporações que desenvolvem software e hardware.
O fato
hoje é que a gente tem um oligopólio de grandes empresas que controlam esse
mercado. A gente precisa inaugurar uma rota de democratização na construção
desses sistemas, porque eles se tornaram centrais na sociedade contemporânea.
>>
Virgilio – Um
exemplo concreto do que precisa ser mudado são os sistemas de reconhecimento
facial. Eles estão presentes em prédios públicos, condomínios e edifícios.
Esses sistemas geralmente são treinados fora daqui, onde as características
demográficas são completamente diferentes. Qual a consequência disso? Muitos
desses sistemas erram bem mais com pessoas negras, especialmente mulheres
negras, do que com homens brancos. Os algoritmos precisam ser modificados.
Outra
linha de atuação é que precisamos treinar, na faculdade, os engenheiros de
computação e análise de dados para entender questões históricas e sociais, que
já precisam fazer parte do projeto desde o começo. O projeto não pode ignorar,
por exemplo, que no Brasil a tonalidade de pele não é só branca ou preta, mas
também parda.
Os
engenheiros de computação são, no fundo, engenheiros sociais – porque, ao
escrever um código, eles mudam relações sociais. E eles não são preparados para
isso. A cabeça desse pessoal e a cabeça das gerências dessas corporações
precisam ter essa formação. São questões complicadas, estranhas e recentes, e
precisam ser mais discutidas no Congresso.
Fonte:
Por Eduardo Lima, em The Intercept

Nenhum comentário:
Postar um comentário