Inteligência artificial deve afetar próximas eleições e a democracia
Em agosto deste ano, em resposta ao requerimento do
Senador Eduardo Gomes (PL/TO), foi instaurada a Comissão Temporária de
Inteligência Artificial (CTIA) no Senado Federal. O objetivo: discutir diferentes projetos de lei sobre o uso da tecnologia.
A inteligência artificial (IA) vem se mostrando, ao
mesmo tempo, uma ferramenta para otimização de demandas no setor público, mas
também uma preocupação para o processo democrático. Ela já é usada em tribunais
para a aceleração de procedimentos burocráticos e decisões sobre aposentadoria.
Por outro lado, a tecnologia também vem sendo utilizada para a desinformação,
como na criação de imagens de fatos que não aconteceram na realidade: como a
prisão de Trump usando força policial, imagem criada por um jornalista com o
software Midjourney.
A Comissão pretende analisar em 120 dias o PL
2.338/2023, do presidente do Senado Rodrigo Pacheco (PSD/MG), que trata da
proteção de direitos e liberdades fundamentais envolvendo a IA, trabalho e da
dignidade da pessoa humana.
Além disso, a comissão, que já discutiu os impactos
da IA na agricultura, no meio acadêmico e na indústria, debateu, no último dia
30, os efeitos da tecnologia no jornalismo e no processo eleitoral, em
audiência pública presidida pelo senador Marcos Pontes (PL-SP), ex-ministro da
Tecnologia de Jair Bolsonaro. A audiência contou com representantes do setor de
comunicações e de instituições em defesa da democracia.
A Agência
Pública entrevistou uma das participantes, a advogada e professora
do Instituto Brasileiro de Ensino, Desenvolvimento e Pesquisa (IDP) Tainá
Aguiar Junquilho. Na entrevista, falou sobre os desafios da implementação
segura da tecnologia: “não existe nenhum mecanismo hoje, nenhum software,
nenhuma inteligência artificial que vá identificar se um conteúdo é produzido
por inteligência artificial”.
No contexto das eleições municipais de 2024, a
professora revela preocupação com o uso de IA na disputa e a ausência de uma
legislação específica que regulamente o processo. Para ela, diferentes
problemas, como uso do deepfakes e criação de conteúdo falso,
vão chegar ao Judiciário sem uma conduta padronizada a ser seguida. “Se a gente
não regula, pode ser que tenhamos decisões muito diferentes de cada juiz, e
isso pode gerar insegurança”.
<<<< Confira a entrevista
·
Como está o andamento para a
regulamentação da inteligência artificial no Brasil?
A regulamentação da inteligência artificial aqui no
Brasil já passou por algumas fases, mas não há uma lei em vigor. Isso pode
prejudicar o processo eleitoral, na medida em que o Estado vai precisar dar
alguma resposta, e aí talvez caia em ativismo judicial, enfim, porque você não
tem uma lei em vigor ainda.
A gente tem desde 2020 um projeto de lei, que é
o 21/2020, que foi colocado pela Câmara e aprovado em regime
de urgência para regular a inteligência artificial, porém esse projeto é
principiológico. O que isso significa? Ele é muito vago. Ele prevê que a
inteligência artificial não pode ser discriminatória e que ela precisa ser
transparente, mas não coloca meios para viabilizar isso na prática.
E a gente tem agora, depois de um ano de trabalho,
de uma comissão de juristas estabelecida, criada no Senado, o PL 2338, que foi colocado na mesa pelo senador Rodrigo
Pacheco. Criou-se a Comissão de Tecnologia e Inteligência Artificial, a CTIA, e
para discutir, eles estão fazendo audiências públicas, vão apresentar algumas
mudanças a esse texto, provavelmente, a partir do que eles ouviram em
audiência.
Todos os países do mundo já estão se mobilizando. A
União Europeia já está se mobilizando para regular [a IA]. Nessa semana, nos
Estados Unidos, Joe Biden também colocou regras. Então está todo mundo se prevenindo,
principalmente porque Brasil e os Estados Unidos são países que, no ano que
vem, vão enfrentar processos eleitorais e querem correr tentar, de alguma
maneira, frear os riscos da inteligência artificial. Mas nenhum país ainda tem
uma lei que esteja em vigor. Está todo mundo nessa discussão.
·
A discussão está focada
também no processo das eleições?
Isso, no processo eleitoral. Porque a inteligência
artificial é uma tecnologia de propósito geral, então ela afeta todos os
setores, afetando também o processo eleitoral.
Alguns candidatos na Coreia do Sul criaram avatares de inteligência artificial
para responder aos eleitores. Então, como a pessoa física não é onipresente,
obviamente, eles criaram avatares por inteligência artificial. E isso pode
gerar um certo descontrole.
Você tem as deepfakes também, que são as notícias falsas ou as fotos, vídeos falsos com
o uso da inteligência artificial. A gente tem a imagem do Trump sendo preso, que era falsa. Nas
eleições da Eslováquia, fizeram deepfake dos candidatos.
No Reino Unido também, com o candidato a primeiro-ministro, falando mal da
população cigana.
Enfim, a inteligência artificial pode desinformar,
pode enganar eleitores, ela pode ser usada para criar áudios, textos, imagens e
conteúdos que vão manipular as campanhas e colocar discursos na boca das
pessoas que, na verdade, elas não falaram.
·
Já vimos alguns efeitos
de deepfakes, de disparos em massa, influenciando a disputa eleitoral.
O que mudou com o aparecimento da IA generativa? Qual a diferença, por exemplo,
quando a gente fala de deepfakes com o uso da IA generativa?
Você tem [exemplos], desde 2016, com o escândalo da Cambridge Analytica, algoritmos criados
por essa empresa para influenciar comportamentos e votos produzindo conteúdos
personalizados. Era uma inteligência artificial que a gente diz que é
preditiva. O que ela faz? Ela vai pegar um monte de dados do passado e prever,
com base nos comportamentos do passado, a probabilidade de comportamentos
futuros.
Ela pega, por exemplo, as suas pegadas digitais na
rede social e vai prever ‘olha, ela é uma pessoa mais à esquerda, mais à
direita, ela gosta desse tipo de discurso, ela quer ver o direito X ou Y, ela
precisa, por exemplo, de um direito à saúde. Então, vamos colocar aqui,
oferecer isso aqui, esse conteúdo para ela’. E aí você vai influenciando
comportamentos e votos, levando conteúdos personalizados a partir de uma
inteligência artificial que prevê gostos para influenciá-los a partir dos dados
do passado.
A inteligência artificial generativa já existia,
mas em novembro de 2022, a OpenAI, principalmente, conseguiu desenvolver a
versão 3 do ChatGPT, e isso influenciou várias outras. E a IA generativa, ela
muda um pouco porque ela vai produzir conteúdos, ela vai gerar áudio, textos,
imagens que podem ser desinformativos.
E isso, mais uma vez, afeta várias áreas. A gente
tem o exemplo aqui no Brasil, do comercial da Volkswagen com a Elis Regina, que o CONAR,
que é o órgão que conduz o marketing no Brasil, chegou a notificar a Volkswagen
dizendo que aquele conteúdo poderia enganar os consumidores porque não dizia,
não informava aos consumidores, que a Elis Regina era produzida por uma
inteligência artificial.
Imagina, então, um conteúdo que é produzido por
inteligência artificial generativa, que vai gerar um áudio, um texto, uma
imagem e vai disparar isso para várias pessoas. Se hoje tem disparo em massa de
mentiras feitas à mão, com a inteligência artificial, que gera conteúdos muito
mais facilmente… Existem estudos que dizem que bastam três segundos de áudio de
qualquer pessoa para que você reproduza a voz dela em termos de inteligência
artificial.
Então, imagina, você grava um áudio, finge que está
gravando um áudio de um candidato e espalha isso. Como que isso não é perigoso?
Não existe nenhum mecanismo hoje que vá, nenhum software, nenhuma inteligência
artificial que vai identificar que aquele conteúdo é produzido por inteligência
artificial.
·
Inclusive, um dos pontos que
foi falado na CTIA é sobre a integração de blockchain na inteligência
artificial com a finalidade de garantir a integridade do conteúdo original.
Como você vê isso, as tentativas para deixar o conteúdo mais original, para
poder preservar a integridade da informação?
É muito importante, e uma regulação pode vir para
trazer incentivos, inclusive também às empresas desenvolvedoras, para investir
em tecnologia que seja capaz de criptografar ou de codificar, de tornar aquela
imagem, som, texto com um selo ou com algum tipo de aviso.
O eleitorado jovem tem aumentado cada vez mais e os
jovens estão ali nos aplicativos. O TikTok, por exemplo, é um aplicativo que
bombou há mais ou menos quatro anos. Quer dizer, tem uma eleição no máximo que
você tem [a presença] do TikTok, e o aumento [do aplicativo] é cada vez maior.
Essas demandas, como eu falei, vão chegar no
judiciário, no Tribunal Superior Eleitoral, nos tribunais eleitorais, e o
Estado vai precisar se virar para responder. Se a gente não regula, pode ser
que tenhamos decisões muito diferentes de cada juiz, e isso pode gerar
insegurança.
·
Como você avalia o uso da
inteligência artificial no setor público, seus potenciais ou riscos?
Olha, a inteligência artificial tem sido utilizada
no setor público em larga escala. O gestor público que escolhe usar a
inteligência artificial, ele o faz em nome do princípio constitucional do
artigo 37, que é a eficiência da administração.
Mas há uma certa crítica no sentido democrático, na
afetação da democracia, porque você tem inteligência artificial no setor
público, por exemplo, no uso de reconhecimento facial. Você tem São Paulo
tentando colocar o SmartSampa para resolver o problema da
Cracolândia, na segurança pública, para ingresso de pessoas na migração do
país, na alfândega. O próprio INSS, existem dados dizendo que 40% das
aposentadorias no Brasil já são decididas por robôs do INSS. No judiciário brasileiro; tem uma
pesquisa da FGV que diz que 44 dos 92 tribunais estão desenvolvendo
inteligência artificial.
Tem o caso polêmico também de algumas escolas
públicas no Paraná que estão usando inteligência artificial para
reconhecimento facial e análise dos sentimentos e emoções — práticas que são,
pelo projeto da Europa, banidas. Porque imagina, se você usa isso para uma
criança, para um trabalho, isso pode gerar sérias discriminações. Você dizer,
‘olha, essa criança aqui, ela não tem jeito não’.
Isso mexe com a democracia no sentido de que essas
aplicações, a população, a sua maioria, nem sabe que está tendo essas coisas
negadas, ela não tem capacidade e nem possibilidade de recorrer.
Por exemplo, se você não ingressa num país ou se
você tem uma concessão de benefício negada pelo INSS, os sistemas de
inteligência artificial são opacos, então você não consegue nem explicar e
recorrer, porque nem o próprio desenvolvedor vai saber como aquele sistema
chegou àquela decisão. Não há uma transparência de, por exemplo, ‘a
administração pública, ela gastou X, que é um X alto, mas ao mesmo tempo ela
está conseguindo economizar ou isso está trazendo de retorno para a população
duas vezes’.
Não há uma transparência também no sentido de
explicar no que que isso está melhorando ou piorando a vida da população. Isso
tudo afeta a democracia porque é o Estado que está promovendo ou deixando de
promover políticas públicas para o cidadão, e aí você fica com todas essas questões
afetadas, falta de transparência, opacidade.
·
Sabendo da fidelidade das
imagens e dos áudios criados por inteligência artificial, o que você considera
principal para mitigar o impacto na disseminação de notícias falsas, em
especial no contexto das eleições?
Olha, eu acho que o principal, e a gente já está
atrás nessa corrida, é trabalhar o letramento digital ou desalienação das
pessoas. A principal questão é promoção de educação, de entender quais os
riscos, de entender que existem, que essas coisas podem ser produzidas, não
confiar, buscar sempre a fonte, mas paralelamente o Estado precisa se preparar
para responder de forma segura.
A gente tem duas maneiras de colocar isso
legislativamente: ou na reforma do Código Eleitoral ou no próprio projeto de
lei. Fazendo como os Estados Unidos, por exemplo, vetando que candidatos
utilizem inteligência artificial, proibindo que eles usem inteligência
artificial para enganar as pessoas ou para colocar discursos falsos, exigindo
que as empresas desenvolvam tecnologias que vão gerar algum tipo de aviso às
pessoas de que aquele conteúdo não é real, que aquilo é um conteúdo gerado por
inteligência artificial.
Precisa haver algum tipo de punição para os
candidatos que utilizam esse recurso sem avisar aos seus eleitores, sob pena de
a gente cair num discurso desinformativo, aumentar também a polarização, enfim.
·
Você comentou que houve a
criação da CTIA, há essas discussões sobre a regulamentação, mas há medidas
mais práticas, atuais, para evitar o uso, ou para diminuir o impacto do uso da
inteligência artificial na disputa eleitoral, ou para que a IA seja usada na
checagem de informações?
Pois é, essa é uma notícia triste que eu tenho para
te dar. Não existe, e por isso é importante o letramento digital. Por exemplo,
a inteligência artificial generativa é usada na educação. Já tem professor
dizendo assim, ‘eu tenho um software aqui que denuncia o conteúdo gerado por
inteligência artificial’. Você como aluno pode dizer ‘não é verdade’. Hoje não
existe, infelizmente, nenhum conteúdo, nenhum software, nenhuma inteligência
artificial capaz de reconhecer que aquilo é produto da IA.
Então, o que a gente pode fazer em termos de
regulação hoje é o letramento digital, estabelecer obrigações preventivas aos
candidatos, estabelecer estímulos para que as empresas façam relatórios de
avaliação de impacto daquelas tecnologias, regras de governança, para que
também o cidadão tenha confiabilidade naqueles sistemas e o próprio mercado.
Você também pode estimular que as empresas
desenvolvam essa tecnologia, talvez por meio de blockchain ou NFT, para que
identifique mais facilmente que aquele é um produto de inteligência artificial
para evitar a desinformação.
E também a gente tem o PL das Fake News, que ficou um pouco morto, mas
que de toda forma tenta regular e modificar um pouco o modelo de negócios das
Big Techs, mais na área dessa bolha algorítmica que favorece um clima
polarizado.
Então, para você evitar que conteúdos de cunho
desinformativo ou de cunho odioso, recebam pelo tráfego, você pode tomar essa
medida que o PL das Fake News está tentando, mas que nunca engrena.
Fonte: Por Bianca Muniz, da Agencia Pública
Nenhum comentário:
Postar um comentário