Os riscos do Reconhecimento Facial no
Brasil
Na manhã de 19/8, a
mídia nacional noticiou o início da operação Cidade Integrada, novo projeto de
ocupação das favelas do Rio de Janeiro. O lugar de escolha para o lançamento da
operação foi justamente o Jacarezinho, alvo de chacina que vitimou 29 pessoas
em abril de 2021. À época, os programas policialescos aplaudiram a operação
policial mais letal do estado, numa narrativa de propaganda de guerra.
Na atual operação,
1.200 homens fortemente armados montaram um cerco enquanto o comandante da
polícia e o governador do Rio davam declarações de que tudo corria
“pacificamente” e que a operação já poderia ser considerada um “sucesso”. Entre
os moradores, o clima é de medo e incertezas.
Em meio ao
sensacionalismo bélico e racista que busca construir a falsa narrativa de
guerra às drogas, uma informação importante quase passou desapercebida. Parte
da estratégia do projeto Cidade Integrada prevê a instalação de câmeras de
reconhecimento facial no Jacarezinho. São 22 câmeras em pontos estratégicos da
comunidade, conforme apurou o G1. A informação preocupa já que o uso de
tecnologias de reconhecimento facial têm potencial de aprofundar as já
conhecidas violações de direitos humanos e abusos que estão no cerne dos
projetos de militarização. Experiências no Brasil e no mundo comprovam o viés
racista, LGBTQIfóbico e violador deste tipo de aplicações que são apresentadas
como soluções fáceis para o problema da segurança pública.
• Riscos do reconhecimento facial
Segundo levantamento
do Instituto Igarapé, a aplicação de reconhecimento facial por polícias,
guardas civis e outros órgãos de segurança pública ocorre em pelo menos 30
cidades de 16 estados do país. A partir das eleições municipais de 2020,
vislumbra-se um crescimento do fenômeno.
Monitoramento feito
pelo Intervozes revelou que, dentre os 26 prefeitos de capitais empossados em
janeiro de 2021, 17 apresentaram propostas que, de algum modo, preveem o uso
das tecnologias de informação e comunicação na segurança pública. Dentre as ameaças
da banalização deste uso está o aprofundamento do racismo.
Estudo da Rede de
Observatórios de Segurança monitorou prisões e abordagens feitas com este tipo
de tecnologia nos estados da Bahia, Ceará, Paraíba, Rio de Janeiro e Santa
Catarina entre março e outubro de 2019. Nos casos em que havia informação sobre
raça, 90,5% das abordagens tinham como alvo pessoas negras. As arbitrariedades
e violações oriundas do uso da tecnologia chegam a ser jocosas: recentemente, o
sistema de reconhecimento facial do Ceará incluiu foto de Michael B. Jordan
como suspeito de chacina ocorrida no estado.
O reconhecimento
facial ocorre a partir de câmeras comandadas por um algoritmo que localiza o
rosto de cada pessoa na imagem, realizando a detecção da face. Após isso, essa
face é padronizada — para que haja um critério e outras faces possam ser
reconhecidas — e assim o algoritmo passa a detectar as características
específicas de cada face que podem ser quantificadas de forma numérica.
Em seguida, após os
elementos dos rostos terem sido traduzidos em representações matemáticas, o
algoritmo armazena essas informações em um banco de dados e emite uma pontuação
que reflete as características avaliadas e compara seu banco de dados com o rosto
que está sendo colocado à avaliação.
No entanto, no momento
de aprendizagem de máquina, os dados inseridos são definidos por humanos que
estão configurando este dispositivo. Portanto, há o entendimento de que a
inteligência artificial não é neutra, já que ela aprende e reproduz os comandos
inseridos a partir de determinado viés, colocando em risco pessoas já
marginalizadas na sociedade.
Outro risco diz
respeito aos dados pessoais. Os sistemas de reconhecimento facial contam com
poucos recursos de transparência, tanto no que se refere ao funcionamento do
algoritmo quanto a questões relacionadas à guarda e manejo dos dados
biométricos coletados. No caso do Cidade Integrada, o projeto prevê que uma
central de monitoramento seja montada na Cidade da Polícia, sem maiores
detalhamentos sobre como se dará os usos destes dados pessoais. Tal situação é
preocupante já que uma das excepcionalidades da Lei Geral de Proteção de Dados
Pessoais é justamente o tratamento de dados para segurança pública, que deve
ser abordado em lei específica. Porém, a Lei deixa explícito que esses setores
não podem se eximir das garantias previstas, inclusive a observação da
proporcionalidade, da necessidade e do devido processo.
• A luta pelo banimento
Partindo do
entendimento de que os malefícios e perigos do uso de reconhecimento facial são
maiores que seus possíveis benefícios, São Francisco foi a primeira cidade
estadunidense a banir o uso de reconhecimento facial por agentes de segurança
pública e policiais, em maio de 2019. Segundo os legisladores, o reconhecimento
facial poderia exacerbar a injustiça social e ameaçar a possibilidade de uma
vida sem vigilância governamental.
Os defensores da
proibição apontam que os modelos algorítmicos usados para treinar a tecnologia
de reconhecimento facial são feitos, em sua maioria, por homens brancos,
aumentando a probabilidade de uma identificação incorreta de pessoas negras.
Além disso, para o treinamento da tecnologia, o sistema tem que fazer uma
varredura de rostos que circulem por vias públicas, ainda que essas pessoas não
saibam disso, levando a um estado de constante vigilância.
A legislação federal
nos Estados Unidos tem se esquivado do tema e não chega a um acordo, mas a
decisão tomada por São Francisco virou referência, levando outras cidades a
optarem pelo banimento do reconhecimento facial, entre as quais Sommerville, no
estado de Massachusetts, e, em seguida, Oakland, também na Califórnia.
• O exemplo de Oakland
Em 17 de julho de
2019, o Conselho Municipal de Oakland aprovou uma legislação que proíbe o uso
de reconhecimento facial por agências. A decisão foi impulsionada por
defensores dos direitos digitais, como a União Americana pelas Liberdades Civis
(ACLU), e proíbe a cidade de “adquirir, reter, solicitar ou acessar”
tecnologias de reconhecimento facial.
O regulamento emenda
uma legislação de 2018, que exige que qualquer funcionário municipal obtenha
aprovação do presidente da Comissão Consultiva de Privacidade de Oakland antes
de “buscar ou solicitar fundos” para tecnologia de vigilância, incluindo no caso
de financiamento estadual ou federal.
Em um memorando
público, a Presidente do Conselho Municipal de Oakland, Rebecca Kaplan, apontou
que a decisão foi baseada na grande taxa de erros da tecnologia, na dificuldade
de se estabelecer padrões éticos para seu uso, na sua natureza invasiva e na alta
potencialidade para abusos governamentais.
A decisão também foi
impulsionada por diversos grupos representantes de comunidades perseguidas pela
polícia, por organizações de advogados, pela MediaJustice, assim como pela
União Americana pelas Liberdades Civis (ACLU), que aponta que, ao contrário de
muitos outros sistemas biométricos, o reconhecimento facial pode ser usado para
vigilância geral em combinação com câmeras de vídeo públicas e pode ser usado
de forma passiva, sem conhecimento, consentimento ou participação do sujeito.
O maior perigo,
conforme a ACLU, é que a tecnologia seja usada para sistemas de vigilância
gerais e sem suspeitas. A entidade já havia realizado, em 2019, um experimento
com 120 congressistas estadunidenses. Seus rostos foram enviados ao sistema
Rekognition, da Amazon, e foram comparados com os rostos de 25 mil fichas criminais.
No resultado, 28 políticos foram reconhecidos erroneamente como “fichados”,
sendo sua maioria pessoas racializadas.
Em conversa com o
Intervozes e com a Coalizão Direitos na Rede, Steven Renderos, da organização
MediaJustice, defendeu que é necessário o fomento ao debate sobre os diversos
problemas causados pelo reconhecimento, a fim de estabelecer uma consciência na
população acerca do caráter perigoso, racista e vigilantista desses sistemas.
O banimento desse tipo
de tecnologia garante a não-utilização de um recurso que atualiza o viés
racista do Estado, especialmente da segurança pública, baseado em prerrogativas
falsas de evolução tecnológica ou de ampliação da segurança, mas que, em verdade,
corresponde a um sistema repleto de falhas e incoerências. Dessa forma, é
urgente uma regulação no Brasil que siga os passos de Oakland e demais cidades
e impeça o uso do reconhecimento facial, tanto nos estados e municípios quanto
em âmbito nacional.
Fonte: Por Sheley
Gomes e Iara Moura, na Carta Capital
Nenhum comentário:
Postar um comentário