Tecnologias de reconhecimento racial: qual face se busca
criminalizar?
Carnaval
de Salvador, 2019. No acesso ao circuito, postos de controle da Polícia Militar
revistavam os foliões. De longe, se ouvia a banda Pagod’art “quebrando tudo”
com clássicos “das antigas”: “Eu não aguento mais, vou desabafar, embaçaram na
quebrada, tá difícil de aturar. Invadiram o nosso gueto, tiraram a paz e o
sossego. Toda noite, todo dia… to-to-tome, tome baculejo”. Então, naquele
momento, um indivíduo foi identificado pelo sistema de reconhecimento facial
como um foragido da justiça. Era a estreia do uso desta tecnologia de
vigilância na Bahia (antes utilizada em poucos estados), que, em pouco tempo,
se difundiu por todo o Brasil.
O
“sucesso” da operação foi comemorado pelo então secretário de Segurança Pública
da Bahia, Maurício Barbosa. Holofotes e câmeras de todos os meios de
comunicação se voltaram para a promoção do secretário e sua tecnologia
inovadora. Já as câmeras usadas para reconhecimento facial nunca alcançaram o
rosto de Maurício Barbosa. Suspeito de diversos crimes, em 2020 o então
secretário foi acusado pela Polícia Federal de integrar uma quadrilha que
negociava sentenças judiciais, em um esquema que envolvia desembargadores e
policiais. Branco, ele nunca foi reconhecido pela tecnologia que ajudou a
implementar, tampouco preso. Sua “punição” foi a exoneração da secretaria – após a poeira baixar, Barbosa voltou a ocupar cargos
públicos.
Também
investigado pela Operação Faroeste como integrante da quadrilha, o então
presidente do Tribunal de Justiça da Bahia, o desembargador Gesivaldo Britto,
nunca dormiu uma noite sequer na prisão. Sua punição foi o afastamento do cargo
e posterior aposentadoria compulsória por idade, em 2021. Portanto, assim como
o ex-secretário de Segurança Pública, Gesivaldo
e outros juízes que se tornaram réus podem curtir o carnaval de
Salvador tranquilamente, sem o risco de serem identificados pelas câmeras de
vigilância, muito menos de serem abordados ou constrangidos pela polícia.
No
Brasil, suspeitos e criminosos brancos e ricos não costumam estar na mira.
Podem ter o helicóptero apreendido com
450 kg de pasta base de cocaína, que sua identidade não irá parar no banco de
dados usado pelas polícias. Podem formar quadrilhas e receber escolta de
policiais militares para assassinar indígenas, com o
objetivo de grilar suas terras. Podem fraudar empresas e
provocar demissões em massa. Podem causar desastres capazes
de destruir cidades, rios e vitimar milhares de pessoas.
Então,
para que(m) servem as tecnologias de vigilância que prometem combater a
criminalidade? De acordo com a Rede de Observatórios da Segurança, 90% das
prisões realizadas a partir do reconhecimento facial em 2019 tinham como alvo
pessoas negras. A pesquisa divulgada no final de 2019 utilizou dados de cinco
estados de três regiões do país: Bahia, Rio de Janeiro, Santa Catarina, Paraíba
e Ceará.
De
acordo com Paulo Victor Melo, professor e pesquisador de Comunicação, esse tipo
de tecnologia é uma atualização sofisticada de ferramentas construídas para
segregar, vigiar e controlar corpos que historicamente foram vistos como corpos
perigosos. Como exemplos, Paulo Victor cita a marcação em brasa dos negros
escravizados no Brasil, como forma de destacar a propriedade dessa população,
além do uso do telégrafo por escravocratas para reconhecer escravizados em
fuga. O pesquisador afirma que o uso da tecnologia de reconhecimento facial é
“uma modernização desses instrumentos utilizados para alijar a população negra
dos espaços públicos e submetê-la ao aprisionamento”.
·
Errar é “humano”
“Você
foi reconhecido por um sistema de reconhecimento facial que dificilmente erra”.
Essas foram as palavras de um policial militar de Sergipe durante abordagem ao
personal trainer João Antônio Bastos. O jovem foi algemado e conduzido pela
polícia, em abril deste ano, sob o olhar de milhares de torcedores que
acompanhavam uma partida de futebol no estádio Batistão, em Aracaju. Já numa sala, os policiais reconheceram o erro que confundiu
João com um suspeito.
Publicamente,
a Polícia Militar de Sergipe disse que a abordagem foi feita dentro do
“procedimento padrão” e tentou minimizar a gravidade da situação ao informar
que, no mesmo dia, houve uma prisão em flagrante a partir do uso de
reconhecimento facial. Desta prisão, porém, não se tem notícias para além da
afirmação oficial da PM.
O
cientista político Pablo Nunes explica que a metodologia usada para
implementação da tecnologia de reconhecimento facial utiliza banco de dados
criados por humanos, que “ensinam” a máquina a fazer associações a partir do
que foi utilizado como referência para rostos humanos. Ou seja, o processo é
enviesado desde sua origem. “Boa parte desse banco de imagens que foram
utilizadas para o algoritmo entender o que era um padrão de rosto humano foi
formado por imagens de pessoas brancas. A partir desse treinamento, o algoritmo
entendeu que o padrão do rosto de uma pessoa branca era o padrão do rosto
humano”, explica Pablo. Ele cita como exemplo a categorização criada pelo
Google, em 2015, cujos algoritmos reconheciam rostos de pessoas negras como sendo de gorilas.
De
acordo com Pablo, que coordena o Centro de Estudos de Segurança e Cidadania, a
forma como a tecnologia foi construída, desde a sua compreensão teórica, até a
sua utilização, reproduz os vieses da sociedade. “O algoritmo é construído em
uma sociedade racista e, por ser estrutural, o racismo também se expressa
nesses artefatos tecnológicos que a sociedade produz”, afirma.
Assim
como as balas perdidas têm endereço definido, os “erros” cometidos pela
tecnologia de reconhecimento facial também costumam ter o mesmo alvo. Dois relatórios elaborados pela Defensoria Pública do Rio de Janeiro (DPRJ) e
pelo Colégio Nacional de Defensores Públicos Gerais (Condege) revelam que, entre 2012 e 2020, ao menos 90 pessoas foram
presas após serem identificadas erroneamente em reconhecimentos fotográficos.
Os estudos apontam ainda que em 81% dos casos as vítimas eram pessoas negras.
Para
Paulo Victor Melo, o reconhecimento fotográfico, instrumento largamente
utilizado em delegacias de todo o país, é uma das tecnologias de continuidade
da lógica escravocrata e anterior ao reconhecimento facial. “Findo o período
oficial da escravidão, os mecanismos de vigilância e classificação precisaram
ser atualizados. É aí que entra o reconhecimento fotográfico, que tem no
reconhecimento facial a sua sofisticação. Portanto, se já temos uma série de
problemas com o reconhecimento fotográfico, eles apenas se agravam agora”,
enfatiza.
·
Quando a população
negra paga a conta
Em
2023, o Brasil registrou 39,5 mil mortes violentas, de acordo com o Monitor da
Violência do Fórum Brasileiro de Segurança
Pública da Universidade de São Paulo. As altas taxas de homicídio do país
colocam a segurança pública no centro do debate, sendo comum o uso eleitoral
dessa pauta, com “soluções fáceis” buscando seduzir parte do eleitorado.
Segundo
a advogada e educadora popular Horrara Moreira, a narrativa de que as câmeras
de reconhecimento facial trazem mais segurança é uma construção midiática. “Se
um computador decidir que você é suspeito, que você é culpado, como é que você
vai provar o contrário? Se o computador vai decidir quem é suspeito e quem é
criminoso, quem é essa pessoa? Que cor ela tem? Onde ela mora? O que que ela
faz?”, são questões trazidas por Horrara para afirmar que “a população sabe que
ela não estará mais segura por conta do reconhecimento facial”.
A
advogada destaca o SmartSampa, programa que prevê a instalação de 20 mil
câmeras de reconhecimento facial na cidade de São Paulo, adicionadas a outras
3,5 mil já em funcionamento. “Normalmente elas estão instaladas em regiões
periféricas e em regiões da cidade que concentram uma violência contra pessoas
pobres, pessoas em situação de rua, contra pessoas que estão em dependência
química”, afirma Horrara. Ela destaca o caráter eleitoreiro do programa
“tecnosolucionista”, que traz segurança a uma parcela da sociedade e transforma
outra em potenciais suspeitos e criminosos.
O
SmartSampa foi questionado pelos movimentos sociais, que alegam violações dos
direitos humanos a partir do uso do videomonitoramento e questionam a eficácia
do programa. Em nota, a campanha Tire Meu Rosto da Sua Mira reforçou
o caráter racista do programa, que ratifica um modelo de segurança voltado ao
encarceramento em massa da população negra. A campanha também criticou o
“absurdo investimento” estimado em R$ 118 milhões anuais, de acordo com a
Prefeitura de São Paulo.
Segundo
estudo desenvolvido pelo Panóptico, atualmente estão sendo executados 225 projetos que utilizam
reconhecimento facial no Brasil. Na Bahia, reportagem da Intercept
Brasil aponta que cada uma das 760 prisões decorrentes do
reconhecimento facial custou em média R$ 875 mil. Já em Goiás, cidades que
sequer possuem rede de esgoto receberam a tecnologia de segurança ao custo de
mais de R$ 30 milhões. A série “Quem paga a conta?”,
produzida pela Intercept, traz alguns casos que revelam o quanto esse sistema
se tornou um “bom negócio” para empresários e gestores públicos.
Pioneira
na implementação da tecnologia de reconhecimento facial, a Bahia não apresenta
bons números relacionados à redução da violência. Ao contrário, em 2023 o
estado se manteve como “campeão” nacional de mortes violentas, pelo
quinto ano consecutivo. A Bahia também é o terceiro estado em casos de feminicídio, e Salvador é a
quarta, dentre as capitais, com registros de mortes violentas contra pessoas LGBTQIA+.
Apesar
dos altos índices, o estado baiano só resolve cerca de 17% dos crimes de
homicídio (dados de 2022). Nesse sentido, o cientista político Pablo Nunes
chama a atenção para a necessidade de criação de um Banco Nacional de
Indicadores Criminais, para qualificar as investigações, além do uso de
tecnologias que permitam rastrear armas e munições. “Existem tecnologias
simples de gestão e controle desse armamento, o que poderia contribuir com a
segurança pública. E ao reduzir os homicídios, a gente tem um impacto
importante para a população negra”, afirma Pablo.
Durante
o governo de Jair Bolsonaro (PL), cerca de 1,5 milhão de novas armas foram registradas no
país. O aumento teve relação direta com a campanha pró-armamentista liderada
pelo ex-presidente, com a flexibilização de regras para aquisição de armas,
incluindo registros de Colecionadores, Atiradores Desportivos e Caçadores
(CACs), e ampla publicidade na internet, a exemplo da empresa Taurus que, por
meio do Instagram, anunciava armas de fogo.
Em
setembro de 2023, o Tribunal de Justiça de São Paulo ordenou a proibição de
“anúncios publicitários de armas”, considerando o Estatuto do Desarmamento (Lei
10.826/2003) que veda a publicidade para venda de armamentos, exceto em
publicações especializadas. O processo que resultou na retirada dos anúncios da
Taurus ocorreu a partir de uma ação apresentada pelo Intervozes, pelo Instituto
Brasileiro de Defesa do Consumidor (Idec) e pela Comissão de Defesa dos
Direitos Humanos Dom Paulo Evaristo Arns. “As vítimas de violência armada são,
em sua maioria, pessoas negras. Também observamos um aumento nos crimes contra
as mulheres envolvendo armas de fogo”, destacou, em nota, o Intervozes.
·
Banimento
Em
maio de 2024, o governador de Sergipe anunciou a suspensão do uso do sistema de
reconhecimento facial no estado, em razão dos sucessivos erros que tiveram
repercussão nacional. A decisão converge com os pedidos de organizações e
movimentos sociais que defendem o banimento da ferramenta: erros
sistemáticos, baixa eficiência, alto investimento e padrões racistas são os
principais argumentos utilizados.
No
entanto, as tendências regionais e federal apontam para a ampliação do uso da
tecnologia de reconhecimento facial. No Congresso, o Projeto de Lei 2338/2023, que
dispõe sobre o uso da Inteligência Artificial, traz impactos na segurança
pública ao ampliar a permissão da utilização de tecnologias de reconhecimento
facial. Em nota, a Coalizão Direitos na Rede mostrou
preocupação com o texto do projeto, que também traz “disposições
surpreendentemente permissivas em relação ao uso de sistemas de armas
autônomas”. De acordo com as organizações da campanha Tire Meu
Rosto Da Sua Mira, em nota de apoio ao parecer favorável do
deputado Miguel Rossetto ao Projeto de Lei 16/2023, que dispõe sobre a
restrição do uso de tecnologias de reconhecimento facial pelo Poder Público no
Estado do Rio Grande do Sul, “a vigilância constante, massiva e indiscriminada,
por si só, representa uma violação dos direitos e liberdades das pessoas e da
coletividade”.
E
quando o assunto é reconhecimento facial, o discurso da extrema-direita
encontra abrigo também no governo Lula (PT). Vale lembrar, por exemplo, que uma
das medidas anunciadas pelo Ministro da Justiça, Ricardo Lewandowski, após a
fuga de encarcerados do presídio de Mossoró, no início de 2024, foi justamente
o uso de reconhecimento facial nas cinco unidades prisionais de
âmbito federal do país.
Segundo
Pablo Nunes, no Brasil existe uma esquerda punitivista que quer “que ocorram
prisões a qualquer custo, mesmo com o uso de tecnologias falhas, caras, mas que
cooperam com a tentativa de aumentar a massa carcerária”. Para o pesquisador, a
esquerda não possui projetos na área da segurança pública que conquistem
corações e mentes, fazendo com que “essa esquerda punitivista se alie ao
ideário da extrema-direita, no que se refere ao aumento da vigilância da
população, a custos de direitos e também de discriminação algorítmica”.
Essa
avaliação também é percebida por movimentos sociais que citam que boa parte dos
projetos de reconhecimento facial são apresentados por representantes do campo progressista. Um “castelo pintado de branco” –como versava a banda
Fantasmão– que vai revelando as profundas camadas que estão por trás das
câmeras.
Fonte:
Por Alex Pegna Hercog, no Le Monde
Nenhum comentário:
Postar um comentário