O
mito da decisão automática no direito
O
perigo de se substituir a antiga ilusão da neutralidade do juiz pela nova
crença na imparcialidade dos algoritmos em um cenário que prioriza a gestão de
estoques numéricos em detrimento da qualidade argumentativa do Direito...
<><>
Diagnóstico sobre automatização de processos
Levar
ao trânsito em julgado os mais de 80 milhões de processos em curso no país com
o auxílio da inteligência artificial soa, à primeira vista, como uma solução
quase redentora aos pecados do Judiciário brasileiro. Tal solução, à luz da
Constituição Federal, concretizaria o tal direito fundamental de cada
brasileiro à duração razoável do processo e à celeridade do trâmite judicial
(art. 5º, LXXVIII). Ninguém quer que seu processo dure mais de seis meses, quem
dirá seis anos.
É
sempre bom referenciar os mestres Kazuo Watanabe e Humberto Theodoro, que
insistiram, em suas obras, que a deficiência organizacional do Judiciário é um
dos fatores que comprometem a efetividade do direito e ao acesso à ordem
jurídica. Processo tardio, em muitos casos, equivale a processo inútil.
Mas não
deixamos nos enganar, como bem observou Daniela Gabbay, dialogando com a
formulação de Marc Galanter, o imenso volume de litigiosidade de uma sociedade
não decorre, necessariamente, de uma cultura de “vou te processar!”, mas da
atuação reiterada de grandes litigantes internos do país. Quer dizer, o volume
de ações judiciais, muitas vezes, é produto da repetição estratégica (muito bem
definida por advogados experientes) de condutas por atores economicamente e
politicamente estruturados, e não de um impulso cultural do homo brasilis.
Entre
nós, esses agentes são os próprios detentores dos meios de produção, Estado
incluído, que figuram como protagonistas da engrenagem judicial. Bancos, planos
de saúde, empresas de massa, entes públicos, são eles que, pela larga escala de
suas operações e pela padronização de suas práticas, acabam por gerar conflitos
igualmente padronizados.
Dessa
padronização das ações judiciais emerge, quase inevitavelmente, a tentação de
uma solução igualmente padronizada. É o pensamento humano rápido operando.
Aquilo que Daniel Kahneman denominou de Sistema 1: a resposta intuitiva,
imediata, simplificadora. Se a maior parte dos casos se repete, conclui-se sem
grande esforço, então é possível padronizar; e, se é possível padronizar, por
que não automatizar?
A
inferência parece lógica. E justamente por parecer lógica é que seduz. O
problema é que esse encadeamento (repetição, padronização, automação) produz
inquietação profunda na teoria do Direito. Ainda que muitos manuais tenham
difundido a fórmula anestesiadora “fato + norma = decisão”, a prática jurídica
revela algo bem mais complexo.
<><>
Indagações sobre decisão judicial
Poucos
temas são tão aparentemente simples, e, ao mesmo tempo, tão filosoficamente
complexos, quanto a pergunta: que fazem os juízes quando decidem?
Ao não
jurista, contudo, nada disso costuma soar problemático. “Juízes decidem o que é
justo, oras”, diria com naturalidade. E, em certo sentido, é verdade. Mas essa
formulação esconde uma outra pergunta: com base em quê se decide o que é justo?
Foi
justamente essa questão que animou um dos debates mais sofisticados da teoria
do direito no século XX: o confronto entre o H.L.A. Hart e seu sucessor em
Oxford, Ronald Dworkin. Estaria o juiz autorizado a exercer discricionariedade
forte nos chamados hard cases, criando direito onde a regra é indeterminada? Ou
haveria sempre uma resposta correta, a ser descoberta à luz de princípios
jurídicos que já integram o sistema?
Esse
embate tornou-se quase um microcosmo da filosofia do direito contemporânea.
Ainda assim, permaneceu relativamente fechado em seus próprios termos. Pouco
dialogou com a tradição hermenêutica mais ampla inaugurada por Friedrich
Schleiermacher e desenvolvida, no século XX, por Hans-Georg Gadamer. A ausência
desse diálogo custou caro à interpretação jurídica, empobrecendo a reflexão
sobre o que significa compreender, e, por consequência, aplicar o direito.
Apesar
disso, do debate Hart-Dworkin irradiaram-se teorias que influenciaram
decisivamente o discurso jurisprudencial brasileiro, especialmente no Supremo
Tribunal Federal. Em especial, a recepção da teoria da ponderação de Robert
Alexy e da chamada jurisprudência dos valores consolidou, entre nós, uma
prática argumentativa marcada pela invocação frequente de princípios.
Inclusive, com lucidez, Carlos Ari Sundfeld já denominou esse fenômeno de a
“farra dos princípios”.
O STF
passou, então, a citar Robert Alexy e, ocasionalmente, Ronald Dworkin. Contudo,
raramente o fez de modo sistemático ou conceitualmente rigoroso. O resultado,
não poucas vezes, produziu algo que se poderia chamar de uma espécie de
criatura híbrida, uma monstruosidade Dworkin-Alexy desprovida de coerência
filosófica e teórica. Se houvesse leitura atenta até de poucas obras de Alexy,
perceberiam os ministros que ele jamais propôs um modelo universal de
ponderação aplicável indistintamente a qualquer ordem constitucional,
especialmente fora do contexto alemão que fundamenta sua teoria da ponderação.
Não
seria um ledo equívoco já começar a se perguntar se não seria este um momento
oportuno para exigirmos, de fato, justificativas teóricas consistentes –
evidências científicas, por assim dizer – daqueles que exercem o poder de
aplicar o Direito. Ora, se já há o risco de uma decisão brotar apenas da
“consciência” do juiz – do “decido X e não Y porque assim penso” –, então
talvez estejamos apenas mudando o rótulo do problema quando jogamos a questão
da decisão para uma Inteligência Artificial.
<><>
Direito e Inteligência Artificial é uma intercessão descompromissada?
Devemos
ter em mente que modelos de machine learning são, em essência, grandes modelos
estatísticos. Não pensam, não compreendem, não interpretam. Correlacionam
padrões a partir de um grande banco de dados tratado e gerenciado por humanos e
não humanos.
Com o
avanço dos modelos de linguagem de larga escala, o poder de processamento
tornou-se impressionante. A fluidez textual pode criar a impressão de
raciocínio autônomo. Mas, estruturalmente, a sofisticação não altera a natureza
fundamental do modelo.
Enquanto
isso, o Poder Judiciário brasileiro já opera com ferramentas de Inteligência
artificial desenvolvidas, inclusive, com apoio de universidades públicas. O
sistema Victor, no STF, o Sócrates, no STJ, e a Alice, no TCU, são exemplos
conhecidos. Contudo, ainda funcionam predominantemente como instrumentos
auxiliares – ferramentas de triagem, classificação e organização processual – e
não exatamente como decisores autônomos. Quer dizer, é essa distinção que
autores como Robert Buckland já ressaltaram ao tratar da relação entre
inteligência artificial, juízes e julgamento. A tecnologia pode e deve apoiar o
trabalho da juridicidade, mas não substitui o juízo humano.
O risco
que queremos demonstrar emerge quando a lógica estatística começa a moldar
silenciosamente o próprio conceito de decisão do ser humano julgador. Submeter
o julgador à lógica de metas e indicadores já era perigoso na época da
Resolução nº 76/2009, do Conselho Nacional de Justiça, onde o juiz deixa de ser
delegado da pólis para exercer um dever ético de julgamento responsável e passa
a operar como gestor de estoque processual. Instala-se o paradigma da
produtividade. Nesse paradigma, a decisão tende a ser avaliada menos por sua
qualidade argumentativa e mais por sua eficiência numérica.
Porém,
no plano institucional, o CNJ editou a Portaria nº 271/2020, incorporando
diretrizes da Estratégia Brasileira de Inteligência Artificial e alinhando-se
às recomendações da OCDE. O próprio art. 2º, parágrafo único, inciso III,
reconhece como projetos de Inteligência artificial aqueles destinados a “prover
soluções de apoio à decisão dos magistrados ou à elaboração de minutas de atos
judiciais em geral”. Trata-se, portanto, de reconhecimento positivado e
explícito de que tais sistemas integram o ambiente decisório no Brasil.
Ainda
assim, permanece intocada uma questão central: o ato de julgar, segundo a
própria lei posta, é atribuição privativa do magistrado humano (art. 203, do
CPC). A arquitetura normativa parte da premissa de que a jurisdição é exercício
humano de responsabilidade institucional.
Se a
Inteligência artificial atua como ferramenta auxiliar, preserva-se a
centralidade do juiz como responsável pela decisão. Contudo, se sua atuação se
torna determinante sem transparência adequada, corre-se o risco de deslocar,
silenciosamente, o lócus da decisão. E quando a decisão deixa de ser plenamente
atribuível a um sujeito responsável, a própria ideia de jurisdição, novamente,
como função ética delegada pela pólis, começa a se fragilizar.
A
resposta elaborada pela melhor doutrina tem sido a aposta na transparência e na
justificação pública frente aos sistemas de Inteligência artificial.
Transparência como exigência epistêmica e democrática. Significaria tornar
inteligível o processo decisório, inclusive quando mediado por sistemas
algorítmicos. Permitir que as partes compreendam não apenas o resultado, mas o
caminho argumentativo que conduziu a ele.
Em
termos práticos, se a Inteligência artificial participa da elaboração de
minutas, sugestões, trechos decisórios, triagens processuais, tais
circunstâncias devem ser expressamente indicada no corpo do ato processual. O
que não se pode admitir é a invisibilidade algorítmica no interior do ato
jurisdicional.
Mas
mesmo com todas as medidas de mitigação de riscos – transparência,
explicabilidade, auditoria, compliance e governança de dados – permanece a
questão essencial: quem decide por último?
Se o
magistrado apenas homologa sugestões algorítmicas sem controle crítico efetivo,
a decisão continua sendo dele apenas nominalmente. A assinatura pode ser
humana, mas o núcleo racional pode ter sido deslocado. A responsabilidade
permanece formalmente atribuída ao juiz, mas a determinação concreta do sentido
pode estar condicionada por padrões estatísticos que ele próprio não domina
integralmente.
<><>
Nunca é demais indagar: quem pagará a conta?
Nossa
preocupação é que o direito brasileiro tende a dialogar com ferramentas de
Inteligência artificial sem antes resolver suas próprias fragilidades teóricas.
Não temos uma matriz teórica, filosófica e prática consolidada nos tribunais
brasileiros. O ensino jurídico continua descompromissado com a própria
filosofia que lhe daria sustentação crítica.
Distanciamo-nos
da chamada virada hermenêutica, do giro ontológico proposto por Martin
Heidegger, com sua noção de diferença ontológica, e da hermenêutica filosófica
de Hans-Georg Gadamer, para quem a linguagem não é instrumento neutro, mas o
próprio meio no qual se dá a compreensão.
A
hermenêutica filosófica demonstra que todo ato de compreensão é atravessado por
pré-compreensões. O intérprete não se aproxima do texto como uma folha em
branco, mas já está situado em um mundo de significados, expectativas,
linguagem, valores e categorias que moldam sua percepção. Não há ponto zero da
interpretação. Toda leitura é situada.
O
direito, numa visão mais radicalizada, seria, por definição, apenas uma
atualização do sentido normativo. Cada decisão reabre o texto e o reinsere no
fluxo da história.
O
chamado sensus communis também merece ser elencado. Em Hans-Georg Gadamer, ele
representa aquele horizonte compartilhado de significados sedimentados na
tradição, aquilo que torna possível que uma comunidade jurídica reconheça
argumentos como plausíveis ou inaceitáveis. É dizer que o juiz decide dentro de
um mundo comum de referências históricas, culturais e institucionais. Sua
decisão é inteligível porque participa desse tecido simbólico coletivo.
O
problema é que o jurista médio raramente enxerga essa condição. Ainda operamos
sob o paradigma da filosofia da consciência: a ideia de que o sujeito
cognoscente, isolado, pode apreender o objeto jurídico de maneira neutra, quase
como quem observa algo externo a si. A decisão continua sendo apresentada como
produto de uma vontade racional que aplica normas previamente dadas a fatos
previamente descritos.
É
verdade que uma parte desse processo, a identificação de padrões no Judiciário,
a comparação de precedentes, a sistematização de entendimentos reiterados, pode
ser automatizada com relativa facilidade, desde que haja investimento, dados
estruturados e capacidade computacional que, como é de praxe das contratações
públicas brasileiras, com certeza será internalizado a um grupo econômico
estrangeiro.
Passamos,
então, a enfrentar questões de soberania digital, governança de dados e
dependência tecnológica. Quando o processamento das informações judiciais,
ainda que anonimizado, ocorre em data centers administrados por corporações
globais, insere-se o Poder Judiciário em cadeias transnacionais de
infraestrutura sobre as quais ele não exerce controle integral. O problema
deixaria, então, de ser apenas jurídico e tornar-se-ia geopolítico.
Fato é
que se não enfrentarmos essa escolha de maneira franca, corremos o risco de
substituir a antiga ilusão da neutralidade do juiz pela nova ilusão da
neutralidade do algoritmo. E, nesse movimento, talvez percamos aquilo que ainda
sustenta a legitimidade da jurisdição: a possibilidade de justificar,
publicamente e com responsabilidade, por que se decidiu como se decidiu.
Fonte:
Por Gabriel Carnaval Rosa, em A Terra é Redonda

Nenhum comentário:
Postar um comentário