Quando
a violência vira algoritmo
O conflito recente entre o aparato de
segurança dos Estados Unidos e empresas de inteligência artificial não foi um
ruído passageiro nem um detalhe técnico do debate sobre governança digital. Ele
funcionou como uma fenda no discurso público cuidadosamente construído em torno
da inteligência artificial. Pela primeira vez de forma explícita, tornou-se
visível uma disputa central do nosso tempo: quem controla a decisão violenta
quando ela deixa de ser formulada no campo político e passa a ser
operacionalizada por sistemas técnicos.
No final de janeiro de 2026, veio a público um
impasse direto entre o Departamento de Defesa dos Estados Unidos e a empresa de
inteligência artificial Anthropic. O ponto de fricção não foi desempenho
técnico, cronograma ou orçamento. Foi a recusa do Pentágono em aceitar
restrições operacionais impostas pela empresa ao uso de seus modelos em
atividades de segurança nacional, incluindo vigilância e aplicações militares
sensíveis. Em termos simples, o Estado norte-americano deixou claro que não
reconhece limites privados quando se trata de empregar inteligência artificial
como instrumento de poder.
A polêmica foi rapidamente enquadrada, em
parte da imprensa, como um debate sobre governança da IA ou responsabilidade
corporativa. Essa leitura é insuficiente. O conflito revelou algo muito mais
estrutural: a disputa sobre quem controla a decisão violenta quando ela deixa
de ser formulada no campo político visível e passa a ser operacionalizada por
sistemas técnicos. Ao afirmar que práticas consideradas legais no ordenamento
doméstico não podem ser constrangidas por políticas internas de empresas, o
Department of Defense sinalizou que a inteligência artificial deve ser
integrada às engrenagens do Estado como extensão direta do monopólio da força.
Esse episódio não é um detalhe setorial nem
uma querela circunstancial entre governo e mercado. Ele funciona como uma
janela privilegiada para compreender uma transformação histórica em curso. A
inteligência artificial não está sendo incorporada à segurança como ferramenta
auxiliar, mas como infraestrutura decisória. Vigilância, classificação de
riscos, priorização de alvos e definição de respostas passam a operar como
processos contínuos, mediados por sistemas opacos, protegidos por legalidades
domésticas e blindados por linguagem técnica. A violência deixa de aparecer
como exceção e passa a funcionar como rotina administrada.
A partir desse ponto, o debate deixa de ser
sobre ética abstrata e passa a ser sobre poder concreto. Quando a coerção é
convertida em procedimento algorítmico, ela se apresenta como consequência
lógica de dados, modelos e probabilidades, não como escolha política
deliberada. A narrativa da neutralidade tecnológica colapsa. Sistemas treinados
para prever comportamentos e reduzir incertezas não surgem em um vazio social.
Eles são produzidos em um estágio avançado do capitalismo, marcado pela
centralização de dados e pela fusão entre Estado, indústria tecnológica e
complexo militar. A inteligência artificial não é capturada pelo poder. Ela
nasce dentro dele.
O que
se consolida, a partir daí, é uma forma superior de coerção. A decisão violenta
deixa de ocorrer em momentos identificáveis de deliberação pública e passa a
ser distribuída ao longo de cadeias técnicas que diluem responsabilidade e
dificultam a contestação. O operador valida, o sistema recomenda, a ação
acontece. O conflito perde sua forma política reconhecível e passa a ser
tratado como problema de gestão. É nesse deslocamento que a violência deixa de
se anunciar como exceção e passa a operar como algoritmo.
A inteligência artificial não está sendo
incorporada às estruturas de segurança como ferramenta auxiliar ou inovação
incremental. Ela está sendo integrada como infraestrutura estratégica da
decisão. Vigilância, classificação de riscos, priorização de alvos,
monitoramento de populações e definição de respostas passam a operar como
processos contínuos, mediados por sistemas opacos, protegidos por legalidades
domésticas e blindados por linguagem técnica. A violência deixa de aparecer
como exceção e passa a funcionar como rotina administrada.
Essa mudança representa uma inflexão histórica
profunda. Durante séculos, a violência de Estado precisou se apresentar como
escolha política visível. Mesmo quando brutal, ela exigia justificativa
pública, narrativa legitimadora e delimitação temporal. A inteligência
artificial rompe esse padrão. Quando a coerção é convertida em processo
algorítmico, ela se apresenta como consequência lógica de dados, modelos e
probabilidades. O ato político desaparece atrás do procedimento técnico.
A narrativa da neutralidade tecnológica sempre
serviu como cobertura ideológica para esse movimento. No caso da inteligência
artificial, ela se torna insustentável. Sistemas treinados para prever
comportamentos, detectar padrões e reduzir incertezas não surgem em um vazio
social. Eles são produzidos em um estágio avançado do capitalismo, marcado por
centralização de dados, financeirização extrema e fusão entre Estado, indústria
tecnológica e complexo militar. A inteligência artificial não é capturada pelo poder.
Ela nasce dentro dele.
O que
se consolida é uma forma superior de coerção, que pode ser descrita como
violência algorítmica. Não se trata da eliminação do humano do processo
decisório, mas de sua reorganização. A decisão violenta deixa de ocorrer em
momentos identificáveis de deliberação política e passa a ser distribuída ao
longo de cadeias técnicas. O operador valida, o sistema recomenda, a ação
acontece. A responsabilidade se dilui sem desaparecer. O conflito perde sua
forma política reconhecível e passa a ser tratado como problema de gestão.
Essa lógica não se limita ao campo de batalha.
A fronteira entre guerra externa e controle interno se dissolve de maneira
silenciosa. Tecnologias concebidas para ambientes hostis passam a operar no
cotidiano das sociedades, convertendo mobilizações políticas em variáveis de
risco, dissenso em anomalia e participação em indicador a ser monitorado. A
coerção não precisa mais se manifestar de forma espetacular para produzir
efeitos profundos. Ela se torna permanente, antecipatória e difusa.
No
plano informacional, essa transformação atinge seu grau mais sofisticado. A
inteligência artificial permite mapear fluxos discursivos, modular visibilidade
e interferir na formação do sentido coletivo em escala industrial. A violência
assume uma forma não letal, mas não menos eficaz. Ela fragmenta, confunde e
desgasta. Ao controlar a percepção, controla-se o conflito. A guerra não
desaparece. Ela se desloca para o campo cognitivo, onde seus efeitos são mais
difíceis de identificar e mais lentos de reverter.
Estados que disputam hegemonia compreenderam
rapidamente o valor estratégico dessa arquitetura. Estados Unidos e Israel não
devem ser analisados como exceções morais ou desvios autoritários, mas como
vanguarda operacional de um modelo emergente. Ambos operam sob lógica de
conflito permanente e integraram a inteligência artificial às cadeias de
segurança como resposta racional a guerras assimétricas, instabilidade regional
e pressão política constante. A técnica permite reduzir custos políticos,
acelerar decisões e manter coerção contínua sem necessidade de confrontos
declarados.
Esse
modelo não permanece restrito a esses Estados. Ele é exportado. Não apenas na
forma de equipamentos ou softwares, mas como doutrina. Sistemas de vigilância,
análise preditiva e controle informacional são apresentados como soluções
neutras de modernização. O que se importa junto com a tecnologia é uma lógica
de governo baseada na antecipação do conflito, na normalização da exceção e na
centralização técnica da decisão violenta. A soberania formal se preserva. A
soberania real se estreita.
Para que essa arquitetura se sustente, é
necessário um discurso legitimador. Esse discurso atende pelo nome de ética.
Não uma ética que interrompe ou questiona a finalidade da violência, mas uma
ética que a organiza. Protocolos, guardrails, comitês e relatórios funcionam
como tecnologias de gestão do risco político e reputacional. A violência não é
posta em questão em seu núcleo. Ela é apenas regulada em sua forma. O debate
desloca-se da legitimidade para a conformidade.
O
resultado é uma violência eficiente, contínua e silenciosa. Quando decisões
fundamentais são encapsuladas na técnica, a política perde centralidade. Não
por censura direta, mas por deslocamento estrutural. A coerção aparece como
procedimento, o conflito como falha de sistema, a contestação como ruído. A
democracia não é abolida. Ela é progressivamente esvaziada.
A
questão decisiva do nosso tempo não é se a inteligência artificial pode ser
usada para a violência. Ela já está sendo usada. A questão central é quem
decide, como decide e sob quais limites, quando a decisão deixa de ser pública
e passa a ser algorítmica. Enquanto essas escolhas permanecerem ocultas sob a
aparência de eficiência técnica, a violência seguirá seu curso mais eficaz,
administrada, contínua e politicamente invisível.
Este texto apresenta apenas o eixo central
dessa transformação histórica. A análise completa, com o encadeamento
estrutural, os mecanismos técnicos e as implicações para soberania, democracia
e guerra no século XXI, está desenvolvida no ensaio integral publicado em
codigoaberto.net. Ler o texto completo não é aprofundamento opcional. É
condição para compreender o poder que já está em operação.
Fonte:
Por Reynaldo José Aragon Gonçalves, em Brasil 247

Nenhum comentário:
Postar um comentário