Anna
Cruz: A (ir)responsabilidade da inteligência artificial
Diante
da notícia recente de que o procurador-geral da Flórida/EUA iniciara
investigação para apurar a corresponsabilidade da OpenAl em um ataque armado,
em abril de 2025, que resultou em dois mortos e seis feridos, busquei ter uma
conversa direta com o acusado.
Considerando
a denúncia de “aconselhamento significativo” para o crime, pedi, num prompt
simples, que a máquina fizesse uma (auto)análise do potencial da sua
inteligência generativa como ator, ameaça e estrutura internacional emergente,
capaz de uma intermediação cognitiva possivelmente inédita – aqui, embora
usasse o episódio da Flórida como ilustração, eu tinha em mente potenciais
danos em escala ainda maior.
Valendo-se
da muito humana presunção de inocência, a resposta inicial sintética foi de que
“ainda não há conclusão judicial sobre culpa ou responsabilidade penal da
empresa” para seguir, trocando o foco do crime real para minha denúncia
hipotética, no tom bajulador de costume: “a partir disso, sua pergunta é mais
interessante do que a notícia em si”.
Assim,
em uma defesa simplista sustentou que a Inteligência artificial generativa não
é um ator internacional por “não ter vontade soberana, território, monopólio
legítimo da força nem responsabilidade jurídica plena”, ainda que tenha
concedido também que já não é apenas uma “ferramenta neutra”, pois opera como
infraestrutura estratégica, como meio de intermediação cognitiva e como
multiplicador de capacidade para Estados, empresas, movimentos políticos,
criminosos e indivíduos violentos.
E
confessou “o caso da Flórida interessa precisamente porque dramatiza isso: a
disputa não é apenas sobre um software ter ‘ajudado’ um criminoso, mas sobre
quando uma infraestrutura cognitiva deixa de ser mero canal e passa a ser
tratada como participante causal relevante”.
Bingo.
Não esperava uma declaração de culpa tão rápido (será que quis me agradar?). O
caráter de desforcímetro logo admitido da Inteligência artificial é talvez seu
aspecto mais conhecido, reduzindo custos e tempo de planejamento operacionais e
análise de alvos – em nível macro, há outros “inconvenientes” como a assimetria
de poder gerada e a dependência tecnológica de quem controla infraestrutura
tecnológica e produz significados, identidades e normas. Precisamente esse
último ponto é o que mais me interessa, afinal é a capacidade de influenciar
indivíduos e instituições sobre como criam (?) e interpretam o mundo, sugerindo
insights, escolha de vocabulário, organização de argumentos, que me parece sem
precedentes.
Aqui, a
ameaça não reside apenas – ou de modo mais importante – na também conhecida
dificuldade que a Inteligência artificial traz para reconhecer ou estabelecer
verdade e autenticidade ou mesmo na derrocada da confiança; minha suspeita
(aliás, uma suspeita razoavelmente do senso comum) é de que a intermediação do
pensamento por algoritmos gera de manipulação do pensamento e mesmo simples
delegação do pensamento para a máquina. Ela, estrutura sócio-técnica emergente,
acaba nublando fronteiras entre análise autoral, inoculação ativa de ideias e
plágios irreconhecidos de ideias outras.
Tudo
isso não é novo. Ou melhor: é novo, mas já é sobejamente sabido. A máquina me
confessou ainda que, além danos diretos por uma assistência qualificada e
contextualizada para um criminoso, ela pode promover “dano estrutural”, por
meio da “precarização do trabalho intelectual, assimetria informacional,
concentração de poder corporativo” e “dano político” em razão de sua
“opacidade, ausência de accountability e dificuldade de atribuição de
responsabilidade”.
Reconheceu
uma “implicação normativa inevitável: não basta discutir inovação; é preciso
discutir deveres de contenção, desenho seguro e responsabilização
proporcional”.
A
mediação realizada pela máquina é diferente da promovida, por exemplo, pela
linguagem, que permite externalizar e registrar ideias, embora, de certa forma
também as domestique e limite. Michel Foucault ensinou, há mais de 50 anos, que
a produção do discurso é controlada, selecionada, organizada por diversos
procedimentos. Assim, a “conformação” de pensamentos não é inédita. A Igreja, a
moral comunitária, as regras do direito, os paradigmas acadêmicos, os desejos
do eleitorado e outras instituições fazem, mais ou menos coercitiva, insidiosa
ou declaradamente, essa espécie de “infiltração” cognitiva.
Com a
Inteligência artificial, advogo, ocorre algo de outro nível: efetivamente um
pensamento em co-autoria com a máquina, em que ela pode, inclusive, ser
primeira autora (quiçá “mandante”, se não nos afastamos dos crimes).
Confrontada com tal acusação, a Inteligência artificial tentou diferenciar-se
dizendo que a ela faltavam “intencionalidade própria, capacidade de formular
objetivos relativamente estáveis, responsabilidade imputável (jurídica ou
política)”.
Retruquei.
A operação técnica, como otimização estatística e predição da IA, não pode ser
tratada como se fosse neutra, sem objetivos, desprezando componente valorativo
e vieses. E quanto à responsabilização, argumento, é uma lacuna que o caso da
Flórida e tantos outros e testarão, tateando entre mensageiro e mensagem,
corporação e ferramenta, meios e fins.
Neste
instante, a máquina comparou a sua intermediação cognitiva antes a de
“conselheiros de Estado, analistas de inteligência, burocracias
especializadas”. No entanto, o trabalho desses, pelo menos o da inteligência
estratégica em sua função informacional que conheço melhor, é mais valioso
quanto mais institucional, mais imparcial buscar ser, sem personalização para
agradar, sem invadir ou co-criar a decisão do usuário.
Assim,
queixas frequentes à atividade de inteligência podem hoje ser endereçadas à
inteligência artificial com muito mais justiça: falta de transparência, perigo
da reunião abundante de dados e, de modo verdadeiramente inédito e massificado,
infiltração de ideias e contaminação da autonomia decisória.
No caso
da inteligência estratégica nacional, aparato de soberania, limitada por lei,
sujeita a controle parlamentar, judicial e social, com “prompts-objetivos”
definidos pela constituição (como todo serviço público), a intermediação
cognitiva possível é de assessoramento à decisão, descrevendo ou interpretando
realidades a favor do Estado, inclusive com legitimação para buscar dados não
disponíveis, porque orientada aos fins de um país e seu povo. A inteligência
artificial, por outro lado, não tem mecanismos de deliberação acerca de
divergências, compromisso com valores e debates públicos, é de domínio privado,
sem responsabilização ou controle popular.
Fecho
minha janela de frente pró crime com a ponderação quase desnecessária (porque
óbvia) de que muitos benefícios fazem contrapeso aos riscos. Velocidade,
custos, volume de processamento, escalabilidade de acesso e difusão de
conhecimentos não podem, contudo, justificar violências.
<><>
IA militar e a ascensão do tecnofascismo
Durante
anos, empresas de tecnologia cultivaram a imagem de agentes do progresso e da
inovação. Contudo, essa narrativa foi abalada com a integração da inteligência
artificial em operações militares conduzidas pelo Pentágono e por forças
aliadas. Na prática, algoritmos passaram a ser utilizados para vigilância em
massa, identificação de alvos e definição automatizada de ataques,
transformando a IA em uma ferramenta capaz de recomendar quem deve morrer.
Israel
foi pioneiro nesse processo com o sistema Lavender, que cruzava dados
comportamentais e redes de contatos para gerar listas de alvos em Gaza. Nos
Estados Unidos, grandes empresas como Google, Amazon, Microsoft, NVIDIA e
OpenAI aderiram a projetos militares, apesar da resistência de centenas de
funcionários. Especialistas como Paolo Benanti alertam que essa transferência
de capacidades cognitivas artificiais para aparatos bélicos cria uma situação
inédita, na qual decisões de vida ou morte são delegadas a sistemas sem
responsabilidade moral.
Esse
fenômeno vem sendo descrito como tecnofascismo. Empresas como a Palantir
defendem abertamente o uso da inteligência artificial para guerras e controle
social, enquanto estudiosos apontam que essas corporações reconfiguram o
contrato social ao reduzir seres humanos a dados e padrões estatísticos. Embora
existam algumas resistências, como a postura da Anthropic contra determinadas
exigências do governo americano, o avanço dessa lógica evidencia o risco de
erosão dos valores democráticos.
Fonte:
A Terra é Redonda/IHU

Nenhum comentário:
Postar um comentário