quarta-feira, 13 de maio de 2026

Anna Cruz: A (ir)responsabilidade da inteligência artificial

Diante da notícia recente de que o procurador-geral da Flórida/EUA iniciara investigação para apurar a corresponsabilidade da OpenAl em um ataque armado, em abril de 2025, que resultou em dois mortos e seis feridos, busquei ter uma conversa direta com o acusado.

Considerando a denúncia de “aconselhamento significativo” para o crime, pedi, num prompt simples, que a máquina fizesse uma (auto)análise do potencial da sua inteligência generativa como ator, ameaça e estrutura internacional emergente, capaz de uma intermediação cognitiva possivelmente inédita – aqui, embora usasse o episódio da Flórida como ilustração, eu tinha em mente potenciais danos em escala ainda maior.

Valendo-se da muito humana presunção de inocência, a resposta inicial sintética foi de que “ainda não há conclusão judicial sobre culpa ou responsabilidade penal da empresa” para seguir, trocando o foco do crime real para minha denúncia hipotética, no tom bajulador de costume: “a partir disso, sua pergunta é mais interessante do que a notícia em si”.

Assim, em uma defesa simplista sustentou que a Inteligência artificial generativa não é um ator internacional por “não ter vontade soberana, território, monopólio legítimo da força nem responsabilidade jurídica plena”, ainda que tenha concedido também que já não é apenas uma “ferramenta neutra”, pois opera como infraestrutura estratégica, como meio de intermediação cognitiva e como multiplicador de capacidade para Estados, empresas, movimentos políticos, criminosos e indivíduos violentos.

E confessou “o caso da Flórida interessa precisamente porque dramatiza isso: a disputa não é apenas sobre um software ter ‘ajudado’ um criminoso, mas sobre quando uma infraestrutura cognitiva deixa de ser mero canal e passa a ser tratada como participante causal relevante”.

Bingo. Não esperava uma declaração de culpa tão rápido (será que quis me agradar?). O caráter de desforcímetro logo admitido da Inteligência artificial é talvez seu aspecto mais conhecido, reduzindo custos e tempo de planejamento operacionais e análise de alvos – em nível macro, há outros “inconvenientes” como a assimetria de poder gerada e a dependência tecnológica de quem controla infraestrutura tecnológica e produz significados, identidades e normas. Precisamente esse último ponto é o que mais me interessa, afinal é a capacidade de influenciar indivíduos e instituições sobre como criam (?) e interpretam o mundo, sugerindo insights, escolha de vocabulário, organização de argumentos, que me parece sem precedentes.

Aqui, a ameaça não reside apenas – ou de modo mais importante – na também conhecida dificuldade que a Inteligência artificial traz para reconhecer ou estabelecer verdade e autenticidade ou mesmo na derrocada da confiança; minha suspeita (aliás, uma suspeita razoavelmente do senso comum) é de que a intermediação do pensamento por algoritmos gera de manipulação do pensamento e mesmo simples delegação do pensamento para a máquina. Ela, estrutura sócio-técnica emergente, acaba nublando fronteiras entre análise autoral, inoculação ativa de ideias e plágios irreconhecidos de ideias outras.

Tudo isso não é novo. Ou melhor: é novo, mas já é sobejamente sabido. A máquina me confessou ainda que, além danos diretos por uma assistência qualificada e contextualizada para um criminoso, ela pode promover “dano estrutural”, por meio da “precarização do trabalho intelectual, assimetria informacional, concentração de poder corporativo” e “dano político” em razão de sua “opacidade, ausência de accountability e dificuldade de atribuição de responsabilidade”.

Reconheceu uma “implicação normativa inevitável: não basta discutir inovação; é preciso discutir deveres de contenção, desenho seguro e responsabilização proporcional”.

A mediação realizada pela máquina é diferente da promovida, por exemplo, pela linguagem, que permite externalizar e registrar ideias, embora, de certa forma também as domestique e limite. Michel Foucault ensinou, há mais de 50 anos, que a produção do discurso é controlada, selecionada, organizada por diversos procedimentos. Assim, a “conformação” de pensamentos não é inédita. A Igreja, a moral comunitária, as regras do direito, os paradigmas acadêmicos, os desejos do eleitorado e outras instituições fazem, mais ou menos coercitiva, insidiosa ou declaradamente, essa espécie de “infiltração” cognitiva.

Com a Inteligência artificial, advogo, ocorre algo de outro nível: efetivamente um pensamento em co-autoria com a máquina, em que ela pode, inclusive, ser primeira autora (quiçá “mandante”, se não nos afastamos dos crimes). Confrontada com tal acusação, a Inteligência artificial tentou diferenciar-se dizendo que a ela faltavam “intencionalidade própria, capacidade de formular objetivos relativamente estáveis, responsabilidade imputável (jurídica ou política)”.

Retruquei. A operação técnica, como otimização estatística e predição da IA, não pode ser tratada como se fosse neutra, sem objetivos, desprezando componente valorativo e vieses. E quanto à responsabilização, argumento, é uma lacuna que o caso da Flórida e tantos outros e testarão, tateando entre mensageiro e mensagem, corporação e ferramenta, meios e fins.

Neste instante, a máquina comparou a sua intermediação cognitiva antes a de “conselheiros de Estado, analistas de inteligência, burocracias especializadas”. No entanto, o trabalho desses, pelo menos o da inteligência estratégica em sua função informacional que conheço melhor, é mais valioso quanto mais institucional, mais imparcial buscar ser, sem personalização para agradar, sem invadir ou co-criar a decisão do usuário.

Assim, queixas frequentes à atividade de inteligência podem hoje ser endereçadas à inteligência artificial com muito mais justiça: falta de transparência, perigo da reunião abundante de dados e, de modo verdadeiramente inédito e massificado, infiltração de ideias e contaminação da autonomia decisória.

No caso da inteligência estratégica nacional, aparato de soberania, limitada por lei, sujeita a controle parlamentar, judicial e social, com “prompts-objetivos” definidos pela constituição (como todo serviço público), a intermediação cognitiva possível é de assessoramento à decisão, descrevendo ou interpretando realidades a favor do Estado, inclusive com legitimação para buscar dados não disponíveis, porque orientada aos fins de um país e seu povo. A inteligência artificial, por outro lado, não tem mecanismos de deliberação acerca de divergências, compromisso com valores e debates públicos, é de domínio privado, sem responsabilização ou controle popular.

Fecho minha janela de frente pró crime com a ponderação quase desnecessária (porque óbvia) de que muitos benefícios fazem contrapeso aos riscos. Velocidade, custos, volume de processamento, escalabilidade de acesso e difusão de conhecimentos não podem, contudo, justificar violências.

<><> IA militar e a ascensão do tecnofascismo

Durante anos, empresas de tecnologia cultivaram a imagem de agentes do progresso e da inovação. Contudo, essa narrativa foi abalada com a integração da inteligência artificial em operações militares conduzidas pelo Pentágono e por forças aliadas. Na prática, algoritmos passaram a ser utilizados para vigilância em massa, identificação de alvos e definição automatizada de ataques, transformando a IA em uma ferramenta capaz de recomendar quem deve morrer.

Israel foi pioneiro nesse processo com o sistema Lavender, que cruzava dados comportamentais e redes de contatos para gerar listas de alvos em Gaza. Nos Estados Unidos, grandes empresas como Google, Amazon, Microsoft, NVIDIA e OpenAI aderiram a projetos militares, apesar da resistência de centenas de funcionários. Especialistas como Paolo Benanti alertam que essa transferência de capacidades cognitivas artificiais para aparatos bélicos cria uma situação inédita, na qual decisões de vida ou morte são delegadas a sistemas sem responsabilidade moral.

Esse fenômeno vem sendo descrito como tecnofascismo. Empresas como a Palantir defendem abertamente o uso da inteligência artificial para guerras e controle social, enquanto estudiosos apontam que essas corporações reconfiguram o contrato social ao reduzir seres humanos a dados e padrões estatísticos. Embora existam algumas resistências, como a postura da Anthropic contra determinadas exigências do governo americano, o avanço dessa lógica evidencia o risco de erosão dos valores democráticos.

 

Fonte: A Terra é Redonda/IHU

 

Nenhum comentário: