sexta-feira, 31 de março de 2023

O problema com a IA é o mesmo com o capitalismo

"As novas tecnologias estão sendo desenvolvidas por corporações privadas que não têm nenhum incentivo para garantir que um benefício para elas seja um benefício para todos".

<<< Eis o artigo.

Ultimamente, tenho experimentado programas de geração de imagens de inteligência artificial. O poder deles é surpreendente. Eles não são apenas bons no aspecto técnico da criação de “arte”, mas parecem ser genuinamente criativos, produzindo trabalhos que não apenas correspondem à competência de um artista altamente qualificado, mas também podem ser surpreendentes, interessantes e até bonitos.

Claro, tudo ainda depende do humano que está entrando no prompt para dizer à IA o que fazer, mas ninguém que veja essas coisas em ação pode duvidar de que estamos entrando em uma nova era muito estranha, na qual muito do que poderia ser feito manualmente logo será automatizado.

Muitos artistas estão revoltados com os novos programas de IA — e com razão. Alguns estão furiosos porque seus trabalhos foram usados como dados de treinamento sem sua permissão. Outros temem que os clientes corporativos simplesmente recorram às máquinas para fazer o trabalho que costumava ser feito por mãos humanas.

A inteligência artificial está fazendo com que o custo da geração de imagens despenque. Em uma economia capitalista, onde todos dependem para sobreviver do valor de seu trabalho no mercado, uma queda maciça no valor de uma habilidade causará sofrimento generalizado.

A arte está longe de ser o único domínio prestes a ser transformado pela IA generativa. Advogados, programadores, pesquisadores de mercado, agentes de atendimento ao cliente, analistas financeiros e muitas outras profissões correm o risco de ver grande parte de seu trabalho automatizado em um futuro próximo.

O extremamente bem-sucedido ChatGPT da OpenAI não apenas escreve piadas ruins e poesia um pouco melhor que um ser humano, mas também ajuda a escrever trabalhos de pesquisa publicados em prestigiadas revistas científicas. Os modelos também estão ficando melhores. O recém-lançado GPT-4 já está sendo usado para escrever livros inteiros.

Os poderes desta nova tecnologia são assustadores. Os golpistas já estão usando a capacidade de gerar “deepfakes” realistas para enganar as pessoas e fazê-las pensar que seus parentes estão pedindo dinheiro. A desinformação de aparência confiável agora pode ser produzida na velocidade da luz, um desenvolvimento especialmente infeliz em um momento em que não temos instituições de mídia confiáveis.

“O problema é que a nova IA generativa está sendo introduzida em uma sociedade capitalista mal equipada para lidar com isso.”

Embora Noam Chomsky, Gary Marcus, Erik J. Larson e outros tenham apresentado argumentos convincentes de que o medo de uma “superinteligência” artificial chegando no curto prazo é exagerado, existem todos os tipos de maneiras pelas quais a tecnologia, como já existe, pode causar estragos na sociedade.

As pessoas estão certas em ficar apavoradas com as interrupções que a IA pode causar em nossas vidas, mas quando pensamos sobre o que realmente são essas disrupções, fica claro que o principal problema não é o desenvolvimento da tecnologia em si. Introduzido sob um sistema econômico e político diferente, poucos dos riscos seriam tão graves.

Os artistas, por exemplo, geralmente não têm medo da IA porque temem que uma máquina seja melhor na arte. Os enxadristas não pararam de jogar xadrez quando o programa de computador Deep Blue derrotou o grande mestre Garry Kasparov. E se a arte é feita para prazer e auto-expressão, não importa o que os outros possam fazer.

O problema é que, no nosso mundo, os artistas têm que viver da sua arte vendendo-a, e por isso têm que pensar no seu valor de mercado. Estamos introduzindo uma tecnologia que pode destruir completamente o sustento das pessoas e, em um sistema econômico de livre mercado, se suas habilidades diminuírem de valor, você está ferrado.

É interessante falarmos sobre empregos “em risco” de serem automatizados. Sob um sistema econômico socialista, automatizar muitos empregos seria uma coisa boa: outro passo no caminho para um mundo onde os robôs fazem o trabalho duro e todos desfrutam da abundância. Deveríamos ficar entusiasmados se os documentos legais pudessem ser escritos por um computador.

Quem quer passar o dia todo escrevendo contratos? Não podemos ficar entusiasmados com isso, porque vivemos sob o capitalismo e sabemos que, se o trabalho paralegal for automatizado, mais de trezentas mil pessoas enfrentarão a perspectiva de tentar encontrar trabalho sabendo que seus anos de experiência e treinamento são economicamente inúteis.

O ludismo é uma abordagem racional da automação em uma sociedade capitalista. Se as máquinas ameaçarem seu trabalho, lute contra as máquinas. Mesmo um reacionário como Tucker Carlson disse que os políticos deveriam intervir para acabar com a automação, por exemplo, proibindo caminhões autônomos, porque ter milhões de pessoas desempregadas causaria muita perturbação social.

Essa solução é absurda: por que teríamos pessoas fazendo trabalho desnecessário que poderia ser feito por robôs? Os caminhoneiros têm a saúde prejudicada e não conseguem ver suas famílias por longos períodos. Mesmo quando uma máquina pode fazer o trabalho duro, vamos obrigar as pessoas a fazê-lo?

Podemos expandir nossa imaginação muito além da de Carlson. E se descobrir que seu trabalho pode ser automatizado fosse emocionante? E se isso significasse que um trabalhador poderia ser pago enquanto o robô fazia o trabalho?

Que tal isso: uma vez que o trabalho para o qual você treina é automatizado, você recebe uma pensão de automação e pode relaxar pelo resto de sua vida. Todos estarão rezando para que seu trabalho seja o próximo da lista. Ou pense em um cenário em que seu trabalho é automatizado, você recebe uma pensão de automação e pode relaxar pelo resto de sua vida. Todos estarão rezando para que seu trabalho seja o próximo.

Não devemos temer a IA. Francamente, eu adoraria se uma máquina pudesse editar artigos de revistas para mim e eu pudesse sentar na praia, mas tenho medo disso, porque ganho a vida editando artigos de revista e preciso manter um teto sobre minha cabeça.

Se alguém pudesse fazer e vender uma revista rival igualmente boa quase de graça, eu seria incapaz de me sustentar com o que faço. O mesmo se aplica a todos os que trabalham para viver no atual sistema econômico. Eles devem ficar apavorados com a automação, porque o valor do trabalho é muito importante, e grandes flutuações em seu valor colocam em perigo todas as esperanças e sonhos de alguém.

A maioria dos outros problemas que a IA poderia causar realmente se resume a problemas de como o poder e a riqueza são distribuídos em nossa sociedade existente. Como o mundo está organizado em estados-nação militarizados, temos que nos preocupar que a tecnologia de IA seja usada em novas super-armas aterrorizantes.

Como permitimos que golpes e fraudes florescessem em nossa economia do Velho Oeste, veremos muitas pessoas ficarem ricas usando IA para atacar consumidores infelizes. A motivação do lucro já é socialmente destrutiva, mas a IA tornará isso muito pior, porque permitirá que as empresas descubram como enganar e explorar as pessoas com mais eficiência.

As novas tecnologias estão sendo desenvolvidas por corporações privadas que não têm nenhum incentivo para garantir que um benefício para elas seja um benefício para todos.

Precisamos ser claros sobre a origem dos problemas com a IA. Eles são reais e vão acelerar a crise que os socialistas se dedicam a ajudar a humanidade a resolver, mas o problema não é a tecnologia em si. A tecnologia deve ser uma ferramenta de libertação. A menos que transformemos o sistema econômico, no entanto, ele será uma ferramenta para uma exploração e predação sucessivas.

 

       Chapação maquínica, alucinação estatística: pensar como o ChatGPT

 

"A rigor, a IA não pensa nem explica. O que ela faz, então? No interior de uma densa nuvem estatística de correlações e palavras, ela procede por indução, ela induz. E, mal de todos os males, tampouco é capaz de inteligência moral — daí exprimir a banalidade do mal, definida precisamente por essa incapacidade moral. Eis o que, para chegarmos ao ponto cinco, escanteia o ChatGPT para o exterior da humanidade. Para onde? Para a condição de uma inteligência pré-humana, não-humana, e sem condições de evoluir no sentido humano, que dirá de ultrapassá-la".

O artigo é de Murilo D. C. Corrêa, professor associado de Teoria Política na Universidade Estadual de Ponta Grossa (UEPG), doutor (USP) e mestre (UFSC) em Filosofia e Teoria do Direito, em artigo publicado por UniNômade, 23-03-2023.

<<< Eis o artigo.

“Chapação. Droga. Será que se trata de uma mera analogia?” – Félix Guattari

Em A falsa promessa do ChatGPT, que apareceu traduzido na Folha de S.Paulo, o linguista e libertário estadunidense Noam Chomsky aproveitou a recente e meteórica celebridade do Chat GPT – um LLM (Large Language Model) – para alavancar a sua crítica geral contra a IA.

No afã de denunciar as suas limitações, diferenças e perigos quando comparado ao raciocínio, à capacidade e ao uso humanos da linguagem, Chomsky nos entrega uma denúncia crítica da IA do ponto de vista da biolinguística e da linguística gerativa, e ao mesmo tempo uma peça que prossegue no que Bruno Cava acertadamente chamou de melodrama tecnofóbico.

Uma estranha ambiguidade percorre o texto de Chomsky. A ambiguidade de quem, por um lado, parece ter entendido inteiramente o que é e como funciona um LLM como o ChatGPT; por outro lado, escreve como se tivéssemos o direito de esperar outra coisa dele.

A ambiguidade está em compreender perfeitamente, como intelectual da linguagem que Chomsky de fato é, que um LLM não pensa como um humano. Não tem cérebro, corpo, nem visceralidade – embora se apoie em conjuntos de agenciamentos sociais, técnicos e maquínicos bastante materiais (explico isso nos itens 2 e 3, abaixo).

Se for capaz de aprender, é por causa das bases de dados de treinamento (training datasets) – um aprendizado diverso do humano. Se puder ser chamado de inteligente, é pela capacidade de vasculhar, correlacionar e gerar induções estatísticas a partir de modelagem matemática complexa — hoje, com trilhões de parâmetros — aplicada sobre uma base de dados e informações bem mais vasta do que cérebros humanos seriam capazes de “processar”.

Sobretudo, começamos a descobrir que o seu algoritmo é treinável para um sem-número de tarefas, em uma multiplicidade de mídias, e que os resultados apresentados dependem da capacidade humana de fornecer comandos específicos, precisos e bem individualizados. Sua epistême e sua ética são dependentes dos inputs — em sentido amplíssimo.

O fato é que o ChatGPT é uma tecnologia de propósito geral. Isso significa que, na medida que começa a ser integrado a uma série de spin-offs utilitários [1], ele aumenta o seu potencial de afetar uma miríade de áreas do mercado de trabalho existente. Curiosamente, tende a afetar e deslocar os trabalhos high-end, mais cognitivos e melhor remunerados. É por essa razão que seu advento e popularização semeiam o pânico entre trabalhadores e parecem exigir políticas empresariais e acadêmicas que limitem seu uso e regulem a sua ética.

Embora Chomsky, Roberts e Watmull tenham compreendido tudo isso como ninguém, ainda assim escreveram “A falsa promessa…” como se pudessem esperar da IA coisa diversa — como um aprendizado e uma inteligência talhados de forma antroponômica; isto é, normativamente humana.

Mesmo tendo lido o texto de Chomsky, fiz o exercício de comandar no prompt do ChatGPT: “Resuma o texto a seguir em cinco tópicos”. O output foi o seguinte:

Textualmente:

o        A inteligência artificial baseada em aprendizado de máquina é motivo de preocupação e otimismo.

o        Programas como o ChatGPT coletam dados, procuram padrões e geram respostas estatisticamente prováveis, mas diferem profundamente do modo como os humanos raciocinam e usam a linguagem.

o        A mente humana é um sistema eficiente e elegante que cria explicações e opera com pequenas quantidades de informação.

o        A gramática da língua é um sistema estupendamente sofisticado de princípios e parâmetros lógicos.

o        Programas de aprendizado de máquina estão presos em uma fase pré-humana ou não-humana da evolução cognitiva e não possuem a capacidade crítica de dizer o que não é o caso e o que poderia e não poderia ser o caso, que são os ingredientes da explicação e da verdadeira inteligência.

Vamos seguir os pontos acima do modo mais inteligente quanto possamos, já que Chomsky nos espreita, e talvez suspeite de que não passemos de um bot irônico e mal-intencionado.

O primeiro ponto exprime uma total platitude. Tudo o que gera otimismo também gera algum grau de preocupação. Nem que seja a preocupação que o otimismo seja frustrado. No caso das tecnologias de IA, o caso é ainda pior. Ninguém está preocupado com um cenário otimista que não se realiza; a preocupação incide sobre as catástrofes ecológica, social e humana que — segundo as antevisões mais cataclísmicas e distópicas — poderiam decorrer da generalização e da pervasividade da IA. A única novidade aqui — notícia velha, aliás — é que podemos até não ter percebido, mas a generalização e a pervasividade da IA já aconteceram. Portanto, zero novidade.

O que há de novo agora são duas coisas. Primeiro, a vertiginosa capacidade de processamento e velocidade na apresentação de resultados progressivamente mais relevantes para os usuários de IA. E segundo, nós estarmos nos dando conta de que tudo isso não é mais do que o resultado do processo de subsunção técnica em curso há anos — qual foi a última vez que você ligou para um SAC qualquer e conseguiu falar com um humano? Caso tenha conseguido não foi sem antes passar por chatbots, não é?

O segundo ponto explica como um LLM funciona em termos simples, e demarca o fundo do argumento chomskyano, que se sustenta em uma diferença e em uma hierarquia. Os modelos de LLM, mesmo de aplicação geral como o ChatGPT, “diferem profundamente do modo como os humanos raciocinam e usam a linguagem”. Pensar e falar não são, portanto, a mesma coisa para humanos ou LLMs. E são atividades evidentemente levadas a cabo de forma mais própria e completa por humanos — ponto em que a distinção entre humano e inumano é colocada em termos de hierarquia.

O terceiro e o quarto pontos explicam exatamente a pretensa superioridade da inteligência humana versus a artificial. A nossa inteligência (mas que pretensão essa de dizer “nossa”!) faz muito com pouco. É extremamente eficiente do ponto de vista informacional. Raciocina por nexos de causalidade e produz explicações e hipóteses ousadas e pouco críveis, mas capazes de revolucionar modelos de explicação gerais; e, por fim, nós somos capazes de juízo moral.

Já o pobre ChatGPT até consegue resenhar um texto de Chomsky com razoável precisão, mas seria ineficiente do ponto de vista informacional. Isto é, para fazer pouco, precisa de muito. Não tem a propensão natural, a plasticidade e a elegância dos cérebros infantis que captam lógicas e modelos gramaticais no vento — só por estarem ao relento na língua. Ainda pior, a inteligência da máquina é incapaz de contrafactualidade: inclusive “pode aprender”, como diz Chomsky, “que a terra é plana”.

Então, a rigor, a IA não pensa nem explica. O que ela faz, então? No interior de uma densa nuvem estatística de correlações e palavras, ela procede por indução, ela induz. E, mal de todos os males, tampouco é capaz de inteligência moral — daí exprimir a banalidade do mal, definida precisamente por essa incapacidade moral. Eis o que, para chegarmos ao ponto cinco, escanteia o ChatGPT para o exterior da humanidade. Para onde? Para a condição de uma inteligência pré-humana, não-humana, e sem condições de evoluir no sentido humano, que dirá de ultrapassá-la.

No valid inputs

O ChatGPT implica um evento de percepção, porque fazem com que, de repente, todo mundo se dê conta de uma realidade que já se impôs – e todo pensamento regressivo não é mais do que o esperneio que precede a adaptação a uma subsunção que já está em curso.

Um acontecimento que altera a sensibilidade coletiva com relação à tecnologia. Um dia, isso também ocorreu com os ábacos e as calculadoras, com os desktops e telefones celulares e, depois, com os notebooks, smartphones e tablets. Porém, com a diferença de que as tecnologias de aplicação geral apresentam o potencial de alterar nossa ecologia sociotécnica e relacional de uma só vez, em múltiplas frentes, e em níveis de profundidade variáveis. Elas tornam porosa e maleável a rigidez da divisão social do trabalho, e fazem todo mundo temer pelo seu trabalho – o que, no fundo, é só um disfarce do verdadeiro problema: tememos é pela nossa renda!

Neste ponto, ninguém está em condições de vaticinar a irrelevância do que quer que seja; nem mesmo, preguiçosamente apostar na passagem do humano ao papel de “coadjuvante da história” na medida que a IA agora tagarela e nos destitui do que até então nos fazia humanos: a posse de uma faculdade sensível que Aristóteles chamava de lógos.

As perguntas que esse evento de percepção permite fazer são: que regime de verdade advém com a popularização de um LLM como o ChatGPT? (Não um efeito causal da técnica, mas do seu uso e adoção massificados). Que tipo de inteligência ele deveria manifestar? Que modos de raciocinar? – dos quais também participamos em outros ritmos, e com outra abrangência. E em que consistem esses processos informacionais dos quais não podemos participar inteiramente?

Enfim, o que é isso de que já estamos participando? E como isso participa em nós – derrubando, inclusive, a barreira entre “nós” e “eles”? Como esse advento de percepção poderia ajudar a derrubar outras diferenças que nossa cultura aristotélica traduziu em dimorfismos e hierarquias – cultura/natureza, humano / inumano, homem/máquina, lógos/phoné, cidadão/imigrante, trabalhador/desempregado, entre outras?

Tomar uma inteligência e uma linguagem demasiadamente humanas como modelo e esperar que o ChatGPT seja sua maximização é como martelar inputs inválidos no prompt e esperar que dali saia alguma coisa que não seja decepção ou autoengano.

A crítica de Chomsky martela inputs fora de lugar. É por isso que ela consegue ser, ao mesmo tempo, retrospectiva, logocêntrica, antropomórfica e moral. De um só golpe, ela reúne tudo de mais regressivo que o pensamento crítico ocidental já conseguiu conceber num mesmo pacote.

Ao invés de imaginar o agenciamento de dois ou mais tipos de inteligência (como a ciência pura e a engenharia aplicada) como uma composição produtiva, Chomsky os contrapõe e hierarquiza. E se vale de um raciocínio fundacional para fazê-lo: inputs que remetem a um solo antropomórfico, logocêntrico e moral que recua pelo menos ao século IV a.C. – e, como certa vez cantou Caetano Veloso, “sustenta ainda hoje o Ocidente…”.

É o próprio Chomsky quem descreve a biolinguística, e a escola da gramática gerativa, como atualizações “de abordagens que remontam à tradição filosófica aristotélica” (Chomsky, 2017, p. 04). Sua ideia fundamental é a de que a língua é uma função orgânica inata à natureza do cérebro humano.

Daí porque é esperado que sua crítica se valha dos inputs logocêntricos, antropomórficos e morais do lógos aristotélico. Isto é, não deveria causar espanto algum que sua crítica à IA manifeste a fé num tipo de inteligência ao mesmo tempo humana e natural que, no entanto, nos separaria numa esfera – política ou cultural – de todo o resto da natureza. Nem que isso gere uma má compreensão sobre a técnica: o silício pertenceria à ordem da natureza ou da cultura? E as palavras que as IAs geram? A pergunta que importa é se esses inputs chomskyanos ainda convém à realidade e ao que estamos nos tornando.

O logocentrismo, o antropomorfismo e o moralismo do lógos aristotélico exerceram precisamente esta função na nossa cultura técnica: apontar uma diferença, proporcionar uma taxonomia e justificar uma hierarquia. Não apenas uma diferença entre natureza e cultura, mas entre o humano e o inumano. A distinção aristotélica opositiva entre lógos e phoné (a “voz” animal, que indicava posse das capacidades de experimentar e exprimir apenas a sensibilidade para a dor e o prazer, sem ser capaz de desenvolvê-lo na direção de sentimentos morais ou na forma da inteligência) o testemunham suficientemente.

Nesse mar de diferenças que se tornam classificações e hierarquias, num universo regido por partes que se totalizam governando umas às outras, os objetos técnicos só podem aparecer como algo estranho: nem inteiramente naturais, porque são artefatos artificiais; nem inteiramente humanos, porque a natureza está entre as suas componentes. O objeto técnico é como o Alien: o estranho familiar freudiano que nossa inteligência antropomorfiza em filmes como o E.T.

Além disso, Chomsky parece não escolher bem seus argumentos. Causa estupefação atribuir à IA e ao ChatGPT a banalidade do mal, quando esse conceito – concebido por Hannah Arendt em Eichmann em Jerusalém – servia para descrever as ações de um ser humano que, ao contrário do que todos imaginavam, não tinha qualquer traço monstruoso, exceto o fato de ser assustadoramente normal. Um animal demasiado humano com capacidades morais incorporadas e genéticas como qualquer outro.

Ou, ainda, a afirmação irrisória de que o ChatGPT poderia aprender que a terra é plana. Claro que poderia! E quem o ensinaria, a não ser uns bons punhados de animais antrópicos bem-falantes? Seria preciso lembrar uma humanidade pré-científica que por séculos acreditou no geocentrismo com base em uma correlação desprovida de causalidade (a sucessão de dias e noites)? Não é um tipo de pensamento bem humano que pensa primeiro por correlações, e depois talvez se esforce metodicamente por discriminar em meio a elas as relações de causalidade?

A indução e o erro não são, também, potenciais inatos, assim como a banalidade do mal grassando entre seres pretensamente morais? E uma das mais importantes linhas da evolução – a que Bergson se referiu em A evolução criadora – não é precisamente a capacidade vital de saltar para fora e para além das determinações biológicas? A biologia só existe como inatismo e determinação, ou também como processo evolutivo no qual a vida se prolonga- no caso humano, cercado de artefatualidades? Quais poderiam ser alguns dos antídotos para esse imenso tédio de uma inteligência inata?

•        Chapação maquínica e alucinação estatística

Meses atrás, me lembro de que alguém mandou o link do ChatGPT com indisfarçável excitação, e disse: “olha que loucura isso aqui!”. A palavra loucura para substantivar o ChatGPT talvez não seja uma escolha fortuita. Nem a excitação delirante que a seguia.

A loucura é o que nos permite perceber que a crítica de Chomsky à IA é retrógrada e mal-colocada. Ela se prende ao que Matteo Pasquinelli e Vladan Joler chamaram de “status ideológico da máquina inteligente”. Isto é, a ideologia que existe em pensar a inteligência algorítmica à imagem e semelhança da cerebral e humana.

A IA não é uma máquina inteligente. É um instrumento de percepção. Ela maximiza o conhecimento, ajuda a perceber padrões e correlações em datasets que cérebros humanos jamais poderiam percorrer sem correr o risco da vertigem, do vômito ou do desmaio. E a IA o faz numa velocidade maior do que o cérebro humano poderia (com o perdão da analogia) “processar”.

Ou seja, modelos de IA implicam um novo regime de verdade que Chomsky só pode perceber como mentira, falsa promessa e perigo moral, uma vez que ele o faz retroagir ao inatismo biológico e ao aristotelismo logocêntrico.

Esse novo regime de verdade é o que Pasquinelli e Joler chamaram, numa divergência conceitual de seu uso técnico, de alucinação estatística. Não se trata de chegar a outputs que não decorrem do dataset de treinamento, a erros evidentes ou a respostas contrafáticas. Não é de uma inadequação entre as coisas e o output que se trata. Mas de compreender que essas máquinas não emulam inteligência, mas percepção.Isto é, os prompts são como janelas para os dados, e os outputs, dispositivos que tornam visíveis e legíveis, por intermediação algorítmica, um vasto conjunto de dados e pontos entre os quais se estabelecem correlações.

Neste estágio de desenvolvimento (em estágios futuros, não sabemos), é como se ganhássemos um novo órgão perceptivo, com capacidades inéditas, e que pode alterar não só a percepção de um meio, como também a autocompreensão de um corpo-intelecto, e interferir na ecologia sensível que o constitui. Como um telescópico, um microscópio, um binóculo noturno ou um bom e velho par de óculos alteram um conjunto de percepções, ecologias e relações que um corpo-intelecto mantém com os outros e seu entorno. Eles são próteses de percepção, como um aparelho auditivo torna relativamente audível o que de outra forma seria inaudível.

Não há problema algum em dizer que as IAs não pensam, mas reconhecem padrões. É precisamente isso que não as deixa serem entidades oraculares, ou cérebros metafísicos, mas as torna instrumentos de conhecimento – ainda que alucinatórios – porque a imagem que nos dão da realidade é distorcida, como a que nossos olhos, óculos, microscópios ou telescópicos fornecem também o são.

O grande debate sobre os vieses, em que a política dos algoritmos parece emborcar, ganha novas proporções quando entendemos os algoritmos como instrumentos de percepção e conhecimento – e não como máquinas inteligentes ou criativas. O que explica a presença algorítmica de vieses não é a falta de aptidão maquínica para a crítica moral, como quer Chomsky. Como a política de Maquiavel e a norma jurídica de Kelsen, um par de óculos ou a IA não são instrumentos morais ou imorais, mas amorais. E isso, por duas razões, ao menos.

Primeira, porque dados brutos não existem. Eles são extraídos dos funcionamentos das nossas sociedades, das suas divisões, dimorfismos e hierarquias. Os dados marinam nos nossos preconceitos cognitivos. De modo que não são os algoritmos que são racistas, xenófobos ou misóginos, mas os funcionamentos sociais que originaram a vastidão de dados apodrecidos com os quais eles foram treinados. E nós, hipócritas com capacidade moral inata, não gostamos de ver a imagem refletida que os algoritmos tornam visíveis. Detestamos perceber que as polícias sejam racistas, que as empresas sejam misóginas ou que os Estados sejam xenófobos. Mas se forem males banais, nossa hipocrisia de animais aparelhados para a moral dá de ombros e diz: “tudo bem…”.

Segunda, porque existe um imenso trabalho humano (gratuito e periférico, mas também remunerado e metropolitano) que vai ser integrado à modelagem matemática dos algoritmos. Então, não podemos esperar deles mais ou menos moralidade do que nossas formações sociais são capazes.

E isso nada tem a ver com qualquer aptidão inata e biológica à moralidade, mas com o fato de que as sociedades sempre foram as megamáquinas mais antigas e mais inteligentes em extorquir e habituar comportamentos por repetição, reiteração e sistemas mais ou menos difusos de punição-recompensa. Nós, e os indivíduos que nós pensamos ser, não passamos de adictos sociais.

Mas a alucinação estatística também se liga a uma outra coisa. Uma curtição, um thrill, uma pira. Foi Félix Guattari quem, nos anos 1980, sugeriu o termo chapação maquínica. Disse que com as tecnologias acontecem as mesmas coisas que com os esportes de aventura, shows de música, os primeiros encontros, o sexo, o chocolate, o álcool e outras drogas lícitas e não lícitas (por mero ilegalismo).

Como em tudo na vida, existem good trips e bad trips. E o mais recente texto de Noam Chomsky é, provavelmente, fruto do segundo gênero. Uma bad trip de uma inteligência desperta demais. Não deveria espantar que Chomsky se diga, pessoalmente, um conservador quando assunto são drogas: o texto de Chomsky mostra que ele não sabe chapar.

A partir de uma definição ampliada da droga, Guattari chamou de chapação maquínica “todos os mecanismos de produção de subjetividade maquínica, tudo o que contribui para o sentimento de pertencer a algo, de ser de algum lugar; e também de se esquecer. […] É o funcionamento do conjunto que é gratificante” (Guattari, 2022, p. 191 [Os anos de inverno, 1980-1985]). As pessoas chapam o tempo todo e por toda a parte: na empresa, na Igreja, na balada, nas suas tribos, fazendo tatuagens, curtindo uma viagem, lendo poesia e filosofia, escrevendo uma tese, assistindo reality shows ou documentários sobre cutelaria moderna.

A chapação atua no sistema dopaminérgico, e a dopamina é um neurotransmissor produzido pelo sistema mesolímbico, ligado aos circuitos de recompensa. Ela é o que produz aquela sensação de prazer e bem-estar que se segue de ter alcançado um objetivo, uma meta ou realizado alguma coisa existencialmente significativa.

O Guattari dos anos 1980 já havia entendido alguma coisa do que estávamos em vias de nos tornar. Ele descrevia a monomania dos videogames dos adolescentes, o zapping televisivo dos trabalhadores esgotados, o esqui alpino dos turistas que desciam colinas verticais, como chapações com efeitos em aspectos existenciais. Tudo estava ligado, ao menos na cultura do Ocidente, a um retorno ao sentimento de individualidade. No seu vocabulário, e no de Deleuze, a uma reterritorialização subjetiva. Uma espécie de compensação pela sensação de estar esquartejado mecanicamente, despedaçado como divíduos ligados p2p numa rede infinita de outras subjetividades.

O que os neurofisiologistas descobririam algumas décadas mais tarde, é que as nossas chapações maquínicas se tornaram mais pesadas. Não apenas as redes sociais atuam no sistema dopaminérgico, mas elas são desenhadas para ativar o sistema de reforço e de recompensa, e assim intensificar as interações.

Esta não é uma economia atencional, mas uma neuroeconomia dopaminérgica: quanto mais presença online, mais posts; quanto mais posts, mais likes e interações; quanto mais likes e interações, mais recompensas; e quanto mais recompensas mais o ciclo é reiniciado, recalibrado, repetido, desviado para novos objetos que proliferam de novos investimentos. O engajamento é a medida de todas as coisas, e as redes são poços virtualmente infinitos de dopamina.

Mas também é o próprio Guattari quem diz que nada disso deve parecer assombroso – embora envolva perigos. As chapações podem ter valor de refúgio: “As pessoas se subjetivam, refazem para si territórios existenciais com suas chapações” (Idem, p. 194). E disso não sai muita coisa além do velho sentimento de individualidade que nos aborrece – mas cuja perda nos parece aterradora.

Há a possibilidade de a chapação ir longe demais e dar origem a uma implosão subjetiva: Van Gogh, Artaud, os jovens japoneses que se suicidam no trabalho. A vida vai sendo arrastada por um processo de singularização que não pode estancar, precisa virar processo. Senão, é o beco sem saída, o buraco-negro, um caos destrutivo sem redenção informe. É o “desmoronamento lamentável”, ou a chapação que se revela obsoleta.

E há a criação de universos inauditos: “As formações subjetivas preparadas pelas chapações podem dar um novo impulso ao movimento ou, ao contrário, fazê-lo morrer lentamente. Por trás de tudo isso existem possibilidades de criação de mudanças de vida, de revoluções científicas, econômicas e até mesmo estéticas. Novos horizontes ou nada. […] promover o reino de singularidades mutantes, novas minorias”(Idem, p. 194-195).

É mais provável que o que nos aguarda seja um envolvimento das três linhas que Guattari descreve: haverá desmoronamentos lamentáveis, buracos-negros, caos destrutivo; mas também ilhas de privilégio cuja moeda será o valor de refúgio, e um impulso em movimentos e grupos de usuários que ainda sequer existem, ou se autocompreendem, como tais.

O complexo é o seu emaranhamento: os desmoronamentos podem servir aos movimentos, enquanto os movimentos podem servir à circulação sacana dos valores de refúgio, dos clubes mais ou menos privados. É dessa constelação esquizo, que nos assombra com suas possibilidades maníaca e paranoide, que precisamos fazer sair um novo mundo, uma nova ecologia de relações baseada nas lutas pela dissolução de todos os dimorfismos hierarquizantes. Essa é a questão política da tecnologia e da ética dos inputs que o Chat-GPT torna pensáveis, a contrapelo dos tecno-otimismos e os tecnopessimismos – que, ao que tudo indica, já têm seus outputs all-figured out de antemão.

 

Fonte: Por Nathan J Robinson, para Jacobin Brasil -  tradução de Sofia Schurig, para IHU

 

Nenhum comentário: