O problema com a IA
é o mesmo com o capitalismo
"As
novas tecnologias estão sendo desenvolvidas por corporações privadas que não
têm nenhum incentivo para garantir que um benefício para elas seja um benefício
para todos".
<<<
Eis o artigo.
Ultimamente,
tenho experimentado programas de geração de imagens de inteligência artificial.
O poder deles é surpreendente. Eles não são apenas bons no aspecto técnico da
criação de “arte”, mas parecem ser genuinamente criativos, produzindo trabalhos
que não apenas correspondem à competência de um artista altamente qualificado,
mas também podem ser surpreendentes, interessantes e até bonitos.
Claro,
tudo ainda depende do humano que está entrando no prompt para dizer à IA o que
fazer, mas ninguém que veja essas coisas em ação pode duvidar de que estamos
entrando em uma nova era muito estranha, na qual muito do que poderia ser feito
manualmente logo será automatizado.
Muitos
artistas estão revoltados com os novos programas de IA — e com razão. Alguns
estão furiosos porque seus trabalhos foram usados como dados de treinamento sem
sua permissão. Outros temem que os clientes corporativos simplesmente recorram
às máquinas para fazer o trabalho que costumava ser feito por mãos humanas.
A
inteligência artificial está fazendo com que o custo da geração de imagens
despenque. Em uma economia capitalista, onde todos dependem para sobreviver do
valor de seu trabalho no mercado, uma queda maciça no valor de uma habilidade
causará sofrimento generalizado.
A
arte está longe de ser o único domínio prestes a ser transformado pela IA
generativa. Advogados, programadores, pesquisadores de mercado, agentes de
atendimento ao cliente, analistas financeiros e muitas outras profissões correm
o risco de ver grande parte de seu trabalho automatizado em um futuro próximo.
O
extremamente bem-sucedido ChatGPT da OpenAI não apenas escreve piadas ruins e
poesia um pouco melhor que um ser humano, mas também ajuda a escrever trabalhos
de pesquisa publicados em prestigiadas revistas científicas. Os modelos também
estão ficando melhores. O recém-lançado GPT-4 já está sendo usado para escrever
livros inteiros.
Os
poderes desta nova tecnologia são assustadores. Os golpistas já estão usando a
capacidade de gerar “deepfakes” realistas para enganar as pessoas e fazê-las
pensar que seus parentes estão pedindo dinheiro. A desinformação de aparência
confiável agora pode ser produzida na velocidade da luz, um desenvolvimento
especialmente infeliz em um momento em que não temos instituições de mídia
confiáveis.
“O
problema é que a nova IA generativa está sendo introduzida em uma sociedade
capitalista mal equipada para lidar com isso.”
Embora
Noam Chomsky, Gary Marcus, Erik J. Larson e outros tenham apresentado
argumentos convincentes de que o medo de uma “superinteligência” artificial
chegando no curto prazo é exagerado, existem todos os tipos de maneiras pelas
quais a tecnologia, como já existe, pode causar estragos na sociedade.
As
pessoas estão certas em ficar apavoradas com as interrupções que a IA pode
causar em nossas vidas, mas quando pensamos sobre o que realmente são essas
disrupções, fica claro que o principal problema não é o desenvolvimento da
tecnologia em si. Introduzido sob um sistema econômico e político diferente,
poucos dos riscos seriam tão graves.
Os
artistas, por exemplo, geralmente não têm medo da IA porque temem que uma
máquina seja melhor na arte. Os enxadristas não pararam de jogar xadrez quando
o programa de computador Deep Blue derrotou o grande mestre Garry Kasparov. E
se a arte é feita para prazer e auto-expressão, não importa o que os outros
possam fazer.
O
problema é que, no nosso mundo, os artistas têm que viver da sua arte
vendendo-a, e por isso têm que pensar no seu valor de mercado. Estamos
introduzindo uma tecnologia que pode destruir completamente o sustento das
pessoas e, em um sistema econômico de livre mercado, se suas habilidades
diminuírem de valor, você está ferrado.
É
interessante falarmos sobre empregos “em risco” de serem automatizados. Sob um
sistema econômico socialista, automatizar muitos empregos seria uma coisa boa:
outro passo no caminho para um mundo onde os robôs fazem o trabalho duro e
todos desfrutam da abundância. Deveríamos ficar entusiasmados se os documentos
legais pudessem ser escritos por um computador.
Quem
quer passar o dia todo escrevendo contratos? Não podemos ficar entusiasmados
com isso, porque vivemos sob o capitalismo e sabemos que, se o trabalho
paralegal for automatizado, mais de trezentas mil pessoas enfrentarão a
perspectiva de tentar encontrar trabalho sabendo que seus anos de experiência e
treinamento são economicamente inúteis.
O
ludismo é uma abordagem racional da automação em uma sociedade capitalista. Se
as máquinas ameaçarem seu trabalho, lute contra as máquinas. Mesmo um
reacionário como Tucker Carlson disse que os políticos deveriam intervir para
acabar com a automação, por exemplo, proibindo caminhões autônomos, porque ter
milhões de pessoas desempregadas causaria muita perturbação social.
Essa
solução é absurda: por que teríamos pessoas fazendo trabalho desnecessário que
poderia ser feito por robôs? Os caminhoneiros têm a saúde prejudicada e não
conseguem ver suas famílias por longos períodos. Mesmo quando uma máquina pode
fazer o trabalho duro, vamos obrigar as pessoas a fazê-lo?
Podemos
expandir nossa imaginação muito além da de Carlson. E se descobrir que seu
trabalho pode ser automatizado fosse emocionante? E se isso significasse que um
trabalhador poderia ser pago enquanto o robô fazia o trabalho?
Que
tal isso: uma vez que o trabalho para o qual você treina é automatizado, você
recebe uma pensão de automação e pode relaxar pelo resto de sua vida. Todos
estarão rezando para que seu trabalho seja o próximo da lista. Ou pense em um
cenário em que seu trabalho é automatizado, você recebe uma pensão de automação
e pode relaxar pelo resto de sua vida. Todos estarão rezando para que seu
trabalho seja o próximo.
Não
devemos temer a IA. Francamente, eu adoraria se uma máquina pudesse editar
artigos de revistas para mim e eu pudesse sentar na praia, mas tenho medo
disso, porque ganho a vida editando artigos de revista e preciso manter um teto
sobre minha cabeça.
Se
alguém pudesse fazer e vender uma revista rival igualmente boa quase de graça,
eu seria incapaz de me sustentar com o que faço. O mesmo se aplica a todos os
que trabalham para viver no atual sistema econômico. Eles devem ficar
apavorados com a automação, porque o valor do trabalho é muito importante, e
grandes flutuações em seu valor colocam em perigo todas as esperanças e sonhos
de alguém.
A
maioria dos outros problemas que a IA poderia causar realmente se resume a
problemas de como o poder e a riqueza são distribuídos em nossa sociedade
existente. Como o mundo está organizado em estados-nação militarizados, temos
que nos preocupar que a tecnologia de IA seja usada em novas super-armas
aterrorizantes.
Como
permitimos que golpes e fraudes florescessem em nossa economia do Velho Oeste,
veremos muitas pessoas ficarem ricas usando IA para atacar consumidores
infelizes. A motivação do lucro já é socialmente destrutiva, mas a IA tornará
isso muito pior, porque permitirá que as empresas descubram como enganar e
explorar as pessoas com mais eficiência.
As
novas tecnologias estão sendo desenvolvidas por corporações privadas que não
têm nenhum incentivo para garantir que um benefício para elas seja um benefício
para todos.
Precisamos
ser claros sobre a origem dos problemas com a IA. Eles são reais e vão acelerar
a crise que os socialistas se dedicam a ajudar a humanidade a resolver, mas o
problema não é a tecnologia em si. A tecnologia deve ser uma ferramenta de
libertação. A menos que transformemos o sistema econômico, no entanto, ele será
uma ferramenta para uma exploração e predação sucessivas.
Chapação maquínica, alucinação
estatística: pensar como o ChatGPT
"A
rigor, a IA não pensa nem explica. O que ela faz, então? No interior de uma
densa nuvem estatística de correlações e palavras, ela procede por indução, ela
induz. E, mal de todos os males, tampouco é capaz de inteligência moral — daí
exprimir a banalidade do mal, definida precisamente por essa incapacidade
moral. Eis o que, para chegarmos ao ponto cinco, escanteia o ChatGPT para o
exterior da humanidade. Para onde? Para a condição de uma inteligência
pré-humana, não-humana, e sem condições de evoluir no sentido humano, que dirá
de ultrapassá-la".
O
artigo é de Murilo D. C. Corrêa, professor associado de Teoria Política na
Universidade Estadual de Ponta Grossa (UEPG), doutor (USP) e mestre (UFSC) em
Filosofia e Teoria do Direito, em artigo publicado por UniNômade, 23-03-2023.
<<<
Eis o artigo.
“Chapação.
Droga. Será que se trata de uma mera analogia?” – Félix Guattari
Em
A falsa promessa do ChatGPT, que apareceu traduzido na Folha de S.Paulo, o
linguista e libertário estadunidense Noam Chomsky aproveitou a recente e
meteórica celebridade do Chat GPT – um LLM (Large Language Model) – para
alavancar a sua crítica geral contra a IA.
No
afã de denunciar as suas limitações, diferenças e perigos quando comparado ao
raciocínio, à capacidade e ao uso humanos da linguagem, Chomsky nos entrega uma
denúncia crítica da IA do ponto de vista da biolinguística e da linguística
gerativa, e ao mesmo tempo uma peça que prossegue no que Bruno Cava
acertadamente chamou de melodrama tecnofóbico.
Uma
estranha ambiguidade percorre o texto de Chomsky. A ambiguidade de quem, por um
lado, parece ter entendido inteiramente o que é e como funciona um LLM como o
ChatGPT; por outro lado, escreve como se tivéssemos o direito de esperar outra
coisa dele.
A
ambiguidade está em compreender perfeitamente, como intelectual da linguagem
que Chomsky de fato é, que um LLM não pensa como um humano. Não tem cérebro,
corpo, nem visceralidade – embora se apoie em conjuntos de agenciamentos
sociais, técnicos e maquínicos bastante materiais (explico isso nos itens 2 e
3, abaixo).
Se
for capaz de aprender, é por causa das bases de dados de treinamento (training
datasets) – um aprendizado diverso do humano. Se puder ser chamado de
inteligente, é pela capacidade de vasculhar, correlacionar e gerar induções
estatísticas a partir de modelagem matemática complexa — hoje, com trilhões de
parâmetros — aplicada sobre uma base de dados e informações bem mais vasta do
que cérebros humanos seriam capazes de “processar”.
Sobretudo,
começamos a descobrir que o seu algoritmo é treinável para um sem-número de
tarefas, em uma multiplicidade de mídias, e que os resultados apresentados
dependem da capacidade humana de fornecer comandos específicos, precisos e bem
individualizados. Sua epistême e sua ética são dependentes dos inputs — em
sentido amplíssimo.
O
fato é que o ChatGPT é uma tecnologia de propósito geral. Isso significa que,
na medida que começa a ser integrado a uma série de spin-offs utilitários [1],
ele aumenta o seu potencial de afetar uma miríade de áreas do mercado de
trabalho existente. Curiosamente, tende a afetar e deslocar os trabalhos
high-end, mais cognitivos e melhor remunerados. É por essa razão que seu
advento e popularização semeiam o pânico entre trabalhadores e parecem exigir
políticas empresariais e acadêmicas que limitem seu uso e regulem a sua ética.
Embora
Chomsky, Roberts e Watmull tenham compreendido tudo isso como ninguém, ainda
assim escreveram “A falsa promessa…” como se pudessem esperar da IA coisa
diversa — como um aprendizado e uma inteligência talhados de forma
antroponômica; isto é, normativamente humana.
Mesmo
tendo lido o texto de Chomsky, fiz o exercício de comandar no prompt do
ChatGPT: “Resuma o texto a seguir em cinco tópicos”. O output foi o seguinte:
Textualmente:
o A inteligência artificial baseada em
aprendizado de máquina é motivo de preocupação e otimismo.
o Programas como o ChatGPT coletam dados,
procuram padrões e geram respostas estatisticamente prováveis, mas diferem
profundamente do modo como os humanos raciocinam e usam a linguagem.
o A mente humana é um sistema eficiente e
elegante que cria explicações e opera com pequenas quantidades de informação.
o A gramática da língua é um sistema
estupendamente sofisticado de princípios e parâmetros lógicos.
o Programas de aprendizado de máquina
estão presos em uma fase pré-humana ou não-humana da evolução cognitiva e não
possuem a capacidade crítica de dizer o que não é o caso e o que poderia e não
poderia ser o caso, que são os ingredientes da explicação e da verdadeira
inteligência.
Vamos
seguir os pontos acima do modo mais inteligente quanto possamos, já que Chomsky
nos espreita, e talvez suspeite de que não passemos de um bot irônico e mal-intencionado.
O
primeiro ponto exprime uma total platitude. Tudo o que gera otimismo também
gera algum grau de preocupação. Nem que seja a preocupação que o otimismo seja
frustrado. No caso das tecnologias de IA, o caso é ainda pior. Ninguém está
preocupado com um cenário otimista que não se realiza; a preocupação incide
sobre as catástrofes ecológica, social e humana que — segundo as antevisões
mais cataclísmicas e distópicas — poderiam decorrer da generalização e da
pervasividade da IA. A única novidade aqui — notícia velha, aliás — é que
podemos até não ter percebido, mas a generalização e a pervasividade da IA já
aconteceram. Portanto, zero novidade.
O
que há de novo agora são duas coisas. Primeiro, a vertiginosa capacidade de
processamento e velocidade na apresentação de resultados progressivamente mais
relevantes para os usuários de IA. E segundo, nós estarmos nos dando conta de
que tudo isso não é mais do que o resultado do processo de subsunção técnica em
curso há anos — qual foi a última vez que você ligou para um SAC qualquer e
conseguiu falar com um humano? Caso tenha conseguido não foi sem antes passar
por chatbots, não é?
O
segundo ponto explica como um LLM funciona em termos simples, e demarca o fundo
do argumento chomskyano, que se sustenta em uma diferença e em uma hierarquia.
Os modelos de LLM, mesmo de aplicação geral como o ChatGPT, “diferem
profundamente do modo como os humanos raciocinam e usam a linguagem”. Pensar e
falar não são, portanto, a mesma coisa para humanos ou LLMs. E são atividades
evidentemente levadas a cabo de forma mais própria e completa por humanos —
ponto em que a distinção entre humano e inumano é colocada em termos de
hierarquia.
O
terceiro e o quarto pontos explicam exatamente a pretensa superioridade da
inteligência humana versus a artificial. A nossa inteligência (mas que
pretensão essa de dizer “nossa”!) faz muito com pouco. É extremamente eficiente
do ponto de vista informacional. Raciocina por nexos de causalidade e produz
explicações e hipóteses ousadas e pouco críveis, mas capazes de revolucionar
modelos de explicação gerais; e, por fim, nós somos capazes de juízo moral.
Já
o pobre ChatGPT até consegue resenhar um texto de Chomsky com razoável
precisão, mas seria ineficiente do ponto de vista informacional. Isto é, para
fazer pouco, precisa de muito. Não tem a propensão natural, a plasticidade e a
elegância dos cérebros infantis que captam lógicas e modelos gramaticais no
vento — só por estarem ao relento na língua. Ainda pior, a inteligência da
máquina é incapaz de contrafactualidade: inclusive “pode aprender”, como diz
Chomsky, “que a terra é plana”.
Então,
a rigor, a IA não pensa nem explica. O que ela faz, então? No interior de uma
densa nuvem estatística de correlações e palavras, ela procede por indução, ela
induz. E, mal de todos os males, tampouco é capaz de inteligência moral — daí
exprimir a banalidade do mal, definida precisamente por essa incapacidade
moral. Eis o que, para chegarmos ao ponto cinco, escanteia o ChatGPT para o
exterior da humanidade. Para onde? Para a condição de uma inteligência
pré-humana, não-humana, e sem condições de evoluir no sentido humano, que dirá
de ultrapassá-la.
No
valid inputs
O
ChatGPT implica um evento de percepção, porque fazem com que, de repente, todo
mundo se dê conta de uma realidade que já se impôs – e todo pensamento
regressivo não é mais do que o esperneio que precede a adaptação a uma
subsunção que já está em curso.
Um
acontecimento que altera a sensibilidade coletiva com relação à tecnologia. Um
dia, isso também ocorreu com os ábacos e as calculadoras, com os desktops e
telefones celulares e, depois, com os notebooks, smartphones e tablets. Porém,
com a diferença de que as tecnologias de aplicação geral apresentam o potencial
de alterar nossa ecologia sociotécnica e relacional de uma só vez, em múltiplas
frentes, e em níveis de profundidade variáveis. Elas tornam porosa e maleável a
rigidez da divisão social do trabalho, e fazem todo mundo temer pelo seu
trabalho – o que, no fundo, é só um disfarce do verdadeiro problema: tememos é
pela nossa renda!
Neste
ponto, ninguém está em condições de vaticinar a irrelevância do que quer que
seja; nem mesmo, preguiçosamente apostar na passagem do humano ao papel de
“coadjuvante da história” na medida que a IA agora tagarela e nos destitui do
que até então nos fazia humanos: a posse de uma faculdade sensível que
Aristóteles chamava de lógos.
As
perguntas que esse evento de percepção permite fazer são: que regime de verdade
advém com a popularização de um LLM como o ChatGPT? (Não um efeito causal da
técnica, mas do seu uso e adoção massificados). Que tipo de inteligência ele
deveria manifestar? Que modos de raciocinar? – dos quais também participamos em
outros ritmos, e com outra abrangência. E em que consistem esses processos informacionais
dos quais não podemos participar inteiramente?
Enfim,
o que é isso de que já estamos participando? E como isso participa em nós –
derrubando, inclusive, a barreira entre “nós” e “eles”? Como esse advento de
percepção poderia ajudar a derrubar outras diferenças que nossa cultura
aristotélica traduziu em dimorfismos e hierarquias – cultura/natureza, humano /
inumano, homem/máquina, lógos/phoné, cidadão/imigrante,
trabalhador/desempregado, entre outras?
Tomar
uma inteligência e uma linguagem demasiadamente humanas como modelo e esperar
que o ChatGPT seja sua maximização é como martelar inputs inválidos no prompt e
esperar que dali saia alguma coisa que não seja decepção ou autoengano.
A
crítica de Chomsky martela inputs fora de lugar. É por isso que ela consegue
ser, ao mesmo tempo, retrospectiva, logocêntrica, antropomórfica e moral. De um
só golpe, ela reúne tudo de mais regressivo que o pensamento crítico ocidental
já conseguiu conceber num mesmo pacote.
Ao
invés de imaginar o agenciamento de dois ou mais tipos de inteligência (como a
ciência pura e a engenharia aplicada) como uma composição produtiva, Chomsky os
contrapõe e hierarquiza. E se vale de um raciocínio fundacional para fazê-lo:
inputs que remetem a um solo antropomórfico, logocêntrico e moral que recua
pelo menos ao século IV a.C. – e, como certa vez cantou Caetano Veloso,
“sustenta ainda hoje o Ocidente…”.
É
o próprio Chomsky quem descreve a biolinguística, e a escola da gramática
gerativa, como atualizações “de abordagens que remontam à tradição filosófica
aristotélica” (Chomsky, 2017, p. 04). Sua ideia fundamental é a de que a língua
é uma função orgânica inata à natureza do cérebro humano.
Daí
porque é esperado que sua crítica se valha dos inputs logocêntricos,
antropomórficos e morais do lógos aristotélico. Isto é, não deveria causar
espanto algum que sua crítica à IA manifeste a fé num tipo de inteligência ao
mesmo tempo humana e natural que, no entanto, nos separaria numa esfera –
política ou cultural – de todo o resto da natureza. Nem que isso gere uma má
compreensão sobre a técnica: o silício pertenceria à ordem da natureza ou da
cultura? E as palavras que as IAs geram? A pergunta que importa é se esses
inputs chomskyanos ainda convém à realidade e ao que estamos nos tornando.
O
logocentrismo, o antropomorfismo e o moralismo do lógos aristotélico exerceram
precisamente esta função na nossa cultura técnica: apontar uma diferença,
proporcionar uma taxonomia e justificar uma hierarquia. Não apenas uma
diferença entre natureza e cultura, mas entre o humano e o inumano. A distinção
aristotélica opositiva entre lógos e phoné (a “voz” animal, que indicava posse
das capacidades de experimentar e exprimir apenas a sensibilidade para a dor e
o prazer, sem ser capaz de desenvolvê-lo na direção de sentimentos morais ou na
forma da inteligência) o testemunham suficientemente.
Nesse
mar de diferenças que se tornam classificações e hierarquias, num universo
regido por partes que se totalizam governando umas às outras, os objetos
técnicos só podem aparecer como algo estranho: nem inteiramente naturais,
porque são artefatos artificiais; nem inteiramente humanos, porque a natureza
está entre as suas componentes. O objeto técnico é como o Alien: o estranho
familiar freudiano que nossa inteligência antropomorfiza em filmes como o E.T.
Além
disso, Chomsky parece não escolher bem seus argumentos. Causa estupefação
atribuir à IA e ao ChatGPT a banalidade do mal, quando esse conceito –
concebido por Hannah Arendt em Eichmann em Jerusalém – servia para descrever as
ações de um ser humano que, ao contrário do que todos imaginavam, não tinha
qualquer traço monstruoso, exceto o fato de ser assustadoramente normal. Um
animal demasiado humano com capacidades morais incorporadas e genéticas como
qualquer outro.
Ou,
ainda, a afirmação irrisória de que o ChatGPT poderia aprender que a terra é
plana. Claro que poderia! E quem o ensinaria, a não ser uns bons punhados de
animais antrópicos bem-falantes? Seria preciso lembrar uma humanidade
pré-científica que por séculos acreditou no geocentrismo com base em uma
correlação desprovida de causalidade (a sucessão de dias e noites)? Não é um
tipo de pensamento bem humano que pensa primeiro por correlações, e depois
talvez se esforce metodicamente por discriminar em meio a elas as relações de
causalidade?
A
indução e o erro não são, também, potenciais inatos, assim como a banalidade do
mal grassando entre seres pretensamente morais? E uma das mais importantes
linhas da evolução – a que Bergson se referiu em A evolução criadora – não é
precisamente a capacidade vital de saltar para fora e para além das
determinações biológicas? A biologia só existe como inatismo e determinação, ou
também como processo evolutivo no qual a vida se prolonga- no caso humano,
cercado de artefatualidades? Quais poderiam ser alguns dos antídotos para esse
imenso tédio de uma inteligência inata?
• Chapação maquínica e alucinação
estatística
Meses
atrás, me lembro de que alguém mandou o link do ChatGPT com indisfarçável
excitação, e disse: “olha que loucura isso aqui!”. A palavra loucura para
substantivar o ChatGPT talvez não seja uma escolha fortuita. Nem a excitação
delirante que a seguia.
A
loucura é o que nos permite perceber que a crítica de Chomsky à IA é retrógrada
e mal-colocada. Ela se prende ao que Matteo Pasquinelli e Vladan Joler chamaram
de “status ideológico da máquina inteligente”. Isto é, a ideologia que existe
em pensar a inteligência algorítmica à imagem e semelhança da cerebral e
humana.
A
IA não é uma máquina inteligente. É um instrumento de percepção. Ela maximiza o
conhecimento, ajuda a perceber padrões e correlações em datasets que cérebros
humanos jamais poderiam percorrer sem correr o risco da vertigem, do vômito ou
do desmaio. E a IA o faz numa velocidade maior do que o cérebro humano poderia
(com o perdão da analogia) “processar”.
Ou
seja, modelos de IA implicam um novo regime de verdade que Chomsky só pode
perceber como mentira, falsa promessa e perigo moral, uma vez que ele o faz
retroagir ao inatismo biológico e ao aristotelismo logocêntrico.
Esse
novo regime de verdade é o que Pasquinelli e Joler chamaram, numa divergência
conceitual de seu uso técnico, de alucinação estatística. Não se trata de
chegar a outputs que não decorrem do dataset de treinamento, a erros evidentes
ou a respostas contrafáticas. Não é de uma inadequação entre as coisas e o
output que se trata. Mas de compreender que essas máquinas não emulam
inteligência, mas percepção.Isto é, os prompts são como janelas para os dados,
e os outputs, dispositivos que tornam visíveis e legíveis, por intermediação
algorítmica, um vasto conjunto de dados e pontos entre os quais se estabelecem
correlações.
Neste
estágio de desenvolvimento (em estágios futuros, não sabemos), é como se
ganhássemos um novo órgão perceptivo, com capacidades inéditas, e que pode
alterar não só a percepção de um meio, como também a autocompreensão de um
corpo-intelecto, e interferir na ecologia sensível que o constitui. Como um
telescópico, um microscópio, um binóculo noturno ou um bom e velho par de
óculos alteram um conjunto de percepções, ecologias e relações que um
corpo-intelecto mantém com os outros e seu entorno. Eles são próteses de
percepção, como um aparelho auditivo torna relativamente audível o que de outra
forma seria inaudível.
Não
há problema algum em dizer que as IAs não pensam, mas reconhecem padrões. É
precisamente isso que não as deixa serem entidades oraculares, ou cérebros
metafísicos, mas as torna instrumentos de conhecimento – ainda que
alucinatórios – porque a imagem que nos dão da realidade é distorcida, como a
que nossos olhos, óculos, microscópios ou telescópicos fornecem também o são.
O
grande debate sobre os vieses, em que a política dos algoritmos parece
emborcar, ganha novas proporções quando entendemos os algoritmos como
instrumentos de percepção e conhecimento – e não como máquinas inteligentes ou
criativas. O que explica a presença algorítmica de vieses não é a falta de
aptidão maquínica para a crítica moral, como quer Chomsky. Como a política de
Maquiavel e a norma jurídica de Kelsen, um par de óculos ou a IA não são
instrumentos morais ou imorais, mas amorais. E isso, por duas razões, ao menos.
Primeira,
porque dados brutos não existem. Eles são extraídos dos funcionamentos das
nossas sociedades, das suas divisões, dimorfismos e hierarquias. Os dados
marinam nos nossos preconceitos cognitivos. De modo que não são os algoritmos
que são racistas, xenófobos ou misóginos, mas os funcionamentos sociais que
originaram a vastidão de dados apodrecidos com os quais eles foram treinados. E
nós, hipócritas com capacidade moral inata, não gostamos de ver a imagem
refletida que os algoritmos tornam visíveis. Detestamos perceber que as
polícias sejam racistas, que as empresas sejam misóginas ou que os Estados
sejam xenófobos. Mas se forem males banais, nossa hipocrisia de animais
aparelhados para a moral dá de ombros e diz: “tudo bem…”.
Segunda,
porque existe um imenso trabalho humano (gratuito e periférico, mas também
remunerado e metropolitano) que vai ser integrado à modelagem matemática dos algoritmos.
Então, não podemos esperar deles mais ou menos moralidade do que nossas
formações sociais são capazes.
E
isso nada tem a ver com qualquer aptidão inata e biológica à moralidade, mas
com o fato de que as sociedades sempre foram as megamáquinas mais antigas e
mais inteligentes em extorquir e habituar comportamentos por repetição,
reiteração e sistemas mais ou menos difusos de punição-recompensa. Nós, e os
indivíduos que nós pensamos ser, não passamos de adictos sociais.
Mas
a alucinação estatística também se liga a uma outra coisa. Uma curtição, um
thrill, uma pira. Foi Félix Guattari quem, nos anos 1980, sugeriu o termo
chapação maquínica. Disse que com as tecnologias acontecem as mesmas coisas que
com os esportes de aventura, shows de música, os primeiros encontros, o sexo, o
chocolate, o álcool e outras drogas lícitas e não lícitas (por mero
ilegalismo).
Como
em tudo na vida, existem good trips e bad trips. E o mais recente texto de Noam
Chomsky é, provavelmente, fruto do segundo gênero. Uma bad trip de uma
inteligência desperta demais. Não deveria espantar que Chomsky se diga,
pessoalmente, um conservador quando assunto são drogas: o texto de Chomsky
mostra que ele não sabe chapar.
A
partir de uma definição ampliada da droga, Guattari chamou de chapação
maquínica “todos os mecanismos de produção de subjetividade maquínica, tudo o
que contribui para o sentimento de pertencer a algo, de ser de algum lugar; e
também de se esquecer. […] É o funcionamento do conjunto que é gratificante”
(Guattari, 2022, p. 191 [Os anos de inverno, 1980-1985]). As pessoas chapam o
tempo todo e por toda a parte: na empresa, na Igreja, na balada, nas suas
tribos, fazendo tatuagens, curtindo uma viagem, lendo poesia e filosofia,
escrevendo uma tese, assistindo reality shows ou documentários sobre cutelaria
moderna.
A
chapação atua no sistema dopaminérgico, e a dopamina é um neurotransmissor
produzido pelo sistema mesolímbico, ligado aos circuitos de recompensa. Ela é o
que produz aquela sensação de prazer e bem-estar que se segue de ter alcançado
um objetivo, uma meta ou realizado alguma coisa existencialmente significativa.
O
Guattari dos anos 1980 já havia entendido alguma coisa do que estávamos em vias
de nos tornar. Ele descrevia a monomania dos videogames dos adolescentes, o
zapping televisivo dos trabalhadores esgotados, o esqui alpino dos turistas que
desciam colinas verticais, como chapações com efeitos em aspectos existenciais.
Tudo estava ligado, ao menos na cultura do Ocidente, a um retorno ao sentimento
de individualidade. No seu vocabulário, e no de Deleuze, a uma
reterritorialização subjetiva. Uma espécie de compensação pela sensação de
estar esquartejado mecanicamente, despedaçado como divíduos ligados p2p numa
rede infinita de outras subjetividades.
O
que os neurofisiologistas descobririam algumas décadas mais tarde, é que as
nossas chapações maquínicas se tornaram mais pesadas. Não apenas as redes
sociais atuam no sistema dopaminérgico, mas elas são desenhadas para ativar o
sistema de reforço e de recompensa, e assim intensificar as interações.
Esta
não é uma economia atencional, mas uma neuroeconomia dopaminérgica: quanto mais
presença online, mais posts; quanto mais posts, mais likes e interações; quanto
mais likes e interações, mais recompensas; e quanto mais recompensas mais o
ciclo é reiniciado, recalibrado, repetido, desviado para novos objetos que
proliferam de novos investimentos. O engajamento é a medida de todas as coisas,
e as redes são poços virtualmente infinitos de dopamina.
Mas
também é o próprio Guattari quem diz que nada disso deve parecer assombroso –
embora envolva perigos. As chapações podem ter valor de refúgio: “As pessoas se
subjetivam, refazem para si territórios existenciais com suas chapações” (Idem,
p. 194). E disso não sai muita coisa além do velho sentimento de
individualidade que nos aborrece – mas cuja perda nos parece aterradora.
Há
a possibilidade de a chapação ir longe demais e dar origem a uma implosão
subjetiva: Van Gogh, Artaud, os jovens japoneses que se suicidam no trabalho. A
vida vai sendo arrastada por um processo de singularização que não pode
estancar, precisa virar processo. Senão, é o beco sem saída, o buraco-negro, um
caos destrutivo sem redenção informe. É o “desmoronamento lamentável”, ou a
chapação que se revela obsoleta.
E
há a criação de universos inauditos: “As formações subjetivas preparadas pelas
chapações podem dar um novo impulso ao movimento ou, ao contrário, fazê-lo
morrer lentamente. Por trás de tudo isso existem possibilidades de criação de
mudanças de vida, de revoluções científicas, econômicas e até mesmo estéticas.
Novos horizontes ou nada. […] promover o reino de singularidades mutantes,
novas minorias”(Idem, p. 194-195).
É
mais provável que o que nos aguarda seja um envolvimento das três linhas que
Guattari descreve: haverá desmoronamentos lamentáveis, buracos-negros, caos
destrutivo; mas também ilhas de privilégio cuja moeda será o valor de refúgio,
e um impulso em movimentos e grupos de usuários que ainda sequer existem, ou se
autocompreendem, como tais.
O
complexo é o seu emaranhamento: os desmoronamentos podem servir aos movimentos,
enquanto os movimentos podem servir à circulação sacana dos valores de refúgio,
dos clubes mais ou menos privados. É dessa constelação esquizo, que nos
assombra com suas possibilidades maníaca e paranoide, que precisamos fazer sair
um novo mundo, uma nova ecologia de relações baseada nas lutas pela dissolução
de todos os dimorfismos hierarquizantes. Essa é a questão política da
tecnologia e da ética dos inputs que o Chat-GPT torna pensáveis, a contrapelo
dos tecno-otimismos e os tecnopessimismos – que, ao que tudo indica, já têm
seus outputs all-figured out de antemão.
Fonte:
Por Nathan J Robinson, para Jacobin Brasil -
tradução de Sofia Schurig, para IHU
Nenhum comentário:
Postar um comentário