ChatGPT ou a
escatologia das máquinas
Em
vez de mistificar as máquinas e a humanidade, entendamos a nossa atual
realidade técnica e sua relação com diversas realidades humanas, a fim de que
essa realidade técnica possa ser integrada a elas, para manter e reproduzir a
biodiversidade, a noodiversidade e a tecnodiversidade.
A
opinião é de Yuk Hui, professor de
Filosofia da Tecnologia e da Mídia na City University de Hong Kong. Obteve seu doutoramento no Goldsmiths College London, na Inglaterra, e sua habilitação em filosofia na Leuphana University Lüneburg, na Alemanha. É autor de várias obras que
foram traduzidas para uma dezena de idiomas, inclusive ao português, como “Tecnodiversidade” (Ubu
Editora, 2020).
Eis o artigo.
O ChatGPT despertou
entusiasmo e medo desde seu lançamento em novembro de 2022. Seu aparente
domínio da semântica e da sintaxe – mas ainda não do conteúdo – de diferentes
idiomas surpreende os usuários que esperavam um chatbot comum.
Algumas universidades imediatamente proibiram os alunos
de usarem o ChatGPT para a redação de textos, uma vez que ele supera a maioria
dos estudantes humanos. Os artigos de opinião dos jornais anunciaram o fim da
educação – não apenas porque os estudantes podem usá-lo para fazer a lição de
casa, mas também porque o ChatGPT pode
fornecer mais informações do que muitos professores.
A
inteligência artificial parece ter conquistado outro domínio que, segundo a
filosofia clássica, define a natureza humana: o logos. O pânico
cresce com essa perda adicional de território existencial. O imaginário apocalíptico
da história humana se intensifica à medida que o colapso climático e a revolta dos robôs evocam o fim
dos tempos.
O
fim dos tempos não era estranho para os modernos. De fato, no livro “Meaning in History”, de Karl Löwith, de 1949, o filósofo
mostrou que a filosofia moderna da história, de Hegel a Burckhardt, era uma
secularização da escatologia.
O telos da história é o que
torna o transcendente imanente, seja a segunda vinda de Jesus Cristo ou simplesmente o devir do Homo deus. Esse imaginário
bíblico ou abraâmico do tempo oferece muitas reflexões profundas sobre a
existência humana em geral, mas também obstrui a compreensão do nosso futuro.
Nos
anos 1960, Hans Blumenberg argumentou
contra a tese da secularização de Löwith,
assim como contra a afirmação de Carl Schmitt de que “todos
os conceitos significativos da teoria moderna do Estado são conceitos
teológicos secularizados”. Blumenberg sustentou que a compreensão do moderno
como a secularização ou a
transposição de conceitos teológicos mina a legitimidade do moderno; um certo
significado da modernidade permanece irredutível à secularização da teologia.
Da mesma forma, a novidade e o significado da inteligência
artificial são
sepultados pelo imaginário escatológico, pelos estereótipos modernos sobre as
máquinas e pela propaganda industrial.
Isso
não significa que devamos negar as mudanças climáticas e resistir
à inteligência
artificial.
Pelo contrário, lutar contra as mudanças
climáticas deveria ser a nossa prioridade, assim como desenvolver
uma relação produtiva entre humanos e tecnologia. Mas, para fazermos
isso, devemos desenvolver uma compreensão adequada da inteligência artificial,
além de uma compreensão meramente técnica. A invenção do trem, do automóvel e,
mais tarde, do avião também provocou um grande medo, tanto psicologicamente
quanto economicamente, mas hoje poucos temem que essas máquinas escaparão do
nosso controle. Em vez disso, carros e aviões fazem parte da vida do cotidiano,
muitas vezes significando emoção e liberdade. Então, por que existe tanto
medo da inteligência artificial?
Para
entender essa nova onda de tecnologia que tem o ChatGPT na vanguarda,
podemos começar com o famoso experimento mental da Sala Chinesa de John
Searle, de 1980, que esconde o estereótipo mais irritante das máquinas
computacionais sob a forma de raciocínio lógico. Nesse experimento mental,
Searle se imaginou sozinho em uma sala, encarregado de seguir instruções de
acordo com um programa de processamento de símbolos escrito em inglês, a fim de
responder a inputs escritos em chinês e passados por baixo da
porta. Searle não entende chinês no experimento: “Não sei nada de chinês, seja
escrito ou falado, e (...) nem tenho certeza de que poderia reconhecer a
escrita chinesa como uma escrita diferente, digamos, da escrita japonesa ou de
rabiscos sem sentido”.
No
entanto, ele argumenta que, com o conjunto certo de instruções e regras, ele
poderia responder de forma a levar a pessoa fora da sala a acreditar que ele
entende chinês. Simplificando, Searle afirma
que apenas pelo fato de a máquina ser capaz
de seguir instruções em chinês, isso não significa que a máquina entenda chinês – uma marca
registrada da chamada IA forte (em
contraste com a IA fraca).
Entender significa, acima de tudo, entender a semântica. Embora a sintaxe possa
ser codificada, o significado semântico muda com a situação e a circunstância.
A Sala Chinesa de Searle se aplica a um computador
que ainda funciona como uma máquina do século XVIII, como o Pato Digestor ou o Turco Mecânico.
No
entanto, esse não é o tipo de máquina com a qual estamos lidando hoje. Noam Chomsky, Ian
Roberts e Jeffrey Watumull estavam certos ao afirmar que o ChatGPT é “um pesado motor
estatístico para a correspondência de padrões”. No entanto, devemos reconhecer
que, embora os padrões sejam uma característica primária da informação, o
ChatGPT está fazendo mais do que apenas a correspondência de padrões.
Tal
crítica sintática se baseia em uma epistemologia mecanicista que assume a
causalidade linear – uma causa seguida por um efeito. Pode-se inverter esse
processo de causa e efeito para alcançar a causa última: o motor principal, o
padrão da causa primeira e o destino final de todo raciocínio linear. Em
contraste com a causalidade linear e a filosofia mecanicista, o século XVIII
viu o surgimento do pensamento filosófico baseado no organismo, com a “Crítica do julgamento”, de Immanuel Kant, como uma das
contribuições mais significativas.
Como
afirmei antes, Kant impôs uma
nova condição ao filosofar, a saber, que a filosofia deve se tornar orgânica;
em outras palavras, o orgânico marcou um novo começo para o pensamento
filosófico. Hoje, é importante reconhecer que a condição do filosofar que Kant estabeleceu chegou ao seu
fim após a cibernética.
A
cibernética, um termo cunhado por Norbert Wiener por volta de
1943, foi desenvolvida por um grupo de cientistas e engenheiros que
participaram das Conferências Macy sobre
cibernética no fim dos anos 1940 e início dos anos 1950. A cibernética
pretendia ser uma ciência universal capaz de unificar todas as disciplinas –
uma nova adaptação do enciclopedismo do século XVIII, segundo Gilbert Simondon. A cibernética usa
o conceito de feedback para definir o funcionamento de uma
nova “máquina cibernética” distinta das “máquinas mecânicas” do século XVII.
Wiener afirmou em seu livro seminal de 1948
que a cibernética havia superado a oposição entre mecanicismo e vitalismo
representada por Newton e Bergson, porque as
máquinas cibernéticas se baseavam em uma nova forma não linear de causalidade –
ou recursividade –, em vez de uma causalidade linear frágil e ineficaz – frágil
porque não sabe regular seu próprio modo de funcionamento. Imagine um relógio
mecânico: quando uma das engrenagens falha, todo o relógio para. Com esse tipo
de mecanismo linear, nenhum aumento exponencial na velocidade de seu raciocínio
pode ocorrer sem uma atualização radical do hardware.
Se
a oposição entre mecanismo e organismo caracteriza um grande debate da
filosofia moderna, determinando a direção de seu desenvolvimento, então o
debate persiste hoje, quando tantas das declarações desacreditando a inteligência artificial e o ChatGPT assumem que
as máquinas são apenas mecanicistas e, portanto, incapazes de entender o
significado semântico. Seria igualmente errôneo afirmar que as máquinas são
apenas uma imitação falha da compreensão humana quando se trata do significado
semântico.
O
filósofo e cientista cognitivo Brian
Cantwell Smith criticou duramente esse pensamento antropomórfico,
defendendo uma intencionalidade maquínica. Para ele, mesmo que não se encontre
nenhuma intencionalidade humana em uma máquina, ela continua sendo uma forma de
intencionalidade; é semântica, ainda que não no sentido da linguagem humana.
Tal separação da semântica antropomórfica da semântica das máquinas é
fundamental para repensar as nossas relações com as máquinas, mas apenas como
um primeiro passo.
O
argumento de Searle ignora
fundamentalmente a forma recursiva de cálculo realizada pelas máquinas de hoje.
Pode-se argumentar que a ciência da computação não deveria ser confundida com a
cibernética, já que a cibernética é uma ciência muito abrangente. No entanto,
pode-se também pensar na função recursiva de Gödel e em sua equivalência com a Máquina de Turing e o cálculo
lambda de Alonzo Church (uma
história bem conhecida na história da computação).
O
termo “recursividade” não pertence apenas à cibernética; pertence também ao
pensamento pós-mecanicista. O advento da cibernética apenas anunciou a
possibilidade de realizar esse pensamento recursivo em máquinas cibernéticas.
A
“inteligência” encontrada nas máquinas hoje é uma forma reflexiva de operação,
como Gotthard Günther e Gilbert Simondon observaram
corretamente. Para Günther,
a cibernética é a realização da lógica de Hegel, enquanto,
para Simondon, foi apenas
na elaboração da “Crítica
do Julgamento” sobre o juízo reflexivo que Kant abordou a cibernética.
O
“pensamento reflexivo” costuma ser associado a
seres humanos e não a máquinas, pois as máquinas apenas executam instruções sem
refletir sobre as próprias instruções. Mas, desde a introdução da cibernética
nos anos 1940, o termo também pode descrever o mecanismo de feedback das
máquinas. O pensamento reflexivo nas máquinas detém um poder assombroso sobre
os seres humanos despreparados para aceitar sua existência, mesmo como uma
forma preliminar e básica de reflexão – sendo puramente formal e, portanto,
insuficiente para lidar com o conteúdo.
Aqui
podemos entender como o ChatGPT pode
ser “não particularmente inovador” e “nada revolucionário” para cientistas da
computação como Yann LeCun. É apenas lidando
com o conteúdo que as máquinas podem se mover rumo àquilo que se convencionou
chamar de singularidade tecnológica. Até agora, a singularidade continua sendo
um mito – enganoso e também prejudicial quando apresentado como um futuro
próximo. Mesmo que associemos a singularidade a um significado teológico ou a uma escatologia, isso não contribui em
nada para a compreensão da inteligência artificial ou de seu futuro.
As máquinas recursivas, e não as máquinas
lineares, são cruciais para entender o desenvolvimento e a
evolução da inteligência artificial. Como os seres humanos abordarão esse novo
tipo de máquina? Simondon levantou
uma questão semelhante ao perguntar: quando a tecnologia se tornar
reflexiva,
qual será o papel da filosofia?
Brian Cantwell Smith argumentou que a inteligência
artificial se limita à capacidade de avaliação e não de julgamento, mas é
difícil dizer por quanto tempo essa distinção pode durar. Talvez se desperdiçou
muito esforço intelectual para fazer distinções entre máquinas e humanos.
Os
seres humanos não ficaram chateados quando animais domesticados, como cavalos e
vacas, os substituíram como provedores de energia. Em vez disso, eles acolheram
o alívio em relação ao trabalho repetitivo e cansativo. O mesmo ocorreu quando
as máquinas a vapor substituíram os animais; elas eram ainda mais eficientes e
exigiam ainda menos atenção humana. Simondon, em seu livro “Do modo de existência dos objetos técnicos” (Contraponto
editora, 2020), de 1958, observou corretamente que a substituição das máquinas
termodinâmicas por máquinas informacionais marca um momento crucial: o
deslocamento humano do centro de produção.
Os artesãos antes da era industrial
eram capazes de criar um meio associado no qual o corpo e a inteligência do
artesão compensavam a falta de autonomia de suas simples ferramentas. Na era
das máquinas informacionais,
ou máquinas cibernéticas, a própria máquina passa a ser a organizadora da informação, e o humano não está mais
no centro, mesmo que ainda se considere o comandante das máquinas e o
organizador da informação. Esse é o momento em que o humano sofre com suas
próprias crenças estereotipadas sobre as máquinas: eles se identificam
falsamente como o centro e, ao fazerem isso, enfrentam uma frustração constante
e uma busca apavorada por
identidade.
A
realidade que reside na máquina está alienada da realidade na qual o humano
opera. O inevitável processo de evolução tecnológica é impulsionado pela
introdução da causalidade não linear, que permite que as máquinas lidem com a
contingência. Uma máquina de aprendizagem é aquela que pode discernir eventos
contingentes, como o ruído e a falha. Pode distinguir os inputs desorganizados
dos inputs necessários. E, ao interpretar eventos
contingentes, a máquina de aprendizagem melhora seu modelo de tomada de
decisão.
Mas
mesmo aqui a máquina precisa de humanos para distinguir as decisões certas das
erradas, a fim de continuar melhorando. Nos países em desenvolvimento, um novo
tipo de mão de obra barata emprega humanos para dizer às máquinas se os
resultados estão corretos, sejam eles varreduras de reconhecimento facial ou
respostas do ChatGPT. Essa nova forma
de trabalho, que explora os trabalhadores que trabalham invisivelmente por trás
das máquinas com as quais interagimos, é frequentemente negligenciada por
críticas muito genéricas ao capitalismo e que lamentam a automação
insuficiente. Essa é a fraqueza da crítica marxista
atual da tecnologia.
Simondon levantou uma questão-chave em “Do modo de existência dos objetos técnicos”:
quando o humano deixa de ser o organizador da informação, que papel ele pode
desempenhar? O humano pode ser libertado do trabalho? Como suspeitava Hannah Arendt em “A
condição humana” – publicado no mesmo
ano do livro de Simondon –
tal liberação só leva ao consumismo, deixando o artista como o “último homem”
capaz de criar.
O
consumismo aqui se torna o limite da ação humana. Arendt vê as máquinas a partir da perspectiva da realidade
humana, substituindo o Homo faber, enquanto Simondon mostra que uma
incapacidade de lidar e integrar a realidade técnica das máquinas fomentará um
infeliz antagonismo entre o humano e a máquina, a cultura e a técnica. Esse
antagonismo não é apenas a fonte do medo, mas também se baseia em uma
compreensão muito problemática da tecnologia, moldada pela propaganda industrial e
pelo consumismo. É dessa
negatividade que nasceu um humanismo primitivista, que identifica o amor como o
último recurso do humano.
Mais
de 60 anos se passaram desde que Simondon levantou
essas questões, e elas permanecem sem solução. Pior, foram obscurecidas
pelo otimismo tecnológico,
assim como pelo pessimismo
cultural, em que o primeiro promove uma aceleração implacável, e o
último serve como psicoterapia. Ambas as tendências se originam de uma compreensão
antropomórfica das máquinas, que diz que elas devem imitar os seres humanos (Simondon criticou ferozmente a
cibernética por ter essa visão, embora isso não fosse totalmente justificado).
Hoje,
a expressão mais irônica dessa visão mimética está no campo da arte, em
tentativas de provar que uma máquina pode fazer o trabalho de um Bach ou de
um Picasso. Por um lado, o
humano em pânico pergunta repetidamente que tipo de trabalho ele pode evitar
que seja substituído por máquinas; por outro, a indústria de tecnologia
trabalha conscientemente para substituir a intervenção humana pela automação
das máquinas. Os humanos vivem dentro da profecia
autorrealizável da substituição por parte da indústria. E, de fato, a
indústria reproduz constantemente o discurso da substituição ao anunciar o fim
deste ou daquele emprego, como se uma revolução tivesse chegado, enquanto a
estrutura social e o nosso imaginário social permanecem inalterados.
O
discurso da substituição não se transformou em discurso da libertação nas
sociedades capitalistas nem nas ditas comunistas. Para ser justo, alguns
aceleracionistas percebem isso e procuram reviver a visão de Marx da automação
total. Se a física do Ensino Médio fosse mais popular, teríamos um conceito
mais matizado de aceleração, porque a aceleração não significa um aumento na
rapidez, mas sim um aumento na velocidade. Em vez de elaborar uma visão do
futuro em que a inteligência artificial desempenha uma função protética, o
discurso dominante a trata meramente como um desafio à inteligência humana e
uma substituição do trabalho intelectual.
Os humanos de hoje falham em sonhar. Se o
sonho de voar levou à invenção do avião, agora temos cada vez mais pesadelos com as
máquinas.
Em última análise, tanto o tecno-otimismo (na forma do trans-humanismo) quanto
o pessimismo cultural se encontram em sua projeção de um fim apocalíptico.
A criatividade humana deve tomar uma direção
radicalmente diferente e elevar as relações homem-máquina acima da teoria
econômica da substituição e das fantasias da interatividade. Deve se mover rumo
a uma análise existencial. A natureza protética da tecnologia deve ser afirmada
para além de sua funcionalidade, pois, desde os primórdios da humanidade, o
acesso à verdade sempre dependeu da invenção e do uso de
instrumentos.
Esse fato permanece invisível para muitos, o que faz com que o conflito entre a
evolução maquínica e a existência humana pareça se originar de uma ideologia
profundamente enraizada na cultura.
Vivemos
em vários ciclos de feedback positivo representados como cultura. Desde o
início da sociedade industrial moderna, o corpo humano foi subordinado a ritmos
repetitivos e, consequentemente, a mente humana foi subsumida pelas profecias
da indústria. Seja o Sonho
Americano ou o Sonho
Chinês, um enorme potencial humano tem sido suprimido em favor de
uma ideologia consumista. No passado, a filosofia
tinha a tarefa de limitar a hybris produzida pelas máquinas e
de libertar os seres humanos dos ciclos de feedback em nome da
verdade. Hoje, os filósofos da tecnologia, em vez disso, estão ansiosos para
afirmar esses ciclos de feedback como o caminho inevitável da
civilização. O humano agora reconhece a centralidade da tecnologia ao querer
resolver todos os problemas como se fossem problemas técnicos. Velocidade e
eficiência governam toda a sociedade assim como antes governavam apenas as
disciplinas da engenharia.
O
desejo dos educadores de realizar uma mudança paradigmática em poucos anos
desacredita qualquer reflexão fundamental sobre a questão da tecnologia, e
acabamos novamente em um ciclo de feedback. Consequentemente,
as universidades continuam
produzindo talentos para a indústria
de tecnologia, e esses talentos passam a desenvolver algoritmos mais eficientes para
explorar a privacidade dos usuários e manipular a forma como eles consomem.
Para as universidades, deveria ser mais urgente lidar com essas questões do que
pensar em banir o ChatGPT.
O
humano pode escapar desse ciclo de feedback positivo de profecia autorrealizável tão
profundamente enraizada na cultura contemporânea? Em 1971, Gregory Bateson descreveu um
ciclo de feedback que aprisiona os alcoólatras: um copo de
cerveja não vai me matar; ok, já que comecei a beber, um segundo copo cai bem;
bem, já foram dois, então por que não três? Um alcoólatra, se tiver sorte, pode
sair desse ciclo de feedback positivo “chegando ao fundo do
poço” – sobrevivendo a uma doença fatal ou a um acidente de carro, por exemplo.
Esses
sortudos sobreviventes desenvolvem, então, uma intimidade com o divino. Os humanos, os alcoólatras modernos, com
toda sua inteligência e criatividade coletivas, podem escapar desse destino de
chegar ao fundo do poço? Em outras palavras, o humano pode dar uma guinada radical e levar a criatividade para uma direção diferente?
Essa
oportunidade não é fornecida precisamente pelas máquinas inteligentes de hoje? Como próteses, em vez de seguidoras
mecânicas de padrões, as máquinas podem libertar o humano da repetição e nos
ajudar a realizar o potencial humano. Nossa preocupação hoje é essencialmente
como adquirir essa capacidade
transformadora, e não o debate sobre se uma máquina pode pensar, que é
apenas uma expressão de crise existencial e de ilusão transcendental. Talvez
algumas novas premissas sobre as relações homem-máquina possam libertar a nossa
imaginação. Aqui estão três (embora certamente outras possam ser adicionadas):
1) Em vez de suspender o
desenvolvimento da inteligência artificial, suspendamos a estereotipagem antropomórfica das máquinas e
desenvolvamos uma adequada cultura
das próteses. A tecnologia deve ser utilizada para realizar o potencial de seu usuário (aqui
teremos que dialogar com a teoria das capacidades de Amartya Sen) ao invés de ser
sua concorrente ou reduzi-lo a padrões de consumo.
2) Em vez de mistificar as máquinas e a humanidade,
entendamos a nossa atual realidade técnica e sua relação com diversas
realidades humanas, a fim de que essa realidade técnica possa ser integrada a
elas, para manter e reproduzir a biodiversidade, a noodiversidade e a tecnodiversidade.
3) Ao invés de repetir a visão apocalíptica da
história (uma visão expressada, em sua forma mais secular, no fim da história
de Kojève e Fukuyama), libertemos a
razão de seu caminho fatídico rumo a um fim apocalíptico. Essa libertação
abrirá um campo que nos permitirá experimentar modos éticos de viver com as
máquinas e com outros não humanos.
Nenhuma
invenção chega sem constrangimentos e problemáticas. Embora esses
constrangimentos sejam mais conceituais do que técnicos, ignorar o âmbito conceitual é precisamente
o que permite o crescimento do mal,
fruto de uma perversão em que a forma supera o terreno.
Somente
quando rompermos com o viés
cultural e a profecia
autorrealizável da indústria de tecnologia é que poderemos
desenvolver uma intuição maior sobre as possibilidades do futuro, que não podem
se basear meramente na análise de dados e na extração de padrões. É muito
provável que, antes de chegarmos lá, os profetas industriais do nosso tempo já
tenham percebido que as máquinas podem prever o futuro melhor do que eles.
Fonte:
e-Flux Journal - tradução
de Moisés Sbardelotto, para
IHU
Nenhum comentário:
Postar um comentário