Slavoj Žižek:
Idiotice Artificial
Não
há nada de novo nos “chatbots” que são capazes de sustentar uma conversa em
linguagem natural, compreendendo as intenções básicas do usuário e oferecendo
respostas baseadas em regras e dados predefinidos. Sua capacidade, no entanto,
aumentou dramaticamente nos últimos meses, levando muitos ao pânico e ao
desespero.
Muito
se disse sobre os chatbots serem um prenúncio do fim das dissertações
estudantis. Mas um problema que requer maior atenção é como os chatbots devem
responder quando os interlocutores humanos usam afirmações agressivas, sexistas
ou racistas para incitar o robô a apresentar suas próprias fantasias de baixo
calão em resposta. As inteligências artificiais deveriam ser programadas para
responder no mesmo nível das questões que lhes são postas?
Se
decidirmos que algum tipo de controle deve ser aplicado, devemos então
determinar quão longe a censura deve ir. Posicionamentos políticos que alguns
setores consideram “ofensivos” serão proibidos? E as expressões de
solidariedade com os palestinos da Cisjordânia? A afirmação de que Israel é um
Estado de apartheid (o que o ex-presidente Jimmy Carter colocou certa vez no
título de um livro)? Tudo isso será bloqueado por ser “antissemita”?
O
problema não termina aqui. Conforme nos alerta o escritor e artista James
Bridle, as novas inteligências artificiais são “baseadas na apropriação em
massa da cultura existente”, e a crença de que elas são “verdadeiramente
instruídas ou portadoras de sentido é ativamente perigosa”. Por isso, devemos
ser bastante cautelosos com os novos geradores de imagem por inteligência
artificial. “Em sua tentativa de compreender e replicar a cultura visual humana
em sua integridade” observa Bridle, “[eles] parecem também ter recriado nossos
maiores medos. Talvez isto seja apenas um sinal de que estes sistemas são
realmente muito bons em imitar a consciência humana, alcançando inclusive os
horrores que estão à espreita nas profundezas de nossa consciência: nossos
pavores diante da imundície, da morte e da corrupção”.
Mas
quão boas são as novas inteligências artificiais em se assemelhar à consciência
humana? Considere o bar que, recentemente, anunciou uma promoção especial sob
os seguintes termos: “Compre uma cerveja pelo preço de duas e receba uma
segunda cerveja completamente grátis!”. Para qualquer humano, isso é obviamente
uma brincadeira. A típica oferta “compre uma, ganhe uma” é reformulada para
cancelar a si mesma. Trata-se de uma expressão de cinismo apreciada enquanto
honestidade cômica, de modo a aumentar as vendas. Um chatbot seria capaz de
compreender isso?
“Foder”
apresenta um problema semelhante. Embora a palavra designe algo que a maioria
das pessoas gosta de fazer (copular), ela também adquire um valor negativo
(“Estamos fodidos!”, “Vá se foder!”). A linguagem e a realidade são confusas. A
inteligência artificial está pronta para discernir tais diferenças?
Em
seu ensaio de 1805, “Sobre a formação gradual dos pensamentos no processo da
fala” (publicado postumamente em 1878), o poeta alemão Heinrich von Kleist
inverteu dito popular de que não se deve abrir a boca para falar a não ser que
se tenha uma ideia clara do que dizer: “sendo assim, se um pensamento é
expresso de uma forma confusa, isso não significa de forma alguma que tal
pensamento foi concebido de uma maneira confusa. Pelo contrário, é possível que
as ideias que são expressas das maneiras mais confusas sejam justamente aquelas
que foram pensadas com maior clareza”.
Essa
relação entre linguagem e pensamento é extraordinariamente complicada. Em uma
passagem de um de seus discursos no início dos anos 1930, Joseph Stalin propõe
medidas radicais para “detectar e combater sem piedade até mesmo aqueles que se
opõem a coletivização apenas em seus pensamentos – sim, é isso que eu quero
dizer, devemos combater até mesmo os pensamentos das pessoas”. Podemos presumir
seguramente que essa frase não foi preparada de antemão. Ao se deixar levar
pelo momento, Stalin imediatamente tomou consciência do que ele acabara de
dizer. Mas em vez de recuar, ele decidiu continuar com a sua hipérbole.
Conforme
Jacques Lacan afirmou posteriormente, este foi um dos casos em que a verdade
emerge de surpresa através do ato de enunciação. Louis Althusser identificou um
fenômeno semelhante na relação entre prise e surprise. Alguém que subitamente
toma consciência (“prise”) de uma ideia se surpreenderá com o que realizou. De
novo, algum chatboté capaz de fazer isso?
O
problema não é que os chatbots sejam estúpidos; é que eles não são “estúpidos”
o suficiente. Não é que eles sejam ingênuos (incapazes de ironizar e refletir);
é que eles não são ingênuos o suficiente (não conseguindo perceber os momentos
em que a ingenuidade está mascarando a perspicácia). O verdadeiro perigo,
então, não é o de as pessoas confundirem os chatbots com pessoas reais; mas de
os chatbots fazerem as pessoas reais falarem como chatbots – incapazes de notar
as nuances e ironias, dizendo de maneira obsessiva exatamente aquilo que pensam
que querem dizer.
Quando
eu era mais jovem, um amigo foi a um psicanalista buscar tratamento após uma
experiência traumática. A ideia que este amigo tinha acerca do que tais
analistas esperam de seus pacientes era um clichê, e ele passou a primeira
sessão produzindo falsas “associações livres” sobre como ele odiava seu pai e
desejava sua morte. A reação do analista foi ingênua: ele adotou um
posicionamento “pré-freudiano” ingênuo e repreendeu meu amigo por não respeitar
seu pai (“Como você pode falar assim da pessoa que o fez o que você é?”). Essa
falsa inocência passou uma mensagem clara: não estou comprando suas falsas
“associações”. Um chatbot seria capaz de compreender este subtexto?
Provavelmente
não compreenderia, porque ele é como a interpretação de Rowan Williams do
Príncipe Míchkin do livro O idiota de Dostoievsky. De acordo com a
interpretação convencional, Míchkin, “o idiota”, é “um homem positivamente bom
e belo” que foi levado à loucura solitária pelas duras brutalidades e paixões
do mundo real. Na releitura radical de Williams, porém, Míchkin representa o
olho de uma tempestade: por melhor e mais santo que ele seja, é ele que provoca
o caos e as mortes que presencia por causa de seu papel na complexa teia de
relações em seu redor.
Não
é que Míchkin seja um ingênuo simplório. Mas que seu tipo particular de
obtusidade o torna incapaz de se dar conta dos seus efeitos desastrosos sobre
os outros. Ele é uma personagem plana que fala literalmente como um chatbot.
Sua “bondade” se baseia no fato de que, como um chatbot, ele reage aos desafios
sem ironia, oferecendo chavões desprovidos de qualquer reflexividade,
entendendo tudo de forma literal e baseando-se em um mecanismo mental de
respostas autocompletadas em vez da formação de ideias. Por este motivo, os
novos chatbots se darão muito bem com ideólogos de todas as estirpes, desde a
multidão “woke” contemporânea aos nacionalistas “MAGA”, que preferem continuar
dormindo.
Inteligência artificial pode afetar 300 milhões
de empregos no mundo, diz Goldman Sachs
Até
300 milhões de empregos em tempo integral em todo o mundo podem ser
automatizados de alguma forma pela mais nova onda de inteligência artificial
que gerou plataformas como o ChatGPT, de acordo com economistas do Goldman
Sachs.
Eles
previram em um relatório no domingo (26) que 18% do trabalho globalmente
poderia ser informatizado, com os efeitos sentidos mais profundamente nas
economias avançadas do que nos mercados emergentes.
Isso
ocorre em parte porque os trabalhadores de colarinho branco correm mais riscos
do que os trabalhadores braçais. Espera-se que trabalhadores administrativos e
advogados sejam os mais afetados, disseram os economistas, em comparação com o
“pequeno efeito” observado em ocupações fisicamente exigentes ou ao ar livre,
como construção e reparos.
Nos
Estados Unidos e na Europa, aproximadamente dois terços dos empregos atuais
“estão expostos a algum grau de automação da IA” e até um quarto de todo o
trabalho pode ser feito completamente pela IA, estima o banco.
Se
a inteligência artificial generativa “cumprir suas capacidades prometidas, o
mercado de trabalho pode enfrentar perturbações significativas”, escreveram os
economistas. O termo refere-se à tecnologia por trás do ChatGPT, a sensação do
chatbot que conquistou o mundo.
O
ChatGPT, que pode responder a solicitações e redigir redações, já levou muitas
empresas a repensar como as pessoas devem trabalhar todos os dias.
Este
mês, seu desenvolvedor revelou a versão mais recente do software por trás do
bot, GPT-4. A plataforma impressionou rapidamente os primeiros usuários com sua
capacidade de simplificar a codificação, criar rapidamente um site a partir de
um esboço simples e passar nos exames com notas altas.
O
uso adicional dessa IA provavelmente levará à perda de empregos, escreveram os
economistas do Goldman Sachs. Mas eles observaram que a inovação tecnológica
que inicialmente desloca trabalhadores historicamente também criou crescimento
de empregos a longo prazo.
Embora
os locais de trabalho possam mudar, a adoção generalizada da IA pode aumentar a
produtividade do trabalho – e aumentar o PIB global em 7% ao ano durante um
período de 10 anos, segundo o Goldman Sachs.
“Embora
o impacto da IA no mercado de trabalho provavelmente seja significativo, a
maioria dos empregos e indústrias está apenas parcialmente exposta à automação
e, portanto, é mais provável que seja complementada em vez de substituída pela
IA”, acrescentaram os economistas.
“A
maioria dos trabalhadores está empregada em ocupações parcialmente expostas à
automação da IA e, após a adoção da IA, provavelmente aplicará pelo menos parte
de sua capacidade liberada em atividades produtivas que aumentam a produção”.
Dos
trabalhadores americanos que devem ser afetados, por exemplo, 25% a 50% de sua
carga de trabalho “pode ser substituída”, acrescentaram os pesquisadores.
“A
combinação de economias significativas nos custos de mão de obra, criação de
novos empregos e aumento de produtividade para trabalhadores não deslocados
aumenta a possibilidade de um boom de produtividade da mão de obra como aqueles
que se seguiram ao surgimento de tecnologias anteriores de uso geral, como o
motor elétrico e o computador pessoal. ”
Todas as big techs foram
instrumentalizadas nos atos de 8 de janeiro, diz Moraes
O
ministro Alexandre de Moraes, do Supremo Tribunal Federal (STF), disse nesta
terça-feira (28) que todas as plataformas de redes sociais foram
“instrumentalizadas” para os atos de 8 de janeiro, quando as sedes dos Três
Poderes foram invadidas e vandalizadas em Brasília.
O
magistrado considerou como “falido” e “absolutamente ineficiente” o atual
modelo de regulação de conteúdos na internet.
“O
modelo atual, por mais que alguns queiram defender, é absolutamente
ineficiente, destrói reputação, destrói dignidades, faz e fez com que houvesse
aumento no número de depressão em adolescentes, suicídio de adolescentes”,
declarou. “Sem contar a instrumentalização que houve em todas as plataformas,
de todas as big techs, em 8 de janeiro. O atual modelo é falido, no Brasil e no
mundo”.
As
declarações foram feitas no início da audiência pública realizada no STF para
discutir pontos do Marco Civil da Internet. Representantes do governo Lula,
como os ministros Flávio Dino (Justiça), Silvio Almeida (Direitos Humanos) e
Jorge Messias (AGU), e de empresas de tecnologia, como Google e Facebook,
participam.
Para
o ministro Alexandre de Moraes, não é possível considerar as redes sociais como
“terras de ninguém”, sem responsabilização por eventuais crimes.
O
magistrado disse que há necessidade de melhorar a auto regulação das
plataformas para conteúdos que atentem contra a democracia ou que expressem
nazismo ou fascismo.
“Eu
não sou ingênuo e acho que não seria eficiente tentarmos definir o que é fake
news, mas é possível estender a auto regulação e atuação mais direta para
questões objetivas”, afirmou. “Atentados contra instituições e democracia são
coisas objetivas”.
O
ministro disse ser preciso que a atuação das plataformas contra discursos de
ódio, nazismo e racismo, por exemplo, seja a mesma do que já é feito com
publicações de pornografia infantil e direitos autorais, já monitorados pelas
plataformas por meio de algoritimos.
• Conexão
O
ministro Gilmar Mendes disse que os atos de 8 de janeiro “de alguma forma
guardam conexão direta com o uso abusivo da internet”.
Ele
disse ser urgente que se encontrem soluções para a questão, tanto no STF quanto
no Congresso.
Gilmar
afirmou que a discussão vai “marcar a história” do STF.
“Nós
tivemos esses anos todos um embate contínuo desse universo inapropriadamente
chamado de fake news”, declarou.
O
ministro também elogiou seu colega Dias Toffoli, por ter instaurado, em 2019, o
chamado inquérito das fake news, na Corte. “Lutamos com essa temática quase que
heroicamente e, nesse contexto, precisamos aperfeiçoar o instrumentário”.
• Consensos
Para
o ministro Roberto Barroso, há alguns consensos no universo de conteúdos das
redes sociais. Segundo o magistrado, desinformação, discurso de ódio,
assassianto de reputaçãoes e teorias da conspiração que circulam nas
plataformas se tornaram “sérias ameaças” à democracia e aos diretiso
fundamentais.
Barroso
também afirmou que as fake news tem sido usadas como instrumentos para
extremismo político e que favorecem atos de violência, como o de 8 de janeiro.
“Discurso
de ódio, ataque a democracia, e incitação à prática de crime violam os
fundamentos que justificam a proteção da liberdade de expressão”, disse.
O
magistrado defendeu incremento da auto regulação das plataformas, atuação
estatal e ações de educação midiática e conscientização da cidadania.
“É preciso tratar de regulação”, diz Dino
sobre redes sociais
O
ministro da Justiça e Segurança Pública, Flávio Dino, disse que Congresso,
Governo e Judiciário precisam discutir a regulação das plataformas digitais,
formas de responsabilização e mecanismos de se auditar os algoritmos das big
techs.
Segundo
Dino, a liberdade de expressão “não está em risco quando se regula, ao contrário”.
“É preciso tratar sim de regulação, que é
humanamente programado e reprogramável, sobretudo pelas autoridades legitimadas
a tanto nos Três Poderes”, afirmou.
“Defender
a liberdade é regulá-la porque diz respeito ao conteúdo do direito, é fixar fronteira
entre uso e abuso”.
As
declarações foram feitas no início da audiência pública realizada no Supremo
Tribunal Federal (STF) para discutir pontos do Marco Civil da Internet.
Representantes do governo Lula, como os ministro Silvio Almeida (Direitos Humanos)
e Jorge Messias (AGU), e de empresas de tecnologia, como Google e Facebook,
participarão.
Para
o ministro, a liberdade de expressão sem responsabilidade “não é liberdade, é
crime, é violação de direito, é abuso de direito”.
Segundo
Dino, a discussão sobre as redes sociais não tratam só de modelo de negócios.
“Se fosse isso já seria grave”, afirmou.
“Mas
estamos falando do controle das subjetividades na sociedade, do controle do
espaço público e do controle do discurso político na sociedade, para muito além
de hábitos de consumo. Nós estamos falando do próprio delineamento da sociedade
contemporânea”.
Conforme
o ministro, os algoritmos das plataformas estão sujeitos a questionamentos,
porque são criados por humanos.
“Estamos
refletindo e discutindo o dever de cuidado, responsabilidade civil e finalmente
transparência e auditabilidade”, disse. “Portanto, está obrigado a prestar
contas a toda a sociedade, especial a consumidores”
Fonte:
A Terra é Redonda/CNN Brasil
Nenhum comentário:
Postar um comentário