quinta-feira, 30 de março de 2023

Slavoj Žižek: Idiotice Artificial

Não há nada de novo nos “chatbots” que são capazes de sustentar uma conversa em linguagem natural, compreendendo as intenções básicas do usuário e oferecendo respostas baseadas em regras e dados predefinidos. Sua capacidade, no entanto, aumentou dramaticamente nos últimos meses, levando muitos ao pânico e ao desespero.

Muito se disse sobre os chatbots serem um prenúncio do fim das dissertações estudantis. Mas um problema que requer maior atenção é como os chatbots devem responder quando os interlocutores humanos usam afirmações agressivas, sexistas ou racistas para incitar o robô a apresentar suas próprias fantasias de baixo calão em resposta. As inteligências artificiais deveriam ser programadas para responder no mesmo nível das questões que lhes são postas?

Se decidirmos que algum tipo de controle deve ser aplicado, devemos então determinar quão longe a censura deve ir. Posicionamentos políticos que alguns setores consideram “ofensivos” serão proibidos? E as expressões de solidariedade com os palestinos da Cisjordânia? A afirmação de que Israel é um Estado de apartheid (o que o ex-presidente Jimmy Carter colocou certa vez no título de um livro)? Tudo isso será bloqueado por ser “antissemita”?

O problema não termina aqui. Conforme nos alerta o escritor e artista James Bridle, as novas inteligências artificiais são “baseadas na apropriação em massa da cultura existente”, e a crença de que elas são “verdadeiramente instruídas ou portadoras de sentido é ativamente perigosa”. Por isso, devemos ser bastante cautelosos com os novos geradores de imagem por inteligência artificial. “Em sua tentativa de compreender e replicar a cultura visual humana em sua integridade” observa Bridle, “[eles] parecem também ter recriado nossos maiores medos. Talvez isto seja apenas um sinal de que estes sistemas são realmente muito bons em imitar a consciência humana, alcançando inclusive os horrores que estão à espreita nas profundezas de nossa consciência: nossos pavores diante da imundície, da morte e da corrupção”.

Mas quão boas são as novas inteligências artificiais em se assemelhar à consciência humana? Considere o bar que, recentemente, anunciou uma promoção especial sob os seguintes termos: “Compre uma cerveja pelo preço de duas e receba uma segunda cerveja completamente grátis!”. Para qualquer humano, isso é obviamente uma brincadeira. A típica oferta “compre uma, ganhe uma” é reformulada para cancelar a si mesma. Trata-se de uma expressão de cinismo apreciada enquanto honestidade cômica, de modo a aumentar as vendas. Um chatbot seria capaz de compreender isso?

“Foder” apresenta um problema semelhante. Embora a palavra designe algo que a maioria das pessoas gosta de fazer (copular), ela também adquire um valor negativo (“Estamos fodidos!”, “Vá se foder!”). A linguagem e a realidade são confusas. A inteligência artificial está pronta para discernir tais diferenças?

Em seu ensaio de 1805, “Sobre a formação gradual dos pensamentos no processo da fala” (publicado postumamente em 1878), o poeta alemão Heinrich von Kleist inverteu dito popular de que não se deve abrir a boca para falar a não ser que se tenha uma ideia clara do que dizer: “sendo assim, se um pensamento é expresso de uma forma confusa, isso não significa de forma alguma que tal pensamento foi concebido de uma maneira confusa. Pelo contrário, é possível que as ideias que são expressas das maneiras mais confusas sejam justamente aquelas que foram pensadas com maior clareza”.

Essa relação entre linguagem e pensamento é extraordinariamente complicada. Em uma passagem de um de seus discursos no início dos anos 1930, Joseph Stalin propõe medidas radicais para “detectar e combater sem piedade até mesmo aqueles que se opõem a coletivização apenas em seus pensamentos – sim, é isso que eu quero dizer, devemos combater até mesmo os pensamentos das pessoas”. Podemos presumir seguramente que essa frase não foi preparada de antemão. Ao se deixar levar pelo momento, Stalin imediatamente tomou consciência do que ele acabara de dizer. Mas em vez de recuar, ele decidiu continuar com a sua hipérbole.

Conforme Jacques Lacan afirmou posteriormente, este foi um dos casos em que a verdade emerge de surpresa através do ato de enunciação. Louis Althusser identificou um fenômeno semelhante na relação entre prise e surprise. Alguém que subitamente toma consciência (“prise”) de uma ideia se surpreenderá com o que realizou. De novo, algum chatboté capaz de fazer isso?

O problema não é que os chatbots sejam estúpidos; é que eles não são “estúpidos” o suficiente. Não é que eles sejam ingênuos (incapazes de ironizar e refletir); é que eles não são ingênuos o suficiente (não conseguindo perceber os momentos em que a ingenuidade está mascarando a perspicácia). O verdadeiro perigo, então, não é o de as pessoas confundirem os chatbots com pessoas reais; mas de os chatbots fazerem as pessoas reais falarem como chatbots – incapazes de notar as nuances e ironias, dizendo de maneira obsessiva exatamente aquilo que pensam que querem dizer.

Quando eu era mais jovem, um amigo foi a um psicanalista buscar tratamento após uma experiência traumática. A ideia que este amigo tinha acerca do que tais analistas esperam de seus pacientes era um clichê, e ele passou a primeira sessão produzindo falsas “associações livres” sobre como ele odiava seu pai e desejava sua morte. A reação do analista foi ingênua: ele adotou um posicionamento “pré-freudiano” ingênuo e repreendeu meu amigo por não respeitar seu pai (“Como você pode falar assim da pessoa que o fez o que você é?”). Essa falsa inocência passou uma mensagem clara: não estou comprando suas falsas “associações”. Um chatbot seria capaz de compreender este subtexto?

Provavelmente não compreenderia, porque ele é como a interpretação de Rowan Williams do Príncipe Míchkin do livro O idiota de Dostoievsky. De acordo com a interpretação convencional, Míchkin, “o idiota”, é “um homem positivamente bom e belo” que foi levado à loucura solitária pelas duras brutalidades e paixões do mundo real. Na releitura radical de Williams, porém, Míchkin representa o olho de uma tempestade: por melhor e mais santo que ele seja, é ele que provoca o caos e as mortes que presencia por causa de seu papel na complexa teia de relações em seu redor.

Não é que Míchkin seja um ingênuo simplório. Mas que seu tipo particular de obtusidade o torna incapaz de se dar conta dos seus efeitos desastrosos sobre os outros. Ele é uma personagem plana que fala literalmente como um chatbot. Sua “bondade” se baseia no fato de que, como um chatbot, ele reage aos desafios sem ironia, oferecendo chavões desprovidos de qualquer reflexividade, entendendo tudo de forma literal e baseando-se em um mecanismo mental de respostas autocompletadas em vez da formação de ideias. Por este motivo, os novos chatbots se darão muito bem com ideólogos de todas as estirpes, desde a multidão “woke” contemporânea aos nacionalistas “MAGA”, que preferem continuar dormindo.

 

       Inteligência artificial pode afetar 300 milhões de empregos no mundo, diz Goldman Sachs

 

Até 300 milhões de empregos em tempo integral em todo o mundo podem ser automatizados de alguma forma pela mais nova onda de inteligência artificial que gerou plataformas como o ChatGPT, de acordo com economistas do Goldman Sachs.

Eles previram em um relatório no domingo (26) que 18% do trabalho globalmente poderia ser informatizado, com os efeitos sentidos mais profundamente nas economias avançadas do que nos mercados emergentes.

Isso ocorre em parte porque os trabalhadores de colarinho branco correm mais riscos do que os trabalhadores braçais. Espera-se que trabalhadores administrativos e advogados sejam os mais afetados, disseram os economistas, em comparação com o “pequeno efeito” observado em ocupações fisicamente exigentes ou ao ar livre, como construção e reparos.

Nos Estados Unidos e na Europa, aproximadamente dois terços dos empregos atuais “estão expostos a algum grau de automação da IA” e até um quarto de todo o trabalho pode ser feito completamente pela IA, estima o banco.

Se a inteligência artificial generativa “cumprir suas capacidades prometidas, o mercado de trabalho pode enfrentar perturbações significativas”, escreveram os economistas. O termo refere-se à tecnologia por trás do ChatGPT, a sensação do chatbot que conquistou o mundo.

O ChatGPT, que pode responder a solicitações e redigir redações, já levou muitas empresas a repensar como as pessoas devem trabalhar todos os dias.

Este mês, seu desenvolvedor revelou a versão mais recente do software por trás do bot, GPT-4. A plataforma impressionou rapidamente os primeiros usuários com sua capacidade de simplificar a codificação, criar rapidamente um site a partir de um esboço simples e passar nos exames com notas altas.

O uso adicional dessa IA provavelmente levará à perda de empregos, escreveram os economistas do Goldman Sachs. Mas eles observaram que a inovação tecnológica que inicialmente desloca trabalhadores historicamente também criou crescimento de empregos a longo prazo.

Embora os locais de trabalho possam mudar, a adoção generalizada da IA pode aumentar a produtividade do trabalho – e aumentar o PIB global em 7% ao ano durante um período de 10 anos, segundo o Goldman Sachs.

“Embora o impacto da IA no mercado de trabalho provavelmente seja significativo, a maioria dos empregos e indústrias está apenas parcialmente exposta à automação e, portanto, é mais provável que seja complementada em vez de substituída pela IA”, acrescentaram os economistas.

“A maioria dos trabalhadores está empregada em ocupações parcialmente expostas à automação da IA e, após a adoção da IA, provavelmente aplicará pelo menos parte de sua capacidade liberada em atividades produtivas que aumentam a produção”.

Dos trabalhadores americanos que devem ser afetados, por exemplo, 25% a 50% de sua carga de trabalho “pode ser substituída”, acrescentaram os pesquisadores.

“A combinação de economias significativas nos custos de mão de obra, criação de novos empregos e aumento de produtividade para trabalhadores não deslocados aumenta a possibilidade de um boom de produtividade da mão de obra como aqueles que se seguiram ao surgimento de tecnologias anteriores de uso geral, como o motor elétrico e o computador pessoal. ”

 

       Todas as big techs foram instrumentalizadas nos atos de 8 de janeiro, diz Moraes

 

O ministro Alexandre de Moraes, do Supremo Tribunal Federal (STF), disse nesta terça-feira (28) que todas as plataformas de redes sociais foram “instrumentalizadas” para os atos de 8 de janeiro, quando as sedes dos Três Poderes foram invadidas e vandalizadas em Brasília.

O magistrado considerou como “falido” e “absolutamente ineficiente” o atual modelo de regulação de conteúdos na internet.

“O modelo atual, por mais que alguns queiram defender, é absolutamente ineficiente, destrói reputação, destrói dignidades, faz e fez com que houvesse aumento no número de depressão em adolescentes, suicídio de adolescentes”, declarou. “Sem contar a instrumentalização que houve em todas as plataformas, de todas as big techs, em 8 de janeiro. O atual modelo é falido, no Brasil e no mundo”.

As declarações foram feitas no início da audiência pública realizada no STF para discutir pontos do Marco Civil da Internet. Representantes do governo Lula, como os ministros Flávio Dino (Justiça), Silvio Almeida (Direitos Humanos) e Jorge Messias (AGU), e de empresas de tecnologia, como Google e Facebook, participam.

Para o ministro Alexandre de Moraes, não é possível considerar as redes sociais como “terras de ninguém”, sem responsabilização por eventuais crimes.

O magistrado disse que há necessidade de melhorar a auto regulação das plataformas para conteúdos que atentem contra a democracia ou que expressem nazismo ou fascismo.

“Eu não sou ingênuo e acho que não seria eficiente tentarmos definir o que é fake news, mas é possível estender a auto regulação e atuação mais direta para questões objetivas”, afirmou. “Atentados contra instituições e democracia são coisas objetivas”.

O ministro disse ser preciso que a atuação das plataformas contra discursos de ódio, nazismo e racismo, por exemplo, seja a mesma do que já é feito com publicações de pornografia infantil e direitos autorais, já monitorados pelas plataformas por meio de algoritimos.

•        Conexão

O ministro Gilmar Mendes disse que os atos de 8 de janeiro “de alguma forma guardam conexão direta com o uso abusivo da internet”.

Ele disse ser urgente que se encontrem soluções para a questão, tanto no STF quanto no Congresso.

Gilmar afirmou que a discussão vai “marcar a história” do STF.

“Nós tivemos esses anos todos um embate contínuo desse universo inapropriadamente chamado de fake news”, declarou.

O ministro também elogiou seu colega Dias Toffoli, por ter instaurado, em 2019, o chamado inquérito das fake news, na Corte. “Lutamos com essa temática quase que heroicamente e, nesse contexto, precisamos aperfeiçoar o instrumentário”.

•        Consensos

Para o ministro Roberto Barroso, há alguns consensos no universo de conteúdos das redes sociais. Segundo o magistrado, desinformação, discurso de ódio, assassianto de reputaçãoes e teorias da conspiração que circulam nas plataformas se tornaram “sérias ameaças” à democracia e aos diretiso fundamentais.

Barroso também afirmou que as fake news tem sido usadas como instrumentos para extremismo político e que favorecem atos de violência, como o de 8 de janeiro.

“Discurso de ódio, ataque a democracia, e incitação à prática de crime violam os fundamentos que justificam a proteção da liberdade de expressão”, disse.

O magistrado defendeu incremento da auto regulação das plataformas, atuação estatal e ações de educação midiática e conscientização da cidadania.

 

       “É preciso tratar de regulação”, diz Dino sobre redes sociais

 

O ministro da Justiça e Segurança Pública, Flávio Dino, disse que Congresso, Governo e Judiciário precisam discutir a regulação das plataformas digitais, formas de responsabilização e mecanismos de se auditar os algoritmos das big techs.

Segundo Dino, a liberdade de expressão “não está em risco quando se regula, ao contrário”.

 “É preciso tratar sim de regulação, que é humanamente programado e reprogramável, sobretudo pelas autoridades legitimadas a tanto nos Três Poderes”, afirmou.

“Defender a liberdade é regulá-la porque diz respeito ao conteúdo do direito, é fixar fronteira entre uso e abuso”.

As declarações foram feitas no início da audiência pública realizada no Supremo Tribunal Federal (STF) para discutir pontos do Marco Civil da Internet. Representantes do governo Lula, como os ministro Silvio Almeida (Direitos Humanos) e Jorge Messias (AGU), e de empresas de tecnologia, como Google e Facebook, participarão.

Para o ministro, a liberdade de expressão sem responsabilidade “não é liberdade, é crime, é violação de direito, é abuso de direito”.

Segundo Dino, a discussão sobre as redes sociais não tratam só de modelo de negócios. “Se fosse isso já seria grave”, afirmou.

“Mas estamos falando do controle das subjetividades na sociedade, do controle do espaço público e do controle do discurso político na sociedade, para muito além de hábitos de consumo. Nós estamos falando do próprio delineamento da sociedade contemporânea”.

Conforme o ministro, os algoritmos das plataformas estão sujeitos a questionamentos, porque são criados por humanos.

“Estamos refletindo e discutindo o dever de cuidado, responsabilidade civil e finalmente transparência e auditabilidade”, disse. “Portanto, está obrigado a prestar contas a toda a sociedade, especial a consumidores”

 

Fonte: A Terra é Redonda/CNN Brasil

 

Nenhum comentário:

Postar um comentário