Assim age
o controle social automágico
Cada
vez mais é impossível estar em sociedade e viver a própria individualidade sem
usarmos alguma mercadoria ou serviço digital. Para obtermos trabalho,
entretenimento, serviços públicos, educação, compras, informação etc., agora
precisamos de um dispositivo, sinal de internet e contas em plataformas como o
Google, a Microsoft ou o Gov.br. Curiosamente, a maioria dessas maravilhas se
apresentam como gratuitas, divertidas, inteligentes e muito sedutoras. Uma
rápida conferida numa notificação pode virar muitos minutos de distração, onde
plataformas, comerciantes e agentes políticos lançam mão de recursos
envolventes que não percebemos nem temos controle. Mas como essa automagia
funciona? Por que é tão difícil resistir a ela? Qual o seu propósito?
Após
mais de 30 anos de pesquisas e debates sobre essas questões em todo o mundo, as
respostas começam a se estabelecer. Para compreendê-las, devemos partir de onde
tudo começa para nós usuários: as telas dos nossos dispositivos e aplicativos.
Ao clicarmos nelas, acessamos uma camada abaixo dessas máquinas automágicas,
onde vemos que elas são continuamente produzidas por cientistas, engenheiros,
designers, psicólogos, marqueteiros, advogados, administradores e investidores
capitalistas. Mas o que estes desenvolvedores desenvolvem?
Clicando
nessa pergunta, somos levados a uma camada seguinte. Nela, os mais de 2,5
milhões de aplicativos disponíveis em lojas virtuais apresentam-se como ofertas
desses desenvolvedores para nossas necessidades vitais (teleconsultas),
psicológicas (pertencimento, individuação etc.), sócio-produtivas (trocar
mensagens, educação etc.) ou sócio-culturais (jogar games, assistir filmes
etc.) – sejam elas percebidas por nós e/ou sugeridas por eles.
Clicamos
nessa imensa galeria de mercadorias e, numa camada abaixo, vemos que, embora o
número de aplicativos denote a crescente variedade de desejos e necessidades
humanas, a sua digitalização exige que os desenvolvedores criem modos
padronizados para o seu consumo – o que eles chamam de design da experiência do
usuário (UX, de user experience).
Ao
darmos um zoom no design de UX, encontramos um conjunto de teorias que podemos
chamar de cognitivismo neoliberal. Sem explicar que a principal causa da nossa
vida corrida é a necessidade capitalista de extrair cada vez mais valor do
trabalho social, o cognitivismo neoliberal ensina que, com toda essa agitação,
nossas atividades digitalizadas devem ser cada vez mais simplificadas e
gratificantes – caso contrário, os desenvolvedores podem perder o cliente para
uma oferta concorrente.
Um
clique nessas simplificações e gratificações e somos levados camada abaixo para
o que a psicologia comportamental chama de satisfação instrumental. Nela,
certas recompensas – sensações, experiências e memórias de satisfação mais ou
menos relacionadas à necessidade em si – são provocadas nos usuários com a
finalidade de motivá-los a adotar um comportamento previamente idealizado, como
comprar, se engajar ou acreditar em algo. Segundo a neurociência, o fluxo entre
certos estímulos e recompensas presentes no design de UX pode estimular a
produção de dopamina (o neurotransmissor da motivação), aumentando as chances
de nos engajarmos nesse comportamento – mesmo que tenhamos outras razões para
não fazê-lo. Mas como o design de UX realiza essa automagia?
Um
clique nessa pergunta e descemos à camada que os desenvolvedores chamam de
arquitetura de escolhas. Trata-se da hierarquização da variedade de decisões
que o usuário pode tomar durante o consumo de uma mercadoria ou serviço
digital. Ela é inserida na programação e no design de UX principalmente através
das affordances – a maneira possível de se fazer algo num aplicativo, como
encontrar um par deslizando imagens de pessoas no Tinder. Como os próprios
desenvolvedores explicam, as decisões e atividades que eles precisam que o
usuário execute (ceder dados, fazer compras etc.) são facilitadas, estimuladas
e recompensadas (a satisfação instrumental). Já as decisões alternativas podem
ser dificultadas, ou mesmo a sua escolha pode impedir esse consumo – em geral,
você não consegue usar um aplicativo “gratuito” sem ceder dados. Mas por que
não podemos fazer escolhas livremente?
Ao
clicarmos nessa pergunta, descemos à camada do paternalismo libertário, onde o
cognitivismo neoliberal diz que muitas vezes nossas escolhas não são racionais
e, por isso, precisamos de nudges (um empurrãozinho) dos desenvolvedores em
direção a melhores decisões para nós mesmos. E por que precisamos ser
paternalizados?
Um
clique aqui e chegamos na camada onde somos tratados pelos desenvolvedores como
previsivelmente irracionais. Eles afirmam que somos assim porque temos vieses
cognitivos, isto é, adotamos critérios e heurísticas emocionais e
não-racionais, seja por preguiça, pressa ou para poupar esforço mental. Por
isso, os manuais de design de UX ensinam que a hierarquia e a apresentação de
escolhas têm que evitar nos fazer pensar – momento que eles chamam de atrito na
jornada do usuário. Isso implica que certas decisões importantes (como ceder ou
não dados pessoais) devem ser apresentadas para nós de forma simpática,
discreta e prática – tudo para o nosso próprio bem.
Mas
há um problema com o cognitivismo neoliberal. Quando outros cientistas tentam
replicar os experimentos científicos que deram origem às suas teorias, muitos
deles não chegam aos mesmos resultados. Esta é a chamada crise de replicação,
que fez com que a PNAS, uma das mais prestigiadas revistas científicas de
psicologia dos EUA, questionasse as bases científicas para muitas das
afirmações do cognitivismo neoliberal.
Então,
ao clicarmos na crise de replicação, percebemos que o cognitivismo neoliberal
não “descobre” o funcionamento das nossas mentes, mas tenta produzi-lo no
design de UX, por exemplo através do chamado Modelo do Gancho. Nesse modelo, os
desenvolvedores querem que o consumo de suas ofertas se torne um hábito para
nós, algo que fazemos sem pensar, como se fosse um tique. Para isso, eles
começam nos cercando com uma série de gatilhos, que são estímulos relacionados
a necessidades psicológicas como reconhecimento, tédio, solidão etc. – por
exemplo, através das notificações do WhatsApp. Como coceiras, esses gatilhos
nos provocam desconfortos, até que possam ser “coçados” pelas ofertas dos
desenvolvedores – como joguinhos de celular, redes sociais, notícias falsas
etc. Mas se 97% dos aplicativos digitais são gratuitos, o que os
desenvolvedores querem em troca das suas habituações e coçadas?
Ao
clicarmos nessa pergunta, chegamos ao objetivo do Modelo do Gancho. Nas
palavras do seu criador, o psicólogo, designer de UX e investidor do Vale do
Silício Nir Eyal, ao se habituar a uma mercadoria ou serviço digital, algo
estranho ao consumo tradicional passa a acontecer: “o usuário faz um pouco de
trabalho”. Mas de que tipo de trabalho Eyal está falando?
Agora,
ao clicarmos em mais essa pergunta, somos transferidos da interface e da
experiência do usuário para dentro dos hardwares, softwares e sensores por trás
delas – e sobre os quais pouco ou nada sabemos. Segundo os desenvolvedores, as
atividades que essas máquinas automágicas nos sugerem (curtir, interagir,
clicar, assistir, inserir dados etc.) existem na medida e na forma em que
possam acionar coordenadamente duas “engrenagens”. A primeira quer atender às
nossas necessidades – sejam elas do estômago (uma pizza pelo Ifood), ou da
imaginação (as coçadas nas necessidades psicossociais no Facebook). Ocorre que,
por sua vez, a segunda engrenagem é acionada pela primeira, e sua tarefa é
codificar em dados digitais essas ações de consumo e seus resultados (o que
pode incluir até sinais vitais que ocorrem nesses momentos).
Um
clique nesses dados e somos direcionados para os Termos de Uso das mercadorias
e serviços digitais “gratuitos” (que nunca lemos), que geralmente ficam
escondidos por perto daquele sugestivo botão “concordo”, e que precisamos
clicar para poder usar esses aplicativos. Parte dos segredos das máquinas
automágicas está lá, onde os desenvolvedores nos lembram que Gmail, Instagram,
Tiktok, ChatGPT são softwares que pertencem a eles, mas que eles deixam você
usar sem gastar dinheiro, desde que você ceda para eles a propriedade dos dados
digitais que a sua atividade produziu no consumo dessas ofertas. E por que os
desenvolvedores precisam que você produza esses dados para eles?
Um
clique nessa pergunta nos leva a outra camada, muito distante dos nossos
dispositivos, que são os grandes bancos de dados de propriedade dos
desenvolvedores – o chamado big data. Lá, nossos dados são combinados com dados
de outras pessoas e coisas, para que poderosos computadores e seus algoritmos
busquem padrões entre essas informações, como, por exemplo, os tipos de
comportamentos que determinadas pessoas e grupos adotaram sob certos estímulos.
Clicamos
nesses padrões e vemos que, a partir das crenças do cognitivismo neoliberal, os
desenvolvedores buscam recriar de forma automatizada e em grande escala alguns
daqueles padrões na forma de estímulos para nos fazer repetir comportamentos
previamente idealizados – assistir mais um stories no Instagram, responder à
mensagem do chefe em qualquer horário, ou compartilhar desinformação. Além
disso, esses novos dados e seus padrões podem indicar possibilidades e
tendências de futuro, que podem se realizar ou não, e que os desenvolvedores
chamam de análise preditiva. Mas o que eles querem prever?
Um
clique nessas predições e vemos que, se certos indivíduos forem correlacionados
a padrões de ocorrência de certas doenças, de modalidades de consumo ou de
atitudes políticas, esses dados podem ser oferecidos seja para empresas de
saúde e seguradoras para evitar custos, para comerciantes em busca de mais
vendas, ou para forças políticas promoverem suas agendas. A análise preditiva
nem necessita ser precisa, pois se ela influenciar o comportamento de pequenos
percentuais de seus alvos, isso pode significar milhões de dólares ou votos a
mais para os clientes de dados. E tudo isso também pode ser muito lucrativo
para os desenvolvedores. Em 2023, o faturamento das empresas de corretagem de
dados (data brokers) foi avaliado em US$ 280 bilhões e as sete maiores big
techs do mundo valiam juntas US$ 10,6 trilhões.
Um
último clique nesses mercados trilionários e somos levados de volta ao nosso
ponto de partida, as divertidas interfaces dos nossos dispositivos digitais.
Agora, compreendemos que a aplicação contínua de gatilhos, coçadas e nudges
algoritmicamente selecionados tem mais a ver com a busca por padrões que
reduzam riscos, custos e tempos de acumulação de capitais do que a satisfação
de nossas necessidades ou as melhores escolhas para o nosso próprio bem. Hoje,
um grande acúmulo de pesquisas demonstra que esses recursos de satisfação
instrumental, ao nos pôr a fazer o que não faríamos de outra forma, podem ser
relacionados a exposição excessiva na internet, a sofrimentos como ansiedade e
solidão, ao extremismo político e à infodemia.
É
por tudo isso que regulações como Marco Civil da Internet, Lei Geral de
Proteção de Dados, certas propostas em torno da PL 2630/2020 (Lei das Fake
News) e da regulação da Inteligência Artificial são importantes – apesar dos
seus limites –, assim como a adoção de políticas públicas de educação midiática
crítica. Nada disso, porém, virá como uma dádiva ou concessão de governos e
empresas, mas sim pela conquista da ação coletiva organizada.
Fonte:
Por Luís Gonçalves, em Outras Palavras
Nenhum comentário:
Postar um comentário