Redes sociais: a possível diáspora
Como chegamos aqui? O sistema centralizado de moderação
de conteúdo, que começou a se fragmentar, foi moldado por uma combinação de
valores políticos norte-americanos, normas sociais e realidades econômicas,
como argumentou a pesquisadora e professora Kate Klonick na Revista de Direito
de Harvard, em 2018.
O ensaio de Klonick, The New Governors, detalha como as
políticas de governança das plataformas foram amplamente elaboradas por
advogados dos EUA, cuja formação estava voltada para a Primeira Emenda à
Constituição do país [– a que protege a “liberdade de expressão”].
Essas plataformas eram de propriedade privada e
operadas por empresas, mas sua governança seguia o espírito da legislação
norte-americana. No entanto, a maioria delas também considerava seu dever
moderar conteúdos “obscenos, violentos ou de ódio”.
Isso se devia, em parte, ao desejo de serem vistas como
ligadas a “boas práticas corporativas”, mas também era uma questão puramente
pragmática: “A viabilidade econômica depende de atender às normas de discurso e
comunidade dos usuários”, escreveu Klonick. Quando as plataformas criavam
ambientes que atendiam às expectativas dos usuários, estes passavam mais tempo
no site, e a receita poderia aumentar. Economia simples.
No entanto, enquanto as plataformas buscavam equilibrar
responsabilidade corporativa, segurança dos usuários e viabilidade econômica,
as regras tornaram-se cada vez mais pontos de conflito. As decisões de
moderação de conteúdo passaram a ser vistas não como governança neutra, mas
como julgamentos carregados de valores — declarações implícitas sobre quais
vozes eram bem-vindas e quais não eram.
A remoção pelo Facebook da icônica foto Garota do
Napal, em 2016 — devido à aplicação automatizada de regras contra nudez —
provocou uma reação global, forçando a plataforma a reverter sua decisão e
reconhecer as complexidades da moderação em larga escala.
Na mesma época, o Twitter enfrentou críticas por não
responder adequadamente ao crescimento de propagandistas do Estado Islâmico e a
campanhas de assédio como o Gamergate (um movimento online de 2014,
supostamente sobre ética no jornalismo de games, mas amplamente visto como uma
campanha de trolls contra mulheres do setor).
Esses incidentes ressaltaram as tensões entre a
aplicação de padrões comunitários e a proteção da liberdade de expressão. Para
muitos usuários, especialmente aqueles cujo discurso beirava o controverso ou
ofensivo, os árbitros das grandes plataformas de tecnologia pareciam exercer um
poder desproporcional, o que alimentava um sentimento de alienação e
desconfiança.
À medida que essas forças convergiam e se consolidavam
como o status quo da governança, aqueles que se sentiam insatisfeitos com esse
modelo enfrentavam uma escolha clássica: sair ou protestar. Deveriam abandonar
um produto ou uma comunidade em busca de opções melhores ou permanecer e
expressar sua frustração, transformando-a em reivindicações por mudanças?
O economista alemão Albert Hirschman argumentou que a
decisão entre sair ou se manifestar, para consumidores insatisfeitos, era
mediada por um terceiro fator: a lealdade. A lealdade, esteja enraizada no
patriotismo ou na afinidade com uma marca, pode manter os indivíduos ligados a
uma instituição ou produto, tornando-os mais propensos a exigir mudanças do que
simplesmente abandonar o espaço.
Durante anos, a lealdade às grandes plataformas tinha
menos a ver com afeto e mais com realidades estruturais; o domínio monopolista
e os poderosos efeitos de rede deixavam os usuários das redes sociais com
poucas alternativas viáveis.
Havia poucos aplicativos com os recursos, a massa
crítica ou o alcance necessários para atender às necessidades dos usuários em termos
de entretenimento, conexão ou influência. Políticos e ideólogos também
dependiam da escala das plataformas para propagar suas mensagens. As pessoas
permaneciam, embora sua insatisfação crescesse.
A resposta foi a manifestação ativa. Políticos e grupos
de defesa pressionaram as empresas para alterar suas políticas de forma a
atender aos interesses de seus respectivos lados — um processo conhecido entre
os estudiosos da moderação de conteúdo como “trabalhar os árbitros” (working
the refs).
Em 2016, por exemplo, o “Trending Topicsgate” levou
influenciadores de direita e veículos de mídia partidários a acusar o Facebook
de supostamente rebaixar manchetes conservadoras em sua seção de tópicos em
alta. Funcionou: o Facebook demitiu seus curadores humanos de notícias e
reformulou o sistema. (O substituto, um algoritmo, rapidamente passou a
espalhar manchetes sensacionalistas e falsas, incluindo algumas vindas de
fábricas de trolls da Macedônia, até que a empresa finalmente decidiu eliminar
o recurso.)
Organizações de inclinação progressista também
“trabalharam os árbitros” ao longo dos anos, exercendo pressão para maximizar
seus próprios interesses. Multidões partidárias online passaram a enxergar até
mesmo decisões isoladas como evidência de um viés sistemático.
Decisões de moderação de conteúdo envolvendo disputas
interpessoais aparentemente insignificantes eram ampliadas em controvérsias
fabricadas — provas de que as plataformas estariam cedendo à política
identitária ou perpetuando algum tipo de supremacia.
Havia um fundo de verdade: os moderadores realmente
cometiam erros, ignoravam contextos e tomavam decisões equivocadas ao lidar com
milhões de casos a cada trimestre. No entanto, à medida que a discordância se
transformava em um esporte conflitivo, as plataformas se viram arbitrando uma
guerra cultural cada vez mais intensa.
Esforços para impor ordem — para impedir que pessoas
reais fossem vítimas de doxxing1, perseguição ou
mesmo simples assédio — eram rotineiramente transformados em combustível para
um novo ciclo de ressentimento tribal. Na direita, em particular, disputas
sobre moderação foram reformuladas como batalhas existenciais sobre identidade
política e liberdade de expressão.
O então presidente Donald Trump, em particular,
irritado por ver seus tweets enganosos rotulados como tal, não foi sutil:
passou a deslegitimar a própria moderação de conteúdo e a ameaçar ações
regulatórias.
Intervenções básicas, como rótulos de verificação de
fatos em declarações contestadas — e, às vezes, até a mera suspeita de
intervenção (por exemplo, se um tweet não recebesse o engajamento esperado) —
foram reformuladas como atos tirânicos de elites tecnológicas conspirando
contra populistas de direita. Os árbitros deixaram de ser mediadores na guerra
cultural; passaram a ser vistos como a oposição. À medida que essa narrativa se
incorporava à identidade política da direita, o mercado respondeu oferecendo
oportunidades de saída.
Plataformas como o Parler, que surgiu em 2018, foram
criadas com o objetivo explícito de atender apoiadores de Trump, que agora
acreditavam que as convencionais eram irremediavelmente tendenciosas. O Gettr e
o Truth Social vieram em seguida, surgindo a partir de ressentimentos em torno
da eleição de 2020 e dos distúrbios de 6 de janeiro. As novas plataformas
alternativas de direita tinham árbitros do mesmo time, mas permaneceram
pequenas — porque o preço a pagar era que havia poucos “liberais” para serem
confrontados. Havia poucas oportunidades para brigas partidárias ou trolling.
Havia poucos espectadores a serem potencialmente recrutados para uma causa
preferida.
E assim, influenciadores políticos, figuras da mídia e
políticos de todo o espectro continuaram a “trabalhar os árbitros” nas
principais plataformas, onde as apostas — e as audiências — permaneciam muito
maiores.
Então, em 2022, ocorreu uma mudança sísmica: Elon Musk,
um verdadeiro crente na teoria dos árbitros corruptos, comprou o Twitter — e se
autoproclamou o árbitro principal. A plataforma que ele passou a chamar de X
sempre foi relativamente pequena, mas desproporcionalmente influente: sua
concentração de pessoas obcecadas por mídia e política lhe rendeu o apelido de
“praça pública”.
Mais precisamente, ela costumava funcionar como uma
arena de gladiadores — um espaço caótico onde o consenso era moldado e
indivíduos desavisados se tornavam os “personagens principais” de linchamentos
virtuais.
Após a aquisição, Musk ofereceu uma “anistia” para
aqueles que haviam caído em desgraça com os antigos árbitros — incluindo
neonazistas declarados. Influenciadores de direita na plataforma aproveitaram a
oportunidade para influenciar o novo árbitro com fervor, e Musk respondeu
reformulando a governança de forma rápida e significativa a seu favor.
Postagens que antes eram moderadas, como rumores infundados sobre eleições
fraudadas ou o uso proposital de pronomes errados para pessoas transgênero,
agora eram consideradas aceitáveis.
A insatisfação com o novo árbitro, as novas políticas e
o ambiente geral do X levaram, assim, a um êxodo da esquerda política americana
da plataforma. Inicialmente, as pessoas migraram para o Mastodon, que tinha a
vantagem de já existir. Outra nova plataforma que entrou no mercado, o Bluesky,
lançou sua versão beta com um modelo baseado apenas em convites, impulsionado
por redes de indicação. A comunidade progressista rapidamente se estabeleceu na
plataforma.
Em novembro de 2023, o Bluesky já contava com 2 milhões de usuários e reputação
de ser um espaço fortemente alinhado à esquerda. Em julho de 2023, o “gorila de
800 quilos” entrou na competição pelos usuários insatisfeitos do Twitter: o
Threads, da Meta.
Posicionado como um concorrente direto do X, o Threads
se promoveu como uma plataforma “gerida de forma racional”, nas palavras do
diretor de produtos Chris Cox. No entanto, a promessa de sanidade não protegeu
o Threads das dinâmicas de “trabalhar os árbitros”. A decisão da liderança de
restringir notícias políticas e bloquear algumas pesquisas relacionadas à
pandemia gerou uma reação negativa de sua base de usuários, majoritariamente
liberal (alguns dos quais passaram a promover o Bluesky como um lugar melhor
para estar). Apesar dessas tensões, o Threads cresceu rapidamente, relatando
275 milhões de usuários ativos mensais até o final de outubro de 2024; era,
como muitos usuários insatisfeitos suspiravam, melhor do que o X.
No entanto, em novembro de 2024, foi o crescimento do
Bluesky que se acelerou dramaticamente, impulsionado pela reeleição de Trump e
pelo alinhamento cada vez mais explícito de Musk com a extrema-direita. Musk, o
usuário mais visível do X, bem como seu árbitro-chefe, tornou-se um defensor
vocal de Trump e um propagador da teoria do roubo eleitoral, e os algoritmos de
sua plataforma pareciam favorecê-lo, assim como seus aliados ideológicos.
A lealdade ao antigo Twitter diminuiu gradativamente
entre os usuários mais influentes e ativos da plataforma. E assim, muitos
optaram por sair: nas semanas seguintes à eleição, o Bluesky ultrapassou a
marca de 25 milhões de usuários, impulsionado não tanto por seus recursos, mas
pela insatisfação ideológica e pelo apelo de uma plataforma cuja governança
parecia se alinhar mais de perto às normas progressistas. Mas será que
realmente se alinha?
·
Nova Governança, Novos
Desafios
A Grande Descentralização — a migração das grandes
plataformas centralizadas e padronizadas para espaços menores e ideologicamente
distintos — é impulsionada por identidade política e insatisfação. No entanto,
o mais interessante nessa última onda de migração é a tecnologia que sustenta o
Bluesky, o Mastodon e o Threads — o que ela possibilita e o que ela limita
inerentemente.
Essas plataformas priorizam algo fundamentalmente
distinto de seus antecessores: a federação. Diferentemente das plataformas
centralizadas, onde a curadoria e a moderação são controladas de cima para
baixo, a federação se baseia em protocolos descentralizados — o ActivityPub
para o Mastodon (que também é compatível com o Threads) e o AT Protocol para o
Bluesky — que permitem abrigar os dados em servidores controlados pelos
próprios usuários e transferem a moderação (e, em alguns casos, a curadoria)
para o nível comunitário. Essa abordagem não apenas redefine a moderação; ela
reestrutura a governança online em si. E isso porque, em grande escala, não há
árbitros a serem influenciados.
É importante entender os ganhos e perdas. Se as
plataformas centralizadas, com suas regras e algoritmos controlados de cima
para baixo, são “jardins murados”, as redes sociais federadas podem ser melhor
descritas como “jardins comunitários”, moldados por membros conectados por
laços sociais ou geográficos frouxos e um interesse compartilhado em manter um
espaço comunitário agradável.
Neste ambiente, conhecido tambem como “fediverso”, os
usuários podem ingressar em servidores alinhados com seus interesses ou
comunidades — ou criar os seus próprios. Geralmente, esses servidores são
administrados por voluntários, que gerenciam os custos e estabelecem regras
localmente.
A governança também é federada: embora todos os
servidores do ActivityPub, por exemplo, compartilhem um protocolo tecnológico
comum, cada um define suas próprias regras e normas e decide se deseja
interagir com a rede mais ampla ou se isolar dela. Por exemplo, quando a
plataforma Gab, declaradamente favorável a neonazistas, adotou o protocolo do
Mastodon em 2019, outros servidores se desfederaram dela em massa, cortando
laços e impedindo que o conteúdo do Gab chegasse a seus usuários. No entanto, o
Gab persistiu e continuou a crescer, destacando uma das limitações importantes
da federação: a desfederação pode isolar atores problemáticos, mas não os
elimina.
As plataformas baseadas em protocolos oferecem um
futuro potencial significativo para as redes sociais: um federalismo digital,
onde a governança local se alinha a normas comunitárias específicas, mas
permanece vagamente conectada a um todo maior. Para alguns usuários, a escala
menor e o maior controle possível nas plataformas federadas são atrativos. No
Bluesky — que, por enquanto, ainda é gerenciado por uma única instância,
controlada pela equipe de desenvolvimento — os usuários mais experientes estão
criando ferramentas para personalizar a experiência.
Há listas de bloqueio compartilháveis, feeds curados
(visualizações que permitem aos usuários ver as postagens mais recentes sobre
um tópico definido por um criador, como notícias, jardinagem ou esportes) e
ferramentas de moderação gerenciadas pela comunidade, que permitem a aplicação
de rótulos de categorização para postagens ou contas (“Conteúdo Adulto”,
“Discurso de Ódio”, etc.). Esses recursos permitem que os usuários adaptem seu
ambiente a seus valores e interesses, dando-lhes mais controle sobre quais
postagens veem — desde discursos inflamados até nudez e política — e quais são
ocultadas por um aviso ou completamente invisibilizadas. E embora, atualmente,
haja um rotulador de conteúdo centralizado controlado pela equipe de moderação
do Bluesky, os usuários também podem simplesmente desativá-lo.
Para alguns, esse nível de autonomia é atraente. No
entanto, a maioria dos usuários nunca altera as configurações padrão de um
aplicativo: o que eles realmente buscam é alívio do drama, do caos e do
desalinhamento ideológico percebido em outros espaços. Eles não são atraídos
por conceitos como “moderação componível” ou “governança federada” — muitos, na
verdade, parecem nem compreender totalmente o que isso implica — mas sim pelo
clima da instância.
O Bluesky, em sua missão de construir um protocolo que,
no fim das contas, tornaria a moderação centralizada amplamente irrelevante,
teve, no entanto, que quadruplicar rapidamente o tamanho de sua equipe de
moderação à medida que os usuários inundaram a plataforma. E é por isso que é
importante entender que a migração para longe dos árbitros centralizados traz
compensações muito reais.
Sem uma governança centralizada, não há uma única
autoridade para mediar questões sistêmicas ou aplicar regras de forma
consistente. A descentralização impõe uma grande carga sobre os administradores
das instâncias individuais, em sua maioria voluntários, que podem não ter as
ferramentas, o tempo ou a capacidade para lidar com problemas complexos de
forma eficaz.
Parte do meu próprio trabalho, por exemplo, tem se
concentrado no grande desafio de lidar até mesmo com conteúdos explicitamente
ilegais — como imagens de exploração infantil — no fediverso. A maioria dos
servidores administrados por voluntários não está equipada para lidar com essas
questões, o que expõe os administradores a responsabilidades legais e deixa os
usuários vulneráveis.
A aplicação fragmentada das regras deixa brechas que
atores mal-intencionados, incluindo manipuladores patrocinados por Estados e
spammers, podem agir com relativa impunidade. A verificação de identidade é
outro ponto fraco, levando a riscos de falsificação de identidade que as
plataformas centralizadas normalmente gerenciam de maneira mais eficaz.
Práticas de segurança inconsistentes entre servidores podem permitir que
agentes mal-intencionados explorem os elos mais fracos.
Embora a federação ofereça mais autonomia aos usuários
e promova diversidade, ela torna significativamente mais difícil combater danos
sistêmicos ou coordenar respostas a ameaças como desinformação, assédio ou
exploração. Além disso, como os administradores de servidores só podem moderar
localmente — ou seja, só podem ocultar conteúdo no servidor que operam —
postagens de um servidor podem se espalhar por toda a rede para outros
servidores, havendo poucos recursos para sua contenção. Postagens promovendo
pseudociências prejudiciais (“beber água sanitária cura o autismo”) ou doxxing
podem persistir sem controle em alguns servidores, mesmo que outros rejeitem ou
bloqueiem o conteúdo.
Além dos desafios de lidar com conteúdos ilegais ou
prejudiciais, a Grande Descentralização levanta questões mais profundas sobre a
coesão social. A fragmentação das plataformas agravará os silos ideológicos e
corroerá ainda mais os espaços compartilhados necessários para o consenso e o
compromisso?
Nossos espaços de comunicação moldam nossas normas e
nossa política. As próprias ferramentas que agora permitem aos usuários fazer a
curadoria de seus feeds e bloquear conteúdos indesejados podem também
amplificar divisões ou reduzir a exposição a perspectivas divergentes. Listas
de bloqueio criadas por comunidades, embora úteis para grupos específicos que
buscam evitar trolls, são instrumentos brutos. Pessoas com visões mais
nuançadas sobre questões polêmicas, como a política de aborto, podem acabar se
autocensurando para evitar serem “rotuladas erroneamente” e excluídas. Eventos
recentes no Bluesky ilustram esses desafios. O desafio do consenso não é mais
apenas difícil — ele está sendo estruturalmente reforçado.
·
O que vem pela frente
Gostando ou não delas, as políticas centralizadas e a
aplicação de regras de cima para baixo definiram a experiência das redes
sociais em grandes plataformas como Facebook, Twitter e YouTube por duas
décadas. Como Nilay Patel, do The Verge, disse, a moderação de conteúdo é “o
produto” dessas plataformas. As decisões tomadas pelas equipes de moderação
moldam não apenas o que os usuários veem, mas também o quão seguros ou
ameaçados eles se sentem. Essas políticas tiveram efeitos profundos, não apenas
em fenômenos sociais como a democracia e a coesão comunitária, mas também no
bem-estar dos usuários individuais.
Se a Grande Descentralização continuar, essa
experiência mudará.
A moderação centralizada, apesar de imperfeita, cara e
opaca, ainda assim oferecia regras bem definidas, tecnologia sofisticada e
equipes de aplicação profissionalizadas. As críticas a esses sistemas
frequentemente surgiam de sua falta de transparência ou de erros ocasionais de
grande repercussão, que alimentavam percepções de viés e insatisfação. Essa crise
de legitimidade acabou inclinando a balança da manifestação ativa para a saída
— e agora, a construção de um novo espaço público digital representa tanto um
desafio quanto uma oportunidade.
Sim, existe o potencial para espaços online
verdadeiramente democráticos, livres das relações desiguais que, até agora,
definiram a relação entre plataformas e usuários. Mas a concretização desses
espaços exigirá um trabalho significativo.
Também há a questão iminente da economia. As
alternativas federadas precisam ser financeiramente sustentáveis se quiserem
persistir. Atualmente, o Bluesky é financiado principalmente por capital de
risco; já se falou na possibilidade de assinaturas pagas e recursos premium no
futuro. Mas, se as últimas duas décadas de experimentação com redes sociais nos
ensinaram algo, é que os incentivos econômicos inevitavelmente exercem um
impacto desproporcional sobre a governança e a experiência do usuário
Tecnólogos (eu incluída) adoram falar sobre inovação
mais rápida, melhor privacidade e controle mais granular do usuário como o
futuro das redes sociais. Mas isso não é o que a maioria das pessoas pensa. A
maioria dos usuários quer apenas bons serviços, riscos mínimos para seu
bem-estar e um ambiente geralmente positivo e envolvente. Ironia: esses são
precisamente os resultados que a moderação tentou oferecer.
O argumento de que os aspectos negativos da
participação nas redes sociais — desinformação, doxxing e assédio — são
emblemáticos do triunfo da “liberdade de expressão” foi amplamente rejeitado;
muito poucos usuários realmente passam tempo em comunidades “absolutistas” onde
vale tudo; o 8chan, por exemplo, nunca foi amplamente popular. E, no entanto,
nossa incapacidade de concordar sobre normas e valores compartilhados, tanto
online quanto offline, está nos empurrando para espaços online cada vez mais
distintos.
Os usuários que estão migrando para o Bluesky estão
sendo atraídos pela cultura de sua instância principal, que lembra um pouco o
velho Twitter de 2014 — uma época mais simples e menos tóxica. Eles anseiam por
um retorno a uma sociedade menos divisiva e hostil. Esse anseio reflete uma
verdade mais profunda: as plataformas online não apenas refletem nossos valores
offline; elas os influenciam ativamente.
As plataformas federadas nos darão a liberdade de curar
nossa experiência online e criar comunidades onde nos sentimos confortáveis.
Elas representam mais do que uma mudança tecnológica — são uma oportunidade de
renovação democrática na esfera pública digital. Ao devolver a governança aos
usuários e às comunidades, elas têm o potencial de reconstruir a confiança e a
legitimidade de maneiras que as plataformas centralizadas já não conseguem
mais.
No entanto, também correm o risco de fragmentar ainda
mais nossa sociedade, à medida que os usuários abandonam os espaços
compartilhados onde a coesão social mais ampla poderia ser construída.
A Grande Descentralização é um reflexo digitalizado de
nossa política polarizada que, daqui para frente, também continuará a moldá-la.
Fonte: Por Renée Diresta, em Outras
Palavras
Nenhum comentário:
Postar um comentário