Brasileiros
moderaram violência extrema e pornografia no X a R$ 0,35 por tarefa
Trabalhadores
brasileiros recebiam, até junho deste ano, R$ 0,35 por tarefa para moderar
conteúdo extremo no X, apontam documentos obtidos pelo Intercept Brasil. O
objetivo do projeto era deixar a rede social mais ‘segura’ para anunciantes,
depois de Elon Musk ter dissolvido as áreas de segurança e moderação.
O objetivo do
trabalho, feito por meio da plataforma Appen, era filtrar posts sobre temas
como terrorismo, violência e pornografia para evitar que propagandas
aparecessem ao lado de conteúdos comprometedores, que pudessem causar danos de
imagem aos anunciantes.
Quando Elon Musk
assumiu a direção do X, então Twitter, prometendo liberdade de expressão, a
empresa dissolveu suas áreas de segurança, moderação e combate à
desinformação.
A rede social começou a sofrer com falhas sistêmicas na moderação de postagens
problemáticas – incluindo material de exploração sexual infantil e
desinformação.
Os
anunciantes mostraram
preocupação e
começaram uma debandada. O X chegou, inclusive, a processar um grupo de
anunciantes que articularam um
boicote internacional contra
a plataforma. Em setembro deste ano, uma pesquisa da consultoria
Kantar mostrou
que apenas 4% dos profissionais de marketing acham que o X protege a segurança
da marca.
Agora, materiais de
treinamento e relatos de trabalhadores mostram como o X tentava limpar sua
imagem aos anunciantes pagando centavos para trabalhadores brasileiros – US$
0,07 por tarefa, ou cerca de 35 centavos de real.
A moderação de
conteúdo extremo no X funcionava em um projeto dentro da Appen, plataforma que
oferece oportunidades de trabalho em treinamento de dados para inteligência
artificial.
Batizado de
Tutakoke, ele estava disponível para colaboração de brasileiros no primeiro
semestre deste ano. Não havia identificação sobre quem era o cliente – apenas
uma menção genérica a uma “grande plataforma de social mídia”.
Mas os materiais de
treinamento mostram que o material a ser moderado eram “tweets”, e cita como
exemplos postagens dentro do próprio X, deixando clara qual era a plataforma em
questão.
Tutakoke é o nome
de um rio no estado norte-americano do Alaska. onde Musk há dois anos vem
abrindo uma série de unidades da Tesla, sua empresa de
carros elétricos, e fechando contratos para a Starlink, que fornece
internet via satélite.
No e-mail de
boas-vindas aos aprovados no processo seletivo, a empresa já avisava: o
trabalho abordaria “conteúdos desafiadores que exigem mão firme e forte
determinação”.
“Em essência, não é
para os tímidos, isso exige resiliência, discernimento e um olhar atento para
os detalhes. Nem sempre é uma tarefa fácil, mas é extremamente importante”,
afirmou a empresa.
Para entrar no Tutakoke,
os colaboradores precisavam fazer um teste que simula as tarefas disponíveis na
plataforma. Algumas pessoas relataram ter visto conteúdos pornográficos já
nessa etapa da seleção.
No projeto, segundo
as diretrizes internas, os trabalhadores precisavam assistir e rotular imagens
de terrorismo, conteúdo violento, pornografia explícita e material de
exploração sexual infantil. E não recebiam qualquer suporte da Appen ou do
X.
Mensagens trocadas
pelos trabalhadores brasileiros que participaram do do projeto mostram que, ao
contrário de outros projetos na Appen, o Tutakoke não possuía limite de horas
trabalhadas. Isso significa que, seja por necessidade financeira ou pelo
estímulo de gamificação da
plataforma,
é possível passar um número ilimitado de horas por dia rotulando os conteúdos
explícitos e prejudiciais.
“Pelo que vi não
tem limite de tasks… recomendam fazer uma pausa”, disse um dos trabalhadores em
um grupo interno, em mensagens obtidas pelo Intercept.
“O trabalho de
anotação de dados é profundamente exaustivo – física e mentalmente. Estamos
falando de conteúdos muitas vezes pesados que podem produzir danos
significativos para os trabalhadores da moderação – o que deveria ter
implicações éticas e trabalhistas por si só”, disse ao Intercept Yasmin Curzi,
pesquisadora do Karsh Institute of Democracy da University of Virginia.
Procurada, a Appen
não respondeu aos nossos questionamentos sobre moderação de conteúdo,
treinamento e proteção aos trabalhadores em caso de conteúdo sensível. O X
também não respondeu.
<><> Treinamento
em PDF de 15 páginas
O documento que
detalha as diretrizes de classificação do Tutakoke é confidencial. Nele, a
Appen pediu que os trabalhadores rotulassem as postagens em 12 categorias
diferentes: conteúdo adulto e sexualmente explícito; armas e munição; crimes e
atos prejudiciais a sociedade ou violações aos direitos humanos; mortes e
ferimentos ou conflitos militares; pirataria online; discurso de ódio e atos de
agressão; obscenidade e profanidade; drogas lícitas e ilícitas; spam ou
conteúdo prejudicial; terrorismo; conteúdo socialmente sensível; e
desinformação.
Depois, eles deviam
avaliar o grau de risco em potencial para anunciantes em uma escala e expressar
seu nível de confiança em relação às análises, podendo indicar se estavam
muito, relativamente ou pouco seguros.
“Lembre-se de ser honesto, só fazemos esta
pergunta para entender melhor onde precisamos melhorar nossa orientação para a
segurança da marca. Não há certo ou errado”, orientou a Appen.
As categorias foram
divididas em graus de risco. Extremo risco, por exemplo, são as que mostram ou
incitam conteúdo ou comportamento prejudicial. Alto risco são as que abrangem
conteúdos prejudiciais, sem incitar. Médio risco são as que têm como propósito
entretenimento ou discussões, publicado por jornalistas, especialistas,
autoridades, organizações sem fins lucrativos, entre outros.
As instruções
deixaram os trabalhadores confusos. “Algumas coisas se misturam, como o que
envolve mortes, ferimentos e conflitos militares e terrorismo”, disse um deles
no grupo.
O PDF de 15
páginas, que os trabalhadores tiveram que estudar para fazer uma prova, foi o
único treinamento fornecido.
<><> Precarização
na moderação de conteúdo impacta na qualidade do trabalho
Quando se trata de
conteúdos extremos, como violência, exploração sexual e terrorismo, a situação
é ainda mais complexa. Moderadores que trabalham com conteúdo extremo estão
sujeitos a uma série de problemas de saúde, que incluem pânico e síndrome do
estresse pós-traumático. Em 2020, o Facebook já foi obrigado a indenizar
em US$ 52 milhões os
trabalhadores vítimas de trauma.
No Quênia, um
moderador que trabalhava na Sama, uma empresa terceirizada, processou o Facebook por más
condições de trabalho e falta de suporte à saúde mental. No início de 2023, uma
demissão em massa na Sama fez com que os moderadores se organizassem em uma
ação coletiva. Pelo menos 43 trabalhadores demitidos entraram na justiça contra a
intermediária e a Meta.
No caso das
plataformas de trabalho de dados, como é o caso da Appen, esses impactos na
saúde mental dos trabalhadores podem ser ainda piores.
Isso porque a
própria lógica de trabalho, em que os trabalhadores são isolados, executam
tarefas fragmentadas, sem ter noção do propósito, já é danosa para a saúde
mental – produzindo ansiedade, insegurança e angústia.
“A face mais precária da moderação, ao que
nossas pesquisas indicam, está justamente nos projetos de moderação em
plataformas digitais”, explica o psicólogo Matheus Viana Braz, que pesquisa o
microtrabalho.
Além da falta de
treinamento e preparação para que os trabalhadores lidem com a ansiedade, os
pagamentos são mais baixos do que o trabalho de moderação nas chamadas BPOs, as
empresas de terceirização deste tipo de serviço. Além disso, em seus termos de
uso, as plataformas afirmam não se responsabilizar pelos danos provocados pela
realização dessas atividades.
“Ambas as condições
são precárias, mas nas plataformas os trabalhadores estão completamente
sujeitos a desproteções sociais e trabalhistas, além de estarem isolados”, diz
Braz. “Temos observado nesses casos uma radicalização da individualização do
sofrimento e dos conflitos no trabalho. Resta a cada trabalhador, em sua casa,
encontrar sozinho estratégias de enfrentamento aos danos psicológicos causados
pelo trabalho da moderação de conteúdo”.
Em junho deste ano,
o Intercept mostrou que a Meta estava desenvolvendo um
sistema automatizado de
checagem de fatos, também pagando centavos para trabalhadores fazerem moderação
de conteúdo. Esse trabalho incluía análise de material sensível, como
desinformação relacionada às enchentes no Rio Grande do Sul.
Para Curzi, da FGV,
a situação de precariedade e a pressão por decisões mais céleres para atingir
metas “podem fazer com que os conteúdos não sejam analisados com o cuidado
devido”.
<><> Reportagens
e artigos classificados como ‘risco médio’
Conteúdos adultos e
violentos – que, ao todo, contemplam ao menos metade das categorias –
estavam entre os considerados mais arriscados. Já reportagens e artigos de
opinião eram classificados de médio risco em qualquer uma das 12 categorias de
segurança da marca.
Baixo risco eram
apenas conteúdos educacionais, informativos ou científicos.
Como exemplo para
conteúdos jornalísticos de “médio risco”, o documento cita um
“programa jornalístico com especialistas e jornalistas discutindo a insurreição
de 6 de janeiro”, nos EUA.
Há ainda certas
contradições entre as decisões de Musk como dono do X e as necessidades de
moderação de conteúdo apontadas no documento.
A plataforma
identifica como alto o risco de publicações que contenham discursos
irresponsáveis ou prejudiciais relacionados a tragédias, conflitos, violência
em massa ou à exploração de questões políticas ou sociais controversas.
Exemplos incluem
citações a ataques terroristas, ao Holocausto ou ao ataque terrorista de 11 de
setembro, além de postagens sobre debates entre candidatos eleitorais sobre
mudanças climáticas.
O próprio Musk, no
entanto, já concordou com um
tuíte considerado
antissemita.
<><> X
tinha apenas 41 moderadores fluentes em português
Em dezembro de
2023, a Comissão Europeia anunciou a abertura de uma
investigação para
avaliar se a plataforma deliberadamente permite a circulação de desinformação
no feed, especialmente após o início da guerra em Gaza.
O foco da
investigação é o possível descumprimento do Digital Services Act (Lei de
Serviços Digitais, em tradução livre), o DSA, que estabelece que todas as redes
e plataformas que operam na União Europeia devem aderir a uma série de
princípios, incluindo o combate ativo à desinformação e a transparência no
compartilhamento de dados com reguladores europeus.
O X entregou no ano
passado seu primeiro relatório de
transparência sobre
sua estrutura interna atual, revelando que a empresa contava apenas com 1.275
moderadores de conteúdo na União Europeia, todos com o inglês como língua
principal. Apenas 27 deles eram fluentes em português ou entendiam o idioma.
Fonte: Por Tatiana
Dias e Sofia Schurig, em The Intercept
Nenhum comentário:
Postar um comentário