Estudo feito
sem consentimento pela rede social com quase 700 mil pessoas, que tiveram suas
páginas manipuladas, mostra: empresa pode ser uma ameaça
O estudo
sobre contágio emocional realizado pelo Facebook há dois anos, envolvendo
689.003 usuários, é gravíssimo. Publicado na revista acadêmica “Proceedings of
the National Academy of Sciences of America” no início de junho, ele demonstra
que a empresa por trás da maior rede social da internet não tem qualquer
sensibilidade social. Não tem tato, pudor ou a necessária cautela necessária
para lidar com gente.
Em
janeiro de 2012, os cientistas sociais Adam Kramer, Jamie Guillory e Jeffrey
Hancock manipularam aquilo que quase 700 mil pessoas viram em suas páginas por
uma semana. Para parte do conjunto, tiraram tudo o que seus amigos escreveram
de positivo; para outra, dispensaram o que havia de negativo. Ou seja: um grupo
só recebeu notícias neutras ou positivas, o outro, só neutras ou negativas. Os
pesquisadores queriam saber como os humanos de laboratório reagiriam.
Descobriram que quem só lia notícia ruim ficava mais abatido e tendia a
publicar mensagens mais tristes. E vice-versa.
Nenhum
usuário foi alertado sobre o fato de que havia sido transformado em ratinho num
estudo psicológico. Ao ler em primeira mão o trabalho, a professora Susan
Fiske, da Universidade de Princeton, se incomodou. “Fiquei preocupada”, ela
disse ao site da revista “Atlantic Monthly”. “Compreendo que as pessoas fiquem
preocupadas, mas o problema delas é com o Facebook, não com o paper.”
A
Universidade de Cornell, uma das instituições que puseram o selo de aprovação
no estudo, também fez perguntas. Ouviu do Facebook que o site “aparentemente
manipula os posts que as pessoas leem a toda hora”. As palavras são da
professora Fiske, que editou a versão final do trabalho.
Trata-se
de uma rede na qual um bilhão de pessoas se encontra diariamente. Mais ou menos
na mesma época em que cientistas do Facebook manipulavam as emoções de alguns
leitores, egípcios usavam a ferramenta para combinar uma revolução. Eles,
tunisianos, sírios, gregos, espanhóis, indianos. Brasileiros.
A maior
parte das pessoas que usam o Facebook o faz de forma ingênua. Acredita que lê
não aquilo que a rede seleciona, mas tudo o que seus amigos escrevem. Acredita
que não há filtros. Os menos ingênuos sabem que um software decide o que
aparecerá. O que quase ninguém acreditava é que alguém teria a coragem de
aprovar a manipulação das emoções de um grupo.
Ingenuidade
não é mérito dos usuários. É também da empresa. O fato de que o paper foi publicado revela que, no Facebook,
ninguém achou nada demais. Era, afinal, só um estudo para entender melhor como
seres humanos reagem ao interagir em redes sociais. Por que parar em emoções?
Política, por exemplo. Exposição maior aos problemas — ou às qualidades — de um
governo muda a percepção do público? Revoluções podem ser atiçadas?
Por ser
opaca, em nada transparente nos seus critérios, a empresa Facebook se torna uma
possível ameaça. Por uma questão ética, quem estuda reações humanas sempre se
compromete a avisar a quem está sendo estudado. É uma questão de respeito à
dignidade. Ciência não é um processo perfeito. Mas, mesmo quando a natureza da
manipulação não pode ser revelada para não interferir no estudo, as pessoas
sabem que há um estudo ocorrendo e, ao fim, descobrem tudo. Nenhum dos quase
700 mil soube até agora que foi manipulado. Este aviso é o mínimo a que têm
direito.
Nós,
usuários do Facebook, temos igualmente o direito de saber se fomos feitos de
cobaia. Em que circunstâncias. Para descobrir o quê. Como tais resultados são
utilizados. Dificilmente ocorrerá. Para uma empresa que vive de explorar as
relações entre seres humanos, sua falta de sensibilidade às sutilezas de como
se dão tais relações é inacreditável.
Nenhum comentário:
Postar um comentário