O Facebook virou alvo de protestos após ter revelado uma pesquisa na qual filtrou e manipulou o feed de notícias dos usuários –fluxo de vídeos, fotos, links e comentários de amigos– para observar a reação das pessoas.
Parte dos usuários teve exposição reduzida a postagens consideradas positivas, enquanto o restante teve acesso limitado, pelo próprio Facebook, a conteúdo negativo gerado pelos amigos.
No estudo, realizado com acadêmicos da universidade da Califórnia e de Cornell, o Facebook filtrou publicações nas páginas pessoais de 689 mil participantes da rede.
O estudo concluiu que “emoções expressadas por amigos, por meio da rede social, influenciam os nossos próprios humores, constituindo a primeira evidência experimental de contágio emocional em larga escala via redes sociais”, segundo o jornal britânico “The Guardian”.
Advogados, ativistas de internet e políticos reagiram ao experimento, classificando-o como “escandaloso”, “assustador” e “perturbador”.
Há preocupações de que o mecanismo possa ser usado para fins políticos, durante campanhas eleitorais, ou para incentivar usuários a permanecer na rede social e, assim, elevar as receitas da empresa com publicidade.
Em comentário no Twitter, Clay Johnson, cofundador da Blue State Digital –empresa que criou e geriu a campanha on-line de Barack Obama para a presidência dos EUA em 2008– disse: “O experimento de transmissão de raiva’ do Facebook é assustador.”
Segundo um porta-voz do Facebook, consultado pelo “Guardian”, a pesquisa foi feita para “melhorar os serviços e para fazer o conteúdo acessado pelas pessoas no Facebook o mais relevante e envolvente possível”. O estudo foi publicado neste mês no jornal especializado “Proceedings of the National Academy of Sciences”.
Susan Fiske, acadêmica de Princeton que editou o estudo, criticou a forma como o estudo foi conduzido.
“As pessoas deveriam ser avisadas que participarão da pesquisa, para terem o direito de concordar ou não com isso”, disse Fiske, segundo o “Guardian”.