As manipulações do Facebook

Quase 700 mil utilizadores da rede social foram submetidos a um teste comportamental sem o seu conhecimento. Uma prática eticamente questionável.


Iniciativa preocupa utilizadores sobre futuras experiências do Facebook MANJUNATH KIRAN/AFP
Há anos que a influência das redes sociais no comportamento humano, dentro e fora da Internet, tem sido estudada por todo o mundo. Os resultados têm mostrado, até agora, que existe uma relação entre as acções dos utilizadores dessas redes e o contexto a que nelas são expostos. Agora, a maior de todas elas, o Facebook, decidiu contribuir para o debate académico. Mas não se limitou a observar: decidiu manipular os seus utilizadores. E à revelia.
O Facebook dividiu 689.003 utilizadores em dois grupos e filtrou o tipo de conteúdo que cada um deles recebeu no seu “feed de notícias” durante uma semana, em Janeiro de 2012: uns receberam menos conteúdo “positivo” do que o habitual; os outros, menos publicações “negativas”. O objectivo era perceber se a exposição a conteúdos ligeiramente diferentes afectava o comportamento dos sujeitos da experiência na mesma rede social. Alterou, ainda que de forma pouco significativa.
Os autores do estudo – Adam Kramer, do departamento de investigação do Facebook; Jamie Guillory, da Universidade da Califórnia; e Jeffrey Hancock, da Universidade de Cornell – argumentam que “os estados emocionais podem ser transferidos para outras pessoas através do contágio emocional”. E dizem que o estudo o prova. Contudo, o que a experiência mostra é apenas que o comportamento dos utilizadores foi alterado pelas modificações introduzidas.
O que se verificou foi um decréscimo de 0,1% no número de “palavras positivas”, no grupo dos utilizadores que viram reduzidas as publicações com o mesmo tipo de vocábulos no seu feed, e uma diminuição de 0,07% no total de “palavras negativas” entre os que foram menos expostos a esse tipo de conteúdos. Ao todo, foram analisadas mais de três milhões de publicações (posts), contendo mais de 122 milhões de palavras – 3,6% das quais negativas e 1,6% positivas.
O artigo foi publicado, de forma discreta, na revista Proceedings of the National Academy of Sciences (PNAS) de 17 de Junho. A imprensa norte-americana só lhe deu destaque neste fim-de-semana, mas assim que o fez irromperam as críticas severas. Internautas e académicos mostraram-se estupefactos por o Facebook submeter pessoas a testes de manipulação psicológica sem o seu “consentimento informado”, como exige a lei nos EUA desde 1981.
O Facebook respondeu às acusações de falta de ética através de um porta-voz, que disse à Forbes: “Reflectimos cuidadosamente sobre as pesquisas que fazemos e temos um forte processo de análise interna. Não há recolha desnecessária de informação das pessoas nestas iniciativas de investigação e toda a informação é conservada em segurança.” Os participantes foram seleccionados aleatoriamente de entre os que então usavam a rede em inglês.
No entanto, o que está em causa não é a privacidade. É o facto de se terem manipulado seres humanos sem pelo menos os informar no final, como a lei norte-americana impõe que se faça quando estudos de evidente interesse público só são exequíveis sem o conhecimento dos sujeitos. A esse propósito, a empresa entende que todos os seus utilizadores deram o seu consentimento no momento em que aceitaram as condições de utilização para criar um perfil no site.
James Grimmelmann, professor de Direito da Universidade de Maryland, defende que esse “consentimento” é uma “ficção legal, concebida para facilitar as interacções online”. A política de utilização de dados do Facebook – bem mais extensa do que o artigo publicado na PNAS – não inclui uma descrição com os procedimentos deste ou de outros estudos, nada diz sobre possíveis riscos e não permite que se opte por não participar.
“O Facebook escolheu caminhar num campo de minas legal e ético; devemos sentir pouca compaixão quando ocasionalmente explode”, acrescentou Grimmelmann, no seu blogue. O próprio Adam Kramer, co-autor do estudo,acabou por reconhecer que “os benefícios da investigação talvez não tenham justificado toda a ansiedade” gerada à volta do artigo.
feed de notícias, onde lemos actualizações de amigos e páginas, é gerado individualmente a partir de um algoritmo. Não é a rede tal como a veríamos sem filtros. Se já existiam críticas ao afunilamento da realidade que provoca, agora os receios agravam-se. Não só por poderem vir a ser introduzidas variantes ao algoritmo que nos atirem para uma ficção distópica huxleyana, mas por a reacção a este estudo poder inibir o Facebook de publicitar os testes que levar a cabo no futuro. Como é uma empresa privada, não necessita de aprovação de uma comissão de ética.
Fonte: Público.

Deixe uma Resposta

Preencha os seus detalhes abaixo ou clique num ícone para iniciar sessão:

Logótipo da WordPress.com

Está a comentar usando a sua conta WordPress.com Terminar Sessão / Alterar )

Imagem do Twitter

Está a comentar usando a sua conta Twitter Terminar Sessão / Alterar )

Facebook photo

Está a comentar usando a sua conta Facebook Terminar Sessão / Alterar )

Google+ photo

Está a comentar usando a sua conta Google+ Terminar Sessão / Alterar )

Connecting to %s