O Facebook ensaia a manipulação de mentes

Sem consentimento dos usuários, rede testa meios de torná-los “felizes” ou “coléricos” e desencadeia onda de temor sobre controle social e político

Reprodução
Reprodução

Por Robert Booth, no The Guardian | Tradução: Gabriela Leite

Retirado do Outras Palavras

Ele já sabe se você está solteiro ou em um relacionamento; a primeira escola onde estudou;  se ama ou odeia Justin Bieber. Mas agora o Facebook, a maior rede socialdo mundo, está enfrentando uma tempestade de protestos ao se revelar que descobriu como fazer usuários se sentirem mais tristes ou felizes, com apenas alguns toques no teclado.

O Facebook acaba de publicar detalhes de um amplo expermiento, no qual manipulou informações postadas nas páginas de 689 mil usuários, e descobriu que poderia fazê-los sentir-se mais positivos ou negativos, por meio de um processo de “contágio emocional”.

Em um estudo [leia o relatório] com acadêmicos da Universidade de Cornell e daUniversidade da Califórnia, o Facebook filtrou o feed de notícias de usuários — a corrente de comentários, vídeos, imagens e links postados por outras pessoas em sua rede social. Um teste reduziu a exposição de usuários ao “conteúdo emocional positivo” de seus amigos. Em consequência, os usuários submetidos a este conteúdo manipulado também postavam menos posts positivos. Outro teste reduziu a exposição a “conteúdo emocional negativo”: os usuários reagiram de maneira oposta à do  primeiro grupo.

O estudo concluiu: “Emoções expressas por amigos, via redes sociais, influenciam nossos próprios humores, constituindo, segundo sabemos, a primeira evidência experimental de contágio emocional em escala maciça, via redes sociais.”

Advogados, ativistas que debatem o futuro da internet e políticos afirmaram, neste final de semana, que o experimento de massa sobre manipulação emocional era “escandaloso”, “assustador” e “incômodo”.

Na noite de domingo, um membro experiente do Parlamento Britânico pediu uma investigação parlamentar sobre como o Facebook e outras redes sociais manipularam respostas emocionais e psicológicas de seus usuários, ao editar informações oferecidas a eles.

Jim Sheridan, um membro do comitê de mídia da Câmara dos Comuns britânica, disse que o experimento era intrusivo. “Trata-se de algo extraordinariamente poderoso, e se ainda não há uma legislação para isso, deveria haver, para proteger as pessoas”, disse. “Estão manipulando informações da vida pessoal de seres humanos, e me preocupa a capacidade do Facebook e de outros para manipular os pensamentos relacionados a política ou outras áreas. Se as pessoas estão sendo controladas dessa maneira, segundo o que pensam, é necessário que haja uma proteção, e elas precisam ao menos ter consciência disso.”

Uma porta-voz do Facebook disse que a pesquisa, publicada este mês na revista de Procedimentos da Academia Nacional de Ciências dos EUA, foi realizada para “melhorar nossos serviços e tornar o conteúdo que os usuários veem no Facebook o mais relevante e envolvente possível”.

Ela acrescentou: “Uma grande razão da pesquisa é entender como as pessoas respondem a tipos diferentes de conteúdo, seja em um tom positivo ou negativo, notícias de amigos, ou informações sobre as páginas que seguem.”

Mas alguns outros comentaristas expressaram receio de que o processo poderia ser usado para propósitos políticos em disputas eleitorais ou para encorajar internautas a se manterem focados no site, alimentando-os com pensamentos felizes, e permitindo bombar as receitas de publicidade do próprio Facebook.

Em uma série de posts no Twitter, Clay Johnson, o co-fundador da Blue State Digital, a empresa que construiu e gerenciou a campanha online de Barack Obama à presidência em 2008, disse: “O experimento do Facebook de ‘trasmissão de raiva’ é aterrorizante.”

Ele pergunta: “A CIA poderia iniciar uma revolução no Sudão pressionando o Facebook a promover descontentamento? Isso seria legal? Mark Zuckerberg poderia virar o resultado de uma eleição ao promover posts do Upworthy [um site que agrega conteúdo viral] duas semanas antes de os cidadãos irem às urnas? Isso seria legal?”

Alega-se também que o Facebook possa ter quebrado normas éticas e legais, ao não informar seus usuários que estavam sendo manipulados no experimento, realizado em 2012.

A rede afirmou que alterar o feed de notícias foi “consistente com a política de uso de dados do Facebook, com a qual usuários devem concordar antes de criar uma conta no Facebook, constituindo consentimento informado para esta pesquisa”.

Mas Susan Fiske, acadêmica de Princeton que editou o estudo, disse estar preocupada. “As pessoas devem ser avisadas quando vão participar de estudos e concordar com isso, além de terem a opção de discordar sem serem penalizadas.”

James Grimmelmann, professor de Direito da Maryland University, disse que o Facebook não obteve “consentimento informado”, segundo os padros definidos pela política federal dos EUA para a proteção da subjetividade das pessoas. A lei demanda explicação sobre os propósitos da pesquisa e a duração estimada de participação do indivíduo, uma descrição de quaisquer riscos razoavelmente previsíveis e uma confirmação de que o envolvimento é voluntário. “Este estudo é um escândalo porque trouxe as práticas problemáticas do Facebook a um reino — a academia — onde ainda temos como padrão tratar pessoas com dignidade e servir ao bem comum”, disse em seu blog.

Não é novidade para as empresas de internet usar algorítimos que selecionam o conteúdo que mostram aos seus usuários. Jacob Silverman, autor do livro Terms of Service: Social Media, Surveillance, and the Price of Constant Connection (em tradução livre, “Termos de serviço: mídias sociais, vigilância e o preço da conexão constante”), disse à revista Wired, no domingo, que a internet já é “uma coleção ampla de estudos de pesquisa de mercado; nós somos os objetos”.

“O que é perturbador sobre como o Facebook agiu sobre isso, entretanto, é que eles essencialmente manipularam os sentimentos de centenas de milhares de usuários sem pedir permissão”, disse. “As coisas com as quais o Facebook mais se importa são as seguintes: envolvimento e publicidade. Se o Facebook, digamos, decide que filtrar nossos posts negativos ajuda-o a manter as pessoas felizes e clicando, há pouco motivo para pensar que eles não irão fazê-lo. Enquanto a plataforma se mantiver na condição de um filtrador tão decisivo — e conservar seus algorítimos completamente opacos — nós devemos ficar cautelosos com o poder e confiança que delegamos a ele.”

Robert Blackie, diretor digital da agência de marketing Ogilvy One, disse que a maneira que as empresas de internet filtram informações que mostram a seus usuários é fundamental para seus modelos de negócio, o que as faz relutantes para abri-los.

“Para garantir aceitação continuada de público, estas empresas terão que rediscutir tal questão de maneira mais aberta no futuro”, ele disse. “Será preciso introduzir ou críticos independentes, capazes de analisar o que elas fazem, ou regulação governamental. Se o Facebook e similares não compreenderem isso, as pessoas ficarão relutantes ao utilizar seus serviços, o que é potencialmente um grande problema de negócios.”

Fonte: Brasil de Fato

Leave a Response