Realidade filtrada


Como você se sente quando tem a impressão que alguém está fazendo as escolhas por você? Ninguém gosta de ser manipulado, pelo menos não conscientemente. O pior é quando isso acontece de maneira inconsciente, filtrando a realidade. Pois esta é a tese de Eli Pariser, que fez uma das melhores falas no TED 2011 (abaixo) e que hoje teve um artigo seu publicado no New York Times e reproduzido no Estadão (veja mais abaixo).

Segundo Pariser, os códigos da internet filtram a informação apresentando aquilo que a pessoa que criou os algoritmos acha mais importante. Uma busca feita no Google do Brasil é diferente daquela feita no Google da China, da República Dominicana ou do Japão. A informação é filtrada pela realidade local. Ou melhor, por aquilo que quem fez o código entende por realidade local. O programador vira o novo editor daquilo que você lê.

Há algum tempo, Nicholas D. Krystof, também do New York Times, publicou um artigo chamado de Daily Me, que falava justamente sobre o filtro da informação (veja aqui um post sobre isso). Mas, neste caso, um filtro pessoal. Cada vez que escolhe acessar um determinado site e assina newsletters com assuntos de seu interesse apenas, você está escolhendo ver o mundo a partir de um ângulo restrito. Por isso a importância de ler os pré-históricos jornais, cujas notícias são filtradas por gente treinada para isso. E não por um programador. Ok, G1, Terra, Uol etc também valem. O importante é não se deixar consumir por uma única visão do mundo. Do contrário, a informação e a realidade filtrada vai ser como fast food: tudo com o mesmo gosto, sem sabor — a fast info.

====

Quando a internet acha que nos conhece

Os gigantes estão correndo para oferecer filtros especializados que nos mostram a rede que acham que devemos ver, controlando e limitando a informação que chega a nossa tela

24 de maio de 2011 | 0h 00
Eli Pariser, The New York Times – O Estado de S.Paulo

Era uma vez, reza a história, uma época em que vivíamos numa sociedade radiodifundida. Naqueles tempos ancestrais pré-internet, as ferramentas para compartilhar informação não eram amplamente disponíveis. Quem quisesse partilhar seus pensamentos com as massas, tinha de possuir uma impressora ou um naco das ondas aéreas, ou ter acesso a alguém que o tivesse. No controle do fluxo de informação estava uma classe de elite de editores, produtores e magnatas da mídia que decidia o que as pessoas veriam e ouviriam sobre o mundo. Eles eram os “guardiães”.

Aí veio a internet, que tornou possível a comunicação com milhões de pessoas com pouco ou nenhum custo. De repente, alguém com uma conexão de internet podia partilhar ideias com o mundo inteiro. Uma nova era de mídia noticiosa democratizada despontou.

O leitor pode ter ouvido essa história antes – talvez do blogueiro conservador Glenn Reynolds (blogar é “tecnologia solapando os “guardiães””) ou o blogueiro progressista Markos Moulitsas (seu livro se intitula Crashing the Gate, “Esmagando o portal”, em tradução livre).

É uma bela história sobre o poder revolucionário do meio e, na qualidade de um antigo praticante da política online, eu a contei para descrever o que fizemos na MoveOn.org. Mas estou cada vez mais convencido de que escolhemos a conclusão errada – talvez perigosamente errada. Há um novo grupo de “guardiães” por aí e, desta vez, eles não são pessoas, são códigos.

Os gigantes de internet de hoje – Google, Facebook, Yahoo e Microsoft – veem o crescimento notável de informações disponíveis como uma oportunidade. Se puderem oferecer serviços que vasculhem esses dados e nos forneçam os resultados pessoalmente mais relevantes e atraentes, eles conseguirão a maioria dos usuários e a maioria das visitas a anúncios. Por conseguinte, eles estão correndo para oferecer filtros especializados que nos mostram a internet que acham que devemos ver.

Esses filtros, aliás, controlam e limitam a informação que chega a nossas telas.

Por enquanto, estamos familiarizados com anúncios que nos perseguem online com base em nossas conexões recentes em sites comerciais. Mas, cada vez mais e de maneira quase invisível, nossa busca por informação está sendo personalizadas também. Duas pessoas que fazem uma busca com a palavra “Egypt” no Google podem receber resultados significativamente diferentes, com base em suas conexões passadas. Mas o Yahoo News e o Google News fizeram ajustes em suas home pages para cada visitante individual. E, no mês passado, essa tecnologia começou a fazer incursões nos sites de jornais como The Washington Post e The New York Times.

Tudo isso é bastante inofensivo quando a informação sobre produtos de consumo é filtrada para dentro e para fora de seu universo pessoal. Mas quando a personalização afeta não só o que se compra, mas como se pensa, surgem questões diferentes. A democracia depende da capacidade do cidadão de deparar-se com múltiplos pontos de vista; a internet limita essa possibilidade quando oferece somente informações que refletem seu ponto de vista já estabelecido. Embora às vezes seja conveniente ver-se apenas o que se quer ver, é decisivo que em outros momentos se vejam coisas que não se costumam ver.

Como os velhos “guardiães”, os engenheiros que escrevem o novo código do portal têm o enorme poder de determinar o que sabemos sobre o mundo.

Mas, diferentemente, dos velhos “guardiães”, eles não se veem como “guardiães” da confiança pública. Não há algoritmo equivalente à ética jornalística. Mark Zuckerberg, o presidente executivo do Facebook, certa vez disse a colegas que “um esquilo morrendo no seu jardim pode ser mais relevante para seus interesses agora do que pessoas morrendo na África”. No Facebook, “relevância” é virtualmente o único critério que determina o que os usuários veem. Fechar o foco nas notícias mais relevantes pessoalmente – o esquilo – é uma grande estratégia de negócios. Mas nos deixa olhando para o jardim em vez de nos informar sobre sofrimento, genocídio e revolução.

Não há volta atrás ao velho sistema dos “guardiães”, nem deveria haver.

Mas se os algoritmos estão assumindo a função de editar e determinar o que vemos, precisamos ter certeza de que eles pesam variáveis além de uma “relevância” estreita. Eles precisam nos mostrar Afeganistão e Líbia além de Apple e Kanye West.

As companhias que fazem uso desses algoritmos precisam assumir essa responsabilidade salutar com muito mais seriedade do que fizeram até agora. Precisam nos dar o controle sobre o que vemos – deixando claro quando estão personalizando e nos permitindo moldar e ajustar nossos próprios filtros. Nós, cidadãos, também precisamos preservar nosso fim – desenvolvendo a “literatura de filtro” necessária para usar bem essas ferramentas e cobrando conteúdo que amplie nossos horizontes, mesmo quando isso for desconfortável.

É do nosso interesse coletivo assegurar que a internet se coloque à altura de seu potencial como um meio de conexão revolucionário. Isso não ocorrerá se formos confinados em nossos próprios mundos online personalizados. / TRADUÇÃO DE CELSO PACIORNIK
É PRESIDENTE DO CONSELHO DA MOVEON.ORG, É O AUTOR DE “THE FILTER BUBBLE: WHAT THE INTERNET IS HIDING FROM YOU”

Deixe um comentário

Arquivado em Comunicação, Jornalismo, Mundo 2.0, Nova Sociedade

Deixe uma resposta

Preencha os seus dados abaixo ou clique em um ícone para log in:

Logotipo do WordPress.com

Você está comentando utilizando sua conta WordPress.com. Sair / Alterar )

Imagem do Twitter

Você está comentando utilizando sua conta Twitter. Sair / Alterar )

Foto do Facebook

Você está comentando utilizando sua conta Facebook. Sair / Alterar )

Foto do Google+

Você está comentando utilizando sua conta Google+. Sair / Alterar )

Conectando a %s