El filtro burbuja: ¿‘Un mundo feliz’?
Vivimos en internet, somos datos
para miles de algoritmos y las grandes empresas hacen negocio con ellos.
La personalización de los contenidos crea un entorno ficticio afín a
nuestras ideas. Pero hay resistencia. La libertad está en juego.
¡Oh qué maravilla!¡Cuántas criaturas bellas hay aquí!¡Cuán bella es la humanidad!
Oh mundo feliz, en el que vive gente así
.La Tempestad, Capítulo V
.La Tempestad, Capítulo V
Durante cuatro meses de 1932 Aldous Huxley escribió Un mundo feliz,
su novela más famosa, una ficción distópica sobre una sociedad sometida
por la ciencia a la satisfacción plena. Aquel cosmos de cultivos
humanos, predestinación y ausencia de libre albedrío se fraguó en una
época en la que los totalitarismos pugnaban por dominar una parte del
mundo. Cerebros condicionados y ayudados por el soma, una droga ideada
para curar la melancolía (“si por desgracia se abriera alguna rendija de
tiempo en la sólida sustancia de sus distracciones, siempre queda el
soma: medio gramo para una de asueto, un gramo para fin de semana, dos
gramos para viajar al bello Oriente, tres para una oscura eternidad en
la Luna”), componían la sociedad perfecta con la que Huxley ironizó
contra las tiranías. Aquel mundo feliz era ciencia ficción. Sí. Pero también apuntaba futuros posibles. La vida digital nos está acercando a algunos de ellos.
Hace varias semanas se publicó en español The Filter Bubble. What The Internet Is Hiding From You (Penguin), una
investigación de Eli Pariser (Maine, Estados Unidos, 1980) sobre cómo
los grandes sitios de internet en los que buscamos información, nos
relacionamos y nos informamos iniciaron el camino de la personalización
de contenidos y, con él, el de la recopilación de nuestros datos
personales. De “cómo la red decide lo que leemos y lo que pensamos”.
El libro arranca con una fecha, el 4 de diciembre de 2009.
Aquel día, sin apenas difusión, Google cambió su algoritmo de búsqueda:
“Búsquedas personalizadas para todos”, tituló un blog tecnológico.
Hasta entonces, el criterio principal era el del Pagerank —el nombre
viene del de uno de los fundadores de Google, Larry Page—, una serie de
fórmulas que permitían asignar relevancia a los documentos de forma
numérica. La pauta de pertinencia para el buscador era el número de
enlaces de otras páginas. Y la lógica era pensar que todos veíamos los
mismos resultados ante la misma búsqueda.
El algoritmo de Google y el librero de Amazon
A finales de 2009, Google modificó su algoritmo para
mostrar aquello que cree estamos buscando. En aquel cambio —la compañía
llega a variar su motor más de 500 veces al año, aunque muy pocas veces la transformación es importante—
sus ingenieros introdujeron una serie de indicadores personales
(búsquedas anteriores, lugar de conexión, tipo de navegador…) y el gran
buscador se convirtió en millones de buscadores distintos. Empezábamos a
encontrar lo que somos según los datos que Google conoce de nosotros.
Pero, ¿y si buscamos algo diferente? O, ¿por qué nunca veremos aquello
que a priori no nos interesa? El filtro burbuja —acuñado por Pariser—
comenzaba a configurarse.
El funcionamiento es sencillo: si buscas esto, la próxima vez te daré lo mismo. Si normalmente lees o compartes noticias de determinados medios, verás estos medios en tus redes. Si lees un libro o ves una película, la próxima vez tendrás destacado al mismo autor o director, o algunos similares. Si sueles viajar de Madrid a Londres encontrarás ofertas de vuelos personalizadas…
El funcionamiento es sencillo: si buscas esto, la próxima vez te daré lo mismo. Si normalmente lees o compartes noticias de determinados medios, verás estos medios en tus redes. Si lees un libro o ves una película, la próxima vez tendrás destacado al mismo autor o director, o algunos similares. Si sueles viajar de Madrid a Londres encontrarás ofertas de vuelos personalizadas…
También predestinamos y
condicionamos.
Decantamos nuestros críos como seres humanos socializados
[...]
Observen, crecerán con lo que los psicólogos solían llamar
un
odio instintivo hacia los libros y hacia las flores.
Reflejos
condicionados definitivamente.
Estarán a salvo de la botánica y de los
libros para toda su vida.
Un mundo feliz. Capítulo II.
Los contenidos adaptados de Google, pero también de
Facebook, Apple, Amazon, Netflix o de muchos sitios de noticias permiten
un mundo feliz individual, un caudal inmenso de información que nos
representa, con la que nos sentimos cómodos. En la burbuja de filtros no
vemos aquello que el programa establece que no nos interesa. Tampoco
somos conscientes de que esa información existe, o de que puede que haya
algo importante que nos estemos perdiendo. Y, sin esa otra visión, sin
esa experiencia crítica, el mundo de pronto se hace mucho más pequeño;
con la ficción añadida de creer que tenemos un acceso libre y colosal a
lo que ocurre.
— Para lo que está
destinado, sí. — Se encogió de hombros Helmholtz—.
Pero su destino, ¡es
tan poco trascendente!
¿De qué sirve que te penetre un artículo sobre un
Canto de Comunidad,
o la última mejora en los órganos de perfumes?
Además, ¿es posible hacer que las palabras sean penetrantes
como los
rayos X cuando se escribe acerca de cosas como éstas?
¿Cabe decir algo
acerca de nada? A fin de cuentas, éste es el problema.
Un mundo feliz. Capítulo VI
El cambio en Google fue, según Pariser, el inicio de la personalización masiva, pero fue Jezz Bezos con Amazon el primero que supo explotar la idea de la relevancia. La esencia de su proyecto se resumía en una frase que el magnate —hoy dueño de The Washington Post y tercer hombre más rico del mundo según la lista Forbes— repetía: “Quiero devolver la venta de libros por internet a los tiempos en que uno iba a la librería de toda la vida y el librero, que te conocía perfectamente, te decía: ‘Sé que te gusta John Irving y acaba de salir un nuevo escritor que me lo recuerda mucho. Creo que este libro te va a gustar”. Desde el principio, Amazon fue una librería con personalización incorporada. En 1997 vendió el primer millón de libros. En 2001 consiguió su primer trimestre de beneficio neto. Y en los tres primeros meses de este año, su cifra de negocio alcanzó los 32.720 millones de euros, un 22,6% más respecto al mismo periodo de 2016.
— ¿Por qué, en lugar de esto, no les permite leer Otelo?— Ya se lo he dicho: es antiguo. Además, no lo entenderían.
Un mundo feliz. Capítulo XVI
Acxiom, los datos y el 11S
La ficción utópica de acceso absoluto al todo tiene otro
atractivo añadido: el gratis casi total. No solo tengo lo que quiero,
además lo tengo de forma gratuita o por muy poco. La rentabilidad está
en un elemento que no es evidente pero que podemos intuir, y son
nuestros datos personales.
En el negocio de la información personal no solo están las compañías tecnológicas más reconocibles. Pariser destaca en su libro a Acxiom, una empresa desconocida para el gran público que controla los datos del 96% de los hogares estadounidenses y de 700 millones de personas de todo el mundo. Saben sus nombres, sus direcciones, sus facturas, si toman algún medicamento, si tienen mascota…
Durante la mayor parte de su vida, Acxiom ha mantenido un perfil bajo, pero tras el 11S jugó un papel público importante.
Según cuenta Pariser en su libro, el 14 de septiembre de 2001, pocas horas después de que se hicieran públicos los nombres de los terroristas, el FBI recibió la llamada de un antiguo funcionario de la Casa Blanca que en ese momento era directivo de Acxiom. A partir de ahí la empresa buscó en sus enormes bases de datos y resultó que sabía más sobre 11 de los 19 secuestradores que el Gobierno de Estados Unidos.
En el negocio de la información personal no solo están las compañías tecnológicas más reconocibles. Pariser destaca en su libro a Acxiom, una empresa desconocida para el gran público que controla los datos del 96% de los hogares estadounidenses y de 700 millones de personas de todo el mundo. Saben sus nombres, sus direcciones, sus facturas, si toman algún medicamento, si tienen mascota…
Durante la mayor parte de su vida, Acxiom ha mantenido un perfil bajo, pero tras el 11S jugó un papel público importante.
Según cuenta Pariser en su libro, el 14 de septiembre de 2001, pocas horas después de que se hicieran públicos los nombres de los terroristas, el FBI recibió la llamada de un antiguo funcionario de la Casa Blanca que en ese momento era directivo de Acxiom. A partir de ahí la empresa buscó en sus enormes bases de datos y resultó que sabía más sobre 11 de los 19 secuestradores que el Gobierno de Estados Unidos.
Acxiom explica en su web que “proporciona la Base de Datos
—así en mayúscula— a los mejores vendedores del mundo”. Y añade:
“Creemos que los datos son la clave para crear interacciones
significativas a escala entre los consumidores y las marcas que aman”.
En febrero de este año, la compañía, con sede en Conway,
Arkansas, anunció el cese de sus operaciones en España por las
“estrictas leyes sobre protección de datos”. “Ha sido extremadamente
difícil desarrollar y vender nuestras soluciones de una forma
comercialmente viable”, explicó la empresa en un comunicado.
— Mi joven y querido amigo —
dijo Mustafá Mond—,
la civilización no tiene ninguna necesidad de
nobleza ni de heroísmo.
Ambas cosas son síntomas de ineficacia política.
En una sociedad debidamente organizada como la nuestra,
nadie tiene la
menor oportunidad de comportarse noble y heroicamente.
Las condiciones
deben hacerse del todo inestables antes de que surja tal oportunidad.
Donde hay guerras, donde hay una dualidad de lealtades, donde hay
tentaciones que resistir,
objetos de amor por los cuales luchar o que defender,
objetos de amor por los cuales luchar o que defender,
allá, es evidente, la nobleza y el heroísmo tienen algún
sentido.
Pero actualmente no hay guerras. Se toman todas las
precauciones posibles
para evitar que cualquiera pueda amar demasiado a
otra persona.
Un mundo feliz. Capítulo XVII
El grafo social
En la primera conferencia mundial auspiciada por Facebook,
celebrada en San Francisco el 24 de mayo de 2007, Mark Zuckerberg,
fundador de la compañía, lanzó la idea del grafo social: el conjunto de
relaciones de cada persona. Facebook no era la primera red social, pero
sí la que antes utilizó un algoritmo de selección de noticias que
recopilaba las actualizaciones de sus usuarios. “Estamos generando más
noticias en un solo día para nuestros 19 millones de usuarios que las
que generó cualquier otro medio de comunicación en toda su existencia”,
proclamó Zuckerberg. En el Facebook más primitivo, el muro mostraba todo —o
casi— lo que tus amigos compartían en su página. Pero esto fue pronto
incontrolable por el volumen. Así nació un algoritmo basado en tres
factores (afinidad, actualización y tiempo) que permitió acumular y
discriminar información del usuario para que el sistema funcionase. Un
ciclo infinito. Cuantos más datos se tengan, más sofisticados tienen que
ser los algoritmos para organizarlos.
El 27 de junio de este año, Zuckerberg anunció en un post
en Facebook que la comunidad había alcanzando oficialmente los dos mil
millones de personas. “Estamos haciendo progresos conectando el mundo, y
ahora lo vamos a acercar todos juntos. Es un honor estar en este viaje
contigo”. El objetivo de la empresa que había creado trece años antes se
estaba cumpliendo. Facebook ya está en casi todas partes. Su capacidad
de censura también.
— En suma — dijo Mustafá Mond—, usted reclama el derecho a ser desgraciado.— Muy bien, de acuerdo — dijo el Salvaje, en tono de reto—. Reclamo el derecho a ser desgraciado.—
Esto, sin hablar del derecho a envejecer, a volverse feo e impotente,
el derecho a tener sífilis y cáncer, el derecho a pasar hambre, el
derecho a ser piojoso,
el derecho a vivir en el temor constante de lo
que pueda ocurrir mañana;
el derecho a pillar un tifus; el derecho a ser
atormentado.
Un mundo feliz. Capítulo XVII
Rompiendo las burbujas
En paralelo a los filtros burbuja ha nacido una especie de
resistencia que empieza a crecer tanto como el enemigo a batir: desde
simples bloqueadores de publicidad a prácticas de hackeo
avanzadas. En el caso de Facebook y otras redes sociales, también
existen herramientas para romper la imposición de los contenidos.
Escape Your Bubble,
desarrollada por el ingeniero neoyorquino Krishna Kaliannan, tiene como
objetivo pinchar la burbuja que Facebook genera según la experiencia
política de cada persona. Funciona gracias a una extensión de Google
Chrome que reemplaza ciertos posts publicitarios por contenidos
políticos de calidad contrarios a la filiación del usuario. En la
herramienta se elige sobre qué partido político se quiere saber más
—republicanos o demócratas— y se indica la postura que se tiene en torno
a cuestiones sociales y económicas, además de la creencia (o no)
religiosa.
A partir de ahí, el muro mostrará distintas entradas, identificadas con una banda rosa y un logo de la herramienta —una especie de recordatorio de que tu filtro está siendo atravesado— con información que, por la experiencia y comportamiento, hubiese sido descartada o simplemente ocultada por el algoritmo.
La idea, muy simple, no deja de ser paradójica: a través de dos de los principales sistemas de filtros de Facebook, las extensiones de Google y el sistema de Ads (publicidad), se rompe el filtro mismo.
A partir de ahí, el muro mostrará distintas entradas, identificadas con una banda rosa y un logo de la herramienta —una especie de recordatorio de que tu filtro está siendo atravesado— con información que, por la experiencia y comportamiento, hubiese sido descartada o simplemente ocultada por el algoritmo.
La idea, muy simple, no deja de ser paradójica: a través de dos de los principales sistemas de filtros de Facebook, las extensiones de Google y el sistema de Ads (publicidad), se rompe el filtro mismo.
Escape Your Bubble no es un caso aislado. Hay varias herramientas que comienzan a funcionar contra la uniformidad informativa. Flipfeed, una extensión desarrollada por el MIT Media Lab, permite que nuestras cuentas de Twitter tomen el feed
—las fuentes, los seguidores o la información seleccionada— de otro
usuario y que aparezca en nuestro perfil como propio. De esta forma, y
también de acuerdo a una clasificación política de los usuarios, podemos
ponernos en el lugar —y en el uso que hace de las redes— de personas
alejadas ideológicamente. PolitEcho, que también funciona a través de un pluging de Chrome,
ayuda a reconocer en Facebook los sesgos propios a través de una
comparación con nuestros contactos. Algo así como una herramienta que
categoriza y describe nuestra propia burbuja.
El debate sobre la censura, el control y la
direccionalidad de los contenidos en internet cobró especial relevancia
tras la victoria de Donald Trump, cuando las redes se inundaron de
noticias falsas y complejos entramados de hackeo e intromisión
política. Lo más notorio fue, quizá, el convencimiento acérrimo que
demostraron los seguidores de Hillary Clinton en la victoria de su
candidata, incluso en los minutos inmediatamente previos a que se
conociesen los resultados finales. No solo porque era lo que deseaban,
sino porque su filtro burbuja se encargó de que esa fuese la ‘realidad’
que veían.
A finales de 2015, Natalie Fenton, activista y profesora de Comunicación en Goldsmiths, University of London, reflexionaba en ese sentido en una entrevista publicada en CTXT:
“Lejos de aumentar la participación política de todos, internet crea
guetos políticos de los que ya están bien informados; afianza las
desigualdades que existen offline. Esto me sucedió durante las elecciones del Reino Unido, donde me dejé seducir por esta idea de que en la tuitesfera
y en Facebook todo se sentía bien, había un montón de buenos debates,
se sentía cómo la izquierda iba ganando terreno. Pero, por supuesto,
todo lo que estaba haciendo era hablar con mis amigos”.
La censura de Facebook
Recientemente, la plataforma ProPublica ha revelado unos
documentos internos de Facebook donde se recogen las pautas
algorítmicas que la red social ha impuesto en sus mecanismos de censura.
La función de esas reglas es, supuestamente, diferenciar los discursos
de odio de la libertad de expresión –política– legítima. Sin embargo, el
principal descubrimiento fue la discriminación a la que somete Facebook
a sus usuarios en términos de protección. Mientras determinados
colectivos —como los hombres blancos— son protegidos de los discursos de
odio por la normativa, no ocurre lo mismo con otros grupos —por
ejemplo, los menores negros—.
— ¡Noventa y seis mellizos
trabajando en noventa y seis máquinas idénticas! —
La voz del director
casi temblaba de entusiasmo—. Sabemos muy bien adónde vamos.
Por primera
vez en la historia. — Citó la divisa planetaria-:
Comunidad, Identidad,
Estabilidad.
Un mundo feliz. Capítulo I
Según ProPublica, los documentos filtrados también
sugieren que las normas que impone Facebook tienden a favorecer a
determinadas élites o gobiernos frente al activismo de base o las
minorías. En parte, esto supondría que los criterios de censura se
configuran parcialmente según los intereses comerciales de la compañía,
supeditada a la decisión —o amenaza— de determinados gobiernos de
bloquear o no la red en sus territorios. Una de las reglas que aparece
en esos informes –y que Facebook asegura no usar ya– prohíbe defender la
violencia como forma de resistencia ante un Estado reconocido
internacionalmente. Esto afectaría a Palestina, Crimea o el Sahara
Occidental. El caso más llamativo en este sentido fue publicado por The Wall Street Journal el año pasado.
Según el diario, la afirmación de Donald Trump de prohibir la
inmigración musulmana al país no fue censurada por orden directa de
Zuckerberg pese al duro debate que suscitó entre los propios empleados
de la compañía, que alegaron que violaba las reglas del sitio sobre el
discurso de odio.
Sexo prohibido
El pasado mes de mayo, el diario británico The Guardian publicó una serie de reportajes —Facebook Files—
en los que explicaba de forma detallada las normas internas, los
comportamientos de moderación o la permisividad de la red con ciertos
contenidos sensibles. Era la primera vez que se conocía, por ejemplo, la
política de la compañía sobre contenidos sexuales. De la pornografía al
desnudo en el arte.
Uno de los documentos, relativo a las pautas de moderación, revelaba que en Facebook se puede publicar “quiero follarte”, pero sin ningún detalle concreto. Una fuente interna lo explicaba así: “Permitimos expresiones generales de deseo, pero no detalles sexuales explícitos”. La empresa asegura que le es “difícil establecer una línea entre contenido sexual aceptable e inaceptable”.
Uno de los documentos, relativo a las pautas de moderación, revelaba que en Facebook se puede publicar “quiero follarte”, pero sin ningún detalle concreto. Una fuente interna lo explicaba así: “Permitimos expresiones generales de deseo, pero no detalles sexuales explícitos”. La empresa asegura que le es “difícil establecer una línea entre contenido sexual aceptable e inaceptable”.
Facebook planea ampliar su equipo de moderadores a 7.500
personas en todo el mundo, en la que podría ser la mayor operación de
censura de la historia. También la más opaca, ya que la red no publica
—solo existen filtraciones— las reglas que sigue para aplicar su filtro
burbuja.
Noticias uniformadas y cámaras de eco
Algunos medios de comunicación no están siendo ajenos a
los efectos peligrosos de la personalización de los contenidos. El
periodismo como servicio público, la información importante,
jerarquizada, se oscurece en un mundo de noticias servidas a la carta.
El 12 de junio de este año, Chris Evans, director del Daily Telegraph, y Katharine Viner, redactora jefa del Guardian,
firmaron un artículo conjunto que publicaron ambos medios. “Desde lados
opuestos del espectro político”, los periódicos quisieron alertar sobre
el papel de la prensa y los enemigos a los que se enfrenta. El
fragmento final de la columna expresa lo siguiente:
“Nuevas tendencias preocupantes están empezando a afectar a
la conciencia pública —noticias falsas, algoritmos sesgados, cámaras de
eco (ampliación por transmisión y repetición en un sistema cerrado)—.
Los efectos del filtro burbuja pueden aparecer rápidamente a medida que
las experiencias segmentadoras que nos llegan de Facebook y Google solo
nos sirven noticias y puntos de vista con los que estamos de acuerdo.
Estas burbujas pueden llevarnos a estrechar nuestra visión del mundo, en
lugar de buscar noticias y opiniones que nos involucren, ensanchen
nuestros puntos de vista y nos expongan a nuevas ideas. Con este telón
de fondo, nunca ha sido tan importante para la prensa un escrutinio
equilibrado, profesional, pero, sobre todo, duro con los líderes
políticos de todas las ramas. Mientras el evento Great Get Together
se está organizando para este fin de semana en memoria de la vida y
obra de Jo Cox, nosotros, los dos editores, no vacilamos al unirnos,
aunque sea por un día, para compartir el sutil sentimiento de George
Orwell: “Si la libertad significa algo, será, sobre todo, el derecho a
decirle a la gente aquello que no quiere oír”.
Internet fue capaz de transformar el mundo. Abrió una
ventana casi infinita a las ideas. Solo hace falta corregir el rumbo y
reivindicar espacios de pensamiento. La humanidad más bella siempre es
la más libre. La tiranía siempre es más ordenada que la libertad.
FUENTE: ctxt.es
Vanesa Jiménez
/
José Luis Marín
13/07/2017
No hay comentarios:
Publicar un comentario