El otro día hice un experimento. Mi mujer y yo probamos a hacer la misma búsqueda en Google. Ella desde su móvil y yo desde mío. Solo nos separaban unos centímetros. A ella le salieron unos resultados y a mí, otros.

Tampoco es muy extraño. Desde hace tiempo Google, Facebook o Instagram adaptan los contenidos que nos ofrecen según el rastro digital que hemos dejado. Lo mismo sucede si entramos a comprar algún producto en Amazon o hemos contratado Netflix para ver una serie. La información que nos muestran está personalizada según las búsquedas anteriores, las interacciones que hemos realizado, el lugar de conexión, el tipo de navegador... Esta es la parte buena de que sean capaces de adaptar sus servicios a nuestros gustos personales.

La menos buena es lo que Eli Parisier definió en 2011 como el filtro burbuja. "Una selección personalizada de la información que recibe cada individuo que le introduce en una burbuja adaptada a él para que se encuentre cómodo, pero que está aislada de las de los demás".

Es decir, los algoritmos de estas plataformas recopilan todo el rastro digital que hemos ido dejando y son capaces de ofrecer una visión ajustada a nuestras preferencias. Esto no sería malo. Sin embargo, está demostrado que cuando nos encontramos con contenidos en las redes sociales que no comulgan con nuestros gustos o creencias tendemos a ignorarlos en lugar de participar en ese debate.

Dicho de otra forma: solo hacemos caso de los argumentos y contenidos que son favorables a nuestras ideas y descartamos los que las contradicen. Y si redes sociales como Facebook solo nos ofrecen aquellas informaciones con las que estamos de acuerdo llegará un momento en el que solo veremos las opiniones de los amigos que piensan como nosotros y las publicaciones de los medios que tienen una línea editorial que nos guste.

Ese es el filtro burbuja al que se refiere Eli Parisier. Una realidad complaciente que nos impide acceder a esa información que podría desafiar o ampliar nuestra visión sobre ese tema. Una realidad complaciente y cómoda que refuerza nuestras opiniones. Y, en definitiva, una realidad complaciente, cómoda y sesgada que nos atrapará en esa burbuja de filtros y nos conducirá al error de creer que todo el mundo piensa como nosotros.

Un ejemplo ocurrió en las pasadas elecciones de EEUU. Los seguidores de Hillary Clinton estaban convencidos de la victoria de su candidata porque su filtro burbuja (la realidad que había construido Facebook con las interacciones que habían realizado en esta red social) se encargó de que esa fuese la realidad que veían. Pero al final ya sabemos cómo acabó la historia.

Facebook, como siempre, echa balones fuera y asegura que al final somos los usuarios los que no leemos las publicaciones de los medios que no nos gustan ni interaccionamos con las publicaciones de los amigos que no piensan como nosotros. Y hasta tiene razón.

Jeff Bezos, creador de Amazon, lo dijo muy claro: "Quiero devolver la venta de libros por internet a los tiempos en que uno iba a la librería de toda la vida y el librero, que te conocía perfectamente, te decía: 'Sé que te gusta John Irving y acaba de salir un nuevo escritor que me lo recuerda mucho. Creo que este libro te va a gustar".

Seguro que John Irving y el otro escritor son buenos, pero seguro que también sería interesante salir de ese filtro burbuja y conocer otros escritores que nos contasen otras historias. Aunque no nos gustasen. La realidad dejaría de ser menos cómoda y complaciente, pero, a cambio, sería más real.