En 2011, Eli Pariser popularizó el término burbuja de filtro (filter bubble) para referirse a cómo los famosos algoritmos de Google o Facebook (pero no solo ellos) personalizan la información que llega a nuestras pantallas. Aunque son fórmulas secretas, se sabe que tienen en cuenta varios factores como la posición geográfica, las preferencias demostradas en nuestro comportamiento on line, etc. De este modo, lo que recibimos cada uno es diferente de lo que reciben otras personas que hayan realizado, por ejemplo, la misma búsqueda. (El TED de Eli Pariser, de apenas 9’, no tiene desperdicio).
Se comprende que si, como efecto de esa burbuja, quedan fuera de nuestro alcance muchas informaciones relevantes -que desconocemos, pues el algoritmo ha elegido por nosotros-, los efectos de todo este proceso sean un motivo de preocupación. De ahí la petición de que los algoritmos sean más transparentes. No se trata solo de una cuestión de privacy sino de ciudadanía y democracia: no puedo eliminar de mi horizonte, sin más, las opiniones y puntos de vista que no coincidan con los míos.
Ahora, algunos estudios del laboratorio de Sociología Computacional de la Escuela IMT de Altos Estudios de Lucca (Italia) parecen indicar que no hay solo un factor “matemático” en ese efecto burbuja, sino también opciones personales. “Si una información es coherente con lo que me gusta, me encariño con las fuentes que lo confirman, me quedo dentro y me rodeo de personas que piensan como yo”, afirma Walter Quattrociocchi, responsable del laboratorio. Se crean así cajas de resonancia –muy frecuentes en temas como contaminación, alimentos, salud, geopolítica- que multiplican las informaciones incluso en aquellos casos en las que aparezcan deficientes: basta que coincidan con mi punto de vista… Personalmente, todo este fenómeno me ayuda a valorar todavía más la esencia de la función de los periodistas humanos: el esfuerzo por hacer comprensible el mundo, superando los propios prejuicios, o al menos siendo conscientes de ellos.