Share Button

[ted id=1091 lang=es]

 

Si no sabes exactamente quién eres, quizá te puede ayudar analizar los resultados que arrojan tus búsquedas de información en Google, Yahoo News o tu timeline de Facebook. O quizá, para saberlo realmente tendrías que conocer qué es lo que no te están mostrando. ¿Quién ha pensado el algoritmo que eres? El código binario no entiende de ética periodística porque no es un gatekeeper, no es un editor que selecciona el contenido que ha de llegarte en base a criterios que están íntimamente relacionados con la democracia. Sólo sabe de ceros y de unos.

Empecemos por el principio: puedes hacer un experimento: ordenador contra ordenador puedes realizar junto a otro conejo de indias la misma búsqueda en Google. Sorpresa. Con toda probabilidad no te ofrezca los mismos resultados. ¿A qué se debe esto? A la personalización que se va configurando de tu perfil como usuario de internet. ¿Pero cuál es el resultado? Según Eli Pariser , activista de internet, fundador de MoveOn.org e ideólogo de la teoría de la burbuja de filtros; la personalización en la que se basan estos sistemas nos ofrece una visión limitada del mundo.

Pariser, cuyo trabajo en MoveOn ayudó a aupar a Barack Obama a la presidencia de EE.UU., expone que para que haya una buena democracia los ciudadanos deben tener un buen flujo de información y actualmente eso no está ocurriendo. “Antes veía internet como una posibilidad de conexión entre las personas, pero eso ya no es así”, opina. Actualmente nuestras búsquedas nos muestran resultados cómodos, pero nos están ocultando otras formas de pensar, otras alternativas. Si todo esto no cambia, si no se aplica cierta ética a los mecanismos de búsqueda y resultados cada vez nuestro universo será más pequeño, lo que imposibilitará a la larga la interconexión de personas en internet y fomentará los caminos dirigidos de forma oculta, con la posibilidad de manipulación que ello conlleva.