Nota sobre la traducción
Este artículo fue originalmente publicado en la sección Concepts of the Digital Society de la revista Internet Policy Review, editada por Christian Katzenbach y Thomas Christian Bächle. Es publicado en la Revista Latinoamericana de Economia y Sociedad Digital según los lineamientos de acceso abierto del artículo original, con licencia Creative Commons Attribution 3.0 Germany.
Título Original: Filter bubble Fecha de publicación original: 29 de Noviembre de 2019 Link al artículo original: https://policyreview.info/concepts/filter-bubble DOI original: https://doi.org/10.14763/2019.4.1426 Traducido del idioma inglés por The Pillow Books para la Revista Latinoamericana de Economía y Sociedad Digital en Mayo 2022. |
Resumen
El concepto de “filtro burbuja”, acuñado por el empresario y activista en tecnología Eli Pariser en 2011, sugiere que los motores de búsqueda y las redes sociales, junto con sus algoritmos de recomendación y personalización, son los principales responsables de la polarización social e ideológica que se vive en muchos países; ya no es posible encontrar una dieta informativa equilibrada y saludable, sino que solo vemos información que apunta a nuestros intereses establecidos y refuerza la visión del mundo que ya tenemos. Los filtros burbuja son considerados elementos decisivos en fenómenos políticos populistas como el Brexit, Trump, Bolsonaro, entre otros, y las empresas de búsqueda y redes sociales han sido duramente criticadas por no haber impedido su desarrollo. Sin embargo, la evidencia empírica de su existencia, o de la del concepto relacionado de “cámaras de eco”, es escasa; de hecho, las personas usuarias de las redes sociales y de los motores de búsqueda parecen encontrar, en términos generales, una dieta mediática sumamente centrista que es, en todo caso, más diversa que la de las no usuarias. No obstante, la recurrencia de estos conceptos en los principales medios de comunicación y en los debates políticos ha creado una realidad discursiva propia, la cual aún repercute de forma significativa en las instituciones sociales, en los medios y en las plataformas de comunicación, así como en las personas usuarias. Este artículo ofrece una revisión crítica de la idea de “filtro burbuja” y concluye que su persistencia solo ha servido para desviar la atención de la comunidad académica de áreas de investigación mucho más críticas.
Abstract
Introduced by tech entrepreneur and activist Eli Pariser in 2011, the ‘filter bubble’ is a persistent concept which suggests that search engines and social media, together with their recommendation and personalisation algorithms, are centrally culpable for the societal and ideological polarisation experienced in many countries: we no longer encounter a balanced and healthy information diet, but only see information that targets our established interests and reinforces our existing worldviews. Filter bubbles are seen as critical enablers of Brexit, Trump, Bolsonaro, and other populist political phenomena, and search and social media companies have been criticised for failing to prevent their development. Yet, there is scant empirical evidence for their existence, or for the related concept of ‘echo chambers’: indeed, search and social media users generally appear to encounter a highly centrist media diet that is, if anything, more diverse than that of non-users. However, the persistent use of these concepts in mainstream media and political debates has now created its own discursive reality that continues to impact materially on societal institutions, media and communication platforms, and ordinary users themselves. This article provides a critical review of the ‘filter bubble’ idea, and concludes that its persistence has served only to redirect scholarly attention from far more critical areas of enquiry.
INTRODUCCIÓN
El término “filtro burbuja” fue introducido y popularizado por el empresario y activista en tecnología estadounidense Eli Pariser, sobre todo en su libro de 2011 El filtro burbuja: cómo la red decide lo que leemos y lo que pensamos. Pariser comienza el libro con una anécdota:
“En la primavera de 2010, mientras los restos de la plataforma petrolífera Deepwater Horizon vertían crudo en el golfo de México, pedí a dos amigas que buscaran el término “BP”. Ambas se parecen bastante: son blancas, cultas, de izquierdas y viven en el nordeste de Estados Unidos. No obstante, los resultados que obtuvieron fueron muy dispares. Una de mis amigas vio información referente a inversiones relacionadas con BP, a la otra le aparecieron noticias. Para una de ellas, la primera página de resultados de Google contenía enlaces sobre el vertido de petróleo; para la otra, no había nada al respecto, a excepción de un anuncio promocional de BP.” (Pariser, 2017, p. 12)
A continuación, Pariser especula que tales diferencias se deben a la personalización algorítmica de los resultados de búsqueda que prometen Google y otros motores de búsqueda similares, y que, en efecto, cada persona que utiliza el motor de búsqueda existe dentro de un filtro burbuja ⎯un “universo de información personalizado” (Pariser, 2015, s/p)⎯ que difiere de una persona a otra. Esta idea puede verse, por tanto, como un contrapunto mucho más crítico a la visión anterior de Nicholas Negroponte del Daily Me (Negroponte, 1995), un periódico en línea personalizado que atendería a los intereses específicos de su lector en lugar de limitarse a ofrecer noticias e información de interés general. Estas diferencias en la evaluación de conceptos que, por lo demás, son similares, también demuestran que la percepción del público sobre los servicios en línea y su configuración algorítmica ha cambiado de manera considerable, desde el entusiasmo por la internet de mediados de la década de 1990, hasta el creciente escepticismo tecnológico de la década de 2010.
Es importante tener en cuenta desde el principio que, al escribir para un público general y promover su concepto a través de charlas TED y espacios similares (por ejemplo, Pariser, 2011b), Pariser no logra proporcionar una definición clara del concepto de “filtro burbuja”; este permanece vago y basado en anécdotas. En consecuencia, esto ha supuesto problemas importantes para la investigación académica, que ya ha intentado verificar de forma empírica la existencia generalizada de filtros burbuja en contextos de la vida real, más allá de las observaciones anecdóticas. Sin embargo, esta falta de claridad en la definición del concepto no impidió que ganara una importante popularidad tanto en el discurso científico como en el social. En su discurso de despedida, incluso el presidente saliente de los Estados Unidos, Barack Obama, advirtió que “para demasiados de nosotros se ha vuelto más seguro retirarse a nuestras propias burbujas” (Obama, 2017, s/p) en lugar de comprometerse con perspectivas divergentes. A la clase política, periodistas, activistas y otros grupos sociales se les acusa ahora con frecuencia de “vivir en un filtro burbuja” que les impide ver las inquietudes de las demás personas.
Sin embargo, en estos debates recientes, el término “filtro burbuja” ya no se aplica en primer lugar a los resultados de las búsquedas, como ocurría en la conceptualización original de Pariser. Hoy en día, los filtros burbuja se conciben con más frecuencia como interrupciones de los flujos de información en los medios de comunicación en línea y, sobre todo, en las redes sociales. El propio Pariser, en sus escritos más recientes, ha hecho esta transición de los motores de búsqueda a las redes sociales, aunque no deja de señalar el papel que desempeñan los algoritmos en la creación de tales filtros burbuja; sugiere, por ejemplo, que “el algoritmo que alimenta las noticias de Facebook, en particular, tenderá a amplificar las noticias que sus compadres políticos favorecen” (Pariser, 2015, s/p). Por supuesto, este cambio en el lugar que se supone que ocupan los mecanismos de los filtros burbuja también apunta a la creciente importancia de las redes sociales como fuentes primarias de noticias y otro tipo de información; un cambio que estudios longitudinales como el Digital News Report (por ejemplo, Newman et al., 2016, 10) han documentado con gran claridad.
En esta nueva personificación, centrada en las redes sociales, el concepto de “filtro burbuja” se ha entrelazado cada vez más, por desgracia, con el concepto relacionado, pero anterior, de “cámaras de eco”. De hecho, una cantidad considerable de debates en los principales medios de comunicación, al igual que muchos artículos académicos, utilizan ahora los dos términos casi de forma intercambiable, en enunciados como “los filtros burbuja (también conocidos como “cámaras de eco”)” (Orellana-Rodríguez y Keane, 2018). Es difícil establecer una clara distinción entre ambos términos por el hecho de que ⎯al igual que Pariser para “filtro burbuja”⎯ el creador del concepto de “cámara de eco”, el jurista Cass Sunstein, en ningún momento define con claridad este último término. Como resultado, desde la primera aparición del concepto en el libro de Sunstein de 2001, el término de “cámara de eco”, al igual que el de “filtro burbuja”, se ha aplicado a varios contextos virtuales, desde “la internet” en abstracto hasta espacios específicos de redes sociales. Esta confusión terminológica ⎯en relación con las definiciones exactas de cualquiera de los términos en sí mismos y con su interrelación⎯ ha limitado en gran medida nuestra capacidad para ponerlos a prueba a través de una investigación rigurosa.
PERSPECTIVAS (INTER)DISCIPLINARIAS SOBRE LOS FILTROS BURBUJA
El principal problema que se deriva de la profunda carencia de definiciones sólidas para estos términos es el hecho de que los estudios empíricos que analizan la existencia y el impacto de los filtros burbuja (y las cámaras de eco) en cualquier contexto, en términos generales, se han visto obligados a introducir sus propias definiciones, lo que limita la posibilidad de hacer comparaciones; un estudio que afirma haber encontrado evidencias claras de la existencia de filtros burbuja podría haber utilizado una definición muy diferente a la de otro estudio que concluyó justamente lo contrario. En los últimos años se ha intentado desarrollar definiciones más sistemáticas y verificables desde el punto de vista empírico para ambos términos (por ejemplo, O’Hara y Stevens, 2015; Zuiderveen Borgesius et al., 2016; Dubois y Blank, 2018), así como reevaluar los estudios existentes en función de dichas definiciones (por ejemplo, Bruns, 2019). Sin embargo, es necesario realizar muchos más avances en este sentido.
En la actualidad, gran parte del enfoque académico dirigido a investigar estos conceptos se centra en las redes sociales; en parte, esto se debe a que, a pesar de la anécdota fundacional de Pariser, se carece de pruebas convincentes de la existencia de filtros burbuja significativos en los resultados de búsqueda. Tan solo en 2018, tres estudios importantes mostraron superposiciones considerables en los resultados de búsqueda encontrados por personas usuarias con intereses diversos, tanto políticos como de otro tipo. Nechushtai y Lewis informaron que los buscadores de Google News en Estados Unidos se dirigían de forma abrumadora a “periódicos y cadenas de televisión nacionales de larga data” (2018, p. 302); Haim et al. encontraron “solo efectos menores de la personalización en la diversidad de contenidos” para buscadores de noticias similares en Alemania (2018, p. 339); y Krafft et al. se basan en sus hallazgos relativos tanto a Google Search como a Google News para “negar [explícitamente] el desarrollo y la solidificación de filtros burbuja aislantes con base en algoritmos” (Krafft et al., 2018, p. 53). Cabe destacar que estos resultados proceden de estudios realizados en distintos países, a escalas muy diferentes, y que utilizaron diversos métodos. Si bien las investigaciones posteriores deberían confirmar estos resultados en una mayor cantidad de contextos nacionales y una gama más amplia de motores de búsqueda y portales de noticias, al menos en lo que respecta a la búsqueda, parece que la idea de los filtros burbuja se ha desinflado: lejos de la visión (o la amenaza) de un Daily Me, único y singular, la personalización, en general, y los resultados específicos en la búsqueda de noticias son aún muy limitados.
En cambio, en el caso de las redes sociales, el debate sobre los filtros burbuja y las cámaras de eco continúa, y hay diversos estudios que apoyan o niegan su existencia. En este caso, la confusión en cuanto a las definiciones es más evidente, y también se manifiesta de forma muy distinta entre las diferentes disciplinas involucradas en la comprobación de estos conceptos. Para los fines del siguiente análisis y con el objetivo de introducir una distinción significativa entre los conceptos de “cámara de eco” y “filtro burbuja”, podríamos recurrir a las siguientes definiciones mínimas (cf. Bruns, 2019, p. 29):
– Cámara de eco: se produce cuando un grupo de participantes opta por conectarse entre sí de forma preferente y excluir a personas ajenas (por ejemplo, al hacerse amigos en Facebook, seguir en Twitter, etc.)
– Filtro burbuja: se produce cuando un grupo de participantes elige comunicarse entre sí de forma preferente y excluir a personas ajenas (por ejemplo, a través de comentarios en Facebook, menciones directas en Twitter a través de etiquetas, etc.)
Los efectos de estas estructuras conectivas y comunicativas aumentarían si las cámaras de eco y los filtros burbuja se traslaparan entre sí; es decir, si las personas usuarias que solo se siguen entre sí también eligieran solo comunicarse entre sí. Sin embargo, esto no siempre es posible; las personas usuarias de Twitter pueden etiquetar a otras a las que no siguen, por ejemplo; y las personas usuarias de Facebook pueden encontrarse con otras personas de las que no son amigas en los comentarios de páginas y grupos de esa plataforma.
Cabe destacar que, en comparación con las inquietudes anteriores ⎯sobre la fragmentación de las mediosferas nacionales, como resultado de la multiplicación de los canales de televisión por cable o las fuentes de información en línea, o sobre la estratificación social debida a la divergencia de los conocimientos sobre los medios de comunicación entre distintos sectores de la población⎯, los conceptos de cámara de eco y filtro burbuja se centran claramente en la persona usuaria de los medios de comunicación y en el trato que reciben por parte de los motores de búsqueda y las plataformas de redes sociales. Mientras que esas inquietudes abordaban las tendencias globales de toda la población, estos nuevos fenómenos están motivados por procesos de personalización individualizada (y por las posibles intervenciones de las personas usuarias en dicha personalización).
LA CIENCIA DE LAS REDES
Como presagian estas definiciones, un enfoque clave para el estudio de los filtros burbuja es el análisis y la visualización (normalmente computacional) de las estructuras de red entre las personas que participan en las redes sociales. A riesgo de caer en una simplificación excesiva, estos enfoques de la ciencia de las redes tienden a buscar sobre todo evidencias de homofilia: una preferencia por las interconexiones entre participantes con intereses, opiniones e ideologías similares. Esto, a su vez, puede derivar también en una exposición selectiva, ya que se espera que quienes pertenecen a dichas comunidades homófilas hagan circular de forma preferente contenidos que coincidan con sus visiones del mundo (por ejemplo, Batorski y Grzywińska, 2018).
Las definiciones sugeridas aquí también permiten evaluar el grado de apego preferente a personas con ideas afines; en pocas palabras, permiten evaluar el equilibrio entre los vínculos y la comunicación dentro y fuera del grupo. En este caso, a la luz de los considerables efectos disruptivos y de desconexión que quienes los defienden atribuyen a los filtros burbuja y a las cámaras de eco, está claro que una evaluación de este tipo tendría que mostrar mucho más que una leve tendencia a la homofilia en las opciones de conexión y comunicación de las personas usuarias. Para que se produzca una divergencia notable en las dietas de información experimentadas tanto por quienes forman parte de una cámara de eco o de un filtro burbuja como por quienes no, tendrían que buscar de forma activa tener contacto con otras personas con ideas afines (en otras palabras, buscar la exposición selectiva), y mantenerse alejadas de quienes podrían mostrarles puntos de vista alternativos (es decir, practicar la evasión selectiva).
De hecho, en la mayoría de las plataformas de redes sociales es muy fácil encontrar tendencias de homofilia básicas; en el contexto del ambiente político actual en Estados Unidos, por ejemplo, no es de sorprender que, en Twitter, hashtags como #MAGA y #resist atraigan a grupos participantes altamente homófilos y diametralmente opuestos (Chong, 2018). Del mismo modo, es de esperar que las páginas y grupos de Facebook cuya agenda contra la vacunación es explícita atraigan sobre todo a participantes con ideas similares (Smith y Graham, 2017). Desde esta perspectiva, las plataformas de redes sociales y las posibilidades que ofrecen (como los hashtags en Twitter o las páginas y los grupos de Facebook) pueden comprenderse como motores de homofilia; de hecho, desde que se popularizaron los sistemas de tablones de anuncios de acceso telefónico y la primera red de usuarios (Usenet), ha sido justamente esta oportunidad de vincularse con otras personas de ideas afines la que ha atraído a las personas usuarias a las plataformas de comunicación computarizadas (por ejemplo, Baym, 2000).
Cabe destacar que existen múltiples contextos en los que tal homofilia puede ser considerada benéfica; por ejemplo, al permitir que las comunidades de interés se vinculen en línea a pesar de la considerable distancia geográfica; al permitir que grupos de participantes con intereses especiales compartan información relevante, o al permitir que personas que pertenecen a grupos minoritarios en situación de vulnerabilidad se apoyen entre sí (cf. Helberger, 2019). Entonces, ¿es la homofilia por sí sola un criterio suficiente para la disfunción comunicativa? ¿Deberíamos ahora reclasificar cualquier comunidad de interés de este tipo en ámbitos virtuales como filtro burbuja? Después de todo, mientras que los hashtags de carácter político hiperpartidista o las páginas dedicadas a teorías conspirativas pueden atraer a una comunidad bastante homogénea de participantes, estos espacios en línea específicos no existen de forma aislada, sino que están insertos en una plataforma de redes sociales mucho más compleja y variada que, a su vez, representa tan solo un elemento de una ecología de medios rica y diversa (cf. Dubois y Blank, 2018). En consecuencia, los estudios relativos a la ciencia de las redes que contemplan más allá de esas comunidades inherentemente ideológicas encuentran una homofilia y una polarización significativamente menores en contextos no políticos; asimismo, identifican una notable interconexión entre los grupos que habitan dichos espacios ideológicos.
Por ejemplo, un análisis de redes solicitado por el periódico Süddeutsche Zeitung antes de las elecciones federales alemanas de 2017 descubrió que, a pesar de sus diferencias políticas, las personas que seguían las páginas de Facebook de los principales partidos compartían muchos intereses ajenos a la política y coincidían en las páginas relativas a dichos intereses (que incluía noticias, deportes y entretenimiento). Solo las personas que seguían en Facebook al partido de extrema derecha AfD se desviaban de forma significativa de este patrón y se centraban sobre todo en temas relacionados con la oposición a la inmigración. El informe concluye que “los filtros burbuja en apariencia cerrados son inexistentes en gran parte del espectro político de Alemania […] Las personas usuarias provenientes de diferentes entornos políticos se encuentran con frecuencia con las mismas publicaciones” (Rietzschel, 2017, s/p). Si bien la desviación del AfD de esta tendencia social resulta preocupante en sí misma, revela que los filtros burbuja solo existen (si existen) en los extremos del espectro ideológico.
En el caso de Twitter, los mapas detallados de las conexiones entre seguidores de esta plataforma en Australia (Bruns et al., 2017) y Noruega (Bruns y Enli, 2018) han mostrado, de forma similar, la existencia de grupos de interés con una elevada interconexión en torno a temas que van desde la política hasta los deportes. En cambio, señalan que el número de desconexiones trascendentes en la red general es reducido. En los casos en los que los grupos se han separado de forma deliberada de la red más amplia, el motivo tiene que ver con divergencias temáticas (porno) o con una mayor necesidad de mantener la red en el ámbito estrictamente profesional (educación). Por lo demás, las estructuras de red de ambas esferas de Twitter facilitan un flujo de información en gran medida libre de obstáculos entre todas las personas usuarias y, por lo tanto, no podrían respaldar la existencia de filtros burbuja.
CIENCIAS SOCIALES
Estos estudios apuntan a que la naturaleza polifacética y de intereses múltiples de las principales plataformas de redes sociales milita activamente contra la formación de cámaras de eco y filtros burbuja. Muchas personas usuarias que no participan en Facebook, Twitter y otras plataformas importantes únicamente debido a que sus agendas políticas o sus intereses son limitados, las utilizan para dedicarse a intereses múltiples y, en ocasiones, contradictorios y vincularse en el proceso con diversos grupos y comunidades que, en menor o mayor medida, pueden superponerse. Estos procesos de superposición accidental o deliberada ya han sido definidos bajo el término “colapso del contexto” (Marwick & boyd, 2011), y por mucho que veamos los grupos de Facebook y los hashtags de Twitter como motores de homofilia, también debemos considerar estas plataformas en su totalidad como motores de colapso del contexto.
Dicho colapso del contexto tiende a ocurrir, sobre todo, en el momento en que hay una mayor probabilidad de que las diferentes comunidades de interés de una persona usuaria, así como las redes de contactos que representan, se crucen; es decir, en el público personal (Schmidt, 2014) que rodea el perfil de redes sociales de la persona usuaria. En parte debido a que las consideraciones éticas y prácticas sobre el acceso a los datos de las interacciones privadas y semiprivadas a nivel de perfil impiden realizar estudios científicos de redes a gran escala, tales tendencias hacia el colapso del contexto se han observado, sobre todo, a través del uso de métodos pertenecientes a las ciencias sociales, desde la observación etnográfica hasta entrevistas y encuestas. Este tipo de investigación con frecuencia presenta desafíos importantes a los conceptos de filtro burbuja y cámara de eco.
Una encuesta representativa del Pew Center sobre las personas usuarias de redes sociales en Estados Unidos antes de las elecciones presidenciales de 2016 informó, por ejemplo, que solo “23% de las personas usuarias de Facebook y 17% de las personas usuarias de Twitter dicen [que] la mayoría de sus contactos tienen creencias políticas similares a las suyas” (Duggan y Smith, 2016, p. 9). La misma encuesta también señaló que más de una cuarta parte de las personas encuestadas había “bloqueado o eliminado de su lista de amigos” a contactos debido a contenidos políticos no deseados (2016, p. 4). Estos intentos de desconexión podrían verse como esfuerzos por construir un filtro burbuja personal por parte de esta minoría de personas usuarias; sin embargo, el hecho de que resulten necesarios, y de que las personas usuarias, en general, estén “agotadas por la cantidad de contenido político que encuentran” (2016, p. 2), pone de manifiesto que hasta la fecha cualquier intento manual o algorítmico de reducir la heterogeneidad de la redes personales en Facebook y Twitter ha fracasado.
Esto, de paso, socava la propuesta de Pariser de que el algoritmo de Facebook “tenderá a amplificar las noticias que favorecen tus compadres políticos” (2015, s/p), tal y como habíamos comprobado antes: si nuestras redes de Facebook son de por sí heterogéneas, tanto en relación con intereses políticos como de otro tipo, ¿cómo podría el algoritmo detectar cuáles de estas conexiones son nuestros “compadres” y privilegiar sus ideologías? En efecto, esta selección podría ser posible para personas usuarias que están en Facebook por motivos meramente políticos, pero es evidente que la gran mayoría de participantes en Facebook se limitan a soportar los debates políticos pero no toman parte de forma activa (Duggan & Smith, 2016). De hecho, podría decirse que un defecto fundamental de los conceptos de “filtro burbuja” y “cámara de eco” es que son defendidos por autores como Pariser y Sunstein, quienes están genuinamente comprometidos con los debates políticos, pero que no son capaces de reconocer que su experiencia con los medios digitales y las redes sociales difiere de forma considerable de la de las personas usuarias que no son “adictas a la política” (Coleman, 2003).
Para estas personas apolíticas usuarias de redes sociales, es mucho más probable tener un encuentro imprevisto y casual con las noticias y el debate político, a través de “charlas políticas informales” en contextos ajenos a la política (Wojcieszak y Mutz, 2009, p. 50) y el intercambio ocasional de noticias por parte de otros miembros de sus redes personales. Sin embargo, debido a que son tan imprevistos, es poco probable que estos encuentros fortuitos den lugar a tendencias de filtros burbuja; de hecho, la investigación que utiliza los datos de la encuesta recopilados para el Digital News Report ha demostrado que “aquellas personas que están expuestas de forma incidental a las noticias en redes sociales tienen acceso a una mayor cantidad de fuentes diferentes de noticias en línea que las personas no usuarias” (Fletcher y Nielsen, 2018, p. 2459). Esto significa que, en contra de los temores relativos a la fragmentación de la sociedad como resultado de los filtros burbuja, para muchas personas usuarias las redes sociales han aumentado de manera positiva la diversidad de la información que consumen y evitan que queden atrapadas en una ideología única.
Por ejemplo, un estudio a largo plazo sobre la polarización política en Estados Unidos sugiere que “los grupos menos propensos a usar la internet experimentaron mayores cambios en relación con la polarización entre 1996 y 2016 que los grupos más propensos a usarla” (Boxell et al., 2017, p. 10612). Esto significaría que, de acuerdo con Sunstein y Pariser y en contraste con el pánico moral actual sobre el impacto de las redes sociales en el discurso político, los medios en línea y las redes sociales tienen el potencial de mitigar las tendencias a la polarización. Sin embargo, hay que reconocer que estas observaciones longitudinales a gran escala, basadas en encuestas, pueden ser válidas en términos generales, pero muestran una variación considerable en el caso de comunidades y personas concretas; es evidente, como demuestran ejemplos como el del activismo opuesto a la vacunación o el de las personas que apoyan al AfD, que algunos grupos aún consideran la opción de utilizar los medios en línea y las redes sociales para encontrar una homofilia significativa y participar de forma prioritaria en el desarrollo de posturas ideológicas distintas y divergentes.
ESTUDIOS SOBRE MEDIOS Y COMUNICACIÓN
Las disciplinas incluidas en el ámbito general de los estudios sobre medios y comunicación son una fuente especialmente rica de explicaciones sobre estas tendencias divergentes, tanto a nivel individual como grupal. Las personas que se dedican a la investigación en este campo son propensas a considerar los resultados ⎯a veces contradictorios⎯ de los estudios individuales en el contexto más amplio de la ecología mediática global. En este sentido, toman en cuenta la multiplicidad de prácticas y espacios de comunicación dentro de las plataformas de redes sociales específicas y, sobre todo, reconocen la importancia de la interacción y los flujos de información a través de múltiples plataformas de redes sociales y otros canales mediáticos dentro del ámbito mediático híbrido actual (Chadwick et al., 2016).
Desde esta perspectiva disciplinaria, parece totalmente posible que las personas participantes con suficiente motivación (es decir, hiperpartidistas y polarizadas) en una determinada plataforma puedan participar en espacios comunitarios que, desde un enfoque de ciencia de las redes que rastree sus vínculos horizontales, aparezcan como altamente homófilas y desvinculadas de otros espacios de comunicación en la plataforma. Sin embargo, estas mismas personas continuarán siendo parte del entorno mediático más amplio observado por la investigación en ciencias sociales, incluso si dichos vínculos verticales entre plataformas y canales permanecen invisibles para la captura de datos computacionales. En otras palabras, la homofilia localizada, que es probable que exista en contextos y espacios específicos, no socava en lo esencial la heterogeneidad generalizada de la ecología de los medios de comunicación híbridos y no impide que sus participantes se encuentren, sea de forma voluntaria o involuntaria, con una amplia gama de información y perspectivas.
Desvincularse por completo de esta diversidad requeriría medidas mucho más drásticas. En palabras de O’Hara y Stevens, “un individuo en red tendría que entrar en la cámara de eco y perder de algún modo sus múltiples conexiones para sustituirlas por un mayor número de conexiones, más fuertes, dentro de la cámara de eco”, de un modo similar al proceso por el que “se adopta a las personas en las sectas, se les lava el cerebro y se les aleja de sus contactos, pero […] este no es un escenario común” (2015, p. 416). Por el contrario, muchas de las personas hiperpartidistas con mayor adhesión a opiniones de carácter extremista ⎯desde el activismo antivacunación y contrario a la idea del cambio climático hasta extremistas de derecha que apoyan a Donald Trump o al AfD⎯ también participan de manera activa en los principales medios de comunicación, al menos para seguir de cerca lo que piensan sus enemigos; por ejemplo, es mucho más probable que quienes consultan los sitios extremistas de supremacía blanca lean también el New York Times o publicaciones informativas de calidad similar que las personas usuarias habituales de noticias (Gentzkow y Shapiro 2011, p. 1823). En otras palabras, su ideología puede divergir de forma extrema de la tendencia social dominante, pero bajo ninguna definición existen en un filtro burbuja.
LA RELEVANCIA Y EL IMPACTO SOCIAL Y POLÍTICO
Ya en 2004, David Weinberger señaló que “el problema de una lista de correo electrónico sobre una conspiración extraterrestre no es que sea una cámara de eco; es que se piense que existe una conspiración extraterrestres” (2004, s/p). Conceptos como “cámara de eco” y “filtro burbuja” ⎯que, cabe destacar, no fueron introducidos por académicos especialistas en medios, comunicación, internet o ámbitos de estudios relacionados, sino por autores que trabajan fuera de su área de especialización (Pariser es un activista y empresario en tecnología, Sunstein es un especialista en derecho)⎯ han servido para encubrir problemas sociales mucho más acuciantes y para desviar la atención académica, periodística y normativa hacia factores tecnológicos, en lugar de hacia los factores sociales subyacentes. La evidencia empírica no apoya la existencia de cámaras de eco y filtros burbuja como fenómenos reales y observables en la comunicación pública. Por lo tanto, el uso persistente de estos conceptos en los principales medios de comunicación y los debates políticos en todo el mundo ha creado su propia realidad discursiva, la cual aún tiene un impacto material en las instituciones sociales, los medios y las plataformas de comunicación, así como en las propias personas usuarias. Como integrantes del sector académico, no podemos simplemente cerrar el caso de los filtros burbuja y las cámaras de eco y pasar a inquietudes más realistas; tenemos la obligación de continuar oponiéndonos a los modelos simplistas de conexión y comunicación que estos conceptos aún representan.
Incluso antes de la llegada de plataformas de redes sociales contemporáneas como Facebook (lanzada en 2004) o Twitter (lanzada en 2006), Weinberger vislumbró los primeros atisbos de estos desarrollos. Se refirió al concepto de “cámara de eco” cuando señaló que el “meme no solo está mal formado, sino que también hace el juego a quienes están dispuestos a malinterpretar la Red para controlarla” (2004, s/p). Sin embargo, esto se aplica también a la idea posterior del “filtro burbuja”; gran parte del debate público contemporáneo sobre las cámaras de eco y los filtros burbuja ha asumido en automático que estos fenómenos existen en la realidad y tienen un efecto nocivo significativo en la sociedad; que son causados por las nuevas tecnologías de comunicación de los motores de búsqueda y ahora, sobre todo, de las redes sociales; que una causa particular del problema radica en los algoritmos de personalización y recomendación desplegados por estas plataformas; y que la solución de este problema tecnológico debe ser también tecnológica (Meineck 2018, s/p). Este enfoque determinista desde el punto de vista tecnológico de las cámaras de eco y los filtros burbuja se produce a pesar de que ⎯como hemos visto en este artículo y en diversas revisiones críticas más detalladas de la investigación empírica sobre estos fenómenos (por ejemplo, Bruns, 2019; Dubois y Blank, 2018; Zuiderveen Borgesius et al., 2016)⎯ se puede observar una marcada ausencia de evidencia sobre la existencia real de los filtros burbuja o las cámaras de eco fuera de contextos muy específicos y poco habituales.
Esta desconexión entre la comprensión pública y la evidencia científica en relación con estos conceptos reúne todas las características de un pánico moral, similar a aquellos que han acompañado la transición a casi cualquier otra nueva tecnología de comunicación relevante en la historia de la humanidad. Estos pánicos morales apuntan a la persistencia de una comprensión simplista e ingenua de los efectos de los medios de comunicación tanto entre el público en general como entre actores de los medios de comunicación y la política. En esta visión simple, nos encontramos en una situación de indefensión, en especial cuando las tecnologías mediáticas nuevas y emergentes “nos hacen cosas” (cambian nuestra capacidad de poner atención, nos vuelven más irritables, nos encapsulan en filtros burbuja); por el contrario, la conclusión predominante de la investigación sobre los efectos de los medios de comunicación en las últimas décadas ha sido que la adopción de los nuevos medios es siempre un proceso negociado de construcción social, durante el cual estos medios se adaptan y cambian al menos en la misma medida en que las personas usuarias de dichos medios ajustan sus propias prácticas. El hecho de que este mensaje aún no llegue al público en general muestra el carácter seductor de las narrativas de pánico moral, pero también debe considerarse como un fracaso de la investigación en materia de medios y comunicación.
Además, estos pánicos morales suelen formar parte de la defensa de la retaguardia de las viejas élites, que son las que más pierden con cualquier cambio en el statu quo; por lo que cabe preguntarse cui bono: ¿quién se beneficia del meme del “filtro burbuja”? Los principales medios de comunicación, por ejemplo, lo han utilizado para sugerir que solo sus procedimientos ordenados y profesionales de vigilancia, y no los procesos colectivos y auto-organizados de vigilancia en redes sociales, tienen la capacidad de informar de manera adecuada a la ciudadanía. La clase política del sistema lo ha utilizado para aseverar que solo sus bien diseñadas estructuras de partido, y no los modelos populistas y/o de base de la oposición, pueden proporcionar un liderazgo fuerte y estable a sus países. En cualquier caso, la afirmación de que las audiencias y el electorado que se desvían de estos caminos trillados lo hacen porque están atrapados en filtros burbuja creados tecnológicamente y que ya no se puede tener acceso a ellos con argumentos razonados y sensatos tiene, además, la gran ventaja de que en ningún momento se exige a quienes desde la prensa o la clase política hacen ese tipo de afirmaciones que se enfrenten a sus propias deficiencias y que analicen otras posibles razones de la caída de su popularidad. En este contexto, es interesante señalar que la prevalencia relativa de la idea del filtro burbuja en los debates políticos de los distintos países puede ser indicativa también de la profundidad de las inquietudes más generales sobre sus procesos políticos y democráticos. No es casualidad que los conceptos de filtro burbuja y cámara de eco hayan surgido en Estados Unidos.
Estos pánicos morales nos distraen de asuntos más importantes; como ha dicho Sebastian Meineck, solo “cuando el cuento del filtro burbuja estalla [es] cuando se puede iniciar el debate sobre la transformación de la esfera pública” (2018, s/p). Este debate tendrá que analizar si las sociedades de todo el mundo, desde Australia hasta Brasil, desde Alemania hasta Estados Unidos, realmente se polarizan cada vez más o si dicha polarización simplemente se hace más visible; si esta polarización es explotada por una nueva generación de actores políticos que emplean enfoques radicales de base, que ofrecen soluciones muy populistas centradas en liderazgos fuertes, o si combinan ambos enfoques; y si estas transformaciones perturban, y a veces paralizan, de manera importante los sistemas políticos existentes y socavan los consensos sociales fundamentales. Pero también tendrá que reconocer que dichas transformaciones no solo se ven impulsadas por factores superficiales ⎯como las tecnologías y las plataformas de comunicación preferidas por estos nuevos actores políticos y su oposición, respectivamente⎯, sino que son una expresión de desafíos sociales, económicos y políticos mucho más importantes. Esto, por supuesto, no significa que las plataformas de búsqueda y de redes sociales estén libres de culpa; de hecho, en la actualidad, existe una necesidad acuciante de obligarlas (a través de medios reguladores o de otro tipo) a actuar con mayor diligencia para eliminar las cuentas extremistas, impedir la circulación de información errónea y abrirse al escrutinio académico independiente. Sin embargo, en lo que se refiere de forma específica a los filtros burbuja, estos parecen estar libres de culpa.
Uno de los pocos beneficios del concepto de “filtro burbuja” ⎯que Meineck, con cierta justificación, describe como “la metáfora más tonta de la internet” (2018, s/p)⎯ es que ha generado una considerable ola de investigaciones que muestran la diversidad de los usos que gran parte de la ciudadanía da a los medios de comunicación y, de hecho, señalan que la información noticiosa que consumen las personas usuarias de los medios de comunicación en línea y de redes sociales es particularmente variada (Fletcher y Nielsen, 2018; Anspach, 2017). Si la polarización social e ideológica persiste y se agrava en este entorno, entonces no puede ser causada por los filtros burbuja o las cámaras de eco, ni por la conformación algorítmica de las fuentes de información de las personas usuarias, que con tanta frecuencia han sido postuladas como la causa de tales fenómenos. Más bien, dicha polarización persiste a pesar de la ausencia de filtros burbuja y, quizás, incluso a causa de ella; la interconexión profunda y directa entre la sociedad y las sociedades que han permitido los medios de comunicación en línea y las redes sociales no ha hecho sino facilitar la observación y expresión de las diferencias entre los distintos grupos sociales, económicos, étnicos, religiosos e ideológicos.
De hecho, estudios recientes han demostrado que las personas usuarias partidistas e hiperpartidistas a menudo adoptan una actitud de lectura esencial y firmemente opuesta a sus intereses cuando consultan contenidos en los medios de comunicación convencionales; no consultan dichos medios para informarse, sino para incorporar esa nueva información a la imagen que ya tienen de sus adversarios ideológicos. Peor aún, los intentos realizados por las fuentes convencionales para confrontar y corregir las cosmovisiones altamente sesgadas de los márgenes partidistas ⎯por ejemplo, a través de iniciativas de comprobación de hechos⎯ sólo “confirman la propia postura crítica como observador externo” (Krämer, 2017, p. 1302; cf. Spohr, 2017, p. 151). En pocas palabras, cuando los teóricos de la conspiración escuchan de boca de quienes sospechan que han orquestado una conspiración que sus teorías conspirativas carecen de fundamento, esto solo confirma la existencia de dicha conspiración. Las comprobaciones de hechos aún pueden servir para evitar que personas usuarias de los medios tradicionales se desvíen hacia los márgenes, pero para quienes ya están al margen, solo sirven para aumentar su desconexión del debate público y racional.
CONCLUSIÓN
Si en realidad existe un filtro, no es el filtro algorítmico que postula el concepto de “filtro burbuja”, que nos impide ver contenidos “diferentes” que van en contra de nuestra propia visión del mundo. Más bien, existe un filtro de carácter más crítico (quizá más débil en la corriente social principal y más fuerte en los márgenes extremos) en nuestras cabezas, el cual nos lleva a adoptar posturas dominantes, negociadas y/o de oposición (cf. Hall, 1980) en relación con la información que encontramos en una multitud de fuentes en nuestro contacto cotidiano con un entorno mediático híbrido, multifacético y multiplataforma. La cuestión fundamental es entonces por qué y cómo los diferentes grupos sociales llegan a desarrollar lecturas personales tan divergentes a partir de la misma información y cómo se puede evitar o revertir este anquilosamiento de perspectivas tan diversas desde el punto de vista ideológico en identidades grupales partidistas. Ello con el fin de mitigar la amenaza real de polarización social en aspectos fundamentales e, incluso, la ruptura total del consenso social. Para las sociedades en las que las fronteras ideológicas responden a claras divisiones económicas, étnicas o religiosas, y en las que los sistemas bipartidistas bipolares impiden el surgimiento de alternativas de consenso centristas al statu quo polarizado, este desafío es especialmente grave.
Fenómenos tales como la homofilia (y la heterofilia) pueden observarse en espacios de comunicación contemporáneos, al igual que la conformación algorítmica y la personalización de las publicaciones noticiosas y los flujos informativos (así como los esfuerzos de las personas usuarias para controlar tal conformación). Los nuevos medios y tecnologías de comunicación siempre han pasado por procesos de adaptación individual y de construcción social; al no ser neutrales, las tecnologías y sus proveedores no son intrínsecamente buenos o malos, sino que pueden ser utilizadas por las personas usuarias para fines benéficos desde el punto de vista social, así como para fines disruptivos. Desde la academia, una de nuestras principales tareas es comprender lo que está detrás de estas elecciones individuales y colectivas. Los conceptos de “filtro burbuja” y “cámara de eco”, sin embargo, debido a sus fuertes elementos de determinismo tecnológico, tienen muy poco que aportar a la solución de estos desafíos tan trascendentes. De hecho, conforme aumenta la evidencia de su ausencia en la realidad observable, tal vez sea momento de dejar que se desvanezcan de forma gradual. Sin embargo, mientras la clase política, la prensa, los tecnólogos, entre otros actores continúen utilizando estos términos como si describieran fenómenos reales, y mientras exista la posibilidad de que se aprovechen de esta importante confusión en relación con las causas de los desafíos sociales de la actualidad en su desarrollo de iniciativas políticas, normativas, legislativas, tecnológicas, educativas y sociales que buscan abordarlas, seguirá siendo responsabilidad de la academia confrontar estos memes malintencionados. “El mito del filtro burbuja”, sobre todo, “es una cosa: un gran malentendido” (Meineck, 2018, s/p). Sin embargo, mientras ese malentendido continúe presente en el debate público, la academia deberá rebatirlo, al destacar los estudios que lo refutan y desarrollar más investigaciones que descubran las dinámicas reales detrás de la polarización.
REFERENCIAS
Anspach, N. M. (2017). The New Personal Influence: How Our Facebook Friends Influence the News We Read. Political Communication, 34, 590–606. doi:10.1080/10584609.2017.1316329
Batorski, D. y Grzywińska, I. (2018). Three Dimensions of the Public Sphere on Facebook. Information, Communication & Society, 21(3), 356–374. doi:10.1080/1369118X.2017.1281329
Baym, N. K. (2000). Tune In, Log On: Soaps, Fandom, and Online Community. Thousand Oaks, CA: Sage.
Bruns, A. (2019). Are Filter Bubbles Real? Cambridge: Polity.
Bruns, A. y Enli, G. (2018). The Norwegian Twittersphere: Structure and Dynamics. Nordicom Review, 39(1), 129–148. doi:10.2478/nor-2018-0006
Bruns, A., Moon, B., Münch, F. y Sadkowsky, T. (2017). The Australian Twittersphere in 2016: Mapping the Follower/Followee Network. Social Media + Society, 3(4), 1–15. doi:10.1177/2056305117748162
Chadwick, A., Dennis, J. y Smith, A. P. (2016). Politics in the Age of Hybrid Media: Power, Systems, and Media Logics. En A. Bruns, G. Enli, E. Skogerbø, A. O. Larsson y C. Christensen (eds.), The Routledge Companion to Social Media and Politics (pp. 7–22). Nueva York: Routledge. doi:10.4324/9781315716299-2
Chong, M. (2018). Analyzing Political Information Network of the U.S. Partisan Public on Twitter. En G. Chowdhury, J. McLeod, V. Gillet y P. Willett (eds.), iConference 2018: Transforming Digital Worlds (pp. 453–463). doi:10.1007/978-3-319-78105-1_50
Coleman, S. (2003). A Tale of Two Houses: The House of Commons, the Big Brother House and the People at Home. Parliamentary Affairs, 56(4), 733–758. doi:10.1093/pa/gsg113
Dubois, E. y Blank, G. (2018). The Echo Chamber Is Overstated: The Moderating Effect of Political Interest and Diverse Media. Information, Communication & Society, 21(5), 729–745. doi:1369118X.2018.1428656
Fletcher, R. y Nielsen, R. K. (2018). Are People Incidentally Exposed to News on Social Media? A Comparative Analysis. New Media & Society, 20(7), 2450–2468. doi:10.1177/1461444817724170
Gentzkow, M. y Shapiro, J. M. (2011). Ideological Segregation Online and Offline. The Quarterly Journal of Economics, 126(4), 1799–1839. doi:10.1093/qje/qjr044
Haim, M., Graefe, A. y Brosius, H.-B. (2018). Burst of the Filter Bubble? Effects of Personalization on the Diversity of Google News. Digital Journalism, 6(3), 330–343. doi:10.1080/21670811.2017.1338145
Hall, S. (1980). Encoding/Decoding. En S. Hall, D. Hobson, A. Lowe y P. Willis (eds.), Culture, Media, Language: Working Papers in Cultural Studies, 1972-79 (pp. 128-139). Londres: Unwin Hyman.
Helberger, N. (2019). On the Democratic Role of News Recommenders. Digital Journalism. doi:10.1080/21670811.2019.1623700
Krafft, T. D., Gamer, M. y Zweig, K. A. (2018). Wer sieht was? Personalisierung, Regionalisierung und die Frage nach der Filterblase in Googles Suchmaschine [¿Quién ve qué? Personalización, regionalización y el tema del filtro burbuja en el motor de búsqueda de Google] [informe]. Kaiserslautern: BLM; mabb; LPR Hessen; LMK; LMS; SLM; Algorithm Accountability Lab; AlgorithmWatch. Consultado en https://www.blm.de/files/pdf2/bericht-datenspende—wer-sieht-was-auf-google.pdf
Marwick, A. E. y boyd, danah. (2011). I Tweet Honestly, I Tweet Passionately: Twitter Users, Context Collapse, and the Imagined Audience. New Media & Society, 13(1), 114–133. doi:10.1177/1461444810365313
Meineck, S. (9 de marzo de 2018). Deshalb ist ‘Filterblase’ die blödeste Metapher des Internets [Por qué el “filtro burbuja” es la metáfora más tonta de la internet]. Motherboard. Consultado en https://motherboard.vice.com/de/article/pam5nz/deshalb-ist-filterblase-die-blodeste-metapher-des-internets
Nechushtai, E. y Lewis, S. C. (2019). What Kind of News Gatekeepers Do We Want Machines to Be? Filter Bubbles, Fragmentation, and the Normative Dimensions of Algorithmic Recommendations. Computers in Human Behavior, 90, 298–307. doi:10.1016/j.chb.2018.07.043
Negroponte, N. (1995). Being Digital. Nueva York: Vintage.
Newman, N., Fletcher, R., Levy, D. A. L. y Nielsen, R. K. (2016). Reuters Institute Digital News Report 2016. Consultado en el sitio web del Instituto Reuters para el Estudio del Periodismo de la Universidad de Oxford http://reutersinstitute.politics.ox.ac.uk/sites/default/files/Digital-News-Report-2016.pdf
Obama, B. (10 de enero de 2017). Discurso de despedida del Presidente Obama: texto y video completos. New York Times. Consultado en https://www.nytimes.com/2017/01/10/us/politics/obama-farewell-address-speech.html
O’Hara, K. y Stevens, D. (2015). Echo Chambers and Online Radicalism: Assessing the Internet’s Complicity in Violent Extremism. Policy & Internet, 7(4), 401–422. doi:10.1002/poi3.88
Pariser, E. (2017). El filtro burbuja : cómo la web decide lo que leemos y lo que pensamos. Barcelona Taurus.
Pariser, E. (2011b) Beware Online “Filter Bubbles“. TED, marzo 2011. Consultado en https://www.ted.com/talks/eli_pariser_beware_online_filter_bubbles
Pariser, E. (7 de mayo de 2015). Did Facebook’s Big Study Kill My Filter Bubble Thesis? Wired. Consultado en https://www.wired.com/2015/05/did-facebooks-big-study-kill-my-filter-bubble-thesis/
Rietzschel, A. (11 de julio 2017). Wie es in Facebooks Echokammern aussieht – von links bis rechts [Cómo se ven las cámaras de eco de Facebook, de izquierda a derecha]. Süddeutsche Zeitung. Consultado en https://www.sueddeutsche.de/politik/mein-facebook-dein-facebook-wie-es-in-den-echokammern-von-links-bis-rechts-aussieht-1.3576513
Schmidt, J.-H. (2014). Twitter and the Rise of Personal Publics. En K. Weller, A. Bruns, J. Burgess, M. Mahrt y C. Puschmann (eds.), Twitter and Society (pp. 3–14). Nueva York: Peter Lang.
Smith, N. y Graham, T. (2017). Mapping the Anti-Vaccination Movement on Facebook. Information, Communication & Society, 22(9), 1310–1327. doi:10.1080/1369118X.2017.1418406
Spohr, D. (2017). Fake News and Ideological Polarization: Filter Bubbles and Selective Exposure on Social Media. Business Information Review, 34(3), 150–160. doi:10.1177/0266382117722446
Sunstein, C. R. (2001). Echo Chambers: Bush v. Gore, Impeachment, and Beyond. Princeton: Princeton University Press.
Weinberger, D. (21 de febrero de 2004). Is There an Echo in Here? Salon. Consultado en https://www.salon.com/2004/02/21/echo_chamber/
Zuiderveen Borgesius, F. J., Trilling, D., Möller, J., Bodó, B., de Vreese, C. H. y Helberger, N. (2016). Should We Worry about Filter Bubbles? Internet Policy Review, 5(1). doi:10.14763/2016.1.401
AGRADECIMIENTOS/FINANCIAMIENTO
Esta investigación contó con el apoyo del proyecto del Australian Research Council Future Fellowship Understanding Intermedia Information Flows in the Australian Online Public Sphere, del proyecto Journalism beyond the Crisis: Emerging Forms, Practices and Uses, de Discovery y del proyecto TrISMA: Tracking Infrastructure for Social Media in Australia, de LIEF.
Agradezco a Sílvia Montaña-Niño por haber leído y comentado la traducción para mejor adecuación con el texto original.
Acerca del Autor
Axel Bruns: es Profesor en el Centro de Investigación de Medios Digitales de la Universidad Tecnológica de Queensland en Brisbane, Australia, e Investigador Principal en el Centro de Excelencia ARC para la Toma de Decisiones Automatizada y la Sociedad. Es autor de Are Filter Bubbles Real? (2019), Gatewatching and News Curation: Journalism, Social Media, and the Public Sphere (2018), editor de Digitizing Democracy (2019), Routledge Companion to Social Media and Politics (2016) y otros libros. Su trabajo actual se centra en el estudio de la participación de los usuarios en los espacios de redes sociales y sus implicaciones para nuestra comprensión de la esfera pública contemporánea, basándose especialmente en nuevos métodos innovadores para analizar “big social data”.