Nota sobre la traducción
Este artículo fue originalmente publicado en la sección Concepts of the Digital Society de la revista Internet Policy Review, editada por Christian Katzenbach y Thomas Christian Bächle. Es publicado en la Revista Latinoamericana de Economia y Sociedad Digital según los lineamientos de acceso abierto del artículo original, con licencia Creative Commons Attribution 3.0 Germany.
Título Original: Data Justice Fecha de publicación original: 14 de Enero de 2022 Link al artículo original: https://policyreview.info/articles/analysis/data-justice DOI original: https://doi.org/10.14763/2022.1.1615 Traducido del idioma inglés por The Pillow Books para la Revista Latinoamericana de Economía y Sociedad Digital en Mayo 2022. |
Resumen
La justicia de datos brinda un marco clave para analizar la intersección entre datificación y sociedad desde una perspectiva que muestre un compromiso por la justicia social. Esta perspectiva no es nueva en el análisis de los sistemas de información y comunicación, pero el concepto de justicia de datos busca denotar un cambio en la comprensión acerca de lo que está en juego en torno a los procesos de datificación, más allá de los derechos digitales. En este ensayo, buscaremos delinear las diferentes tradiciones y perspectivas a través de las cuales se expresa el concepto. Al hacerlo, nos enfrentaremos con tensiones que denotan una política de la justicia de datos, tanto en términos de aquello que está en juego en la datificación como de cuáles podrían ser las respuestas adecuadas.
Abstract
Data justice has emerged as a key framework for engaging with the intersection of datafication and society in a way that privileges an explicit concern with social justice. Engaging with justice concerns in the analysis of information and communication systems is not in itself new, but the concept of data justice has been used to denote a shift in understanding of what is at stake with datafication beyond digital rights. In this essay, we trace the lineage and outline some of the different traditions and approaches through which the concept is currently finding expression. We argue that in doing so, we are confronted with tensions that denote a politics of data justice both in terms of what is at stake with datafication and what might be suitable responses.
Resumo
A justiça de dados oferece uma estrutura chave para analisar a interseção entre datificação e sociedade a partir de uma perspectiva que mostra um compromisso com a justiça social. Essa perspectiva não é nova na análise de sistemas de informação e comunicação, mas o conceito de justiça de dados busca denotar uma mudança na compreensão do que está em jogo em torno dos processos de dataificação, para além dos direitos digitais. Neste ensaio, procuraremos delinear as diferentes tradições e perspectivas através das quais o conceito se expressa. Ao fazê-lo, seremos confrontados com tensões que denotam uma política de justiça de dados, tanto em termos do que está em jogo na datificação quanto de quais seriam as respostas apropriadas.
INTRODUCCIÓN
La creciente dependencia de las tecnologías basadas en datos en toda la esfera de la vida social ⎯lo que comúnmente se conoce como datificación⎯ se considera como un factor que impulsa transformaciones en las áreas de la ciencia, el gobierno, los negocios y la sociedad civil. Estas transformaciones suelen presentarse como una forma de mejorar la eficiencia y la toma de decisiones y, al mismo tiempo, como fenómenos que plantean desafíos sociales importantes. La justicia de datos ha emergido como un marco clave para considerar dichos desafíos de tal manera que la preocupación por la justicia social sea explicitada y priorizada. Priorizar las inquietudes en torno a la justicia social en el análisis de los sistemas de información y comunicación no es algo en sí mismo nuevo; sin embargo, el concepto de justicia de datos ha sido utilizado para allanar el camino hacia un cambio en nuestra comprensión de lo que está en juego con la datificación más allá de los derechos digitales. Concretamente, Dencik et al. (2019: 875) sostienen que el concepto de justicia de datos ha sido “utilizado para denotar un análisis de los datos que presta particular atención a la desigualdad estructural, destacando la disparidad en cuanto a las implicaciones y experiencias del uso de datos entre distintos grupos y comunidades de la sociedad”. En este breve ensayo revisamos cómo se ha manifestado este enfoque en distintas tradiciones y disciplinas, y apuntamos a una política de justicia de datos continua que ilustre la naturaleza irresuelta de este concepto. Sostenemos que la forma en que entendemos la “gramática” de la justicia (Fraser, 2008) contribuirá en gran medida a dar forma a lo que queremos decir con justicia de datos: qué está en juego en la datificación y cuáles podrían ser las respuestas adecuadas.
JUSTICIA DE DATOS EN CONTEXTO
El concepto de justicia de datos comprende un abanico de tradiciones de larga data que se han ocupado de las implicaciones que tienen los sistemas de información y comunicación en materia de justicia social, desde los debates sobre ética y derechos humanos hasta la orientación del activismo y los movimientos sociales. Si bien esas discusiones previas aportan ideas fundamentales, la justicia de datos ha surgido de forma predominante en el contexto dual del creciente interés por el llamado big data (y sus iteraciones más recientes, el aprendizaje automático y la inteligencia artificial) y las limitaciones que se perciben en la forma en que se han enmarcado y abordado tales desarrollos. En concreto, lo las filtraciones hechas por Snowden ⎯publicadas por primera vez en 2013⎯ provocaron que la relevancia social del “big data” adquiriera una dimensión más generalizada y pública (Lyon, 2015). Sin embargo, esta nueva relevancia se ha dirimido con frecuencia en términos de un simple binarismo entre la mejora de la eficiencia y la seguridad (del Estado), por un lado, y las preocupaciones en torno a la vigilancia y la privacidad, por el otro (Hintz, Dencik y Wahl-Jorgensen, 2018). Esto ha impulsado de forma notable la consideración de las implicaciones que tienen las tecnologías emergentes, como se manifiesta en la generalización de tecnologías para mejorar la privacidad y la encriptación, así como en un protagonismo significativo de los derechos digitales y las campañas contra la vigilancia en el ámbito público. Asimismo, ha privilegiado respuestas específicas que se esfuerzan por mostrar las implicaciones de la datificación en relación con agendas más amplias de la justicia social (Dencik, Hintz y Cable, 2016).
Como lo ha esbozado Andrejevic (2015), la naturaleza de los programas de vigilancia que se reveló en las filtraciones de Snowden está íntimamente ligada a un modelo económico y al interés de los Estados y las corporaciones por detectar y predecir patrones, por hacer profiling o evaluación por perfiles y categorizar a poblaciones, más que a individuos. Los sistemas de información centrados en datos tienen un papel decisivo como sistemas de control, no solo porque incrementan el potencial de monitoreo, sino en cuanto que son mecanismos de clasificación (Gandy, 1993). Los debates sobre la justicia de datos tienden a comprender el funcionamiento de estos mecanismos de clasificación y su relación con los contextos históricos, las estructuras sociales y las agendas dominantes, no solo como una cuestión de privacidad individual, sino como una cuestión de justicia.
Este enfoque es importante porque, si bien está claro que la forma en que le damos sentido al mundo social es fundamental también para la forma en que hacemos afirmaciones sobre él, los sistemas de infraestructuras para la comunicación e información han tendido a descuidarse en las teorías prevalentes sobre la justicia , a menudo en favor de un enfoque sobre las instituciones políticas y la ética moral que se remonta a Aristóteles hasta llegar a Rawls (Bruhn Jensen, 2021). Aun cuando tal enfoque sigue siendo importante para las ideas de justicia, la naturaleza de las instituciones y los parámetros de lo ético-moral están cada vez más entreverados con la naturaleza de nuestros sistemas de información y comunicación. Hablar de justicia de datos, pues, es reconocer no solo cómo los datos, su recolección y su uso, impactan cada vez más a la sociedad, sino también cómo se posibilita la datificación gracias a formas particulares de organización política y económica que promueven una visión normativa de cómo deben entenderse y resolverse los asuntos sociales. Es decir, los datos son tanto una cuestión de injusticia como de justicia; la datificación incorpora no sólo procesos y resultados de la (in)justicia, sino también sus propias justificaciones.
En este sentido, la justicia de datos ⎯en cuanto a concepto y enfoque⎯ toca de cerca el tipo de inquietudes que conforman los estudios críticos de datos, así como a otros campos de investigación relacionados, al examinar cuestiones relativas a los datos dentro de un contexto de dinámicas de poder, ideologías y prácticas sociales existentes, más que como desarrollos técnicos en las interacciones entre sistemas de información y personas usuarias (Boyd y Crawford, 2012; Van Dijck, 2014; Kitchin y Lauriault, 2014). La premisa es que los desarrollos de datos no pueden considerarse de forma separada de las inquietudes y los programas de justicia social, sino que necesitan integrarse como parte de estos últimos (Dencik, Hintz y Cable, 2016). No obstante, este enfoque puede tener distintas interpretaciones, como hemos visto con las cuestiones relativas a la justicia de datos, que son tratadas desde diversas perspectivas según las disciplinas y tradiciones involucradas. Si bien todas estas aproximaciones diferentes se unen en torno a la necesidad de colocar en primer plano la justicia en la comprensión de los datos, o de colocar en primer plano los datos en la comprensión de la justicia, como veremos, también sacan a flote de manera notable áreas de tensión en lo referente al significado de la justicia de datos. Como sostiene Fraser (2008), pese a las muchas teorías de la justicia que sirven de base a la arquitectura de las instituciones y las leyes para apuntalarla, rara vez compartimos una “gramática” común de la misma, como los tres “nodos” del qué (ontología), el quién (alcance) y el cómo (procedimiento) de la justicia. Esta condición de “justicia anormal”, sostiene Fraser, se hace evidente con desarrollos disruptivos como la globalización, que resaltan los conflictos en torno a aquello que queremos reclamar, cuándo reclamamos justicia, a quién le corresponden esos reclamos y los procesos a través de los cuales pueden realizarse.
Con frecuencia, la datificación se presenta como una forma de disrupción, pero casi nunca en el contexto de la justicia. Retomar la noción de justicia anormal de Fraser puede resultar fructífero para esclarecer esta relación (Cinnamon, 2017; Dencik, Jansen y Metcalfe, 2018). Por ejemplo, como ha argumentado Couldry (2019), la datificación determina de manera significativa lo que es considerado como conocimiento social, y los términos mismos a partir de los que razonamos sobre valores como la elección están automatizados y regulados por aquello que la especialista en cuestiones legales Karen Yeung (2017) describe como el “hypernudge” ⎯un “acicate” o nudge potenciado⎯. Al mismo tiempo, nuestra comprensión de los datos mismos no está definida con claridad, así que cuando queremos plantear reclamos de justicia no queda claro si se trata de su distribución como un bien o recurso, de las inferencias que se hacen a partir de ellos y de cómo las personas llegan a ser reconocidas, o de la naturaleza de su generación y de la forma en que se les atribuye significado. De manera parecida, la naturaleza de los flujos de datos ha dislocado cualquier relación clara entre los loci de la toma de decisiones y el sujeto de dicha toma de decisiones, así como cualquier política de delimitación de quién puede reclamar justicia de datos. Tal como sostiene Andrejevic (2014), la datificación trae consigo estratificaciones sociales particulares entre distintas clases de datos, al tiempo que difícilmente alguna noción de sujeto de datos individual pueda dar cuentade cómo los datos acerca de una persona se entrelazan con los efectos a nivel poblacional (Viljoen, 2020). Finalmente, los criterios o procedimientos mediante los cuales deberían resolverse las disputas sobre el “qué” y el “quién” de la justicia social aún son una fuente de tensión. En un nivel, Pasquale (2017) ha sostenido que nos desplazamos de la soberanía territorial a la “soberanía funcional”, en la cual las empresas tecnológicas asumen cada vez más las funciones de gobernanza y alteran los procedimientos que permiten exigir rendición de cuentas o cuestionar la forma en que se toman las decisiones. Al mismo tiempo, no queda claro qué instituciones deberían arbitrar en los reclamos de justicia sobre datos, si las vías tradicionales como los gobiernos o las cortes son aún adecuadas y qué papel desempeñan los métodos informáticos o de diseño en la defensa de los reclamos de justicia.
APROXIMACIONES A LA JUSTICIA DE DATOS
Debido a lo anterior, existen tensiones importantes en torno al qué, quién y cómo de la justicia de datos; tensiones que evidencian la necesidad de una política específica que aborde las implicaciones que la datificación tiene para la sociedad en un sentido amplio. Esto quizá no debería sorprendernos si consideramos la naturaleza inherentemente transdisciplinaria de la datificación y los muchos actores que conforman su desarrollo. Sin embargo, también muestra la manera en que distintos intereses y perspectivas se manifiestan no solo en el análisis de las implicaciones sociales, sino también en las respuestas a éstas.
Por ejemplo, a raíz de las filtraciones de Snowden y con un interés renovado en el big data, se acrecentaron varias preocupaciones sobre los derechos digitales dentro de los debates sobre la política y la gobernanza de datos, traduciéndose en nuevas regulaciones. De manera notable, en Europa se desarrolló un nuevo Reglamento General para la Protección de Datos (GDPR, por sus siglas en inglés), adoptado en 2018 bajo la premisa de que los individuos deberían poder reclamar algunos derechos en relación a la información recolectada sobre su persona, y que recolectar dicha información requeriría alguna forma de consentimiento. Aunque es muy amplio en su concepción de la protección de datos, quedan preguntas sobre el alcance de este reglamento y la posibilidad de aplicarlo. Tal vez en parte como respuesta, se ha dedicado mucha atención y muchos recursos a promover la “ética de datos” y su más reciente iteración, la “ética de IA”, como marcos alternativos y complementarios. Este campo ha involucrado una gama de corrientes de pensamiento y práctica diversas, algunas de las cuales continúan la tradición de larga data de la ética informática, al mismo tiempo que cambian el nivel de abstracción de las investigaciones éticas de uno centrado en la información a uno centrado en los datos (Floridi y Taddeo, 2016). Es decir, el enfoque se desplaza de la preocupación por el trato que se da a la información ⎯entendida como input y output, o entradas y salidas informáticas⎯ al interés por la manera en que las personas acceden, analizan y gestionan los datos en particular, sin considerar necesariamente una tecnología específica, sino aquello que la tecnología digital manipula.
La ética de datos coloca en primer plano los principales desafíos de la datificación, como la transparencia, el sesgo y la rendición de cuentas, pero también ha sido criticada por mantener dichos desafíos dentro de evaluaciones morales individualistas o como salvaguardas de procedimientos que apenas cuestionan las estructuras de poder existentes (D’Ignazio y Klein, 2019; Taylor y Dencik, 2020). No obstante, tradicionalmente aún existe una conexión cercana entre ética y justicia. Por ejemplo, en su tratamiento de la justicia de datos, Taylor (2017) propone un marco para determinar los caminos éticos que pueden apuntalar la gobernanza de datos en un mundo que se datifica. Este marco considera tres pilares centrales ⎯la (in)visibilidad; la (no) implicación con la tecnología; y la antidiscriminación⎯ que pueden constituir la base de la justicia de datos internacional. En conjunto, estos pilares aportan equidad a la forma en que se visibiliza, representa y trata a las personas como resultado de su producción de datos digitales. Es importante señalar que dichos pilares tienen en cuenta la novedad y complejidad de las formas en que los sistemas de datos pueden discriminar, disciplinar y controlar. Esta propuesta se basa en el trabajo sobre justicia de la información propuesto por Johnson (2016), en el que explica cómo los sistemas de datos tienen una función disciplinaria porque la manera en que estos datos se recolectan y estructuran constituye una forma de coerción normativa. La tarea, por lo tanto, es hacer de esta política de la tecnología de datos algo explícito, y considerar tanto el derecho a ser visto y representado, como el derecho a retirarse de una base de datos. En este sentido, el marco de Taylor para la justicia de datos da cuenta tanto del potencial positivo como del negativo de las nuevas tecnologías basadas en datos para facilitar la prosperidad humana (Taylor, 2017).
En fechas más recientes, hemos visto migrar algunos de los pilares destacados en el marco de Taylor para la justicia de datos hacia discusiones sobre gobernanza de datos que buscan ampliar el espectro de lo que conlleva dicha gobernanza. Por ejemplo, se ha prestado especial atención a la custodia de datos, como el establecimiento de “data trusts” o “fideicomisos de datos” que proporcionen un mecanismo legal para “empoderar” a los sujetos de datos a “tomar las riendas” de su información personal por medio de la introducción de un intermediario independiente entre sujetos y recolectores de datos (Delacroix y Lawrence, 2019). Una perspectiva distinta, pero relacionada, sobre el control de datos se ha expresado en términos de los “data commons” o “datos comunes”, que permiten a las personas compartir sus datos para propósitos específicos o en beneficio social (Grossman et al., 2016; Morozov, 2018; Nesta, 2021). La premisa es que los datos son un bien público y que la gente debería tener voz en cuanto a qué datos se recolectan, cómo se utilizan y quién se beneficia con ello. Viljoen (2020) ha articulado algunas de estas ideas dentro de un marco que ella describe como “gobernanza de datos democrática”, que desplaza el enfoque sobre el manejo y procesamiento de datos hacia las reformas institucionales necesarias para facilitar la participación democrática en la determinación de los efectos que tiene la datificación a nivel poblacional.
Estos debates sobre la gobernanza también han sido importantes para cambiar la percepción de las personas que se dedican a las ciencias de la computación y la ingeniería informática y del papel que desempeñan en la sociedad (Connolly, 2020). Sin embargo, no siempre queda claro, por ejemplo, cómo la proliferación de directrices para una IA y una automatización éticas y responsables se ha traducido realmente a la práctica, y cómo pueden abordarse las preocupaciones en relación con la justicia de datos. En una reseña de Jobin et al. (2019) los autores identifican la justicia como un principio en el avance de la tecnología basada en datos, un principio expresado de forma predominante en términos de ecuanimidad y de la deteccióny mitigación de los llamados “sesgos” algorítmicos, a menudo equiparados con la discriminación (Balayn y Gürses, 2021). La discriminación algorítmica se entiende sobre todo como el resultado de la existencia de patrones de discriminación en los datos de entrenamiento (considerando categorías demográficas como género, edad, etnicidad o discapacidad), pero algunas consideraciones más amplias de este tema también toman en cuenta los sesgos que se introducen por suposiciones o valores en las etiquetas o sesgos provocados por contextos particulares de uso (Hallensleben et al., 2020). Menos común es la referencia a la justicia en términos de diversidad y la posibilidad de comprender y cuestionar las decisiones algorítmicas, aunque existen algunos marcos que consideran tales principios en referencia a los derechos humanos (Fjeld et al., 2020).
La traducción de la justicia social en ecuanimidad entendida en términos informáticos ha allanado el camino para que distintos principios guíen el desarrollo de las tecnologías basadas en datos. En algunos aspectos, supone un avance respecto a la larga tradición de la “privacidad por diseño” en las ciencias informáticas hacia un compromiso con la “ecuanimidad por diseño”. Sin embargo, como han señalado Gürses et al. (2015), la naturaleza abstracta de la privacidad puede conducir a sistemas muy diferentes como resultado de la elección de uno o varios patrones de diseño de privacidad particular y tecnologías de mejora de la misma. En el caso de un concepto como el de ecuanimidad existen aún menos criterios compartidos sobre lo que ésta podría significar para los sistemas informáticos y sobre lo que los principios de referencia para la ecuanimidad son en realidad (Friedler et al., 2021). Además, conforme ha crecido la comunidad de especialistas en ciencias de la computación e ingeniería informática que se dedican a establecer dichos criterios de ecuanimidad, sobre todo a través de enfoques dirigidos a “des-sesgar” y a evitar la discriminación algorítmica, se han formulado preguntas importantes sobre los límites de esta interpretación de la justicia de datos y la legitimidad de las personas especialistas en tecnología para definir y arbitrar los reclamos de justicia (Gangadharan y Niklas, 2019).
La justicia en cuanto valor está condicionada por una serie de principios que van más allá del sesgo y que no pueden limitarse a los componentes técnicos de un sistema. Tal como se describe en el marco Algorithmic Ecology (Stop LAPD Spying Coalition and Free Radicals, 2020, s. p.), un “algoritmo está diseñado para operativizar las ideologías de las instituciones de poder a fin de producir un impacto comunitario intencional”. Como tal, un valor de justicia es pertinente no solo en las muchas capas de abstracción en las que opera un sistema, sino también en la manera en que se experimenta la justicia. En este sentido, el alcance universal de un sistema ⎯que a menudo se da por hecho en las definiciones informáticas de ecuanimidad asumiendo que el sistema tiene un ámbito a nivel poblacional ⎯ no sirve para dar cuenta de la forma en que los sistemas se suelen usar sobre grupos específicos. Además, es necesario incorporar los principios no solo al sistema, sino al proceso de diseño mismo y al papel que desempeñan y la relación que establecen las personas especialistas en tecnología con otros actores (Constanza-Chock, 2020). Estos análisis invitan, pues, a una visión más holística de la informática y de las metodologías de ingeniería de software como algo claramente sociotécnico (Connolly, 2020; Selbst et al., 2019).
Por lo tanto, se han hecho llamadas de atención a centrar las inquietudes en materia de justicia en la informática no tanto en la entrada y salida de datos, como en la conexión de los procesos de optimización con tareas del mundo real de forma más explícita (Hooker, 2021; Lipton, 2018). Si bien la tarea de optimización de un sistema puede ser más o menos explícita, la cuestión del desajuste entre tareas de optimización y medición del rendimiento, por un lado, y problemas del mundo real, por el otro, está cobrando fuerza dentro del campo. Esto apunta a las limitaciones que tienen los reclamos de ecuanimidad cuando no hay una comprensión del efecto de la recolección de datos, la visión del mundo de quienes diseñan y los valores intrínsecos (Friedler et al., 2021). Como ha sostenido McQuillan (2019), el proceso de optimización tiende a implementar estructuras y lógicas sociales y a asegurar que la “institución [esté] en el bucle” o “institution in the loop” en cualquier sistema. En un nivel técnico, dichas estructuras y lógicas pueden ser cuestionadas si se pasa de la optimización del proceso al bienestar de la comunidad (Musikanski et al., 2020) o si se contra-optimiza un sistema para proteger a las comunidades afectadas y que podrían verse perjudicadas por la lógica institucional de la optimización (Kulynych et al., 2020).
Estas estrategias de resistencia son importantes para saber cómo podríamos pensar la justicia de datos en términos de movilización política y social. Señalan la importancia de situar los desarrollos tecnológicos en contextos sociales, económicos, políticos y culturales, y de considerar el tema de los datos en relación con luchas históricas por la justicia en torno a cuestiones como la igualdad, la opresión y la dominación (Dencik, Jansen y Metcalfe, 2018). Es decir, la justicia de datos como elemento de movilización debe ser objeto de una crítica a nivel de sistema, donde los parámetros del debate no comiencen y terminen con la propia tecnología, sino más bien con la forma en que la datificación se integra en las negociaciones en curso de las relaciones sociales y las dinámicas de poder dentro de una sociedad. Bajo esta lectura, las asimetrías entre distintas clases de datos apuntan hacia el afianzamiento de estratificaciones sociales y hacia la creciente concentración del poder en manos privadas, que desplaza la toma de decisiones fuera del dominio público. Los problemas de “sesgo” o discriminación en las herramientas basadas en datos no son errores del sistema, sino más bien un rasgo estructural cuyo carácter procede de una histórica clasificación social de las poblaciones, basada en la estigmatización, la marginación y la exclusión. La operacionalizaciónde los sistemas de datos da fe de una racionalidad prevalente que ha dominado durante largo tiempo muchas partes del mundo, privilegiando el individualismo, las lógicas del mercado y el control burocrático (Gandy, 1993; Fourcade y Healy, 2017; Benjamin, 2019; Andrejevic, 2019).
Considerada desde la perspectiva de la movilización política y social, la justicia de datos se inspira en tradiciones críticas en los estudios de medios de comunicación que se han orientado hacia la “justicia mediática” y que han buscado de forma explícita situar la cuestión de los medios como un tema de justicia social. El objetivo no es necesariamente concentrarse en la reforma de los medios per se, sino reunir a especialistas y activistas de los medios de comunicación con especialistas y activistas de la justicia social, como una vía para identificar las sinergias entre los dos campos y promover un mejor entendimiento del papel que del primero en las luchas por la justicia social (Jansen, 2011). En particular, el marco de la justicia mediática ha buscado priorizar los conocimientos y las experiencias de comunidades históricamente marginadas, así como la larga tradición del activismo por la justicia social alrededor del mundo, con el fin de encauzar los debates sobre la reforma de los medios. En este sentido, una contribución clave del enfoque de la justicia mediática es llamar la atención sobre qué voces son escuchadas y qué cuestiones ocupan el primer plano en el esfuerzo por un cambio social y mediático. Este marco subraya la forma en que la naturaleza de los sistemas mediáticos se vincula de forma intrínseca a las luchas por la justicia social, demandando distintas representaciones en los medios así como alternativas de la propiedad y estructuras de gobernanza para afrontar las injusticias. Además, el marco de la justicia mediática hace un llamamiento para que diversos grupos y movimientos por los derechos a la comunicación y los derechos socioeconómicos se unan y encuentren un terreno común.
De manera similar, la movilización bajo un marco de justicia de datos comienza por reconocer que las repercusiones negativas de la datificación en la sociedad recaen de forma abrumadora sobre grupos en situación de marginación y de escasos recursos (Eubanks, 2018; Benjamin, 2019; Metcalfe y Dencik, 2020). Esto es importante ya que se aleja de la narrativa demasiado cómoda que surgió del énfasis en la recolección masiva de datos ⎯la cual cobró especial relevancia tras las filtraciones de Snowden⎯ y que sugiere que todos estamos igualmente implicados en una sociedad datificada. Más bien, los debates sobre la justicia de datos deben lidiar con la manera en que el desarrollo, el avance y el impacto de la datificación están supeditados a profundas desigualdades históricas, de carácter social y económico, tanto en el ámbito doméstico como en el global. Como punto de partida, esto cambia la perspectiva sobre qué voces deben estar en el centro de cualquier interpretación sobre lo que está en juego en la datificación y cuestiona la constitución actual de la mesa de toma de decisiones en cuanto a la manera en que la datificación puede y debe negociarse. Como enfoque, socava de forma explícita la afirmación de que la industria de la tecnología debería ser capaz de dictar el alcance de los problemas y las soluciones, ya no digamos de afirmar que una decisión sobre lo que constituye la “ecuanimidad” ha de limitarse a lo que se pueda determinar computacionalmente. Quizá de manera más polémica, también plantea la necesidad de llevar la movilización en torno a los datos más allá de los grupos de derechos digitales y de comunicación.
En cambio, Gangadharan y Niklas (2019) sostienen que es necesario “descentrar” la tecnología en los debates sobre la justicia de datos. Proponen situarla dentro de formas sistémicas de opresión en las que los daños surgidos de los sistemas basados en datos sean articulados por quienes se ven predominantemente afectados y tienen una historia de lucha contra tal opresión. Esto es, la preocupación por los datos debe ser parte de una agenda integrada de justicia social; una en la cual las definiciones de problemas y soluciones puedan no referirse en realidad a los datos. Como sostiene Hoffmann (2019), no podemos darnos el lujo de fracasar una y otra vez al momento de abordar las lógicas que producen sujetos favorecidos y desfavorecidos y las condiciones estructurales subyacentes con las cuales llegamos a comprender los daños y las injusticias de los datos. Al asumir este enfoque, se nos invita a centrar nuestra atención en la función que cumple la datificación ⎯como discurso y como práctica⎯ en distintos contextos, en la organización social y política que la posibilita y en quién se beneficia.
RELEVANCIA DE LA JUSTICIA DE DATOS
Es importante señalar, por ende, que la intersección entre datos y justicia abarca más que cuestiones tecnológicas y, en cambio, nos obliga a preguntar cómo debería estar organizada la sociedad y qué papel podría desempeñar la tecnología en ella. Esto también lo vemos en la manera en que las campañas y el activismo están dando forma a los debates sobre la justicia de datos. El Centro para la Justicia Mediática de Estados Unidos, por ejemplo, ha creado el Laboratorio de Justicia de Datos, dedicado a reflexionar sobre las formas para tender puentes entre el trabajo de investigación, los datos y la movilización en lo que concierne a temas como la vigilancia, las herramientas carcelarias, los derechos de internet y la censura. La Coalición por la Justicia Digital de Detroit ha trabajado con personas de la localidad para identificar los daños que surgen de la recolección de datos por parte de instituciones públicas, situándolos en el contexto de la criminalización y la vigilancia en curso en comunidades de bajos ingresos, personas de color y otros grupos afectados. En algunos casos, estas actividades han puesto en primer plano una política de rechazo (Gangadharan, 2019) que promueve una agenda abolicionista tal como la articulan grupos como la StopLAPD Spying Coalition [Coalición para detener el espionaje del Departamento de Policía de Los Ángeles] y la iniciativa Data for Black Lives [Datos para las Vidas Negras]. Aquí, el interés no radica en hacer más eficientes las tecnologías, sino más bien en reconocer cómo la tecnología tiene significado e impacto en relación con las desigualdades manifiestas en la explotación capitalista y en una historia de violencia de Estado. El llamamiento es a dejar de invertir recursos en sistemas de datos opresivos y a “abolir el big data” que se utiliza para medir y crear perfiles de las personas, y en cambio reinvertir en las comunidades (Benjamin 2019; Crooks, 2019).
En Europa, mientras tanto, hemos visto una creciente movilización en torno a los derechos sociales y económicos en el contexto de la datificación, algo que ha sido particularmente evidente en el uso de litigios estratégicos que se ha dado entre organizaciones no gubernamentales contra los sistemas y las plataformas algorítmicas. En el área de la asistencia social, por ejemplo, las coaliciones entre grupos por el derecho a la asistencia y grupos de derechos digitales han desafiado con éxito el uso de algunos sistemas algorítmicos, como SyRI en los Países Bajos y un algoritmo del Departamento de Trabajo y Pensiones que tenía como objetivo a personas discapacitadas en el Reino Unido (Toh, 2020; Savage, 2021). De manera similar, en el contexto del movimiento obrero se considera cada vez más la intersección de datos y derechos de las personas trabajadoras, que va más allá de la cuestión de la pérdida potencial de empleos de cara a la automatización y considera también la calidad del trabajo y la posición de la mano de obra en relación con el capital en sociedades datificadas (De Stefano, 2018; Moore et al., 2017). Esto incluye, por ejemplo, el establecimiento de los derechos de datos de las personas trabajadoras, tal como lo ha sugerido UNI Global Union, o el “derecho a desconectarse” como tema de importantes campañas sindicales en toda Europa. A decir verdad, las llamadas al “sindicalismo de justicia de datos” que buscarían vincular de forma explícita los derechos digitales con los derechos socioeconómicos y construir coaliciones de movimientos sociales podrían brindar un cauce a través del cual el movimiento obrero desempeñe un papel en la vinculación de las transformaciones relativas a la datificación en el trabajo con cuestiones sociales más amplias (Dencik, 2021).
En el contexto del ambientalismo, la Iniciativa de Datos y Gobernanza Ambiental (EDGI, por sus siglas en inglés) preservó información científica vulnerable tras la elección de Trump en Estados Unidos en 2016 y, en el proceso, desarrolló un marco de “justicia de datos ambiental” que considera la política, la generación, la propiedad y los usos de los datos ambientales (Vera et al., 2019). Preocupaciones similares caracterizan el énfasis cada vez mayor en la “soberanía” en relación con los datos ⎯sobre todo entre comunidades indígenas⎯ que se hace evidente en la agenda propuesta por el creciente movimiento por la Soberanía de Datos Indígenas. Este movimiento está conformado por una red de alianzas y grupos de todo el mundo que afirma que los pueblos indígenas deben ser quienes tomen las decisiones en cuanto a cómo se recolectan y se usan los datos sobre ellos. Esta orientación se basa en luchas de larga data contra la extracción y explotación continuas de los pueblos indígenas, de sus sistemas de conocimiento, sus costumbres y territorios (Kukutai y Taylor, 2016).
Estas acciones y luchas diversas se unen en torno a la necesidad de encarar las condiciones que conducen a experiencias de injusticia tal como se dan en la práctica, más que de volcar esfuerzos para apelar a composiciones ideales de datos y tecnología en la sociedad contemporánea. Además, la movilización en este sentido se nutre de la solidaridad, cuyo objetivo no es simplemente la creación de instituciones justas que promulguen la justicia “desde arriba”, sino la manifestación de la justicia dentro y a través de las relaciones sociales tal como existen en la actualidad (Cohen, 2008). Empeñarse en la posibilidad de la solidaridad para determinar cómo debería estar organizada la sociedad y cuál debería ser el papel de la tecnología dentro de ella nunca ha sido más relevante (Fenton et al., 2020). Como argumenta Gandy (2020), esta movilización política es precisamente lo que se necesita, pero también lo que está bajo amenaza directa con el avance de la datificación. Conforme los comportamientos y las actividades se abstraen y se reducen para propósitos de optimización, la experiencia compartida de las personas, y con ello su capacidad política, se ven socavadas mientras algunos grupos definidos a partir de algoritmos terminan por dictar la base del posicionamiento social. Un llamamiento a la justicia de datos es, por ende, también un llamamiento a la relevancia continua de las relaciones sociales a través de las cuales las personas se pueden identificar entre sí y a través de las cuales se puede constituir la movilización para las luchas.
CONCLUSIÓN
El concepto de justicia de datos se nutre de muchas tradiciones de larga data, pero su desarrollo y su uso son relativamente incipientes. Si bien es resultado de problemas apremiantes derivados de la evolución contemporánea de las tecnologías digitales, ha encontrado expresiones en muchos y muy diversos ámbitos y campos. Estas expresiones no siempre están alineadas y dan cuenta de las distintas interpretaciones de la ontología de la justicia de datos, a quién se aplica y cómo debería apuntalarse. Esto es, son expresiones no solo de la lucha en torno a las construcciones ideales de justicia, sino en torno a la gramática misma de ésta, que la datificación trastoca. Lo anterior es importante en cuanto que nos alerta sobre una política de la justicia de datos que se desarrolla en la actualidad en diversas disciplinas y prácticas. En este sentido, podríamos decir que el significado de la justicia de datos todavía está en disputa y, tal como sucede con la justicia en general, continuará siendo interpretada y moldeada por distintos intereses y perspectivas. No obstante, en su formación actual tiene relevancia porque cambia nuestra comprensión sobre lo que está en juego con la datificación y sobre cuáles podrían ser las posibles respuestas. En particular, nos alerta sobre la necesidad de considerar las cuestiones de los datos no como temas técnicos aislados y abstractos, sino como una parte necesaria de la manera en que podríamos pensar sobre la justicia social. Ahora que la datificación continúa avanzando en sus distintas iteraciones y bajo distintos modos de crisis, esta necesidad nunca ha sido más relevante.
REFERENCIAS
Andrejevic, M. (2014). The Big Data Divide. International Journal of Communication, 8, 1673–1689.
Andrejevic, M. (2015). Keynote plenary at the conference ‘Surveillance and Citizenship’: Digital Citizenship and the Surveillance Society [ponencia].
Andrejevic, M. (2019). Automated media. Routledge, Taylor & Francis Group.
Balayn, A. y Gürses, S. (2021). Beyond Debiasing: Regulating AI and its inequalities [Report]. EDRI. https://edri.org/wp-content/uploads/2021/09/EDRi_Beyond-Debiasing-Report_Online.pdf
Benjamin, R. (2019). Race after technology: Abolitionist tools for the new Jim code. Polity.
boyd, d. y Crawford, K. (2012). Critical questions for big data: Provocations for a cultural, technological, and scholarly phenomenon. Information, Communication & Society, 15(5), 662–679. https://doi.org/10.1080/1369118X.2012.678878
Cinnamon, J. (2017). Social Injustice in Surveillance Capitalism. Surveillance & Society, 15(5), 609–625. https://doi.org/10.24908/ss.v15i5.6433
Cohen, G. A. (2008). Rescuing justice and equality. Harvard University Press.
Connolly, R. (2020). Why computing belongs within the social sciences. Communications of the ACM, 63(8), 54–59. https://doi.org/10.1145/3383444
Costanza-Chock, S. (2020). Design justice: Community-led practices to build the worlds we need. The MIT Press.
Couldry, N. (2018, May 24). Keynote at Applying the Capabilities Approach to Media and Communications. Preconvención de ICA 2018, Praga. https://cdn.ymaws.com/www.icahdq.org/resource/…/pc_capabilities.pdf
Crooks, R. (22 de marzo de 2019). What we mean when we say #AbolishBigData2019 [publicación en Medium]. Roderic Crooks. https://medium.com/@rncrooks/what-we-mean-when-we-say-abolishbigdata2019-d030799ab22e
De Stefano, V. (2018). Negotiating the algorithm”: Automation, artificial intelligence and labour protection. Employment, Working Paper, 246.
Delacroix, S. y Lawrence, N. D. (2019). Bottom-up data Trusts: Disturbing the ‘one size fits all’ approach to data governance. International Data Privacy Law, ipz014. https://doi.org/10.1093/idpl/ipz014
Dencik, L. (2018). Surveillance Realism and the Politics of Imagination: Is There No Alternative? Krisis: Journal for Contemporary Philosophy, 1, 31–43.
Dencik, L. (2021). Towards Data Justice Unionism? A Labour Perspective on AI Governance. En P. Verdegem (ed.), AI for Everyone? Critical Perspectives (pp. 267–284). University of Westminster Press. https://doi.org/10.16997/book55.o
Dencik, L., Hintz, A. y Cable, J. (2016). Towards data justice? The ambiguity of anti-surveillance resistance in political activism. Big Data & Society, 3(2), 205395171667967. https://doi.org/10.1177/2053951716679678
Dencik, L., Hintz, A., Redden, J. y Treré, E. (2019). Exploring Data Justice: Conceptions, Applications and Directions. Information, Communication & Society, 22(7), 873–881. https://doi.org/10.1080/1369118X.2019.1606268
Dencik, L., Jansen, F. y Metcalfe, P. (2018). A conceptual framework for approaching social justice in an age of datafication. https://datajusticeproject.net/2018/08/30/a-conceptual-framework-for-approaching-social-justice-in-an-age-of-datafication/
D’Ignazio, C. y Klein, L. F. (2020). Data feminism. MIT Press.
Eubanks, V. (2017). Automating inequality: How high-tech tools profile, police, and punish the poor (1a ed,). St. Martin’s Press.
Fenton, N., Freedman, D., Schlosberg, J. y Dencik, L. (2020). The media manifesto. Polity.
Fjeld, J., Achten, N., Hilligoss, H., Nagy, A. y Srikumar, M. (2020). Principled Artificial Intelligence: Mapping Consensus in Ethical and Rights-Based Approaches to Principles for AI. SSRN Electronic Journal. https://doi.org/10.2139/ssrn.3518482
Floridi, L. y Taddeo, M. (2016). What is data ethics? Philosophical Transactions of the Royal Society, 374(2083). https://doi.org/10.1098/rsta.2016.0360
Fourcade, M. y Healy, K. (2016). Seeing like a market. Socio-Economic Review, mww033. https://doi.org/10.1093/ser/mww033
Fraser, N. (2008). Abnormal Justice. Critical Inquiry, 34(3), 393–422.
Friedler, S. A., Scheidegger, C. y Venkatasubramanian, S. (2021). The (Im)possibility of fairness: Different value systems require different mechanisms for fair decision making. Communications of the ACM, 64(4), 136–143. https://doi.org/10.1145/3433949
Gandy Jr., O. H. (2021). The Panoptic Sort: A Political Economy of Personal Information (2a ed.). Oxford University Press. https://doi.org/10.1093/oso/9780197579411.001.0001
Gandy, O. (2020). A Panoptic Sort: A Political Economy of Personal Information (2nd ed.). Oxford University Press.
Gangadharan, S. P. (2019). What Do Just Data Governance Strategies Need in the 21st Century? [discurso de apertura]. Data Power, Bremen, Alemania. https://www.youtube.com/watch?v=Qjhdfr6Di3k
Gangadharan, S. P. y Niklas, J. (2019). Decentering technology in discourse on discrimination. Information, Communication & Society, 22(7), 882–899. https://doi.org/10.1080/1369118X.2019.1593484
Grossman, R. L., Heath, A., Murphy, M., Patterson, M. y Wells, W. (2016). A Case for Data Commons: Towards Data Science as a Service. ArXiv:1604.02608 [Cs]. http://arxiv.org/abs/1604.02608
Gürses, S., Troncoso, C. y Diaz, C. (2015). Engineering Privacy by Design Reloaded. Amsterdam Privacy Conference, 21. http://carmelatroncoso.com/papers/Gurses-APC15.pdf
Hallensleben, S., Hustedt, C., Fetic, L., Fleischer, T., Grünke, P., Hagendorff, T., Hauer, M., Hauschke, A., Heesen, J., Herrmann, M., Hillerbrand, R., Hubig, C., Kaminski, A., Krafft, T., Loh, W., Otto, P. y Puntschuh, M. (2020). From Principles to Practice: An interdisciplinary framework to operationalise AI ethics [informe]. AIEI Group. https://www.bertelsmann-stiftung.de/fileadmin/files/BSt/Publikationen/GrauePublikationen/WKIO_2020_final.pdf
Hintz, A., Dencik, L. y Wahl-Jorgensen, K. (2019). Digital citizenship in a datafied society. Polity Press.
Hoffmann, A. L. (2019). Where fairness fails: Data, algorithms, and the limits of antidiscrimination discourse. Information, Communication & Society, 22(7), 900–915. https://doi.org/10.1080/1369118X.2019.1573912
Hooker, S. (2021). Moving beyond “algorithmic bias is a data problem.” Patterns, 2(4), 100241. https://doi.org/10.1016/j.patter.2021.100241
Jansen, S. C., Pooley, J. y Taub-Pervizpour, L. (eds.). (2011). Media and social justice (1st ed). Palgrave Macmillan.
Jensen, K. B. (2021). A theory of communication and justice. Routledge.
Jobin, A., Ienca, M. y Vayena, E. (2019). The global landscape of AI ethics guidelines. Nature Machine Intelligence, 1(9), 389–399. https://doi.org/10.1038/s42256-019-0088-2
Johnson, J. (2016). The question of information justice. Communications of the ACM, 59(3), 27–29. https://doi.org/10.1145/2879878
Kukutai, T. y Taylor, J. (eds.). (2016). Indigenous Data Sovereignty: Toward an Agenda (Vol. 38). ANU Press. https://www.jstor.org/stable/j.ctt1q1crgf
Kulynych, B., Overdorf, R., Troncoso, C. y Gürses, S. (2020). POTs: Protective optimization technologies. Proceedings of the 2020 Conference on Fairness, Accountability, and Transparency, 177–188. https://doi.org/10.1145/3351095.3372853
Lange, S. y Santarius, T. (2020). Smart green world? Making digitalization work for sustainability. Routledge, Taylor & Francis Group.
Lipton, Z. C. (2018). The Mythos of Model Interpretability. ACM Queue, 16(3). https://queue.acm.org/detail.cfm?id=3241340
Lyon, D. (2015). Surveillance after Snowden. Polity Press.
McQuillan, D. (7 de junio de 2019). AI Realism and structural alternatives. Danmcquillan.Io. http://danmcquillan.io/ai_realism.html
Metcalfe, P. y Dencik, L. (2019). The politics of big borders: Data (in)justice and the governance of refugees. First Monday, 24(4). https://firstmonday.org/ojs/index.php/fm/article/view/9934/7749
Moore, P. V., Upchurch, M. y Whittaker, X. (eds.). (2018). Humans and Machines at Work: Monitoring, Surveillance and Automation in Contemporary Capitalism. Springer International Publishing. https://doi.org/10.1007/978-3-319-58232-0
Morozov, E. (31 de marzo de 2018). After the Facebook scandal it’s time to base the digital economy on public v private ownership of data’. The Guardian. https://www.theguardian.com/technology/2018/mar/31/big-data-lie-exposed-simply-blaming-facebook-wont-fix-reclaim-private-information
Musikanski, L., Rakova, B., Bradbury, J., Phillips, R. y Manson, M. (2020). Artificial Intelligence and Community Well-being: A Proposal for an Emerging Area of Research. International Journal of Community Well-Being, 3(1), 39–55. https://doi.org/10.1007/s42413-019-00054-6
Nesta. (2021). Unlocking the value of data as a commons. Nesta. https://www.nesta.org.uk/feature/four-future-scenarios-personal-data-economy-2035/unlocking-the-value-in-data-as-a-commons/
Pasquale, F. (6 de diciembre de 2017). From Territorial to Functional Sovereignty: The Case of Amazon. Law and Political Economy. https://lpeproject.org/blog/from-territorial-to-functional-sovereignty-the-case-of-amazon/
Savage, M. (21 de noviembre de 2021). DWP urged to reveal algorithm that ‘targets’ disabled for benefit fraud. The Guardian. https://www.theguardian.com/society/2021/nov/21/dwp-urged-to-reveal-algorithm-that-targets-disabled-for-benefit
Selbst, A. D., boyd, d., Friedler, S. A., Venkatasubramanian, S. y Vertesi, J. (2019). Fairness and Abstraction in Sociotechnical Systems. Proceedings of the Conference on Fairness, Accountability, and Transparency, 59–68. https://doi.org/10.1145/3287560.3287598
Stop L.A.P.D.Spying Coalition y Free Radicals. (2 de marzo de 2020). Algorithmic Ecology: An Abolitionist Tool for Organizing Against Algorithms. Free Radicals. https://freerads.org/2020/03/02/the-algorithmic-ecology-an-abolitionist-tool-for-organizing-against-algorithms/
Taylor, L. (2017). What is data justice? The case for connecting digital rights and freedoms globally. Big Data & Society, 4(2), 205395171773633. https://doi.org/10.1177/2053951717736335
Taylor, L. y Dencik, L. (2020). Constructing commercial data ethics. Regulation & Technology, 1–10. https://doi.org/10.26116/techreg.2020.001
Toh, A. (6 de febrero de 2020). Dutch Ruling a Victory for Rights of the Poor. Human Rights Watch. https://www.hrw.org/news/2020/02/06/dutch-ruling-victory-rights-poor
Van Dijck, J. (2014). Datafication, dataism and dataveillance: Big Data between scientific paradigm and ideology. Surveillance & Society, 12(2), 197–208. https://doi.org/10.24908/ss.v12i2.4776
Vera, L. A., Walker, D., Murphy, M., Mansfield, B., Siad, L. M., Ogden, J., y EDGI. (2019). When data justice and environmental justice meet: Formulating a response to extractive logic through environmental data justice. Information, Communication & Society, 22(7), 1012–1028. https://doi.org/10.1080/1369118X.2019.1596293
Viljoen, S. (2020). Democratic Data: A Relational Theory For Data Governance. SSRN Electronic Journal. https://doi.org/10.2139/ssrn.3727562
Yeung, K. (2017). ‘Hypernudge’: Big Data as a mode of regulation by design. Information, Communication & Society, 20(1), 118–136. https://doi.org/10.1080/1369118X.2016.1186713
ACERCA DE LOS AUTORES
Lina Dencik: es profesora en la Escuela de Periodismo, Medios y Cultura de Cardiff y cofundadora/directora del Data Justice Lab. Ha publicado extensamente en las áreas de medios digitales y política de datos y es autora de varios libros, el más reciente Digital Citizenship in a Datafied Society (con Arne Hintz y Karin Wahl-Jorgensen, Polity Press 2018) y The Media Manifesto ( con Natalie Fenton, Des Freedman y Justin Schlosberg, Polity Press 2020). Lina es investigadora principal del proyecto DATAJUSTICE financiado por ERC.
Javier Sánchez Monedero: es Investigador Distinguido (beca Beatriz Galindo) del grupo de investigación AYRNA en el Departamento de Ciencias de la Computación de la Universidad de Córdoba e investigador afiliado del Data Justice Lab de la Universidad de Cardiff. Se le puede contactar en jsanchezm@uco.es.