Acceso a la información pública y uso de IA en el sector público: Barreras, estrategias y desafíos

Revista Latinoamericana de Economía y Sociedad Digital

Issue 5

Autores: Juan Manuel GarcíaORCID logo

DOI: https://doi.org/10.53857/RLESD.05.2025.14

Publicado: 1 agosto, 2025Recibido: 30 agosto, 2024

Cita sugerida: García, J. M. (2025). Acceso a la información pública y uso de IA en el Sector Público: barreras, estrategias y desafíos. Revista Latinoamericana de Economía y Sociedad, 5, 130-147.

Licencia: Creative Commons Atribución-NoComercial 4.0 Internacional (CC BY-NC 4.0)

Tipo de artículo:

https://doi.org/10.53857/RLESD.05.2025.14

Resumen

Este texto analiza cómo el uso de sistemas de inteligencia artificial (IA) por parte del sector público en América Latina afecta el ejercicio del derecho humano de acceso a la información. A partir de una revisión normativa, así como de estudios de caso, se identifican barreras como la falta de respuesta a solicitudes, la opacidad institucional, la divulgación excesiva de datos personales y la ausencia de información actualizada. También se examinan estrategias alternativas desplegadas por la sociedad civil para sortear estas barreras, incluyendo el análisis de contrataciones públicas, auditorías, cooperación internacional y litigios. El análisis contribuye a identificar barreras estructurales y sistematizar estrategias para sortearlas, ofreciendo elementos concretos para repensar la transparencia y el control democrático en el despliegue estatal de tecnologías algorítmicas.

Abstract

This text analyzes how the use of artificial intelligence (AI) systems by the public sector in Latin America affects the exercise of the human right of access to information. Based on a regulatory review, as well as case studies, it identifies barriers such as the lack of response to requests, institutional opacity, excessive disclosure of personal data and the absence of updated information. It also examines alternative strategies deployed by civil society to overcome these barriers, including analysis of public procurement, audits, international cooperation and litigation. The analysis helps to identify structural barriers and systematize strategies to overcome them, offering concrete elements for rethinking transparency and democratic control in the state deployment of algorithmic technologies.

Resumo

Este texto analisa como o uso de sistemas de inteligência artificial (IA) pelo setor público na América Latina afeta o exercício do direito humano de acesso à informação. Com base em uma revisão normativa, bem como em estudos de caso, identifica barreiras como a falta de resposta às solicitações, a opacidade institucional, a divulgação excessiva de dados pessoais e a ausência de informações atualizadas. Também examina estratégias alternativas utilizadas pela sociedade civil para superar essas barreiras, incluindo análise de contratos públicos, auditorias, cooperação internacional e litígio. A análise ajuda a identificar barreiras estruturais e a sistematizar estratégias para superá-las, oferecendo elementos concretos para repensar a transparência e o controle democrático na implantação de tecnologias algorítmicas pelo Estado.

Introducción

En los últimos años, el uso de inteligencia artificial (IA) por parte de gobiernos en América Latina ha crecido de forma sostenida. Si bien estas tecnologías abren nuevas oportunidades de eficiencia y automatización, también generan tensiones con principios básicos del Estado de derecho. Aunque el derecho de acceso a la información está reconocido tanto en tratados internacionales como en legislaciones nacionales, su aplicación frente a sistemas automatizados de toma de decisiones revela limitaciones normativas, institucionales y prácticas. En este contexto, se vuelve crucial examinar hasta qué punto los marcos vigentes permiten a la ciudadanía acceder efectivamente a información sobre cómo operan estos sistemas y qué impactos tienen sobre otros derechos fundamentales.

Este ensayo tiene por objetivo analizar las barreras existentes para el ejercicio del derecho de acceso a la información en relación con el uso de IA por parte del Estado en América Latina. A partir de un enfoque descriptivo con base en estudios de caso, se examina cómo estas barreras se manifiestan en la práctica, y qué estrategias han utilizado investigadores y organizaciones de la sociedad civil para sortearlas. Este trabajo no pretende analizar en detalle la efectividad jurídica de cada norma, sino examinar el desajuste entre los principios formales de transparencia y los desafíos concretos que surgen al implementar tecnologías algorítmicas en la gestión pública.

El texto se organiza en cinco partes: primero, se presentan los marcos normativos y éticos vinculados al acceso a la información; luego, se describen barreras concretas observadas en diversos casos; a continuación, se analizan estrategias alternativas empleadas para sortear estas barreras; finalmente, se plantean reflexiones sobre los límites de las herramientas disponibles y la necesidad de reforzar la transparencia activa y los mecanismos de control ciudadano.

Acceso a la Información en tanto derecho humano, normativa y principio ético

El derecho de acceso a la información forma parte del sistema interamericano de derechos humanos. Fue reconocido por la Corte Interamericana de Derechos Humanos como parte del artículo 13 de la Convención Americana sobre Derechos Humanos (Pacto de San José de Costa Rica), el cual establece que toda persona tiene derecho a acceder a la información sin necesidad de acreditar un interés directo, salvo en casos de legítima restricción. Este derecho abarca la información bajo custodia del Estado, aquella que el Estado produce o está obligado a producir, así como la que está en poder de quienes administran servicios y fondos públicos.

Para garantizar este derecho, los Estados tienen múltiples obligaciones. Entre ellas se encuentran la adecuación de la legislación nacional, la respuesta oportuna y completa a las solicitudes de información, la provisión de recursos legales para revisar las denegaciones, y la promoción de una cultura de transparencia. Además, deben producir o recopilar la información necesaria para cumplir con sus deberes de manera efectiva. El principio de máxima divulgación, por su parte, establece que toda la información en poder del Estado se presume pública y accesible, salvo en los casos en que existan excepciones justificadas. Estas restricciones deben estar previstas por ley, perseguir un objetivo legítimo y ser necesarias y proporcionales para garantizar su legalidad y pertinencia.

En la actualidad, los sistemas de inteligencia artificial son utilizados como instrumento de política pública, en el marco de, por ejemplo, políticas de intermediación laboral, videovigilancia, prevención del abandono escolar, asignación de beneficios sociales. De esta manera, con mayor o menor autonomía para la toma de decisiones, estos sistemas pueden tener particular influencia a la hora que las personas puedan disponer de servicios estatales que les permitan acceso al trabajo, a un debido proceso o a beneficios sociales. Esta influencia puede darse, como es en el caso del Auxilio de Emergencia en Brasil, durante la pandemia, a partir de la asignación de un puntaje otorgado por un sistema automatizado para mostrar qué tan elegible es la persona para obtener dicho beneficio. En este proceso influyen los datos de entrenamiento del modelo, el modelo mismo, y los datos de procesamiento, que de estar desactualizados o ser incorrectos, pueden generar falsos negativos. Es decir, personas cuyo puntaje no las haría elegibles para recibir un beneficio social no por no ser elegibles efectivamente, sino por un error en los datos. Esto no es una conjetura, sino un ejemplo de la realidad, donde se negó el beneficio a cientos de personas, lo que llevó a una alta judicialización de esta política, en un contexto tan extremo como el de la Pandemia de Covid-19 (Tavares et al., 2022, p. 37). 

Dada la influencia de estos procesos automatizados en la toma de decisiones y, de esta manera, su potencial impacto en los derechos de las personas, es necesario plantear la necesidad de garantizar el acceso a la información sobre actos del aparato público que se ejercen a través de estas tecnologías y que permita conocer, justamente, algunos de los elementos mencionados: qué características tiene el algoritmo, qué datos utiliza, cuáles son los procesos de toma de decisión, entre otros. Esto lleva a preguntarnos no sólo por la divulgación de decisiones de política pública, procesos de licitación o compras directas, sino que se extiende al objeto de transparencia específico que plantea la implementación de estos sistemas. Por ejemplo: ¿Qué información debe revelarse para garantizar un control adecuado por parte de la ciudadanía? ¿Es necesaria la divulgación del código fuente, incluso cuando esto podría entrar en conflicto con secretos industriales? Estas preguntas subrayan la complejidad de aplicar principios tradicionales de transparencia en contextos tecnológicos avanzados.

Finalmente, la transparencia en el uso de IA no solo requiere que la información sea accesible, sino también comprensible. Esto fue especialmente reforzado por marcos éticos como el de la UNESCO, sobre el que desarrollaremos más adelante, que define explicabilidad como los procesos para “hacer inteligibles los resultados de los sistemas de IA y facilitar información sobre ellos” (UNESCO, 2021). Este aspecto merece atención especial, ya que una ciudadanía informada solo puede ejercer sus derechos cuando la información proporcionada es clara y contextualizada. 

a. Legislación Nacional

Muchos estados en la región han cumplido con el mandato de adecuar su legislación a lo estipulado por los tratados de derechos humanos en materia de acceso a la información pública. En el siguiente cuadro, compartimos un listado de la legislación a nivel nacional, vigente en la actualidad:

Tabla 1. Normativa sobre Acceso a la Información Pública en América Latina, en orden alfabético

País Norma Sanción
Argentina Ley 27.275 de Acceso a la Información Pública 2016
Brasil Ley 12.527 de Acceso a la Información 2011
Chile Ley 20.285 sobre Acceso a la Información Pública 2008
Colombia Ley 1712 de Transparencia y del Derecho de Acceso a la Información Pública 2014
Costa Rica Ley 10.554 de Acceso a la Información Pública 2024
Ecuador Ley 24 Orgánica de Transparencia y Acceso a la Información Pública 2004
El Salvador Ley 534 de Acceso a la Información Pública 2011
Guatemala Decreto 57-2008 de Acceso a la Información Pública 2008
Honduras Decreto 170-2006 de Transparencia y Acceso a la Información Pública 2006
México Ley General de Transparencia y Acceso a la Información Pública 2015
Nicaragua Ley 621 de Acceso a la Información Pública 2007
Panamá Ley 6 de Transparencia en la Gestión Pública 2002
Paraguay Ley 5.282 de Libre Acceso Ciudadano a la Información Pública y Transparencia Gubernamental 2014
Perú Ley 27.806 de Transparencia y Acceso a la Información Pública 2002
Venezuela Ley 211-162/2022 de Transparencia y Acceso a la Información de Interés Público 2021

Fuente: Elaboración propia

 

Estas leyes constituyen un avance normativo relevante para garantizar el ejercicio efectivo del derecho de acceso a la información. Algunas normas, incluso, incorporan figuras que fueron innovadoras en su momento, como la “transparencia activa”, que establece una regla general de información que debe estar publicada de forma proactiva por los distintos estados. No obstante, para que este derecho se ejerza de manera efectiva, se requiere algo más que una buena legislación: es indispensable el compromiso institucional de los gobiernos y la participación activa de la ciudadanía.

La normativa venezolana, por ejemplo, fue criticada por organismos locales, quienes afirmaron que fue aprobada sin una verdadera discusión, y que restringe el derecho con “vacíos importantes, sin sanciones a los funcionarios que no cumplan la norma” (Rangel, citado en Damiano, 2021). En México, la nueva gestión en el Poder Ejecutivo promulgó un decreto que reforma la Constitución Política para eliminar el Instituto Nacional de Transparencia, Acceso a la Información y Protección de Datos Personales en México (INAI), una institución clave para el ejercicio efectivo de estos derechos. Múltiples organizaciones de la sociedad civil manifestaron su preocupación y los riesgos para los derechos humanos que esta decisión conlleva, aunque desde el Ejecutivo afirman que las funciones serán absorbidas por otras instituciones gubernamentales (Directorio Legislativo, 2024). 

Un último caso a destacar en términos de los retrocesos al acceso a la información en la región es el que aconteció en Argentina con la sanción del Decreto 780/24, que restringe la aplicación de la ley 27.275. Este decreto, según una carta abierta firmada por decenas de organizaciones locales, “genera un marco normativo discrecional por el cual las definiciones políticas del gobierno y las decisiones subjetivas de los funcionarios/as primarían por sobre el derecho de acceder a información en manos del Estado” (CELS, 2024).

Principios éticos de IA

Hasta aquí, generamos un análisis de la normativa internacional y nacional sobre acceso a la información pública, con mención de algunas implicancias directas para el uso de IA por parte del estado. Pero el acceso a la información también tiene un rol central en los debates internacionales para el uso ético de la IA que acontecieron durante los últimos años. Distintos organismos internacionales han emitido recomendaciones y marcos de trabajo para el desarrollo e implementación de tecnologías de inteligencia artificial de forma ética. Dado que estas recomendaciones están basadas en principios y objetivos generales, no gozan de la misma efectividad que la normativa aplicable en materia de acceso a la información, dado que no disponen de los mecanismos de observancia que implica una ley. Sin embargo, se muestran como herramientas de influencia para los estados de la región, que en algunos casos participaron activamente en las votaciones que aprobaron estas recomendaciones. Es el caso, por ejemplo, de la Recomendación sobre la ética de la inteligencia artificial de la UNESCO[1], aprobada por sus 193 Estados miembro (33 de América Latina); y de la Recomendación del Consejo de la OCDE sobre inteligencia artificial[2], con 46 estados adherentes (de los cuales 8 son de América Latina).

Las recomendaciones de la OCDE tuvieron particular influencia en la formulación de algunos de los primeros instrumentos que buscaron regular el uso de IA en la región, como lo fueron los planes y estrategias de IA formulados entre 2019 y 2021[3]. El primer punto de las recomendaciones de la OCDE establece los “Principios de administración responsable en aras de una IA fiable”, que incluye un punto específico sobre “Transparencia y explicabilidad”. Según este punto, los “actores de la IA” deben comprometerse con la transparencia y una divulgación responsable adaptada a cada contexto y al avance tecnológico. Esto implica proporcionar información que facilite la comprensión de las capacidades y limitaciones de los sistemas de IA, informar a las partes interesadas sobre sus interacciones con estos sistemas, y, cuando sea factible, explicar de manera clara las fuentes de datos, factores y procesos que respaldan sus decisiones. Además, deben ofrecer a quienes se vean afectados negativamente por un sistema de IA la posibilidad de cuestionar sus resultados (OCDE, 2019)[4].

Por otro lado, la UNESCO también establece la transparencia y explicabilidad como uno de los principios rectores de su recomendación (parágrafos 37 al 41), especificando que son “condiciones previas fundamentales para garantizar el respeto, la protección y la promoción de los derechos humanos, las libertades fundamentales y los principios éticos” (parágrafos 37). Sin embargo, introduce como matiz la necesidad de “equilibrar” estas condiciones con otros principios, como “la privacidad, la seguridad y la protección” (parágrafo 38). Asimismo, este punto destaca el papel sociotécnico de la transparencia como herramienta para fomentar “sociedades más justas, inclusivas y democráticas”, al facilitar el escrutinio público. En este sentido, afirma el texto, la transparencia debe proporcionar información adecuada a los destinatarios específicos para generar comprensión y confianza, lo que puede incluir detalles sobre factores que influencian decisiones o predicciones y, en casos de riesgos graves, la divulgación de códigos o datos relevantes (parágrafo 39).

En cuanto a la explicabilidad, la UNESCO subraya su importancia para hacer inteligibles los resultados de los sistemas de IA y entender la relación entre sus componentes algorítmicos y sus resultados. Esto implica garantizar que las decisiones sean comprensibles y trazables, especialmente en aplicaciones de IA con impactos significativos o irreversibles sobre los usuarios. En estos casos, la organización aboga por explicaciones satisfactorias que respalden la acción tomada, reforzando así la transparencia del sistema (parágrafo 40). Por último, se enfatiza que ambas condiciones están intrínsecamente ligadas a la responsabilidad, la rendición de cuentas y la fiabilidad de los sistemas de IA (parágrafo 41).  Por último, cabe mencionar los “Lineamientos Interamericanos de Gobernanza de Datos e Inteligencia Artificial” presentados por la OEA en noviembre de 2024[5]. Este documento, generado en el marco de trabajo de la Red GEALC, es decir, con participación de las autoridades competentes en materia de políticas y regulación del uso de tecnología por parte de los gobiernos que integran la OEA, busca establecer pautas que permitan orientar las políticas de desarrollo e implementación de inteligencia artificial en la región. 

Estos lineamientos, a diferencia de las recomendaciones mencionadas, no dan al acceso a la información o la transparencia un punto específico. A la hora de establecer los principios transversales de los lineamientos, el documento afirma que los países de la región, en sus propios términos, “propenderán” a que las iniciativas y acciones de gobernanza y regulación de IA “observen” los postulados del Marco Interamericano de Derechos Humanos. Esto puede mostrar una sugerencia, indirecta, de la importancia del acceso a la información para estos lineamientos, dado que es un derecho reconocido por esta Convención, como fue mencionado. Sin embargo, en términos específicos, es mencionado de forma complementaria a otros instrumentos normativos, como la protección de datos personales y las políticas de Gobierno Abierto (parágrafos 3.11 y 5.3).  Por otra parte, los mecanismos de transparencia, impulsados en distintas partes de los lineamientos, pueden dar pautas para la inclusión de instrumentos de acceso a la información. Los principios número 3 y 5, titulados, respectivamente, “Fortalecimiento y consolidación institucional para la gobernanza de datos y la inteligencia artificial” y “Ética, transparencia y protección y aseguramiento de derechos humanos en la gobernanza de datos e inteligencia artificial”, hacen referencia a temas de explicabilidad, lenguaje claro y transparencia en compras, entre otros puntos. Quizás el punto innovador de estos lineamientos, respecto de mecanismos de acceso a la información, es el relativo a la incorporación de un lineamiento específico sobre datos abiertos, el punto 11, con particular atención a las políticas de datos, y a la creación y mantenimiento de portales y conjuntos de datos.

A la luz del reconocimiento normativo y ético del acceso a la información como derecho humano, cabría esperar que su aplicación en el uso estatal de IA no presentara mayores obstáculos. Sin embargo, la práctica demuestra lo contrario. Es decir, frente a marcos normativos nacionales e internacionales que reconocen el acceso a la información como un derecho humano, sería necesario que los Estados provean información de forma proactiva sobre el uso de tecnologías que operan sobre áreas como el derecho a la salud, el trabajo, la seguridad social, entre otros. Pues esto está lejos de ser así. A continuación, se presentan cuatro patrones recurrentes que evidencian las principales barreras al acceso a la información sobre el uso estatal de sistemas de IA, identificados a partir de una serie de estudios de caso.

2. Barreras al acceso a la información sobre IA estatal: cuatro patrones recurrentes

Con el fin de ilustrar algunas situaciones concretas, resulta pertinente revisar algunas de las experiencias del proyecto Inteligencia Artificial e Inclusión, desarrollado por Derechos Digitales entre 2019 y 2024. Este proyecto incluyó el desarrollo de una serie de estudios de caso sobre uso de inteligencia artificial por parte del estado, y remarcó el acceso a la información como uno de los puntos más problemáticos. A continuación, un resumen de los resultados en este sentido[6].

a. Falta de respuesta o respuesta incompleta a solicitudes de información

Uno de los obstáculos más recurrentes para acceder a información sobre sistemas de inteligencia artificial utilizados por el Estado es la ausencia de respuestas completas, claras y oportunas a solicitudes de acceso a la información. Esta situación vulnera el principio de máxima divulgación consagrado en la legislación de múltiples países de la región, tanto a nivel nacional como local, y contradice los principios internacionales de rendición de cuentas y explicabilidad, especialmente relevantes en el contexto de sistemas automatizados. Un ejemplo representativo de esta barrera es el caso del chatbot “Boti”, desarrollado por el Gobierno de la Ciudad de Buenos Aires. La investigación realizada por Ferreyra (2024) se basó en fuentes abiertas y en un pedido de acceso a la información pública presentado ante el gobierno porteño. Sin embargo, las respuestas obtenidas fueron vagas y carecieron de elementos técnicos esenciales para comprender el funcionamiento del sistema, lo que motivó una segunda solicitud que, al momento de concluir la investigación, seguía sin ser respondida. Este incumplimiento vulnera la Ley 104 de la Ciudad de Buenos Aires, que establece la obligación de brindar respuestas completas y en plazos razonables, que la Ley 104 establece en 15 días hábiles, con posibilidad de prórroga por diez días hábiles adicionales.

Otro caso similar[7] se da con el Sistema de Reconocimiento Facial de Prófugos (SRFP), también implementado en la Ciudad de Buenos Aires. El Observatorio de Derecho Informático Argentino (ODIA) presentó dos pedidos de acceso a la información que no fueron debidamente contestados. Frente a esta negativa, la organización presentó una acción judicial que derivó en un fallo de inconstitucionalidad del sistema, confirmado por la Cámara en 2023[8]. Aquí no solo se incumple con el deber de responder solicitudes, sino que se impide el acceso a información clave sobre una tecnología basada en elementos de automatización que puede tener impactos significativos en derechos fundamentales como la privacidad y la libertad de circulación. Estos casos ilustran cómo, a pesar de la existencia de marcos normativos robustos, el ejercicio efectivo del derecho a la información se ve condicionado por prácticas administrativas opacas que obstaculizan el escrutinio público de tecnologías de alto impacto social.

b. Ausencia de información actualizada y negativa a brindar datos

Un patrón recurrente en varios contextos de América Latina es la falta de información pública actualizada sobre sistemas de inteligencia artificial en funcionamiento y la resistencia de autoridades estatales a entregar información adicional, ya sea a través de canales formales o mediante entrevistas. Esta barrera limita gravemente la posibilidad de ejercer el derecho de acceso a la información y contradice tanto distintas normativas nacionales, así como los principios éticos internacionales sobre transparencia y explicabilidad. 

El caso del Sistema Alerta Niñez (SAN) en Chile, analizado por Valderrama (2021), muestra con claridad este tipo de obstáculos. Aunque la investigación partió de una solicitud de acceso a la información amparada por la Ley de Transparencia, el proceso se vio afectado por la ausencia de documentación pública actualizada sobre el sistema y por la negativa explícita de funcionarios del Ministerio de Desarrollo Social y Familia a participar en entrevistas o brindar información adicional (Valderrama, 2021, p. 8).  Esta actitud obstruye el mencionado principio de transparencia activa, que obliga a las instituciones públicas a publicar información clave de forma proactiva, y vulnera el principio de explicabilidad, según el cual los sistemas de IA deben poder ser comprendidos por quienes puedan verse afectados por su funcionamiento. 

Más allá de la dimensión normativa, este caso pone en evidencia una práctica institucional que restringe el debate público sobre políticas sensibles que afectan a poblaciones vulnerables, como niños y adolescentes. La falta de datos actualizados y la opacidad en la implementación del sistema dificultan cualquier evaluación crítica sobre su eficacia, riesgos o sesgos, y debilitan las condiciones para una supervisión social o institucional adecuada.

c. Secreto institucional y falta de transparencia proactiva

Otra barrera importante al acceso a la información sobre el uso estatal de sistemas de inteligencia artificial es la existencia de prácticas institucionales opacas que, aun en ausencia de negativa expresa, limitan el conocimiento público sobre no sólo el funcionamiento de estas tecnologías, sino también sobre su misma aplicación en el sector público. En estos casos, no se trata de solicitudes no respondidas, sino de la falta de información publicada de forma proactiva, accesible y comprensible, tal como lo exigen los marcos normativos y éticos vigentes. Este tipo de situación es común en particular cuando se trata de la adquisición o despliegue de tecnologías en el contexto de seguridad pública. Una investigación realizada por el Consorcio Al Sur en 2021 apuntaba, por ejemplo, que al tratarse de sistemas de reconocimiento facial,  “las iniciativas se dan a conocer por medio de notas de prensa en medios especializados y de circulación restringida, a partir de publicación en medios oficiales de procesos de compras públicas (especialmente cuando se realizan por medio de licitaciones públicas, lo que no siempre ocurre) o cuando ya hay registros de abusos u otros tipos de escándalos de corrupción” (Venturini y Garay, 2021, p. 22).

Otro ejemplo ilustrativo es el del Sistema Predictivo del Delito Urbano en Chile. Esta política pública, orientada a identificar zonas de alta incidencia delictiva para concentrar presencia policial, fue analizada por Buschmann (2021, p. 9), quien evidenció múltiples obstáculos para acceder a datos relevantes sobre su implementación. Aunque formalmente existen esfuerzos de transparencia, los datos publicados no se encuentran desagregados, y aspectos clave como la distribución territorial del personal policial permanecen en secreto. Además, la información sobre faltas disciplinarias cometidas por Carabineros, una institución clave en la generación de datos para el sistema, también es de carácter reservado, lo que impide evaluar posibles sesgos o errores en la producción de datos. La reserva de las investigaciones sumarias dentro de Carabineros, afirma Buschmann, ha sido cuestionada por la Convención Interamericana de Derechos Humanos y se contrapone al principio de probidad establecido en la Constitución chilena.

Estas prácticas entran en tensión, por ejemplo, con el principio de transparencia activa, consagrado en la Ley de Transparencia chilena (Ley 20.285), y contradicen recomendaciones internacionales como las de la UNESCO, que subrayan la necesidad de garantizar la comprensibilidad de los sistemas de IA mediante información contextualizada, clara y adecuada al destinatario. La opacidad estructural en torno al sistema predictivo no solo impide el ejercicio pleno del derecho de acceso a la información, sino que también limita la posibilidad de evaluar sus impactos reales sobre derechos como la no discriminación. Por otro lado, la autora marca una problemática ligada al Consejo para la Transparencia. Afirma que su rol fiscalizador, como el de todo organismo público, está limitado al cumplimiento de normas y no a la resolución de problemas sobre solicitudes de información. Esto se relaciona, a su vez, con la necesidad de reconocer el acceso a la información pública como derecho fundamental consagrado en la Constitución (Castillo, 2009; CIDH, 2016; citados en Buschmann, 2021, p.15).

d. Exceso de divulgación que vulnera la protección de datos personales

En algunos casos, la barrera al acceso a la información no se manifiesta por omisión, sino por un exceso de divulgación que pone en riesgo otros derechos fundamentales, como la protección de datos personales. Esta situación plantea tensiones entre los principios de transparencia y privacidad, ambos reconocidos por los marcos normativos nacionales e internacionales, y obliga a repensar cómo se garantiza el derecho a la información sin comprometer la autodeterminación informativa de las personas. El caso del Auxilio de Emergencia en Brasil, implementado durante la pandemia de COVID-19, es ilustrativo de esta problemática. Según el análisis de Tavares et al. (2022), el gobierno federal publicó en su portal de transparencia un listado con datos personales sensibles de las personas beneficiarias del programa, incluyendo nombre completo, montos y cuotas recibidas. Esta decisión se justificó como un esfuerzo de rendición de cuentas y prevención de fraudes, pero puso en evidencia un conflicto entre acceso a la información y privacidad.

Desde la perspectiva normativa, este caso vulnera el principio de necesidad y proporcionalidad en la divulgación de información, y también pone en cuestión el equilibrio requerido entre transparencia y protección de datos, tal como lo establece la Recomendación de la UNESCO sobre la ética de la inteligencia artificial (UNESCO, 2021). Allí se señala que la transparencia debe ser compatible con la seguridad, la privacidad y otros principios, y no puede ser utilizada para justificar prácticas que afecten derechos fundamentales. Más allá de la legalidad formal de la publicación, la divulgación excesiva representó una forma de exposición que generó riesgos innecesarios, demostrando que la transparencia, cuando se aplica sin criterios de proporcionalidad, también puede convertirse en un factor de vulneración de derechos.

Los ejemplos presentados hasta aquí representan sólo una fracción de los desafíos que pueden limitar el acceso a la información. Más allá de ellos, es posible identificar otras barreras, como la propiedad intelectual, frecuentemente citada como un obstáculo cuando los Estados adquieren software protegido por secretos industriales o sujeto a compromisos de no divulgación de código fuente. Otra barrera relevante puede ser la protección de las bases de datos empleadas. Además, no debe pasarse por alto la opacidad derivada del exceso de información irrelevante, un problema observado en algunos sistemas que pone nuevamente sobre la mesa la necesidad de garantizar la comprensibilidad y explicabilidad para que el acceso a la información sea efectivo.

Estos casos representan sólo una muestra de los problemas que encontramos en la actualidad a la hora de ejercer el derecho de acceso a la información pública en temáticas relativas al uso de inteligencia artificial por parte del estado. Más allá de los inconvenientes que pueden representar para la investigación social de este tema, esto representa una falta grave al principio de acceso a la información en todos los términos mencionados: en tanto principio ético, en tanto norma y, en definitiva, en tanto derecho humano. 

En conjunto,  estos casos permiten identificar patrones institucionales que limitan la transparencia sobre el uso de IA en el Estado, y evidencian la necesidad de un enfoque más integral para garantizar el acceso efectivo a la información. Estas dificultades, sin embargo, no implicaron la imposibilidad total del acceso a la información. Hay algunos mecanismos y estrategias que fueron útiles a la hora de buscar vías alternativas para alcanzar un acceso efectivo, y que presentamos a continuación. 

3. Estrategias frente a la opacidad

Frente a las barreras identificadas en el apartado anterior, distintas investigaciones y organizaciones de la sociedad civil en América Latina han desplegado estrategias complementarias para acceder a información sobre el uso estatal de sistemas de inteligencia artificial. A continuación, se describen cuatro mecanismos que han demostrado ser relevantes en ese proceso: el análisis de contrataciones públicas, el uso de auditorías e informes de organismos de control, la consulta de documentación de cooperación internacional, y la judicialización estratégica.

a. Análisis de contrataciones públicas

Una de las estrategias más efectivas para obtener información sobre el uso de sistemas de inteligencia artificial por parte del Estado ha sido el análisis de los documentos publicados en los portales de contrataciones públicas. En muchos países de la región, estos portales incluyen pliegos de licitación, contratos, resoluciones administrativas y documentos técnicos que, si bien no siempre son explícitos sobre los detalles algorítmicos, permiten reconstruir el contexto de implementación, los actores involucrados y los recursos asignados.

Este enfoque fue especialmente útil en el estudio sobre la implementación de IBM Watson en la Fiscalía General de Colombia (Palacios et al., 2024). En ese caso, los contratos públicos y los estudios previos a la contratación permitieron a las investigadoras identificar las características del sistema, los objetivos declarados y las obligaciones contractuales, a pesar de no contar con acceso directo a la tecnología en sí. Así, el análisis de documentación administrativa se convirtió en una vía de acceso indirecta pero valiosa para comprender el funcionamiento del sistema. El uso de estas fuentes muestra que, incluso cuando los Estados no publican de manera proactiva información específica sobre algoritmos, es posible obtener evidencia relevante a través de los mecanismos de compras públicas. Sin embargo, esta vía también requiere habilidades técnicas para interpretar documentos contractuales, y no siempre garantiza información suficiente sobre aspectos técnicos sensibles como los datos de entrenamiento o las métricas de desempeño.

b. Auditorías e informes de organismos de control

Otra vía alternativa para acceder a información sobre el uso de inteligencia artificial en el sector público ha sido la consulta de auditorías y dictámenes emitidos por organismos de control. Estos documentos, elaborados por entidades con acceso privilegiado a sistemas internos, pueden ofrecer detalles técnicos y organizativos que no suelen encontrarse en publicaciones abiertas ni en respuestas a solicitudes de información. Así lo muestra, por ejemplo, el estudio sobre el chatbot “Boti”, desarrollado por el Gobierno de la Ciudad de Buenos Aires. Como relata Ferreyra (2024, p. 20), durante 2022 la Auditoría General de la Ciudad de Buenos Aires (AGCBA) llevó a cabo un análisis exhaustivo de los sistemas, procesos y tecnologías que garantizan la operatividad del chatbot, abarcando el año 2021. El informe de auditoría, publicado en marzo de 2023, subrayó áreas críticas que requieren mejoras, especialmente en la formalización de procedimientos administrativos y en la gestión y protección de datos personales. También se destacó la necesidad de establecer políticas informáticas robustas y una gobernanza más sólida de las tecnologías de la información.

La experiencia demuestra que, cuando existen instituciones con mandatos claros de control externo, sus informes pueden ser un recurso valioso para la ciudadanía y para la investigación sobre tecnologías automatizadas. Sin embargo, el acceso a estas auditorías también depende del grado de independencia del organismo, del alcance de sus competencias y de su compromiso con la transparencia activa.

c. Convenios con organismos internacionales

En algunos casos, la cooperación entre gobiernos y organismos internacionales ha generado documentación valiosa para comprender el desarrollo e implementación de tecnologías de inteligencia artificial en el sector público. Cuando estas iniciativas implican financiamiento o asistencia técnica, suelen requerir reportes de avance, evaluaciones de impacto o publicaciones conjuntas que están disponibles públicamente, y que pueden ser aprovechadas para acceder a información que los propios gobiernos no publican por iniciativa propia.

Este fue el caso del Sistema de Actuación Temprana para la Permanencia Escolar (SATPE) en México, analizado por Ricaurte y Nájera (2024). El sistema fue desarrollado mediante una alianza entre la Secretaría de Educación del Estado de Guanajuato, el Banco Mundial y la organización PIT Policy Lab. Gracias a esta cooperación, fue posible acceder a información relevante a través de informes publicados por el propio Banco Mundial y documentos producidos por las organizaciones involucradas. Por ejemplo, esta alianza permitió acceder a información relativa a la rendición de cuentas del estado frente al organismo financiador[9], publicada en la web abierta del Banco, así como registros del desarrollo y los procesos de capacitación, narrados en publicaciones abiertas de las organizaciones asociadas[10].

Este tipo de documentación permitió reconstruir el funcionamiento interno de sistemas algorítmicos y evaluar el alcance de la intervención estatal incluso cuando la información no proviene directamente del aparato gubernamental. No obstante, esta vía depende de la transparencia de las organizaciones internacionales involucradas y no garantiza información completa sobre decisiones técnicas o sobre el uso posterior de los sistemas por parte de los gobiernos.

d. Litigio estratégico por acceso a la información

Cuando las vías administrativas resultan insuficientes, algunas organizaciones han recurrido al litigio estratégico como herramienta para hacer valer el derecho de acceso a la información pública. Esta estrategia, aunque costosa en términos de tiempo, recursos legales y personales, ha demostrado ser efectiva en ciertos contextos para forzar al Estado a transparentar información sobre tecnologías automatizadas de alto impacto.

Un caso ejemplar es el impulsado por TEDIC en Paraguay, a partir de un pedido de información presentado en 2019 sobre el uso de cámaras de vigilancia con tecnología biométrica en Asunción. La organización solicitó detalles sobre las características del sistema de reconocimiento facial, sus protocolos de uso, posibles riesgos para los derechos humanos y tasas de error de los algoritmos utilizados (TEDIC, 2024). La respuesta estatal fue evasiva, apelando a motivos de seguridad nacional para negar el acceso a la información. Ante esto, TEDIC, con apoyo legal de IDEA, inició una acción judicial que llegó hasta la Corte Suprema de Justicia.

Según relata la organización, la Corte no se pronunció sobre el fondo del asunto (la transparencia sobre el sistema), pero sí reconoció que los tribunales intermedios aplicaron erróneamente la ley, lo que resultó en una sentencia arbitraria. La Sala Constitucional confirmó la validez de una Acordada que establece el procedimiento adecuado para el amparo de acceso a la información, lo que fue valorado por TEDIC como un avance positivo en la defensa del derecho a la información (TEDIC, 2024).

Este caso muestra que, si bien el litigio estratégico puede abrir caminos para hacer valer derechos vulnerados, también enfrenta límites importantes: tiempos prolongados, falta de pronunciamiento de fondo, y una dependencia fuerte de la interpretación judicial. A pesar de su utilidad, estas estrategias alternativas enfrentan límites estructurales que restringen su alcance. En muchos casos, acceder a información mediante portales de contrataciones o auditorías requiere capacidades técnicas especializadas; la documentación internacional depende de relaciones de cooperación específicas y no siempre es exhaustiva; y la vía judicial implica procesos largos, costosos y de resultado incierto. Además, estas herramientas suelen estar al alcance de un grupo reducido de actores con tiempo, conocimientos y recursos, lo que profundiza las desigualdades en el ejercicio del derecho a la información.

En conjunto, estos mecanismos demuestran que la transparencia sobre el uso de inteligencia artificial en el sector público no puede descansar únicamente en la iniciativa de la sociedad civil o en la capacidad de litigio de ciertas organizaciones. Se requiere una transformación estructural de las políticas de transparencia, con mecanismos proactivos y accesibles que permitan a toda la ciudadanía conocer, comprender y cuestionar el uso estatal de sistemas algorítmicos.

A modo de cierre: barreras persistentes y caminos posibles para una transparencia efectiva sobre IA estatal

El análisis realizado muestra que, si bien el derecho de acceso a la información pública cuenta con amplio reconocimiento normativo en América Latina, su ejercicio efectivo frente al uso de sistemas de inteligencia artificial por parte del Estado sigue enfrentando barreras significativas. Estas barreras no son solo administrativas o técnicas, sino también estructurales, y adoptan distintas formas: desde la falta de respuesta a solicitudes, el secretismo institucional o la divulgación excesiva de datos sensibles, hasta la resistencia activa a entregar información actualizada. Cada una de estas prácticas contradice no sólo las obligaciones legales de los Estados, sino también los principios éticos que guían el desarrollo y uso responsable de tecnologías automatizadas.

Frente a este escenario, se han desplegado diversas estrategias alternativas que permiten sortear, al menos parcialmente, estas restricciones. El análisis de contrataciones públicas, los informes de auditoría, la cooperación internacional y el litigio estratégico han servido como vías complementarias para acceder a información que los gobiernos no publican de forma proactiva. Sin embargo, estas herramientas dependen de factores externos, como la existencia de documentos, la voluntad institucional o la capacidad técnica y jurídica de quienes las utilizan, y no sustituyen la necesidad de garantizar un acceso estructurado, comprensible y equitativo a la información sobre sistemas de IA. En este sentido, también resultan valiosas experiencias como la iniciativa del Consejo para la Transparencia de Chile, que propuso una metodología para identificar y catalogar los usos de tecnologías automatizadas en el sector público (Consejo para la Transparencia & Gob Lab UAI, 2021).

El recorrido realizado muestra que, pese al reconocimiento formal del derecho de acceso a la información, su ejercicio frente al uso estatal de sistemas de IA enfrenta obstáculos estructurales que vulneran principios fundamentales del Estado de derecho. Al sistematizar estas barreras y documentar estrategias alternativas empleadas por la sociedad civil, el artículo busca aportar insumos concretos para una agenda de fortalecimiento democrático. En este camino, garantizar un acceso efectivo, comprensible y equitativo a la información no es solo una obligación legal, sino una condición indispensable para que la ciudadanía pueda ejercer control sobre decisiones automatizadas que afectan sus derechos.

Bibliografía

Alimonti, V., & Cavalcanti de Alcântara, R. (2024). Estándares interamericanos y uso estatal de la IA en decisiones que afecten derechos humanos: Implicaciones para los DDHH y marco operativo. Electronic Frontier Foundation. https://www.eff.org/document/estandares-de-derechos-humanos-para-el-uso-estatal-de-la-ia-en-america-latina

Buschmann, J. (2021). Sistema predictivo del delito urbano: Producción algorítmica de zonas de vigilancia y control en la ciudad. Derechos Digitales.

Bruno, F., Cardoso, P., & Faltay, P. (2021). Sistema Nacional de Empleo y la gestión automatizada de la desocupación laboral. Derechos Digitales.

CELS. (2024). Un decreto no puede limitar el acceso a la información pública. Carta Abierta, blog CELS. https://www.cels.org.ar/web/2024/09/un-decreto-no-puede-limitar-el-acceso-a-la-informacion-publica/

Consejo para la Transparencia & Gob Lab UAI. (2021). Transparencia algorítmica en el sector público: Recomendaciones para una agenda en Chile. https://www.consejotransparencia.cl/wp-content/uploads/estudios/2021/10/ESTUDIO-TRANSPARENCIA-ALGORITMICA-EN-EL-SECTOR-PUBLICO-GOBLAB-cambio-tablas-1.pdf

Damiano, D. (2021). El acceso a la información en Venezuela gravemente vulnerado. Blog Amnistía Internacional. https://www.amnistia.org/ve/blog/2021/09/19778/el-acceso-a-la-informacion-en-venezuela-gravemente-vulnerado

Directorio Legislativo. (2024). Cierre del INAI en México: Un golpe a la transparencia. Blog Directorio Legislativo. https://directoriolegislativo.org/es/cierre-del-inai-en-mexico-un-golpe-a-la-transparencia

Ferreyra, E. (2024). Boti: estudio sobre el chatbot con procesamiento del lenguaje natural del Gobierno de la Ciudad de Buenos Aires. Derechos Digitales.

Nájera, J., & Ricaurte, P. (2021). Tecnologías de interés público: el caso de las coronapps en América Latina (Policy Report No. 1, Serie 1: TIC en tiempos de Covid-19). Centro Latam Digital. https://centrolatam.digital/publicacion/coronapps/

UNESCO. (2021). Recomendación sobre la ética de la inteligencia artificial. https://www.unesco.org/en/articles/recommendation-ethics-artificial-intelligence

OCDE. (2019). Principios de la Ética de la Inteligencia Artificial. https://www.oecd.org/en/topics/ai-principles.html

Organización de los Estados Americanos (OEA). (2024). Lineamientos interamericanos de gobernanza de datos e inteligencia artificial (Documento de Trabajo). https://www.oas.org/ext/DesktopModules/MVC/OASDnnModules/Views/Item/Download.aspx?type=1&id=1080&lang=2

Palacios, L., Forero, V., & Labarthe, S. (2024). Fiscal Watson: estudio del uso de Inteligencia Artificial en la Fiscalía General de la Nación en Colombia. Derechos Digitales.

Tavares, C., Fonteles, J., Simão, B., & Valente, M. (2022). El Auxilio de Emergencia en Brasil: Desafíos en la implementación de una política de protección social datificada. Derechos Digitales.

TEDIC. (2024). Sentencia histórica de la Corte en Paraguay sobre el acceso a la información en el caso de reconocimiento facial. Blog TEDIC. https://www.tedic.org/sentencia-historica-de-la-corte-en-paraguay-sobre-el-acceso-a-la-informacion-en-el-caso-de-reconocimiento-facial/

Valderrama, M. (2021). Sistema Alerta Niñez: IA e inclusión en Chile. Derechos Digitales.

Venturini, J., & Garay, V. (2021). Reconocimiento facial en América Latina: tendencias en la implementación de una tecnología perversa. Al Sur. https://www.alsur.lat/sites/default/files/2021-10/ALSUR_Reconocimiento%20facial%20en%20Latam_ES_Final.pdf

Notas

Notas
1 Disponible en: https://www.unesco.org/en/articles/recommendation-ethics-artificial-intelligence
2 Disponible en: https://www.oecd.org/en/topics/ai-principles.html
3 El proyecto EmpatIA dispone de una serie de investigaciones sobre el desarrollo inicial de estas políticas en la región. Las mismas están disponibles en https://www.empatia.la/politicas/
4 Si bien estos principios fueron enmendados en 2024, el Punto 1,3 se mantuvo con cambios menores, que no modifican su sentido.
5 Disponibles en: https://www.oas.org/ext/DesktopModules/MVC/OASDnnModules/Views/Item/Download.aspx?type=1&id=1080&lang=
6 Esta sección representa una síntesis de la problemática analizada en el artículo “Inteligencia Artificial en el Estado: Estudio colectivo sobre experiencias y riesgos para los derechos humanos” (2024), disponible en: https://ia.derechosdigitales.org/wp-content/uploads/2024/12/2024-LATAM-IA_en_el-Estado-ES.pdf
7 Si bien Derechos Digitales no investigó este detalle, acompañó el proceso de amparo colectivo a partir de la figura amicus curiae.
8 Para más información, consultar la web oficial de O.D.I.A.: https://srfp.odia.legal/
9 Los links de acceso a los reportes, al momento de la redacción de este artículo, ya no funcionaban.
10 Para mas información: https://www.policylab.tech/post/promoviendo-una-ia-equitativa-en-el-sector-educativo-el-caso-de-la-secretar%C3%ADa-de-educaci%C3%B3n-de-guana-1?lang=es