La carrera por la regulación de la inteligencia artificial

Revista Latinoamericana de Economía y Sociedad Digital

Issue Especial 2

Autores: Cristian León CoronadoORCID logo

DOI: 10.53857/RLESD.04.2023.05

Publicado: 10 marzo, 2024Recibido: 8 septiembre, 2023

Cita sugerida: Leon Coronado, C. (2023). La carrera por la regulación de la inteligencia artificial, Revista Latinoamericana de Economía y Sociedad Digital(4)

Licencia: Creative Commons Atribución-NoComercial 4.0 Internacional (CC BY-NC 4.0)

Resumen

La carrera por la regulación de las tecnologías de inteligencia artificial (IA) comenzó en el año 2017 y tiene su punto clave en el 2023, con la aprobación de la AI Act, de la Unión Europea, posterior a la conmoción suscitada por la popularización de los modelos de inteligencia artificial generativos. Este último hito marca el fin de una era de autorregulación, en un nuevo tiempo delimitado por la discusión acerca de la forma que debe tomar la regulación de la IA. Al respecto, y en tanto la legislación europea puede tener influencia en América Latina, es preciso visibilizar las capas de complejidad y los distintos enfoques en la carrera por esta regulación. Por un lado, tenemos la disyuntiva entre una regulación débil y una fuerte; la primera está más enfocada en aspectos comerciales y posee una impronta ética, mientras que la regulación fuerte está basada en controles más estrictos y asentada sobre estándares internacionales de derechos humanos. Por otro lado, están las adaptaciones regulatorias en torno a la normativa existente en protección de datos, ciberseguridad y transparencia, entre otros. Por último, una tercera capa está relacionada con la gobernanza y el rol del Estado, el sector privado y los modelos de múltiples partes interesadas. 

Lejos de llegar a su meta, la carrera por la regulación de la IA contempla varios desafíos, además, deberá mediar la presión de saber “quién llega antes” en el aprovechamiento tecnológico, con el riesgo de que ello ocasione regulaciones insuficientes y limitadas que no tomen en consideración estándares éticos rigurosos y basados en derechos humanos.

Abstract

The race for the regulation of artificial intelligence (AI) technologies began in 2017 and has its key point in 2023, with the approval of the European Union’s AI Act, following the commotion caused by the popularization of generative artificial intelligence models. This last milestone marks the end of an era of self-regulation, in a new time delimited by the discussion about the form that AI regulation should take. In this regard, and while European legislation may have an influence in Latin America, it is necessary to make visible the layers of complexity and the different approaches in the race for this regulation. On the one hand, we have the dilemma between weak and strong regulation; the former is more focused on commercial aspects and has an ethical imprint, while strong regulation is based on stricter controls and based on international human rights standards. On the other hand, there are the regulatory adaptations around existing regulations on data protection, cybersecurity and transparency, among others. Finally, a third layer is related to governance and the role of the state, the private sector and multi-stakeholder models. 

Far from reaching its goal, the race to regulate AI faces several challenges, including the pressure of “who gets there first” in technological exploitation, with the risk of insufficient and limited regulations that do not take into account rigorous ethical and human rights-based standards.

Resumo

A corrida para regulamentar as tecnologias de inteligência artificial (IA) começou em 2017 e chega ao seu ponto principal em 2023, com a aprovação da Lei de IA da União Europeia, após a agitação causada pela popularização dos modelos de inteligência artificial generativa. Esse último marco marca o fim de uma era de autorregulação, em um novo tempo delimitado pela discussão sobre a forma que a regulamentação da IA deve assumir. Nesse sentido, e na medida em que a legislação europeia pode ter influência na América Latina, é necessário tornar visíveis as camadas de complexidade e as diferentes abordagens na corrida por essa regulamentação. Por um lado, há o dilema entre a regulamentação fraca e a forte; a primeira é mais focada em aspectos comerciais e tem um cunho ético, enquanto a regulamentação forte se baseia em controles mais rígidos e em padrões internacionais de direitos humanos. Por outro lado, há adaptações regulatórias em torno das normas existentes sobre proteção de dados, segurança cibernética e transparência, entre outras. Por fim, uma terceira camada está relacionada à governança e à função do Estado, do setor privado e dos modelos de múltiplas partes interessadas.

Longe de atingir seu objetivo, a corrida para regulamentar a IA enfrenta vários desafios, incluindo a pressão de “quem chega primeiro” na exploração tecnológica, com o risco de uma regulamentação insuficiente e limitada que não leva em conta rigorosos padrões éticos e baseados em direitos humanos.

 

Palabras clave: inteligencia artificial, regulación, ética de la IA, derechos humanos, derechos digitales

1. Introducción

El intempestivo lanzamiento de una serie de modelos de inteligencia artificial generativa (IAG)[1] y la posterior masificación de usuarios registrados en las herramientas más populares, como ChatGPT, Dall-e, Bard, MidJourney, entre otras, aceleró, aún más, la que ya era una rápida carrera por la regulación de tecnologías basadas en inteligencia artificial (IA).

Esta carrera comenzó alrededor de 2017, con la primera Resolución del Parlamento Europeo para discutir los desafíos regulatorios de la IA (Rodrigues, 2020) y un primer intento regulatorio en Canadá (Fjeld et al., 2020). Uno de los hitos más importantes es, sin duda alguna, la AI Act[2] de la Unión Europea (UE), la cual pasó su primera aprobación en aquel Parlamento, en junio de 2023. Esta regulación, al igual que el Reglamento General de Protección de Datos (RGPD), de 2018, podría llegar a tener influencia en varios cuerpos legislativos en el mundo, incluyendo los de países de América Latina. A pesar de ello, la regulación europea no es el punto de partida de la carrera ni tampoco será la meta.

La carrera por la regulación de la inteligencia artificial ha estado marcada por diversas capas de complejidad y distintos enfoques en el marco de la gobernanza. Al respecto, identificamos tres capas. La primera corresponde a la disyuntiva entre una regulación débil, enfocada en temas comerciales y con una impronta ética, y una regulación fuerte, basada en controles más estrictos y estándares internacionales de derechos humanos. Una segunda capa implica la diversidad de posibles adaptaciones regulatorias –aunque no necesariamente en tensión–, entre fortalecer las legislaciones existentes de protección de datos, transparencia, ciberseguridad, o bien generar nuevos marcos regulatorios. La tercera capa abarca los aspectos de gobernanza entre un rol fuerte y proactivo del Estado, la capacidad técnica del sector privado y los modelos de múltiples partes interesadas.

Estas disyuntivas y capas de complejidad plantean, a su vez, la necesidad de tener en cuenta modelos de gobernanza híbridos y adaptativos, que superen las limitaciones de los enfoques tradicionales y contemplen una participación multisectorial e inclusiva, para asegurar que las regulaciones generadas sean lo más robustas y representativas posibles (Taeihagh, 2021; Mantellero, 2022). Si bien ya no está en discusión si las inteligencias artificiales se regulan o no, y de hecho la legislación europea pone fin a una era de autorregulación, la cuestión es si esta carrera podrá superar la prisa que existe por implementar estas tecnologías. Los modelos de IA se están aplicando –con énfasis en el contexto de América Latina– sin perspectivas críticas o siquiera suficientes grados de comprensión respecto a sus alcances e implicaciones. Abundan los casos en los cuales sistemas con cierto grado de automatización y modelos de IAG se ejecutan en el sector público y cortes judiciales, sin salvaguardas y con afectaciones potenciales a los derechos humanos (Velasco et al., 2021; Aguerre et al., 2021; Levy Daniel, 2023).

La presión por “quién llega antes” en el aprovechamiento tecnológico, en lugar de impulsar una carrera regulatoria hacia la cima (race to the top) –que implicaría los estándares más altos y adecuados–, podría, en cambio, derivar en una carrera hacia el fondo (race to the bottom), es decir, en una regulación mínima, permisiva e insuficiente y una aplicación que soslaye estándares y lineamientos de ética y derechos humanos (Smuha, 2021; Bustos, 2023). 

A partir de revisión bibliográfica e investigación de escritorio, el presente texto aborda las diferentes capas de complejidad regulatoria de las IA, en contraste con la premura por la transformación tecnológica. El documento se divide en dos grandes secciones. En la primera, se revisan las implicaciones de la regulación en el marco de las tecnologías, proponiendo una definición conceptual y un esquema para entender las premisas del texto. En la segunda sección se describen las diferentes capas de complejidad y regulación de las IA. El documento concluye retomando el argumento de una convergencia regulatoria a nivel de gobernanza, planteada por Fjeld et al. (2020), pero sin dejar de problematizar el impacto para los países del Sur global.

¿Qué se entiende por “regular” las IA?

La regulación de los modelos de inteligencia artificial (IA) está cada vez menos en cuestión. Hoy, ante el registro de una serie de abusos de estas tecnologías y preocupaciones respecto a su ejecución, son más las voces que piden su regulación, que las que no. La incógnita, en realidad, es qué implica regular las IA y cómo se debe orientar dicha regulación.

Para fines de este documento, entendemos a la inteligencia artificial como el conjunto de tecnologías o sistemas para analizar y tomar decisiones a partir de operaciones computarizadas, automatizadas o semiautomatizadas, basadas en el procesamiento de datos, y así detectar patrones, realizar predicciones o varios tipos de acciones definidas en una serie de reglas establecidas por un algoritmo (Derechos Digitales, 2021; Daly et al., 2019). Aunque el debate conceptual sobre las IA sigue vigente, es justo la falta de claridad sobre qué es lo que estas abarcan y qué no lo que conlleva que su regulación sea siempre limitada y deje de lado elementos críticos (Algorithm Watch, 2021).

De una multiplicidad de casos en los que se usan modelos de inteligencia artificial, Rodrigues (2020) mapea al menos 10 problemáticas legales, algunas relacionadas con la forma en que las IA se diseñan y desarrollan, y otras más vinculadas con el tipo de uso e implementación. Estas dificultades son: falta de transparencia; vulnerabilidades de ciberseguridad; sesgos; discriminación; sujección a decisiones automatizadas; pérdida de autodeterminación; propiedad intelectual; afectación al trabajo, privacidad y protección de datos; daños causados por mal uso, y falta de rendición de cuentas. Estos problemas han sido abordados en una gran cantidad de literatura disponible en el tema (Taeihagh, 2021; de Almeida, 2021; Smuha, 2021,  Fjeld et al., 2020).

De acuerdo con lo anterior, partimos de la asunción de que una regulación que resuelva la totalidad de los problemas asociados con las IA es compleja, por ende, quizás siempre sea insuficiente. Aunado a ello, ¿qué debemos entender exactamente por “regular”? Abordamos el concepto de regulación en un sentido amplio, el cual ha sido planteado por Fjeld et al. (2020), en un trabajo muy citado en esta materia. Así, en la regulación se incluye a la normativa –en su concepción precisa de ley–, declaraciones, estándares éticos, marcos de implementación y conjuntos de lineamientos sobre la forma en que la IA debería ser desarrollada, aplicada y gobernada. 

 

El diseño de la regulación de la inteligencia artificial se encuentra mediada por diferentes aspectos que afectan a su orientación, y que sirve traer a colación en el marco de la carrera por la implementación de las IA. El clásico autor, Lawrence Lessig (1999), al referirse a la regulación del ciberespacio, identifica al menos cuatro perspectivas: la normativa social, el mercado, las leyes en sí mismas y el código de programación –condiciones de posibilidad de la propia tecnología dadas en su creación–. A continuación, desagregamos cada perspectiva.

La normativa social, entendida desde Lessig (1999), se refiere a aquellos marcos de comportamiento que orientan lo que es adecuado o no, en un contexto de relacionamiento en sociedad. Llevado a las IA, el contexto de normativa social aún es un bosquejo, por el simple hecho de que estas tecnologías todavía no son parte de la vida cotidiana. No obstante, la ética de la IA se plantea como un componente de los lineamientos en los que dicha normativa está plasmada, pues estos dictan reglas mínimas y permisivas para el uso de la IA. Cabe añadir que la organización Derechos Digitales (2021) concibe la ética de la IA como: 

Sistemas de principios que intentan influir en el desarrollo y despliegue de sistemas de IA, para prevenir sus riesgos. Así, para reducir los riesgos de discriminación algorítmica, diferentes empresas e instituciones alrededor del mundo cuentan con principios éticos para el diseño, entrenamiento y despliegue de sistemas de inteligencia artificial y de aprendizaje automático.

 

La perspectiva del mercado –en una lógica de oferta y demanda– se maneja en torno al valor comercial de las IA; esta es la que ha acelerado la creación y difusión de modelos de IA, con inversiones que a 2021 excedían los 40 mil millones de dólares (UNCTAD, 2021). Si bien el mercado muestra una actitud proactiva con respecto a la regulación, tiene un fuerte incentivo a la opacidad y a la falta de rendición de cuentas, como se verá más adelante. Además, hay una intencionalidad intrínseca en mantener con poca transparencia la información sobre el funcionamiento de estas tecnologías, apoyada en argumentos tales como prevenir potenciales ciberataques, resguardar secretos industriales e, incluso, la propia competencia por parte de quienes las desarrollan (Taeihagh, 2021). A nivel de gobernanza, esto dificulta, de manera considerable, las medidas de regulación ex ante, pues las vuelve poco eficaces ante la gran cantidad de posibilidades que la IA brinda (Butcher y Beridze, 2019).

 

La perspectiva legal se encuentra en un momento de alto desarrollo de documentos, como la AI Bill of Rights, de Estados Unidos, publicado en octubre de 2022, y la AI Act, de la Unión Europea, los cuales pueden convertirse en pivotes para el resto del mundo. Tanto la AI Bill of Rights como la AI Act muestran grados de maduración que van más allá de reflexiones con respecto a la ética de la IA, y proponen perspectivas más prácticas de ejecución (Oxford Insights, 2022). A estos documentos les antecede más de una veintena de marcos regulatorios de Estado, siendo uno de los primeros el canadiense, en 2017, seguido de los de China, Reino Unido, Australia, Alemania, Francia, Bélgica, India, hasta, de modo más reciente, el de Brasil, entre otros (Radu, 2021; Fjeld et al., 2020; Daly et al., 2019). Podría discutirse sobre la jerarquía legal de estos documentos regulatorios en tanto varios de ellos pasan todavía por declaraciones de principios o solo lineamientos; pero, de cualquier modo, son medidas activas, impulsadas por los Estados para intentar poner contrapesos y controles a la creación y uso de los modelos de inteligencia artificial. 

 

Respecto a la perspectiva tecnológica como tal, las IA pueden incluir una amplia cantidad de modalidades con innumerables aplicaciones, las cuales, en la actualidad, son cada vez más diversas y complejas. Estas tecnologías pueden ir desde el uso de algoritmos para filtrar información o automatizar decisiones relacionadas con marketing, la asignación de puntaje crediticio, el perfilamiento de personas (Andraško et al., 2021) hasta sistemas más complejos de vigilancia pública, generación de contenidos audiovisuales, manejo de vehículos, asistentes de voz, entre muchas otras aplicaciones. Nos encontramos apenas en el ápice de lo que puede ser una tecnología tan revolucionaria como lo fue el mismo internet; por ello, ante la incertidumbre que implican todas las posibilidades que las IA pueden adoptar en sus formas y usos, su regulación es compleja y podría quedar obsoleta en el corto plazo, debido a los usos que recién vamos descubriendo. En ese sentido, con dificultad la propia condición de posibilidad de la tecnología podrá moldear su regulación, porque su aplicación puede ser excesivamente amplia.

 

A pesar de ello, en la práctica, y en función del temor que genera su aplicación, la regulación de la IA se muestra como un valor en sí mismo que puede dar más confianza para que su desarrollo continúe (Smuha, 2021). Esto significa que las perspectivas más liberales del laissez faire y de la autorregulación ya no son viables para este tipo de tecnología, por lo tanto, hay mayor proactividad para regularla que para no hacerlo (Butcher y Beridze, 2019).

 

Es así como en los últimos años se ha venido llevando a cabo la denominada “carrera por la regulación de la IA”, la cual se evidencia en una cantidad considerable de mecanismos regulatorios, diseñados y publicados. En 2020, Fjeld et al. (2020) identificaron al menos 36 documentos de referencia de diversos actores; Radu (2021), por su parte, contabilizó 30 documentos nacionales que estaban siendo elaborados en ese mismo año. Gutierrez y Marchant (2021) mencionan 634 iniciativas de soft law con respecto a la IA, de las cuales, más de 90 % se publicaron entre 2016 y 2019, sobre todo en Europa y Norteamérica. Es decir, y volviendo al punto de inicio, la cuestión es cómo será orientado el proceso de regulación, qué se regulará y de qué forma.

 

Capas de complejidad en la regulación y gobernanza de las IA

La carrera por la regulación de la inteligencia artificial, como se mencionó en los apartados anteriores, va en constante aceleración, en función de la inercia propia de la transformación digital. La regulación establecida hasta el momento visibiliza capas que van moldeando la profundidad que esta tendrá, aunque de manera todavía imperfecta, holística y adaptativa. Al respecto, a continuación abordamos tres de las capas presentes en el debate: disyuntiva débil-fuerte, enfoque adaptativo y gobernanza.

 

2.1 Disyuntiva débil-fuerte

La disyuntiva entre regulación débil y regulación fuerte implica, por un lado, asumir marcos de menor control sobre el desarrollo y aplicación de tecnologías de la IA, lo cual puede resultar en un margen de acción más favorable para empresas y creadores, o bien, por otro, en la elaboración de lineamientos y normativas que establezcan un mayor monitoreo y control sobre los diferentes elementos que conforman la IA. Así, mientras la regulación débil puede estar más asociada a marcos basados en la ética, la fuerte, en cambio, integra más perspectivas de derechos humanos.

 

2.1.1 Regulación débil 

En términos de la carrera por la regulación, una de tipo débil se limitaría a generar lineamientos, directrices o recomendaciones, por lo común no vinculantes y con poca capacidad de forzar su cumplimiento. A su vez, se centraría en potenciar la capacidad de creación y desarrollo de las tecnologías de IA –incluyendo, por ejemplo, subsidios, rebajas de impuestos o flexibilidad migratoria de recursos humanos– (Smuha, 2021). Siguiendo el marco propuesto por Lessig (1999), se trata, entonces, de un tipo de regulación más afianzada en el mercado y la competitividad, para que tanto empresas como Estados puedan crear, con mayor facilidad, las IA, así como innovar y generar mayor valor a través de ellas. 

 

2.1.1.2 Regulación sobre la base de marcos éticos

Ante los temores asociados a un mayor uso de las inteligencias artificiales, surgió como alternativa regulatoria la creación de marcos y lineamientos basados en la ética. Estos, si bien no son necesariamente débiles ni se enfocan en lo comercial, sí están asociados a esquemas de autorregulación y muestran insuficiencias para forzar su cumplimiento. Los marcos éticos de regulación de la IA son una reflexión en torno a la moralidad y sirven como autorreflejo del funcionamiento adecuado de lo esperable de la propia tecnología; es decir, la ética no busca satisfacer contextos normativos específicos, sino determinar qué es correcto o incorrecto con respecto a la aplicación que de ella se hace (Daly et al., 2019).

Los marcos éticos están siendo utilizados de forma amplia, debido a que proveen mayor margen de adaptación a distintos contextos, incorporando consideraciones con respecto a sistemas de valores, tradiciones y culturas (Castillo y Martínez, 2021). Además, estos pueden actualizarse con facilidad y adaptarse a la evolución de la propia tecnología (Rességuier y Rodrigues, 2020). Organismos internacionales, como el World Economic Forum (WEF), el Instituto de Ingenieros Electrónicos y Eléctricos (IEEE), la Organización para la Cooperación y el Desarrollo Económicos (OCDE) y la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (UNESCO, por sus siglas en inglés), son algunos de los principales impulsores de estos marcos, en tanto permiten tomar decisiones “en situaciones en las que lo correcto y lo incorrecto, lo bueno y lo malo, no están claramente definidos” (WEF, 2019, citado en Castillo y Martínez, 2021). 

El Marco ético mundial sobre la inteligencia artificial, de la UNESCO, aprobado y publicado en noviembre de 2021, es quizás el instrumento de mayor referencia en este sentido. Los objetivos planteados en el documento se relacionan con la aportación a un “marco universal de valores, principios y acciones para orientar a los Estados en la formulación de sus leyes y políticas y otros instrumentos relativos a las IA” (UNESCO, 2021, pp. 14-15). 

A pesar de sus múltiples puntos positivos y de la mención a los derechos humanos –en el caso del Marco ético de la UNESCO–, la ética de la IA es vista por varios autores como holística y filosófica, lo cual la vuelve ambigua en su operación (Castillo y Martínez, 2021; Jones, 2023). Así, los principios éticos no otorgan suficiente protección, ante la falta de instrumentos que guíen la forma de operarlos y traducirlos a la práctica (Aguerre, 2022). De acuerdo a un análisis de Algorithm Watch (2021), de 160 directrices de IA solo 10 tienen aplicaciones prácticas, pues dependen mucho de sus contextos e interpretación, lo que las hace renunciar a cualquier pretensión de generalización y universalidad. Además, la ética no reemplaza a la regulación normativa, pues al carecer de mecanismos de sanción, es deficiente para poder asegurar su cumplimiento (Rességuier y Rodrigues, 2020). 

 

De acuerdo con Velasco y Venturini (2021), en América Latina varias iniciativas que utilizan tecnologías de IA no solo no cumplen con los lineamientos éticos, sino que incluso aplican acciones contradictorias, en específico, en Argentina, Colombia, Chile, Brasil y algunos países que se adhirieron a las recomendaciones del Consejo sobre IA de la OCDE. Por ejemplo, se señalan los casos del Sistema Nacional de Empleo (Brasil), el Sistema Alerta Niñez (Chile) y el Proyecto PretorIA (Colombia) –este último para clasificar sentencias en la Corte Constitucional–, los cuales tienen en común problemas sobre consentimiento informado, decisiones discrecionales y sesgos comprobados a partir de falsos positivos, así como falta de auditorías y de transparencia con respecto al procesamiento de información (Velasco et al., 2021).

Por tanto, usar los marcos éticos en reemplazo de una regulación de tipo legal que resuelva algunos de los aspectos mencionados, es un problema y puede ser considerado como un mal uso de su potencial, pues estos marcos pueden ser útiles para orientar, mas no para establecer límites y controles necesarios (Rességuier y Rodrigues, 2020). En ese sentido, se sugiere que los marcos éticos sean complementarios a una normativa más específica y basada en derechos humanos. Tanto la ética como los derechos humanos comparten una racionalidad de contrapesos y de colocar a las personas en el centro de las decisiones (Aguerre, 2022; Jones, 2023); entonces, los derechos humanos deberían ser centrales al momento de regular la IA. Pero aún no lo son, justo porque la discusión sobre la IA se ha mantenido orientada hacia la industria –desde una perspectiva quizás de mercado–, dejando de lado las discusiones de una regulación más dura (Jones, 2023).

 

2.1.2 Regulación fuertePor otro lado, un tipo de regulación fuerte se centraría menos en dar forma a un ecosistema propicio al desarrollo de las IA y más en minimizar los impactos adversos de las tecnologías.  Desde esta perspectiva, cualquier regulación fuerte es necesariamente normativa –una ley o  política pública con capacidad sancionatoria–, pues requiere “dientes” para lograr su cumplimiento. Además, en términos institucionales, también tiene la potencialidad de crear entidades que resguarden su vigencia, y lineamientos más precisos que los éticos. 

 

2.1.2.1 Derechos humanos

Aunque no es una característica sine qua non, la regulación fuerte estaría más asociada al enfoque de derechos humanos, pues a diferencia de los marcos éticos, estos cuentan con un cuerpo normativo que permite su cumplimiento y sanción. En un momento en el que las tecnologías de IA han empezado a ser aplicadas en diferentes ámbitos, con impactos reales en la vida de las personas, comenzó también el cuestionamiento a los marcos éticos por ser insuficientes en sí mismos, e inició la consideración de los derechos humanos como una perspectiva de gobernanza para la inteligencia artificial (Aguerre, 2022).

 

De acuerdo con Mantelero (2022), hay tres posibles aproximaciones a la regulación de la IA desde los derechos humanos. La primera consiste en un acercamiento basado en principios y permite una perspectiva más general y global; asimismo, identifica los cambios que la IA traerá a la sociedad y la relaciona o contextualiza respecto a los preceptos internacionales de derechos humanos, pero sin redefinir cada área de aplicación. La segunda implica centrarse en el manejo de riesgos y salvaguardas a derechos individuales, con mayor especificidad. La tercera aproximación, relacionada con la anterior, pone énfasis en la seguridad de aplicación (safety concern), en especial en aquellos riesgos mayores (Mantelero, 2022). La regulación AI Act, aprobada en junio de 2023 por el Parlamento europeo, entraría en la tercera clase de aproximación, la cual se caracteriza por introducir una tipología de usos de la IA basada en tres riesgos: inaceptable, alto y bajo o mínimo (Aguerre, 2022). El debate, en este sentido, no ha estado ausente de críticas, dado que la perspectiva que parte del riesgo es considerada útil desde lo técnico, en particular para que las empresas puedan determinar los marcos comprensivos de sus tecnologías; pero problemática cuando se intenta llevarla al campo de los derechos humanos, y por los abusos ex post (Onitiu, 2022; Algorithm Watch, 2021).

 

A su vez, la gobernanza de la IA basada en derechos no está ausente de complicaciones. Puesto que los derechos humanos no fueron pensados desde su relación con las tecnologías, deben ser traducidos u operacionalizados en el marco de lo que implica el diseño de estas últimas (Velasco y Venturini, 2021). Asimismo, existen argumentaciones acerca de que una regulación más dura puede afectar a la propia innovación y avance tecnológico. En ese sentido, Jones (2023) alega que más bien al tener los derechos humanos un carácter universal, vinculante, reconocido en el derecho internacional y, en la mayoría de los casos, contar con una base normativa en cada país, son un marco de fácil referencia y aplicabilidad. Al mismo tiempo, señala, son menos complejos de lo que parece, pues ya están identificados y estandarizados (Jones, 2023).

 

2.2  Adaptaciones regulatoriasLa inteligencia artificial es abarcadora de tecnologías ya existentes con sus propias complejidades y necesidades de regulación; surge entonces la cuestión respecto a si puede ser regulable a partir de la suma de otras regulaciones –varias ya disponibles, como la protección de datos personales, ciberseguridad o transparencia– o si requiere una aproximación específica y especializada, o bien, complementaria.

 

2.2.1  Protección de datosLos modelos de inteligencia artificial son intensivos en datos, pues estos son necesarios para generar aprendizaje y obtener resultados. Ello necesariamente sujeta a las IA a regulación mediante legislaciones de protección de datos (Andraško et al., 2021; Rodrigues, 2020). En el caso de Europa, el Reglamento General de Protección de Datos (RGPD) tiene aplicación directa y ya ha sido usado para ejecutar acciones en contra del modelo de IAG ChatGPT[3]. El  RGPD incluye aspectos susceptibles de regulación de la IA, como aquellos referidos a la protección del titular del dato, al derecho a la portabilidad de datos, a no ser sujeto de decisiones automatizadas, a la transparencia con respecto al procesamiento de datos, así como a la provisión de la protección de datos por diseño en el desenvolvimiento de cualquier tecnología (Andraško et al., 2021; Rodrigues, 2020). Aunque, debido al rápido desarrollo de las IA, la legislación de protección de datos falla al contemplar y resolver aspectos de uso y consentimiento de datos en procesos complejos, porque no puede siquiera facilitar la transparencia de dichos procesos (Mantelero, 2022). 

 

En América Latina, la situación es todavía más compleja. Si bien en algunos países hubo avances proactivos a nivel normativo –como Argentina y Chile, pioneros en protección de datos, que aprobaron leyes a inicios de la década de 2000 y para 2023 planteaban actualizaciones y segundas generaciones de esas leyes–, en otros apenas se está en proceso de discusión o recién se ha aprobado la legislación correspondiente (Ecuador, Paraguay, Bolivia). Más allá de eso, la falta de institucionalidad en las autoridades de protección, las excepciones y salvedades incluidas por algunos países –por ejemplo, Brasil con respecto al consentimiento del tratamiento de datos personales en políticas públicas– y el poco cumplimiento de la normativa vuelven insuficiente a esta última (Velasco et al., 2021). Tomando en cuenta estos puntos, es indispensable ahondar en la protección de datos personales. Las personas tienen derecho a objetar el procesamiento de sus datos así como las acciones ejecutadas por la IA, incluso en procesos complejos, como el aprendizaje profundo. La objeción por diseño ha sido propuesta como una aproximación para proteger a las personas de decisiones basadas en procesos automatizados (Rodrigues, 2020).

 

2.2.2 Transparencia y participación ciudadanaLa transparencia y la participación ciudadana son principios necesarios y condicionales del fortalecimiento de la confianza en los sistemas de IA, sobre todo en tanto estos tienen una afectación tan importante en derechos fundamentales y cuyo funcionamiento puede generar tantos riesgos (Velasco et al., 2021). No obstante, si bien la transparencia, el acceso a información y la rendición de cuentas se hallan reconocidos en un gran conjunto de normativas internacionales, en el contexto de las IA son un tema bastante debatido y asumido con debilidad. 

La transparencia con respecto a las IA, por un lado, se refiere a la posibilidad de explicar el funcionamiento de estas tecnologías, que, como se mencionó, a menudo es complejo porque requiere análisis técnicos. Por el otro, cuando las personas son sujetas a análisis o procesos automatizados, implica la clara y debida información de los impactos o resultados que estos procesos puedan tener (Mantelero, 2022).  En el caso europeo, los principios de transparencia y rendición de cuentas son reconocidos en la Convención 108 sobre protección de individuos en el procesamiento de datos. No obstante, si bien la IA Act de la Unión Europea incluye de forma explícita el derecho a la transparencia algorítmica, han sido mencionados vacíos y ambigüedades con respecto a su interpretación (Sinha, 2022).  En América Latina, las leyes nacionales de acceso a información y transparencia son reconocidas y reguladas por el Sistema Interamericano de Derechos Humanos, con obligaciones específicas para los Estados. No obstante, de acuerdo al análisis de Velasco et al., 2021, en los sistemas implementados en Brasil, Colombia, Chile y Uruguay, los cuales poseen normativa al respecto, se verificaron deficiencias en transparencia activa, inclusión de la ciudadanía en la toma de decisiones y debida provisión de información y consentimiento, para llevar adelante una serie de procesos que han mostrado afectación a derechos. 

2.3 Enfoques de gobernanzaLa última capa a tratar se refiere, en específico, a la toma de decisiones con respecto al desarrollo e implementación de las IA. A partir de las interrogantes ¿quién gobierna la IA? ¿bajo qué perspectivas o priorizando qué aspectos?, a continuación revisamos distintas perspectivas en torno al rol del Estado, empresas y enfoques participativos.

 

2.3.1  El rol del EstadoEl Estado es un actor proactivo en la definición de la regulación de la inteligencia artificial, sobre todo en lo concerniente a la búsqueda de mayor control y capacidad de fiscalización para las empresas que desarrollan estas tecnologías (Radu, 2021). Además, este control puede tomar diversas formas, incluyendo leyes sectoriales y de protección de datos: procuraduría pública, protección del consumidor, salud, antimonopolio, etcétera (Smuha, 2021). Son varios los Estados que ya se encuentran elaborando sus marcos normativos, principalmente en los países más desarrollados del Norte global (Fjeld et al., 2020). En este sentido, la perspectiva, hasta este punto, ha sido la de la competencia por “quién llega primero”, con una rivalidad clara y directa entre las principales potencias, que se evidencia en menciones explícitas en sus políticas a la preservación de sus posiciones globales, tanto económicas como militares (Daly et al., 2019).

La carrera regulatoria también se efectúa en función de la influencia global. Desde esa perspectiva, la Unión Europea, por lo común, es referencia de regulación para otros países, además de que cuenta con un impacto notorio a nivel de operación en las grandes empresas, debido al tamaño de su mercado (Andraško et al., 2021). Por ende, se espera que, al igual que con el RGPD, la AI Act marque la orientación de la legislación en esta materia para otras regiones.

 

Sin embargo, los intereses y necesidades entre el Norte global y América Latina no son con exactitud los mismos. Mientras que en los países del primero hay una mayor tendencia a generar contrapesos con relación a las grandes empresas y plataformas, porque en esa región las empresas administran la mayor cantidad de datos, en los países latinoamericanos la situación es diferente. Aquí, el Estado es, en realidad, el que produce y administra la mayor cantidad de datos, y probablemente sea el principal implementador de las inteligencias artificiales (Aguerre, 2022). 

 

La anterior situación puede repercutir en la noción de agencia y responsabilidad distribuida; por tanto, es necesario establecer instituciones responsables y, en términos jurídicos, independientes (Aguerre, 2022). Además, la utilización inadecuada de sistemas de IA por parte de autoridades, jueces y funcionarios públicos ya se ha hecho evidente en una multiplicidad de casos en los que se consulta a modelos como ChatGPT, sobre sentencias jurídicas y decisiones para las que no fueron creados. Ante esta mala praxis, en un momento de aceleradas transformaciones digitales en el sector público, se requiere aún más atención y regulación en el uso de la inteligencia artificial (Bustos, 2023). 

 

Si bien con un rezago considerable algunos gobiernos latinoamericanos, como el de Brasil, Chile, Colombia, México, Uruguay y Argentina, comenzaron a desarrollar sus marcos regulatorios de IA entre 2020 y 2021, en varios de estos casos hay mínimas referencias a la ética o los derechos humanos (Aguerre, 2022). Incluso, desde la perspectiva de la legislación europea, varios sistemas que los Estados están implementando o buscan implementar, tanto para el control y vigilancia de la población como para la toma de decisiones sobre datos sensibles, ingresarían en la categoría de alto riesgo (Aguerre, 2022; Velasco et al., 2021).

 

2.3.2 Autorregulación y enfoque privadoLas grandes empresas de tecnología, como Google, Meta, Microsoft y Apple, se encuentran, de igual modo, en la competencia del desarrollo y regulación de la IA, incluso por delante de las potencias antes mencionadas. Google, por ejemplo, elaboró su iniciativa de ética de la IA antes que la mayoría de los países (2017). Estas empresas poseen enormes ventajas en el entendimiento de las tecnologías de IA, tanto porque cuentan con más recursos e información para entrenarlas (Taeihagh, 2021) como por su propia vocación. A la larga, esto puede ocasionar una brecha de capacidad tecnológica, que los gobiernos, en su función de reguladores, difícilmente lograrán reducir, dando por resultado regulaciones muy generales, o bien solo enunciativas (Taeihagh, 2021).

Una de las ventajas de la autorregulación es que puede ser adoptada de forma más rápida, pero ello implica varios problemas futuros para su cumplimiento, tales como el enforcement. A su vez, incluye aún menos la perspectiva de diferentes partes interesadas, debido a que las empresas y desarrolladores de IA no tienen ningún tipo de obligación para tomar en cuenta a otros actores en el diseño de mecanismos regulatorios (Taeihagh, 2021). En la práctica, el interés primordial de las empresas para la autorregulación bien puede provenir de una táctica de ethics washing, con la cual sea posible evitar mayores regulaciones a futuro (Radu, 2021). De hecho, en ocasiones se han adoptado marcos éticos a manera de desincentivar una eventual regulación más dura y basada en la normativa (Jones, 2023).

 

2.3.3 Múltiples partes interesadasEl enfoque de gobernanza de múltiples partes interesadas (multistakeholder) ha venido siendo impulsado desde hace varios años, incluso décadas, en lo que respecta a la toma de decisiones sobre los recursos críticos de internet y otros ámbitos. Este tipo de enfoque tiene varios beneficios: primero, ayuda a fortalecer estándares regulatorios más óptimos y transparentes para todos; segundo, permite identificar desafíos y problemas comunes fortaleciendo la capacidad predictiva con respecto al futuro de la implementación de la tecnología (Butcher y Beridze, 2019), y tercero, facilita el acceso a modelos regulatorios de calidad en los países menos desarrollados y carentes de condiciones para invertir en equipos especializados.

Al mismo tiempo, en tanto estas tecnologías implican serios riesgos –ya abordados aquí–, la evaluación de esta materia debería adoptar un enfoque participativo, sobre todo por parte de quienes resultan más afectados. Las personas, grupos y otras partes interesadas deben ser informados y desempeñar un rol crítico en la discusión y toma de decisiones con respecto a estándares, lineamientos y normativas (Mantelero, 2022). Los organismos internacionales han sido estratégicos para, mediante sus recursos, influencia y capacidades, impulsar espacios de gobernanza y soft law. Estos se convirtieron en espacios de discusión y debate para el establecimiento de estándares regulatorios que, en el mejor de los casos, incluyen perspectivas de la sociedad civil y que con frecuencia son un referente para los países pequeños y del Sur global (Smuha, 2021). Un ejemplo de ello son los lineamientos de la OCDE, la cual ha sido uno de los primeros organismos en desarrollar un borrador de criterios para la IA, con estándares que aseguren su aplicación segura, justa, robusta y de confianza (Smuha, 2021). Estos lineamientos han tenido especial influencia en Argentina, Brasil, Costa Rica, Perú, Chile, Colombia y México (Aguerre, 2022). 

A pesar de la suma conveniencia de los modelos de múltiples partes interesadas, en lo concerniente a la IA este enfoque aún no se ha extendido. De acuerdo a un mapeo de iniciativas de soft law, realizado por Gutierrez y Marchant (2021), menos del 21 % fueron resultado de alianzas multistakeholder, frente al resto de iniciativas que derivaron, en gran medida, de esfuerzos individuales por parte de empresas y Estados. La mayor aceleración tecnológica en la adopción de la IA está siendo impulsada de manera privada y por medio de un aprendizaje individual que solo incentiva lógicas de free-rider, comportamientos fragmentados y oportunistas y una carrera a la baja en materia de estándares (Bustos, 2023). 

 

2.3.4 Gobernanza híbrida y convergenciaLas inteligencias artificiales, como hemos visto hasta aquí, son una innovación disruptiva que genera desafíos y cambios, los cuales no necesariamente han sido resueltos mediante los enfoques de gobernanza y regulación más tradicionales. Por tanto, se requiere una adecuación constante y rápida. En este sentido, algunos autores proponen modelos híbridos y adaptativos (Taeihagh, 2021; de Almeida, 2021). Los modelos híbridos pueden adoptar diversas formas, desde la corregulación y la autorregulación forzada hasta la metarregulación, todas las cuales implican colaboraciones público-privadas que se adapten al contexto de cada situación (Hemphill, 2016, citado en Taeihagh, 2021). Es decir, este tipo de regulación se aleja de las perspectivas más proteccionistas y de búsqueda de control, para transitar hacia modelos flexibles y ajustables en los que los diferentes actores pueden cooperar y converger (Taeihagh, 2021).

Un modelo así sería incluso más deseable, que formas de regulación forzada que pueden dañar la innovación y los propios derechos humanos que se intenta proteger, debido a una aplicación deficiente y sin controles adecuados (Caron y Gupta, 2020). De modo que la toma de decisiones dinámica y la regulación híbrida facilitan el proceso de aprender a hacer, a la vez que fortalecen relaciones. No obstante, estas últimas pueden tornarse conflictivas, como ocurre en la relación público-privada (de Almeida, 2021). 

Por otro lado, la emergencia de una gran cantidad de marcos, guías y documentos, que se vienen planteando en paralelo, podría generar una suerte de convergencia de perspectivas (Smuha, 2021; Fjeld et al., 2020). La similitud de perspectivas es una consecuencia normal por varias razones. Primero, los desafíos de la IA son comunes a todos los países. Segundo, al ser la IA un tema nuevo en términos relativos, sigue habiendo un desconocimiento general acerca de sus alcances e implicaciones, lo cual conlleva que para facilitar la regulación, se opte por emular lo que ya existe. Tercero, la interdependencia global a nivel económico y tecnológico entre países e, incluso, empresas genera una evidente necesidad de estandarizar procesos, protocolos, lenguajes y todo aquello que derive en la fácil y rápida aplicabilidad de la IA (Smuha, 2021).

Esta convergencia es conveniente para los usuarios y usuarias, porque supone que puede haber un nivel medio entre la carrera hacia la cima (race to the top) y la carrera hacia el fondo (race to the bottom), con salvaguardas básicas sobre la aplicación de la IA (Smuha, 2021). De igual forma, en un escenario internacional ideal, implica que ningún país vaya a alguno de los extremos, tanto para no perder competitividad como para evitar estar en lo mínimo (Smuha, 2021). La única cuestión es quién define qué es lo mínimo y qué es lo máximo. ¿Lo define la próxima legislación europea, como lo hizo con respecto a la protección de datos? ¿Lo define el país líder en desarrollo de la IA? ¿Lo definen las empresas, que son las que tienen más capacidades de aplicación de la IA en nuestras vidas? La variable de poder, eso sí, es una cuestión que no está fuera de la ecuación.

 

Conclusiones

El acelerado e intensivo uso que se le está dando a las tecnologías de inteligencia artificial (IA), sobre todo en países de América Latina en los que no existen salvaguardas suficientes, conlleva serios riesgos con múltiples afectaciones a los derechos humanos. La aplicación de la IA sin control ni perspectivas críticas ni comprensión respecto a sus alcances muestra la presión por saber “quién llega antes” en el aprovechamiento tecnológico. En este punto, la regulación de la inteligencia artificial ya no está en cuestión, y cualquier atisbo de autorregulación ya no es posible, sino que se evidencia, cada vez más, la gran cantidad de normativas y lineamientos que se han ido generando. La regulación es la manera de devolver confianza a un tipo de tecnología que infunde temor e incertidumbre con respecto a su futuro. En este sentido, la reciente AI Act, de la Unión Europea, es un hito que posiblemente influenciará futuras legislaciones, incluyendo las del Sur global.

No obstante, la regulación europea no es ni el inicio ni la meta. La carrera por la regulación de la IA tiene aún varios desafíos por delante, a través de los cuales se visibilizan capas que van modelando la profundidad que adoptará, mostrando, a su vez, imperfecciones, improvisaciones y adaptaciones. La primera de esas capas es la disyuntiva entre regulación débil y regulación fuerte. La regulación débil se centra en potenciar las facilidades del desarrollo e innovación de estas tecnologías, priorizando la competitividad. Aunque no corresponden con exactitud a un tipo de regulación débil, los marcos éticos ayudan a determinar lo que es correcto o incorrecto con respecto a la aplicación de las tecnologías, a la vez de que brindan un amplio margen de adaptación, pero sin otorgar suficiente protección, pues carecen de capacidad para forzar su cumplimiento. La regulación fuerte, por su parte, se enfoca en establecer mayores controles y sanciones. Los derechos humanos son una base para una regulación más fuerte, porque además de estar más estandarizados, se encuentran incluidos en marcos normativos nacionales e internacionales y permiten cumplimiento y sanción.

La segunda capa se refiere a las adaptaciones respecto a regulaciones ya existentes. Varios países cuentan con normativas de protección de datos personales, ciberseguridad y transparencia, que pueden ser utilizadas para regular la IA. En lo concerniente a protección de datos, si bien en Europa se tiene el Reglamento General de Protección de Datos y varios países de América Latina han aprobado leyes similares –aunque no ha sido así en otros–, hay muchas dificultades, debido a las excepciones y la falta de institucionalidad de autoridades de protección de datos, que reducen la eficacia de esos instrumentos. Respecto a la transparencia, por lo general las IA son vistas como cajas cerradas cuyos procesos, a menudo, no se transparentan, arguyendo su complejidad. La ley y el marco internacional de acceso a información y transparencia resultan insuficientes, incluso, en la legislación europea se observan ambigüedades al respecto. Por ende, es necesario profundizar en la regulación, a partir de marcos normativos específicos y especializados, que refuercen los existentes.

La última capa se refiere a la gobernanza en relación con la regulación de la IA. La iniciativa privada, mediante la autorregulación, ha sido pionera en la búsqueda por implementar marcos éticos que sorteen regulaciones más duras. No obstante, los Estados, de forma notoria en los últimos años, han sido más proactivos para impulsar nuevas regulaciones, en razón de la fiscalización que buscan efectuar en las grandes empresas, pero también por la carrera geopolítica del control tecnológico. Al respecto, existen alternativas a las perspectivas estatal y privada, por ejemplo, el modelo de múltiples partes interesadas, el cual permitiría regulaciones más transparentes, participativas y adaptables a diferentes contextos. Sin embargo, la mayoría de las iniciativas que surgen de este tipo de gobernanza se quedan en esfuerzos de soft law con poca capacidad vinculante. Otra alternativa es la gobernanza híbrida, con modelos que cada vez tienen mayor convergencia y en los cuales entran sistemas de corregulación, metarregulación o entornos controlados (sandboxes). Estos últimos tienen beneficios, pues son más flexibles ante una tecnología cambiante, aunque no dejan de ser experimentales. 

Si bien el desarrollo de la regulación de la inteligencia artificial es incipiente, esta carrera muestra todavía varios desafíos. Los Estados que sigan a la regulación europea deberán profundizar en la comprensión sobre los alcances de una tecnología que aún se encuentra en exploración, pero cuyo uso es cada vez más intensivo y de mayor riesgo. Una posibilidad factible para esos países pueden ser los sandboxes regulatorios. Cabe agregar que estos son procesos de experimentación para la regulación de nuevos modelos de negocio, tecnología e innovaciones, que permiten probar a escala baja y costes reducidos, en espacios aislados y tiempos acotados, opciones de regulación, que luego pueden ser escaladas con más amplitud. Asimismo, estos procesos están caracterizados por un enfoque de ensayo y error así como por posibilitar una mayor colaboración público-privada entre las partes interesadas. De modo que este tipo de entornos tiene algunos impactos positivos, ya que promueven la inversión de capital de riesgo, la comunicación y confianza entre reguladores y empresas, la capacidad y flexibilidad adaptativa, así como los aprendizajes continuos; por ello, son recomendados para tecnologías como las de la inteligencia artificial (OECD, 2023).

El actual escenario es más de competencia entre países y sectores en torno a quién llega primero a dominar la IA, que de cooperación. Esa perspectiva debe cambiar y dar paso a modelos más participativos e inclusivos, si queremos que las próximas regulaciones respondan a la realidad a la que nos confrontarán las tecnologías de la inteligencia artificial.

 

Referencias

Aguerre, C. (2022). Instituciones estatales contemporáneas e inteligencia artificial. En, Instituto de Capacitación Parlamentaria (ICaP), Inteligencia artificial y política. Los desafíos de una tecnología acelerada en las instituciones contemporáneas. Teseo Press.

 

Aguerre, C., Ferracuti, D., Kirschbaum, I., Levy Daniel, M., y Perini, A. (2021). El papel de la ética en el desarrollo de sistemas de inteligencia artificial en el sector emprendedor en América Latina. Centro de Estudios en Tecnología y Sociedad (CETyS)-Universidad de San Andrés; Centro Latam Digital (CLD).

 

Algorithm Watch. (2020). In the realm of paper tigers – exploring the failings of AI ethics guidelines. https://algorithmwatch.org/en/ai-ethics-guidelines-inventory-upgrade-2020/

 

Algorithm Watch. (2021). EU policy makers: Protect people’s rights, don’t narrow down the scope of the AI Act. https://algorithmwatch.org/en/statement-scope-of-eu-ai-act/

 

Andraško, J., Mesarčík, M., & Hamuľák, O. (2021). The regulatory intersections between artificial intelligence, data protection and cyber security: challenges and opportunities for the EU legal framework. AI & Soc, 36, 623-636. https://doi.org/10.1007/s00146-020-01125-5

 

Bustos, A. (2023). IA generativa y transformación digital responsable en el ámbito público judicial. CETyS. https://cetys.lat/ia-generativa-y-transformacion-digital-responsable-en-el-ambito-publico-judicial/

 

Butcher, J., & Beridze, I. (2019). What is the State of Artificial Intelligence Governance Globally? The RUSI Journal, 164(5-6), 88-96.

 

Caron, M. S., & Gupta, A. (2020). The social contract for AI. Cornell University. 

 

Castillo, E., y Martínez, C. (2021). Uso responsable de tecnología en Latinoamérica y el Caribe. Ejemplos de modelos y herramientas del Norte y Sur global. Oportunidades y desafíos desde una perspectiva ética y de derechos humanos. CETyS-Universidad de San Andrés; CLD.

 

Daly, A., Hagendorff, T., Hui, L., Mann, M., Marda., B., Wagner, B., Wang, W., & Witteborn, S. (2019). Artificial Intelligence Governance and Ethics: Global Perspectives. University of Hong Kong.

 

Derechos Digitales (2021). Inteligencia Artificial y Derechos Humanos. Algunos conceptos básicos

https://ia.derechosdigitales.org/wp-content/uploads/2022/05/DD_IA_01.pdf

 

Fjeld, J., Nele, A., Hilligoss, H., Nagy, A., & Srikumar, M. (2020). Principled Artificial Intelligence: Mapping Consensus in Ethical and Rights-based Approaches to Principles for AI (Research Publication No. 2020-1). Berkman Klein Center for Internet & Society.

 

de Almeida, P.G.R., dos Santos, C.D. & Farias, J.S. (2021). Artificial Intelligence Regulation: a framework for governance. Ethics Inf Technol 23, 505–525.

 

Gutierrez, C. I., & Marchant, G. (2021). A Global Perspective of Soft Law Programs for the Governance of Artificial Intelligence. Sandra Day O’Connor College of Law at Arizona State University.

 

Jones, K. (2023). AI governance and human rights. Resetting the relationship (research paper, International Law Program). Chatham House.

 

Lessig, L. (1999). The Law of the Horse: What Cyberlaw Might Teach. Harvard Law Review, 113(2), 501-549. 

 

Levy Daniel, M. (2023). The Technosolutionism Trap: The Risky Use of Tech by the Colombian Judiciary. Tech Policy Press.

https://techpolicy.press/the-technosolutionism-trap-the-risky-use-of-tech-by-the-colombian-judiciary/

 

Mantelero, A. (2022). Regulating AI. In Beyond Data. Human Rights, Etical and Social Impact Assessment in AI (pp. 139-183). Information Technology and Law Series, vol. 36. Asser Press; Springer.

 

Onitiu, D. (2022). How a human rights perspective could complement the EU’s AI Act. LSE.

https://blogs.lse.ac.uk/europpblog/2022/01/31/how-a-human-rights-perspective-could-complement-the-eus-ai-act/

 

Radu, R. (2021). Steering the governance of artificial intelligence: national strategies in perspective. Policy and Society, 40(2), 178-193.

 

Rességuier, A., & Rodrigues, R. (2020). AI ethics should not remain toothless! A call to bring back the teeth of ethics. Big Data & Society, 7(2).

 

Rodrigues, R. (2020). Legal and human rights issues of AI: Gaps, challenges and vulnerabilities.  Journal of Responsible Technology, 4(2002), 100005.

 

Sinha, A. (2022). Navigating Transparency in EU’s AI Act. Mozilla.

https://foundation.mozilla.org/en/blog/navigating-transparency-in-eus-ai-act/

 

Smuha, N. A. (2021). From a ‘race to AI’ to a ‘race to AI regulation’: regulatory competition for artificial intelligence. Law, Innovation and Technology, 13(1), 57-84

 

Taeihagh, A. (2021). Governance of artificial intelligence. Policy and Society, 40(2), 137-157.

UNCTAD (2021). Data Economy Report 2021. Cross-border data flows and development: For whom the data flow.

https://unctad.org/system/files/official-document/der2021_es_0.pdf

 

UNESCO (2021). Recomendación sobre la ética de la inteligencia artificial.

https://unesdoc.unesco.org/ark:/48223/pf0000381137_spa

 

Velasco, P., y Venturini, J. (2021). Decisiones automatizadas en la función pública en América Latina. Una aproximación comparada a su aplicación en Brasil, Chile, Colombia y Uruguay. Derechos Digitales.

 

Biografía del autor

Cristian Leon Coronado. Director de la Fundación InternetBolivia.org y secretario de Al Sur, consorcio de 11 organizaciones de derechos digitales en América Latina. MSc. en Desarrollo Internacional (Universidad de Bristol, Reino Unido), con posgrados en Derechos Sociales, Económicos y Culturales (Universidad de Ginebra), Gobernanza de Internet (CETyS) y Educación Superior (UMSA). Anteriormente, fue director programático de Asuntos del Sur (Argentina), consultor en el Banco Mundial en protección de datos, Senior fellow en integridad digital del Open Tech Fund, investigador en tecnología y sociedad del Centro de Investigaciones Sociales de la Vicepresidencia de Bolivia. Ex becario Chevening. 

Notas

Notas
1 Modelos de inteligencia artificial enfocados en la generación de contenidos (textos, imágenes, videos, entre otros), a partir de indicaciones específicas (prompts).
2 Es la propuesta de legislación de la Unión Europea para regular las inteligencias artificiales. Más información en: https://artificialintelligenceact.eu/
3 ChatGPT fue temporalmente prohibido en algunos países, como Italia, y en España y Francia hubo intentos de prohibición: https://www.theverge.com/2023/5/5/23709833/openai-chatgpt-gdpr-ai-regulation-europe-eu-italy https://www.politico.eu/article/chatgpt-world-regulatory-pain-eu-privacy-data-protection-gdpr/