Costa Rica ocupa cuarto lugar en América Latina del Índice de IA responsable
Costa Rica ocupa el cuarto lugar de la región de América Latina en el Índice Global sobre IA Responsable (GIRAI), con un puntaje de 27.05.
La primera posición latinoamericana la tiene Brasil (con 44.42 puntos), seguido por Uruguay (44.09) y Chile (40.38).
Sin embargo, a nivel global, el país se ubica en el puesto número 44 con una puntuación de 27.05, por debajo de Nueva Zelanda (27.33) y encima de Letonia (26.74).
Los primeros lugares a nivel mundial son: Países Bajos (86.16), Alemania (82.77), Irlanda (74.98), Reino Unido (73.12), Estados Unidos (72.81) y Estonia (67.61).
Nicolás Grossman, director del proyecto del Global Index on Responsibility en el Global Center on AI Governance (GCG) detalla que "a Costa Rica le fue bien porque hay mucha proactividad en la legislatura para atender estos temas, también cierto involucramiento de actores no estatales trabajando en distintas temáticas, algo de academia también. Y le fue muy bien en lo que llamamos los indicadores contextuales de cada uno de ellos.
Lo que explica el ranking de Costa Rica es una combinación entre cierta actividad por parte de las entidades gubernamentales como el Parlamento para intentar o empezar a tratar estos temas y además una buena base en otros indicadores contextuales que eleva el puntaje".
Implicaciones derivadas del GIRAI para el avance de la IA responsable.
La primera edición del Índice Global sobre IA Responsable ha llevado a tres conclusiones fundamentales sobre la adopción de la IA responsable en todo el mundo y a la forma de medir los progresos en esta área.
- Muchos de los esfuerzos para promover una IA responsable forman parte de estrategias gubernamentales de IA más amplias, que carecen de medidas específicas en materia de derechos humanos, como la igualdad de género. Esta tendencia subraya la necesidad de elaborar políticas, recomendaciones y directrices exhaustivas, basadas en enfoques centrados en el ser humano, especialmente en los derechos humanos.
- La evaluación de la IA responsable debe tener en cuenta las responsabilidades de los intervinientes en todo el ciclo de vida y ecosistemas de la IA, incluidas las acciones gubernamentales, más allá de la definición de marcos regulatorios.
- El hecho de que la cooperación internacional, en materia de IA responsable, sea un ámbito de compromiso compartido entre países de todo el mundo, es una palanca clave para reforzar el papel de las comunidades mundiales en el seguimiento colaborativo de los progresos de la IA responsable en la práctica
¿Qué es IA responsable?
"La IA responsable significa que se diseña, desarrolla, despliega y gobierna de manera que respete y proteja todos los derechos humanos y defienda los principios de la ética de la IA en todas las fases del ciclo de vida y de la cadena de valor.
Este enfoque requiere que todos los intervinientes implicados en el ecosistema nacional de IA asuman la responsabilidad del impacto humano, social y medioambiental de sus decisiones. El diseño, despliegue y gobernanza responsable de la IA deben ser proporcionales a la finalidad de su uso y satisfacer las necesidades tecnológicas de los individuos y de las sociedades a las que se destina", explica el documento de análisis de esta tecnología.
Entre los principales resultados del estudio señalan que la primera edición del GlRAI "ha puesto de manifiesto que el progreso global en pos de una IA responsable ha quedado muy atrás del desarrollo y adopción de la IA.
Existen importantes lagunas en muchas partes del mundo y en muchos ámbitos clave de la IA responsable, en particular en áreas relacionadas con la protección de los derechos de los grupos vulnerables o marginados".
Estas son las 10 principales conclusiones del GlRAI:
- La gobernanza de la IA no se traduce en una IA responsable
- Los mecanismos que garantizan la protección de los derechos humanos en el contexto de la IA son limitados
- La cooperación internacional es un pilar fundamental de las actuales prácticas de IA responsable
- La igualdad de género sigue siendo una laguna crítica en los esfuerzos para hacer avanzar la IA responsable
- No se están abordando las cuestiones fundamentales de inclusión e igualdad en IA
- No se está protegiendo adecuadamente a los trabajadores de las economías basadas en la IA
- Una IA responsable debe incorporar la diversidad cultural y lingüística
- Existen importantes lagunas a la hora de garantizar la seguridad, la protección y la fiabilidad de los sistemas de IA
- Las universidades y la sociedad civil están desempeñando un papel crucial en la promoción de una IA responsable
- Aún queda mucho camino por recorrer para lograr un nivel adecuado de IA responsable a nivel mundial
El proyecto
El GIRAI es una herramienta que establece puntos de referencia para la IA responsable, a nivel mundial.
Evalúa 19 áreas temáticas de IA responsable, agrupadas en 3 dimensiones: los derechos humanos y la IA, la gobernanza de la IA responsable y las capacidades de la IA responsable.
Cada área temática evalúa el desempeño en tres pilares diferentes del ecosistema de la IA responsable: los marcos regulatorios gubernamentales, las acciones gubernamentales y las iniciativas de los agentes no estatales.
Los datos fueron recopilados de primera mano por 138 investigadores nacionales. Entre noviembre de 2021 y noviembre de 2023, investigadores especializados respondieron a una exhaustiva encuesta que incluía 1862 preguntas (98 por área temática), destinada a determinar las condiciones existentes y las medidas tomadas para promover una IA responsable en cada país relevado. Un equipo formado por expertos de distintos países del mundo realizó un análisis exhaustivo de todos los datos recogidos.
Las puntuaciones se basan en los datos primarios recogidos en los tres pilares. Cada área temática recibe una puntuación en cada pilar, en una escala de 0-100, calculándose la media para determinar la puntuación de cada pilar. A continuación, se ajustan estas puntuaciones para cada país, utilizando un coeficiente elaborado a partir de datos secundarios, que tiene en cuenta la eficacia de los marcos regulatorios y acciones gubernamentales y el ambiente propicio para los agentes no estatales.
Se asigna un peso específico a cada pilar y se suman obteniendo una puntuación global, que permite un análisis comparativo de los esfuerzos realizados por cada país para promover una IA responsable y así clasificarlos en consecuencia. Los países incluidos en la primera edición del Índice Global sobre IA Responsable fueron seleccionados en función del lugar en el que se contrataron investigadores nacionales cualificados y de la red de investigación existente de socios institucionales. Los gobiernos no participaron en la selección de los países del índice.
Al respecto Grossman detalla que "este es un proyecto de investigación e incidencia que lo que hace es medir el progreso de los países en cuanto a sus compromisos y la implementación de IA".
Añade que el valor del índice global unidad responsable está dado por el valor en cada una de estas áreas temáticas: desarrollo de capacidades del sector estatal, autoridades de competencia, cooperación internacional, igualdad de género, protección de datos y discriminación, entre otros.
Son 19 áreas temáticas, para cada una lo que medimos son pilares; entonces, por un lado, medimos si hay alguna regulación, una ley política pública hacia esta área temática y cuál es la fuerza de esa regulación. Después vemos si existe una regulación o ausencia de ellas.
Hay también acciones estatales hacia esta área temática. Por ejemplo, en área temática de análisis de impacto, primero preguntamos, ¿hay alguna ley o regulación que les pida a las empresas o estados implementar Inteligencia Artificial que hagan algún tipo de análisis de impacto previo y posterior a esa implementación?¿Sí o no? Y luego vemos quizás el estado de los gobiernos ante la ausencia de estos marcos regulatorios, de todos modos pueden estar llevando acciones. Por ejemplo, pueden organizar un congreso sobre medición de análisis de impacto en Inteligencia Artificial. Entonces, quizás no hay una ley en la regulación, pero los gobiernos están promoviendo estos derechos o estos mecanismos.
Y también lo que tratamos de fomentar es el aprendizaje entre países. Decir, bueno, este país no tiene esto, pero vemos que los países vecinos sí lo tienen.
Aprender de los demás para fomentar que al final del día todos los países lleguen a tener los marcos regulatorios y los compromisos por parte de los gobiernos para garantizar que la utilización de la IA no vulnere ninguno de los derechos fundamentales de las personas.
Lo que igual tratamos de hacer es mantener una metodología que sea lo más tecnológicamente neutral posible. Entonces, no importa si estamos hablando de IA generativa o de deep learning, no importa qué tipo de IA estamos hablando, hay ciertos derechos y mecanismos que tienen que estar garantizados porque tenemos un enfoque con base en derechos, no tanto al tipo de tecnología.Obviamente lo que buscamos es que estos derechos estén bien protegidos y limitados explícitamente en el contexto de la Inteligencia Artificial. Nicolás Grossman, director del proyecto del Global Index on Responsibility


