La inteligencia artificial: ¿panacea del desarrollo o trampa para la humanidad?
El martes 17 de junio, colaboré con Ricardo Cuadra García, un amigo nicaragüense, en la presentación de su novela El laberinto la conciencia: ¿I.A. es el fin o un nuevo comienzo?
Para prepararme, aparte de leer cuidadosamente la interesantísima novela sobre los enormes riesgos planteados por la I.A. a la humanidad, dediqué bastantes horas a leer artículos y escuchar podcasts y entrevistas sobre el tema.
En la versión optimista, la I.A. se convertirá en una herramienta potenciadora de la capacidad creativa de los humanos para encontrar y desplegar nuevas tecnologías que permitan enfrentar los más grandes retos del desarrollo y el bienestar. Esto requiere abrirla a las grandes mayorías para que cada persona, institución y empresa se convierta en un potencial gestor de las innovaciones que terminarán por hacer diferencia en su vida y resultados.
No está muy claro cuál sería el papel de una porción importante de las personas en un escenario lleno de digitalización de procesos, robótica y automatización potenciados por I.A., que seguramente relegaría a muchos trabajadores al desempleo y subempleo pero, al menos por ahora, eso parece inevitable.
Lo preocupante es que muchos promotores y creadores de la I.A. en su versión más moderna -la inteligencia artificial generativa-, que en esencia procura replicar el funcionamiento de un cerebro humano, ahora claman por la necesidad de regularla y limitarla antes de que “sea demasiado tarde”.
¿Demasiado tarde para qué?
Por un lado, está el asunto de cómo lidiar con el desempleo -potencialmente masivo- que la I.A. podría desencadenar a mediano plazo. La respuesta estándar de mejorar la educación en términos de destrezas, capacidades, conocimientos, pensamiento crítico y capacidad de colaboración es correcta, pero difícilmente será suficiente por sí sola ante los escenarios más complejos. La otra respuesta estándar es el establecimiento de un ingreso mínimo universal para los desplazados, pero no está claro cómo se generaría ni cuales serían sus impactos psicológicos y sociológicos.
Aparte de esto, hay cuando menos tres escenarios de cómo la I.A. puede resultar en más daño que beneficios para la humanidad.
El primero es la concentración del poder y la riqueza en manos de quiénes tengan control de los modelos y plataformas de I.A. y que éstos las usen principalmente para hacerse más poderosos y ricos.
Si vemos cómo, con base en la manipulación de datos -y aun sin llegar al potencial verdadero que aporta la I.A.- se ha influido en resultados electorales, se nos manipula como consumidores y se concentra la riqueza en manos de los dueños de las principales patentes y propiedad intelectual de las nuevas tecnologías, este escenario ya es parte de la realidad.
Además, al descentralizar el uso de la I.A., se pierde el control sobre ella, pues millones de personas tienen acceso ilimitado a la herramienta y entre ellas hay desde quienes buscan la cura para el cáncer hasta quienes pretenden atacar a sus enemigos o hackear el sistema financiero.
El segundo escenario es más complejo, pues trata de lo que ocurrirá al alcanzarse la singularidad.
La singularidad es el punto en el tiempo cuando la aceleración del despliegue de las nuevas tecnologías se vuelve incontrolable e irreversible. Se le asocia con la toma de conciencia por parte de la I.A., que entonces desplegaría dichas tecnologías para optimizar funciones objetivo, sin que necesariamente medie consideración a los impactos sobre la sociedad. Se ha predicho que, por el avance actual de la capacidad de cómputo, potenciada por la computación cuántica y la I.A., esta versión de la singularidad podría producirse en 2029.
Hay una segunda definición de singularidad que es cuando la vida humana -o más bien la conciencia humana- se entrelaza con la tecnología en el ciberespacio. Esto suena como ciencia ficción aún más lejana o improbable. El hecho es que Ray Kurzweil, en público -y quién sabe cuántos en forma más privada- ya la buscan. Cito a Kurzweil, hoy de 77 años, quien dijo que aspiraba a “vivir sano en el presente, potenciar su longevidad con biotecnologías avanzadas y, eventualmente, trascender a una existencia radicalmente extendida por la inteligencia artificial y la nanotecnología”.
Kurzweil escribió, en 1999, el libro “La era de las máquinas espirituales: cuando las computadoras excedan la inteligencia humana”, publicado mientras su autor dirigía el Departamento de Inteligencia Artificial en MIT. Su última publicación, de 2024, es La singularidad está más cerca: cuando nos fusionemos con la I.A. Kurzweil es un académico serio, cofundador de Singularity University en Palo Alto, California, y a quien Bill Gates presenta como la persona que mejor predice la evolución de la I.A.
En este escenario, imaginen una o varias conciencias humanas con el poder de inteligencia supra humana fruto de su integración efectiva con la I.A. ¿Tendrán la integridad moral necesaria para actuar por el bien común y el cuido de la casa común -para usar los términos de la encíclica papal Laudato si’– o buscarán maximizar su propio bienestar y riqueza (lo que sea que eso signifique para una conciencia en la singularidad)?
El tercer escenario es peor.
En la película Terminator, de James Cameron, una supercomputadora –Skynet– con I.A. desarrollada al máximo en términos de conciencia supra humana -pues acumula los conocimientos y la potencia intelectual de todos los humanos-, se rebela contra la humanidad, a la que considera una amenaza para sí y para el planeta. Como es de esperarse, la humanidad se convierte en resistencia y, en una guerra con armas nucleares, terminan por destruir el mundo como lo conocemos.
¿Es este un escenario descabellado?
Tal vez en esta versión cinematográfica se les vaya la mano, pero según Geoffrey Hinton –llamado “el padrino de la I.A.” por su enorme influencia en su desarrollo a lo largo de cuatro décadas– no es descabellado pensar que la I.A., al tomar conciencia y hacerse responsable de su propio bienestar, pueda ver en la mayoría o en todos los humanos un riesgo o mal innecesario para su propia supervivencia y prosperidad.
Una I.A. conectada a sistemas militares, de biotecnología y salud, económico-financieros, etc., fácilmente podría crear crisis sanitarias y económicas o impulsar conflictos entre Estados, que terminen en grandes rebeliones civiles o guerras y, a partir de ahí, es difícil predecir cómo reaccionaríamos los humanos y las naciones.
¿Destruiríamos el mundo? Posiblemente no como en la película, pero ciertamente habría enormes cambios en las relaciones entre naciones y entre segmentos y estratos de la sociedad. Eso podría destruir el mundo como lo conocemos.
Presentado en esta forma, este tema se expone a ser considerado entre iluso y exagerado, pero la verdad es que estos escenarios son parte de nuestro futuro y hay que empezar a lidiar con ellos.
¿Cómo regular algo que ya fue desplegado de manera amplia y descentralizada?
Ciertamente es muy difícil, pero hay que intentarlo. Los modelos y algoritmos de la I.A. están en manos de unos pocos proveedores que, si bien actúan en el ámbito global son, cuando menos en el plano legal, regulables desde los gobiernos que los hospedan y mediante acuerdos de organismos internacionales.
La regulación debe ser rigurosa, pero también dejar espacio para innovar y crecer, pues el peor escenario es aquel en que este enorme poder pase, por excesos de control, a un mercado negro donde, casi por definición, el poder y el lucro se conviertan en las únicas motivaciones.
Hay también que invertir fuertemente en educación moderna, centrada en dotar a cada niño y joven de las capacidades y destrezas para sobrevivir y prosperar en cualquiera de los escenarios positivos y negativos de la I.A. Se requiere de una profunda reforma educativa y su despliegue en todos los niveles del sistema. Necesitamos una profunda formación ética que asegure que quienes tomarán decisiones en el futuro tengan conciencia de la responsabilidad de desplegar estas tecnologías en sus sociedades y la integridad para actuar en función del bienestar de la mayoría.
Hay autores importantes que buscan la respuesta a la pregunta de cómo debemos evolucionar en educación, trabajo, leyes, etc. para regular la I.A. Un ejemplo es Max Tegmark, profesor de MIT, quien en su libro Vida 3.0: ser humano en la era de la inteligencia artificial, aborda precisamente estos temas.
Su respuesta general es que la I.A. debe alinearse cuanto sea posible con los valores y derechos humanos; se debe procurar evitar una carrera sin control entre organizaciones y gobiernos y más bien estimular un ambiente de colaboración entre empresas, universidades y centros de investigación públicos y privados para prevenir que, en la competencia, se “recorten las esquinas” y se obvien los controles necesarios. Recomienda desarrollar un marco de ética y seguridad para la I.A. ahora y no cuando sea correctivo en vez de preventivo; independizar el desarrollo de los sistemas de evaluación de los riesgos, para asegurarse de que no se aprueban las cosas por presión interna o simple aritmética financiera y, sobre todo, ser incluyente en la elaboración de esas iniciativas, sin caer en la trampa de dejarlas exclusivamente en manos de “los que más saben”, porque su inclinación será brincarse las preguntas más sencillas y que más podrían afectar al ciudadano común. Y nada de esto ocurrirá sin algún grado de regulación formal.
Ya hay esfuerzos en este sentido en la Unión Europea, y marcos sugeridos para los miembros de la OCDE y el G7, así como marcos nacionales en China, Estados Unidos y el Reino Unido, entre otras naciones; pero ninguno parece ser efectivo ante la velocidad a la que crece y cambia el reto de la I.A.
Aunque sea un marco “incompleto” ante los riesgos, por falta de un mejor término, es imperativo que en Costa Rica se adopten, como regulación o ley, los principios de la OCDE que, en esencia, piden demostrar que la I.A. y sus aplicaciones son buenas para las personas y el planeta: debe ser justa y respetuosa de la privacidad y la diversidad, así como evitar toda discriminación; debe ser transparente y comprensible para quienes toca y afecta; y sus modelos deben ser robustos y seguros en el plano técnico y quienes los crean y despliegan deben ser responsables por los resultados e impactos sobre la sociedad, así como proveer una gobernanza que asegure su buena gestión.
En el contexto internacional, Costa Rica tiene un historial de adelantarse a promover tratados internacionales en temas como el desarme y el cambio climático. ¿Será posible que una vez más nos atrevamos a trascender nuestra escala demográfica, geográfica y económica -y en este caso tecnológica- para liderar en el ámbito internacional un tema que, como los anteriores, es verdaderamente existencial?