Los retos sociales de la inteligencia artificial
En los países desarrollados como los EEUU, el libre comercio y la automatización son dos disrupciones sociales que provocan gran enojo social y político en poblaciones que han perdido muchos empleos. Sin embargo, los estudiosos han identificado que el impacto de estos procesos en las comunidades es diferente. Si lo vemos en números absolutos, en las últimas décadas la automatización ha afectado hasta cinco veces más trabajos que el libre comercio, pero el enojo tiende a centrarse en este último. ¿Por qué?
A riesgo de caricaturizar el fenómeno, la optimización de los procesos productivos por causa del libre comercio ha tendido a provocar el traslado, en su totalidad, de grandes plantas manufactureras, que históricamente eran el centro de las comunidades. Una vez que una planta manufacturera en un pequeño pueblo de Indiana se traslada a China, por más que genere muchos empleos bien pagados en la sede empresarial en Chicago o Nueva York, eso es flaco consuelo para la comunidad del pueblo de Indiana que perdió sus empleos y que no obtiene los empleos sustitutos. Aún en un país con alta movilidad laboral y geográfica como los EEUU, no es tan sencillo para los trabajadores y sus familias desarraigarse y desplazarse a donde estén los nuevos empleos, sobre todo por barreras de tipo inmobiliario. Por ejemplo, si tenías una casa valorada en USD150 mil en tu pueblo en Indiana, no es fácil venderla y reubicarse a una de las ciudades con más empleos, pero muy caras donde las casas valen el triple, especialmente si tu casa perdió valor porque ya nadie tiene trabajo en el pueblo. La crisis social que esto ha provocado ya se ve en las estadísticas de mortalidad porque las personas afectadas se mueren a edades más tempranas de la desesperación, de acuerdo con Deaton y Case.
En cambio, la hostilidad histórica a la automatización es mucho menor porque no necesariamente implicaba esta ruptura comunitaria. Si una empresa automatiza la gran planta en el pueblo, y ahora emplea 30% menos gente, pero la planta permanece en el pueblo y los que se quedan ganan un poco más porque son más productivos con la inversión de capital, es disruptivo para la gente que perdió su trabajo, pero la comunidad usualmente logra quedar intacta, porque la mayoría de los desempleados logra reubicarse en nuevos empleos dentro de la misma comunidad.
Esta reflexión emana de la dificultad en saber cómo será el efecto de la siguiente fase de la automatización, principalmente donde se incorpore de manera plena la inteligencia artificial (IA) a los procesos productivos. Expertos como Geoffrey Hinton casi todos coinciden en los tres grandes retos de la IA: Primero, la generación de desinformación. Segundo, el impacto sobre los trabajos. Tercero, la pérdida de control sobre la IA, que en la jerga se le denomina el problema de alineamiento.
La desinformación, particularmente con fines políticos ya ha sido una característica ampliamente explotada y discutida como efecto de las redes sociales. Sin embargo, Las nuevas inteligencias artificiales generadoras de texto como los Large Language Models (LLM) tipo ChatGPT, así como los modelos generativos de imágenes tipo Midjourney o Stable Diffusion, pueden facilitar que el volumen de la desinformación sea muchísimo mayor, ya que son cada vez más persuasivos para convencer a los seres humanos.
El impacto sobre los trabajos es especialmente preocupante porque si bien la IA no sustituye todas las tareas de los trabajos y procesos productivos, sí sustituye muchas de ellas y es un fenómeno que con casi toda seguridad se va a dar. Por ello, en Costa Rica que hemos hecho una apuesta fuerte segmentos de las cadenas de valor de servicios tipo “backoffice” ya deberíamos estar analizando exactamente cómo apoyar a los miles de trabajadores y decenas de empresas para que hagamos localmente el replanteamiento de las tareas donde los humanos complementan lo que puede hacer la IA. Con ello evitaríamos el escenario donde simplemente desaparecen esos trabajos y esas empresas en CR porque en otros países sí hicieron el esfuerzo de realizar esa integración de los trabajadores con la IA. También tenemos que ir pensando cómo se diseñan los procesos de entrenamiento que tradicionalmente un trabajador internalizaba realizando tareas de rutina. El ejemplo clásico es el abogado que se familiarizaba con su trabajo siendo asistente legal en su etapa profesional temprana. En el futuro es probable que muchos abogados expertos tengan una IA de asistente legal. Si los seres humanos ya no tendrán acceso a una fase laboral de ser asistentes legales (entre otros ejemplos de practicantes profesionales y técnicos), entonces hay que meditar mecanismos alternos para la adquisición de habilidades prácticas que no necesariamente se obtienen en la educación académica.
Finalmente, y más especulativo, está el problema del alineamiento. Para analistas como Yudkowsky, el alineamiento se trata de conseguir que a la IA le importen los seres humanos y los objetivos de la humanidad, especialmente si avanza tanto que adquiere la capacidad de destruir el mundo (por ejemplo, diseñando un arma biológica). En ese caso, sería peligroso que una IA indiferente o hostil a la humanidad sepa cómo hacer mucho daño. Sin embargo, incluso evitando este escenario del “apocalipsis robótico”, los expertos coinciden que hay un problema de alineamiento democrático, en el sentido que casi todos los avances en inteligencia artificial los están logrando un puñado de corporaciones que, por más bien intencionadas que sean, no necesariamente se están tomando el tiempo para explicarle a la población general las consecuencias de sus decisiones aparentemente técnicas.
Aún si no estamos convencidos de que esa sea la responsabilidad de las corporaciones, sí debería ser la responsabilidad de los gobiernos democráticos garantizar que haya espacios de discusión política acerca de los fines y objetivos de la IA. El votante promedio quizá no está tan interesado en saber los detalles finos de los algoritmos matemáticos detrás de las redes sociales, pero sí puede tener interés en saber si la IA en dichas redes sociales está tratando de informarle o de manipularle.