Logo
Primary menu

La IA: ¿Un nuevo Renacimiento o una amenaza para la humanidad? Parte 2.1: La carrera de la IA

Por Agencia | 10 de Ago. 2023 | 4:50 am

El desarrollo de la IA tendrá un impacto positivo en múltiples campos como la medicina, el consumo de energía, la seguridad de los automóviles, la agricultura, el cambio climático, la gestión de riesgos financieros y en general prácticamente todos los sectores de la economía.

Sin embargo, problemas serios de confiabilidad con esta tecnología deben ser atendidos. Es en particular el caso con la IA generativa que nos abocaremos a analizar aquí (en particular los LLM –Large Lenguage Models, como ChatGPT). Veremos que el desarrollo de una IA confiable podría depender de políticas de desarrollo más abiertas de las empresas, de la definición y de la aplicación de regulaciones adecuadas, y de la participación de más actores en la creación de los sistemas.

Problemas

En el estado actual de la tecnología, la IA generativa presenta varios riesgos: de errores en los resultados, de divulgación de datos privados de los usuarios, de irrespeto a la propiedad intelectual con la data utilizada, de sesgos societales (sexo, raza, color de piel, orientación sexual, edad, hándicap, etc.), de comentarios ofensivos y de no representación del conjunto de la población para entrenar los algoritmos, de ausencia de responsabilidad sobre las aplicaciones, así como de fuertes emisiones de CO2 en la creación y el uso de los sistemas (500 toneladas métricas de CO2 para entrenar el ChapGPT3 de OpenAI, lo que equivale a la emisión de dióxido de carbono de 500 autos durante un año (1).

También, cabe señalar que el desafío (en referencia a los riesgos antes mencionados) de los modelos/algoritmos de IA generativa aumenta con su tamaño, y recordar que los algoritmos de Deep learning utilizados son tan complejos que dificultan la interpretación y la comprensión de los modelos subyacentes o los resultados obtenidos. Además, se ha observado que los algoritmos pueden olvidar reglas que aprendieron anteriormente; se trata del fenómeno del "olvido catastrófico" (2) .

Estos problemas atentan contra la confiabilidad en los sistemas y deben ser atendidos. No obstante, el marco competitivo actual del sector de la IA generativa dificulta esta tarea. En efecto, los desarrollos de los principales y los más grandes LLM y datasets (que son los que pueden tener mejor rendimiento) están en mano de pocos y poderosos actores, se caracterizan por ser generalmente cerrados y la regulación del sector está incipiente.

Pocos actores

La concentración del desarrollo en pocos actores de la Big Tech parece lógica, puesto que este desarrollo requiere de grandes cantidades de recursos técnicos (como supercomputadoras), humanos y financieros. Es interesante observar que, a la fecha, ya todas las GAFAM (los sistemas GPT de OpenAI se ejecutan en una plataforma de supercomputación basada en Azure de Microsoft), cuentan, o anuncian que van a contar (Apple anuncia su chatbot, Apple GPT, para 2024 (3), con sus soluciones de IA generativa.

No obstante, esta situación hace que solo un pequeño grupo de empresas tenga el control de esta tecnología y decida cómo utilizarla, entregando sistemas cerrados y librándose a una competencia feroz. Esto ha llevado a lanzar al mercado productos y servicios lo más rápidamente posible, minimizando las etapas de validación y evaluación de resultados que podrían causar atrasos. El caso de Google ilustra este punto. Google desarrolló Bard, un chatbot equivalente a ChatGPT en 2017, pero no lo ofreció al público en ese momento por considerarlo aún no suficientemente confiable, y suspendió su desarrollo. Sin embargo, tuvo que comercializarlo en junio 2023 para competir con OpenAI y Microsoft con la salida de ChatGPT4 en marzo de ese año. La carrera a la IA generativa entre gigantes se ha exacerbado desde entonces, y podría seguir haciéndose en detrimento de la confiabilidad en los sistemas, pero también de la investigación e de la innovación en general.

Sistemas cerrados

En efecto, la concentración del desarrollo de IA generativa en manos de la Big Tech,se agrava por el hecho de que actualmente los sistemas son, o casi son, cerrados (veremos que no ha sido siempre así) (4). La comunidad científica no tiene acceso a todo el training dataset, ni a los modelos y mecanismos de control utilizados para crear los sistemas, limitando así la posibilidad de estudiarlos, de corregir sus defectos y aportar mejoras o innovaciones. El no poder modificar y adaptar los algoritmos cierra a pequeños desarrolladores, la opción de utilizarlos para proponer nuevos productos y servicios, innovadores; lo que podría dinamizar el sector y contribuir a su éxito. Además, la invisibilidad de los sistemas no conduce a la Big Tech a elevar la barra en términos de cuales datos se utilizan y de cómo se han construido los modelos.

Ausencia de regulación

Finalmente, la regulación para que el desarrollo y el uso de la IA no cause daño a la sociedad está aún en un estado incipiente (5). La mayoría de los Estados, entre los cuales los más desarrollados, están en fase de reflexión o de elaboración de reglas para garantizar una inteligencia artificial segura y ética, en una palabra, responsable. Estamos lejos del establecimiento de reglas comunes y mundiales. La CEE ha establecido siete normas (6) para desarrollar una IA confiable, pero son normas y no tienen un carácter formal y obligatorio para las empresas. Estas últimas disponen igualmente de normas éticas, sin embargo, han resultado insuficientes hasta la fecha para evitar los problemas antes señalados.

Definir criterios para establecer reglas en materia de ética, implica el consenso de muchas partes interesadas, es asunto complicado que, si no se prioriza, tomará mucho tiempo por concretarse. Y la regulación siempre tendrá un tiempo de atraso sobre la tecnología que está evolucionando a una velocidad muy superior. Es importante que la regulación favorezca también el desarrollo open source de la AI (7) (tema que trataremos adelante).

Un último punto aquí. Las GAFAM han tenido numerosos conflictos con los Estados, en particular para respetar las reglamentaciones vigentes (en protección de datos, por ejemplo) y no parece que sea diferente en el caso de la IA generativa. Italia bloqueó en marzo 2023 a ChatGPT4 (8), porque la plataforma no ofrecía un mecanismo de verificación de edad seguro y garantías suficientes, en materia de propiedad intelectual sobre los datos utilizados. El 24 de julio último, se informó que ChatGPT volvía en Italia ya que OpenAI había realizado las modificaciones exigidas por el regulador. Asunto a seguir.

Soluciones a la falta de confianza

Ante estas características del marco competitivo (pocos actores, sistemas cerrados y poca regulación): ¿qué se puede hacer para evitar los problemas de confiabilidad de la IA generativa?

Dos soluciones. Primero, priorizar y acelerar la regulación de la IA. Es necesaria, nadie lo contesta (ni siquiera Elon Musk, campeón de la libertad de emprender (9), siempre y cuando no se constituye como un freno a la innovación. Aquí, el tema es de voluntad política. Y depende, en primer lugar, de la concientización y de la presión que puedan ejercer los ciudadanos sobre sus representantes políticos.

La segunda solución consiste en el open source. Como lo señala Le Cun (10) (co-laureado del Premio Turing en 2018 en IA): "la manera de realizar progresos con los LLM es de hacerlo de manera abierta. Es una buena idea desde el punto de vista económico, pero también desde un punto de vista de la seguridad, y también para el progreso de la investigación y de la comprensión, de saber qué hacer exactamente para que estas cosas funcionen adecuadamente y con un buen control."

Open source

Hasta este año 2023, Google, Meta y OpenAI practicaban una política de apertura (11), y los LLM y datasets de estas compañías fueron utilizados libremente por un gran número de desarrolladores de apps, la mayoría de startups, para ofrecer en open source (los aportes de las comunidades de usuarios siendo claves para su innovación) productos similares en performance a los de los grandes líderes del mercado, en versiones más pequeñas más baratas (es el caso, por ejemplo, de Hugging Face que desarrolló el primer chatbpot open source como alternativa a ChatGPT, construida sobre LLaMA de Meta).

Pero, ante la proliferación de la competencia, las cosas están cambiando y la Big Tech considera a partir de ahora al open source como una amenaza a su control sobre la IA12; Meta hace algunos días lanzó LLaMA213 , teóricamente abierto, pero con restricciones (al punto que algunos expertos no lo considera como abierto14), y los modelos de Google y OpenAI están cerrados.

Aunque el argumento utilizado para este cambio de estrategia sea, oficialmente, un tema de seguridad: los sistemas abiertos harían que desarrolladores de apps poco escrupulosos puedan reintroducir, por ejemplo, sesgos societales en los algoritmos, la razón principal parece ser el miedo a la competencia; si existiera una regulación eficaz, el argumento de la seguridad avanzado por la Big Tech no tendría lugar: se estaría aplicando de la misma manera para los grandes como para los pequeños desarrolladores (el open source debe realizarse en paralelo con la regulación de la IA).

Parece poco probable, a corto plazo, que la Big Tech modifique, de su propia iniciativa, su estrategia competitiva hacia el open source, lo que implicaría para ella transformar su modelo de negocio. Sin embargo, varias iniciativas recientes podrían incitarlas a considerar esta transformación.

Así, BigScience project (15) busca desarrollar otra manera de crear, estudiar y compartir LLM ( large language models) en el seno de la comunidad de la investigación internacional en AI/LLM. Este proyecto se inspira de modelos de investigación como el CERN y el LHC en el campo de la física de las partículas. Partiendo de la constatación que "el dominio completo de esta tecnología transformadora ocasiona problemas en el avance de la investigación, ambientales, éticos y desde la perspectiva societal", BigScience project lanzó en 2022 el modelo de lenguaje multilingüe abierto más grande del mundo: BLOOM (16) (176 mil millones de parámetros, 59 idiomas).

Otra iniciativa, es la de Hugging Face (17) (uno de los socios fundadores del proyecto de BigScience) , "la comunidad de la IA del futuro", que consiste en una plataforma donde colaboran la comunidad del aprendizaje automático sobre modelos, datasets y aplicaciones. Esta plataforma permite, por ejemplo, subir en la nube aplicaciones construidas sobre BLOOM, si un desarrollador no tiene capacidad de computación local suficiente.

Los partidarios del crowdsourcing de la IA, por su lado, trabajan para que un gran y diverso número de personas puedan reunir grandes cantidades de datos y de feedback, con el fin de usarlas para entrenar y mejorar los modelos de IA. Según Crowdsourcing Week (18), esto ayuda a que los sistemas de IA "sean exactos, sin sesgos, y respondan a las necesidades de las personas que los utilizarán, o que sean restringidos por la mentalidad de los empleados basada en el pensamiento convencional de las empresas desarrolladoras".

Las comunidades académicas, empresariales, los gobiernos y los reguladores deberían mostrar interés en apoyar de forma eficaz, y sin demora, este tipo de iniciativas, y probablemente otras, que podrían cambiar positivamente las reglas de juego en la industria de la IA generativa, llevando la Big Tech a abrir, o a abrir más, sus sistemas para evitar que tengan el control exclusive del desarrollo de una tecnología tan fundamental para la sociedad.

Finalmente, está la visión de Yann Le Cun (19). Para él, los sistemas de IA generativa del futuro serán cada vez más grandes y requerirán contar necesariamente con la colaboración de millones de personas trabajando en conjunto y, por esta razón, los sistemas de IA deben ser abiertos. Concluyendo sobre este punto el científico dice: "no pienso que la IA del futuro sea cerrada, que sea de una sola compañía, como ha sido el caso, creo que debe ser examinada por muchas personas porque hay muchas maneras que el sistema se vuelva malo". Le Cun imagina que la IA terminará como: un tipo de Wikipedia, ya que las personas creen en Wikipedia; una infraestructura tecnológica básica, abierta; una especie de Linux para Internet.

En conclusión, el sector de la IA generativa está en una encrucijada. Hay que abrir el debate y tomar decisiones, rápidamente, con relación a los temas de la regulación y de la IA open source, reuniendo todas las partes interesadas, para asegurar el advenimiento de una IA confiable y responsable.


1 La IA generativa: más esencial y más sucia, https://agendapublica.elpais.com/noticia/18727/ia-generativa-mas-esencial-mas-sucia
2 El olvido catastrófico, el talón de Aquiles de la IA, https://www.futura-sciences.com/tech/actualites/intelligence-artificielle-oubli-catastrophique-talon-achille-intelligencesartificielles-106641/
3 El "ChatGPT" de Apple está en camino: la compañía ya está probando su chatbot de inteligencia artificial, https://www.lavanguardia.com/andro4all/apple/el-chatgpt-de-apple-esta-en-camino-la-compania-ya-esta-probando-su-chatbot-de-inteligencia-artificial#:~:text=Mark%20Gurman%20afirma%20que%20%22Apple,que%20podr%C3%ADa%20lanzarse%20en%202024.
4 The open-source AI boom is built on Big Tech's handouts. How long will it last?, MIT Technology Review, https://www.technologyreview.com/2023/05/12/1072950/open-source-ai-google-openai-eleuther-meta/
5 Ou en est-on de l´encadrement de l´intelligence artificielle, https://fr.euronews.com/next/2023/05/04/ou-en-est-on-de-lencadrement-de-lintelligence-artificielle
6 Las 7 normas europeas para desarrollar una Inteligencia Artificial fiable, https://ianetica.com/las-7-normas-europeas-para-desarrollar-una-inteligencia-artificial-fiable/
7 El código abierto en la regulación de la Inteligencia Artificial, https://intelarter.com/codigo-abierto-regulacion-ia/
8 ChatGPT est interdit en Italie, https://etudestech.com/decryptage/chatgpt-interdit-italie/
9 Elon Musk, fan de la regulación de la Inteligencia Artificial, https://www.elcomercio.com/afull/elon-musk-fan-de-la-regulacion-de-la-inteligencia-artificial.html
10 Yuval Noah Harari (Sapiens) versus Yann Le Cun (Meta) on artificial intelligence, https://www.lepoint.fr/sciences-nature/yuval-harari-sapiens-versus-yann-le-cun-meta-on-artificial-intelligence-11-05-2023-2519782_1924.php
11 The open-source AI boom is built on Big Tech's handouts. How long will it last?, MIT Technology Review, https://www.technologyreview.com/2023/05/12/1072950/open-source-ai-google-openai-eleuther-meta/
12 Ver nota 11
13Meta lanza LLaMa 2, una nueva IA de uso comercial y código abierto, https://es.wired.com/articulos/meta-lanza-llama-2-una-nueva-ia-de-uso-comercial-con-codigo-abierto
14 Llama and ChatGPT Are Not Open-Source Few ostensibly open-source LLMs live up to the openness claim, https://spectrum.ieee.org/open-source-llm-not-open
15 A one-year long research workshop on large multilingual models and datasets, https://bigscience.huggingface.co/
16 Introducing The World's Largest Open Multilingual Language Model: BLOOM, https://bigscience.huggingface.co/blog/bloom
17 https://huggingface.co/
18 Why is Crowdsourcing Vital to Make AI Smarter? https://crowdsourcingweek.com/blog/crowdsourcing-makes-ai-smarter/
19 Ver nota 10

Comentarios
0 comentarios