El 10 de febrero, el Presidente Gabriel Boric encabezó la ceremonia de lanzamiento de
Latam-GPT, el primer gran modelo de lenguaje abierto diseñado específicamente para América Latina y el Caribe.
De acuerdo a lo señalado por el Ejecutivo, Latam GPT busca "construir capacidades propias en inteligencia artificial generativa, promoviendo una gobernanza ética y una arquitectura abierta que respete nuestra cultura y contextos locales".
En redes sociales, el gobierno destacó que "desarrollado de manera colaborativa por 15 países de la región, permitirá a gobiernos, universidades, startups y comunidades crear soluciones con IA sobre una base abierta, transparente y representativa de la diversidad latinoamericana".
Latam GPT es un modelo de lenguaje de gran tamaño (Large Language Model, LLM por sus siglas en inglés), y la coordinación de más de 30 instituciones de América Latina y el Caribe, y 60 expertas y expertos, estuvo a cargo del Centro Nacional de Inteligencia Aritificial (CENIA), con apoyo del Ministerio de Ciencia.
Rodrigo Durán, gerente de CENIA, comenta a Emol que "de este proyecto emanan varios productos, el mas visible es el primer gran modelo de lenguaje Latam.GPT 70Bn 1.0, el primer modelo abierto entrenado con el corpus de datos de latam que construimos en esta colaboracion. Además, se liberaran Benchmarks para evaluar el desempeño de distintos modelos y reportes técnicos que permitirán entender y replicar el trabajo realizado".
Costos
Desde CENIA aseguran que la idea no es reciente: de hecho, en febrero de 2023 se comenzó a trabajar en el primer LLM regional, en la construcción de las bases de datos, con la intención de que su comportamiento reflejara la cultura, lenguaje e historia de Latinoamérica.
El proyecto se desarrolló con US $550.000 de financiamiento, provenientes principalmente del Banco de Desarrollo de América Latina (CAF).
Pero hubo otro gasto asociado: US$ 5 millones para la compra de un supercomputador que fue instalado en la U. de Tarapacá. Este computador tiene la misión de entrenar a LATAM-GPT, puesto que su primera versión se desarrolló en la nube Amazon Web Series. Este detalle es uno de los varios que ha generado críticas.
"Sus usuarios reales son investigadores"
Fueron varias las dudas -y críticas- que surgieron tras el lanzamiento de Latam-GPT; desde cómo se materializa su funcionalidad y quiénes efectivamente pueden utilizar esta herramienta, hasta las "contradicciones" de que esté desarrollado en la nube de Amazon cuando se quiere avanzar a algo "propio y latinoamericano".
Pese a su nombre, Latam-GPT no es una herramienta con la que se pueda chatear, sino que se trata de una gran base de datos.
está construido sobre Llama 3.1 de Meta y se entrenó en la nube de Amazon, lo que matiza bastante el discurso de soberanía tecnológica con el que fue presentado".
Pablo Matamoros, experto en IA, U. Central: "Es importante saber que no fue creado desde cero
Pablo Matamoros, experto en IA e investigador del Centro Democracia y Opinión Pública, de la U. Central, comenta que, en términos simples, Latam-GPT "es un motor, no un auto".
"Es la base sobre la cual se pueden construir aplicaciones de inteligencia artificial, pero no es una aplicación en sí misma. Fue entrenado con datos de 21 países latinoamericanos para que entienda mejor nuestro contexto, historia, modismos y realidades, algo que los modelos dominantes hacen pobremente porque apenas un 4-6% de sus datos viene de nuestra región", comenta.
Entre sus características, este "motor" es de código abierto: cualquiera puede tomarlo y construir sobre él.
"Ahora, es importante saber que no fue creado desde cero: está construido sobre Llama 3.1 de Meta y se entrenó en la nube de Amazon, lo que matiza bastante el discurso de soberanía tecnológica con el que fue presentado", comenta el experto.
Respecto a la forma en que se utiliza, Matamoros sostiene que se aleja de lo que las personas en general podrían imaginarse, ya que "no es un Chat-GPT que puedas abrir en tu teléfono y hacerle preguntas".
"El modelo está disponible en repositorios técnicos como HuggingFace y GitHub, lo que significa que para usarlo necesitas conocimientos de programación, infraestructura de cómputo y capacidad técnica para desplegarlo. En la práctica, sus usuarios reales son investigadores, desarrolladores, universidades y eventualmente gobiernos o empresas que quieran construir aplicaciones específicas sobre esta base". En ese sentido, el ciudadano común no va a interactuar directamente con LatamGPT, sino con lo que otros construyan a partir de él.
Durán, por su parte, destaca que la herramienta "estará disponible como modelo abierto para cualquier usuario bajo licencia apache2.0. Se podrá usar como modelo base para la construcción de soluciones basadas en lenguaje, y tendrá un desempeño mejor en áreas intensivas de conocimiento sobre América latina y el Caribe, como educación, políticas públicas y gestión al cliente".
"Adicionalmente, será un insumo clave para el ecosistema de la ciencia y de innovación, pues permitirá la experimentación y entendimiento de esta tecnología de forma más robusta y accesible", subrayó.
¿Cómo se puede medir su utilidad?
Debido a que Latam-GPT no cuenta con una interfaz de usuario, no se puede evaluar una experiencia de uso como se haría con Chat GPT o Claude.
"Lo que sí se puede evaluar es el proyecto en su conjunto: la calidad del corpus de 300 mil millones de tokens (unidad de valor digital), los benchmarks adaptados al contexto regional, y la documentación ética y de gobernanza. En ese plano, el trabajo es serio y riguroso", comenta Matamoros.
No obstante, alerta que hay una tensión: el modelo está basado en una arquitectura que técnicamente tiene ya un par de años en un mercado que se mueve a velocidad vertiginosa. Voces críticas señalan que está "muy bien para hace dos años".
"La experiencia real la vamos a poder evaluar cuando veamos qué aplicaciones concretas se construyen sobre esta base, y si esas aplicaciones efectivamente superan lo que ya se puede hacer adaptando modelos de frontera con datos latinoamericanos mediante técnicas como RAG o fine-tuning", subraya el experto de la U. Central.
Por su parte, Durán subraya que la experiencia se puede medir "en función del impacto que genere. Si aumenta la producción científica, cuantas aplicaciones se construyen usándolo, cuan profunda es la adopción de la tecnología".
Latam-GPT no funciona como Chat-GPT. Sus verdaderos usuarios son desarrolladores e investigadores. Foto: CENIA.
Desafíos y puntos a mejorar
Consultados por los desafíos de esta IA Latinoamericana, los expertos identifican varios frentes que mezclan tanto la forma en que se medirá su real impacto, como el blindaje institucional que tendrá esta herramienta y su financiamiento.
Para Matamoros hay seis focos clave: "primero, resolver la sustentabilidad: con cambio de gobierno en Chile en semanas, necesita un mecanismo institucional que lo blinde de ciclos políticos, idealmente anclado en la CAF o en una gobernanza multilateral que no dependa de un solo Estado".
"Segundo, demostrar casos de uso concretos: el proyecto necesita pasar del lanzamiento al impacto medible — universidades usando el modelo, gobiernos integrándolo en servicios, startups construyendo productos. Sin adopción real, queda como foto inaugural", comenta.
En tercer lugar, plantea que se debe "actualizar el modelo y el corpus permanentemente: la IA se mueve a una velocidad donde 18 meses de inactividad equivalen a obsolescencia".
Como cuarto punto, Matamoros sostiene que es importante "trabajar en la incorporación de lenguas indígenas que fue prometida — mapudungún, quechua, guaraní — pero que requiere volúmenes de datos que hoy probablemente no existen en formato digital".
"Y quinto, quizás lo más estratégico: desarrollar el argumento del tesauro. Tal vez el mayor valor que puede aportar la región no es tener su propio modelo compitiendo con gigantes, sino construir el corpus definitivo de datos latinoamericanos — un gran diccionario vivo de nuestra cultura, historia e instituciones — que pueda alimentar a cualquier modelo, propio o externo. Eso sería una contribución más duradera y menos vulnerable a la obsolescencia tecnológica".
Por último, y debido a que el usuario que manejará la IA no es el "público común", Matamoros sostiene que "ahí hay otro desafío: ¿existe hoy en la región el ecosistema de emprendedores y desarrolladores con la capacidad técnica para aprovechar un modelo de 70 mil millones de parámetros? Eso está por verse", comenta.
Durán, por su parte, destaca que los próximos pasos tienen que ver con "dotar de sostenibilidad financiera al proyecto, para eso mejorar la gobernanza e integrar actores multilaterales y filantrópicos. También en el desarrollo de casos de uso que sean monetizables".