Me tomé unos días para analizar el revuelo causado por el “lanzamiento oficial” (comúnmente un lanzamiento implica hacer algo accesible al público, con o sin un precio, pero accesible) de LATAM-GPT, y me parece fundamental que nos detengamos a mirar más allá de los titulares optimistas.
He visto cómo las redes se han dividido drásticamente: por un lado, perfiles de marketing y consultores de IA que solo repitieron los comunicados oficiales (imposible verlos criticando a autoridades/posibles clientes), y por otro, una comunidad técnica que empezó a cuestionar qué hay realmente debajo del capó de este proyecto.
Lo que más me llamó la atención de entrada fue la evidente desconexión entre el discurso político y la realidad técnica. Mientras el Presidente Gabriel Boric decía con entusiasmo que esperaba tener pronto la aplicación en su teléfono, Rodrigo Durán Rojas, uno de los líderes del proyecto, aclaraba en una entrevista que el modelo no tiene una interfaz pública como la de ChatGPT. Esa falta de alineación en las expectativas genera una confusión.
En palabras de Durán, LATAM-GPT es hoy un motor con ruedas, pero sin carrocería. Es un modelo de lenguaje, no un aplicativo web. La razón es puramente económica: mantener una plataforma abierta para que cualquier persona interactúe con ella costaría cerca de 200 mil dólares diarios, según declaró el propio Durán. Es una cifra prohibitiva que hoy supera con creces el presupuesto disponible de cualquier gobierno de América Latina, por lo que su uso masivo depende totalmente de que empresas privadas decidan “adoptarlo” y financiar esa operación. Algo que probablemente nunca ocurra.
Y si llegamos a acceder a LATAM-GPT ¿Será bueno?
Hablemos de potencia: este modelo no viene a competir con los gigantes por ninguna parte. Creo que ni siquiera en lo de generar “contenido latinoamericano” más preciso. Estamos hablando de un entrenamiento basado en 70 billones de parámetros, lo cual suena a mucho, pero es 20 veces menos que lo que manejan los modelos más avanzados hoy en día. Los cuales siguen fallando bastante, dependiendo de la tarea que se les pida.
Por presupuesto y capacidad de cómputo, estamos en ligas distintas, y el mismo equipo del CENIA (Centro Nacional de Inteligencia Artificial) lo reconoce al plantearlo como una herramienta complementaria y no como un reemplazo de lo que ya conocemos.
Hay un aporte que me parece indiscutible: el Corpus LATAM-GPT. Se trata de una base de datos masiva de textos en español, curada. A diferencia de los modelos globales que aspiran información de internet sin filtro, este proyecto buscó fuentes de universidades y organismos regionales para eliminar toxicidad y asegurar calidad. Liberar este corpus en marzo será un hito real para que otros desarrolladores puedan hacer experimentaciones con datos locales.
Pero aquí es donde me pongo un poco más escéptico. En la presentación se habló mucho de que el modelo “entiende” mejor nuestra cultura. Personalmente, me hace ruido cuando se antropomorfiza a la IA. Un modelo de lenguaje no entiende nada; simplemente asimila parámetros. La ilusión de comprensión viene de que ha sido entrenado con datos de nuestra región, lo que le permite imitar mejor nuestros modismos. Pero no es una cuestión de conciencia o empatía cultural. ChatGPT y los otros chatbots hablan en “chileno”, “argentino”, “colombiano”, etc. desde sus primeros modelos públicos.
Y aquí llegamos a la peor parte de la entrevista de Durán antes mencionada (y analizada en detalle en el video compartido al final de este texto): el ejemplo del terremoto. Según el gerente del CENIA si le preguntas a Gemini qué hacer ante un sismo grado 6.1, te dirá que te escondas o algo relacionado con lo que harían en China o EEUU. LATAM-GPT, en teoría, te diría que es algo normal en Chile, porque “entendería” que estás preguntando desde Chile.
Ese argumento es tan débil que se cae con pruebas que puede hacer cualquiera. Si tú hoy le pones a ChatGPT o Gemini “qué hacer ante un sismo 6.1 en Chile”, el modelo, que ya “sabe” perfectamente cómo reaccionamos aquí, porque esa información ya está digitalizada y disponible en todo el mundo desde años, te dará una respuesta adecuada.
¿Y si solo acceden unos pocos?
Me preocupa también que, debido a los costos operativos, LATAM-GPT termine convirtiéndose en una herramienta de élite. Si solo las instituciones o empresas que pueden pagar por el cómputo logran usarlo, el sueño de democratizar la IA en la región se queda a mitad de camino. No queremos una brecha más, sino un puente que realmente llegue a todos los ciudadanos y no solo a quienes tengan el presupuesto para encender los servidores.
En resumen, creo que estamos ante un proyecto que tiene un valor en sus datos (el corpus), pero que enfrenta desafíos gigantescos/imposibles en su implementación práctica y en la gestión de las expectativas del público general. ¿Es un hito o un fiasco? La respuesta dependerá de cómo evolucione su accesibilidad en los próximos meses y de cuánta transparencia haya sobre sus resultados reales en tareas específicas.
Por el momento, LATAM-GPT es como una pelota de piedra que nadie puede mover, mucho menos jugar con ella. Tendrá que venir un coloso capaz de moverla, o un ingenioso que, basándose en su forma, haga una pelota de cuero que sí podamos usar todos.

