OpenAI lanzó GPT-5.4 mini y GPT-5.4 nano como dos modelos pequeños pensados para tareas donde importan la velocidad, el costo y el volumen. La empresa los presentó como una forma de llevar capacidades de GPT-5.4 a productos que no necesitan usar siempre el modelo más grande, pero sí requieren responder rápido y escalar sin disparar el gasto.
El movimiento va en una dirección clara. La competencia en IA ya no pasa solo por quién tiene el modelo más potente, sino por quién logra ofrecer versiones suficientemente buenas para código, automatización, clasificación y flujos con muchos llamados por minuto.
Qué cambia con GPT-5.4 mini y nano
Según OpenAI, GPT-5.4 mini está pensado para asistentes de programación, sistemas con subagentes, clasificación, extracción de datos, ranking y tareas multimodales. La empresa dice que mejora a GPT-5 mini en código, razonamiento, uso de herramientas y capacidad multimodal, y que además corre a más del doble de velocidad. También mostró que mini queda relativamente cerca del modelo grande en algunas pruebas internas, aunque la propia referencia sigue siendo oficial y no independiente.
GPT-5.4 nano ocupa otro lugar. OpenAI lo posiciona como la opción más barata y rápida de la familia para trabajos más acotados y masivos. La diferencia se nota tanto en precio como en disponibilidad. GPT-5.4 mini llegó a la API, Codex y ChatGPT. GPT-5.4 nano, en cambio, quedó reservado para la API.
OpenAI también dio cifras concretas. GPT-5.4 mini cuesta 0,75 dólares por millón de tokens de entrada y 4,50 dólares por millón de tokens de salida. GPT-5.4 nano baja a 0,20 dólares por millón de tokens de entrada y 1,25 dólares por millón de tokens de salida. Esos valores ayudan a entender el público de cada modelo: mini para productos que todavía necesitan bastante capacidad y nano para tareas repetitivas donde cada centavo cuenta.
Por qué OpenAI empuja modelos más baratos y rápidos
Estos lanzamientos importan porque responden a una necesidad real del mercado. Muchas empresas quieren meter IA en software cotidiano, pero no pueden pagar el costo de usar un modelo de frontera en cada paso. Un agente que delega subtareas, un copiloto interno o una herramienta de clasificación documental necesitan equilibrio entre calidad, latencia y precio. Ahí entran los modelos pequeños.
También hay una señal de producto dentro de ChatGPT. Las notas oficiales confirmaron que GPT-5.4 mini empezó a desplegarse en el producto un día después del anuncio. Para usuarios Free y Go aparece a través de Thinking, y para planes de pago puede actuar como respaldo cuando se alcanzan límites de GPT-5.4 Thinking. No es lo mismo que abrir el modelo principal a todos, pero sí baja parte de esas mejoras a planes de entrada.
Eso vuelve el anuncio más interesante que un simple agregado al catálogo. OpenAI está ordenando su oferta para cubrir más tipos de uso: desde tareas exigentes con el modelo grande hasta automatizaciones y productos de alto volumen con mini y nano. En la práctica, esa estrategia puede ser tan importante como lanzar un modelo nuevo de frontera, porque define qué tan fácil será meter IA en herramientas reales sin que el costo se vuelva un problema.
En resumen, GPT-5.4 mini y nano no son una nota menor dentro del ecosistema OpenAI. Son la parte de la oferta que busca hacer la IA más utilizable a escala: más rápida, más barata y suficientemente capaz para mucho trabajo cotidiano.


