OpenAI lanzó GPT-5.5 y empezó a desplegarlo en ChatGPT y Codex para usuarios Plus, Pro, Business y Enterprise. La empresa lo presenta como su modelo más fuerte hasta ahora para código, investigación, análisis de datos, documentos y uso de herramientas, con un foco claro: que el usuario delegue tareas más largas y menos ordenadas sin tener que guiar cada paso.
La novedad no pasa solo por el rendimiento bruto. Según OpenAI, GPT-5.5 mantiene una latencia similar a GPT-5.4, pero resuelve más trabajo con menos tokens. Eso apunta a que ya no basta con subir resultados en benchmarks; si no, cuánto cuesta ejecutar el modelo y qué tan bien se integra en flujos reales de trabajo.
GPT-5.5 sube el nivel en ChatGPT, Codex y la futura API
En la presentación oficial, OpenAI mostró a GPT-5.5 como un salto en tareas de programación, trabajo de oficina e investigación técnica. En Terminal-Bench 2.0, una prueba centrada en flujos complejos de línea de comandos, la compañía reporta 82,7%, por encima del 75,1% de GPT-5.4. En GDPval, un conjunto de tareas de conocimiento aplicado, marcó 84,9% frente a 83,0%. También mejoró en OSWorld-Verified, una prueba sobre uso de computadores, con 78,7% frente a 75,0%.
Para el usuario común, eso se traduce en algo simple: GPT-5.5 está diseñado para rendir mejor cuando la petición mezcla varias capas a la vez, por ejemplo investigar un tema, contrastar información, escribir un documento y apoyarse en herramientas externas. OpenAI sostiene que el modelo también reduce intentos fallidos y repite menos pasos en tareas largas, algo relevante para quienes usan ChatGPT o Codex como apoyo diario y no solo para consultas rápidas.
El despliegue inicial deja fuera al plan gratuito. En ChatGPT, GPT-5.5 llega a Plus, Pro, Business y Enterprise, mientras que GPT-5.5 Pro queda para Pro, Business y Enterprise. En Codex también alcanza planes Edu y Go. Para desarrolladores, OpenAI anticipó que la versión de API llegará pronto con un precio de 5 dólares por millón de tokens de entrada y 30 dólares por millón de tokens de salida. La variante Pro subirá a 30 y 180 dólares, respectivamente.
Otro punto importante es la seguridad. OpenAI dice que GPT-5.5 sale con su paquete de salvaguardas más fuerte hasta ahora, después de pruebas internas, evaluaciones externas y revisión con casi 200 socios tempranos. La empresa además clasificó sus capacidades en biología/química y ciberseguridad como “High” dentro de su marco de preparación, lo que explica por qué promete más controles antes de abrirlo ampliamente en API.
GPT-5.5 con Codex en el centro
GPT-5.5 refuerza una idea que se está imponiendo en la industria: el valor ya no está solo en chatear mejor, sino en mover trabajo real dentro de software real. OpenAI pone el acento en código, hojas de cálculo, documentos, navegación entre herramientas y tareas de investigación técnica. Es decir, en usos que conectan mejor con productividad, equipos y presupuestos empresariales.
Eso también ayuda a entender por qué Codex vuelve a quedar en el centro. Si el producto mejora justo en tareas largas, revisión de errores, cambios en bases de código y validación, el mensaje de OpenAI es que quiere competir donde hoy están presionando más Anthropic y Google: desarrollo de software, automatización de oficina y asistentes que operan con varias herramientas. Este avance también llega a corregir un tema que ya analizamos en por qué se habla tan poco de Codex.
La capa económica también importa. OpenAI insiste en que GPT-5.5 no solo mejora resultados, sino que usa menos tokens en tareas comparables. Si esa promesa se sostiene fuera de las pruebas internas, el cambio puede ser relevante para empresas que quieren ampliar uso de IA sin disparar costos. En otras palabras, el mercado se está moviendo desde la carrera por “el modelo más capaz” hacia una competencia más concreta: cuál entrega mejor trabajo útil por dólar invertido.
Según TechCrunch, Greg Brockman presentó GPT-5.5 ante la prensa como otro paso hacia una experiencia más amplia que combine varias piezas de OpenAI, incluida la ambición de una especie de “super app”. Más allá del término, la señal es clara: la empresa quiere que ChatGPT, Codex y futuras herramientas funcionen cada vez menos como productos separados y más como una misma plataforma de trabajo.
Con todo esto, se fortalece la utilidad para el usuario: menos promesa abstracta y más presión por ofrecer mejor código, mejor integración con herramientas, mejor relación costo-rendimiento y controles más visibles en seguridad.
Fuentes


