OpenAI, la empresa estadounidense líder en inteligencia artificial (IA), anunció este viernes 13 de febrero el lanzamiento de GPT‑5.3‑Codex‑Spark, un nuevo modelo de IA diseñado para codificar en tiempo real con respuestas ultrarrápidas, y marcar un hito en la relación entre desarrolladores y máquinas.
GPT‑5.3‑Codex‑Spark es una versión compacta y altamente optimizada de la última familia de modelos Codex, pensada específicamente para tareas de programación interactiva e instantánea.
Según la compañía, el modelo puede generar más de 1.000 "tokens" por segundo, algo que se traduce en resultados prácticamente inmediatos a medida que el usuario trabaja o corrige código.
Interacción en tiempo real para desarrolladores
Una de las principales diferencias de Codex‑Spark frente a otros modelos es su capacidad para permitir que los programadores interrumpan, modifiquen o redirijan el trabajo del modelo mientras este genera código.
Esta característica lo convierte en una herramienta rápida, colaborativa y adaptable a flujos de trabajo dinámicos.
En esta línea, el modelo mantiene un amplio contexto de trabajo, hasta 128 000 tokens, algo que facilita manejar proyectos extensos o archivos de gran tamaño sin perder coherencia.
Por otro lado, esta IA también está diseñada para hacer ediciones específicas y precisas sin ejecutar pruebas automáticamente, a menos que el desarrollador lo solicite.
Para alcanzar esta latencia mínima, OpenAI implementó Codex‑Spark junto a Cerebras Systems, utilizando el procesador especializado Wafer Scale Engine 3, un acelerador de IA centrado en la aceleración de inferencia y en maximizar la velocidad de respuesta.
Esta asociación representa un cambio notable respecto a generaciones anteriores de modelos que dependían principalmente de hardware generalista.
Un paso más en la evolución de la IA
Los resultados de distintos benchmarks de ingeniería de software, como SWE‑Bench Pro y Terminal‑Bench 2.0, revelan que Codex‑Spark completa tareas de programación en mucho menos tiempo que sus predecesores, manteniendo una precisión competitiva.
Por el momento, Codex‑Spark fue solo lanzado como una vista previa de investigación para usuarios de ChatGPT Pro dentro de la aplicación Codex, y permitir a los desarrolladores experimentar con la nueva herramienta antes de una posible expansión a la API y otros entornos de desarrollo.
Además, OpenAI también advertió que, debido a que el modelo se ejecuta en hardware de baja latencia altamente especializado, podrían existir limitaciones de velocidad ajustables según la demanda durante esta fase inicial de pruebas.
Este lanzamiento llega una semana después de la presentación de GPT‑5.3‑Codex, la versión más avanzada hasta ahora de la familia Codex, capaz de realizar tareas complejas de codificación y que incluso jugó un papel en su propio desarrollo durante las pruebas internas.
Es por eso que con Codex‑Spark, OpenAI busca cubrir tanto las necesidades de proyectos de larga duración como las exigencias de trabajo inmediato, consolidando su apuesta por modelos de IA cada vez más integrados en las rutinas diarias de programadores y profesionales técnicos.