
OpenAI no ha parado en 2025 ni en lo que llevamos de 2026. Si hace un año GPT-4o era lo más avanzado que teníamos entre manos, hoy la familia GPT-5 ha reescrito completamente lo que esperamos de un modelo de lenguaje.
Y no hablo solo de respuestas más largas o más rápidas. Hablo de un salto cualitativo real en razonamiento, en capacidad de seguir instrucciones complejas y en integración con herramientas externas.
Vamos a desglosar todo lo que ha pasado: desde el lanzamiento original de GPT-5 hasta las variantes GPT-5.2 y el reciente GPT-5.3-Codex.
El lanzamiento de GPT-5: por fin llegó
Después de meses de rumores, filtraciones y expectativas por las nubes, OpenAI lanzó GPT-5 en 2025. Y la verdad es que cumplió, aunque no de la manera que muchos esperaban.
GPT-5 no fue el "momento iPhone" que algunos profetizaban. No fue un salto tan dramático de GPT-4 a GPT-5 como lo fue de GPT-3 a GPT-4. Pero en la práctica, las mejoras son sustanciales y se notan en el día a día.
Las mejoras clave de GPT-5:
- Razonamiento nativo mejorado: GPT-5 integra cadenas de pensamiento sin necesidad de modelos separados tipo o1. Piensa antes de responder por defecto.
- Ventana de contexto ampliada: soporte para hasta 256K tokens en la versión base, con opciones extendidas para API.
- Multimodalidad mejorada: mejor comprensión de imágenes, audio y documentos complejos en un solo flujo.
- Menor tasa de alucinación: OpenAI reportó una reducción significativa en respuestas inventadas, especialmente en tareas factuales.
- Mejor seguimiento de instrucciones: entiende matices, restricciones y formatos complejos con mucha más fiabilidad.
GPT-5 no es 10 veces más inteligente que GPT-4. Es consistentemente más fiable, más preciso y más capaz de mantener tareas complejas sin descarrilarse.

De GPT-5 a GPT-5.2: iteración rápida
Lo que ha cambiado con la familia GPT-5 es la velocidad de iteración de OpenAI. En vez de esperar un año para el siguiente gran modelo, han adoptado un ciclo de actualizaciones más frecuente.
GPT-5.2 llegó como una evolución enfocada en rendimiento y eficiencia:
| Aspecto | GPT-5 | GPT-5.2 |
|---|---|---|
| Razonamiento | Muy bueno | Mejorado en lógica formal |
| Velocidad | Estándar | 30-40% más rápido |
| Coste API | Referencia | ~20% más barato |
| Herramientas | Soporte básico | Function calling mejorado |
| Código | Competente | Significativamente mejor |
| Contexto | 256K tokens | 256K tokens (más estable) |
GPT-5.2 no fue un modelo nuevo, sino una refinación. Pero en el mundo real, esas refinaciones importan. Menor latencia, respuestas más consistentes y menos errores en tareas de programación marcaron una diferencia real para los desarrolladores.
Nota Importante
Presta atención a este detalle.
GPT-5.3-Codex: el movimiento estrella
Y entonces llegó GPT-5.3-Codex. Aquí es donde la cosa se pone interesante de verdad.
OpenAI no se conformó con mejorar el modelo general. Sacó una variante especializada en código que, siendo honestos, ha puesto muy nerviosos a muchos desarrolladores (y a algunas startups de herramientas de código con IA).
Qué hace GPT-5.3-Codex diferente:
- Entrenamiento especializado en código: no es solo un modelo de lenguaje que también programa. Está optimizado específicamente para tareas de desarrollo.
- Ejecución de código en sandbox: puede ejecutar y verificar su propio código antes de darte la respuesta.
- Comprensión profunda de repositorios: puede navegar, entender y modificar bases de código completas, no solo fragmentos.
- Generación de tests: crea tests unitarios y de integración de forma proactiva.
- Debugging avanzado: no solo identifica errores, sino que entiende el contexto del proyecto para proponer soluciones que encajan con la arquitectura existente.
En benchmarks como SWE-bench, GPT-5.3-Codex ha mostrado resultados impresionantes, resolviendo issues reales de repositorios open source con una tasa de éxito que supera con creces a cualquier modelo anterior.
Para qué lo estamos usando realmente
Más allá de los benchmarks, lo que me interesa es el uso real. Y aquí van algunos patrones que estoy viendo:
Prototipado ultrarrápido: descripción en lenguaje natural → aplicación funcional en minutos. No es magia, pero se acerca bastante.
Refactoring de código legacy: le das un módulo antiguo, le explicas la arquitectura objetivo, y genera un plan de migración paso a paso con código.
Revisiones de código: como un compañero senior que nunca se cansa de revisar pull requests y que detecta problemas sutiles.
Documentación automática: genera documentación técnica que realmente tiene sentido, no ese boilerplate genérico que nadie lee.

Inteligencia Artificial aplicada a negocio
Sin humo. Solo experimentos reales, prompts que funcionan y estrategias de escalabilidad.
Los precios: la guerra del coste por token
Uno de los movimientos más agresivos de OpenAI ha sido en precios. La competencia de Claude, Gemini y los modelos open source les ha obligado a ser más competitivos.
Así están los precios de la API a febrero de 2026 (aproximados):
| Modelo | Input (1M tokens) | Output (1M tokens) | Contexto máx. |
|---|---|---|---|
| GPT-5 | ~$10 | ~$30 | 256K |
| GPT-5.2 | ~$8 | ~$25 | 256K |
| GPT-5.3-Codex | ~$12 | ~$35 | 256K |
| GPT-4o (referencia) | ~$2.50 | ~$10 | 128K |
Los modelos GPT-5.x son más caros que GPT-4o, pero la relación calidad-precio ha mejorado mucho. Un prompt que antes necesitabas iterar 3-4 veces con GPT-4o suele resolverse a la primera con GPT-5.2.
Para uso a través de ChatGPT, el modelo está disponible con la suscripción Plus ($20/mes) y Pro ($200/mes), con límites de uso diferentes. El tier Pro ofrece acceso sin límites a GPT-5.3-Codex, lo que lo convierte en una propuesta interesante para desarrolladores profesionales.
Qué significa GPT-5 para el mercado
El impacto de GPT-5 va más allá de las especificaciones técnicas. Hay varias tendencias que están cristalizando:
1. El fin del modelo único
OpenAI ha dejado claro que el futuro no es un solo modelo para todo. GPT-5 para uso general, Codex para código, y probablemente más variantes especializadas en camino. Esto es un cambio de estrategia importante.
2. La API como producto principal
ChatGPT sigue siendo el escaparate, pero el verdadero negocio de OpenAI está en la API. Y con GPT-5, la API se ha vuelto mucho más potente para construir productos encima.
3. Presión sobre los competidores
Cada lanzamiento de OpenAI fuerza a Anthropic, Google y los demás a acelerar. Claude Opus 4.6 llegó poco después de GPT-5.2. Gemini 2.0 se posicionó como alternativa. La competencia está beneficiando enormemente a los usuarios.
4. El debate de la AGI se intensifica
Sam Altman ha hablado de que estamos "en la recta final" hacia la AGI. GPT-5 no es AGI, pero las capacidades de razonamiento y uso de herramientas empiezan a parecer cualitativamente diferentes a lo que teníamos hace dos años.
Mi opinión: estamos más cerca de agentes de IA realmente autónomos que de AGI propiamente dicha. Y para la mayoría de casos prácticos, eso importa más.
Limitaciones que persisten
No todo es de color de rosa. GPT-5 sigue teniendo problemas que hay que conocer:
Alucinaciones reducidas pero no eliminadas. Ha mejorado mucho, pero sigue inventándose cosas, especialmente en temas especializados o datos muy recientes.
Ventana de contexto vs. atención real. Que soporte 256K tokens no significa que preste la misma atención a todo. La información en el medio de un prompt largo sigue siendo la peor procesada.
Dependencia del prompt. Aunque sigue instrucciones mejor que nunca, un mal prompt sigue dando malos resultados. La ingeniería de prompts no ha muerto.
Coste acumulado. Para empresas que hacen miles de llamadas a la API al día, la diferencia de precio entre GPT-4o y GPT-5 se nota. No siempre necesitas el modelo más potente.
Opacidad. OpenAI sigue sin publicar detalles técnicos sobre la arquitectura y el entrenamiento. En un contexto donde la transparencia es cada vez más demandada, esto es un punto flaco.

GPT-5 vs. la competencia: una foto rápida
Como analizamos en profundidad en nuestro artículo comparativo, el panorama está muy reñido. Pero a grandes rasgos:
| Aspecto | GPT-5.3 | Claude Opus 4.6 | Gemini 2.0 |
|---|---|---|---|
| Razonamiento | Excelente | Excelente | Muy bueno |
| Código | Superior (Codex) | Muy bueno | Bueno |
| Contexto | 256K | 1M tokens | 2M tokens |
| Multimodal | Muy bueno | Bueno | Superior |
| Precio API | Medio-alto | Medio | Medio-bajo |
| Agentes | Bueno | Muy bueno | Bueno |
| Transparencia | Baja | Media | Baja |
Ningún modelo es el mejor en todo. Y eso es bueno para todos nosotros.

¿Te preocupa el futuro con la IA?
Descubre cómo la inteligencia artificial ha liquidado las viejas reglas del juego y qué puedes hacer tú al respecto.
Leer más sobre el libroMi valoración: ¿merece la pena el salto?
Después de semanas usando GPT-5 y sus variantes, esto es lo que pienso:
Si eres desarrollador, GPT-5.3-Codex es probablemente la mejor herramienta de asistencia al código que existe ahora mismo. El salto respecto a GPT-4o en tareas de programación es real y tangible.
Si eres usuario de ChatGPT, la mejora en razonamiento y seguimiento de instrucciones se nota. Las conversaciones son más productivas, las respuestas más precisas. Si ya pagas Plus, disfrutas del upgrade sin coste adicional.
Si estás construyendo productos con IA, GPT-5.2 ofrece el mejor equilibrio calidad-precio para la mayoría de casos. No necesitas Codex a menos que tu producto sea específicamente de desarrollo.
Si tu presupuesto es limitado, GPT-4o sigue siendo una opción muy competente para muchos casos de uso. No sientas que necesitas el último modelo para todo.
Qué viene después
OpenAI no va a parar. Los rumores apuntan a:
- Modelos más pequeños y especializados: siguiendo la línea de Codex, más variantes para dominios específicos.
- Integración más profunda con agentes: GPT-5 como cerebro de sistemas agenticos más complejos.
- Reducción de precios: la competencia obliga, y el hardware mejora.
- Mejoras en multimodalidad: especialmente en generación y comprensión de vídeo, ahora que Sora 2 está en juego.
Lo que está claro es que el ritmo de mejora no se desacelera. Y para quienes trabajamos con IA, eso significa que lo que sabemos hoy puede quedar obsoleto en meses. No en años, en meses.
La clave no es dominar cada modelo nuevo. Es entender los patrones, los principios y las tendencias. Porque los modelos cambian, pero la lógica de cómo usarlos bien se mantiene.
Inteligencia Artificial aplicada a negocio
Sin humo. Solo experimentos reales, prompts que funcionan y estrategias de escalabilidad.