OpenAI mantuvo en vilo ayer a toda la industria tecnológica durante toda la tarde, tras muchos mensajes crípticos en sus redes sociales, hasta que pasadas las 20.00 horas decidió desvelar el esperado ChatGPT 5.5, el modelo más potente presentado hasta la fecha.

La carrera por hacerse con el liderazgo de la Inteligencia Artificial está impulsando a las empresas que presentan modelos dentro de este sector a intensificar sus esfuerzos con el objetivo de lanzar herramientas cada vez más completas y potentes. Durante las últimas horas, hemos vivido el lanzamiento de ChatGPT 5.5, un modelo que llega con el objetivo de convertirse en la herramienta multidisciplinar más potente del mercado para desarrolladores, científicos, investigadores y cualquier otra profesión que pueda hacer uso de ella.

Durante la presentación, asistimos a una sucesión de novedades que nos permitían conocer cuáles eran los nuevos usos y las ventajas con las que iba a llegar esta nueva herramienta. Sin embargo, también hubo una parte negativa: el aumento de precios que había que asumir para usar la API. Pocas horas después de su lanzamiento, hemos conocido que más allá de sus características principales, existe otro aspecto que va a ser clave para esquivar este aumento de precios y, además, ser mucho más eficientes: hablamos del tiempo de razonamiento.

Imagen del precio por modelo
El precio por modelo por cada consulta / Fuente: Reddit

ChatGPT 5.5 necesita mucho menos tiempo para cualquiera de sus funciones

Los primeros usuarios que ya han comenzado a probar las novedades que trae este nuevo modelo y sus cambios principales con respecto a las versiones anteriores, han destacado el escaso tiempo de razonamiento que necesita ChatGPT 5.5 a la hora de realizar cualquier gestión. Si hablamos de tiempos de uso, tareas complejas que hace unos pocos días necesitaban entre 20 y 40 minutos de procesamiento, ahora se pueden resolver en tres o cuatro minutos, lo que supone un importante ahorro de tiempo.

Una de las primeras cuestiones que ha surgido después de que un usuario de Reddit haya dado a conocer esta circunstancia, ha sido si la calidad de la respuesta es exactamente la misma de la que teníamos en modelos anteriores. Por los resultados que se han obtenido durante los últimos días, han comprobado que, efectivamente, la calidad de las respuestas es exactamente la misma que teníamos antes. La clave la encontramos en la gestión más eficiente de los tokens que se utilizan para completar cualquier tarea.

La eficiencia de los tokens, la clave del nuevo modelo

Pese a que los precios de ChatGPT 5.5 son cercanos al doble de los que teníamos en la versión 5.4 a través de la API, la rapidez de procesamiento provoca que sea necesario utilizar muchos menos tokens para cumplir con cualquier tarea diaria que tengamos pendiente.

Facebook
Instagram