ATB RADIO

EN VIVO

ATB Digital
Tecnología

GPT-5.4 Pro y el “atajo” matemático: cuando la IA gana por memoria, búsqueda y contexto

Mundo, 9 de mar 2026 (ATB Digital).- La conversación sobre modelos de lenguaje y matemáticas suele moverse entre dos extremos: o “solo predicen texto”, o “ya razonan como un estudiante brillante”. La noticia reciente se sitúa justo en el punto incómodo del medio. Según contó Computerworld, y apoyándose en una publicación de Epoch AIGPT-5.4 Pro logró resolver un problema de máxima dificultad dentro de un conjunto de retos académicos, uno que hasta ese momento ningún otro modelo había superado.

El detalle que vuelve esto interesante no es únicamente el acierto, sino el “cómo”. En el análisis preliminar, Epoch AI sugiere que el modelo localizó un preprint de 2011 que permitía recortar gran parte del trabajo esperado, y que el propio autor del problema no conocía ese documento. Es como si a alguien le pidieran demostrar un teorema en una pizarra y, antes de empezar, sacara del bolsillo una fotocopia olvidada de una demostración publicada hace años en un repositorio poco transitado. El resultado final es correcto, pero la historia cambia: no estamos viendo solo capacidad de deducción desde cero, sino una mezcla sofisticada de búsqueda, memoria y recombinación.

Qué mide realmente un benchmark como FrontierMath
Epoch AI viene evaluando a modelos con pruebas matemáticas diseñadas para distinguir entre “resolver ejercicios tipo” y enfrentarse a preguntas que exigen inventiva. En enero, la compañía reportó que una versión anterior, GPT-5.2 Pro, resolvía un 31% de sus desafíos matemáticos, frente al 19% que había sido el mejor registro previo. En la nueva medición, GPT-5.4 Pro mantiene la tendencia y, en ese escalón superior, logra al menos un acierto que antes se resistía.Noticias TechCrunch

La moraleja práctica es menos épica y más útil: cuando un test pretende medir “razonamiento puro”, la frontera entre razonar y encontrar la pieza correcta en el archivo de la humanidad se vuelve difusa. No porque el modelo “haga trampas” de manera humana, sino porque su ventaja competitiva real puede depender de cuánto y cómo accede a información relevante, y de si reconoce que un texto de 2011 encaja como llave en una cerradura.

El preprint de 2011: acierto legítimo, preguntas inevitables
Un preprint no revisado por pares es, en la práctica, una idea publicada con etiqueta de “borrador”. Puede ser excelente o puede contener fallos; muchas veces es el primer lugar donde aparecen resultados que tardan años en formalizarse. Que un modelo se apoye en un preprint para resolver un problema plantea varias preguntas que interesan tanto a investigadores como a empresas.

La primera es metodológica: si la prueba está diseñada para medir la capacidad de construir la solución paso a paso, un “atajo documental” cambia lo que se está midiendo. La segunda es de higiene del propio benchmark: si hay soluciones o resultados parciales disponibles en la literatura, aunque sean poco conocidos, el desafío ya no es exactamente “sin resolver”, sino “no resuelto por el conjunto de modelos probados hasta ahora, sin haber encontrado esa referencia”. Eso no lo convierte en irrelevante; lo convierte en más realista. En investigación, muchas victorias llegan así: alguien conecta trabajos dispersos y recorta años de esfuerzo.

En este caso, Epoch AI subraya que el autor del problema no conocía el preprint. Ese matiz importa porque revela otro fenómeno: la IA puede actuar como una especie de “bibliotecario hiperactivo”, capaz de encontrar literatura que ni el propio especialista tenía en el radar. Eso abre una puerta interesante para la ciencia… y otra incómoda para la evaluación de modelos.

¿Son los modelos “motores de búsqueda con esteroides”?
El propio enfoque de Computerworld lo deja caer: el episodio ilustra que GPT-5.4 y, en general, los modelos actuales funcionan como “motores de búsqueda sofisticados” cuya eficacia mejora con acceso rápido a información y con capacidad de asimilarla. La metáfora es útil si se entiende bien. Un buscador tradicional te devuelve enlaces; un modelo intenta darte una respuesta final ya cocinada. La diferencia se parece a pedir ingredientes en un supermercado frente a encargar un plato listo en un restaurante. El plato puede ser excelente, pero conviene saber si el chef lo ha inventado en el momento o si está siguiendo una receta muy conocida que encontró en un libro.

Para usuarios técnicos, la lección es doble. Por un lado, cuando un modelo es capaz de hallar un paper olvidado y usarlo con sentido, se vuelve un asistente valioso para investigación. Por otro, cuando se evalúa “capacidad de razonamiento”, hay que controlar cuánto de ese rendimiento proviene de recuperación de información.

“Hacer cosas en el ordenador”: la otra gran novedad
La noticia matemática llega acompañada de un cambio funcional que puede tener más impacto cotidiano. OpenAI presenta GPT-5.4 como su primera versión con capacidad nativa de uso del ordenador, no solo describiendo qué habría que hacer, sino ejecutando acciones mediante un agente que interactúa con interfaces: comandos de teclado y ratón a partir de lo que ve en pantalla, e integración con flujos de automatización. En su anuncio oficial, OpenAI menciona su buen desempeño escribiendo código para operar ordenadores con herramientas tipo Playwright y emitiendo acciones basadas en capturas. Medios como The Verge lo han enmarcado como un paso importante hacia agentes de IA más autónomos.

Traducido a vida real: si antes le pedías “ordena estos datos en una hoja de cálculo” y te devolvía instrucciones, ahora puede ejecutar los clics, navegar menús y completar el flujo. Es la diferencia entre un copiloto que te dicta direcciones y uno que también puede llevar las manos al volante en un entorno controlado.Aprendizaje automático e inteligencia artificial

Menos tokens, más planificación y mejores hojas de cálculo
OpenAI y la cobertura periodística destacan otras mejoras que, sin ser tan llamativas como “resolver un problema imposible”, suelen ser las que te ahorran horas. Se habla de mayor eficiencia al usar menos tokens para llegar a resultados comparables, mejoras en hojas de cálculo y una tendencia a elaborar un plan de trabajo antes de abordar tareas complejas, permitiendo que el usuario lo ajuste.

Aquí la metáfora doméstica encaja: cuando alguien cocina sin plan, ensucia media cocina y se olvida de un ingrediente clave; cuando cocina con una lista de pasos, el resultado suele ser más consistente. Un modelo que “piensa en voz baja” en forma de esquema y permite correcciones intermedias puede reducir errores tontos y malentendidos, sobre todo en tareas largas.

Implicaciones: ciencia, educación y confianza
El caso del preprint de 2011 deja un aprendizaje transversal: la frontera entre descubrir y redescubrir se difumina. En ciencia, encontrar literatura olvidada puede evitar repetir experimentos, corregir hipótesis y acelerar revisiones. En educación, plantea retos: si un estudiante usa una herramienta que localiza una solución rara y la presenta como propia, el profesor ve un resultado correcto con un proceso opaco. En empresa, el foco está en la confianza: cuando un modelo ofrece una respuesta, importa saber si deriva de razonamiento interno, de una fuente externa o de una mezcla.

OpenAI afirma que GPT-5.4 mejora en factualidad frente a la generación anterior y en uso de herramientas, lo que apunta a un futuro donde el modelo no solo “habla”, sino que verifica y actúa. Aun así, el episodio recuerda que el rendimiento en benchmarks no es un trofeo simple: es un espejo que refleja qué capacidades están creciendo y qué atajos nuevos aparecen cuando conectas un modelo a la biblioteca global.

Lo que conviene mirar a partir de ahora
Si algo deja claro este hito es que la próxima discusión no será solo “qué porcentaje resuelve”, sino “qué tipo de solución es”. En pruebas matemáticas, veremos más interés por separar escenarios: problemas diseñados para impedir recuperación directa, pruebas donde la recuperación es parte del objetivo, y evaluaciones que piden trazabilidad clara de fuentes. En producto, el “modelo que actúa” exigirá barandillas: permisos, auditoría de acciones, límites de seguridad, y transparencia sobre cuándo está consultando información externa.

El salto de GPT-5.4 Pro en matemáticas es noticia por el récord, sí. La parte importante está en el método: la IA no solo mejora por “ser más lista”, sino por aprender a encontrar la pieza adecuada, en el momento adecuado, y usarla sin desarmar el contexto. Como un buen mecánico que no fabrica tornillos, pero sabe exactamente cuál necesitas y en qué caja olvidada está.

Fuente: Whatsnew.com

Noticias relacionadas

Justicia programa audiencia clave para Camacho y Pumari el próximo lunes

Marco Huanca

Los wearables: tecnología avanzada que integra datos en la vida cotidiana y apoya la salud

ATB Usuario

Inicia el reclutamiento militar 2026 con largas filas de jóvenes postulantes

Sergio Aliaga