ATB RADIO

EN VIVO

ATB Digital
Tecnología

Codex app para macOS: el centro de mando para coordinar agentes y trabajo en paralelo

Mundo, 5 de feb 2026 (ATB Digital).- OpenAI presentó el 2 de febrero de 2026 la Codex app para macOS, una aplicación de escritorio pensada como interfaz principal para dirigir y supervisar múltiples agentes a la vez. La idea es sencilla de explicar con una imagen cotidiana: si antes trabajabas con un único copiloto en el asiento de al lado, ahora tienes una torre de control donde coordinas varios “aviones” en paralelo, cada uno con su ruta, su contexto y su ritmo, sin que todo se mezcle.

Según OpenAI, el cambio de fondo no es solo que los modelos sean más capaces, sino que las tareas que se les delegan duran más y son más complejas: trabajos que pueden ocupar horas o días, y que requieren seguimiento, correcciones, validación y continuidad. En ese escenario, un IDE tradicional o un terminal funcionan bien para editar y ejecutar, pero no están diseñados como panel de orquestación para “equipos” de agentes.

Hilos por proyecto y revisión de cambios con diffs

La Codex app organiza el trabajo por proyectos y por hilos, con cada agente operando en su propio espacio. Esa separación busca que puedas saltar de una tarea a otra sin perder el hilo mental: un agente puede estar corrigiendo tests, otro investigando una dependencia, y otro preparando un despliegue, mientras tú revisas con calma.

En el flujo propuesto, la revisión se parece a leer una propuesta de cambios antes de aceptar una reforma en casa: puedes ver el “antes y después” en un diff, comentar sobre partes concretas y, si lo prefieres, abrir esos cambios en tu editor para retocar manualmente. Es una manera de mantener el control humano sin obligarte a microgestionar cada paso del agente.

OpenAI también señala que la aplicación hereda tu historial de sesión y configuración si ya vienes del Codex CLI o de la extensión de IDE, con la intención de que el salto sea inmediato y no implique rehacer ajustes.

Worktrees: caminos paralelos sin conflictos en el repo

Uno de los puntos más prácticos es el soporte integrado de worktrees. Traducido a una metáfora: es como tener varias mesas de trabajo con copias separadas del mismo proyecto; cada agente usa su propia mesa, así no se chocan los codos ni se pisan herramientas.

En Git, los worktrees permiten tener varias copias de un repositorio asociadas a ramas distintas. En la app, esto se plantea como un modo de dejar que varios agentes trabajen sobre el mismo repo sin conflictos directos. Tú puedes ir “trayendo” cambios a tu entorno local cuando te convenga, o dejar que el agente siga avanzando sin que tu estado local de Git se convierta en un campo minado.

De escribir código a “usar código” con skills

OpenAI enmarca la evolución de Codex como un paso desde “generar código” hacia “usar código para hacer trabajo” dentro del propio ordenador. Aquí entran las skills, que funcionan como recetas reutilizables: un paquete de instrucciones, recursos y scripts que ayudan a que el agente siga un método consistente, conecte con herramientas y ejecute flujos con las preferencias del equipo.

La interfaz de skills dentro de la app está orientada a crearlas y gestionarlas. Puedes pedir explícitamente una skill concreta o dejar que Codex decida usarla cuando detecte que encaja con lo que necesitas. La promesa es reducir el caos típico de los encargos ambiguos: cuando una tarea tiene pasos repetibles, una skill intenta convertirlos en un proceso fiable.

El ejemplo del juego y el tamaño real de estos proyectos

OpenAI ilustra el enfoque con un caso llamativo: pedir a Codex un juego completo tipo kart racer en 3D con Three.js, con personajes, pistas, ítems, menús y pruebas de calidad jugando el propio juego. La compañía afirma que, usando una skill de desarrollo web y una skill de generación de imágenes (impulsada por GPT Image), el agente trabajó de forma autónoma con más de 7 millones de tokens a partir de un único prompt inicial, asumiendo roles como diseño, desarrollo y QA.

Ese dato, más que un número para impresionar, sirve para entender la clase de problema que intentan resolver: cuando un trabajo se alarga tanto, la herramienta deja de ser “un chat” y pasa a necesitar memoria operativa, organización, controles de revisión y un modo de continuar sin que todo dependa de que tú estés mirando la pantalla.

Una biblioteca de skills y su vida fuera de la app

OpenAI afirma que internamente ya usa cientos de skills para delegar tareas difíciles de definir de forma consistente, como ejecutar evaluaciones, vigilar entrenamientos, redactar documentación o generar informes de experimentos. En la Codex app, se incluye una biblioteca con skills para herramientas populares en entornos de producto e ingeniería.

Entre los ejemplos destacados figuran skills para llevar diseños a código con contexto de Figma, gestionar incidencias y releases en Linear, desplegar a proveedores como Cloudflare, Netlify, Render o Vercel, consultar documentación al construir con APIs de OpenAI, y trabajar con documentos como PDF, hojas de cálculo y docx con formato cuidado. OpenAI menciona que existe un repositorio open source con la lista completa.

Un detalle relevante para equipos es que las skills no se quedan encerradas en la app: pueden usarse también desde el CLI o la extensión del IDE, y se pueden versionar dentro del repositorio para compartirlas, como si fueran parte del “manual de cocina” del equipo.

Automations: trabajo programado que termina en una cola de revisión

La app incorpora Automations, pensadas para ejecutar tareas de forma programada. El concepto recuerda a poner una lavadora con temporizador: la tarea arranca cuando toca, se ejecuta siguiendo instrucciones (con skills opcionales), y cuando termina deja el resultado en una cola de revisión para que tú decidas qué aceptar y qué corregir.

OpenAI dice que ya las usa para tareas repetitivas con impacto real, como el triage diario de issues, detectar y resumir fallos de CI, preparar briefs de releases o comprobar bugs. Es un intento de normalizar un patrón: delegar lo rutinario al agente, sin renunciar al control final, y con trazabilidad de qué se hizo y por qué.

Personalidades: mismo motor, distinta forma de hablar

Otro cambio es la elección de personalidad del agente: un estilo más seco y pragmático o uno más conversacional y empático, sin variar capacidades. Se activa con el comando /personality en la app, el CLI y la extensión. Es un ajuste pequeño en apariencia, pero útil en el día a día: hay momentos para respuestas telegráficas y momentos para un agente que explique decisiones como lo haría un compañero paciente.

Seguridad: sandboxing y permisos como regla base

OpenAI recalca un enfoque “seguro por defecto” en toda la pila del agente. La Codex app usa un sistema de sandboxing nativo, configurable y open source, en línea con lo que ya aplican en Codex CLI. El comportamiento por defecto limita a los agentes a editar archivos dentro de la carpeta o rama donde trabajan y a usar búsqueda web en caché; si necesitan ejecutar comandos con permisos más sensibles, como acceso de red, deben pedir autorización.

Para equipos, se pueden definir reglas por proyecto o a nivel de organización que permitan elevar permisos automáticamente en ciertos comandos. La lectura práctica es clara: el objetivo es evitar que un agente tenga “llaves maestras” por defecto, y que los permisos se parezcan más a un portero que pregunta antes de dejar pasar.

Disponibilidad, planes y la hoja de ruta inmediata

La Codex app para macOS está disponible desde el anuncio, y OpenAI indica que se puede usar con suscripciones ChatGPT Plus, Pro, Business, Enterprise o Edu a través del mismo login, con uso incluido y opción de comprar créditos extra si hiciera falta. Durante un periodo limitado, Codex también se incluye para usuarios de ChatGPT Free y Go, y la compañía dice que está duplicando los límites de uso para planes de pago, aplicando esos límites ampliados en app, CLI, IDE y cloud.

En cuanto a lo siguiente, OpenAI apunta a llevar la aplicación a Windows, mejorar la experiencia de flujos multiagente, acelerar la inferencia y ampliar Automations con disparadores basados en la nube para que puedan ejecutarse de forma continua, incluso si tu ordenador no está encendido. También menciona métricas recientes: desde el lanzamiento de GPT-5.2-Codex a mediados de diciembre, el uso de Codex se habría duplicado, y en el último mes más de un millón de desarrolladores lo habrían utilizado, según la propia compañía.

Fuente: Whatsnew.com

Noticias relacionadas

Cámara Nacional de Industrias reiteró su pedido para reactivar Consejo Nacional contra el contrabando

ATB Usuario

Secuestran celulares y objetos punzocortantes en cárceles de Cochabamba

Cristal Vergara Capo

GPS y una app para frenar el trameaje en La Paz: ¿una solución definitiva al problema del transporte?

Sergio Aliaga