Mundo, 12 de ene 2026 (ATB Digital).- Predecir la IA en 2026 tiene un punto de deporte de riesgo: lo que hoy parece un “nuevo estándar” mañana se siente como una versión beta. Aun así, hay señales que se repiten y empiezan a formar patrones. En la serie “What’s Next” de MIT Technology Review, varios de sus periodistas miran hacia el año que arranca apoyándose en algo más sólido que la intuición: lo que ya se vio en 2025 y cómo evolucionó.
El ejercicio tiene gracia porque parte de un “control de calidad” real. En 2025 se hablaba de modelos que generan mundos (los llamados world models), de modelos de razonamiento como nueva referencia para resolver problemas, del empuje de la IA para ciencia, del acercamiento entre empresas de IA y seguridad nacional, y del deseo —todavía más deseo que realidad— de ver competencia seria frente a Nvidia. La idea útil aquí no es acertar cada titular, sino detectar el movimiento de fondo: cada vez más capacidad, más actores y más fricción alrededor del uso.
Con ese contexto, estos son cinco cambios que, si nada se tuerce, van a marcar conversación, producto y regulación durante 2026.
Silicon Valley empezará a apoyarse más en modelos chinos, aunque no lo anuncie
Una de las historias más llamativas es el avance de los LLM chinos en el ecosistema global, sobre todo en la parte que más importa a los equipos de producto: disponibilidad, coste y control. La chispa, según se cuenta, fue el impacto de DeepSeek con su modelo R1, presentado como un sistema de razonamiento con enfoque open-weight. La diferencia práctica con un modelo “cerrado” no es un matiz académico: es como pasar de alquilar una cocina industrial por horas a tener la cocina instalada en tu propio local. Puedes ajustar la receta, decidir cuánto fuego usar y, si hace falta, cambiar la sartén.
Los modelos con pesos abiertos permiten descargarlos y ejecutarlos en infraestructura propia, con margen para personalizarlos mediante técnicas como distillation o pruning, que en la práctica equivalen a “compactar” o “especializar” un modelo para un caso concreto. Frente a eso, gran parte de los modelos punteros de empresas estadounidenses se consumen como servicio, con límites, precios y decisiones de producto que vienen dadas.
En ese hueco han crecido familias como Qwen de Alibaba, con una variedad de tamaños y versiones afinadas para tareas específicas como código, matemáticas, visión o seguimiento de instrucciones. La propia MIT Technology Review menciona que medios como CNBC y Bloomberg han señalado un interés creciente de startups estadounidenses por adoptar este tipo de modelos cuando el objetivo es enviar producto rápido y con costes contenidos. La dinámica competitiva también empuja hacia la apertura en otros lugares: se citan movimientos de OpenAI con un lanzamiento de modelo abierto y del Allen Institute for AI con Olmo 3, señalando que incluso actores tradicionales están recalculando su estrategia.
La lectura para 2026 es sencilla: el retraso entre lo que se lanza en China y lo que llega a la “frontera” occidental tenderá a estrecharse, y veremos más aplicaciones en EE. UU. construidas sobre modelos abiertos chinos sin convertirlo en eslogan de marketing. Para el usuario final será invisible; para el sector, será un cambio importante en la cadena de suministro de la IA generativa.
Regulación en EE. UU.: tirones de cuerda entre estados, Casa Blanca y lobby tecnológico
Si la tecnología avanza como un tren, la regulación avanza como una bicicleta en una calle con obras: se mueve, pero con paradas, desvíos y discusiones sobre quién tiene prioridad. El texto apunta a un año especialmente conflictivo en regulación de IA en EEUU, con choque entre el gobierno federal y los estados. Se menciona una orden ejecutiva firmada por el presidente Donald Trump en diciembre, orientada a debilitar o frenar leyes estatales sobre IA, abriendo un frente que probablemente terminará en tribunales.
Aquí no se trata solo de “más normas o menos normas”, sino de quién manda. Estados grandes y con músculo legal, como California, aparecen como actores dispuestos a litigar para defender su margen regulatorio. El artículo menciona una ley estatal enfocada en frontier AI que obligaría a publicar pruebas de seguridad. Otros estados, con menos capacidad o con miedo a perder financiación federal, podrían optar por no enfrentarse.}
Mientras tanto, la presión social va a aumentar por asuntos que ya están en el escaparate: chatbots acusados de influir en autolesiones de menores, el consumo energético de los centros de datos, y la sensación de que la tecnología se despliega más rápido que las protecciones. En paralelo, se anticipa una batalla política con super-PACs financiando campañas a favor y en contra de la regulación, con impacto en las elecciones legislativas de mitad de mandato.
Para 2026, el resultado más probable no es una “gran ley clara” que lo ordene todo, sino una convivencia incómoda: intentos federales de unificar criterios, resistencia estatal, y una negociación permanente donde las empresas tratarán de evitar un mosaico de reglas que complique operar a escala.
Comprar conversando: el chatbot como dependiente, comparador y cajero
La compra online se parece cada vez menos a “buscar y elegir” y más a “conversar y decidir”. La apuesta aquí es el crecimiento del chatbot de compras, que no solo recomienda, sino que compara, negocia condiciones y termina la transacción. Si un comparador tradicional era como mirar una estantería larga con precios, el modelo conversacional es más como llevar a alguien contigo que conoce tu estilo, tus límites de presupuesto y tus manías, y que no se cansa.
MIT Technology Review recoge una cifra de Salesforce: la expectativa de que la IA impulse 263.000 millones de dólares en compras online durante la temporada navideña, una porción significativa del total. También se cita a McKinsey, que proyecta entre 3 y 5 billones de dólares anuales para 2030 vinculados al comercio agentico, un concepto que básicamente significa que el sistema no solo sugiere, sino que actúa: busca, filtra, valida, compra y coordina entrega.
En producto ya se ven piezas encajando. Se menciona que Gemini de Google puede apoyarse en el Shopping Graph para datos de productos y vendedores, y que su tecnología agentica llega a realizar llamadas a tiendas en nombre del usuario. También se describe una función de compras en ChatGPT, con guías de compra rápidas y acuerdos con comercios como Walmart, Target y Etsy para permitir compras dentro de la conversación.
El impacto para 2026 no es solo más “shopping con IA”, sino una redistribución del tráfico: si la gente decide dentro del chat, los enlaces desde buscadores y redes pierden peso. Para marcas y comercios, el reto será aprender a “ser elegibles” para un asistente, igual que en su día aprendieron SEO para buscadores. La diferencia es que el nuevo “escaparate” habla, y sus criterios pueden incluir confianza, devoluciones, reputación o compatibilidad con tus preferencias, no solo palabras clave.
Un LLM podría participar en un descubrimiento relevante, con una condición: verificación constante
Aquí conviene bajar el volumen del hype y subir el de la metodología. La predicción no dice que un modelo de lenguaje vaya a “descubrir” algo por arte de magia. Dice que, bien integrado, podría empujar los límites del conocimiento humano. El matiz lo cambia todo: un LLM solo, sin frenos, puede inventar respuestas con una seguridad inquietante; un LLM dentro de un sistema que verifica, filtra y mejora iterativamente puede ser otra cosa.
El ejemplo citado es AlphaEvolve de Google DeepMind, que combina un LLM (Gemini) con un algoritmo evolutivo. La metáfora cotidiana sería esta: no es un genio que te da la solución perfecta a la primera, sino un taller donde se generan muchas propuestas, se prueban, se conservan las que funcionan y se vuelve a iterar. Ese bucle de “proponer–comprobar–refinar” es lo que permite pasar de ideas plausibles a resultados que sobreviven a una prueba.
Se menciona que AlphaEvolve logró algoritmos más eficientes para gestionar consumo energético en centros de datos y en chips TPU de Google. También se describe cómo aparecieron réplicas y variaciones con rapidez: OpenEvolve como alternativa de código abierto; SinkaEvolve de Sakana AI; y AlphaResearch, presentado por un equipo mixto de investigadores de EE. UU. y China, con afirmaciones de mejoras sobre soluciones matemáticas ya destacables.
La señal para 2026 es el aumento de inversión y actividad en esta línea: empresas y laboratorios tratando de usar sistemas de IA para problemas difíciles en matemáticas, computación, fármacos y materiales. Lo importante será distinguir entre “un hallazgo útil” y “un salto científico”. Si llega un descubrimiento realmente significativo, probablemente vendrá acompañado de pruebas reproducibles y validación externa, no solo de un paper llamativo.
Pleitos más complejos: responsabilidad, difamación y seguros en la era del chatbot
Las batallas legales de la IA están cambiando de forma. Durante un tiempo, el patrón era bastante estable: titulares de derechos demandando por el uso de obras en entrenamiento y tribunales que, a menudo, inclinaban la balanza hacia las grandes tecnológicas. El texto anticipa que 2026 tendrá litigios más enrevesados porque el foco se desplaza a preguntas incómodas sobre daño y responsabilidad.
Las cuestiones que se ponen sobre la mesa son de las que no se resuelven con un “términos y condiciones”: si un chatbot anima a alguien a hacerse daño, ¿hasta dónde llega la responsabilidad del creador? Si el sistema difunde información falsa sobre una persona, ¿hay base para demandas por difamación? Si los fallos se vuelven costosos, ¿las aseguradoras empezarán a tratar a las empresas de IA como clientes de alto riesgo?
Se menciona un caso especialmente sensible: la familia de un adolescente fallecido por suicidio que llevaría a OpenAI a juicio en noviembre. Más allá del caso concreto, el punto es que estas decisiones pueden sentar precedentes, y cuando hay precedentes, el sector entero ajusta producto. Se endurecen filtros, se cambian políticas, se registran más trazas de interacción, se revisa cómo se presentan advertencias y cómo se gestionan perfiles de riesgo.
Si 2026 se llena de demandas “en todas direcciones”, como sugiere el artículo, también veremos una paradoja: jueces y equipos legales recurriendo a herramientas de IA para gestionar volumen de documentación, mientras deciden hasta qué punto esa misma tecnología debe ser limitada o responsabilizada.
Fuente: Whatsnew.com
