Mundo, 13 de dic 2025 (ATB Digital).- En 2023, un video de Will Smith comiendo espaguetis parecía sacado de una pesadilla digital. Generado por inteligencia artificial (IA), se volvió viral no por su realismo, sino por todo lo contrario.
El cuerpo parecía mal ensamblado, los gestos carecían de fluidez y la interacción con la comida rozaba lo absurdo, como si la escena no obedeciera del todo las leyes del mundo físico. Bastaban unos segundos para evidenciar las limitaciones de la IA generativa de la época, conocida por sus errores anatómicos difíciles de ignorar.
Ahora, casi tres años después, aquel clip funciona casi como una cápsula del tiempo. Lo que nació como una especie de espectáculo de terror de la IA creada con el rudimentario modelo ModelScope, terminó convirtiéndose en una prueba informal para medir el avance de los generadores de video por IA.
El propio Smith pareció entenderlo así. En febrero de 2024, publicó un TikTok en el que recreaba la escena, comiendo espaguetis de forma deliberadamente exagerada, en un guiño al video que había circulado por internet meses antes.
El salto de Veo 3: imagen y sonido sincronizados
Hoy, en 2025, la llamada “prueba del espagueti” ya no provoca carcajadas por los mismos motivos. Con Veo 3, el modelo de Google lanzado en mayo de este año, llegó un salto clave: por primera vez, la IA logra generar imagen y sonido sincronizados en clips de hasta ocho segundos.
El creador Javi López puso el modelo a prueba en X con la escena clásica. El resultado es notablemente más pulido y realista, aunque todavía no perfecto: los espaguetis, por ejemplo, suenan inquietantemente crujientes.
Según Ars Technica, el fallo tiene una explicación reveladora: los datos de entrenamiento de la IA probablemente incluían demasiados ejemplos de bocas masticando acompañadas de sonidos crujientes. Un detalle menor en apariencia, pero que ayuda a entender cómo funciona realmente esta tecnología.
Los modelos de IA no “entienden” lo que ven. Predicen patrones. Y cuando ciertos estímulos están sobrerrepresentados –o apenas existen– en sus datos de entrenamiento, el resultado son anomalías como esta.
En otras palabras, si una versión sintética de Will Smith tritura espaguetis como si fueran papas fritas, no se trata solo de un fallo técnico, sino de aprendizaje estadístico mal calibrado.
Aun con estos tropiezos, el avance es innegable. Veo 3 –y su evolución, Veo 3.1– ha dejado atrás las aberraciones iniciales: los cuerpos ya no parecen de goma, los rostros respetan la anatomía básica y los movimientos, en general, como señala Forbes, obedecen las leyes de la física.
El realismo ha llegado a tal punto que algunos videos, por lo menos vistos rápidamente o fuera de contexto, resultan prácticamente indistinguibles de los auténticos, sobre todo cuando circulan sin contexto en la vorágine de TikTok o en los reels de otras redes sociales.
Deepfakes y demandas: cuando el realismo enciende alarmas
Pero no todo es pasta y diversión. La mejora en la calidad ha encendido alarmas. OpenAI, por ejemplo, se vio obligada a reforzar las medidas de protección de su generador Sora 2 –que para algunos se ha convertido en el mayor referente del video generado por IA– tras incidentes mediáticos por representaciones no autorizadas de figuras públicas como Martin Luther King Jr. y personajes populares como Bob Esponja.
La preocupación ya llegó a los tribunales. Disney, Universal y Warner Bros. presentaron una demanda federal contra MiniMax, una empresa de IA con sede en Shanghái (China), para proteger los derechos de imagen frente al avance de estas herramientas.
Cameo, por su parte, demandó a OpenAI por el uso del término “cameos” en una función que permite crear videos hiperrealistas a partir de escaneos faciales de personas anónimas.
Y en Washington, el desconcierto es evidente. Como reportó Business Insider, algunos legisladores observan con inquietud cómo la IA ya es capaz de generar videos en los que aparecen diciendo cosas que nunca pronunciaron.
Así, la proliferación de deepfakes cada vez más convincentes plantea preguntas incómodas sobre el futuro de internet. Como resumió un usuario en redes sociales, citado por Indy100: “Es genial hasta que te das cuenta de que la línea entre lo real y lo falso se ha vuelto borrosa. La mayoría de la gente ni siquiera sabrá que son creados por IA. Y eso es lo aterrador”.
Videos de IA: entre TikTok viral y campaña publicitaria
Más allá del realismo de los videos, Veo 3 todavía tiene límites claros. Por ejemplo, la duración máxima de sus videos sigue siendo de apenas ocho segundos. Suficiente para un TikTok convincente, pero todavía lejos de competir con una interpretación cinematográfica real.
Para videos virales, anuncios o montajes musicales, sin embargo, ya es más que suficiente. Y lo verdaderamente inquietante es que, en muchos casos, el contenido generado por IA funciona precisamente porque sabemos que es falso. Por ahora, como señala Forbes, la novedad sigue siendo su mayor atractivo.
En ese sentido, no todos ven esto como una amenaza. Coca-Cola, por ejemplo, volvió a acaparar titulares al anunciar que utilizó inteligencia artificial para su reciente campaña navideña, recurriendo a herramientas como Sora, Veo 3 y Luma AI.
Las críticas, sin embargo, no han tardado en aparecer. Más allá de los anuncios generados por IA, crece el temor de que internet se convierta en un vertedero de contenido sintético –una “sloppificación” de la red, como la llaman algunos, a partir del término AI slop– en el que lo artificial ahogue progresivamente la creación humana bajo capas de “basura digital”.
Internet muerta: el futuro entre lo real y lo sintético
Forbes también menciona la llamada “teoría de la internet muerta”: una idea que empezó como meme, pero que hoy parece menos descabellada ante la proliferación de bots, filtros faciales y deepfakes que colonizan las plataformas digitales.
Y es que el futuro podría bifurcarse. Por un lado, espacios que intenten blindarse contra este tipo de contenidos para preservar cierta autenticidad; por otro, usuarios que se adapten –o se resignen– a un ecosistema donde lo sintético domine.
En ese contexto, la escena de Will Smith y los espaguetis –absurda, parodiada hasta el cansancio– deja de ser solo un meme. Podría ser un símbolo: un posible punto de inflexión que podría llegar a resumir, con humor e ironía, lo lejos que ha llegado la IA, y lo cerca que estamos de no saber si lo que vemos es real.
O, como escribió un usuario en X: “No está mal, pero sigue siendo raro. Denle dos o tres años más y Hollywood estará acabado”.
Fuente: Dw
