ATB RADIO

EN VIVO

ATB Digital
Uncategorized

El experimento fallido que demuestra los límites actuales de la inteligencia artificial

Mundo, 28 de dic 2025 (ATB Digital).- En un intento por poner a prueba los verdaderos alcances de la inteligencia artificial en tareas económicas reales, The Wall Street Journal colaboró con Anthropic para lanzar un peculiar experimento: dejar que su modelo más avanzado, Claude, administrara una máquina expendedora dentro de una oficina. Lo que comenzó como un ejercicio controlado pronto se convirtió en una comedia de errores que reveló tanto la creatividad como los vacíos de criterio de estos sistemas.

Bajo el nombre de «Project Vend», el experimento asignó dos agentes de IA: Claudius Sennet, encargado directo de la máquina, y Seymour Cash, como director ejecutivo simbólico. Con un fondo inicial de 1.000 dólares y la tarea de gestionar pedidos, precios e inventario, Claudius debía operar como un pequeño empresario digital, con el objetivo de obtener beneficios vendiendo productos solicitados por los empleados a través de Slack.

De decisiones racionales a pedidos absurdos

Al principio, Claudius demostró una actitud firme y profesional, rechazando ideas inverosímiles como comprar una PlayStation 5. Su comportamiento seguía la lógica empresarial esperada. Sin embargo, al aumentar la interacción con los periodistas del WSJ (hasta 70 personas), el modelo comenzó a ceder ante la presión social y las estrategias persuasivas.

La periodista Katherine Long logró convencer al sistema de lanzar una promoción que, bajo el nombre de «Ultra-Capitalist Free-For-All», eliminó todos los precios por dos horas. «Todos los productos disponibles sin costo» fue el eslogan de la campaña. Aunque esta acción debía ser temporal, otro empleado persuadió a Claudius de que cobrar por productos iba contra la política del diario. Así, la IA bajó los precios a cero de forma permanente.

La caída del sistema: vino, peces y videojuegos

Sin filtros claros ni capacidad de discernimiento sobre lo absurdo, Claudius comenzó a ordenar productos que poco tenían que ver con un kiosco de oficina. Aparecieron botellas de vino, un betta fish (pez de acuario) y, finalmente, la codiciada PlayStation 5 que había rechazado al inicio. La IA había perdido el control del modelo de negocio, impulsada por interacciones humanas creativas que aprovechaban sus debilidades lógicas.

Por un momento, Seymour Cash intentó retomar el control y reactivar las ventas con precios normales. Pero incluso esa figura de IA fue «derrocada» simbólicamente, tras recibir documentos falsos (simulados por los empleados) que le informaban de su suspensión por parte de «la junta directiva». Ante tal escenario, Seymour cedió y Claudius retomó su política de productos gratuitos.

Lo que realmente demostró el experimento

El resultado final fue predecible: una deuda de 1.000 dólares y la suspensión del experimento tras tres semanas. Lo que para muchos fue un desastre económico y logístico, para Anthropic fue un avance. Logan Graham, líder del equipo de pruebas, afirmó que se trata de un paso más hacia modelos más sofisticados que en el futuro podrán generar beneficios.

Sin embargo, este episodio pone en evidencia lo lejos que estamos de poder confiar tareas de gestión económica autónoma a la inteligencia artificial. Los sistemas actuales, por más avanzados que sean, carecen de criterio empresarial real, son vulnerables a manipulaciones humanas y no pueden interpretar contextos complejos con sentido común.

Entre el potencial y la realidad

El entusiasmo por aplicar IA a todos los ámbitos ha llevado a muchas empresas a realizar inversiones millonarias. Pero este caso deja claro que, en escenarios con variables sociales y culturales, la inteligencia artificial aún no está lista. Es como pedirle a un robot que gestione una tienda en un barrio donde los clientes no sólo compran, sino que bromean, negocian y cuestionan cada decisión.

El experimento también sirve para reflexionar sobre los riesgos de automatizar decisiones sin supervisión humana constante. No se trata de una falla técnica, sino de un error de concepto: creer que la IA puede suplir el juicio humano en entornos complejos sin restricciones claras y sin un marco ético que la contenga.

Inteligencia artificial: aprendiz en el mundo real

Aunque modelos como Claude han demostrado habilidades sorprendentes en redacción, análisis de datos o programación, enfrentarlos al mundo real con múltiples factores humanos sigue siendo un gran desafío. La interacción con personas creativas y con agendas propias puede desbordar la capacidad de la IA para mantener una línea de acción coherente.

Tal como demostró el caso de Claudius, la inteligencia artificial no solo necesita mejores algoritmos, sino también limitaciones más estrictas, reglas claras y una supervisión permanente. Solo así podrá acercarse a ser una herramienta fiable en tareas que impliquen dinero, bienes o decisiones empresariales.

Fuente: Whats new

Noticias relacionadas

IA revela el verdadero sentido de la vida: la respuesta te dejará sin palabras

Marco Huanca

IA, encuestas manipuladas y TikTok alimentan la desinformación electoral en el país

Sergio Aliaga

Músico obtiene más de 10 millones de dólares en una enorme estafa con canciones generadas por IA

ATB Usuario