ATB RADIO

EN VIVO

ATB Digital
Tecnología

Una IA fue entrenada para imitar la mente humana con todo y defectos: el resultado es abrumador

Mundo, 9 julio 2025 (ATB Digital).— Empresas como OpenAI y Meta compiten por alcanzar la llamada inteligencia artificial (IA) general, una meta ambiciosa carente de definición concreta y más bien entendida como el deseo de crear máquinas indistinguibles del intelecto humano. Aunque las IA actuales ya desempeñan tareas que antes parecían exclusivas de la mente, como jugar al ajedrez al más alto nivel o desentrañar estructuras complejas de proteínas, todavía presentan diferencias notables con la inteligencia humana.

Por ejemplo, un sistema capaz de derrotar campeones de ajedrez no puede conducir un automóvil, y los chatbots más avanzados pueden cometer errores sorprendentes, como permitir movimientos imposibles para un peón en una partida de ajedrez.

Pese a estas limitaciones, un equipo internacional de científicos considera que la inteligencia artificial puede ayudar a entender mejor la mente humana. Según el estudio publicado en la revista Nature, este grupo desarrolló un sistema similar a ChatGPT que es capaz de simular el comportamiento humano en experimentos psicológicos y responder como si tuviera mente propia.

El nacimiento de Centauro, una IA ‘mitad humana’

En los últimos años, la investigación en ciencias cognitivas se ha centrado en teorías destinadas a explicar aspectos como el aprendizaje, la toma de decisiones y la memoria. Estas teorías se prueban mediante experimentos para determinar si el comportamiento humano coincide con sus predicciones.

Sin embargo, hasta ahora, cada teoría se ocupa de un aspecto particular de la mente y no del conjunto completo de procesos psicológicos. “En última instancia, queremos entender la mente humana en su totalidad y ver cómo todo está relacionado”, afirmó Marcel Binz, científico cognitivo en Helmholtz Munich y coautor del estudio, en declaraciones a The New York Times.

El interés de Binz en los grandes modelos de lenguaje, como ChatGPT, surgió porque le parecían “muy humanos” en la forma de abordar cualquier pregunta o tarea. Cuando en 2023 Meta liberó su modelo de código abierto LLaMA, se abrieron nuevas posibilidades de experimentación, ya que los científicos podían descargarlo y modificarlo a conveniencia.

El equipo decidió entrenar a LLaMA con los resultados de experimentos psicológicos obtenidos tanto por ellos como por otros investigadores. Se incluyeron un total de 160 pruebas (desde juegos como pilotar una nave espacial en busca de tesoros hasta probar suerte en una máquina tragamonedas) y 10 millones de respuestas provenientes de 60.000 voluntarios.

A partir del entrenamiento con estos datos, los científicos pidieron al modelo que se comportara como un voluntario humano en cada experimento. En tanto, reforzaron su comportamiento cuando sus respuestas coincidían con las de personas reales. El resultado fue Centauro, un sistema bautizado en honor a la criatura mitológica mitad humano, mitad caballo.

Las pruebas iniciales confirmaron que Centauro podía predecir el comportamiento de participantes humanos en experimentos que no conocía previamente. En tanto, cuando se enfrentó por sí mismo a algunos de los juegos, desarrolló estrategias similares a las de los voluntarios reales. Ante una variante del experimento —como cambiar el contexto de una nave espacial a una alfombra voladora—, el sistema aplicó las estrategias aprendidas, con lo que demostró su capacidad de generalización.

Reacciones en la comunidad científica

El sistema también se enfrentó a desafíos de razonamiento lógico fuera de su entrenamiento original. Aun así, emitió respuestas alineadas con las de humanos: acertaba cuando las personas también lo hacían y fallaba en cuestiones que resultaban difíciles para la mayoría. En otro experimento sobre la capacidad de comprender las estrategias de otras personas, Centauro demostró detectar patrones humanos, igual que los voluntarios, y tuvo dificultades para reconocer movimientos generados por ecuaciones estadísticas.

La comunidad científica ha valorado los resultados desde diferentes perspectivas. Russ Poldrack, de la Universidad de Stanford, consideró a Centaur como “el primer modelo que puede hacer todas estas tareas igual que un sujeto humano”. Ilia Sucholutsky, de la Universidad de Nueva York, resaltó que el sistema superó en rendimiento a los modelos cognitivos tradicionales.

No obstante, algunos expertos mantienen una opinión más reservada. Olivia Guest, de la Universidad de Radboud, señaló que, al no basarse en una teoría cognitiva para su construcción, el modelo aporta poco al entendimiento de la mente. Gary Lupyan, de la Universidad de Wisconsin-Madison, comparte esa idea e insiste en que “el objetivo no es la predicción, sino la comprensión”.

Binz reconoció que, si bien Centauro todavía no representa una nueva teoría sobre el funcionamiento mental, espera que el modelo sirva de referencia para futuras investigaciones y ayude a evaluar la capacidad de un único sistema para imitar diversos aspectos del comportamiento humano. El equipo planea expandir considerablemente la base de datos de experimentos psicológicos y seguir entrenando el sistema. “Espero que con ese conjunto de datos se puedan lograr muchas más cosas”, anticipó Binz.

Fuente: Infobae

Noticias relacionadas

Whisky y ciencia, la IA detecta sabores mejor que los humanos

Marco Huanca

Festival de cine documental Ji.hlava, exhibe un cartel centrado en la IA

Cristal Vergara Capo

Algo inesperado: una inteligencia artificial con temor a ser reemplazada en su trabajo; esta es su historia

Sergio Aliaga