ATB RADIO

EN VIVO

ATB Digital
Tecnología

Einstein y la nueva generación de “agentes” que hacen los deberes en Canvas sin que el alumno toque nada

Mundo, 27 de feb 2026 (ATB Digital).- La promesa suena tan cómoda como inquietante: un agente de IA capaz de entrar en tu cuenta de Canvas (la plataforma educativa usada por muchas universidades), revisar si hay tareas nuevas y entregarlas por ti. Según la web de Companion.AI, su producto “Einstein” funciona con un “ordenador virtual” y un navegador, lo que le permitiría hacer prácticamente cualquier acción que haría un estudiante humano dentro del LMS (learning management system). En la práctica, la propuesta elimina incluso el último gesto del “copia y pega” desde un chatbot: el agente lee el enunciado, produce la respuesta y la sube directamente, supuestamente de forma automática.

La idea ha circulado con fuerza desde un artículo de Futurism (Frank Landymore), que lo presentó como un paso más en la escalada de herramientas diseñadas para facilitar el plagio o, como mínimo, la externalización total del trabajo académico. Lo delicado aquí no es solo la capacidad de escribir un texto, sino la integración operativa: si un sistema puede entrar “como tú” a la plataforma y ejecutar acciones en tu nombre, la frontera entre “ayuda” y “suplantación” se vuelve borrosa muy deprisa.

Del chatbot al “piloto automático” del estudiante

Hasta ahora, el patrón de uso más común de la IA generativa en estudios era parecido a usar una calculadora para un problema largo: tú sigues al volante, aunque te apoyes en la herramienta. Copias el enunciado, pides un borrador, revisas, ajustas y entregas. Con un agente como Einstein, el discurso cambia: la herramienta no es una calculadora, se parece más a contratar a alguien que entra a tu casa con tus llaves, enciende tu ordenador, abre tus cuentas y hace el trabajo mientras tú duermes. La metáfora no es gratuita, porque el acceso a Canvas implica credenciales, trazas de actividad, mensajes a compañeros y entregas con marca temporal.

Companion.AI incluso sugiere que el sistema puede participar en debates, responder a otros estudiantes y tomar notas de clases grabadas. Si eso se ejecuta tal cual se describe, el “yo estudiante” pasa a ser una especie de avatar administrado por  software. El atractivo es evidente para quien va justo de tiempo; el choque cultural también lo es para docentes y universidades.

Lo que se sabe y lo que no: capacidad real, “vibe coding” y trabajo humano oculto

El artículo de Futurism subraya una duda clave: en el sector abundan demostraciones vistosas y promesas infladas. Parte del ecosistema vive de prototipos “medio cocinados”, desarrollados rápido, con marketing por delante del rendimiento. En ese contexto, conviene separar la narrativa del producto de su desempeño real. Un agente que “entra y hace la tarea” puede fallar por mil detalles cotidianos: un CAPTCHA, un cambio en la interfaz, una rúbrica específica, una pregunta que exige citar lecturas concretas o un foro donde se nota que la respuesta no leyó lo que dijo el compañero.

También aparece otro elefante en la habitación: lo que parece autonomía puede estar reforzado por trabajo humano entre bambalinas. En algunos servicios, personas reales corrigen, completan o “empujan” la tarea cuando el modelo se atasca. Para un usuario, el resultado se percibe como magia; para la plataforma, puede ser un híbrido de automatización y mano de obra. Esa ambigüedad es parte del riesgo: dificulta evaluar qué hace exactamente el sistema y con qué garantías.

Reacción docente y el miedo a un juego imposible de ganar

La recepción en redes fue áspera, con comentarios de profesores que sienten que el terreno se les mueve bajo los pies. En Reddit, en el subreddit r/Professor, aparecieron reacciones de hartazgo. En Bluesky, el profesor Brendan Bartanen (Universidad de Virginia) apuntaba a una tendencia mayor: la facilidad creciente para “montar aplicaciones funcionales” a partir de ideas descritas en lenguaje natural. Dicho de forma llana: ya no hace falta ser un equipo de ingeniería para crear una herramienta que automatice pasos completos de una actividad online.

Ese es el nudo del problema para la educación: si el coste de crear un “atajo” cae en picado, la capacidad de respuesta institucional suele ir mucho más lenta. Las reglas, los procedimientos disciplinarios y la formación docente no se actualizan a la velocidad de los lanzamientos.

Privacidad y políticas de uso: cuando el atajo puede salir caro

Más allá de la ética académica, está la cuestión práctica: dar acceso a un tercero a tu cuenta de Canvas podría chocar con políticas de uso aceptable de la universidad. No es solo “usar IA”; es compartir credenciales o conceder permisos para que otro sistema actúe en tu nombre. Incluso si el estudiante lo ve como una extensión de productividad, para una institución puede parecerse a delegar identidad digital.

En el plano de la seguridad, hay un riesgo de libro: credenciales almacenadas, sesiones activas, datos del curso, mensajes privados, calificaciones, información personal. Entregar ese paquete a un servicio externo es como darle a un desconocido una copia de tus llaves y esperar que solo abra la puerta correcta. Si hay filtraciones, accesos indebidos o uso secundario de datos, el impacto ya no es una “mala nota”: puede ser un problema de privacidad.

“La escuela se adaptará”: el argumento de la inevitabilidad

Advait Paliwal, fundador de Companion.AI, respondió a las críticas con una idea recurrente: los estudiantes ya usan ChatGPT y servicios como Chegg o Course Hero, así que la indignación estaría “mal dirigida”. También defendió que la educación tendrá que adaptarse como lo hizo con las calculadoras, Internet o Google.

La comparación tiene algo de útil y algo de tramposo. Es útil porque recuerda que la escuela ya ha integrado tecnologías que al principio parecían hacer “demasiado” por el alumno. Es tramposa porque una calculadora no se hace pasar por ti en un foro ni entrega trabajos con tu identidad. Google no entra a tu campus virtual a las tres de la mañana. El salto cualitativo de los agentes autónomos está en la ejecución: no solo sugieren, actúan.

La carrera de los agentes: del campus a la oficina

Einstein encaja en una obsesión más amplia del sector por los AI agents que “hacen cosas” en entornos digitales. Paliwal lo describió como “OpenClaw como estudiante”, aludiendo a un agente open source viral del que se habló por su capacidad de ejecutar acciones. La idea de fondo es que, si un modelo puede usar un navegador, ya no se limita a responder: puede realizar trámites, rellenar formularios, comprar, reservar, publicar, enviar mensajes.

Ese enfoque tiene usos legítimos en productividad. También abre la puerta a herramientas que presumen, sin rubor, de ayudarte a engañar. Futurism menciona el caso de Cluely, una startup que se promociona con el eslogan de “hacer trampas en todo”. Cuando el marketing adopta el cinismo como bandera, el debate deja de ser técnico y pasa a ser social: qué conductas se normalizan cuando la trampa se empaqueta como “servicio”.

Cómo puede cambiar la evaluación cuando el “alumno automático” es viable

Si estos agentes se generalizan, la educación se enfrenta a un dilema parecido al de los controles de seguridad en aeropuertos: cuando aparece un método nuevo de colarse, los controles tienden a endurecerse para todos, incluso para quien no hace nada mal. En el aula, eso puede empujar a formatos donde la identidad y el proceso sean más visibles: más interacción oral, más trabajo en clase, más proyectos con trazabilidad, más iteración supervisada. No porque sea “mejor” por definición, sino porque dificulta delegar el 100% a un agente.

También puede haber un giro hacia tareas donde la respuesta final importe menos que el razonamiento, como cuando un profesor de matemáticas pide que muestres los pasos. En lenguaje cotidiano: no basta con entregar el plato terminado; quieren verte cocinar. Esta transición, sin embargo, cuesta tiempo y recursos, y no todas las asignaturas o universidades están preparadas para hacerlo de forma equitativa.

Entre la ayuda legítima y la sustitución total

La discusión de fondo no es si la inteligencia artificial puede apoyar el aprendizaje; eso ya ocurre. El punto es cuándo el apoyo se convierte en sustitución total y, sobre todo, cuándo esa sustitución se ejecuta con tu identidad dentro de sistemas oficiales. Un tutor de IA que te explica un concepto se parece a estudiar con un compañero paciente. Un agente que entrega por ti se parece a contratar a un “doble” que va a clase con tu cara.

Einstein, tal como se presenta, fuerza a universidades y estudiantes a mirar de frente una pregunta incómoda: si la entrega ya no prueba que el estudiante trabajó, ¿qué evidencia sí lo prueba? Y si la educación quiere seguir certificando habilidades, ¿qué tendrá que medir y cómo lo hará sin convertir el campus en un entorno de vigilancia constante?

Fuente: Whatsnew.com

Noticias relacionadas

Mercados atenderán hasta el mediodía por el Día del Peatón

Sergio Aliaga

Reportan varias zonas afectadas tras granizadas y lluvias en Tarija

Sergio Aliaga

El Alto se abre campo en la oferta de paquetes turísticos de agencias de viaje de Perú

ATB Usuario