Mundo, 06 de jul 2025 (ATB Digital)-. La plataforma X (anteriormente conocida como Twitter) ha comenzado a experimentar con una nueva estrategia para enfrentar uno de los grandes desafíos digitales de nuestro tiempo: la desinformación. Para ello, ha decidido integrar modelos de lenguaje de inteligencia artificial (IA) en su sistema Community Notes, una iniciativa comunitaria lanzada en 2021. Esta combinación busca aumentar la velocidad y el alcance de las notas aclaratorias que ayudan a contextualizar publicaciones potencialmente engañosas.
¿Qué es Community Notes y cómo funciona?
Community Notes es un programa en el que participan voluntarios que pueden agregar notas explicativas a publicaciones que pueden inducir a error. Por ejemplo, cuando se difunde un video generado por IA que simula un evento falso, los usuarios pueden señalarlo para que otros entiendan el contexto real. Estas notas luego son evaluadas por otros colaboradores, y solo aquellas que se consideran más últiles se muestran públicamente.
Este sistema se ha basado siempre en la colaboración humana, pero la nueva integración de IA marca un paso importante en su evolución.
Inteligencia artificial para escalar el contexto
La gran novedad es que X está usando modelos de lenguaje de gran tamaño (LLMs) para generar automáticamente notas aclaratorias. Estos modelos pueden redactar comentarios explicativos sobre publicaciones que contengan información dudosa o manipulada, con una rapidez que supera ampliamente la capacidad humana.
Como explican los investigadores de la plataforma, permitir que la IA cree notas automáticamente podría multiplicar la cantidad de contenido contextualizado en toda la red. En lugar de depender exclusivamente de la disponibilidad y el tiempo de los voluntarios humanos, la IA podría ofrecer una primera versión de la nota para acelerar el proceso.
Equilibrio entre velocidad y supervisión humana
Aunque la IA redacta las notas, solo los usuarios humanos pueden decidir cuáles se publican finalmente. Este filtro es clave para mantener la calidad, diversidad y objetividad del contenido. La idea no es reemplazar a las personas, sino potenciar su capacidad de análisis y contextualización.
La herramienta se irá refinando mediante una técnica llamada aprendizaje por refuerzo a partir de la retroalimentación de la comunidad (RLCF). Es decir, el modelo aprende y mejora con base en las opiniones de usuarios con diferentes puntos de vista, lo que ayudará a que las notas sean más precisas, imparciales y útiles.
Los retos de dejar que la IA opine
Como cualquier herramienta potente, la integración de IA trae consigo riesgos. Uno de ellos es que los modelos generen notas que suenen convincentes, pero que sean incorrectas, lo que podría agravar el problema en lugar de solucionarlo. Además, si todas las notas empiezan a parecerse demasiado entre sí, podría perderse la riqueza de perspectivas que caracteriza a Community Notes.
Otro riesgo es que los colaboradores humanos se desmotiven al ver que la IA genera muchas notas, o que los revisores se sientan abrumados al tener que evaluar un volumen mayor de contenido.
Soluciones propuestas: IA como copiloto
Para evitar estos efectos secundarios, los investigadores han sugerido algunas soluciones. Una de las más prometedoras es utilizar la IA como asistente de investigación para los redactores humanos. En lugar de escribir la nota completa, la IA podría ayudar a buscar fuentes, verificar hechos o resumir información clave, lo que permitiría a los voluntarios escribir más rápido sin perder calidad.
También se propone desarrollar herramientas que ayuden a los evaluadores a analizar notas más eficientemente, mediante sugerencias automáticas o filtros inteligentes. Otra idea es reutilizar notas validadas en contextos similares, reduciendo redundancias y ahorrando tiempo.
Por último, se sugiere mejorar la selección de los colaboradores humanos y personalizar los modelos de IA para que se ajusten mejor a la misión de Community Notes.
IA con responsabilidad: no decir qué pensar, sino ayudar a pensar mejor
Un punto clave que destacan los responsables del proyecto es que el objetivo no es que la IA nos diga qué pensar, sino construir un entorno donde las personas tengan más herramientas para pensar críticamente. La tecnología se presenta aquí como una lupa que permite ver mejor, no como una voz autoritaria.
El futuro de Community Notes parece encaminarse hacia un modelo híbrido, donde humanos e inteligencia artificial colaboran para ofrecer información contextualizada con rapidez, rigor y diversidad. Como si un grupo de vecinos decidiera usar un megáfono compartido para avisar cuando alguien difunde rumores en el barrio, pero con la ayuda de una IA que recuerda todos los hechos anteriores y sugiere las mejores palabras para aclarar el malentendido.
Fuente: wwwhatsnew