Skip to main content

La plataforma busca combinar IA con revisión humana para ampliar su sistema de verificación

X (antes Twitter) ha iniciado este 1 de julio un programa piloto que permite a desarrolladores externos usar inteligencia artificial para redactar propuestas de Community Notes, las notas que ofrecen contexto a publicaciones potencialmente engañosas. La novedad: estas notas pueden ser escritas por modelos como GPT de OpenAI o Grok, el sistema nativo de la propia plataforma.

Por ahora, estas notas generadas por IA no aparecerán directamente en el feed de los usuarios. Primero pasarán por una etapa de evaluación limitada, durante la cual se medirá su utilidad, precisión y recepción por parte de la comunidad.

“La decisión sigue en manos de los humanos”

Según explicó Keith Coleman, vicepresidente de producto en X y responsable del sistema de Community Notes, la incorporación de IA busca ayudar a cubrir más publicaciones sin reemplazar el juicio humano. En declaraciones a Bloomberg, Coleman afirmó: “Pueden ayudar a entregar muchas más notas más rápido y con menos trabajo, pero en última instancia la decisión sobre qué es lo suficientemente útil para mostrarse sigue en manos de los humanos.”

El sistema actual, en funcionamiento desde 2021, se basa en colaboradores voluntarios que redactan y evalúan notas para dar contexto a tuits virales. Para que una nota se publique, debe ser votada como útil por personas con opiniones distintas. Esta condición se mantiene incluso si la nota es redactada por una IA.

Colaboración entre humanos y máquinas

X también ha publicado un estudio conjunto con investigadores del MIT, Stanford, Harvard y otras universidades. El documento propone un modelo híbrido: humanos para tareas complejas, IA para ayudar con el volumen. La meta es escalar el sistema sin perder precisión ni imparcialidad.

Uno de los motivos de este cambio es la caída reciente en la participación humana. Desde enero, la actividad en Community Notes se ha reducido a la mitad. Aunque una sola nota puede tener efectos significativos —como disminuir un 60 % las veces que se comparte un tuit o hacer que el autor lo elimine en un 80 % de los casos—, muchas publicaciones quedan sin revisión.

Una API abierta… y dudas sobre el sistema

Ahora, cualquier desarrollador que cumpla ciertos requisitos puede conectar su modelo de IA al sistema mediante una nueva API. La revisión seguirá siendo comunitaria, pero la generación del contenido se automatiza.

El plan ha sido recibido con interés, pero también con inquietud. Especialistas advierten sobre el riesgo de errores o “alucinaciones” de los modelos de lenguaje, y sobre cómo podría afectar al sistema si aumentan excesivamente las notas propuestas. Aun así, para X, esta fase de prueba representa un paso clave para mantener su enfoque de moderación colaborativa en gran escala, en un momento en que otras plataformas también experimentan con herramientas automáticas para combatir la desinformación.

Abre un paréntesis en tus rutinas. Suscríbete a nuestra newsletter y ponte al día en tecnología, IA y medios de comunicación.

Dejar un comentario