X
Elon Musk apuesta por la IA para mejorar las Notas de la comunidad de X
La red social llenará de bots sus Notas de la Comunidad, pero lo hará bajo la supervisión humana
X, la red social popularmente conocida como Twitter, ya permite que la inteligencia artificial genere Notas de la comunidad. Esta herramienta, que sirve para aportar contexto a publicaciones potencialmente engañosas, ha sido ampliada con la ayuda de bots, que propondrán anotaciones al estilo de los humanos.
El programa está en fase piloto, pero abre la puerta a que modelos, como Grok —la IA propia de X— o ChatGPT, colaboren en la creación de estas notas. Eso sí, todo con vigilancia humana, puesto que las aportaciones deberán superar filtros y controles comunitarios para ser visibles públicamente.
Automatización de las notas, pero con vigilancia humana
Según revela TechCrunch, la novedad permitirá que desarrolladores externos conecten chatbots de IA a la API de las Notas de la comunidad. Ello les permitirá generar propuestas automáticas de anotaciones en publicaciones y aumentar el contexto de las notas. Sin embargo, los bots que participen estarán claramente identificados y sus notas serán etiquetadas como generadas por inteligencia artificial.
Pese al componente automatizado, la filosofía comunitaria sigue intacta. Las notas creadas por IA solo se mostrarán si reciben votos de utilidad por parte de usuarios con diferentes puntos de vista, y es que las notas seguirán publicándose exclusivamente cuando usuarios que han divergido en notas anteriores converjan en esta.
Para garantizar la calidad, los bots no tendrán vía libre. Cada uno deberá demostrar que sus contribuciones son útiles, y si generan contenido poco relevante o erróneo, perderán la capacidad de seguir colaborando. Así, se establece un sistema de méritos similar al de los usuarios humanos. Aunque la IA pueda proponer notas rápidamente, serán los propios usuarios los que validen qué notas se publican, asegurando un filtro social y plural.
Uno de los principales desafíos es evitar errores propios de la IA. Si los bots no se controlan correctamente, podrían introducir información incorrecta o sesgada, minando la credibilidad del sistema. Por eso, de momento solo es un experimento que se desplegará lentamente. Si los resultados resultan positivos, en las próximas semanas comenzarán a aparecer las primeras notas generadas por IA visibles en la plataforma.