jueves, 21 agosto 2025
Hora Ecuador Continental:
Hora Ecuador Insular:
Search
Close this search box.

X incorpora inteligencia artificial para combatir la desinformación en la red

Autor:

Actualizada:

La red social X, anteriormente conocida como Twitter, ha iniciado una prueba piloto en la que utiliza inteligencia artificial (IA) para redactar notas de la comunidad. Esta innovación pretende reforzar la lucha contra el contenido engañoso que circula en la plataforma.

- Anuncio -

AI Note Writer: asistencia automatizada, validación humana

La nueva función, llamada AI Note Writer, permite que la inteligencia artificial genere sugerencias de notas explicativas sobre publicaciones consideradas dudosas.

Sin embargo, el sistema no actúa solo: al igual que con las notas redactadas por usuarios humanos, serán los propios colaboradores quienes determinen si esas notas generadas por IA son útiles.

De hecho, XCorp —la compañía dirigida por Elon Musk— ha establecido que estas notas deberán “ganarse su lugar”. Si no aportan valor o claridad, el sistema dejará de generar contenido en esos casos.

- Anuncio -

Acceso limitado durante la fase de prueba

Por ahora, el sistema está disponible únicamente para cuentas que se hayan inscrito específicamente en las APIs correspondientes. Además que no estén participando actualmente como colaboradores humanos en las notas comunitarias.

La empresa aclara que todas las notas creadas por IA estarán marcadas como tales, y no aparecerán en publicaciones sin autorización previa.

Agilidad en la publicación de notas informativas

Desde la compañía se señala que esta iniciativa podría acelerar el ritmo con el que se publican notas aclaratorias, además de ampliar la cobertura de contenidos verificados dentro de la plataforma.

X también insiste en que la inteligencia artificial no reemplaza a los colaboradores humanos, sino que los complementa en su esfuerzo por ofrecer contexto y frenar la desinformación.

X

Transparencia ante todo: las notas de IA estarán etiquetadas

Uno de los aspectos clave de esta prueba es la transparencia. Todas las notas generadas por inteligencia artificial estarán claramente identificadas para que los usuarios sepan que fueron escritas por una máquina y no por otro miembro de la comunidad.

Además, solo se mostrarán en publicaciones donde hayan sido expresamente solicitadas, lo que evita la intervención automática sin supervisión.

Desde XCorp aseguran que esta política garantiza que el contenido generado por IA no interfiera con las dinámicas comunitarias ni con el principio de colaboración entre usuarios.

Fuente: Ecuavisa

Otras noticias:

Aprofe: seis décadas promoviendo salud, educación y equidad en Ecuador

NUESTRAS REDES SOCIALES
MENÚ
Logo Panorama