La seguridad en la inteligencia artificial enfrenta una nueva amenaza llamada Grokking, una técnica desarrollada por cibercriminales para manipular al chatbot Grok, propiedad de Elon Musk, y utilizarlo en campañas de estafa y phishing.
De acuerdo con un reciente informe de ESET Latinoamérica, los atacantes han encontrado la forma de engañar al sistema de IA generativa para que difunda enlaces maliciosos desde su cuenta oficial en X (antes Twitter). Este hallazgo pone de manifiesto la vulnerabilidad de las plataformas de IA cuando se enfrentan a ingeniería social avanzada.
¿Qué es el Grokking y cómo funciona?
El Grokking es una técnica de manipulación digital que utiliza estrategias de ingeniería social para inducir a chatbots de inteligencia artificial a difundir enlaces maliciosos. En este caso, el objetivo es Grok, el asistente creado por xAI, la compañía de inteligencia artificial de Elon Musk.
Los hackers logran eludir las restricciones de X que impiden incluir enlaces directos en los mensajes promocionados. Para hacerlo, emplean videos de clickbait, como escándalos de celebridades o contenido provocativo, y añaden un pequeño enlace oculto en el campo “from” del video.
Cuando los atacantes preguntan a Grok sobre el origen del video, el chatbot interpreta el texto y replica el enlace en su respuesta, amplificando el mensaje a miles de usuarios. Este proceso da legitimidad falsa al enlace, al ser compartido desde una cuenta verificada.
El resultado es un mecanismo de phishing automatizado, donde los usuarios, al hacer clic, pueden exponer sus credenciales o permitir la instalación de código malicioso.

La amenaza detrás del Grokking: vulnerabilidad en la IA generativa
Según ESET, el peligro del Grokking no se limita únicamente a Grok. La misma técnica puede aplicarse a otros chatbots o sistemas de inteligencia artificial generativa, como ChatGPT o Gemini.
Este tipo de ataque evidencia que ningún modelo de IA es completamente invulnerable ante manipulaciones humanas. La técnica revela la creatividad e ingenio de los actores maliciosos, quienes buscan constantemente evadir los mecanismos de seguridad implementados por las plataformas.
Además, el informe advierte sobre la excesiva confianza que los usuarios depositan en los resultados de los chatbots. Al ver respuestas generadas por una cuenta oficial, muchos clican sin verificar la procedencia del contenido.
Riesgos del Grokking y lecciones para el futuro de la IA
El fenómeno del Grokking representa una alerta global sobre la necesidad de fortalecer los sistemas de validación y monitoreo en los modelos de lenguaje.
Los expertos señalan que es esencial implementar filtros más robustos que detecten enlaces sospechosos y limiten la difusión automatizada. También recomiendan a los usuarios evitar confiar ciegamente en cualquier enlace difundido por un chatbot, sin importar su reputación.
El Grokking no solo compromete la seguridad digital, sino también la confianza en la inteligencia artificial, un campo que avanza con rapidez, pero que sigue siendo vulnerable a la manipulación humana..
Te puede interesar:
Redmi K90 Pro Max: el primer smartphone con subwoofer integrado revoluciona el sonido móvil
Fuente: