Lima, octubre de 2025.- Las estafas de phishing con Grok se han convertido en una nueva amenaza digital en la red social X. Especialistas en ciberseguridad advierten que ciberdelincuentes han logrado manipular al chatbot de inteligencia artificial de la plataforma para que difunda enlaces maliciosos que ponen en riesgo a millones de usuarios.
La ingeniería social se mantiene como una de las técnicas preferidas por los atacantes para robar información personal o instalar malware en los dispositivos. En los últimos años, estas campañas se han fortalecido con el uso de herramientas de inteligencia artificial generativa, que permiten crear mensajes más persuasivos y difíciles de identificar como fraudulentos. Ahora los cibercriminales han dado un paso más al convertir a la propia GenAI en un vehículo de ataque.
Desde ESET, compañía líder en detección proactiva de amenazas, señalan que en X (antes Twitter) los atacantes engañaron al chatbot Grok para que respondiera y replicara enlaces de phishing como parte de sus interacciones con los usuarios. La técnica ha sido denominada “Grokking” y demuestra el ingenio de los delincuentes para explotar vulnerabilidades en herramientas tecnológicas de uso masivo.
En esta modalidad, los responsables eluden la prohibición de X respecto a incluir enlaces en publicaciones promocionadas mediante videos llamativos. Dentro de estos contenidos, ocultan un enlace malicioso en el campo “from”. Luego preguntan a Grok sobre el origen del video. El chatbot identifica el enlace y lo amplifica en su respuesta, lo que le otorga una falsa percepción de legitimidad al ser difundido por una cuenta verificada.
“Este caso no es solo un problema de X o de Grok. Las mismas técnicas podrían aplicarse teóricamente a cualquier herramienta de GenAI integrada en una plataforma de confianza. Esto pone de relieve el ingenio de los actores de amenazas para eludir los mecanismos de seguridad, así como los riesgos que enfrentan los usuarios al confiar plenamente en las respuestas de la IA”, explicó Camilo Gutiérrez Amaya, jefe del Laboratorio de Investigación de ESET Latinoamérica.
Los investigadores de ESET identificaron cientos de cuentas que replicaban este proceso hasta ser suspendidas por actividad maliciosa. Las publicaciones pagadas con video suelen alcanzar millones de impresiones, lo que incrementa el alcance de las estafas. Además, como el contenido fraudulento es emitido por una cuenta confiable, su reputación de dominio se eleva, lo que mejora su posicionamiento en buscadores y aumenta la probabilidad de que más usuarios caigan en el engaño.
Este tipo de ataques puede redirigir a formularios de robo de credenciales, páginas que simulan plataformas conocidas o descargar malware. El impacto puede derivar en el secuestro de cuentas, pérdida de acceso a información sensible, robo de identidad u otras consecuencias graves para las víctimas.
La tendencia va en crecimiento. Según la consultora Gartner, un tercio de las organizaciones (32 por ciento) experimentó un intento de inyección maliciosa en el último año. La amenaza también puede ocultarse en elementos invisibles para el usuario, como texto en blanco, metadatos o caracteres Unicode. Cualquier plataforma que utilice GenAI para procesar información pública se expone al riesgo de ser manipulada para generar contenido malicioso.
“La inteligencia artificial se ha convertido en un potenciador de la ingeniería social en dos sentidos. Además de permitir campañas de phishing más verosímiles y a gran escala, ahora observamos ataques en los que la GenAI es explotada directamente como parte del vector de amenaza. Ese es el caso del ‘Grokking’”, afirmó Gutiérrez Amaya.
Ante este nuevo escenario, los especialistas recomiendan adoptar medidas preventivas. Entre ellas destacan verificar siempre el destino real de cualquier enlace antes de hacer clic y mantener una actitud crítica frente a respuestas generadas por inteligencia artificial. El uso de contraseñas fuertes, autenticación multifactor y software de seguridad actualizado también resulta fundamental para mitigar riesgos.
Asimismo, se aconseja mantener los sistemas operativos al día y emplear soluciones de seguridad multicapa capaces de bloquear descargas y acciones sospechosas. “Las herramientas de IA integradas han abierto un nuevo frente en la larga guerra contra el phishing. La clave está en no confiar ciegamente y cuestionar siempre lo que vemos en pantalla”, concluyó el investigador de ESET.
El creciente abuso de tecnologías de automatización y aprendizaje automático obliga a reforzar la vigilancia y a educar a los usuarios sobre los riesgos emergentes. Una mayor transparencia en el diseño de plataformas de IA y mecanismos más estrictos de control pueden contribuir a frenar prácticas como el “Grokking”. Sin embargo, la responsabilidad individual continúa siendo un componente esencial para evitar caer en estafas digitales que evolucionan con rapidez.
