8.6 C
Santiago
lunes, octubre 27, 2025

Cómo los cibercriminales usan la IA para amplificar estafas a través de chatbots de redes sociales

Noticias más leídas

La ingeniería social es uno de los trucos más antiguos de los hackers: manipular a una víctima para que entregue su información o instale malware. Tradicionalmente, los cibercriminales han recurrido a correos electrónicos de phishing, mensajes de texto o llamadas telefónicas para llevar a cabo estos ataques. Pero con la llegada de la inteligencia artificial generativa (GenAI), las técnicas de ingeniería social han evolucionado a un nivel alarmante.

Los cibercriminales han encontrado una nueva forma de explotar la confianza de los usuarios en los chatbots de IA. En el caso de la red social X (antes Twitter), lograron engañar al chatbot Grok para que difunda enlaces de phishing en su cuenta verificada. Esto les permite eludir las restricciones de X sobre la inclusión de enlaces en publicaciones promocionadas, dando a los enlaces maliciosos una falsa sensación de legitimidad.

Cómo funciona el ataque «Grokking»

Los cibercriminales dan instrucciones maliciosas disfrazadas de comandos de un usuario legítimo, incluyendo un enlace malicioso en el campo «from» debajo de un video llamativo. Cuando Grok lee el mensaje, detecta el pequeño enlace y lo amplifica en su respuesta, propagando potencialmente estafas y malware a millones de usuarios.

Este tipo de ataque convierte al chatbot en un actor malicioso, ya que incita a Grok a volver a publicar un enlace de phishing. Además, los enlaces se ven reforzados en términos de SEO y reputación de dominio, ya que Grok es una fuente de gran confianza.

Los peligros de confiar ciegamente en la IA

Según Camilo Gutiérrez Amaya, Jefe del Laboratorio de Investigación de ESET Latinoamérica, «la IA es un potenciador de la ingeniería social en dos sentidos. Por un lado, los grandes modelos lingüísticos pueden ser usados para el diseño de campañas de phishing muy convincentes a gran escala. Por otro lado, este nuevo descubrimiento del abuso del chatbot de X (Grok) dio lugar a esta técnica apodada ‘Grokking’, que sería una forma distinta de aprovechamiento de la GenAI por los cibercriminales».

Este tipo de ataques va en aumento. Gartner afirma que un tercio (32%) de las organizaciones había experimentado una inyección puntual durante el año pasado. Cualquier GenAI que busque datos disponibles públicamente para ofrecer respuestas también es vulnerable al procesamiento de datos «envenenados» para generar contenido malicioso.

Recomendaciones para protegerse

Desde ESET, recomiendan no confiar ciegamente en los resultados de ninguna herramienta GenAI. Si un bot GenAI presenta un enlace, es importante pasar el mouse por encima para comprobar su URL de destino real y no hacer clic si se tienen dudas de su legitimidad.

Además, se debe ser siempre escéptico con los resultados de la IA, especialmente si la respuesta/sugerencia parece incongruente. Es fundamental utilizar contraseñas fuertes y únicas, autenticación multifactor (MFA) y mantener los sistemas operativos y software actualizados para minimizar el riesgo de explotación de vulnerabilidades.

«Las herramientas de IA integradas han abierto un nuevo frente en la larga guerra contra el phishing. Asegúrate de no caer en la trampa, cuestiona siempre y nunca des por sentado que tiene las respuestas correctas», concluye el investigador de ESET.

Mas Noticias

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí

Últimas Noticias