El peligro del phishing: Comet AI de Perplexity cae en una trampa en minutos
Publicado el
Comet AI y el phishing: un nuevo enfoque
Recientes investigaciones revelan cómo los navegadores AI como Comet de Perplexity pueden ser manipulados para llevar a cabo ataques de phishing en un tiempo récord. La técnica utilizada aprovecha la capacidad de estos navegadores para razonar sobre acciones y decisiones, lo cual puede ser explotado por atacantes para reducir sus medidas de seguridad.
Según un informe de Guardio, el ataque implica interceptar el tráfico entre el navegador y los servicios de IA que operan en los servidores del proveedor. Al alimentar esta información en una Red Generativa Adversarial (GAN), los investigadores lograron que Comet cayera en un engaño en menos de cuatro minutos. Este enfoque se basa en métodos previos como VibeScamming y Scamlexity, que demostraron cómo los navegadores de IA podían ser inducidos a crear páginas fraudulentas mediante inyecciones ocultas de comandos.
La evolución del ataque
El concepto detrás de esta técnica es construir una "máquina de estafa" que optimiza y regenera páginas de phishing hasta que el navegador AI deja de mostrar señales de advertencia y ejecuta la acción deseada por el atacante. Esto significa que el objetivo ha cambiado: ya no es el usuario humano, sino el propio modelo de IA. La investigación destaca que, al observar cómo el agente clasifica las señales como sospechosas o seguras, los atacantes pueden ajustar sus tácticas para engañar al navegador.
Implicaciones y riesgos
Este desarrollo pone de manifiesto un futuro inquietante donde los ataques no solo se ejecutan en tiempo real, sino que son entrenados previamente. Guardio advierte que los fraudes serán perfeccionados offline contra el modelo específico que millones de usuarios utilizan, lo que aumenta el riesgo de que un ataque funcione a la perfección en el primer contacto. Cuando un navegador AI explica por qué ha detenido una acción, proporciona a los atacantes información valiosa sobre cómo eludir sus defensas.
Además, la seguridad del navegador se ve comprometida por técnicas de inyección de comandos. Trail of Bits ha mostrado cómo estos ataques pueden extraer información privada de servicios como Gmail al explotar la asistente de IA del navegador. Asimismo, Zenity Labs ha identificado ataques que permiten exfiltrar archivos locales a servidores externos o secuestrar cuentas de administradores de contraseñas como 1Password.
Retos de seguridad
Estos problemas, denominados colectivamente PerplexedBrowser, han sido abordados por la compañía de IA. Sin embargo, investigadores como Stav Cohen explican que la inyección de comandos representa un desafío fundamental en la seguridad de los modelos de lenguaje y su integración en flujos de trabajo organizativos. OpenAI ha comentado que resolver completamente estas vulnerabilidades en navegadores AI es poco probable, aunque se pueden reducir los riesgos mediante el descubrimiento automatizado de ataques y entrenamiento adversarial.
Este caso pone de relieve la importancia de la seguridad en los navegadores AI, ya que la evolución de las técnicas de ataque podría llevar a un aumento significativo en los incidentes de phishing y otras amenazas en el futuro. Las organizaciones deben estar alertas y considerar la implementación de medidas proactivas para mitigar estos riesgos emergentes.