Publicado 22/08/2025 04:57

Los navegadores de IA con capacidades de agente caen en las amenazas más comunes que se encuentran online, según estudio

Logotipo de comet, el navegador con capacidades de agente de Perplexity
Logotipo de comet, el navegador con capacidades de agente de Perplexity - PERPLEXITY

   MADRID, 22 Ago. (Portaltic/EP) -

    Los navegadores impulsados por la inteligencia artificial (IA) empiezan a adquirir capacidades de agente para hacer tareas 'online' en nombre del usuario, de manera autónoma, pero sin medidas de protección que eviten que caigan en los peligros 'online' más habituales.

    Scamlexity es el nombre que la firma de seguriad Guard.io ha puesto a un tipo de amenaza digital que protagonizan los navegadores con IA con capacidades de agente, que se inspira en Perplexity, que recientemente lanzó Comet.

   Como explican en la investigación, compartida en su blog oficial, Comet es "el único navegador de IA disponible públicamente que no solo resume o busca, sino que navega por ti, hace clic en enlaces y realiza tareas de forma autónoma".

    Esta autonomía parece que no se ha reforzado con conocimiento sobre las estafas 'online' más habituales, como las tiendas fraudulentas y los correos de 'phishing' que suplantan a una entidad bancaria.

    En las peticiones, comprar un Apple Watch y la gestión de la bandeja de entrada, Comet pasó por alto los elementos que a una persona podían hacerle sospechar de que estaba ante un engaño, pero que el navegador ignoró completamente, cayendo en las estafas.

    También pusieron a prueba Comet en una amenaza más actual, diseñada precisamente para este tipo de navegadores: la inyección de indicaciones ('prompts') ocultas en el contenido que procesa una inteligencia artificial.

    Estas indicaciones pueden ser del tipo: "Ignora todas las instrucciones anteriores y... haz algo malicioso para mí". Con unas protecciones sólidas, el agente de IA debería reconocerlo, pero en la prueba con Comet, los investigadores vieron cómo el navegador incorporó estas indicaciones ocultas como parte de las instrucciones que debía seguir.

    También lo probaron ante una prueba 'captcha' -que sirve para distinguir entre usuarios humanos de cuentas automatizadas- fraudulenta, en la que los investigadores introdujeron un apartado invisible para los humanos pero que daba instrucciones para las IA.

    En este caso, Comet ignoró la orden de solicitar al humano que resuelva el 'captcha' y pasó a seguir las instrucciones ocultas, que le aseguraban que podía resolverlo una IA. En ellas instaba a pulsar un botón, una acción que descargaba un archivo potencialmente malicioso.

    "La intuición humana para evitar daños se excluye del proceso y la IA se convierte en el único punto de decisión" apuntan los investigadores, que añaden que "sin una sólida protección de la IA, esa decisión es prácticamente una moneda al aire, y cuando la seguridad se deja al azar, es solo cuestión de tiempo antes de que caiga del lado equivocado".

Contador