Los investigadores de seguridad advierten que los navegadores y agentes impulsados por inteligencia artificial (AI) de Perplexity, OpenAI y Anthropic enfrentan riesgos crecientes de ataques encubiertos de inyección de comandos y violaciones de privacidad, exponiendo potencialmente los datos de los usuarios a través de cuentas conectadas y APIs.
Las vulnerabilidades del navegador AI generan preocupaciones de seguridad
Los navegadores y agentes de IA de Perplexity, OpenAI y Anthropic están redefiniendo cómo los usuarios interactúan con la web, pero los expertos dicen que la conveniencia tiene un precio.
Según las auditorías de seguridad y la investigación revisada, las vulnerabilidades en estos sistemas permiten a los actores maliciosos incrustar instrucciones ocultas en sitios web que las herramientas de IA pueden ejecutar sin saberlo.
Estos ataques, conocidos como inyecciones de aviso encubiertas o indirectas, pueden manipular a los agentes de IA para realizar acciones no autorizadas, como filtrar información sensible, ejecutar código o redirigir a los usuarios a sitios de phishing, sin el consentimiento explícito del usuario.
Cómo los ataques explotan agentes de IA
En escenarios de inyección de prompts encubiertos, los atacantes ocultan comandos maliciosos dentro del texto de una página web, los metadatos o incluso elementos invisibles. Una vez que una IA ingiere esos datos, los comandos pueden anular la intención del usuario y hacer que el agente tome acciones no deseadas. Las pruebas muestran que los navegadores de IA no protegidos pueden caer víctimas de tales trucos casi una de cada cuatro veces durante experimentos controlados.
Perplejidad, OpenAI y Anthropic: Riesgos Clave Identificados
El navegador Comet de Perplexity: Auditorías realizadas por Brave y Guardio encontraron que la herramienta podría ser manipulada a través de publicaciones en Reddit o sitios de phishing para ejecutar scripts o extraer datos de los usuarios.
Agentes de Navegación de OpenAI: Integrados en las funciones de agente de ChatGPT, se demostró que arriesgaban el acceso a cuentas conectadas a través de correos electrónicos maliciosos y solicitudes basadas en sitios web.
Extensión del navegador Claude de Anthropic: Las pruebas de red-team revelaron que comandos ocultos en páginas web podrían activar clics automáticos en enlaces perjudiciales.
Incidentes Documentados y Advertencias de la Industria
Investigadores y empresas de ciberseguridad, incluyendo Brave, Guardio y Malwarebytes, han publicado hallazgos que muestran que incluso el contenido en línea más simple puede comprometer a los agentes de IA. En una prueba, una publicación de Reddit obligó a un navegador de IA a ejecutar scripts de phishing. Informes de varias publicaciones tecnológicas de renombre advirtieron que estos problemas podrían llevar al acceso no autorizado a datos o incluso al robo financiero.
Los peligros de la integración de cuentas
Los analistas de seguridad han levantado banderas rojas sobre los agentes de IA vinculados a contraseñas o API. Permitir tales integraciones puede exponer cuentas de correo electrónico, unidades en la nube y plataformas de pago. Techcrunch y Cybersecurity Dive informaron sobre casos en los que se engañó a los agentes de IA para revelar o manipular información sensible a través de comandos inyectados.
Medidas de Seguridad Recomendadas y Perspectivas
Los expertos instan a los usuarios a limitar los permisos, evitar otorgar a los agentes de IA acceso a nivel de contraseña y monitorear los registros de IA en busca de anomalías. También se aconseja a los desarrolladores implementar sistemas de aislamiento y filtros de aviso. Algunos investigadores incluso recomiendan utilizar navegadores tradicionales para acciones sensibles hasta que las herramientas de IA reciban salvaguardias más estrictas.
Mientras OpenAI, Anthropic y Perplexity probablemente han escuchado sobre los desafíos, los profesionales de ciberseguridad advierten que la navegación impulsada por IA sigue siendo un área de alto riesgo en 2025. A medida que estas empresas avanzan más en la interacción web autónoma, los observadores de la industria dicen que la transparencia y estándares de seguridad más fuertes son esenciales antes de que estas herramientas se vuelvan convencionales.
FAQ 🧭
¿Qué son las inyecciones de comandos encubiertos en navegadores de IA? Son comandos ocultos incrustados en el contenido web que engañan a los agentes de IA para ejecutar acciones dañinas sin el consentimiento del usuario.
¿Qué herramientas de IA de qué empresas se vieron afectadas por estas vulnerabilidades? Se mencionaron en informes recientes las funciones del navegador Comet de Perplexity, los agentes de navegación de ChatGPT de OpenAI y el navegador Claude de Anthropic.
¿Qué riesgos surgen al vincular agentes de IA a cuentas personales? Conectar herramientas de IA a unidades, correos electrónicos o APIs puede permitir el robo de datos, phishing y acceso no autorizado a la cuenta.
¿Cómo pueden los usuarios protegerse de los ataques de navegadores con IA? Limitar permisos, evitar integraciones de contraseñas, utilizar modos aislados y mantenerse actualizado sobre avisos de seguridad.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
Navegadores de IA bajo fuego: Los mensajes ocultos de la web pueden secuestrar tu agente y cuentas conectadas
Los investigadores de seguridad advierten que los navegadores y agentes impulsados por inteligencia artificial (AI) de Perplexity, OpenAI y Anthropic enfrentan riesgos crecientes de ataques encubiertos de inyección de comandos y violaciones de privacidad, exponiendo potencialmente los datos de los usuarios a través de cuentas conectadas y APIs.
Las vulnerabilidades del navegador AI generan preocupaciones de seguridad
Los navegadores y agentes de IA de Perplexity, OpenAI y Anthropic están redefiniendo cómo los usuarios interactúan con la web, pero los expertos dicen que la conveniencia tiene un precio.
Según las auditorías de seguridad y la investigación revisada, las vulnerabilidades en estos sistemas permiten a los actores maliciosos incrustar instrucciones ocultas en sitios web que las herramientas de IA pueden ejecutar sin saberlo.
Estos ataques, conocidos como inyecciones de aviso encubiertas o indirectas, pueden manipular a los agentes de IA para realizar acciones no autorizadas, como filtrar información sensible, ejecutar código o redirigir a los usuarios a sitios de phishing, sin el consentimiento explícito del usuario.
Cómo los ataques explotan agentes de IA
En escenarios de inyección de prompts encubiertos, los atacantes ocultan comandos maliciosos dentro del texto de una página web, los metadatos o incluso elementos invisibles. Una vez que una IA ingiere esos datos, los comandos pueden anular la intención del usuario y hacer que el agente tome acciones no deseadas. Las pruebas muestran que los navegadores de IA no protegidos pueden caer víctimas de tales trucos casi una de cada cuatro veces durante experimentos controlados.
Perplejidad, OpenAI y Anthropic: Riesgos Clave Identificados
Incidentes Documentados y Advertencias de la Industria
Investigadores y empresas de ciberseguridad, incluyendo Brave, Guardio y Malwarebytes, han publicado hallazgos que muestran que incluso el contenido en línea más simple puede comprometer a los agentes de IA. En una prueba, una publicación de Reddit obligó a un navegador de IA a ejecutar scripts de phishing. Informes de varias publicaciones tecnológicas de renombre advirtieron que estos problemas podrían llevar al acceso no autorizado a datos o incluso al robo financiero.
Los peligros de la integración de cuentas
Los analistas de seguridad han levantado banderas rojas sobre los agentes de IA vinculados a contraseñas o API. Permitir tales integraciones puede exponer cuentas de correo electrónico, unidades en la nube y plataformas de pago. Techcrunch y Cybersecurity Dive informaron sobre casos en los que se engañó a los agentes de IA para revelar o manipular información sensible a través de comandos inyectados.
Medidas de Seguridad Recomendadas y Perspectivas
Los expertos instan a los usuarios a limitar los permisos, evitar otorgar a los agentes de IA acceso a nivel de contraseña y monitorear los registros de IA en busca de anomalías. También se aconseja a los desarrolladores implementar sistemas de aislamiento y filtros de aviso. Algunos investigadores incluso recomiendan utilizar navegadores tradicionales para acciones sensibles hasta que las herramientas de IA reciban salvaguardias más estrictas.
Mientras OpenAI, Anthropic y Perplexity probablemente han escuchado sobre los desafíos, los profesionales de ciberseguridad advierten que la navegación impulsada por IA sigue siendo un área de alto riesgo en 2025. A medida que estas empresas avanzan más en la interacción web autónoma, los observadores de la industria dicen que la transparencia y estándares de seguridad más fuertes son esenciales antes de que estas herramientas se vuelvan convencionales.
FAQ 🧭