Seguridad

Google refuerza la seguridad de Chrome: así protegerá a los usuarios frente a los nuevos agentes de inteligencia artificial

La compañía detalló cómo planea proteger a los usuarios ante la llegada de los agentes de inteligencia artificial en Chrome, con nuevas capas de supervisión, límites de interacción dentro de las webs y controles manuales para operaciones sensibles. La compañía busca reducir riesgos sin frenar el avance de la automatización en la navegación.

La irrupción de los agentes de inteligencia artificial en navegadores web marca un nuevo capítulo en la interacción digital: automatizan tareas, gestionan compras, completan trámites e interpretan información en tiempo real. Pero, junto con estas capacidades avanzadas, también crece la preocupación por la seguridad y la privacidad de los usuarios. En ese escenario, Google decidió abrir el juego y explicar en detalle cuál será el enfoque de ciberseguridad para proteger a quienes utilicen las nuevas funciones de agencia en Chrome, que comenzarán a desplegarse en los próximos meses.

El anuncio sigue a la presentación preliminar que la compañía había realizado en septiembre, cuando anticipó que Chrome incorporaría agentes capaces de planificar y ejecutar tareas dentro de las páginas web. Ahora, Google profundizó en cómo planea evitar abusos, reducir riesgos y mantener a los usuarios en control frente a este nuevo paradigma de automatización.

Modelos de observación y consentimiento explícito: el corazón de la estrategia

Google explicó que su enfoque de seguridad está construido sobre dos pilares: sistemas de observación interna y la intervención directa del usuario en decisiones sensibles.

Uno de los componentes centrales es el Crítico de Alineación del Usuario, un modelo desarrollado con Gemini que monitorea las acciones que el agente planea ejecutar. Su rol es detectar desvíos respecto del objetivo original del usuario. Si el agente propone un paso que no coincide con la intención inicial, el crítico interviene, detiene la secuencia y solicita una revisión o un replanteo.

Para minimizar riesgos de privacidad, este sistema opera únicamente con metadatos, y no con el contenido completo de las páginas, una decisión clave para evitar que el agente acceda a información innecesaria o privada mientras evalúa el plan.

Este tipo de crítica interna representa un avance en la seguridad de agentes autónomos, ya que introduce una capa automática de supervisión antes de que cualquier acción se concrete.

“Conjuntos de orígenes”: límites claros dentro de las páginas web

Otra de las novedades es la implementación de un mecanismo llamado conjuntos de orígenes, que actúa delimitando de manera precisa qué puede leer o escribir el agente dentro de una misma página.

Este sistema acota la superficie de acción: define qué sectores de un sitio son relevantes para la tarea y cuáles deben quedar fuera del alcance del agente.

Por ejemplo:

  • En un sitio de comercio electrónico, el agente puede analizar información de productos, precios o formularios.
  • Pero queda bloqueado para interpretar banners, anuncios, secciones irrelevantes o elementos contenidos en iframes sin permisos explícitos.

Esta separación lógica reduce la superficie de ataque y evita que datos de distintos orígenes puedan mezclarse o filtrarse de manera accidental, un riesgo habitual en sistemas que operan de forma automática en entornos complejos.

El gigante tecnológico detalló cómo funcionarán las capas de seguridad que protegerán a los usuarios frente a agentes automatizados.
El gigante tecnológico detalló cómo funcionarán las capas de seguridad que protegerán a los usuarios frente a agentes automatizados.

Un modelo que inspecciona URL para bloquear accesos peligrosos

Además, Google añadió un modelo específico encargado de auditar las URL generadas durante la navegación asistida por el agente. Su objetivo es identificar direcciones potencialmente peligrosas o fraudulentas antes de que el agente siquiera intente acceder a ellas.

Esto sirve tanto para frenar accesos manipulados por terceros como para evitar errores del propio modelo que podrían llevar al usuario a un sitio inseguro.

El usuario mantiene el control en operaciones sensibles

Uno de los puntos más enfatizados por Google es que, aun con un agente capaz de ejecutar tareas complejas, la decisión final en escenarios críticos seguirá en manos del usuario.

Cada vez que la acción implique sensibilidad o riesgo elevado, Chrome mostrará un aviso y solicitará confirmación manual.

Entre estos casos se encuentran:

  • Sitios que procesan información financiera o médica.
  • Operaciones que involucren transferencias de dinero o compras online.
  • Acciones que requieran utilizar el gestor de contraseñas.
  • Envío de mensajes o formularios con datos personales.

Google también aclaró que, en ningún caso, el modelo tendrá acceso directo a las contraseñas almacenadas por el usuario en Chrome. El gestor de claves seguirá funcionando como una capa independiente y blindada.

Defensa contra inyección rápida: una amenaza en expansión

Con el crecimiento de los agentes de IA, los ataques de inyección rápida se volvieron uno de los vectores más comunes: comandos diseñados para manipular al modelo, alterar su comportamiento o inducir acciones no deseadas.

Para combatirlos, Google incorporó un clasificador especializado capaz de detectar estas inyecciones durante el proceso de generación de instrucciones. Si identifica un comando sospechoso, lo bloquea automáticamente.

La compañía afirmó que está realizando pruebas intensivas con ataques creados por investigadores internos y externos, con el objetivo de reforzar las defensas antes del lanzamiento global de las funciones de agente.

Un desafío para toda la industria

Aunque el enfoque actual de Google se centra en Chrome, la discusión sobre la seguridad de los agentes de inteligencia artificial atraviesa a toda la industria tecnológica.

De hecho, a comienzos de este mes, Perplexity presentó un modelo de detección de contenido de código abierto orientado específicamente a mitigar ataques basados en inyección rápida, lo que muestra que la preocupación es compartida por otros desarrolladores.

La llegada de agentes capaces de ejecutar acciones en el navegador marca un salto significativo en las capacidades de la web moderna. Pero también exige nuevos marcos de seguridad, tanto técnicos como éticos. Con estas medidas, Google busca posicionarse como líder en la transición hacia una navegación asistida por IA, donde la automatización no comprometa la privacidad ni la seguridad de los usuarios.

Leer mas

Autor

[mdx-adserve-bstreet region="MED"]

Publicaciones relacionadas

Botón volver arriba