La integración de tecnologías de inteligencia artificial (IA) en aplicaciones de uso cotidiano sigue avanzando a pasos acelerados, pero no sin despertar preocupaciones. La más reciente polémica se centra en la incorporación de la IA Gemini de Google con aplicaciones de terceros, como WhatsApp, lo que generó una advertencia directa por parte de Kaspersky sobre los riesgos a la privacidad de los usuarios.
Según la firma de ciberseguridad, la posibilidad de que la IA acceda a conversaciones privadas de manera predeterminada —sin un consentimiento claro y explícito por parte del usuario— representa una amenaza significativa a la confianza y seguridad digital. En otras palabras, la IA podría estar “leyendo” tus mensajes sin que lo sepas.
Aplicaciones de mensajería: el nuevo punto débil
Las aplicaciones de mensajería, como WhatsApp, Telegram o Signal, son consideradas uno de los entornos más sensibles dentro del ecosistema digital. Allí se almacenan no solo conversaciones cotidianas, sino también datos personales, intercambios laborales, contraseñas compartidas informalmente y hasta información financiera. Permitir que una IA procese estos mensajes sin una aprobación directa del usuario pone en jaque la privacidad y abre la puerta a nuevas vulnerabilidades.
Desde Google, la justificación es la promesa de interacciones más fluidas y una experiencia de usuario mejorada. Sin embargo, el método elegido para habilitar esta funcionalidad es lo que ha encendido las alarmas. Se trata de un modelo de “opt-out” o exclusión voluntaria: es decir, el acceso está habilitado por defecto y depende del usuario desactivarlo. Esto implica que muchas personas podrían no estar al tanto de que sus conversaciones están siendo analizadas por una inteligencia artificial.
Advertencia de Kaspersky: acceso sin consentimiento es un riesgo
“Conceder acceso por defecto a datos altamente personales sin salvaguardas sólidas establece un precedente peligroso”, señaló Marc Rivero, analista principal de ciberseguridad en el Equipo Global de Investigación y Análisis en Kaspersky. “La IA debería fortalecer la seguridad y la privacidad, no comprometerlas. Las empresas siempre deben centrarse en empoderar a los usuarios con control total y claridad sobre cómo se usa su información, y garantizar que la implementación de la IA ponga la privacidad en primer lugar”, agregó.

Este tipo de medidas reaviva una discusión de fondo sobre el rol de la inteligencia artificial en la vida cotidiana y el límite entre personalización y vigilancia. Mientras algunas funciones impulsadas por IA pueden facilitar tareas, ofrecer respuestas más rápidas o sugerencias más acertadas, el precio a pagar no debería ser la pérdida del control sobre los propios datos.
IA e ingeniería social: el cóctel perfecto para los ciberdelincuentes
Kaspersky advierte que, ante este nuevo escenario, se abre un abanico de riesgos relacionados con el uso malicioso de estas tecnologías. En particular, destaca que los ciberdelincuentes ya están utilizando herramientas de IA para escalar sus campañas de ingeniería social, suplantación de identidad y fraudes diversos.
Si una funcionalidad como la de Gemini termina exponiendo conversaciones personales, se podría facilitar enormemente el trabajo de los atacantes, brindándoles acceso a información clave sin necesidad de vulnerar contraseñas o sistemas de seguridad tradicionales.
¿Quién tiene el control de tus datos?
La preocupación de fondo es que esta integración marque el comienzo de una nueva tendencia en la cual el acceso a datos sensibles por parte de IA se normalice sin una evaluación crítica. “Las decisiones sobre privacidad no pueden quedar en manos de configuraciones ocultas o automatismos predefinidos. Deben ser claras, informadas y respetar el derecho del usuario a decidir cómo se utilizan sus datos”, advierte Kaspersky.
Además, la empresa recomienda revisar periódicamente los permisos otorgados a las aplicaciones y las funciones asociadas a la IA, y mantenerse informados sobre las actualizaciones que puedan afectar la privacidad. También señala que los usuarios deberían tener herramientas más accesibles para auditar qué datos son recolectados, cómo se procesan y con qué propósito.
Un debate que recién empieza
La polémica generada por la integración de Gemini con WhatsApp refleja un dilema creciente: el avance de la inteligencia artificial y la automatización, si no es acompañado por regulaciones claras y buenas prácticas en ciberseguridad, puede traer aparejadas consecuencias negativas para los derechos digitales de los usuarios.
En un momento en que la privacidad es uno de los activos más valiosos y vulnerables del entorno digital, expertos como Marc Rivero insisten en que las empresas tecnológicas deben asumir un rol proactivo en la protección de los datos. “La confianza se construye con transparencia, y eso incluye informar con claridad, pedir consentimiento real y garantizar que la tecnología se utilice para proteger, no para invadir”, concluyó.
Con la creciente adopción de IA en múltiples servicios, este debate no hará más que intensificarse. La pregunta que muchos usuarios se hacen es: ¿realmente tenemos el control sobre lo que nuestras apps hacen con nuestra información? La respuesta, al menos por ahora, parece estar lejos de ser clara.
Leer mas
- Kaspersky implementa nuevos beneficios en su Programa de Socios
- Kaspersky: Uno de cada cinco sistemas industriales en América Latina fue blanco de malware en 2025
- Kaspersky realiza importante actualización en su programa de socios









