Blue Monday: el 22% de los chilenos recurre a chatbots en momentos de tristeza

Los expertos de Kaspersky advierten que este hábito puede comprometer la privacidad de los usuarios y recuerdan que proteger los datos también es parte del autocuidado.
Muchos chilenos recurren a chatbots en momentos de tristeza
Muchos chilenos recurren a chatbots en momentos de tristeza

Hoy, desahogarse en momentos de tristeza no siempre implica recurrir a otra persona. De acuerdo con una reciente investigación de Kaspersky, la inteligencia artificial está adoptando un nuevo papel en la vida digital de las personas: el de apoyo emocional. El estudio revela que el 22% de los chilenos que utiliza herramientas de IA afirma hablar con chatbots cuando se siente triste o decaído, una práctica que puede intensificarse en fechas como el Blue Monday y que plantea riesgos para la privacidad de los usuarios.

El día más triste del año y el rol de la IA

El Blue Monday se conmemora el tercer lunes de enero y es considerado el día más triste del año, ya que suele asociarse con factores como el clima, el regreso a la rutina tras las fiestas decembrinas o las deudas de fin de año. En este escenario, muchas personas buscan hablar y sentirse escuchadas.

En el entorno digital, cada vez más usuarios recurren a herramientas de inteligencia artificial para expresar cómo se sienten, percibiéndolas como un espacio “seguro” por su disponibilidad inmediata, la rapidez de sus respuestas y la ausencia de juicios o reacciones emocionales. Sin embargo, esta percepción puede llevar a compartir información demasiado personal con mayor confianza de la que se tendría en otros ámbitos.

Jóvenes y uso emocional de los chatbots

La tendencia es especialmente visible entre los más jóvenes. A nivel global, la generación Z y los millennials lideran el uso de la IA como apoyo emocional: el 35% afirma acudir a estas herramientas en momentos de malestar, frente al 19% de las personas de 55 años o más.

Este comportamiento refleja un cambio en la forma en que las nuevas generaciones gestionan sus emociones, incorporando cada vez más a las plataformas digitales, muchas veces sin dimensionar las posibles implicancias y riesgos asociados a la privacidad.

Privacidad y riesgos de ciberseguridad

Aunque la interacción con chatbots puede parecer íntima y privada, la mayoría de estas herramientas pertenece a empresas comerciales con políticas de recopilación y tratamiento de datos. Esto implica que la información compartida, incluidas conversaciones sobre estados de ánimo o situaciones personales, puede almacenarse y analizarse con distintos fines, como la mejora de servicios o la personalización de experiencias.

“Al ‘hablar’ con chatbots de IA sin cautela, los usuarios pueden enfrentar riesgos de privacidad. Estas plataformas pueden presentar fallas de seguridad o ser vulneradas, lo que podría derivar en la filtración de conversaciones personales con información sensible”, explicó María Isabel Manjarrez, Investigadora de seguridad del Equipo Global de Investigación y Análisis de Kaspersky. También advirtió sobre la existencia de bots falsos diseñados para robar datos con fines maliciosos y recordó que la IA no reemplaza el acompañamiento profesional en salud mental.

Recomendaciones para un uso más seguro

Si en este Blue Monday decides interactuar con herramientas de inteligencia artificial, los expertos de Kaspersky recomiendan cuatro medidas básicas para protegerte:

  1. Revisar la política de privacidad antes de iniciar una conversación y verificar si es posible limitar el uso de los datos compartidos.

  2. Evitar compartir información personal o financiera, como nombre completo, dirección, números de teléfono, contraseñas o datos bancarios.

  3. Contrastar la información que ofrecen los chatbots y buscar apoyo profesional cuando sea necesario, especialmente en temas de salud mental.

  4. Utilizar solo plataformas reconocidas y confiables, complementando su uso con soluciones de seguridad que bloqueen enlaces y sitios maliciosos.

    Leer más

Publicaciones Relacionadas

Scroll to Top