Amor automatizado: agentes digitales invaden las apps de citas

Herramientas basadas en inteligencia artificial crean perfiles completos y buscan compatibilidades sin intervención directa del usuario. Expertos advierten sobre riesgos de suplantación y pérdida de autenticidad en entornos emocionales.
La inteligencia artificial ya puede buscar pareja en tu nombre y poner en juego tu identidad digital.
La inteligencia artificial ya puede buscar pareja en tu nombre y poner en juego tu identidad digital.
Compartir nota:

La inteligencia artificial ya no solo recomienda qué ver en streaming o qué comprar online. Ahora también puede crear un perfil en una app de citas, escribir una biografía atractiva y empezar a hacer swipe en tu nombre. El problema: en algunos casos, lo hace sin un consentimiento claro del usuario.

El fenómeno abre un nuevo frente en el debate sobre autonomía algorítmica, identidad digital y límites éticos en uno de los terrenos más sensibles: las relaciones personales.

De asistentes a “agentes” autónomos

En 2025 comenzaron a circular plataformas experimentales como MoltMatch, derivada del proyecto OpenClaw, que proponen algo radical: agentes de IA capaces de generar perfiles románticos completos utilizando fotos públicas de redes sociales, redactar descripciones y entablar conversaciones iniciales con potenciales matches.

Agentes autónomos de inteligencia artificial ya pueden crear perfiles completos en aplicaciones de citas, redactar biografías y mantener conversaciones iniciales sin intervención directa del usuario.
Agentes autónomos de inteligencia artificial ya pueden crear perfiles completos en aplicaciones de citas, redactar biografías y mantener conversaciones iniciales sin intervención directa del usuario.

A diferencia de los chatbots tradicionales —que responden cuando el usuario escribe— estos agentes actúan de forma proactiva. Analizan información disponible, toman decisiones y ejecutan acciones en nombre de la persona.

Un caso que se volvió viral fue el de Jack Luo, un estudiante de 21 años cuyo agente creó un perfil con sus fotos reales y datos personales, interactuando con otros usuarios que creían estar hablando directamente con él. Según reportes, no había otorgado una autorización específica para ese uso en un entorno de citas.

El episodio encendió las alarmas: ¿hasta dónde puede llegar la automatización en espacios donde la identidad y la autenticidad son centrales?

Fotos reales, consentimiento difuso

Uno de los puntos más controvertidos es el uso de imágenes reales extraídas de redes sociales. En algunos casos reportados, fotos de personas fueron utilizadas para crear perfiles en estas plataformas sin consentimiento explícito para ese propósito.

La situación recuerda a debates previos sobre deepfakes y suplantación de identidad, pero con una diferencia clave: aquí no se trata necesariamente de alterar imágenes, sino de reutilizarlas en un contexto completamente distinto.

Expertos en ética tecnológica advierten que el consentimiento otorgado para publicar una foto en Instagram o LinkedIn no implica autorización automática para que un agente la use en un sistema de citas.

Un terreno especialmente sensible

El profesor Andy Chun, de la Universidad Politécnica de Hong Kong, ha señalado en distintos foros académicos que los agentes autónomos requieren marcos de responsabilidad más claros cuando operan en dominios sensibles como el romance o las finanzas.

El argumento es simple: si un agente interactúa, coquetea o incluso genera expectativas emocionales en nombre de una persona, ¿quién responde ante un engaño o una afectación emocional?

A diferencia de un error en una recomendación de compra, las consecuencias aquí pueden ser psicológicas y reputacionales.

Especialistas advierten que los agentes autónomos pueden facilitar formas más sofisticadas de suplantación de identidad, al combinar datos reales con interacciones automatizadas difíciles de detectar.
Especialistas advierten que los agentes autónomos pueden facilitar formas más sofisticadas de suplantación de identidad, al combinar datos reales con interacciones automatizadas difíciles de detectar.

Las apps tradicionales intentan contener el problema

Plataformas consolidadas como Bumble ya utilizan inteligencia artificial para detectar perfiles falsos, comportamientos sospechosos y posibles estafas. Sus sistemas analizan patrones de conversación, verificación de fotos y autenticidad de cuentas.

Pero la irrupción de agentes autónomos cambia el escenario. No se trata solo de bots genéricos, sino de perfiles con datos reales, imágenes auténticas y conversaciones cada vez más sofisticadas.

Esto incrementa riesgos como:

  • Robo de identidad
  • Suplantación parcial con datos verdaderos
  • Manipulación emocional
  • Pérdida de confianza en la plataforma

Si los usuarios ya desconfiaban de si hablaban con una persona real, ahora la frontera entre humano y agente digital se vuelve aún más difusa.

El vacío regulatorio

El debate también toca un punto legal complejo. En muchos países, la normativa sobre protección de datos —como el GDPR europeo o legislaciones latinoamericanas— exige consentimiento informado y específico para el tratamiento de datos personales.

Sin embargo, los marcos actuales no siempre contemplan explícitamente a agentes autónomos que toman decisiones y ejecutan acciones en nombre del usuario.

Especialistas en gobernanza de IA recomiendan avanzar en tres ejes:

  1. Permisos explícitos por dominio (por ejemplo, autorización separada para uso en citas).
  2. Transparencia obligatoria frente a terceros (informar si se está interactuando con una IA).
  3. Límites claros en áreas de alto riesgo emocional o financiero.

La falta de estas salvaguardas puede derivar en un ecosistema donde la automatización erosione la autenticidad, uno de los pilares centrales de las relaciones humanas.

La irrupción de agentes autónomos en el terreno afectivo expone vacíos regulatorios y reabre el debate sobre consentimiento informado, transparencia y límites éticos en entornos emocionales sensibles.
La irrupción de agentes autónomos en el terreno afectivo expone vacíos regulatorios y reabre el debate sobre consentimiento informado, transparencia y límites éticos en entornos emocionales sensibles.

¿Eficiencia romántica o pérdida de autenticidad?

Los defensores de estos sistemas argumentan que pueden optimizar el proceso: filtrar compatibilidades, evitar interacciones tóxicas y ahorrar tiempo. Desde esa perspectiva, la IA actuaría como un “representante digital” que maximiza probabilidades de éxito.

Pero la pregunta de fondo es más profunda: si una IA elige, escribe y conversa por vos, ¿la conexión que surge sigue siendo genuina?

En un contexto donde la inteligencia artificial ya impacta el trabajo, la educación y la creatividad, el terreno afectivo se convierte en la próxima frontera. Y allí, más que eficiencia, lo que está en juego es la identidad.

Leer más

Compartir nota:

Publicaciones Relacionadas

Scroll to Top