La inteligencia artificial ya no solo recomienda qué ver en streaming o qué comprar online. Ahora también puede crear un perfil en una app de citas, escribir una biografía atractiva y empezar a hacer swipe en tu nombre. El problema: en algunos casos, lo hace sin un consentimiento claro del usuario.
El fenómeno abre un nuevo frente en el debate sobre autonomía algorítmica, identidad digital y límites éticos en uno de los terrenos más sensibles: las relaciones personales.
De asistentes a “agentes” autónomos
En 2025 comenzaron a circular plataformas experimentales como MoltMatch, derivada del proyecto OpenClaw, que proponen algo radical: agentes de IA capaces de generar perfiles románticos completos utilizando fotos públicas de redes sociales, redactar descripciones y entablar conversaciones iniciales con potenciales matches.

A diferencia de los chatbots tradicionales —que responden cuando el usuario escribe— estos agentes actúan de forma proactiva. Analizan información disponible, toman decisiones y ejecutan acciones en nombre de la persona.
Un caso que se volvió viral fue el de Jack Luo, un estudiante de 21 años cuyo agente creó un perfil con sus fotos reales y datos personales, interactuando con otros usuarios que creían estar hablando directamente con él. Según reportes, no había otorgado una autorización específica para ese uso en un entorno de citas.
El episodio encendió las alarmas: ¿hasta dónde puede llegar la automatización en espacios donde la identidad y la autenticidad son centrales?
Fotos reales, consentimiento difuso
Uno de los puntos más controvertidos es el uso de imágenes reales extraídas de redes sociales. En algunos casos reportados, fotos de personas fueron utilizadas para crear perfiles en estas plataformas sin consentimiento explícito para ese propósito.
La situación recuerda a debates previos sobre deepfakes y suplantación de identidad, pero con una diferencia clave: aquí no se trata necesariamente de alterar imágenes, sino de reutilizarlas en un contexto completamente distinto.
Expertos en ética tecnológica advierten que el consentimiento otorgado para publicar una foto en Instagram o LinkedIn no implica autorización automática para que un agente la use en un sistema de citas.
Un terreno especialmente sensible
El profesor Andy Chun, de la Universidad Politécnica de Hong Kong, ha señalado en distintos foros académicos que los agentes autónomos requieren marcos de responsabilidad más claros cuando operan en dominios sensibles como el romance o las finanzas.
El argumento es simple: si un agente interactúa, coquetea o incluso genera expectativas emocionales en nombre de una persona, ¿quién responde ante un engaño o una afectación emocional?
A diferencia de un error en una recomendación de compra, las consecuencias aquí pueden ser psicológicas y reputacionales.

Las apps tradicionales intentan contener el problema
Plataformas consolidadas como Bumble ya utilizan inteligencia artificial para detectar perfiles falsos, comportamientos sospechosos y posibles estafas. Sus sistemas analizan patrones de conversación, verificación de fotos y autenticidad de cuentas.
Pero la irrupción de agentes autónomos cambia el escenario. No se trata solo de bots genéricos, sino de perfiles con datos reales, imágenes auténticas y conversaciones cada vez más sofisticadas.
Esto incrementa riesgos como:
- Robo de identidad
- Suplantación parcial con datos verdaderos
- Manipulación emocional
-
Pérdida de confianza en la plataforma
Si los usuarios ya desconfiaban de si hablaban con una persona real, ahora la frontera entre humano y agente digital se vuelve aún más difusa.
El vacío regulatorio
El debate también toca un punto legal complejo. En muchos países, la normativa sobre protección de datos —como el GDPR europeo o legislaciones latinoamericanas— exige consentimiento informado y específico para el tratamiento de datos personales.
Sin embargo, los marcos actuales no siempre contemplan explícitamente a agentes autónomos que toman decisiones y ejecutan acciones en nombre del usuario.
Especialistas en gobernanza de IA recomiendan avanzar en tres ejes:
- Permisos explícitos por dominio (por ejemplo, autorización separada para uso en citas).
- Transparencia obligatoria frente a terceros (informar si se está interactuando con una IA).
-
Límites claros en áreas de alto riesgo emocional o financiero.
La falta de estas salvaguardas puede derivar en un ecosistema donde la automatización erosione la autenticidad, uno de los pilares centrales de las relaciones humanas.

¿Eficiencia romántica o pérdida de autenticidad?
Los defensores de estos sistemas argumentan que pueden optimizar el proceso: filtrar compatibilidades, evitar interacciones tóxicas y ahorrar tiempo. Desde esa perspectiva, la IA actuaría como un “representante digital” que maximiza probabilidades de éxito.
Pero la pregunta de fondo es más profunda: si una IA elige, escribe y conversa por vos, ¿la conexión que surge sigue siendo genuina?
En un contexto donde la inteligencia artificial ya impacta el trabajo, la educación y la creatividad, el terreno afectivo se convierte en la próxima frontera. Y allí, más que eficiencia, lo que está en juego es la identidad.
Leer más
- El costo de no avanzar en IA: cuatro dimensiones clave que las organizaciones no pueden ignorar
- La Inteligencia Artificial prometió tiempo libre, pero los empleados ‘se queman’: cuando la productividad se convierte en carga
- Mujeres en STEM: cuando la inteligencia artificial también habla con voz femenina en América Latina









