Seguridad

WeTransfer intentó usar archivos de usuarios para entrenar su IA y tuvo que dar marcha atrás

La plataforma actualizó sus condiciones de uso para incluir una licencia amplia sobre el contenido subido. La reacción de la comunidad fue inmediata y obligó a la empresa a modificar el texto y aclarar el alcance de sus prácticas.

La confianza digital recibió un golpe en julio de 2025, cuando WeTransfer —la plataforma de transferencia de archivos usada por millones de creativos y profesionales— actualizó sus términos y condiciones con una cláusula que generó alarma: a partir del 8 de agosto, se reservaría el derecho de usar los archivos subidos por los usuarios para entrenar sistemas de inteligencia artificial.

La redacción era clara y contundente. Al aceptar los nuevos términos, cualquier usuario otorgaba a WeTransfer una licencia perpetua, mundial, no exclusiva, libre de regalías, transferible y con derecho a sublicenciar sus archivos. Esto incluía no solo la posibilidad de reproducir o modificar el contenido, sino también de utilizarlo con fines de aprendizaje automático, como parte de los esfuerzos de la empresa por mejorar funciones como la moderación de contenidos o la detección de abusos.

WeTransfer modificó sus términos para incluir el uso de archivos de usuarios en procesos relacionados con inteligencia artificial.
WeTransfer modificó sus términos para incluir el uso de archivos de usuarios en procesos relacionados con inteligencia artificial.

El estallido en redes

La reacción fue inmediata. Usuarios de todo el mundo expresaron su rechazo en redes sociales, denunciando que la empresa intentaba apropiarse de trabajos creativos —fotos, videos, documentos profesionales o personales— sin compensación ni control, bajo una cláusula impuesta por la simple aceptación de uso.

El mayor temor: que el contenido protegido por derechos de autor o de naturaleza sensible fuera utilizado para alimentar modelos de inteligencia artificial sin que el usuario supiera exactamente cómo, ni con qué consecuencias futuras.

Cambio de rumbo

En medio de esta creciente presión, WeTransfer emitió un comunicado y volvió a modificar sus términos. Eliminó la referencia explícita al entrenamiento de modelos de IA y también suavizó el lenguaje legal. La nueva versión ya no menciona la sublicencia ni la transferencia de derechos. Solo establece que los archivos pueden ser utilizados para “operar, desarrollar y mejorar el servicio” de acuerdo con su política de privacidad.

El caso evidencia la tensión entre innovación tecnológica y la necesidad de proteger los datos de los usuarios.
El caso evidencia la tensión entre innovación tecnológica y la necesidad de proteger los datos de los usuarios.

Además, la compañía aclaró públicamente que no utiliza IA ni machine learning para procesar el contenido que los usuarios cargan en la plataforma, y que no vende datos ni archivos a terceros. Según explicaron, el objetivo inicial de la cláusula era permitir mejoras internas, como el perfeccionamiento de sistemas automatizados de detección de contenido ilegal o abusivo, pero admitieron que la redacción anterior pudo haber causado confusión.

¿Fin del problema o zona gris?

A pesar de la corrección, especialistas en protección de datos y privacidad advierten que la nueva redacción podría seguir dejando abierta la puerta para ciertos usos con IA, siempre y cuando se presenten como parte de la mejora del servicio. Es decir, no se menciona IA, pero tampoco se la excluye de forma tajante.

Tras la controversia, la empresa reescribió la cláusula eliminando referencias explícitas al entrenamiento de IA.
Tras la controversia, la empresa reescribió la cláusula eliminando referencias explícitas al entrenamiento de IA.

Este tipo de ambigüedad no es nuevo en la industria tecnológica. Muchas plataformas ajustan sus términos para habilitar procesos internos sin dar detalles específicos, lo que genera dudas razonables sobre hasta dónde llega realmente la protección de los datos y los derechos del usuario.

Más allá de cómo termine el caso WeTransfer, el episodio vuelve a poner sobre la mesa una tensión creciente: la necesidad de transparencia frente al avance acelerado de la inteligencia artificial. La reacción masiva de los usuarios demostró que cada vez hay más conciencia sobre lo que implica entregar datos, archivos o creaciones personales a una plataforma digital.

El acceso a herramientas basadas en IA puede mejorar muchos servicios, pero también requiere límites éticos, claridad legal y opciones de consentimiento real. En este caso, el retroceso de WeTransfer parece una victoria parcial de los usuarios, pero también deja una advertencia abierta: sin reglas claras, la línea entre optimización del servicio y apropiación de contenidos ajenos puede volverse peligrosamente difusa.

Leer más

Autor

[mdx-adserve-bstreet region="MED"]

Publicaciones relacionadas

Botón volver arriba