Millones de personas interactúan a diario con inteligencias artificiales como ChatGPT,y el CEO de OpenAI, Sam Altman, encendió las alarmas al dejar en claro que estas conversaciones no están amparadas por secreto profesional ni gozan de una confidencialidad legal garantizada.
A diferencia de lo que sucede en el vínculo entre un paciente y su médico, abogado o terapeuta, los diálogos mantenidos con esta herramienta de IA pueden ser almacenados, analizados e incluso presentados como prueba legal si un tribunal así lo exige.
Sam Altman: no hay confidencialidad legal
Durante una entrevista reciente en el pódcast This Past Weekend, Altman explicó que muchas personas, especialmente jóvenes, están utilizando ChatGPT como si fuera un psicólogo. En palabras del propio CEO: “La gente habla de las cosas más personales de su vida con ChatGPT. Y si hay una demanda, podríamos vernos obligados a entregar esa información. Creo que eso es un desastre”.

La advertencia no es menor. En la actualidad, no existe un marco legal que otorgue a las plataformas de inteligencia artificial el mismo nivel de confidencialidad que las profesiones reguladas. Es decir, si un usuario comparte información íntima o sensible, OpenAI podría verse legalmente obligado a entregar esos registros en un proceso judicial.
ChatGPT no es un terapeuta
El fenómeno que Altman describe no es aislado. Según el CEO, cada vez más personas encuentran en la IA un espacio de contención, apoyo emocional o simplemente un interlocutor neutro al que confiarle sus problemas. “Los jóvenes, sobre todo, la usan como si fuera un terapeuta. Pero aún no hemos encontrado la manera de garantizar que esa interacción sea realmente privada”, señaló.
Esta situación plantea un dilema complejo. Por un lado, el potencial terapéutico de la IA es innegable: muchas personas encuentran alivio emocional en estas plataformas. Por otro, la ausencia de confidencialidad legal convierte esas conversaciones en vulnerables, especialmente si contienen datos personales, confesiones delicadas o detalles que podrían ser utilizados en su contra.

Sin secreto profesional, ¿qué pasa con nuestros datos?
A diferencia de lo que sucede en aplicaciones de mensajería cifradas como Signal o WhatsApp, las conversaciones mantenidas con ChatGPT no cuentan con encriptación de extremo a extremo ni protección legal específica. Altman reconoció que OpenAI conserva registros de las conversaciones por un tiempo limitado —en la versión gratuita, alrededor de 30 días—, pero en ciertos casos esas conversaciones pueden almacenarse por más tiempo, sobre todo si están involucradas razones de seguridad o requerimientos judiciales.
Además, la reciente demanda del New York Times contra OpenAI por violación de derechos de autor agregó una nueva capa de preocupación. En ese contexto, el medio exigió conservar incluso los diálogos que los usuarios habían eliminado. Altman criticó la solicitud y calificó la orden como desproporcionada, pero admitió que el caso evidencia un vacío legal que debe ser resuelto cuanto antes.
Altman pide regulación y cambios urgentes
Frente a este panorama, Altman no se limita a advertir, sino que propone avanzar hacia una solución. En sus declaraciones, dejó claro que OpenAI está trabajando en colaboración con reguladores y expertos para crear un marco legal que permita garantizar privacidad real en las conversaciones con IA. Su idea es que, en el futuro, exista una figura jurídica que ampare a los usuarios en casos sensibles, tal como ocurre con los profesionales de la salud, el derecho o la psicología.

Sin embargo, también fue contundente al afirmar que ese sistema aún no existe. Mientras tanto, recomendó con firmeza que los usuarios eviten utilizar la herramienta para asuntos delicados o confidenciales. “Si necesitas hablar de algo serio, busca a un profesional. ChatGPT puede ayudarte con información, pero no reemplaza a un terapeuta ni a un médico”, advirtió en elpódcast This Past Weekend.
Usa la IA con cuidado
La confianza creciente que muchas personas depositan en ChatGPT es, sin duda, un síntoma de época. En un mundo hiperconectado, en el que el acceso a la información es instantáneo, es natural que se busque apoyo en herramientas como esta. Pero la advertencia de Altman deja algo claro: esa confianza, por ahora, no está protegida por la ley.
Por eso, mientras se construyen nuevas regulaciones, es clave que los usuarios comprendan los límites de estas tecnologías. No se trata de dejar de usarlas, sino de hacerlo con conciencia. La IA puede ser útil, versátil y rápida, pero todavía no es un espacio seguro para compartir secretos, problemas emocionales profundos o situaciones legales complejas.
Leer más
- ChatGPT Agent: ¿Qué es y como se activa?
- ¿Desobediencia artificial?: Un experimento revela que el modelo 03 de ChatGPT se niega a apagarse
- La nueva era de las búsquedas: la IA desafía a Google









