Sam Altman advierte que lo que le cuentas a ChatGPT no es confidencial

Sam Altman, cofundador y CEO de OpenAI, destaca que la nueva asociación con AWS proporcionará el cómputo masivo necesario para escalar la inteligencia artificial avanzada.
Sam Altman, cofundador y CEO de OpenAI.
Compartir nota:

Millones de personas interactúan a diario con inteligencias artificiales como ChatGPT,y el CEO de OpenAI, Sam Altman, encendió las alarmas al dejar en claro que estas conversaciones no están amparadas por secreto profesional ni gozan de una confidencialidad legal garantizada.

A diferencia de lo que sucede en el vínculo entre un paciente y su médico, abogado o terapeuta, los diálogos mantenidos con esta herramienta de IA pueden ser almacenados, analizados e incluso presentados como prueba legal si un tribunal así lo exige.

Sam Altman: no hay confidencialidad legal

Durante una entrevista reciente en el pódcast This Past Weekend, Altman explicó que muchas personas, especialmente jóvenes, están utilizando ChatGPT como si fuera un psicólogo. En palabras del propio CEO: “La gente habla de las cosas más personales de su vida con ChatGPT. Y si hay una demanda, podríamos vernos obligados a entregar esa información. Creo que eso es un desastre”.

El CEO de OpenAI volvió a hablar sobre los límites y desafíos éticos del uso de la inteligencia artificial.
El CEO de OpenAI volvió a hablar sobre los límites y desafíos éticos del uso de la inteligencia artificial.

La advertencia no es menor. En la actualidad, no existe un marco legal que otorgue a las plataformas de inteligencia artificial el mismo nivel de confidencialidad que las profesiones reguladas. Es decir, si un usuario comparte información íntima o sensible, OpenAI podría verse legalmente obligado a entregar esos registros en un proceso judicial.

ChatGPT no es un terapeuta

El fenómeno que Altman describe no es aislado. Según el CEO, cada vez más personas encuentran en la IA un espacio de contención, apoyo emocional o simplemente un interlocutor neutro al que confiarle sus problemas. “Los jóvenes, sobre todo, la usan como si fuera un terapeuta. Pero aún no hemos encontrado la manera de garantizar que esa interacción sea realmente privada, señaló.

Esta situación plantea un dilema complejo. Por un lado, el potencial terapéutico de la IA es innegable: muchas personas encuentran alivio emocional en estas plataformas. Por otro, la ausencia de confidencialidad legal convierte esas conversaciones en vulnerables, especialmente si contienen datos personales, confesiones delicadas o detalles que podrían ser utilizados en su contra.

Millones de personas interactúan diariamente con el chatbot, muchas veces compartiendo datos personales.
Millones de personas interactúan diariamente con el chatbot, muchas veces compartiendo datos personales.

Sin secreto profesional, ¿qué pasa con nuestros datos?

A diferencia de lo que sucede en aplicaciones de mensajería cifradas como Signal o WhatsApp, las conversaciones mantenidas con ChatGPT no cuentan con encriptación de extremo a extremo ni protección legal específica. Altman reconoció que OpenAI conserva registros de las conversaciones por un tiempo limitado —en la versión gratuita, alrededor de 30 días—, pero en ciertos casos esas conversaciones pueden almacenarse por más tiempo, sobre todo si están involucradas razones de seguridad o requerimientos judiciales.

Además, la reciente demanda del New York Times contra OpenAI por violación de derechos de autor agregó una nueva capa de preocupación. En ese contexto, el medio exigió conservar incluso los diálogos que los usuarios habían eliminado. Altman criticó la solicitud y calificó la orden como desproporcionada, pero admitió que el caso evidencia un vacío legal que debe ser resuelto cuanto antes.

Altman pide regulación y cambios urgentes

Frente a este panorama, Altman no se limita a advertir, sino que propone avanzar hacia una solución. En sus declaraciones, dejó claro que OpenAI está trabajando en colaboración con reguladores y expertos para crear un marco legal que permita garantizar privacidad real en las conversaciones con IA. Su idea es que, en el futuro, exista una figura jurídica que ampare a los usuarios en casos sensibles, tal como ocurre con los profesionales de la salud, el derecho o la psicología.

Las conversaciones con IA no están protegidas por leyes de confidencialidad profesional, según advirtió el propio Altman.
Las conversaciones con IA no están protegidas por leyes de confidencialidad profesional, según advirtió el propio Altman.

Sin embargo, también fue contundente al afirmar que ese sistema aún no existe. Mientras tanto, recomendó con firmeza que los usuarios eviten utilizar la herramienta para asuntos delicados o confidenciales. “Si necesitas hablar de algo serio, busca a un profesional. ChatGPT puede ayudarte con información, pero no reemplaza a un terapeuta ni a un médico”, advirtió en elpódcast This Past Weekend.

Usa la IA con cuidado

La confianza creciente que muchas personas depositan en ChatGPT es, sin duda, un síntoma de época. En un mundo hiperconectado, en el que el acceso a la información es instantáneo, es natural que se busque apoyo en herramientas como esta. Pero la advertencia de Altman deja algo claro: esa confianza, por ahora, no está protegida por la ley.

Por eso, mientras se construyen nuevas regulaciones, es clave que los usuarios comprendan los límites de estas tecnologías. No se trata de dejar de usarlas, sino de hacerlo con conciencia. La IA puede ser útil, versátil y rápida, pero todavía no es un espacio seguro para compartir secretos, problemas emocionales profundos o situaciones legales complejas.

Leer más

Compartir nota:

Publicaciones Relacionadas

Scroll to Top