La cláusula de confidencialidad, en el contexto de médicos, abogados o psicólogos (entre otras profesiones), hace referencia a la obligación profesional de mantener en secreto la información compartida por pacientes o clientes.
En el caso de los médicos, esta cláusula implica no divulgar la información del historial médico, diagnóstico o tratamiento del paciente sin su consentimiento, salvo excepciones legales o éticas. En la abogacía, esta se traduce en la protección del secreto profesional, que abarca toda información revelada por el cliente sin posibilidad de ser obligado a declararla. Sin embargo, las herramientas de IA como ChatPGT no cuentan con esta obligación.
Así lo ha desvelado el CEO de OpenAI, Sam Altman, en su última conversación en el podcast This Past Weekend con Theo Von. El empresario asegura que las conversaciones de los cibernautas con ChatGPT no son tan privadas como creen.
”La gente le cuenta sus problemas más personales a ChatGPT. La gente joven especialmente lo utiliza como terapia y ahora mismo si hablas con un psicólogo, un abogado o un médico sobre tus problemas hay un privilegio legal, hay confidencialidad médico-paciente, pero todavía no hemos encontrado la manera para ChatGPT” indica Altman.
De esta forma, todos los datos que un usuario le proporcione a ChatGPT podrán ser utilizados en su contra si la ley lo requiere: “Si hay una demanda, podríamos vernos obligados a presentar los datos, y creo que eso es un gran error” asegura Altman.
Bajo el punto de vista del CEO de OpenAI, los usuarios deberían contar con el mismo concepto de privacidad para sus conversaciones con IA que con un terapeuta. “Ahora bien, el gran problema es cómo vamos a abordar las leyes al respecto” sentencia el empresario, haciendo referencia un futuro incierto para este ámbito legal.

