¿Hasta qué punto podemos proteger los datos que compartimos con ChatGPT?
Fact-checking
Expertos alertan de que es “técnicamente imposible” que se puedan borrar todos los datos que la IA tiene sobre nosotros, aunque existe el derecho

ChatGPT

En los últimos días, las redes sociales se han llenado de caricaturas generadas por ChatGPT a partir de su información sobre nosotros. Desde Verificat ya hemos advertido del riesgo que esta tendencia supone para la privacidad, ya que contribuye a normalizar la autoexposición online. Las personas expertas consultadas por Verificat apuntan a que estas dinámicas normalizan una autorización implícita del uso de datos sin un consentimiento claramente explícito.
Como personas usuarias de modelos de IA generativa, ¿sabemos qué datos se recopilan y qué uso se hacen? ¿Hasta qué punto podemos proteger la información personal que compartimos con la IA para que no se utilice, por ejemplo, para entrenar al sistema?
La IA puede utilizar la información que compartimos con ella de dos formas: en las conversaciones que mantenemos, para ofrecernos una experiencia más personalizada; y en usos externos que no tienen que ver con el usuario, cómo entrenar el sistema. ¡Te lo explicamos!
ChatGPT “recuerda” lo que decimos en una conversación activa, pero no significa que lo guarde cuando acabemos el chat
Para personalizar la conversación y mantener el hilo, ChatGPT utiliza la información facilitada dentro de un mismo chat. Sin embargo, esto no implica que la guarde al acabar. Tal y como explica a Verificat Albert Sabater, director del Observatorio de Ética en Inteligencia Artificial de Cataluña de la Universidad de Girona (UdG), la personalización proviene de la información detectada durante la conversación, no del aprendizaje continuo de todo el historial.
Sin embargo, otra función es la “memoria”, que permite que la IA acceda a conversaciones pasadas. Incluye las “memorias guardadas” (donde el chatbot “memoriza” informaciones concretas que el usuario le pide) y el “historial del chat” (en el que personaliza las respuestas en función de las conversaciones pasadas). En la UE, esta memoria está desactivada por defecto por el Reglamento General de Protección de Datos (RGPD) de la UE y requiere activación explícita.
La configuración que permite utilizar los datos para entrenar el modelo está activada por defecto
Ahora bien, existe otra configuración de ChatGPT que permite a OpenAI utilizar nuestros datos y todo lo que compartimos con el chatbot para entrenar en el sistema, o como denominan a la configuración, “mejorar el modelo para todos”. Esta configuración no necesita un consentimiento, sino que viene activada por defecto. Es la persona usuaria quien debe desactivarla.
Sabater explica que este uso implica que las conversaciones se analizan para mejorar el rendimiento general del modelo, pero, en principio, no se venden a terceros para fines publicitarios ni para crear perfiles comerciales. La empresa asegura en su política de privacidad que pueden divulgar los datos personales a vendedores y proveedores de servicios “solo cuando ejerzan sus funciones por nosotros”; con autoridades gubernamentales, empresas del sector o terceros “de conformidad con la normativa aplicable”; o entidades afiliadas, entre otras.
Recientemente, OpenAI ha anunciado que incluirá publicidad en los servicios GPT para los usuarios que no pagan suscripción, pero ha aclarado que “se mantendrán las conversaciones con ChatGPT privadas frente a los anunciantes”.
Carles Ortet, ingeniero en Informática y Electrónica por la UAB/UCC, que investiga la arquitectura de computadoras y computación paralela, señala otro factor: los datos de comportamiento que pueden recoger estos sistemas, “los que conceptualizan el comportamiento humano y personal”. Para Ortet, “no deberíamos dejar que nadie nos escaneara sin saber qué pasa con aquella información; pero no solo en la IA, sino tampoco en el móvil o en las redes”.
Es “técnicamente imposible” que se puedan borrar todos los datos que la IA tiene sobre nosotros
Según el Reglamento General de Protección de Datos de la UE (RGPD) las personas usuarias tienen el derecho a la rectificación y el olvido en cualquier momento de sus informaciones de la base de datos de la IA. Ya decir, que si alguien ha dado el consentimiento a compartir sus datos y después se retracta, tiene el derecho a pedir a la empresa que los borre.
Sin embargo, Sabater, el experto en ética y IA de la UdG, explica que “una vez los datos han sido utilizados para entrenar el modelo, es técnicamente imposible eliminarlos completamente, porque quedan integrados en los parámetros del sistema”. De esta manera, explica, “los usuarios pueden ejercer el derecho de supresión sobre las copias almacenadas, pero no se puede quitar lo que el modelo ya ha aprendido sin reentrenarlo entero”.
Itxaso Domínguez de Olazábal, experta en protección de datos y privacidad y asesora a la European Digital Rights (EDRi), coincide con Sabater: “una vez ciertos datos se han utilizado para ajustar modelos, la supresión plena y efectiva se vuelve técnica y jurídicamente compleja”. Este, alerta la experta, es uno de los puntos donde el discurso comercial sobre el control que tiene la persona usuaria choca con los límites reales de los sistemas de aprendizaje profundo.
Open AI en su política de privacidad explica que se pueden borrar todas las informaciones, pero sin hacer mención sobre qué ocurre con aquellas que ya han sido utilizadas.
Consejos prácticos para proteger los datos personales de la IA
La Agencia de Ciberseguridad de Cataluña recomienda que, cuando interactuamos con asistentes de inteligencia artificial, procuremos no compartir información personal. Desactivar el historial de chats, revisar el contenido compartido anteriormente y controlar los permisos de las aplicaciones con IA son algunos de los consejos de la entidad.
Albert Sabater, de la UdG, recuerda que cada plataforma tiene su propio enfoque sobre la gestión de la memoria, el uso de los datos para el entrenamiento de los modelos y las opciones de control para el usuario. Es importante conocer cada política de privacidad antes de utilizar la herramienta para actuar con conciencia y seguridad, apunta. Por su parte, Ortet recomienda utilizar herramientas de IA de la Unión Europea que tengan garantías y se rijan por buenas praxis.

