Loading...

Alan Daitch, experto en Inteligencia Artificial: “Las conversaciones que estás teniendo con ChatGPT y en las que tratas temas confidenciales pueden estar siendo leídas por sus empleados“”

Tecnología y privacidad

Alan Daitch incita a ser educados con la IA

Alan Daitch

El crecimiento de herramientas basadas en inteligencia artificial como ChatGPT ha revolucionado la forma en la que las personas interactúan con la tecnología. Desde consultas laborales hasta confesiones personales, millones de usuarios han confiado en esta IA para resolver dudas o simplemente desahogarse. Pero ¿hasta qué punto son privadas esas conversaciones? Alan Daitch, experto en IA y excolaborador de Google, ha lanzado una advertencia que ha levantado ampollas: “Si no has desactivado una configuración concreta, tus chats pueden ser accedidos por empleados de OpenAI”.

Daitch ha detallado cómo desactivar la opción que permite a la empresa utilizar las conversaciones para entrenar su algoritmo. El procedimiento es sencillo, pero no está a la vista. “Tanto en la app como en la versión web, hay que ir a los tres puntitos junto al nombre de usuario, entrar a ‘Controles de datos’ y desactivar la opción ‘Mejorar el modelo para todos’. Así, tu información deja de alimentar el sistema”, explica. Sin embargo, advierte que, aunque se desactive esta opción, OpenAI sigue guardando los datos durante 30 días por motivos de seguridad.

Un sistema que mejora, pero con nuestros datos

La IA mejora con los datos que le proporcionan lo usuarios.

Canva

La inteligencia artificial generativa funciona en gran medida gracias a la retroalimentación que recibe de los propios usuarios. Según Daitch, esto es “parte de la evolución tecnológica”, pero la falta de transparencia en los procesos puede comprometer la privacidad de quienes utilizan estas plataformas.

Desde OpenAI se aclara que sólo “un puñado” de empleados tiene acceso real a las conversaciones, y siempre con fines de mejora del servicio. El foro Reddit subraya que es altamente improbable que una persona humana lea los intercambios más íntimos que los usuarios mantienen con la IA. “Aun así, si tu cuenta es marcada como abusiva por sus algoritmos, podrían revisarla manualmente”, se advierte. Un matiz que Daitch también puntualizó en otro vídeo, en el que además aprovechó para volver a aconsejar cómo desactivar esta opción de varias apliaciones como: ChatGPT, Gemini, Claude, Grok, DeepSeek o WhatsApp con Meta AI.

Para este experto, ese margen de posibilidad ya es motivo suficiente para tomar precauciones. “El hecho de que exista una opción para desactivar esto, pero esté escondida en el menú, ya es un problema en sí. Es información sensible, y muchos ni siquiera saben que la están compartiendo con una empresa”, recalca.

Hay que tener en cuenta que muchas compañías y freelancers utilizan ChatGPT para redactar correos, analizar datos o incluso redactar propuestas confidenciales. “Lo más preocupante es que mucha gente asume que, porque están pagando por la versión Plus, tienen mayor privacidad. Pero no es así. A menos que desactives manualmente esa opción, tu información sigue siendo usada para entrenar el modelo”, insiste el experto.

Lee también

Este tipo de malentendidos puede tener consecuencias serias. Un empleado podría, sin saberlo, filtrar información sensible de su empresa. Un periodista podría comprometer una fuente. Incluso usuarios que simplemente consultan cuestiones personales o de salud mental podrían estar exponiendo sus datos más íntimos. Como usuarios, tenemos derecho a saber qué se hace con la información y decidir hasta qué punto queremos participar en el entrenamiento de sistemas que todavía tienen mucho que evolucionar en términos de ética y transparencia.

Etiquetas