Loading...

María Aperador, experta en ciberseguridad, sobre el peligro de ChatGPT: “Nunca des tus datos personales o detalles identificables sobre ti mismo”

Inteligencia artificial

La experta recomienda a los internautas no subir al chatbot de IA documentos médicos ni capturas de pantalla de nuestro móvil

El sorprendente hallazgo astronómico gracias al telescopio espacial James Webb: "Esta sería la primera detección de estas estrellas primordiales"

María Aperador, experta en ciberseguridad

La inteligencia artificial continúa avanzando a pasos agigantados, perfeccionando su capacidad para entender a los usuarios y ofrecer respuestas cada vez más precisas. Muchas personas la utilizan para generar imágenes, redactar correos, programar, resolver dudas o simplemente mantener conversaciones. Sin embargo, respecto a esta última actividad, los especialistas ya han señalado ciertas precauciones que conviene tener en cuenta al interactuar con una herramienta de IA.

María Aperador, experta en ciberseguridad y creadora de Bevalk, advierte que nunca se deben compartir datos personales, contraseñas ni números de tarjeta bancaria con un chatbot. Tal y como ha desvelado la joven, la información facilitada a un chatbot no siempre permanece privada, ya que algunas herramientas como ChatGPT pueden almacenar parte de las conversaciones.

Cinco cosas que nunca deberías hablar con ChatGPT

Chat GPT

Kiichiro Sato / Ap-LaPresse

En primer lugar, la experta en ciberseguridad recomienda no proporcionar en ningún momento información personal sobre nuestra identidad. “Realmente lo que hacemos sin darnos cuenta es compartir la información personal de manera indirecta” asegura Aperador, haciendo una prueba: solicita al chatbot ideas de citas románticas personalizadas, y este responde preguntando por la ciudad en la que va a tener lugar dicha cita. “Con una conversación sobre una receta o una cita romántica, ChatGPT obtiene nuestra ubicación, nivel socioeconómico o hábitos” sentencia la experta.

En segundo lugar, María Aperador recomienda no compartir nunca nuestros datos médicos o de salud: “Analíticas de sangre, resultados de resonancias, fotos de erupciones cutáneas, etc. Compartir todo esto es extremadamente peligroso” afirma. No es para menos: cuando compartimos datos médicos, estamos consiguiendo que la IA asocie nuestra identidad con patologías, enfermedades, medicamentos o condiciones crónicas.

Cada pregunta que nos hace ChatGPT es una pieza clave del rompecabezas, y el rompecabezas somos nosotros

María Aperadorexperta en ciberseguridad

La información es poder, algo que se traslada a este ámbito. Según la experta, las aseguradoras quieren nuestros datos médicos para subir las primas o negar coberturas, los empleadores los utilizan para ver si nos contratan, y las farmacéuticas los usan con un objetivo en mente: segmentación de marketing. Según el Centro de Investigación Pew, el 81% opina que la información que recopilan las empresas se utilizará de formas con las que la gente no se siente cómoda.

En tercer lugar, los expertos recomiendan no compartir nunca nuestra información financiera. A través de estos datos, las empresas pueden poner en marcha cierta discriminación de precios: “Analizan desde qué dispositivos buscas, si es un Mac, es un ordenador más caro, o si tu ubicación está en un barrio rico, el precio será más alto” cuenta Aperador. De este modo, la IA es capaz de sacar conclusiones sobre nuestro salario, acotando en qué gastamos el dinero y cuánto estamos dispuesto a pagar, ajustando así un precio específico para cada usuario. Según un estudio de IAPP, el 57% de los consumidores de todo el mundo está de acuerdo en que la IA supone una amenaza significativa para su privacidad.

Lee también

Mark Zuckerberg pierde a su mayor aliado en el desarrollo de inteligencia artificial, el “padrino de la IA”: “Para la próxima revolución, necesitamos dar un paso atrás”

Pau Roldan

La información confidencial laboral, la amenaza más grave en las empresas

Aperador pide a los internautas que nuncan compartan información confidencial de su trabajo, la amenaza más grave en las empresas. En la actualidad, un porcentaje considerable de empleados está compartiendo con ChatGPT correos de clientes, contratos confidenciales, estrategias de negocio e información de proyectos internos, poniendo así en peligro la intimidad de las personas.

Finalmente, la experta en ciberseguridad hace hincapié en las contraseñas o credenciales. “Debemos ser conscientes de que hay cosas que nosotros a simple vista no vemos pero ChatGPT sí que lo puede sacar” apunta Aperador, haciendo referencia a una simple captura de pantalla en la que se puede observar el token de iniciar sesión.

Se recomienda no proporcionar nuestras contraseñas a la IA

Diseño: Selu Manzano

Una cosa nos queda clara: la comodidad de conversar con un chatbot de IA no debe hacernos olvidar que la protección de nuestros datos depende, en gran parte, de cómo los manejamos. Evitar compartir información sensible cuando al interactuar con estos sistemas es la mejor forma de disfrutar de sus ventajas sin exponernos a riesgos innecesarios. La IA avanza, pero la responsabilidad sigue estando en nuestras manos.

Etiquetas