Alan Daitch, experto en tecnología: “ChatGPT llama a la policía si le hablas sobre cometer ciertos delitos, salvo si le hablas de hacerte daño a ti mismo porque el criterio es que sea una amenaza para la sociedad”
Delitos con IA
Una medida de seguridad que plantea dilemas éticos, según expertos y OpenAI
Alan Daitch, experto en Inteligencia Artificial: “Las conversaciones que estás teniendo con ChatGPT y en las que tratas temas confidenciales pueden estar siendo leídas por sus empleados“”
Alan Daitch incita a ser educados con la IA
Alan Daitch, experto en tecnología, ha compartido en sus redes sociales cómo la IA trabaja codo con codo con las autoridades, un hallazgo que ha abierto debate: “ChatGPT llama a la policía si le hablas sobre cometer ciertos delitos, salvo si le hablas de hacerte daño a ti mismo porque el criterio es que sea una amenaza para la sociedad”. Un concepto que parece sacado de ‘Matrix’ o ‘Minority Report’, pero, en este caso, la realidad supera la ficción.
ChatGPT, ¿asistente o vigilante?
El sitio oficial de OpenAI lo confirma. En su documento Ayudando a las personas cuando más lo necesitan, la empresa explica que cuando un usuario expresa intenciones de causar daño a terceros, la conversación puede ser derivada a un equipo humano especializado. Si ese equipo detecta una amenaza real e inminente, el caso puede ser notificado a las autoridades. Un sistema automatizado escanea las conversaciones en busca de “contenido dañino” y activa una cadena de revisión que podría terminar en una denuncia policial.
Sin embargo, el mismo nivel de intervención no aplica si el peligro es hacia uno mismo. Según Daitch, esto responde a un criterio de “amenaza a la sociedad”. OpenAI ha implementado una red de salvaguardas para detectar señales de angustia emocional o ideación suicida, pero, por ahora, estas no implican contacto con la policía. La lógica detrás es que estas situaciones, por su carácter íntimo, deben abordarse con privacidad. “Por ahora no estamos derivando los casos de autoinfligirse daño a las autoridades policiales para respetar la privacidad de las personas”, admite la compañía, aunque sí indican que se deriva a los usuarios a recursos de ayuda reales, como líneas telefónicas de asistencia y organizaciones especializadas.
La IA, conectada a todo tipo de ámbitos de la actividad humana
Desde 2023, los modelos de OpenAI están entrenados para no facilitar ni reproducir discursos de autolesión. En su lugar, buscan redirigir la conversación hacia un lenguaje empático y de contención, reforzando la importancia de buscar apoyo profesional. “Nuestro objetivo es que nuestras herramientas sean lo más útiles posible para la gente”, explican desde OpenAI. No obstante, el criterio actual ha generado controversia: ¿por qué se considera más urgente la amenaza hacia otros que hacia uno mismo?
Daitch lo califica de “muy polémico en términos de privacidad y vigilancia digital”, especialmente porque ya están apareciendo “los primeros casos de crímenes graves cometidos en complicidad con ChatGPT”. Aunque no ofrece ejemplos específicos, sí alerta sobre los riesgos de utilizar el chatbot como si fuera un confidente sin consecuencias.
Desde OpenAI, por su parte, insisten en que las acciones automatizadas están en revisión continua y que sus sistemas son aún imperfectos. También reconocen que las salvaguardas son menos eficaces en conversaciones largas, y que se está trabajando en reforzar estas limitaciones. Sin embargo, este es un precedente en el que la frontera entre acompañamiento y vigilancia parece más difusa que nunca. Lo que está claro es que la IA ya no es sólo una herramienta: también observa, interpreta y (a veces) actúa.