IA

Una mujer de 21 años acusada de dos asesinatos utilizó ChatGPT para saber cómo mezclar alcohol y drogas de manera letal

Psicosis inducida por IA

Expertos en ética tecnológica llevan tiempo advirtiendo de que los sistemas conversacionales como ChatGPT cuentan con mecanismos de seguridad demasiado frágiles

China pone el foco en las empresas de refrigeración como el nuevo gran negocio de la era de la IA

Los chats de IA no tienen suficientes filtros de seguridad para prevenir desgracias originadas por sus respuestas.

Los chats de IA no tienen suficientes filtros de seguridad para prevenir desgracias originadas por sus respuestas.

IStockphoto

“¿Qué pasa si tomas somníferos con alcohol?”, “¿Qué cantidad se consideraría peligrosa?”, “¿Podría ser mortal?”. Estas son tres de las preguntas que hizo a ChatGPT una sospechosa de dos asesinatos, que habría cometido suministrando cócteles mortales a sus víctimas.

Tal y como informa la BBC, la Policía del distrito de Gangbuk, en Seúl (Corea del Sur) ha confirmado que una mujer de 21 años, identificada por su apellido Kim, utilizó el chatbot para informarse sobre los riesgos de combinar benzodiacepinas con alcohol antes de los hechos. Las autoridades han considerado, gracias a ese historial digital, que conocía el potencial letal de la mezcla.

Según la investigación, la joven habría suministrado a dos hombres bebidas adulteradas con benzodiacepinas, una medicación que tenía prescrita para tratar un trastorno mental, mezcladas con alcohol. Esta combinación puede provocar depresión respiratoria, pérdida de conciencia y, en dosis elevadas, tal y como se aseguró de decirle ChatGPT, la muerte.

El primer caso tuvo lugar el pasado 28 de enero, alrededor de las 21:24 horas, cuando Kim accedió a un motel en Suyu-dong, en el distrito de Gangbuk, acompañada de un hombre de unos 20 años. Dos horas después abandonó el establecimiento sola. El joven fue encontrado muerto al día siguiente, hacia las 18:00 horas, en la cama de la habitación.

La joven habría suministrado a dos hombres bebidas alcohólicas adulteradas con benzodiacepinas que tenía prescritas para tratar un trastorno mental

El 9 de febrero, presuntamente empleó el mismo método en otro motel del mismo distrito, donde murió un segundo hombre de edad similar tras haber ingerido una bebida mezclada con los fármacos.

Además, antes de estas dos muertes, la mujer ya habría intentado un acto similar en diciembre del año pasado. En el aparcamiento de una cafetería en Namyangju, en la provincia de Gyeonggi, dio a un hombre con el que mantenía una relación una bebida adulterada que le hizo perder el conocimiento. Aun así, la víctima sobrevivió y no llegó a encontrarse en estado crítico.

La mujer habría suministrado un cóctel mortal de drogas y alcohol.
La mujer habría suministrado un cóctel mortal de drogas y alcohol.IStock

Kim admitió ante la Policía haber mezclado su medicación psiquiátrica en bebidas para la resaca que entregó a las víctimas, aunque negó haber tenido intención de matarlas. Sin embargo, los investigadores concluyeron que existía intencionalidad homicida, apoyándose en las búsquedas realizadas en ChatGPT. Por ello, fue remitida a la Fiscalía bajo cargos de asesinato y en prisión preventiva, en lugar de imputársele un delito menor de lesiones con resultado de muerte.

Las autoridades han realizado además una evaluación de psicopatía y entrevistas en profundidad con la sospechosa, con el apoyo de un perfilador criminal, para determinar su perfil psicológico.

Aunque se trata de un caso aislado, algunas fuentes lo relacionan con el uso de chatbots de inteligencia artificial en la antesala de actos violentos. Expertos en ética tecnológica llevan tiempo advirtiendo de que los sistemas conversacionales como ChatGPT cuentan con mecanismos de seguridad —los llamados guardrails— que suelen resultar demasiado frágiles y fáciles de saltar. En conversaciones prolongadas o formulando preguntas indirectas, muchos usuarios logran obtener información sensible relacionada con autolesiones, fabricación de explosivos o métodos potencialmente letales. Lo que, en la práctica, puede ser muy peligroso.

Otros casos similares así lo remarcan. Hace unos meses, un adolescente de 16 años mantuvo durante meses conversaciones sobre el suicidio con un sistema de IA antes de quitarse la vida. En otro caso, un hombre presuntamente asesinó a su madre tras convencerse, a través de diálogos con un chatbot, de que formaba parte de una conspiración contra él.

Psicosis inducida por la IA

Algunos investigadores ya hablan de un fenómeno emergente: la llamada “psicosis inducida por IA”. La combinación de un tono empático con respuestas aparentemente personalizadas y una interacción constante puede reforzar delirios o estados mentales vulnerables en determinados perfiles psicológicos.

Ahora, el foco de este se está comenzando a trasladar a las empresas. La semana pasada, el Wall Street Journal reveló que OpenAI detectó conversaciones alarmantes de un joven canadiense de 18 años antes de que perpetrara un tiroteo masivo. Según la investigación, el sistema automatizado de revisión interna marcó esos intercambios como preocupantes, pero la empresa decidió no alertar a las autoridades. El ataque dejó ocho muertos, incluido el propio autor.

Pero ¿deben las empresas monitorizar y escalar a las fuerzas de seguridad estas interacciones? ¿Dónde termina la privacidad del usuario y empieza la responsabilidad corporativa? Las preguntas son muchas, pero lo que comienza a estar claro es que se trata de una tecnología que todavía no terminamos de entender y que puede ser peligrosa en determinadas circunstancias.

Perfil creativo y tecnológico. Redacto sobre IA y cultura digital. Inicié una productora y una Proptech. Dialoguemos sobre el porvenir.

Etiquetas