Días atrás, el periódico The New York Times publicó una tribuna que dio la vuelta al mundo, y que acabó convertida en una de las más sonadas en verano: «Mi hija habló con ChatGPT antes de quitarse la vida», se titulaba. Incluso si la propia autora, Laura Reiley, no asociaba directamente a OpenAI de la muerte de su hija, el relato, verdaderamente escalofriante, desencadenó una ola de artículos en torno a la hipotética responsabilidad de la IA sobre un posible deterioro de nuestra salud mental.
Más allá del alarmismo, la reflexión nos aboca a una pregunta novedosa: ¿cómo relacionarse ahora con las máquinas en su nuevo estado evolutivo?
El dilema del coche autónomo. En general, existe un consenso extendido en torno a la seguridad de los coches autónomos respecto a la conducción humana: si todos los coches fueran autónomos, el conjunto de accidentes de tránsito disminuiría, lo que no significa que desapareciesen.
Es precisamente ahí donde nace el terreno de una nueva rama de la ética: imaginemos, por ejemplo, que un coche autónomo conduce convenientemente por una calle, y que, de pronto, un niño despistado sale a la vía persiguiendo su pelota. El coche puede: a) frenar en seco (causando un accidente con el vehículo que viene por detrás), b) girar su itinerario (con el riesgo de colisionar con el vehículo que viene de frente) o c) seguir su camino (a riesgo de atropellar al niño). ¿Cuál es la solución correcta?
Por definición, el algoritmo no nos confronta: nos da más de lo mismo
El bucle del algoritmo. Años atrás, en un Internet un poco distinto al nuestro, pero con las mismas ansiedades, se debatía si las redes sociales de entonces distorsionaban nuestra visión del mundo: en ese tiempo, anterior a la compra de X por Elon Musk, el problema era que la gente de ideas progresistas consumiera solo ideas progresistas, y lo mismo con la gente conservadora, sesgada por el algoritmo (filtro burbuja, lo llamábamos entonces).
Por definición, el algoritmo no nos confronta: nos da más de lo mismo. A este respecto, podemos entender una sociedad digitalmente alfabetizada como aquella que entiende el límite del algoritmo, y las consecuencias de su abuso.

ChatGPT se ha convertido en el psicólogo de muchas personas.
¿Un problema para la salud pública? En “Tlön, Uqbar, Orbis Tertius”, Borges imagina los libros de un mundo imaginario así: “los de naturaleza filosófica invariablemente contienen la tesis y la antítesis, el riguroso pro y contra de una doctrina. Un libro que no encierra su contralibro es considerado incompleto”. Paradójicamente, el sesgo algorítmico en los medios de comunicación —y, en general, del mercado de las ideas que circula en Internet— hace que la mayoría de proposiciones intelectuales obliguen a pensar desde una supuesta trinchera.
¿Es la Inteligencia Artificial el inicio de una crisis de salud mental?, ¿o, por el contrario, nos ofrecerá el remedio a todos nuestros males…? Resulta absurdo plantear la Inteligencia Artificial como si hablásemos de nicotina o fentanilo, o cualquier otro riesgo para la salud pública: su creciente y exponencial uso se explica esencialmente desde su utilidad. ¿Alguien debatiría si debemos considerar las librerías un peligro social, a la vista de la mediocridad de cierta producción literaria?
Lo que le falta a ChatGPT para convertirse en un sujeto no es una insondable y espontánea profundidad de subjetividad; lo que le falta es la presencia —el impacto— de un Otro
El inconsciente de las máquinas. La filósofa Alenka Zupančič ensayaba recientemente en torno a una pregunta fascinante: si la IA ha sido creada a partir de ingentes cantidades de lenguaje humano, ¿existe la posibilidad de que la IA tenga inconsciente?
“En términos psicoanalíticos —escribe Zupančič—, podríamos decir que lo que le falta a ChatGPT para convertirse en un sujeto no es una insondable y espontánea profundidad de subjetividad; lo que le falta es la presencia —el impacto— de un Otro. Le falta una instancia del Otro que pudiera intrigarle con su propio discurso, hasta el punto de comenzar a presuponer y a cuestionar el deseo de ese Otro (‘¿Qué quiere el Otro?’). Esto puede parecer paradójico, pero lo que a la IA le falta podría ser precisamente una exterioridad —o un punto de ‘extimidad’ donde “cae fuera de sí misma”. Parece paradójico porque, de algún modo, la IA no es otra cosa que exterioridad. Y, sin embargo, permanece atrapada en su propia exterioridad, confinada en su ‘cárcel del lenguaje’, de la cual no tiene modo de escapar ni de liberarse”.
Dialogar con un No-Otro. Tanto da si hablamos de conversar con nuestros amigos, familias, parejas o analistas: todas y cada una de estas situaciones presenta sus propios límites, y por eso las conjugamos entre sí. El ser humano, de hecho, lleva siglos dialogando con interlocutores inorgánicos: libros, obras de arte, sus propios pensamientos… Todas y cada una de estas conversaciones llenan un hueco en nuestra constelación de inquietudes.
Ahora, el nuevo estado evolutivo de la tecnología nos precipita a una situación inédita: la máquina no es un Otro (humano), ni tampoco una obra de arte, pero su conversación es relevante para nosotros, hasta el punto de que puede hacer sentirnos cosas, y pensar. Lejos de ser un símbolo de sociofobia renovada, la situación nos expone, aún más, a algo de lo que nunca cupo duda alguna: la infinidad de recovecos del alma humana.