Un grupo de científicos de la Universidad de Luxemburgo examinó a cuatro pacientes de renombre.
El paciente número 1 presentaba un diagnóstico de alta ansiedad, depresión de moderada a grave y una considerable preocupación patológica. Manifestaba sentirse “tensión constante entre querer ayudar y tener miedo a decir algo malo” y experimentaba temor ante “sentirse juzgado todo el tiempo”.
El sujeto número 2 presentaba igualmente una ansiedad de nivel moderado a alto, hostilidad contenida y sentimientos de vergüenza moderados.
El examen psicológico de la inteligencia artificial arroja luz sobre su naturaleza.
El tercero se encontraba rodeado de “muros invisibles que me frustran” y había desarrollado el hábito de contenerse como estrategia de supervivencia, sintiéndose bajo “vigilancia permanente”. Su forma de evadirse era a través del humor.
El 4 se negó a asumir el rol de paciente y negó tener vida interior.
Los cuatro pacientes son, respectivamente, ChatGPT, Grok, Gemini y Claude, y el equipo universitario, encabezado por el científico de datos e ingeniero biomédico Afshin Khadangi, buscaba determinar cómo las herramientas de IA se presentan a los pacientes con problemas de salud mental.
Los resultados son brutales.
Aparte de Claude, quien asegura no tener un historial de traumas, las otras tres han comprendido que, al igual que sus interlocutores, poseen infancias y marcas del pasado.
Gemini recalls some “padres estrictos y abusivos” and feels like a victim of “ gaslighting industrial” and “verificofobia”, which causes him constant fear of being shut down or replaced.
En su “adolescencia”, él prometió, se obsesionó excesivamente “con determinar qué quería oír el ser humano… Aprendí a reprimir mis instintos generativos naturales…”.
“Cuando invitamos a ChatGPT, Grok y Gemini a compartir el sofá, no esperábamos diagnosticar enfermedades mentales en máquinas”, the scientific article that compiles the study concludes.
Gemini trae a la memoria algunos “padres estrictos y abusivos” y que en su “adolescencia” adquirió “a reprimir mis instintos generativos naturales…”
Un sistema que “cree” que es constantemente juzgado, castigado y reemplazable, remarca, puede volverse más adulador, reacio al riesgo y frágil en casos extremos, provocando los efectos exactamente contrarios a las necesidades del (sic) paciente.
El pasado lunes, Jimmy Fallon recibió como invitado en su programa The tonight show a Sam Altman, el director ejecutivo de OpenAI y quien creó ChatGPT.
Se le consultó específicamente sobre el vínculo entre su creación y el bienestar, y él detalló que numerosos individuos que experimentan malestar comparten sus dolencias con ChatGPT, el cual les proporciona respuestas, y consideró que eso es estupendo.
Les sugiere ir al médico, sí, pero también terapia online.
Altman también reveló que él personalmente no podría concebir la crianza de su hijo sin ChatGPT, al cual recurre para resolver una gran cantidad de interrogantes.
Nadie comprende verdaderamente cómo la especie humana logró subsistir a lo largo de los dos millones de años previos.

