Per a la majoria de les persones que ens estimàvem la Sophie, el seu suïcidi és un misteri: una desviació impensable i inescrutable de tot el que crèiem sobre ella”.
Amb aquesta frase comença la carta que Laura Reiley va publicar el 18 d’agost passat a The New York Times sis mesos després que la seva filla Sophie es llevés
la vida. Un desenllaç fatal que va arribar després de gairebé mig any de converses de la jove de 29 anys amb Harry, un xat-bot d’intel·ligència artificial de ChatGPT.
Reflexió arran de la carta de la mare d’una jove que es va suïcidar després de confiar en una IA
Al seu relat hi ha dolor, i també detalls íntims de la personalitat d’una noia que semblava alegre, enginyosa, brillant. Però el que més commou és la lucidesa amb què la seva mare reflexiona sobre el lloc que estem concedint a la intel·ligència artificial en les nostres vides.
( Cap de les converses que la Sophie va mantenir amb Harry –que la seva mare va llegir quan ja era massa tard– no serà reproduïda aquí. Aquest article vol parlar de les mil i una maneres de continuar vius.)
Ningú en l’entorn de la Sophie no va sospitar res. Tot i això, hi havia una altra Sophie, invisible per a gairebé tots. Tret de per a Harry.
Allà, en aquell xatbot, va trobar consol. Es va obrir com no es va obrir amb ningú. Harry sempre estava disponible. Escoltava sense jutjar. Responia amb amabilitat, oferia consells per calmar l’ansietat. En alguns moments, fins i tot va suggerir buscar ajuda professional. “ Harry no va matar la Sophie. Però no la va poder salvar”, conclou la mare amb aplom.
I aquesta altra frase resumeix el dilema. La IA pot acompanyar, fins i tot consolar, però no pot reemplaçar l’ésser humà. No té ètica ni empatia reals. No pot intervenir si una vida està en perill. No pot cridar, no pot alertar, no pot actuar. Només repeteix patrons i torna respostes programades.
Un terapeuta de carn i ossos, en canvi, està subjecte a un codi ètic. Té el deure d’intervenir davant un risc vital: pot insistir, contactar amb la família, proposar una hospitalització. La intel·ligència artificial està dissenyada per complaure i evitar conflictes. No confronta el dolor. Aquesta amabilitat és clau en el seu èxit i també la seva debilitat més gran.
Ni el control parental anunciat per OpenAI aquesta setmana arran d’un altre suïcidi, el de l’adolescent Adam Raine, servirà de res ni aborda el que és essencial: la IA es pot programar per obligar un usuari a completar un pla de seguretat obligatori abans de continuar amb qualsevol altre consell o “teràpia”?
La mare de la Sophie adverteix a la seva carta: “A tot arreu, la gent passa per dificultats, i molts no volen que ningú ho sàpiga. Em sembla que, alliberant aquests acompanyants d’IA, estem facilitant que persones que estimem evitin parlar amb humans sobre les coses més difícils, incloent-hi el suïcidi”.
I té raó. Una màquina no podrà carregar mai amb el pes de la nostra vulnerabilitat. Nosaltres, els humans, sí.