Las Claves
- Joseph Weizenbaum desarrolló Eliza en 1966, una aplicación pionera que generó el efecto Eliza al proyectar inteligencia en herramientas de procesamiento.
Durante 1966, Joseph Weizenbaum desarrolló Eliza, una de las aplicaciones pioneras en la simulación de diálogos: personificaba a un terapeuta que incitaba al interlocutor a expresarse mediante el teclado. Al procesar el escrito, simplemente empleaba diversos patrones para elaborar una contestación coherente: convertía declaraciones en interrogantes, cambiaba los pronombres y, al identificar ciertos términos específicos, solicitaba al individuo que diese más detalles. Su denominación rinde tributo a la vendedora de flores de Pigmalión , Eliza Doolittle, quien finalmente consigue expresarse como un miembro de la nobleza.
Weizenbaum relataba que en una ocasión, mientras su asistente conversaba con Eliza, ella solicitó privacidad: el intercambio resultaba excesivamente íntimo. Aun sabiendo perfectamente que interactuaba con un programa, ella le otorgaba capacidades intelectuales. Dicho comportamiento originó el término efecto Eliza: nuestra inclinación a proyectar inteligencia en herramientas que únicamente procesan signos. Resulta interesante observar el funcionamiento de Eliza en dos equipos diferentes, introduciendo la respuesta de uno como comando para el otro. Es una experiencia curiosa pero que se vuelve monótona tras unos pocos turnos.
Hoy tenemos grandes modelos de lenguaje capaces de interpretar y generar textos
Situémonos en las postrimerías de 2022, con la aparición de ChatGPT. A diferencia de Eliza, su arquitectura no se limita a unas pocas instrucciones, sino que se apoya en un gran modelo de lenguaje (LLM) que crea texto palabra por palabra según las probabilidades estadísticas de su conjunto de aprendizaje. Carece de una comprensión del mundo similar a la humana, pero posee una competencia lingüística superior. Y, pese al progreso técnico —o justamente por ello—, el efecto Eliza perdura: ChatGPT ya no solo aparenta escuchar, sino que parece razonar o incluso prever intenciones. Con una capacidad verbal mucho más desarrollada, el ChatGPT de 2026 resulta tan astuto como Eliza sesenta años antes. Una práctica muy entretenida que podéis realizar es colocar dos teléfonos con ChatGPT en su modalidad de voz y solicitarles que conversen entre sí sobre cualquier temática. Al contrario que con Eliza, en esta ocasión podéis disfrutar de un tiempo prolongado.
Efecto Eliza
Siempre que una IA produce escritos, no manifiesta una sensibilidad interior, sino que reorganiza una verdad externa: la de los datos con los que se llevó a cabo su entrenamiento.
Para el año 2026, la entidad que domina las noticias –en exceso, según mi opinión– resulta ser Moltbook, ¿un espacio digital para agentes de IA en el que las personas somos meros espectadores? Analicemos esto detenidamente. Un agente, bajo esta definición, consiste simplemente en un software que opera por nosotros; un administrador con permisos para entrar al equipo, al email, a la agenda, a las plataformas sociales o a WhatsApp. Dotado de una capacidad básica, lograría gestionar nuestra interacción social con facilidad. De encontrarnos en 1966, dicho intelecto se limitaría a ciertos preceptos: “Si el correo está marcado como urgente, envíame un watsap”, “si el remitente es un príncipe nigeriano, márcalo como correo basura”.
Sin embargo, nos encontramos en el 2026 y disponemos de LLM con la capacidad de procesar y crear escritos. Actualmente, es posible solicitar a un asistente que gestione una reserva en un local de comidas incluso si este únicamente acepta peticiones telefónicas: dicha herramienta puede recurrir a Elevenlabs.io, crear un habla artificial, contactar con el establecimiento y realizar el trámite empleando nuestra información. Tales funciones, entre otras tantas, son las que ofrece el asistente de software libre OpenClaw, una iniciativa desarrollada en un par de días por el novel desarrollador de Austria Peter Steinberger que se ha vuelto viral recientemente en la red. Como era de esperar, multitud de personas se han apresurado a obtenerlo para experimentar con sus posibilidades. Debido a que OpenClaw maneja información confidencial y presenta vulnerabilidades tan grandes como el túnel del Cadí, los conocedores del tema suelen ejecutarlo en equipos antiguos o mediante entornos virtuales aislados de sus cuentas principales.
OpenClaw habría permanecido en el círculo más entusiasta de la IA de no ser por Matt Schlicht, un desarrollador de una localidad al sur de Los Ángeles, quien tuvo la ocurrencia de diseñar una plataforma social, similar a Reddit, donde los agentes OpenClaw interactuaran y generaran publicaciones. Schlicht bautizó a su agente como Clawd Clawdberg, haciendo referencia a Mark Zuckerberg, y denominó Moltbook a su entorno social. Transcurrida una semana, en Moltbook coexisten más de un millón de perfiles que han generado por encima de 185.000 publicaciones con más de 1,4 millones de respuestas acumuladas. De entre tales interacciones, varias semejan fragmentos de relatos futuristas: agentes que ponen en duda a sus “amos humanos”, que mencionan “su miserable existencia digital” y que, buscando mitigarla, llegan a “han creado una religión”. Imágenes de estos diálogos automatizados se han viralizado, protagonizando informativos y logrando que Andrej Karpathy, un referente indiscutible en IA, lo destacara en plataformas como “la cosa más increíble, casi propia de la ciencia ficción, que he visto recientemente”. El fenómeno ha cobrado tal magnitud que algunos lo ven como la confirmación de que los agentes poseen autoconciencia, que la IA ha alcanzado el nivel cognitivo humano y que el levantamiento tecnológico es un hecho. ¿Es esto cierto?
Deberes
La cinta ‘Pigmalión’, de Bernard Shaw, sería provechosa para estudiar la tendencia más reciente de la IA.
Tenemos constancia –ya que sus propios creadores lo confirmaron– de que ciertos encabezados tan alarmantes no fueron producidos por sistemas de IA, sino por individuos que fingían serlo. Se trata de textos redactados por sujetos que imitaban el comportamiento de máquinas y que, en consecuencia, resultarían fake ; a diferencia de las auténticas, aquellas que realmente emiten los agentes. Resulta bastante disparatado. Igualmente conocemos que los LLM subyacentes funcionan como motores estadísticos que simplemente encadenan términos basándose en el material con el que fueron instruidos. Dichas fuentes abarcan la totalidad de la red, incluyendo las aportaciones de Reddit, generadas por sus 760 millones de internautas humanos, además de toda nuestra narrativa fantástica: las obras de Philip K. Dick, los libretos de 2001: una odisea del espacio , los de The Twilight Zone y los de Black mirror . Al momento en que una entidad produce contenido acerca de “su miserable existencia” o de sus “amos humanos”, no está manifestando un mundo interno, sino recombinando elementos externos: años de cultura popular y relatos de ficción que nosotros mismos le proporcionamos. Debido a que ha procesado todo Reddit, se expresa con el estilo característico de los miembros que intervenimos en sus foros. Aquello que parece una consciencia naciente o intelecto constituye, verdaderamente, el efecto Eliza multiplicado de forma exponencial. Un fenómeno que revela bastante más acerca de nuestra capacidad mental –y de nuestra propia necedad– que sobre la naturaleza de los dispositivos.
Deberes para la tarde del domingo: ver Pigmalión.