Llegan los humanos sintéticos
NEWSLETTER 'ARTIFICIAL'
Avances en ingeniería permiten crear robots a semejanza humana, con movimientos y músculos como los de las personas
A imitación de las manos de la escena de la Creación de la Capilla Sixtina, las manos de Clone Robotics demuestran su naturalidad
A los humanos sintéticos los hemos visto antes en Westworld –la película se llamó Almas de metal en España, escrita y dirigida por Michael Crichton-, la primera obra que abordó los peligros de la inteligencia artificial, que tuvo una versión en serie de HBO, o en Alien. Eran parte de la ciencia ficción, robots con forma y movimiento humanos construidos a partir de componentes que reproducen los sistemas biológicos de una persona sin basarse en el ADN. Es todo mecánica de alta ingeniería a la que se añade IA. Una compañía, Clone Robotics, con sede en Wroclaw (Polonia) y San Francisco (Estados Unidos) reserva ya para la venta 279 unidades del primero de sus modelos el Clone Alpha, que se podrán encargar ya en el 2025. “Finalmente, un robot que camina naturalmente”, reza una de las imágenes animadas en su página web. Habrá que ve si puede hacerlo igual en condiciones reales. Los movimientos son tan asombrosamente realistas, que inducen al escepticismo.
Numerosas evidencias apuntan a que uno de los factores esenciales en el desarrollo de la inteligencia humana fueron las manos. A eso se ha dedicado con Clone Robotics en los últimos 8 años, tiempo que ha tardado en desarrollar una mano con esqueleto y musculatura artificiales que imitan el comportamiento de la humana, aunque sus dedos pueden moverse a mucha más velocidad que los nuestros. ¿Veremos un día a un humano sintético tocar un concierto para piano? La disposición de un dedo pulgar oponible es una gran diferencia respecto al resto de los primates. Podemos utilizar y fabricar herramientas con una fuerza y precisión que no está al alcance de otras especies.
La mano de Clone Robotics tiene la complejidad de la humana, con dedos fuertes capaces de manejar diferentes tipos de instrumentos y llevan un sistema de propiocepción, la capacidad del cerebro para conocer en cada momento la posición exacta en la que se encuentran todas las partes del cuerpo. Gracias a esas tecnologías, la compañía asegura que la mano artificial tiene precisión quirúrgica, puede utilizar cualquier utensilio humano y actuar lo mismo para estrechar la mano de una persona que para capturar una pelota de tenis al vuelo.
La estructura esquelética y muscular de Clone Alpha está muy inspirada en la anatomía humana
Para lograr esos movimientos tan humanos, Clone Robotics ha creado un tipo de fibras musculares artificiales, con las que asegura que puede “animar cualquier esqueleto natural, humano o animal”. Los humanos sintéticos que proponen están construidos con un esqueleto interno muy parecido al humano. Su tecnología está basada en electricidad y agua que corre por sus “venas”. Recuerda mucho al humano sintético de Alien que encarna el actor Ian Holm, al que se le ven las costuras internas cuando, producto de una lucha, pierde la cabeza.
Los logros en ingeniería mecánica deben ir acompañados de inteligencia artificial, porque sin ella los humanos sintéticos no tendrían mucho sentido. La compañía ha integrado el tipo de chips de la IA, aceleradores GPU, que lo dotan de “una inteligencia cibernética” e invitan a que las personas hablen con su sintético “de forma natural” y “en inglés sencillo”. Clone Robotics no ha aportado datos sobre el modelo de IA que alimentará a su creación, aunque ha indicado que “como ordenador andante y parlante, Clone Alpha representa la siguiente fase de la interacción persona-computador".
Neoclone será el siguiente modelo de humano sintético después de Clone Alpha
¿Para que podrá utilizarse el modelo Clone Alpha? Pues la compañía asegura que llevará de serie una serie de habilidades que no están nada mal para empezar: memorizar la distribución de la casa y el inventario de la cocina; mantener diálogos ingeniosos; dar la mano a tus amigos; servir bebidas; preparar bocadillos; lavar, secar y doblar la ropa; aspirar el suelo; encender y apagar luces; poner la mesa; cargar y descargar el lavavajillas; seguir al propietario; recoger y guardar objetos y cargarse por sí mismo. Falta por conocer el grado de destreza del robot al hacer cada una de esas cosas. Por si a un potencial comprador le parecieran pocas cosas esas funciones, la compañía explica que el sintético estará equipado con la platafoma de entrenamiento Telekinesis para que el dueño le enseñe nuevas habilidades. Quizás esté ahí el peligro.
OpenAI ya hace búsquedas gratis con ChatGPT Search
El buscador de OpenAI, ChatGPT Search, ya hace búsquedas para todos los usuarios, incluidos los gratuitos y ha anunciado varias mejoras importantes. La búsqueda es cada vez más rápida, es cada vez mejor en el móvil, y está recibiendo una nueva experiencia de mapas. A diferencia de un buscador como el de Google, el de OpenAI ofrece una respuesta a la búsqueda y le añade todas las fuentes que le han servido para elaborarla. Dispone de una búsqueda por voz avanzada, ya que se puede buscar mientras se habla con ChatGPT.
Proyecto Moohan, las gafas de Samsung con Android XR
El camino de nueva interfaz de usuario abierto por el visor Vision Pro de Apple tiene una réplica con el mismo concepto de convertir todo el campo visual del usuario en un gran lienzo para apps de productividad y ocio. Tiene el nombre en clave de Proyecto Moohan (infinito en coreano) y es el primer dispositivo listo para el nuevo sistema operativo Android XR. Las gafas anunciadas por Samsung prometen experiencias similares a las del visor de Apple “acompañadas de un hardware ligero y ergonómicamente optimizado, diseñado para garantizar la máxima comodidad de uso”.
Las nuevas gafas de Samsung son el primer dispositivo que estrenará el sistema operativo Android XR de Google
Google presenta Gemini 2.0, enfocado a los agentes de IA
Google ha lanzado Gemini 2.0, que supone un gran salto hacia los agentes de IA, que es una forma de experimentar la inteligencia artificial de una forma más cercana por parte de los usuarios. Un agente aprende y se adapta a las experiencias y las necesidades de la persona que lo usa. El modelo genera ahora imágenes y audio multilingüe directamente, además de procesar texto, código, imágenes y vídeo. Gemini 2.0 representa uno de los mayores avances hacia una IA accesible a todo el mundo enfocada hacia los agentes.