Yuval Noah Harari, historiador: “La gente sentirá que su amigo artificial es un ser consciente y, por lo tanto, se le deben conceder derechos”

Filosofía

Este filósofo, que ha escrito varias obras sobre el papel de la tecnología en la sociedad que le han dotado de reconocimiento por parte de la comunidad científica, ha reflexionado recientemente sobre cómo los humanos nos relacionaremos con la IA a medida que esta avance

Sam Altman, CEO de OpenIA: “No he tenido una buena noche desde que sacamos ChatGPT”

El pensador israelí Yuval Noah Harari, en una fotografía del año 2022, ahora aborda la inteligencia artificial en Nexus

El pensador israelí Yuval Noah Harari, en una fotografía del año 2022

NICOLAS MAETERLINCK / AFP

En los últimos años, la Inteligencia Artificial (IA) está en boca de todos. Algunos se sienten temerosos por dónde puede llegar esta tecnología, otros ven amenazados sus puestos de trabajo y también hay sectores optimistas que buscan las aplicaciones de la IA que permitirán introducir mejoras significativas en sectores tan vitales como el sanitario.

Se habla mucho de ChatGPT, pero la IA se expande mucho más allá de los chatbots con los que poder hablar y realizar consultas. Por ejemplo, ya hay empresas implementando la IA para crear robots con apariencia humana que puedan convivir con las personas en casa y llevar a cabo tareas del hogar y otras funciones.

En los últimos meses, hemos visto la creación de los primeros equipos de fútbol formados por robots, humanoides de Amazon que reparten paquetes e incluso prototipos que pretenden sustituir empleados como barmans. Pero algunos expertos, como el filósofo Yuval Noah Harari, analizan los peligros que van de la mano de estos supuestos avances.

El filósofo experto en tecnología, Yuval Noah Harari, en el podcast de Steven Bartlett

El filósofo experto en tecnología, Yuval Noah Harari, en el podcast de Steven Bartlett

@harari_yuval

Yuval Noah Harari es un historiador, filósofo y profesor en la Universidad Hebrea de Jerusalén. Este doctor en historia por la Universidad de Oxford ha centrado sus investigaciones y obras en torno a la evolución de las culturas y el papel de la religión y de la tecnología en la sociedad.

Harari se ha logrado el respeto de gran parte de la comunidad científica gracias a la publicación de Sapiens: De animales a dioses, un libro que hace un repaso a la historia de la humanidad. En otras publicaciones notables, como Homo Deus: Breve historia del mañana, el pensador especula sobre cómo será el futuro de la convivencia de los humanos con la IA y la biotecnología.

En el podcast de Steven Barlett, Yuval Noah Harari ha hablado sobre preocupaciones actuales relacionadas con el desarrollo de la inteligencia artificial. En el episodio, el experto ha mostrado preocupación por el hecho de que la IA esté siendo diseñada para fingir tener características humanas de forma muy realista, como, por ejemplo, la apariencia de tener sentimientos.

Lee también

Elon Musk: “En un año, podremos tener una inteligencia artificial más inteligente que cualquier humano, y en 2030 una más inteligente que la suma de todos los humanos”

Manuel López Chicano
FILE PHOTO: FILE PHOTO: Elon Musk, Chief Executive Officer of SpaceX and Tesla and owner of Twitter, gestures as he attends the Viva Technology conference dedicated to innovation and startups at the Porte de Versailles exhibition centre in Paris, France, June 16, 2023. REUTERS/Gonzalo Fuentes/File Photo/File Photo

Para el filósofo, uno de los aspectos más preocupantes del desarrollo de la IA es su capacidad de aparentar tener sentimientos. “La IA no tiene sentimientos ni conciencia, ni sensibilidad alguna, pero se vuelve muy buena fingiendo tener sentimientos”, apunta en el podcast.

El autor de Sapiens ha mostrado una gran preocupación por el hecho de que puedan surgir movimientos sociales que defiendan que la IA tiene 'sentimientos' y que hay que luchar por respetar sus derechos de igual forma que con los humanos. ”¿En qué se diferenciaría de las personas? Se convertirá en una convención social: la gente sentirá que su amigo artificial es un ser consciente y, por lo tanto, se le deben conceder derechos”, ha apuntado consternado.

Preocupación

Harari advierte que “la IA se vuelve muy buena fingiendo tener sentimientos” y que, con ello, ”nos harán pensar que nuestro amigo robótico tiene conciencia”

Algunos podrían pensar que todavía falta mucho para que surjan este tipo de problemas potenciales. Sin embargo, la tecnología avanza a un ritmo trepidante. Y no solo eso, ya que, aunque los robots con apariencia humana todavía no sean económicamente accesibles para la mayoría de personas, no son necesarios para que empiecen a surgir problemas como los que plantea Harari.

Muchos se refugian ya en los chatbots como ChatGPT para conversar con la IA como si fuese su amigo o incluso su terapeuta. Es decir, que ya existen herramientas de IA al abaste de cualquiera con un diseño muy bueno a la hora de aparentar tener sentimientos como empatía.

Varios son los expertos que ya se han pronunciado sobre este tipo de uso de la tecnología IA. Y es que, aunque sea muy tentador querer hablar con estos chatbots que aparentan entendernos y nos pueden dar confort cuando atravesamos un mal momento, profesionales advierten de que no son herramientas cualificadas para la terapia y que este tipo de uso puede tener graves consecuencias en la salud mental.

Mostrar comentarios
Cargando siguiente contenido...