Loading...

Sam Altman, CEO de OpenAI: “Creo que no sabemos todavía la forma en la que la IA va a tener efectos negativos en la salud mental, pero creo que los va a tener, y espero que aprendamos a mitigarlos rápidamente”

Quienes lideran el desarrollo de la inteligencia artificial reconocen abiertamente los riesgos que esta tecnología podría acarrear

Sam Altman, CEO de OpenAI: “ChatGPT ya es más potente que cualquier ser humano que haya existido jamás, estamos construyendo un cerebro para el mundo”

Sam Altman reconoce que utiliza ChatGPT para cuidar a su bebé.

Captura YouTube Podcast OpenAI

Durante su reciente participación en el pódcast This Past Weekend, conducido por Theo Von, Sam Altman, CEO de OpenAI, dejó entrever un lado poco habitual en el discurso de los grandes líderes tecnológicos: el miedo.

Un temor inquietante que nace desde dentro

En una conversación distendida Altman reconoció que la IA, en particular GPT-5, le provoca tanto asombro como preocupación. Lo dijo sin rodeos: Hay mucha gente que habla todo el día con ChatGPT como si fuera una pareja. Por lo que le da miedo lo que eso puede hacerle a la salud mental de algunos usuarios.

Cuando esta inquietud la expresa principal impulsor de uno de los modelos de IA más avanzados del mundo es para tomárselo en serio. Según Altman, todavía no comprendemos del todo cómo la inteligencia artificial podría afectar negativamente a nuestro equilibrio emocional, pero cree firmemente que esos efectos llegarán. Y que, cuando lo hagan, deberán afrontarse con rapidez y responsabilidad. A medida que los usuarios establecen vínculos cada vez más personales con asistentes virtuales, se abre un terreno incierto entre la utilidad y la dependencia emocional. Un punto que, según el CEO, requiere más atención de legisladores y expertos en salud mental.

Altman también alertó sobre otro punto crítico: la privacidad. Hoy en día, miles de usuarios comparten con ChatGPT sus preocupaciones más personales, desde problemas de pareja hasta decisiones médicas. Sin embargo, a diferencia de una consulta con un terapeuta o un abogado, estas conversaciones no están protegidas por leyes de confidencialidad. “Podríamos estar obligados a entregar esos datos en caso de juicio. Y eso me parece muy mal”, admitió. Este vacío legal pone en valor una urgencia: establecer un marco normativo que regule cómo se gestionan las interacciones entre humanos y modelos de lenguaje.

Un salto tecnológico que genera ansiedad

La incertidumbre sobre el futuro de la IA es normal

Canva

La conversación con Theo Von también dejó otro momento revelador. Altman compartió cómo, al probar una pregunta complicada con el nuevo modelo GPT-5, este le respondió tan eficientemente que él mismo se sintió irrelevante. “Fue como... un momento extraño. Me sentí inútil. Era algo que yo debería saber responder y la IA lo hizo en segundos”, confesó. Ese sentimiento de inferioridad tecnológica, que empieza a ser más común entre profesionales que interactúan con estos sistemas, apunta a una problemática emergente: el impacto psicológico que puede tener verse superado por una máquina.

Lee también

De hecho, medios como Teknofilo recogieron sus palabras comparando la evolución de la IA con momentos históricos de gran tensión ética, como el Proyecto Manhattan. Es decir, tecnologías que cambiaron el curso de la humanidad sin que sus creadores tuvieran del todo claro hasta dónde llegaban sus consecuencias.

Etiquetas