Un jefe de Microsoft alerta del aumento de casos de “psicosis por la IA”

Tecnología

Cada vez más gente percibe a la Inteligencia Artificial como “consciente”, creyendo así “que esa percepción es la realidad”

Mustafa Suleyman, CEO de Microsoft AI

Mustafa Suleyman, CEO de Microsoft AI

Mustafa Suleyman

Ante los avances imparables de la IA, “no hacer nada no es una opción”. Esta opinión, compartida por muchos, ha sido formulada por Mustafa Suleyman, responsable de inteligencia artificial de Microsoft.

En una serie de posts colgados en su cuenta de Twitter —ahora X—, Suleyman reflexiona sobre los avances de esta tecnología, partiendo del miedo que le genera algun aspecto como la “IA Aparentemente Consciente” que, según afirma, “me ha quitado el sueño”. “Me preocupa, es importante y pensar en ello puede llevarnos a una mejor visión de la IA”.

La IA aparentemente consciente la forman aquellas herramientas de inteligencia artificial que dan la apariencia de ser sensibles

Por el momento, afirma Suleyman, “no hay ninguna prueba de que la IA sea consciente”. Pese a ello, el incremento de casos de personas que sufren psicosis por la IA, según define el responsable de Microsoft, hace que cada vez más gente “la perciba como consciente”, creyendo así “que esa percepción es la realidad”.

La IA aparentemente consciente son aquellas herramientas de inteligencia artificial que dan la apariencia de ser sensibles. Esta percepción es, según Suleyman, la causa de una nueva afección llamada “psicosis por la IA”. Este es un término no clínico que describe incidentes en los que las personas confían cada vez más en chatbots de IA como ChatGPT, Claude y Grok y luego se convencen de que algo imaginario se ha convertido en real.

Las empresas no deberían afirmar ni promover la idea de que sus IA son conscientes, y las IA tampoco deberían”

Mustafa Suleyman, investigador y empresario británico dedicado a la inteligencia artificial. Es CEO de Microsoft AI
Mustafa SuleymanResponsable de inteligencia artificial de Microsoft

Esta percepción lleva, por ejemplo, a muchos usuarios a creer haber desentrañado un aspecto secreto de la herramienta, entablar una relación romántica con ella o llegar a la conclusión de que las IA tienen superpoderes divinos.

Ante esta problemática, Suleyman afirma que “las empresas no deberían afirmar ni promover la idea de que sus IA son conscientes, y las IA tampoco deberían”. “Como industria, necesitamos compartir intervenciones, limitaciones, barreras que impiden la percepción de la conciencia o deshacen la percepción si un usuario la desarrolla”.

”Se trata de construir una visión positiva de la IA que respalde lo que significa ser humano. La IA debería optimizarse para las necesidades del usuario, no pedirle que crea que las tiene”, concluye.

Etiquetas
Mostrar comentarios
Cargando siguiente contenido...