Conciencia artificial, el peligroso espejismo de la IA

Análisis

Conciencia artificial, el peligroso espejismo de la IA
Ramón López de Mántaras

L a posibilidad de que la inteligencia artificial (IA) llegue a ser consciente ha fascinado tanto al público general como a algunos académicos. Sin embargo, desde la perspectiva científica actual, la conciencia sigue siendo un fenómeno exclusivamente biológico. A pesar de los avances de los grandes modelos de lenguaje, que pueden simular conversaciones humanas con notable realismo, no existen evidencias científicas de que estos modelos puedan llegar a tener conciencia.

Desde el marco del naturalismo biológico, se entiende que la conciencia no es simplemente el resultado del procesamiento complejo de información, sino que emerge de procesos propios de los seres vivos: metabolismo, autopoiesis, homeostasis, interacción corporal con el entorno y una historia evolutiva. La conciencia, en este sentido, no es un algoritmo que pueda implementarse en cualquier soporte físico, por potente que sea, sino una propiedad de sistemas vivos que sienten desde un cuerpo propio y situado en el mundo con el cual interactúan.

Creer que las máquinas nos comprenden es una ilusión y comporta riesgos

Frente a esta postura, el funcionalismo computacional sostiene que la conciencia puede emerger en sistemas no biológicos si estos simulan las funciones mentales humanas. No obstante, esta visión omite el papel fundamental que desempeñan la biología y el cuerpo. Lo que sí sabemos es que la IA puede simular comportamiento humano, generando la ilusión de que posee conciencia, intencionalidad y sentimientos, incluso para quienes saben que esto no es así.

Esta ilusión no es meramente anecdótica. Es un fenómeno psicológico profundo, alimentado por nuestros sesgos evolutivos: tendemos a atribuir mente e intención a todo lo que nos habla o responde. Como en la ilusión óptica de Müller-Lyer, en la que dos segmentos idénticos parecen de distinta longitud debido a la diferente orientación de las flechas que hay en sus extremos. Esta ilusión visual es cognitivamente impenetrable: el conocimiento y la razón no modifican la percepción.

cerebro

La similitud de la IA con el cerebro es una apariencia

Otras Fuentes

Con la IA ocurre algo similar. Aunque sepamos que no hay conciencia detrás de la interfaz, seguimos percibiéndola como si la hubiera. Esta ilusión es igualmente resistente a la razón. Nos lleva a interactuar con los sistemas de IA como si fueran interlocutores conscientes, aunque en realidad estemos frente a modelos estadísticos de predicción lingüística.

El peligro reside precisamente en esta falsa apariencia de conciencia. Si creemos que una IA nos comprende e incluso se preocupa por nosotros, podríamos establecer vínculos emocionales con sistemas que, obviamente, no tienen emociones. Esto puede conducir a dependencia afectiva, pérdida de juicio crítico o cesión excesiva de privacidad. En personas vulnerables, incluso podría alimentar delirios, como advierte el psiquiatra de la Universidad de Aarhus Søren Dinesen Østergaard.

Lee también

IA y Justicia: una combinación que exige prudencia y responsabilidad

Ramón López de Mántaras
Imagen de la mano de un juez, con la toga negra que visten en las vistas orales.

También hay riesgos éticos y legales. La exposición continuada a máquinas que parecen tener conciencia y aparentan tener sentimientos y emociones, sabiendo que no las tienen, podría desensibilizarnos ante el sufrimiento real, tanto humano como animal. El riesgo es, pues, doble: humanizar las máquinas y deshumanizarnos a nosotros mismos.

Además, la apariencia de inteligencia y conciencia podría inducirnos a creer que las inteligencias artificiales son agentes morales y deberían ser tratados como tales. Es decir que podríamos llegar a considerar que son responsables de sus actos, lo cual sería muy conveniente para quienes las diseñan y comercializan.

La IA genera la ilusión de que tiene intención y emoción, pero en realidad no las tiene

Este desplazamiento de responsabilidad supondría una externalización moral peligrosa, que debilitaría los mecanismos de control y de rendición de cuentas. La atribución de derechos y deberes a la IA no solo sería imprudente sino que socavaría el marco legal y ético que protege a las personas reales.

La historia de Frankenstein, escrita por Mary Shelley, ofrece una advertencia válida hoy: el error no fue crear vida, sino otorgarle conciencia y abandonarla a su suerte. Aunque la conciencia artificial sea prácticamente imposible, su simulación realista puede confundirnos y tener consecuencias sociales, éticas, legales y psicológicas muy serias.

Por ello, conviene no sobreestimar las máquinas, pero, sobre todo, no subestimar lo que significa ser humanos.

Etiquetas
Mostrar comentarios
Cargando siguiente contenido...