Hablar con una inteligencia artificial ya no es cosa de ciencia ficción. Los asistentes virtuales, desde Alexa hasta Siri, han colonizado nuestros hogares y oficinas, convirtiendo la interacción con máquinas en una experiencia cada vez más habitual. Sin embargo, esta familiaridad tiene un precio: nuestra confianza. Según la profesora Anuschka Schmitt, investigadora de la London School of Economics, “cuando algo suena humano e inteligente tendemos a atribuirle credibilidad”, aunque sepamos que detrás no hay una conciencia real.
La voz, una trampa sonora para la percepción humana
Hablar con la IA es cada vez un acto más natural
En un estudio reciente publicado por la Journal of the Association for Information Systems, Schmitt y su equipo analizaron cómo los sistemas de voz basados en IA provocan lo que se conoce como ‘atribución de agencia’. Es decir, que los usuarios perciban estas máquinas como entidades autónomas capaces de razonar y tomar decisiones. “El simple hecho de que una voz suene cálida, pausada o empática puede inducirnos a pensar que el sistema tiene intenciones, valores o incluso emociones”, explica la profesora.
El riesgo, según Schmitt, es que esta percepción no siempre se corresponde con la capacidad real del sistema. “La naturalidad en la interacción puede hacer que el sistema parezca más fiable de lo que en realidad es”, alerta. Y en entornos como la medicina o las finanzas, esa confianza puede tener consecuencias muy serias.
Las voces artificiales están meticulosamente diseñadas para generar cercanía. “Pasamos mucho tiempo entendiendo el abanico completo de señales vocales y cómo se integran en los sistemas de IA. Es la combinación de estos elementos (tono, pausas, inflexiones) lo que logra que una voz suene convincentemente humana”, detalla Schmitt. Este fenómeno se explica en parte por el principio psicológico de la generalización del estímulo. “Si una voz suena humana, aplicamos los mismos patrones cognitivos que usamos en una interacción real”, añade. Aunque sepamos que estamos hablando con una máquina, nuestro cerebro tiende a comportarse como si estuviera frente a una persona.
Además, hay un componente cultural que no se puede pasar por alto. Determinados timbres o acentos evocan confianza, autoridad o simpatía. “Algunas tareas se asignan a voces masculinas, como las de seguridad, y otras a femeninas, como las de asistencia doméstica”, indica Schmitt. Estos sesgos son reflejo de normas sociales que se siguen perpetuando en los usuarios.
Que una IA suene como un ser humano no es sólo una cuestión estética, sino también ética. El estudio sugiere que la línea entre accesibilidad y manipulación es muy fina. “En contextos sensibles, como terapias con pacientes o interacciones con menores, es fundamental recordar que no estamos hablando con alguien real”, remarca Schmitt. Y aunque por ahora no aboga por una regulación estricta, Schmitt insiste en la importancia de generar conciencia.


