Loading...

La música generada por IA nos puede emocionar más que la compuesta por humanos

Estudio UAB

Los participantes del estudio describieron la música generada con IA como más “excitante” y la música humana fue percibida como más “familiar”

Los resultados, publicados en la revista PLOS One, muestran que la IA puede generar música que se perciba como más excitante

iStock

¿Puede la música generada por IA provocar las mismas respuestas emocionales que la música creada por humanos?

Para responder a esta pregunta, la UAB, con la participación del Instituto RTVE en Barcelona y de la Universidad de Liubliana (Eslovenia), ha hecho un estudio en el que ha analizado la respuesta fisiológica y emocional de 88 personas mientras estas veían clips con una imagen idéntica pero con distintas músicas: música creada por humanos, música generada con IA con instrucciones (prompts) complejas y detalladas, y música generada con IA con un prompt más simple y menos detallado. 

Los participantes describieron la música generada con IA como más “excitante” y la música humana fue percibida como más “familiar”

Mientras los participantes veían estos clips se medían sus reacciones fisiológicas, como la dilatación de pupilas, el pestañeo y cómo las emociones percibidas cambiaba la conductividad eléctrica de la piel, así como sus respuestas emocionales tal como ellos mismos las describían. 

Lee también

Los resultados del experimento fueron reveladores. La música generada por IA provocó más dilatación pupilar, lo que indica una mayor activación emocional. Así mismo, la generada mediante prompts más sofisticados y complejos provocaron más pestañeos y estimulaciones en la piel, que se asocian a una carga cognitiva más grande; es decir, se observaron diferencias en el impacto generado por IA en función de la complejidad del prompt utilizado. Finalmente, desde el punto de vista emocional, los participantes describieron la música generada con IA como más “excitante”, sin embargo, la música humana fue percibida como más “familiar”. 

Las conclusiones que se extraen del estudio no son para nada baladí, es más, podrían tener implicaciones significativas para el futuro de la producción audiovisual, especialmente por lo que respecta a la personalización de la música según la narrativa visual, la economía de recursos en los procesos creativos y la posibilidad de ajustar el impacto emocional del contenido con más precisión mediante herramientas automatizadas.