La investigación fue llevada a cabo por expertos de la Universitat Autònoma de Barcelona, el Instituto RTVE y la University of Ljubljana
29.07.2025 • 18:37hs • Innovación
Innovación
La inteligencia artificial ahora permite revelar como se siente una persona al escuchar música
La inteligencia artificial (IA) muestra día a día nuevos avances en todos los rubros: un reciente estudio realizado en Barcelona demostró que la IA ya puede generar composiciones musicales capaces de provocar respuestas emocionales intensas en los oyentes, comparables, e incluso superiores, a las que produce la música compuesta por personas.
La investigación, publicada en la revista científica PLOS One, fue llevada a cabo por expertos de la Universitat Autònoma de Barcelona, el Instituto RTVE y la University of Ljubljana.
La IA revela qué emociones se sienten al escuchar música
El experimento reunió a 88 voluntarios en el laboratorio Neuro-Com de la UAB, quienes visualizaron videos breves acompañados por bandas sonoras distintas: algunas compuestas por humanos y otras generadas por IA mediante la herramienta Stable Audio.
Las piezas creadas por IA se basaron en descripciones emocionales simples o complejas, y fueron diseñadas para acompañar escenas con carga afectiva.
Los resultados fueron sorprendentes: la música generada por IA provocó una mayor dilatación pupilar y variaciones en la conductancia de la piel, dos indicadores fisiológicos que reflejan activación emocional y carga cognitiva. Básicamente, los participantes se emocionaron más y sus cuerpos también lo evidenciaron.
Los investigadores concluyeron que el origen de la música -humano o artificial- no determina la intensidad de la emoción provocada, sino que depende de la familiaridad con los patrones musicales y la complejidad de las instrucciones utilizadas para generar la pieza.
Un estudio en Barcelona determinó que emociones sienten los humanos al escuchar música
La música creada por IA con descripciones más detalladas fue percibida como más estimulante, mientras que la compuesta por humanos fue vista de forma más familiar.
Los investigadores destacaron que este avance tiene implicaciones directas en la industria audiovisual, donde la personalización de bandas sonoras y la optimización de recursos creativos podrían transformarse de forma nunca antes vista.