En un giro sorprendente que desafía los límites entre lo humano y lo artificial, un estudio reciente liderado por investigadores de la Universitat Autònoma de Barcelona (UAB) ha revelado que la música generada por inteligencia artificial puede emocionar más profundamente a las personas que la compuesta por músicos humanos.
La investigación, publicada en julio de 2025, consistió en exponer a más de 4,000 personas a piezas musicales compuestas por IA y por humanos, sin revelar el origen de las melodías. Los resultados fueron contundentes: el 53% de los oyentes afirmaron sentir mayor conexión emocional con las obras generadas por IA. En algunos casos, incluso reportaron sensaciones más intensas de tristeza, nostalgia o euforia ante melodías artificiales.
Este hallazgo se da en un contexto donde la creación musical automatizada ha cobrado relevancia. Plataformas como AIVA, Soundful o Suno permiten hoy generar canciones completas en segundos con tan solo describir una emoción o una escena. Lo que antes era una herramienta para músicos independientes, ahora se perfila como una alternativa real en la industria del entretenimiento.
“Esperábamos diferencias, pero no que la música hecha por IA provocara más emoción. Esto plantea preguntas sobre cómo definimos la creatividad y la autenticidad”, afirmó el investigador principal del estudio, Xavier Serra.
El fenómeno tiene implicaciones culturales y éticas. ¿Podemos considerar arte a una canción creada por un algoritmo? ¿Cómo afectará esto al trabajo de compositores humanos? Y sobre todo, ¿qué dice sobre nosotros como oyentes que una máquina pueda emocionarnos más que un ser humano?
Mientras el debate continúa, una cosa es clara: la inteligencia artificial ya no solo escribe partituras. También está tocando fibras profundas de la experiencia humana.
