Producir una canción que llegue a la cima de las clasificaciones de las plataformas como Spotify o Apple Music es lo que anhelan muchos artistas, pero menos del 4% de las nuevas canciones lograrán entrar en las listas de éxitos. Aunque no haya una fórmula mágica para lograrlo, un nuevo estudio sugiere que el aprendizaje automático (una técnica de inteligencia artificial) aplicado a las respuestas cerebrales de las personas puede identificar las canciones que despiertan sus emociones. Y esas son las que suelen convertirse en los éxitos de la industria musical.

Desarrollado por investigadores de la Claremont Graduate University, situada en el área de Los Ángeles (EE UU), el método utiliza sensores convencionales, como los que llevan los relojes inteligentes, para analizar las respuestas neurofisiológicas humanas y así calificar las canciones. En el estudio publicado en la revista Frontiers in Artificial Intelligence, 33 participantes escucharon 24 temas seleccionados por personal de un servicio de streaming; de ellas, 13 eran éxitos (con más de 700.000 reproducciones) y el resto no. Los investigadores midieron sus reacciones cerebrales asociadas con el estado de atención (a partir de la liberación de dopamina) y con la respuesta emocional (vinculada a la oxitocina). Juntas, estas señales neuronales predicen el comportamiento cerebral después de un estímulo, especialmente aquellos que provocan emoción. En esencia, es como tener una ventana a la mente para así entender el efecto que provoca la música en el cerebro.

Paul Zak, autor principal y profesor de la universidad estadounidense, explica que las personas hasta pueden atribuir características como el ritmo o el tono al explicar por qué les gusta una canción; sin embargo, es imposible tener conciencia plena de los motivos intrínsecos. “Resulta que el cerebro sabe. Aunque no puedas identificarlo conscientemente, los sistemas cerebrales inconscientes sí saben si algo es bueno o no”, detalla el investigador.

El estudio demostró que las respuestas neurofisiológicas de los participantes pudieron predecir cuáles eran las canciones más populares, según las cifras del mercado musical. Un modelo estadístico lineal logró una tasa de éxito del 69% en la identificación de los temas musicales, y al aplicar el aprendizaje automático, los investigadores mejoraron la precisión hasta un 97%. Incluso al analizar las respuestas neuronales de solo el primer minuto de las canciones, se obtuvo una asertividad de 82%.

A pesar de estos resultados prometedores, el equipo reconoce las limitaciones del estudio que acaban de presentar, como el número relativamente pequeño de canciones utilizadas en su análisis y la falta de representación de ciertos grupos demográficos entre los participantes. Sin embargo, garantizan que la novedosa metodología podría aplicarse a otras formas de entretenimiento, como películas y programas de televisión, lo que abre puertas a un cambio de juego en la industria del entretenimiento. Para otro tipo de contenidos, como los audiovisuales, sería necesario modelar a los datos de forma diferente, pero las respuestas neurofisiológicas siguen siendo las mismas, como explica el autor de la investigación: “La metodología es sólida, lo que significa que puede ser empleada una y otra vez, aunque cada modelo será ligeramente diferente”, añade el profesor Zak.

Las plataformas de streaming suelen tener sus propios métodos de recomendación, pero en general se basan en algoritmos, en el análisis de expertos humanos y en el comportamiento del oyente, como cuando el usuario evalúa la pista con un me gusta. Melanie Parejo, jefa de Música para el sur y el este de Europa en Spotify, explica que la metodología de la plataforma emplea una “amplia gama de técnicas de aprendizaje”, que van desde el “filtrado colaborativo al aprendizaje por refuerzo”.

Parejo subraya que las tendencias musicales responden a factores internos de la plataforma, como el número de reproducciones o la evolución de cada una de las canciones, pero también externos, como lo que sucede en la red o en la televisión. “Existen múltiples señales de consumo que pueden contribuir al éxito de una canción, desde su ratio de crecimiento hasta el consumo orgánico del tema, pero también que los usuarios busquen esa canción proactivamente o no se la salten si les aparece en una lista de reproducción. Pero nuestros equipos editoriales también tienen en cuenta el contexto más amplio, lo que pasa fuera de la plataforma, cómo se comparte en redes o si por ejemplo está viviendo un momento dulce gracias a alguna serie de TV”, detalla esta representante de Spotify.

En busca del ‘hit’ musical

Si el procedimiento propuesto por los estudiosos estadounidenses prueba ser efectivo en la identificación de éxitos musicales, ¿podría tal vez contribuir a crear la canción perfecta? El maestro Paul Zak aborda esta cuestión con matices. La contestación afirmativa se centra en el músico o la banda, quienes podrían invitar a ciertas personas a oír un lanzamiento y así medir la intensidad de su conexión sensible. Desde ahí, estarían en situación de afinar diferentes elementos musicales, ya sea evolucionar acordes o efectuar un cambio en el ritmo, todo destinado a amplificar el impacto cariñoso. “Esa sería la aproximación que algunas personas ya están comenzando a adoptar en la actualidad”, remarca Zak. Sin embargo, en lo relativo a generar desde cero una composición musical con semejantes atributos, su perspectiva no es tan clara. “Necesitamos artistas para realizar ese trabajo creativo inicial. No hay forma de ir al punto de partida y producir la canción perfecta de manera artificial”, aclara.

El maestro Sergi Jordà, que estudia la relación entre música y tecnología hace más de treinta años, coincide en que descifrar las señales cerebrales mediante sensores puede permitir optimar las canciones, mas “es insuficiente para generar hits”. Pese a ello, solo se trata de una cuestión de tiempo. Dado el avance veloz de la inteligencia artificial generativa y de los sensores que miden los estados anímicos, no es insensato adelantar un escenario en el que las máquinas den a luz las armonías más recordables.

Estamos a las puertas de ese futuro. En noviembre de dos mil veintidos, el gigante chino de streaming Tencent Music Entertainment generó y lanzó más de mil canciones nuevas con voces generadas por IA que imitan la voz humana. Una de ellas, titulada Today, tuvo 100 millones de reproducciones y se ha transformado en la primera canción artificial que alcanza esta cantidad, según un informe de Music Business Worldwide.

Jordà apunta que las presentes capacidades de producir música desde textos, por servirnos de un ejemplo, “han dejado perplejos a todos los expertos”. Además, dada la habilidad de las redes neuronales para producir alteraciones con base en lo ya existente, probablemente acepten el papel de músicas de las canciones rompepistas en un futuro próximo. “Está claro que, alimentadas con grandes éxitos, tenderán a hacer cosas que se parezcan a grandes éxitos”, especifica el maestro e estudioso en el Grupo de Tecnología Musical de la Universitat Pompeu Fabra de Barcelona. “Esto es un futuro que parece muy distópico. Pero es preocupante y es real”, asegura. Además, matiza que hay asimismo otras opciones, como la creación de música sobre la marcha, optimada al momento, conforme los estados anímicos de una persona.

Por su parte, Zak considera que el procedimiento desarrollado por su equipo puede favorecer a artistas que están comenzando con sus carreras, a fin de que perciban lo que a otras personas les agrada. “Si eres los Rolling Stones y has tocado en unos diez mil conciertos, ya sabes, más o menos, qué es bueno y qué es malo”, ejemplariza. Sin embargo, para un músico principiante es una forma de “acelerar su aprendizaje para lidiar con algunos dilemas, como cuando alguien piensa ‘me gusta esta canción, ¿entonces por qué a alguien más no le iba a gustar?“. “No es la única razón para crear arte, pero si deseas crear arte que llegue emocionalmente a las personas, entonces no solo tiene que conmoverte a ti, sino también a los demás”, concluye Zak.