Este artículo presenta un estudio sobre la clasificación de emociones en datos musicales utilizando técnicas de aprendizaje profundo, enfocado en el uso de redes neuronales convolucionales (CNN) y modelos de memoria a largo plazo (LSTM-GRU). Se desarrollaron tres modelos que emplean características extraídas mediante transformadas de Fourier rápidas y coeficientes cepstrales en frecuencia de Mel (MFCC) para predecir emociones como feliz, triste y agresivo. La metodología propuesta mostró mejoras significativas en la precisión y la recuperación en comparación con métodos existentes, lo que destaca la importancia del reconocimiento de emociones en la música en diversas aplicaciones.
Related topics: