Le app di streaming musicale offrono già agli utenti la possibilità di selezionare una playlist in base agli stati d’animo, e questi ultimi hanno ottenuto abbastanza bravo a riconoscere una traccia dolce da riprodurre quando sei bloccato nel traffico un lunedì sera. Tuttavia, il ricercatore indiano Yudhik Agarwal afferma che tale tecnologia non è esattamente la più sofisticata e questi sistemi possono essere notevolmente rafforzati analizzando i testi delle canzoni-anche più difficili da fare. Su questa nota, Agarwal ha presentato alla conferenza europea sul recupero delle informazioni sulla propria musica la tecnica dell’umore curation , affermando che un giorno queste tecnologie potrebbero persino contenere risposte a terapie per affrontare vari problemi mentali.

Per essere precisi, il L’area in cui Agarwal ha lavorato è il Music Emotion Recognition (MER), che è un sottoinsieme di Music Information Retrieval (MIR) utilizzato da tutti i servizi che offrono la cura personalizzata dei brani in vari stati d’animo. Tuttavia, un post dell’International Institute of Information Technology, Hyderabad (IIIT-H) sui risultati di Agarwal affermano come i testi siano spesso un sottoinsieme ignorato a causa dei giorni ancora nascenti dell’elaborazione del linguaggio naturale (PNL). La ragione di ciò era legata all’interpretazione contestuale della parola scritta, che finora i modelli di intelligenza artificiale e di deep learning sequenziale non erano riusciti a comprendere.

È questo che Agarwal ha sfruttato, implementando la tecnica di elaborazione del linguaggio naturale di apprendimento profondo XLNet. Ciò ha aiutato Agarwal e il suo team a tracciare un grafico a quattro quadranti utilizzando la metrica Valence-Arousal, che include la valenza per la felicità e l’eccitazione per l’energia. Questi dati sono stati elaborati in diversi punti conteggiati, che avrebbero quindi classificato le tracce per valutare l’atmosfera rappresentata dai suoi testi.

Prof. Vinoo Alluri, che ha guidato la ricerca di Agarwal, ha dichiarato:”Questo studio ha importanti implicazioni nel miglioramento delle applicazioni coinvolte nella generazione di playlist di musica basata sulle emozioni. Per la prima volta, l’approccio del trasformatore viene utilizzato per i testi e sta dando risultati notevoli. Nel campo della psicologia della musica, questa ricerca ci aiuterà inoltre a comprendere la relazione tra differenze individuali come stili cognitivi, tratti empatici e di personalità e preferenze per certi tipi di testi carichi di emozioni.”

Andando avanti, Agarwal presenterà un seguito alla sua ricerca alla prossima Conferenza internazionale sulla percezione e cognizione della musica, che mira a utilizzare il modello di classificazione dei testi di lavoro di XLNet per mappare i tratti della personalità di un ascoltatore con le emozioni, per valutare migliori algoritmi di riconoscimento musicale-qualcosa che può avere implicazioni di vasta portata in campi scientifici avanzati come la terapia cognitiva.

Leggi tutte le Ultime notizie e Ultime notizie qui

Categories: IT Info