L’indicizzazione automatica della musica
La proliferazione di sorgenti musicali on-line rende estremamente complessa la ricerca di contenuti specifici. I metodi di indicizzazione automatica si basano sull’utilizzo di tag approfonditi, che potrebbero non essere disponibili. Un metodo potenzialmente più efficace si basa sul tagging automatico dei contenuti musicali attraverso l’individuazione della reazione emotiva degli ascoltatori durante la riproduzione dei brani. Nello specifico, le macchine leggono il linguaggio del corpo umano e le espressioni facciali generando, in tal modo, i dati relativi al tagging. Il progetto EMOTAG (“Emotionally-based tagging of multimedia content”), finanziato dall’UE, è stato concepito allo scopo di sviluppare e di valutare questo sistema di tagging implicito sensibile alle emozioni. Nello specifico, i ricercatori hanno tentato di capire se dal comportamento degli utenti è possibile ricavare dei tag e se questo approccio può determinare un miglioramento del tagging automatico. Il team ha inoltre analizzato i vantaggi in termini di prestazioni dell’utilizzo di tali metodi, nonché varie tecniche efficienti di apprendimento automatico. I lavori, della durata di due anni, si sono conclusi nel mese di aprile 2014. Le ricerche iniziali sono state incentrate sull’analisi delle risposte degli utenti ai tag con corrispondenze non corrette. Confrontando le radiografie del cervello di varie persone, il gruppo di lavoro è stato in grado di identificare la risposta cerebrale che indica una corrispondenza errata. Tuttavia, è stato scoperto che i modelli incentrati sullo sguardo fornivano metodi di rilevamento più accurati. Le prime fasi dei lavori si basavano sull’analisi delle risposte spontanee a video emotivi. A questi studi hanno fatto seguito attività di rilevamento di emozioni continue ricavate dalle onde cerebrali e dalle espressioni facciali. La combinazione dei metodi ha rivelato che la parte informativa con un forte aspetto emotivo dei segnali ricavati dall’elettroencefalogramma corrisponde all’interferenza dei muscoli facciali coinvolti nelle varie espressioni. Nell’ambito dell’iniziativa, è stato identificato il metodo più efficace per il rilevamento dell’effetto di tale fenomeno e sono state raggiunte prestazioni ottimali in tale processo. Il gruppo di lavoro ha inoltre sviluppato una nuova serie di dati finalizzati a una caratterizzazione emotiva continua della musica. Dagli studi è inoltre emerso che le reti neurali profonde e ricorrenti sono anche in grado di fornire un quadro completo delle dinamiche della musica. Il progetto EMOTAG ha esteso l’ambito di applicazione del rilevamento automatico delle risposte umane ad applicazioni per il tagging automatico e il recupero multimediale.
Parole chiave
Indicizzazione della musica, risposta emotiva, indicizzazione automatica, tagging, contenuto multimediale