European Commission logo
italiano italiano
CORDIS - Risultati della ricerca dell’UE
CORDIS
Contenuto archiviato il 2024-06-18

Emotionally-based Tagging of Multimedia Content

Article Category

Article available in the following languages:

L’indicizzazione automatica della musica

Un gruppo finanziato dall’UE ha analizzato alcuni metodi di indicizzazione automatica della musica che prevedono l’utilizzo di macchine in grado di interpretare le espressioni e i movimenti degli ascoltatori allo scopo di generare tag di ricerca descrittivi. Il progetto è stato inoltre incentrato sulla valutazione dei metodi di lettura delle onde cerebrali finalizzati al rilevamento della risposta emotiva.

Tecnologie industriali icon Tecnologie industriali

La proliferazione di sorgenti musicali on-line rende estremamente complessa la ricerca di contenuti specifici. I metodi di indicizzazione automatica si basano sull’utilizzo di tag approfonditi, che potrebbero non essere disponibili. Un metodo potenzialmente più efficace si basa sul tagging automatico dei contenuti musicali attraverso l’individuazione della reazione emotiva degli ascoltatori durante la riproduzione dei brani. Nello specifico, le macchine leggono il linguaggio del corpo umano e le espressioni facciali generando, in tal modo, i dati relativi al tagging. Il progetto EMOTAG (“Emotionally-based tagging of multimedia content”), finanziato dall’UE, è stato concepito allo scopo di sviluppare e di valutare questo sistema di tagging implicito sensibile alle emozioni. Nello specifico, i ricercatori hanno tentato di capire se dal comportamento degli utenti è possibile ricavare dei tag e se questo approccio può determinare un miglioramento del tagging automatico. Il team ha inoltre analizzato i vantaggi in termini di prestazioni dell’utilizzo di tali metodi, nonché varie tecniche efficienti di apprendimento automatico. I lavori, della durata di due anni, si sono conclusi nel mese di aprile 2014. Le ricerche iniziali sono state incentrate sull’analisi delle risposte degli utenti ai tag con corrispondenze non corrette. Confrontando le radiografie del cervello di varie persone, il gruppo di lavoro è stato in grado di identificare la risposta cerebrale che indica una corrispondenza errata. Tuttavia, è stato scoperto che i modelli incentrati sullo sguardo fornivano metodi di rilevamento più accurati. Le prime fasi dei lavori si basavano sull’analisi delle risposte spontanee a video emotivi. A questi studi hanno fatto seguito attività di rilevamento di emozioni continue ricavate dalle onde cerebrali e dalle espressioni facciali. La combinazione dei metodi ha rivelato che la parte informativa con un forte aspetto emotivo dei segnali ricavati dall’elettroencefalogramma corrisponde all’interferenza dei muscoli facciali coinvolti nelle varie espressioni. Nell’ambito dell’iniziativa, è stato identificato il metodo più efficace per il rilevamento dell’effetto di tale fenomeno e sono state raggiunte prestazioni ottimali in tale processo. Il gruppo di lavoro ha inoltre sviluppato una nuova serie di dati finalizzati a una caratterizzazione emotiva continua della musica. Dagli studi è inoltre emerso che le reti neurali profonde e ricorrenti sono anche in grado di fornire un quadro completo delle dinamiche della musica. Il progetto EMOTAG ha esteso l’ambito di applicazione del rilevamento automatico delle risposte umane ad applicazioni per il tagging automatico e il recupero multimediale.

Parole chiave

Indicizzazione della musica, risposta emotiva, indicizzazione automatica, tagging, contenuto multimediale

Scopri altri articoli nello stesso settore di applicazione