Skip to main content

Article Category

Notizia

Article available in the folowing languages:

Animazione fai da te

Una nuova serie di dispositivi messi a punto da un team di scienziati finanziati dall'Unione europea consente ad artisti e professionisti che lavorano nell'ambito dei mezzi di comunicazione di creare animazioni audio-video di elevata qualità a costi estremamente ridotti. I dis...

Una nuova serie di dispositivi messi a punto da un team di scienziati finanziati dall'Unione europea consente ad artisti e professionisti che lavorano nell'ambito dei mezzi di comunicazione di creare animazioni audio-video di elevata qualità a costi estremamente ridotti. I dispositivi permettono all'utente di selezionare l'espressione facciale del protagonista, le sue caratteristiche fisiche e addirittura di sceglierne il tono di voce. La tecnologia "intelligent content" è stata sviluppata all'interno del progetto SALERO ("Semantic audio-visual entertainment reusable objects") che ha ricevuto fondi per 8,85 milioni di euro in riferimento alla tematica "Tecnologie della società dell'informazione" del Sesto programma quadro (6° PQ). Coordinato dal Joanneum Research (Austria), il consorzio composto da 13 partner ha messo a punto con successo ben 24 applicazioni, dispositivi e showcase che consentono all'utente di creare, gestire, modificare, recuperare e fornire contenuti per videogiochi e animazioni. Queste innovazioni consentono di creare personaggi, oggetti e suoni, di impostare la lingua e di scegliere un comportamento in un contesto scelto dallo stesso utente. Per utilizzare questi dispositivi, inoltre, non sono necessarie conoscenze tecniche particolari. L'obiettivo dei ricercatori, degli artisti e dei creativi del progetto SALERO era rendere più accessibile la creazione di videogiochi e di prodotti di animazione accelerando il processo di produzione, semplificandolo ed abbattendone i costi. Il raggiungimento di questo scopo consentirà di realizzare in modo più efficiente svariate simulazioni, ad esempio le simulazioni incentrate sui contenuti utilizzate per la formazione dei professionisti del settore sanitario e permetterà di adattarle a contesti, se non addirittura a progetti, completamente diversi. Lanciato nel 2006 e portato a compimento negli ultimi mesi del 2009, il prodotto, che il team è riuscito a rendere ricercato, auto-adattabile e semi-automatico ha già attirato molta attenzione. Il dott. Georg Thallinger del Joanneum Research ha evidenziato che gli studio sono particolarmente interessati ai dispositivi audio e di animazione. Dopo tutto, questi dispositivi dovrebbero consentire ai professionisti del settore di risparmiare tempo e denaro e avviare un processo analogo a quello avviato dagli stock di fotografie, che hanno reso molto più accessibili le immagini. "[L'utilizzo di questi dispositivi] riduce la necessità di ricorrere ai doppiatori, un servizio costoso, e velocizza la creazione di diversi personaggi in grado di esprimere una vasta gamma di emozioni", ha detto il dott. Thallinger. Utilizzando il "synthetic emotional model", ad esempio, l'utente ha accesso alle variabili "activation" (intensità dell'emozione) e "evaluation" (controllo dell'equilibrio) che gli consentono di animare molte espressioni diverse. Usando il tool "Maskle", inoltre, le stesse espressioni possono essere facilmente trasferite sul volto di un altro personaggio. L'utente ha poi la possibilità di scegliere genere, etnia, età e peso del personaggio. Queste variabili influenzano inoltre l'andatura del personaggio e le sue movenze che sono determinate automaticamente dal tipo di superficie su cui si muove. "L'animatore può semplicemente posizionare il puntatore sull'area versa la quale vuole che si diriga il personaggio e il software sceglie il percorso, attiva le variabili del personaggio e definisce la qualità della superficie lungo il percorso", ha spiegato il dott. Thallinger. Grazie ai dispositivi per l'audio, la tecnologia è in grado di trasformare la registrazione vocale in modo da modificarne età, sesso, velocità, timbro e addirittura stato emotivo (da felice a triste, ad esempio). Nel caso non si disponga di una registrazione vocale, è possibile creare la voce direttamente al computer. Il team ha inoltre creato un sistema in cui le emozioni del personaggio sono sincronizzare con il tono di voce. "L'animazione è molto più realistica e convincente quando il movimento è sincronizzato con voce e video in questo modo", ha detto il dott. Thallinger. Le informazioni sui dispositivi, come anche svariate produzioni animate, sono disponibili sul sito Web del progetto. Il progetto SALERO ha riunito ricercatori e professionisti del settore provenienti da Germania, Irlanda, Spagna, Austria, Finlandia e Regno Unito.

Paesi

Austria

Articoli correlati