Skip to main content

Article Category

Nachrichten

Article available in the folowing languages:

Machen Sie Ihren eigenen Film

Hochwertige audiovisuelle Animationen in einem Bruchteil der üblichen Zeit und bei weitaus geringeren Kosten? Ein Team EU-finanzierter Forscher entwickelte neuartige Tools, die Künstlern und Medienvertretern nun diese Träume erfüllen. Die Werkzeuge erlauben es dem Nutzer, Mimi...

Hochwertige audiovisuelle Animationen in einem Bruchteil der üblichen Zeit und bei weitaus geringeren Kosten? Ein Team EU-finanzierter Forscher entwickelte neuartige Tools, die Künstlern und Medienvertretern nun diese Träume erfüllen. Die Werkzeuge erlauben es dem Nutzer, Mimik, körperliche Attribute und sogar die Tonhöhe der Stimmen ihrer Charaktere auszuwählen. Die "intelligent Content"-Technologie wurde innerhalb des SALERO-Projekts ("Semantic audio-visual entertainment reusable objects") entwickelt, das im Themenbereich "Technologien für die Informationsgesellschaft" (IST) des Sechsten EU-Rahmenprogramms (RP6) mit 8,85 Mio. EUR finanziert wurde. Das Konsortium aus 13 Partnern konnte unter der Leitung des Forschungsunternehmens Joanneum Research in Österreich mit Erfolg insgesamt 24 Anwendungen, Tools und Demos entwickeln, die einen Nutzer in die Lage versetzen, Inhalte für eigene Computerspiele oder für Animationen zu erstellen, zu verwalten, zu bearbeiten, abzurufen und zu übermitteln. Auf diese Weise kann man Charaktere, Objekte, Geräusche, Sprache und Verhaltensweisen innerhalb eines beliebig gewählten Kontextes und mit wenig technischem Know-how erstellen. Ziel der Forscher, Künstler und kreativen Medienschaffenden bei SALERO war es, Computerspiele und Animationen durch Beschleunigung des Produktionsprozesses besser zugänglich und außerdem einfacher und weniger teuer zu machen. Dies würde es ermöglichen, viele Simulationen wie etwa Ausbildungsinhalte für Fachkräfte der Gesundheitsberufe effizienter zu produzieren und damit diese Simulationen an verschiedene Szenarien oder auch an völlig andere Projekte anzupassen. Das Team des 2006 gestarteten und Ende 2009 abgeschlossenen Projekts erstellte mit Erfolg ein raffiniertes, selbstanpassendes und halb automatisches Produkt, das bereits große Aufmerksamkeit erregen konnte. Dr. Georg Thallinger von Joanneum Research wies darauf hin, dass die Studios besonders neugierig auf die Audio- und Animations-Tools seien. Immerhin würden diese Tools den Branchenprofis wahrscheinlich viel Zeit und Geld sparen - ungefähr so, wie die Fotobestandsarchive bereits alle möglichen Bilder viel besser zugänglich gemacht haben. "Das bedeutet, dass man nicht so viele Synchronsprecher braucht - was recht teuer ist -, und dass es nicht so lange dauert, um eine größere Vielfalt von Charakteren zu erschaffen, die ein breites Spektrum an Emotionen zeigen", sagte Dr. Thallinger. Durch den Einsatz des synthetischen emotionalen Modells hat der Nutzer zum Beispiel Zugriff auf Variablen für "Aktivierung" (Emotionsstärke) und "Evaluation" (Balanceregulierung), die es ihm gestatten, viele verschiedene Ausdrücke animieren zu können. Darüber hinaus kann man mit dem Maskle-Tool dieselben Emotionen leicht in das Gesicht eines anderen Charakters übertragen. Der Nutzer kann außerdem das Geschlecht, die ethnische Zugehörigkeit, das Alter und das Gewicht eines Charakters auswählen. Diese Variablen beeinflussen natürlich auch den Gang und die Körperbewegungen des Charakters, die in Abhängigkeit von der Art der Oberfläche, auf der sich der Charakter befindet, automatisch festgelegt werden. "Der Animator kann dann einfach auf einen Bereich zeigen, wo der Charakter hingehen soll und die Software wählt den Weg und animiert die Variablen des Charakters sowie die Qualität der Oberfläche entlang der Route", erklärte Dr. Thallinger. Dank der Audiobearbeitungs-Tools kann die Technologie eine Sprachaufnahme derart umwandeln, dass sie ein anderes Geschlecht, ein anderes Alter, eine andere Geschwindigkeit, Klangfarbe und Tonhöhe und auch verschiedene Sorten emotionalen Stress (z. B. von glücklich bis hin zu traurig) wiedergibt. Hat man keine passende Sprachaufnahme, so macht man sich einfach per Computer selber eine. Das Team hat außerdem ein System erfunden, bei dem der emotionale Stress eines Charakter mit dem Tonfall synchronisiert wird. "Wir erreichen eine viel realistischere und überzeugendere Animation, wenn die Bewegung auf diese Weise über Sprache und bewegtes Bild synchronisiert wird", fügte Dr. Thallinger hinzu. Informationen zu den verschiedenen Tools stehen auf der SALERO-Webseite zusammen mit mehreren animierten Produktionen zur Verfügung. Das SALERO-Projekt vereinte Forscher und Industriepartner aus Deutschland, Finnland, Irland, Österreich, Spanien und dem Vereinigten Königreich.

Länder

Österreich

Verwandte Artikel