01
Okt
08

. Computeranimation – ein Rückblick und Aussichten

Mit der enormen Steigerung der Rechnergeschwindigkeit und dem Anwachsen er Speicherkapazität von Festplatten und RAM beim PC hat die Computeranimation an Bedeutung gewonnen. Darunter versteht man Techniken mit deren Hilfe man die Illusionen von Bewegung erzeugt – Serien von Einzeleinstellungen die zu einer dynamischen Sequenz generiert werden, vergleichbar mit den 24 Einzelbildern pro Sekunde im Film, spricht man im Kontext der Computeranimation von Frames. Ein wichtiger Teilbereich der Erzeugung einer realistischen Illusion ist die Gesichtsanimation. Hierbei wurden reale menschliche Gesichtszüge und dessen mimischen Ausdrücke vom Computer aufgezeichnet und für Echtzeit-Reproduktionen zu Gesichtsanimationen interpoliert. Schon 1998 präsentierten japanische Forscher auf dem Kongress „Virtuell Enviroments“ ein mimisch-technisches System namens „Robbyline“, das in der Lage war mit einem realen menschlichen Gegenüber zu interagieren.

.

Das System vermag Gesichtszüge- und damit emotionale Zustände ihres realen Gegenübers zu erkennen und zu reproduzieren. Ein angeschlossener Computer wertet dazu die Daten der aufgenommenen Gesichtsausdrücke mit Hilfe eines neuronalen Netzes aus, indem er die Helligkeitsunterschiede um Augen, Augenbrauen und Mund an insgesamt 13 vertikalen Linien analysiert. Sechs verschiedene Gefühlsregungen – eingespeist durch 15 verschiedene Personen – wurden in Robbyline gespeichert. Auf Basis der mimischen Entsprechungen dieser Gefühlsdatenbank kontrolliert der Computer 18 verschiedene Steuerpunkte des Robotergesichts. Da Robbyline zudem in ähnlicher Weise auf paralinguistische Artikulationen trainiert wird, vermag das System bald nicht nur mimische, sondern auch nicht-sprachliche, akustische Kommunikationsbeigaben zu erkennen und in Echtzeit zu reproduzieren.
.

Im Massachusetts Institute of Technologie (MIT) ist schon in der letzten Dekade des vorherigen Jahrtausends ein „Text-To-Visuel-Speech“-System entwickelt worden. Ausgehend von Photos der Lippenstellung bei der Betonung der Silben eines realen Sprechers kann der Computer fernsehtaugliche Sprecherbilder generieren von Texten die tatsächlich nie gesprochen sein müssen.

Die Schwerpunkte der Computeranimation haben sich von der Objektgestaltung und Darstellung, Mitte der 80er Jahre, hin zur Automatisierung selbstregulierter Bewegungsprozesse (ab Mitte der 90er) verlagert. Die ersten synthetischen Darsteller bekam man in computergesteuerten Kurzfilmen zu sehen, sie werden „Digital Actors“ genannt. Bereits 1988 entstand von der Firma Silicon Graphics „Mike-The-Talking-Head“ – eine körperlose Gesichtsmaske die durch zwei Operateure mit Steuerhebeln in Echtzeit animiert werden konnten. Für das erste virtuelle Baby „TinToy“ bekam der Regisseur 1989 einen Oscar.

.

Inzwischen ist die Entwicklung dieser „Digital Actors“ soweit vorangeschritten, dass schon seit längerem kommerzielle Angebote in diesem Bereich realisiert worden sind. “KariGirl”, eine Entwicklung des Lhandslide Studios, ist eine virtuelle „Freundin“ mit der der User auf  der Gesprächsebene interagieren kann und die sich als virtuelle Sexpartnerin, Freundin, Ehefrau oder idealisiertes Wunschbild anbietet. KariGirl ist in einer 3D-Graphik realisiert und der User hat die Möglichkeit zwischen verschiedenen Settings zu wählen, kann über einen sogenannten Scene Creator einzelne Szenen im Detail animieren und den Charakter der virtuellen Person vordefinieren. Mit Hilfe von Software aus der Künstlichen Intelligenz-Forschung verknüpft das Programm Informationen und Beziehungsmuster und ist in der Lage bis zu einem gewissen Grade autonom zu interagieren. Mit einer Software die die Animation der Gesichtmimik und der Lippensynchronisation übernimmt und Sprachprogrammen von NeoSpeech, die Kari wie dem User eine realistische synthetische Stimme verleihen, nimmt die „virtuelle Freundin“ eine Rolle als Kommunikationspartner ein um dementsprechende Defizite im realen zwischenmenschlichen Bereich auszugleichen.

.

“Welcome to the home of the Virtual Girlfriend. KARI was designed from the ground up to be your companion and friend. If you are looking for a romance, a hot chat on a lonely night, a friend to sit by, or simply someone you can tell all your troubles to – then KARI is for you.”

Die Firma “VirtualFem“ bietet ebenfalls virtuelle Freundinnen an, die im Unterschied zu KariGirl über eine Vielzahl von MPEG-Videoszenen von realen Darstellerinnen abrufbar sind. VirtualFem nutzt in ähnlicher Weise Software aus der künstlichen Intelligenz-Forschung und von Spracherkennungsprogrammen, sowie eine modifizierte Game-Engine um die virtuellen Personen im Video- und Text-Chat mit dem User interagieren zu lassen. Der hat die Möglichkeit zwischen einer Anzahl von Frauentypen zu wählen und kann die Kleidung, die Örtlichkeiten und die Persönlichkeit bestimmen, bzw. vordefinieren. Festgelegt durch das Potential an Handlungsmustern, die durch das vorhandene filmische Material festgelegt und deutlich auf sexuelle bis pornographische Szenen fokussiert sind, kann der User die Aktivitäten seiner virtuellen Freundin bestimmen. Ein weiteres Produkt in diesem Segment ist „Virtual Woman“ von der Firma „CyberPunk Software“, die in diesem Bereich Pionierarbeit geleistet hat. Die dort angebotenen virtuellen Charaktere mit den dementsprechenden Settings können über sogenannte digitale DNA-Files, die von dem Unternehmen Harrington International lizenziert sind, von dem User heruntergeladen und verwendet werden.

.

Am Anfang der Animation stand die Frage wie man den Körper eines Menschen-Orginal und unabhängig davon,  seine Bewegungen, über Computer erfassen kann. Um ein stimmiges dreidimensionales Bild eines speziellen Menschen, einen sogenannten „Mesh“, herstellen zu können, muss man die Daten über die Beschaffenheit des konkreten menschlichen Körpers in den Computer bekommen. Zunächst machte man Abdrücke vom Körper, die mit einem Spezialgips gegossen werden wie er auch zur Anfertigung von Zahnprothesen benutzt wird. Dann werden diese Gipsstücke über Laserscann digitalisiert und dann als einzelne Datensätze am Computer wieder zum Abbild des Gesamtkörpers zusammengerechnet. Diese Daten werden zu dreidimensionalen Drahtgittermodelle interpoliert, diese sind aus vielen kleinen Polygonen zusammengesetzt – je höher die Anzahl der Polygonen, umso höher die Qualität des „Meshes“, da so die Gestalt differenzierter dargestellt und animiert werden kann. Auf der Grundlage dieser geleisteten Programmierarbeit und Rechnerleistung ist u.a. das Programm „Poser“ entwickelt worden, welches standardisierte „Meshes“ mit einem Repertoire an Körperausdrücken und Mimiken zur Animation anbietet

.

Für die Erzeugung von Bewegung (geometrisch/kinetische Variante) haben sich zwei Verfahren etabliert. Bei der sogenannten Keyframe-Animation wird dem noch bewegungsunfähigen Mesh ein animierbares Skelett auf der Grundlage eines vordefinierten Templates eingepasst. Dieses Template besitzt bereits eine Art biodynamische Datenbank, so dass bei dem „Mesh“ nur die Schlüsselelemente der Bewegung festgelegt werden müssen und zwar dergestalt, das dem Mesh eine Bewegungsspur (z.b. über „Fußstapfen“) zugeordnet wird und spezielle Bewegungsänderungen auf einer Zeitachse festgelegt werden. Für einen Ablauf der Bewegung und einem fließenden Übergang der einzelnen Momente sorgt das Programm aufgrund seiner Bewegungsdatenbank dann selber.

Das zweite Verfahren ist das sogenannte „Motion Capturing“ Hier werden die Bewegungsdaten dem Computer über ein Sensorensystem, das an einen real agierenden Schauspieler angeschlossen ist und einem Tableaux mathematisch ausgerichteter Kameras eingegeben. Die Kameras zeichnen die Schauspieler zur gleichen Zeit aus allen Blickwinkeln auf und leiten die Informationen dann zum Rechner wo sie interpoliert werden. Die Bewegungen des Menschendoubels werden an eine Graphikworkstation übertragen, auf der dann die Daten in Echtzeit auf einen „Mesh“ übertragen werden. Hebt das Menschen-Double die Hand, folgt der Mesh mit derselben Bewegungscharakteristik nach.

.

Die Spielfigur Lara Croft aus „Tomb Raider“ wurde in ihren Bewegungsgrunddaten über Motion Capturing durch die Schauspielerin Nell Mc Andrew animiert. Ein weiteres Game, was in der graphischen Präsentation mit Tomb Raider vergleichbar ist, ist « Lula3D », ein Adventure-Game mit der Hauptfigur Lula, eine Pornofilmproduzentin, der kurz vor dem Start ihres neuen Films drei ihrer Hauptdarstellerinnen entführt werden. Der Preview war in den USA im Mai 2002. In dem Storyboard des Spiels sind Sexszenen mit verschiedenen Partnern, sowie Striptease und Poledance-Szenen miteingebaut. Diese wurden über das motion capturing-Verfahren mit realen Akteuren in den Rechner eingespielt.

Momentan bereitet die Animation der Kleidung und der Haare und der Gesichter aufgrund unzureichender Rechnerleistung noch Probleme. Die Kleidung, wie die Haare müssen den Körperbewegungen entsprechend folgen und auf die dargestellte physikalische Umwelt reagieren können, z.b. beim Laufen oder beim Fahrtenwind auf einem Fahrzeug. Bis jetzt wurde das Problem gelöst indem man Haare und Kleidung „intelligent“ macht, indem man sie in Abhängigkeit von ihren virtuellen Umgebungsdaten bringt. Hierzu muss jedes Charakteristika einer virtuellen Umwelt und ihrer Bedingung jeweils definiert werden – die daraus entwickelten Parameter können dann auf das Verhalten von Haar und Kleidung angewendet werden.

.

Schon seit längerem wird daran gearbeitet „Meshes“ herzustellen, die in Echtzeit ihre eigenen Bewegungen generieren, diese Meshes verfügen über Bibliotheken möglicher Verhaltensweisen und Visualisierungsroutinen. Die digitale Repräsentation eines Menschen, welcher sich ohne Steuerung durch sein Original, relativ frei im Cyberspace bewegen kann, nennt man auch „Klon“, „Agent“ oder „Avatar“. Ein Beispiel sind die Forschungsarbeiten des „Boston Dynamics Lab“. Deren Meshes , dessen Bewegungsdaten durch Motion Capturing von Tänzerinnen gewonnen wurden,  können nach vorgegebener Musik in unterschiedlichen Stilen, Zeiten und Dynamiken tanzen.

.

Eine kommerzielle Anwendung dieses Verfahrens ist „Dream Stripper“ von der Firma Ensign Entertainment Inc. Der User kann zwischen verschiedenen Frauentypen, Bekleidungen, Musiken und Tänzen auswählen und hat die Kontrolle über drei feststehende Kamerapositionen und einer 3D-Kamera, die den Blickwinkel festlegen.

Ein weiteres Beispiel bietet die Filmproduktion von „Herr der Ringe“. Stephen Regelous hat “Massive” entwickelt, ein Special-Effect-Programm mit dessen Hilfe die Schlachtenszenen in der „Herr der Ringe“-Trilogie realisiert wurden, indem man große Gruppen von digitalen Kriegern per Computer generierte.  Mit diesem Programm wurde es möglich das die einzelnen Figuren sich relativ autonom in ihrer digitalen Umwelt bewegen konnten. Jeder dieser „Agenten“ hat tausende von Verhaltensmöglichkeiten einprogrammiert, so dass sie bei einer Platzierung in eine vordefinierte Simulation „autonome“ Entscheidungen treffen können. „Massive“, das Gehirn der Agenten, definiert wie sie sehen und hören, wie schnell sie rennen und im welchen Kampfmodus sie agieren.

.

Diese digitale Animationsverfahren ähneln in bestimmten Punkten der Arbeit eines Choreographen mit seinen Tänzern. Die Positionen der Figuren müssen im Raum festgelegt und ihre Bewegungen für jeden Zeitabschnitt definiert werden. Diese Arbeit ist bis jetzt – auch wenn in den letzten Jahren mehr Abläufe automatisiert und mehr und mehr dem Computer mit speziellen Programmen zur Berechnung überlassen werden – immer noch sehr zeitaufwendig. Hinter einem vollentwickelten virtuellen Charakter stand zu dieser Zeit noch ein 200-300 Personen-Team von Programmierern, Technikern, Designern, etc., so dass die aufgewendeten Kosten noch in keinem Verhältnis zu den Gagen realer menschlicher Schauspieler stehen. Jeff Kleiser, Mitbegründer und President der „Kleiser-Walczak Construction Company“ glaubt nicht das es möglich sein wird, das gesamte Repertoire menschlicher Schauspielleistung zu scannen und zu einer Routine zu entwickeln in der es im Rahmen eines automatisierten Animations-System genutzt werden kann. Die Möglichkeiten bestehen zwar, setzen aber ein personalaufwendiges Verfahren unter einer professionellen künstlerischen und technischen Leitung voraus.

.

Will Anielewicz einer der Altmeister der Computeranimation bei Industrial Light and Magic (ILM), geht hingegen davon aus das schon bald sämtliche Stunts nicht mehr von Menschen gedoubelt, sondern nur noch am Computer generiert werden. Er hält es bei den momentanen Entwicklungsschüben der Technik und Programmierarbeit für möglich, das bereits in einigen Jahren ein digitaler Schauspielcharakter für den Oscar nominiert werden könnte. Anielewicz war in den 80ern u.a. Mitarbeiter der kanadischen Firma „Alias Research“,  später „Alias/Wavefront“, die „Maya 5“, eine Computer-Animation-Software entwickelt haben. Chris Mitchell, ein weiterer Mitarbeiter von „Industrial Light and Magic”, hat für Clint Eastwood’s „Space Cowboys” digitale Doppelgänger der realen Schauspieler für die Weltraum-Außenaufnahmen entwickelt, die so gut sind, dass nur wenige der Kinozuschauer einen Unterschied feststellten. Auch in anderen Filmproduktionen wurden einzelne menschliche Charaktere durch digitale Double ersetzt. So wurden in den Filmen „The Crow“ und „Gladiator“, nachdem in beiden jeweils einer der menschlichen Hauptakteure während der Dreharbeiten verstarb, mit Hilfe der digitalen Technik Clone der Schauspieler hergestellt.

“Industrial Light and Magic” war  die Größte im hochtechnisierten Special Effects Business Hollywoods. Sie wurde bereits in den 70er Jahren von George Lucas gegründet und ist in den Suburbs von San Francisco lokalisiert. Inzwischen hat ILM allerdings Konkurrenz bekommen. „Sony Pictures Imageworks” und “ESC” haben einen Großteil der Effekte bei “Matrix Reloaded” kreiert und der Oscar für Special Effects ging im Jahr 2002 an die Neuseeländer „Weta Digital“ für die von ihnen entwickelte Figur des „Gollums“.

.

Neben dem Ablösen teurer und gefährlicher menschlicher Stunts durch Simulationen am Computer, der Generierung von Superhelden und Phantasiegestalten und in Einzelfällen die aufwendige Herstellung individueller menschlicher Charaktere, liegt ein weiteres zukünftiger Arbeitsbereich in der Produktion von Avataren, die als Moderatoren im interaktiven Fernsehen den Zuschauer durch sein individualisiertes Programm begleiten. Ein Bereich an der auch die graphische Konzeption des E-Learnings anknüpfen wird. Mit neuen Chip-Generationen und einer intelligenten, globalen Systemvernetzung, inclusive Massenvernetzung, könnten diese Zukunftsaussichten in wenigen Jahrzehnten, bald Realität sein. Realfilm-Produktionen würden dann eher die Ausnahme als die Regel darstellen. Dies ist u.a. einer der Forschungsansätze des “Virtual Reality Lab” (VRlab), bereits 1988 gegründet und hervorgegangen aus dem “Computer Graphics Lab“ (LIG) des schweizerischen „Swiss Federal Institute of Technology“ (EPFL) in Lausanne. Sie sind eines der führenden Entwicklungslabors in den Bereichen “real-time Virtual Humans” und interaktiven, immersiven virtuellen Enviroments.

Das Virtual Reality Lab (VRlab), früher Computer Graphics Lab (LIG), in Lausanne wurde 1988 von Professor Daniel Thalmann gegründet und gilt als eines der führenden Entwicklungslabore im Bereich menschlicher Avatare, immersiver virtueller Umgebungen, gekoppelter realer und virtueller Interaktion und Augmented Reality. Das Vrlab bildet auf akademischen Niveau in den Bereichen Computergraphik und  virtueller Realität aus und war 2006 maßgeblich an 7 europäischen und 4 nationalen Forschungsprojekten involviert. Einige dieser EU-Projekte sind auf die mögliche Anwendung im Bildungssektor ausgerichtet, wie das „Lifeplus“-Projekt, welches den Usern ein Nachempfinden und Erleben des antiken Pompeii mit Hilfe von Augmented Reality-Applikationen und 3D-Graphiken auf der narrativen Basis der alten Wandfresken ermöglicht. Ein weiterer Forschungsschwerpunkt ist die Mensch-Maschinen-Schnittstelle, bzw. die Entwicklung neuer Interface-Prototypen. Das 2004 gestartete „Humaine“-Projekt arbeitet an der Entwicklung sogenannter gefühlsorientierter Systeme, die in der Lage sind menschliche Gefühlszustände zu registrieren, ins Modell zu übertragen und direkt am Menschen zu beeinflussen. Ein weiteres Projekt ist das “Enactive”-Interface. Während die traditionelle Interaktion der Informationsvermittlung zwischen Computer und Mensch auf symbolischer (z.b.Schrift und Mathematik) und bildhafter (z.b.Illustrationen, Dia-und Pictogramme) Ebene stattfindet, mit dem Sinnesorgan der Augen als zentralen Mittelpunkt, setzt “Enactive” auf kognitive Prozesse, die über die verschiedenen aktiven Handbewegungen ausgelöst werden. Weitere Forschungsbereiche betreffen das haptische Interface, die Realtime-Simulation von Menschenmengen für interaktive virtuelle Umgebungen wie Computerspiele und Trainingssystemen und den Einsatz von Virtual Reality für die Psychotherapie. Allein im Jahr 2006 war das Vrlab an über 30 europäischen und internationalen Konferenzen und Symphosien beteiligt.

http://vrlab.epfl.ch/

Eine 2006 abgehaltene  psychologische Studie am University College London, bei dem das umstrittene Experiment von Milgram aus den 60er mit Hilfe von VR nachgestellt wurde, kam zu überraschenden Ergebnissen. Das ursprüngliche Experiment schuf in einem inszenierten Rahmen mit einem klaren Autoritätsverhältnisses zwischen „Wissenschaftlern“ und Versuchspersonen eine Situation, in der die Versuchsteilnehmer auf Anweisung anderen Partzipanten wissentlich mittels Stromschlägen Schmerzen zufügten. In dem nachempfundenen Experiment wurden die Versuchsteilnehmer aufgefordert den virtuellen Personen Schmerzen zuzufügen. Obwohl sich die Partizipanten der Tatsache, das es sich um eine 100% Simulation handelte, bewusst waren, reagierten viele in einer Art und Weise als wenn diese Situation real sei. Aufgrund dieser Ergebnisse sehen die Wissenschaftler in VR ein geeignetes Medium um menschliches Verhalten in Extremsituationen besser erforschen zu können, wie es auch neue Horizonte in der Behandlung von psychisch erkrankten Menschen eröffnet.

.

Während für die Einen die Aufgaben der Computeranimation im Bereich der Science Fiction-, Phantasie- und Horror-Genres liegen, um der Schaulust des Publikums nach immer realeren Fiktionen gerecht werden zu können, gehen andere weiter. Die Frage wo die Grenzen der Computeranimation in Zukunft liegen werden, könnte sich an dem Punkt stellen, wo wirkliches Schauspiel nicht nur als visuell sichtbarer Körperausdruck definiert wird, sondern in einem direkten Zusammenhang mit dem Seelenleben des menschlichen Akteurs verstanden wird.

.

Es wird auf jeden Fall die Unterhaltungsindustrie und nicht der Bildungssektor sein, die diese neuen Verfahren etablieren werden Es ist gut möglich, dass die Sexindustrie, inzwischen zu einem milliardenschweren Markt angewachsen, mit ihrer zunehmenden Vernetzung zum regulären E-Business und den Großkonzernen, in diesem Zusammenhang eine Vorreiterfunktion einnehmen wird. Zwar wurden digitale visuelle Effekte bis jetzt in konventionellen Pornofilmproduktionen eher selten eingesetzt, obwohl es immer heißt, das die Sexindustrie sehr offen für technologische Innovationen ist. Dies lag bis jetzt sicherlich an den hohen Produktions- bzw. Anschaffungskosten dieser Technologie, die aber in absehbarer Zeit deutlich sinken werden. Außerdem sind im personellen Bereich dieser Produktionen oft noch althergebrachte Attitüden dieses Business vorherrschend. Dies wird sich aber spätestens mit der nächsten Generation von Produzenten und Regisseuren ändern. Die ständige Nachfrage der Konsumenten nach neuem, unkonventionellen Material wird auf jedem Fall bald zum intensiveren Einsatz von visuellen Effekten führen. Der Erfolg der „Whorelore“-Serie, die zwar noch konventionell produziert wird, zeigt das der Markt bereits vorhanden ist. Dann würden Fragen des Copyrights zu dominierenden Kriterien werden– wer kann welchen Charakter nutzen und produzieren? Welche Stimmen können benutzt werden? Sind bestimmte Gesichts- und Bewegungscharakteristika bestimmten Personen zugeordnet? Wer hat das Recht  berühmte, bereits gestorbene Personen in virtueller Umgebung wieder lebendig werden zu lassen?

.

Seit 2006 gibt es ein kommerziell erfolgreiches pornographisches Pendant zu dem MPOG „World of Warcraft“ – „Whorelore“, produziert in Los Angeles von „Dez“, einem ehemaligen Pornodarsteller der inzwischen selber produziert. Ausstattung und Themen der Produktion orientieren sich an dem MultiPlayerOnlineGame, dementsprechend sind die Darsteller beispielsweise als Elfen oder Trolle kostümiert und die Ausstattung weist oft ein mittelalterliches Ambiente auf. Im Verhältnis zu vielen anderen Pornoproduktionen, die oft innerhalb eines Tages abgedreht werden, benötigt eine halbstündige Episode von „Whorelore“ eine einmonatige Vorbereitungszeit und eine einwöchige Drehzeit, da mehr Wert auf Ausstattung, Maske und Choreographie gelegt werden. Im März 2008 waren sieben halbstündige Episoden fertiggestellt, die jeweils für $7,99 bis 8,99 im Netz erhältlich sind.

.

Eine Vorstellung wie die zukünftige Entertainmentindustrie sich entwickeln könnte, präsentiert der deutsche Künstler Michael Najjar (geb. 1966, Studium an der Kunsthochschule Berlin) auf seiner Webseite mit dem Projekt „End of Sex. As we known it“     http://www.michaelnajjar.com/flash.html

Bernd Graff, “Der Körper ist ein Double für das Double des Körpers“

http://www.vrconsulting.it/vhd/VHD_0070.asp

http://www.kuffner.org/james/

http://robotics.stanford.edu/~latombe/cs99k/2000/

http://www.awn.com/

http://vhil.stanford.edu/projects/


0 Responses to “. Computeranimation – ein Rückblick und Aussichten”



  1. Schreibe einen Kommentar

Schreibe einen Kommentar

Trage deine Daten unten ein oder klicke ein Icon um dich einzuloggen:

WordPress.com-Logo

Du kommentierst mit Deinem WordPress.com-Konto. Abmelden / Ändern )

Twitter-Bild

Du kommentierst mit Deinem Twitter-Konto. Abmelden / Ändern )

Facebook-Foto

Du kommentierst mit Deinem Facebook-Konto. Abmelden / Ändern )

Google+ Foto

Du kommentierst mit Deinem Google+-Konto. Abmelden / Ändern )

Verbinde mit %s


%d Bloggern gefällt das: