Mimik und Gestik
Transcription
Mimik und Gestik
Mimik und Gestik bei virtuellen Charakteren im Rahmen des Hauptseminars 3D-Modellierung und Virtuelle Präsenz“, SS2007 ” Nils Reichardt Inhaltsverzeichnis 1 2 3 Mimik 1.1 Was ist Mimik? . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2 Warum ist Mimik bei virtuellen Charakteren von Bedeutung? 1.2.1 Interaktion Computer-Mensch. . . . . . . . . . . . . . . 1.2.2 Interaktion Mensch-Mensch. . . . . . . . . . . . . . . . 1.3 Funktionsweise des menschlichen Gesichts . . . . . . . . . . . 1.3.1 Anatomie. . . . . . . . . . . . . . . . . . . . . . . . . . . 1.3.2 Beispiele häufiger Gesichtsausdrücke [10]. . . . . . . . 1.4 Technologien zur Erstellung künstlicher Gesichter . . . . . . . 1.4.1 Skelettanimation und Einflusskörper. . . . . . . . . . . 1.4.2 Draht-Verformer. . . . . . . . . . . . . . . . . . . . . . . 1.4.3 Animation der Augäpfel. . . . . . . . . . . . . . . . . . 1.4.4 Blendshapes/Morphing. . . . . . . . . . . . . . . . . . . 1.4.5 Facial Action Coding System (FACS). . . . . . . . . . . 1.4.6 MPEG-4. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 1 2 2 4 5 5 6 8 8 9 10 11 12 13 Gestik 2.1 Was ist Gestik? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.2 Warum ist Gestik bei virtuellen Charakteren von Bedeutung? . . . . 2.3 Beispiele häufiger Gesten . . . . . . . . . . . . . . . . . . . . . . . . . 2.3.1 Gruß. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.3.2 Zustimmung oder Ablehnung. . . . . . . . . . . . . . . . . . . 2.3.3 Aufforderung zum Folgen. . . . . . . . . . . . . . . . . . . . . 2.3.4 Aufforderung zum Anhalten bzw. Bitte um Aufmerksamkeit. 2.3.5 Freude über einen Erfolg. . . . . . . . . . . . . . . . . . . . . . 2.4 Darstellung von Gestik bei virtuellen Charakteren . . . . . . . . . . . 2.4.1 STEP. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14 14 15 16 16 17 17 17 17 17 17 Zusammenfassung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19 1 1 1.1 Mimik Was ist Mimik? Unter Mimik versteht man die Stellung und Bewegung der verschiedenen Anteile des Gesichtes im Zusammenspiel. Dazu gehören Gesichtshaut, Augäpfel, Lippen, Zähne und Zunge. Mimik ist für Menschen eine der wichtigsten Formen nonverbaler Kommunikation, oft in Verbindung mit Gestik (siehe Kapitel 2) [1] [2]. Mimik tritt im Übrigen auch bei Tieren auf [2]. Abbildung 1: Ein Mann lacht (Theodore Roosevelt) [15]. Abbildung 2: Mutmaßlich skeptischer Blick eines Affen [14]. 1.2 1.2.1 Warum ist Mimik bei virtuellen Charakteren von Bedeutung? Interaktion Computer-Mensch. Schon seit es Computerspiele und virtuelle Welten gibt, wird alles technisch mögliche versucht, die Computergrafik an die Realität anzunähern. Ein Großteil der Motivation, eine solche Software zu nutzen, kommt dadurch zustande, dass der Benutzer in die virtuelle Welt eintaucht“, d.h. sie als in sich schlüssig und – wenn auch fiktional – als glaubhaft ak” zeptiert ( Suspension of disbelief“) [3]. In den 90er Jahren kamen die ersten Spiele auf den ” Markt, in denen 3D-Charaktere über animierte Gesichter verfügten. Auch die Vermittlung von Lehrinhalten und Hilfestellungen vom Computer an den Menschen kann von Avataren mit animiertem Gesicht profitieren: In einer Versuchsreihe von 2 Pandzic, Ostermann und Millen konnte nachgewiesen werden, dass Gesichtsanimation speziell unter schlechten Tonbedingungen hilft, Sprache zu verstehen, dass sich die Akzeptanz von Wartezeiten erhöht und die Anwendung insgesamt attraktiver wird [4]. Abbildung 3: Ein Beispiel für komplexe Mimik bei Charakteren: Knights of the Old Republic 2 (2005). 3 Abbildung 4: Eine etwas andere Anwendung von Mimik: In Wolfenstein 3D (1992) wurde dem Spieler der eigene Avatar durch ein animiertes Portrait am unteren Bildrand näher gebracht. 1.2.2 Interaktion Mensch-Mensch. In Online-Welten kommunizieren Nutzer untereinander entweder traditionell über Texteingabe oder – in jüngerer Zeit – über Sprachkonferenzsoftware (Voice-Chat). Um dabei den visuellen Kanal unterstützend mitzubenutzen, wird oft eine Kombination aus Mimik und Gestik (siehe Kapitel 2) eingesetzt, so genannte Emotes“, welche über Menüs, Hotkeys oder ” Tastaturbefehle erreichbar sind. Beispiele für Online-Welten, die Emotes benutzen sind Second Life [5] und World of Warcraft [6]. Abbildung 5: Second Life: Auswählen des Emotes excuseme“. ” 4 Abbildung 6: Der Gesichtsausdruck verändert sich, um Empörung zu zeigen. Denkbar wäre auch, den Gesichtsausdruck des Nutzers mittels einer Webcam zu erkennen, und die Mimik des Online-Avatars darauf abzustimmen. Technisch ist dies allerdings noch nicht möglich, da Algorithmen zur Mimikerkennung noch zu fehleranfällig sind [7]. 1.3 1.3.1 Funktionsweise des menschlichen Gesichts Anatomie. Der Mensch hat 26 Gesichtsmuskeln, man kann jedoch 8 von ihnen als wesentlich für die Mimik ansehen [8]. Da die Mimik vor allem von Mund und Augen, den beweglichsten Teilen des Gesichts, bestimmt wird, sind besonders die dort ansetzenden Muskeln von Bedeutung [9]. 5 Abbildung 7: Gesichtsmuskeln [8]. 1.3.2 Beispiele häufiger Gesichtsausdrücke [10]. Traurigkeit: Die Augenbrauen werden nach innen und oben gezogen, wodurch sich die Stirn runzelt. Die Augen sind etwas verengt und die Lippen leicht zusammengepresst. Ärger: Die Augenbrauen werden nach innen und unten gezogen. Auch hier sind die Augen etwas verengt und die Lippen leicht zusammengepresst. 6 Freude: Die Wangenmuskulatur zieht nach oben und schiebt gegen die unteren Augenlider. Die Mundwinkel werden nach außen und oben gezogen, der Mund ist offen, wobei die Zähne nur wenig auseinander gehen. Furcht: Die Augenbrauen werden nach innen und oben gezogen. Die Augen sind relativ weit geöffnet und die Mundwinkel werden bei etwas geöffnetem Mund nach unten gezogen. Ekel: Dieser Gesichtsausdruck basiert auf Asymmetrie: Die Wangenmuskulatur zieht auf einer Seite den Mund nach oben. Die Nase wird dadurch auf dieser Seite leicht gerümpft. 7 Erstaunen: Das gesamte Gesicht wird in die Länge gezogen, da die Augenbrauen bei stark geöffneten Augen weit nach oben gehen und der Mund relativ weit offen steht. Die Zähne bleiben von den Lippen fast vollständig verdeckt. 1.4 1.4.1 Technologien zur Erstellung künstlicher Gesichter Skelettanimation und Einflusskörper. Skelettbasierte Animation, wie sie in den meisten Fällen für die Bewegung der Gliedmaßen eines virtuellen Charakters zum Einsatz kommt, kann in begrenztem Maße auch für die Animation eines Gesichts verwendet werden. Häufig wird der Kopf des Chrakters mit einem Kieferknochen versehen, der in seiner Bewegung stark gewichteten Einfluss auf die Gitterpunkte am Kinn und an der Unterlippe hat. Zusätzlich kann ein solcher Bewegungsapparat durch Einflusskörper, die ungefähr die Form eines Muskels haben, verbessert werden. Ein solcher Körper (z.B. eine Kugel), kann darauf programmiert werden, sich synchron zu der Bewegung eines Knochens in die Länge zu ziehen und flacher zu werden. Durch seinen Einfluss auf die Position von Gitterpunkten des Modells, kann sichtbare Muskelkontraktion unter der Haut simuliert werden. 8 Abbildung 8: Einsatz eines Kieferknochens in Maya. Bei der Gesichtsanimation ist es jedoch nicht üblich, eine Vielzahl von Knochen einzusetzen. Vor allem für die Rotation der Augäpfel ist diese Technik nicht praktikabel. 1.4.2 Draht-Verformer. Draht-Verformer ( Wire Deformers“ in Maya) sind Kurven, denen eine Menge ( Cluster“) ” ” Gitterpunkte untergeordnet ist, sodass sich bei einer Verschiebung der Kurve im Raum die Gitterpunkte mitbewegen. Eine derartige Beziehung lässt sich in 3D-Modellierungs/Animations-Software auch zwischen anderen Objekten herstellen (wie bei Muskelsimulation), oft werden hier jedoch Kurven verwendet, da sie einfach an die Gesichtskonturen anzupassen sind und da sie meist standardmäßig von der Software beim Rendern ignoriert werden. 9 Abbildung 9: Ein Drahtverformer zur Steuerung einer Augenbraue. Der Einflussbereich der Draht-Verformer kann mit einem sogenannten Fall-Off“ verse” hen werden, sodass weiter entfernte Gitterpunkte die Bewegung des Verformers weniger stark imitieren als nahe liegende. Dadurch wirkt die Verformung des Gesichts weniger abgestuft und dadurch realistischer. 1.4.3 Animation der Augäpfel. Die Bewegung der Augäpfel ist vergleichsweise eingeschränkt: Sie rotieren mittig um zwei Achsen, und beide Augäpfel bewegen sich (normalerweise) synchron. In Animationssoftware kann hierfür eine Beziehung zwischen den Augäpfeln und (beispielsweise) einem Kreis eingerichtet werden. In diesem Fall wird die Rotation der Augäpfel mit der Position des Kreises verknüpft, sodass die Augen den Kreis als Ziel verfolgen“ ( Look-At Constraint“). ” ” 10 Abbildung 10: Drehen der Augäpfel mittels eines Ausrichtungsziels. 1.4.4 Blendshapes/Morphing. Um verschiedene Verformungen des Gesichtes zu Gesichtsausdrücken zu kombinieren, bietet sich ein Verfahren an, das unter Namen wie Blendshapes“ (Maya) oder Morphing“ ” ” (3ds Max) bekannt ist. Hierbei werden Duplikate des Modellkopfes mit verschiedener Mimik modelliert (auch unter Verwendung oben genannter Techniken) und von der Software mit dem Original verglichen. Das Programm erkennt nun die Unterschiede in der Stellung der Gitterpunkte des Modellkopfes und stellt dem Animateur Mittel zur Verfügung, die verschiedenen Gesichtsbewegungen gewichtet zu einer Mimik zu kombinieren. In Maya gibt es beispielsweise ein Fenster mit Schiebereglern, wobei je einem Schieberegler ein Kopfduplikat zugrunde liegt. 11 Abbildung 11: Blendshapes in Maya. 1.4.5 Facial Action Coding System (FACS). Das Facial Action Coding System ist ein Standard zur Beschreibung von Mimik, der schon 1976 entwickelt wurde [11]. Er unterteilt das Gesicht in 46 sogenannte Action Units“ (AUs), ” die jeweils eine elementare Muskelbewegung darstellen [10]. Elementar bedeutet hierbei, dass beispielsweise einem Muskel, der sich in zwei verschiedene Richtungen zusammenziehen kann (Flächenmuskel), zwei unterschiedliche AUs zugeteilt werden. Es werden allerdings nur Muskelbewegungen berücksichtigt, die den Gesichtsausdruck sichtbar verändern [10]. Um anzugeben, wie stark eine Muskelbewegung sichtbar ist (es geht hierbei um das Resultat, nicht um den tatsächlichen Einsatz des Muskels), wird eine Skala von A“ (kaum ” sichtbar) bis E“ (Obergrenze der Bewegungsfähigkeit) verwendet [11]. ” 12 Tabelle 1: Action Units im FACS (Auszug) [10]. AU 1 2 4 20 22 23 24 41 43 45 46 FACS-Bezeichnung beteiligte Muskeln Inner Brow Raiser Frontalis, Pars Medialis Outer Brow Raiser Frontalis, Pars Lateralis Brow Lowerer Depressor Glabellae, Depressor Supercilli, Corrugator Lip Stretcher Risorius Lip Funneler Orbicularis Oris Lip Tightner Orbicularis Oris Lip Pressor Orbicularis Oris Lid Droop Entspannung des Levator Palpebrae Superioris Eyes Closed Entspannung des Levator Palpebrae Superioris Blink Entspannung des Levator Palpebrae und Anspannung des Orbicularis oculi, Pars Palpebralis Wink Orbicularis Oculi Abbildung 12: Beispiel für die Umsetzung der Action Unit 2 an einem Gesichtsmodell [10]. 1.4.6 MPEG-4. Auch der 1998 vorgestellte MPEG-4-Standard befasst sich (unter anderem) mit der Animation virtueller Gesichter, insbesondere mit der lippensynchronen Animation eines Gesichtes zu gesprochenem Text. Um ein virtuelles Gesicht nach dem MPEG-4-Standard zu definieren, werden sogenannte Face Definition Parameter“ (FDP) angegeben. Die FDP beinhal” ten einen Satz von 84 Gitterpunkten (Feature Points), welche die wichtigsten Stellen des Gesichts markieren und dazu optionale Parameter wie Gesichtstextur, Geschlecht, Haarschnitt/Haarfarbe oder eine eventuelle Brille [10]. 13 Abbildung 13: Feature Points in MPEG-4 [10]. Die Animation des virtuellen Gesichts erfolgt durch 68 Facial Animation Parameter“ ” (FAP), die auf Bewegungen der Feature Points abgebildet werden [10]. 2 Gestik 2.1 Was ist Gestik? Gestik bezeichnet die Stellung und Bewegung des Körpers, insbesondere der Arme, der Hände und des Kopfes, zum Zwecke der Kommunikation. Man unterscheidet drei Arten von Gesten [12] [13]: • Zeigegesten, z.B. das Ausrichten des Zeigefingers auf eine Person oder einen Gegenstand, • lexikalisierte Gesten, die ein Wort ersetzen können, wie beispielsweise das Nicken mit dem Kopf für ja“ oder ein nach oben zeigender Daumen bei geschlossener Hand ” für gut“, super“ etc. (besonders diese Art Gesten unterscheidet sich jedoch zwischen ” ” verschieden Kulturen), • ikonische Gesten, welche die Wirklichkeit stilisiert oder vereinfacht widerspiegeln, wie z.B. das Zusammenlegen der Handflächen an der Wange und Schräglegen des Kopfes für schlafen“ oder das Antippen des Kopfes mit dem Zeigefinger, um anzu” deuten, dass man jemanden für verrückt hält. Viele Gesten haben sich offenbar natürlich herausgebildet, andere wiederum sind Kulturspezifisch. Davon abgesehen gibt es auch Gesten die (innerhalb eines Kulturkreises) verschiedene Bedeutungen haben. Gestik unterscheidet sich sogar – wie z.B. auch Sprache und Handschrift – zwischen einzelnen Individuen [18]. 14 Abbildung 14: Uncle Sam“ zeigt mit dem Finger auf den Betrachter – eine Geste [13]. ” Zusätzlich zur (intentionalen) Gestik drücken sich Menschen auch subtiler und oft unbeabsichtigt durch ihren Körper aus. Den eigenen Körper gänzlich still zu halten, ist unmöglich. Der Körper muss (abgesehen vom Liegen) ständig durch kleine Ausgleichsbewegungen im Gleichgewicht gehalten werden, hinzu kommt die Bewegung des Brustkorbes durch die Atmung [19]. Selbst wenn es für die Wahrung des Gleichgewichts unnötig ist, wechseln Menschen oft ihre Haltung, z.B. aufgrund von Muskelermüdung [19]. Derartige Bewegungen können – wie Gestik – Ausdruck von Gefühlen sein. Beispielsweise deutet eine nach vorn geneigte Körperhaltung auf Schamgefühl und ungewöhnlicher Bewegungsdrang auf Nervosität hin. Abbildung 15: Veränderung der Körperhaltung [19]. 2.2 Warum ist Gestik bei virtuellen Charakteren von Bedeutung? Analog zur Mimik verleihen Gestik und Körpersprache einem virtuellen Charakter mehr Realitätsnähe und machen ihn dadurch in 3D-Welten interessanter für die Benutzer. Da Gestik wie Mimik die verbale Kommunikation auf non-verbaler Ebene unterstützt, ist sie sowohl bei Kommunikation zwischen Spielern mittels Emotes als auch bei Lehr- bzw. HilfsAvataren von Bedeutung (siehe Kapitel 1.2). 15 Abbildung 16: Gestik beim Ausführen des Emotes shrug“ in Second Life. ” 2.3 Beispiele häufiger Gesten Die folgenden Gesten sind besonders im Hinblick auf ihre Bedeutung in 3D-Welten ausgewählt. 2.3.1 Gruß. Die wohl universellste Form des Grüßens durch Gestik ist eine erhobene offene Hand, wobei es Variationen von nahe am Kopf bis weit abgestreckt gibt. Nähern sich zwei Personen zum formellen Gruße, kommt es meist zum Händeschütteln (westliche Kulturen), oder (in OstAsien) zur Verbeugung. Abbildung 17: Zwei verschiedene Gesten der Begrüßung: Hand zum Kopf links, Händeschütteln rechts [16]. 16 2.3.2 Zustimmung oder Ablehnung. In den meisten Kulturen entspricht das Nicken mit dem Kopf einem ja“ und das Kopfschütteln ” einem nein“. Es gibt jedoch Ausnahmen: In Griechenland beispielsweise, ist die Bedeutung ” umgekehrt, wobei dort beim Kopfschütteln der Kopf nur einmal leicht zu jeder Seite gedreht wird. 2.3.3 Aufforderung zum Folgen. Eine andere Person wird meistens mit einer Armbewegung in Richtung des angestrebten Zieles, oder aber nur durch eine heranwinkende Bewegung der Hand oder eines Fingers, zum Folgen aufgefordert. 2.3.4 Aufforderung zum Anhalten bzw. Bitte um Aufmerksamkeit. Ein hochgestreckter Arm mit offener Hand wird oft entweder als Halt!“ oder Achtung!“ ” ” verstanden. 2.3.5 Freude über einen Erfolg. Ein oder beide Arme werden hochgestreckt und die Hand meist zur Faust geballt. Abbildung 18: Nelson Mandela bringt sein Erfolgsgefühl zum Ausdruck [17]. 2.4 Darstellung von Gestik bei virtuellen Charakteren Um virtuelle Charaktere mit Gestik zu versehen, bedient man sich schon genannter Verfahren, wie skelettbasierter Animation und Muskelsimulation. Die Herausforderung liegt jedoch dabei, die primären Stellungen (z.B. stehen, sitzen) und Bewegungen (z.B. gehen, rennen, springen) eines Charakters mit den sekundären Animationen für Gestik und Körpersprache so zu verschmelzen, dass eine realitätsnahe Endbewegung bzw. -pose entsteht. Die unbeabsichtigten Bewegungen des Körpers aufgrund von Anatomie und Körpersprache können erzeugt werden, indem aus einer Datenbank vordefinierter Posen bzw. Animationen zufällig ausgewählt wird und wiederum eine geeignete Überblendung stattfindet [19]. 2.4.1 STEP. Eine Möglichkeit, Gestik durch eine Skriptsprache zu steuern, stellt STEP (Scripting Technology for Embodied Persona) dar [20]. Um einen virtuellen humanoiden Charakter ( Agent“ ” genannt) zu animieren, wird bei STEP ein Referenzkoordinatensystem festgelegt, wie es in 17 Abbildung 19 dargestellt ist. Dazu werden die verschiedenen Körperteile des Charakters hierarchisch definiert (Abbildung 20). Abbildung 19: Referenzkoordinatensystem für einen virtuellen Charakter [20]. Abbildung 20: Definition von Körperteilen [20]. Bewegungen können nun im Bewegungsraum ausgeführt werden, welcher wiederum 18 am Referenzkoordinatensystem ausgerichtet ist. So wird die Bewegung eines Armes beispielsweise durch turn(Agent, left arm, front, slow) ausgedrückt, wobei Agent“ der virtuelle Charakter, left arm“ der Körperteil, front“ ” ” ” eine bestimmte Zielposition im Bewegungsraum und slow“ eine vordefinierte Geschwin” digkeit ist. Das Verschieben des Charakters oder Teilen dessen, wird durch die Aktion move“ ange” boten. Die Syntax dieser Aktion ist analog zu turn“ und kann beispielsweise wie folgt ver” wendet werden: move(Agent, HumanoidRoot, position(1,0,10), time(2, second)) Zusätzlich zu den zwei grundlegenden Aktionen für Rotation und Verschiebung, gibt es in STEP Operatoren zum sequentiellen und parallelen Ausführen von Bewegungen und sowohl Verzweigungen als auch Schleifen. Abbildung 21: STEP-Bewegungsraum [20]. 3 Zusammenfassung Sowohl Mimik als auch Gestik spielen bei der Erstellung virtueller Charaktere eine bedeutende Rolle, da sie für mehr Realitätsnähe der 3D-Welt, bessere Verständlichkeit und Akzeptanz von Avataren und vereinfachte Kommunikation zwischen Nutzern sorgen. Technologien zur Erstellung von Mimik bei 3D-Charakteren sind skelettbasierte Animation, DrahtVerformer, spezielle Beziehungen zwischen 3D-Objekten und Blendshapes. 19 Für die Realisierung von Gestik bei virtuellen Charakteren bietet sich skelettbasierte Animation an, wobei primäre und sekundäre Bewegungen/Posen überblendet werden müssen. Unbewusste Änderungen der Körperhaltung sollten zufällig erzeugt werden. Es existieren Ansätze, Gestik über Skriptsprachen zu steuern, beispielsweise STEP. Literatur [1] Mimik. Wikipedia (deutsch). http://de.wikipedia.org/wiki/Mimik. Verwendete Version vom 09.05.2007, 17:46 unter http://de.wikipedia.org/w/index.php? title=Mimik&oldid=32481918. [2] Facial expression. Wikipedia (englisch). http://en.wikipedia.org/wiki/ Facial_expression. Verwendete Version vom 31.05.2007, 20:47 unter http: //en.wikipedia.org/w/index.php?title=Facial_expression&oldid= 134909890. [3] Suspension of disbelief. Wikipedia (englisch). http://en.wikipedia.org/ wiki/Suspension_of_disbelief. Verwendete Version vom 31.05.2007, 03:59 unter http://en.wikipedia.org/w/index.php?title=Suspension_of_ disbelief&oldid=134735030. [4] Igor S. Pandzic, Jörn Ostermann, David Millen. User evaluation: Synthetic talking faces for interactive services. The Visual Computer, 1999, Band 15, Nr. 7-8, S. 330-340. Online unter http://www.springerlink.com/content/0qr43jn2tmvxwf4x/fulltext. pdf. [5] http://www.secondlife.com [6] http://www.worldofwarcraft.com [7] Mimikerkennung. Wikipedia (deutsch). http://de.wikipedia.org/wiki/ Mimikerkennung. Verwendete Version vom 26.04.2007, 15:44 unter http://de. wikipedia.org/w/index.php?title=Mimikerkennung&oldid=31015718. [8] Mimische Muskulatur. Wikipedia (deutsch). http://de.wikipedia.org/wiki/ Mimische_Muskulatur. Verwendete Version vom 28.04.2007, 10:33 unter http: //de.wikipedia.org/w/index.php?title=Mimische_Muskulatur&oldid= 31084742. [9] Gesicht. Wikipedia (deutsch). http://de.wikipedia.org/wiki/Gesicht. Verwendete Version vom 30.05.2007, 01:52 unter http://de.wikipedia.org/w/ index.php?title=Gesicht&oldid=32502312. [10] Dietmar Jackèl, Stephan Neunreither, Friedrich Wagner. Methoden der Computeranimation. Springer, 2006, S. 118, 125-127, 137-139. [11] Facial Action Coding System. Wikipedia (deutsch). http://de.wikipedia. org/wiki/Facial_Action_Coding_System. Verwendete Version vom 06.05.2007, 14:18 unter http://de.wikipedia.org/w/index.php?title=Facial_Action_ Coding_System&oldid=31434586. [12] Gestik. Wikipedia (deutsch). http://de.wikipedia.org/wiki/Gestik. Verwendete Version vom 29.03.2007, 12:56 unter http://de.wikipedia.org/w/index. php?title=Gestik&oldid=29832729. 20 [13] Gesture. Wikipedia (englisch). http://en.wikipedia.org/wiki/Gesture. Verwendete Version vom 19.05.2007, 04:38 unter http://en.wikipedia.org/w/ index.php?title=Gesture&oldid=131938806. [14] Category: Facial expression. Wikimedia Commons. http://commons.wikimedia. org/wiki/Category:Facial_expression. [15] Category: Laughter. Wikimedia Commons. http://commons.wikimedia.org/ wiki/Category:Laughter. [16] Category: Handshakes. Wikimedia Commons. http://commons.wikimedia.org/ wiki/Category:Handshakes. [17] http://www.britannica.com/eb/art-92121 [18] Kay M. Stanney (Hrsg.). Handbook of Virtual Environments. Lawrence Erlbaum Associates, 2002, S. 224-227. [19] Michael Dickheiser (Hrsg.). Game Programming Gems 6. Charles River Media, 2006, S. 409-421. [20] Zhisheng Huang, Anton Eliëns, Cees Visser. STEP: A Scripting Language for Embodied Agents. Online unter http://wasp.cs.vu.nl/step/steppackage/paper/ step.pdf. 21