Mimik und Gestik

Transcription

Mimik und Gestik
Mimik und Gestik bei virtuellen Charakteren
im Rahmen des Hauptseminars 3D-Modellierung und Virtuelle Präsenz“, SS2007
”
Nils Reichardt
Inhaltsverzeichnis
1
2
3
Mimik
1.1 Was ist Mimik? . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.2 Warum ist Mimik bei virtuellen Charakteren von Bedeutung?
1.2.1 Interaktion Computer-Mensch. . . . . . . . . . . . . . .
1.2.2 Interaktion Mensch-Mensch. . . . . . . . . . . . . . . .
1.3 Funktionsweise des menschlichen Gesichts . . . . . . . . . . .
1.3.1 Anatomie. . . . . . . . . . . . . . . . . . . . . . . . . . .
1.3.2 Beispiele häufiger Gesichtsausdrücke [10]. . . . . . . .
1.4 Technologien zur Erstellung künstlicher Gesichter . . . . . . .
1.4.1 Skelettanimation und Einflusskörper. . . . . . . . . . .
1.4.2 Draht-Verformer. . . . . . . . . . . . . . . . . . . . . . .
1.4.3 Animation der Augäpfel. . . . . . . . . . . . . . . . . .
1.4.4 Blendshapes/Morphing. . . . . . . . . . . . . . . . . . .
1.4.5 Facial Action Coding System (FACS). . . . . . . . . . .
1.4.6 MPEG-4. . . . . . . . . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
1
1
2
2
4
5
5
6
8
8
9
10
11
12
13
Gestik
2.1 Was ist Gestik? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.2 Warum ist Gestik bei virtuellen Charakteren von Bedeutung? . . . .
2.3 Beispiele häufiger Gesten . . . . . . . . . . . . . . . . . . . . . . . . .
2.3.1 Gruß. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.3.2 Zustimmung oder Ablehnung. . . . . . . . . . . . . . . . . . .
2.3.3 Aufforderung zum Folgen. . . . . . . . . . . . . . . . . . . . .
2.3.4 Aufforderung zum Anhalten bzw. Bitte um Aufmerksamkeit.
2.3.5 Freude über einen Erfolg. . . . . . . . . . . . . . . . . . . . . .
2.4 Darstellung von Gestik bei virtuellen Charakteren . . . . . . . . . . .
2.4.1 STEP. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
14
14
15
16
16
17
17
17
17
17
17
Zusammenfassung
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
19
1
1
1.1
Mimik
Was ist Mimik?
Unter Mimik versteht man die Stellung und Bewegung der verschiedenen Anteile des Gesichtes im Zusammenspiel. Dazu gehören Gesichtshaut, Augäpfel, Lippen, Zähne und Zunge. Mimik ist für Menschen eine der wichtigsten Formen nonverbaler Kommunikation, oft
in Verbindung mit Gestik (siehe Kapitel 2) [1] [2]. Mimik tritt im Übrigen auch bei Tieren auf
[2].
Abbildung 1: Ein Mann lacht (Theodore Roosevelt) [15].
Abbildung 2: Mutmaßlich skeptischer Blick eines Affen [14].
1.2
1.2.1
Warum ist Mimik bei virtuellen Charakteren von Bedeutung?
Interaktion Computer-Mensch.
Schon seit es Computerspiele und virtuelle Welten gibt, wird alles technisch mögliche versucht, die Computergrafik an die Realität anzunähern. Ein Großteil der Motivation, eine
solche Software zu nutzen, kommt dadurch zustande, dass der Benutzer in die virtuelle
Welt eintaucht“, d.h. sie als in sich schlüssig und – wenn auch fiktional – als glaubhaft ak”
zeptiert ( Suspension of disbelief“) [3]. In den 90er Jahren kamen die ersten Spiele auf den
”
Markt, in denen 3D-Charaktere über animierte Gesichter verfügten.
Auch die Vermittlung von Lehrinhalten und Hilfestellungen vom Computer an den Menschen kann von Avataren mit animiertem Gesicht profitieren: In einer Versuchsreihe von
2
Pandzic, Ostermann und Millen konnte nachgewiesen werden, dass Gesichtsanimation speziell unter schlechten Tonbedingungen hilft, Sprache zu verstehen, dass sich die Akzeptanz
von Wartezeiten erhöht und die Anwendung insgesamt attraktiver wird [4].
Abbildung 3: Ein Beispiel für komplexe Mimik bei Charakteren: Knights of the Old Republic
2 (2005).
3
Abbildung 4: Eine etwas andere Anwendung von Mimik: In Wolfenstein 3D (1992) wurde
dem Spieler der eigene Avatar durch ein animiertes Portrait am unteren Bildrand näher
gebracht.
1.2.2
Interaktion Mensch-Mensch.
In Online-Welten kommunizieren Nutzer untereinander entweder traditionell über Texteingabe oder – in jüngerer Zeit – über Sprachkonferenzsoftware (Voice-Chat). Um dabei den
visuellen Kanal unterstützend mitzubenutzen, wird oft eine Kombination aus Mimik und
Gestik (siehe Kapitel 2) eingesetzt, so genannte Emotes“, welche über Menüs, Hotkeys oder
”
Tastaturbefehle erreichbar sind. Beispiele für Online-Welten, die Emotes benutzen sind Second Life [5] und World of Warcraft [6].
Abbildung 5: Second Life: Auswählen des Emotes excuseme“.
”
4
Abbildung 6: Der Gesichtsausdruck verändert sich, um Empörung zu zeigen.
Denkbar wäre auch, den Gesichtsausdruck des Nutzers mittels einer Webcam zu erkennen, und die Mimik des Online-Avatars darauf abzustimmen. Technisch ist dies allerdings
noch nicht möglich, da Algorithmen zur Mimikerkennung noch zu fehleranfällig sind [7].
1.3
1.3.1
Funktionsweise des menschlichen Gesichts
Anatomie.
Der Mensch hat 26 Gesichtsmuskeln, man kann jedoch 8 von ihnen als wesentlich für die Mimik ansehen [8]. Da die Mimik vor allem von Mund und Augen, den beweglichsten Teilen
des Gesichts, bestimmt wird, sind besonders die dort ansetzenden Muskeln von Bedeutung
[9].
5
Abbildung 7: Gesichtsmuskeln [8].
1.3.2
Beispiele häufiger Gesichtsausdrücke [10].
Traurigkeit:
Die Augenbrauen werden nach innen und oben gezogen, wodurch sich die Stirn runzelt.
Die Augen sind etwas verengt und die Lippen leicht zusammengepresst.
Ärger:
Die Augenbrauen werden nach innen und unten gezogen. Auch hier sind die Augen etwas
verengt und die Lippen leicht zusammengepresst.
6
Freude:
Die Wangenmuskulatur zieht nach oben und schiebt gegen die unteren Augenlider. Die
Mundwinkel werden nach außen und oben gezogen, der Mund ist offen, wobei die Zähne
nur wenig auseinander gehen.
Furcht:
Die Augenbrauen werden nach innen und oben gezogen. Die Augen sind relativ weit geöffnet und die Mundwinkel werden bei etwas geöffnetem Mund nach unten gezogen.
Ekel:
Dieser Gesichtsausdruck basiert auf Asymmetrie: Die Wangenmuskulatur zieht auf einer
Seite den Mund nach oben. Die Nase wird dadurch auf dieser Seite leicht gerümpft.
7
Erstaunen:
Das gesamte Gesicht wird in die Länge gezogen, da die Augenbrauen bei stark geöffneten
Augen weit nach oben gehen und der Mund relativ weit offen steht. Die Zähne bleiben von
den Lippen fast vollständig verdeckt.
1.4
1.4.1
Technologien zur Erstellung künstlicher Gesichter
Skelettanimation und Einflusskörper.
Skelettbasierte Animation, wie sie in den meisten Fällen für die Bewegung der Gliedmaßen
eines virtuellen Charakters zum Einsatz kommt, kann in begrenztem Maße auch für die Animation eines Gesichts verwendet werden. Häufig wird der Kopf des Chrakters mit einem
Kieferknochen versehen, der in seiner Bewegung stark gewichteten Einfluss auf die Gitterpunkte am Kinn und an der Unterlippe hat. Zusätzlich kann ein solcher Bewegungsapparat
durch Einflusskörper, die ungefähr die Form eines Muskels haben, verbessert werden. Ein
solcher Körper (z.B. eine Kugel), kann darauf programmiert werden, sich synchron zu der
Bewegung eines Knochens in die Länge zu ziehen und flacher zu werden. Durch seinen
Einfluss auf die Position von Gitterpunkten des Modells, kann sichtbare Muskelkontraktion
unter der Haut simuliert werden.
8
Abbildung 8: Einsatz eines Kieferknochens in Maya.
Bei der Gesichtsanimation ist es jedoch nicht üblich, eine Vielzahl von Knochen einzusetzen. Vor allem für die Rotation der Augäpfel ist diese Technik nicht praktikabel.
1.4.2
Draht-Verformer.
Draht-Verformer ( Wire Deformers“ in Maya) sind Kurven, denen eine Menge ( Cluster“)
”
”
Gitterpunkte untergeordnet ist, sodass sich bei einer Verschiebung der Kurve im Raum
die Gitterpunkte mitbewegen. Eine derartige Beziehung lässt sich in 3D-Modellierungs/Animations-Software auch zwischen anderen Objekten herstellen (wie bei Muskelsimulation), oft werden hier jedoch Kurven verwendet, da sie einfach an die Gesichtskonturen
anzupassen sind und da sie meist standardmäßig von der Software beim Rendern ignoriert
werden.
9
Abbildung 9: Ein Drahtverformer zur Steuerung einer Augenbraue.
Der Einflussbereich der Draht-Verformer kann mit einem sogenannten Fall-Off“ verse”
hen werden, sodass weiter entfernte Gitterpunkte die Bewegung des Verformers weniger
stark imitieren als nahe liegende. Dadurch wirkt die Verformung des Gesichts weniger abgestuft und dadurch realistischer.
1.4.3
Animation der Augäpfel.
Die Bewegung der Augäpfel ist vergleichsweise eingeschränkt: Sie rotieren mittig um zwei
Achsen, und beide Augäpfel bewegen sich (normalerweise) synchron. In Animationssoftware kann hierfür eine Beziehung zwischen den Augäpfeln und (beispielsweise) einem Kreis
eingerichtet werden. In diesem Fall wird die Rotation der Augäpfel mit der Position des
Kreises verknüpft, sodass die Augen den Kreis als Ziel verfolgen“ ( Look-At Constraint“).
”
”
10
Abbildung 10: Drehen der Augäpfel mittels eines Ausrichtungsziels.
1.4.4
Blendshapes/Morphing.
Um verschiedene Verformungen des Gesichtes zu Gesichtsausdrücken zu kombinieren, bietet sich ein Verfahren an, das unter Namen wie Blendshapes“ (Maya) oder Morphing“
”
”
(3ds Max) bekannt ist. Hierbei werden Duplikate des Modellkopfes mit verschiedener Mimik modelliert (auch unter Verwendung oben genannter Techniken) und von der Software
mit dem Original verglichen. Das Programm erkennt nun die Unterschiede in der Stellung
der Gitterpunkte des Modellkopfes und stellt dem Animateur Mittel zur Verfügung, die verschiedenen Gesichtsbewegungen gewichtet zu einer Mimik zu kombinieren. In Maya gibt
es beispielsweise ein Fenster mit Schiebereglern, wobei je einem Schieberegler ein Kopfduplikat zugrunde liegt.
11
Abbildung 11: Blendshapes in Maya.
1.4.5
Facial Action Coding System (FACS).
Das Facial Action Coding System ist ein Standard zur Beschreibung von Mimik, der schon
1976 entwickelt wurde [11]. Er unterteilt das Gesicht in 46 sogenannte Action Units“ (AUs),
”
die jeweils eine elementare Muskelbewegung darstellen [10]. Elementar bedeutet hierbei,
dass beispielsweise einem Muskel, der sich in zwei verschiedene Richtungen zusammenziehen kann (Flächenmuskel), zwei unterschiedliche AUs zugeteilt werden. Es werden allerdings nur Muskelbewegungen berücksichtigt, die den Gesichtsausdruck sichtbar verändern
[10]. Um anzugeben, wie stark eine Muskelbewegung sichtbar ist (es geht hierbei um das
Resultat, nicht um den tatsächlichen Einsatz des Muskels), wird eine Skala von A“ (kaum
”
sichtbar) bis E“ (Obergrenze der Bewegungsfähigkeit) verwendet [11].
”
12
Tabelle 1: Action Units im FACS (Auszug) [10].
AU
1
2
4
20
22
23
24
41
43
45
46
FACS-Bezeichnung
beteiligte Muskeln
Inner Brow Raiser
Frontalis, Pars Medialis
Outer Brow Raiser
Frontalis, Pars Lateralis
Brow Lowerer
Depressor Glabellae, Depressor Supercilli, Corrugator
Lip Stretcher
Risorius
Lip Funneler
Orbicularis Oris
Lip Tightner
Orbicularis Oris
Lip Pressor
Orbicularis Oris
Lid Droop
Entspannung des Levator Palpebrae Superioris
Eyes Closed
Entspannung des Levator Palpebrae Superioris
Blink
Entspannung des Levator Palpebrae und Anspannung
des Orbicularis oculi, Pars Palpebralis
Wink
Orbicularis Oculi
Abbildung 12: Beispiel für die Umsetzung der Action Unit 2 an einem Gesichtsmodell [10].
1.4.6
MPEG-4.
Auch der 1998 vorgestellte MPEG-4-Standard befasst sich (unter anderem) mit der Animation virtueller Gesichter, insbesondere mit der lippensynchronen Animation eines Gesichtes
zu gesprochenem Text. Um ein virtuelles Gesicht nach dem MPEG-4-Standard zu definieren, werden sogenannte Face Definition Parameter“ (FDP) angegeben. Die FDP beinhal”
ten einen Satz von 84 Gitterpunkten (Feature Points), welche die wichtigsten Stellen des
Gesichts markieren und dazu optionale Parameter wie Gesichtstextur, Geschlecht, Haarschnitt/Haarfarbe oder eine eventuelle Brille [10].
13
Abbildung 13: Feature Points in MPEG-4 [10].
Die Animation des virtuellen Gesichts erfolgt durch 68 Facial Animation Parameter“
”
(FAP), die auf Bewegungen der Feature Points abgebildet werden [10].
2
Gestik
2.1
Was ist Gestik?
Gestik bezeichnet die Stellung und Bewegung des Körpers, insbesondere der Arme, der
Hände und des Kopfes, zum Zwecke der Kommunikation. Man unterscheidet drei Arten
von Gesten [12] [13]:
• Zeigegesten, z.B. das Ausrichten des Zeigefingers auf eine Person oder einen Gegenstand,
• lexikalisierte Gesten, die ein Wort ersetzen können, wie beispielsweise das Nicken
mit dem Kopf für ja“ oder ein nach oben zeigender Daumen bei geschlossener Hand
”
für gut“, super“ etc. (besonders diese Art Gesten unterscheidet sich jedoch zwischen
”
”
verschieden Kulturen),
• ikonische Gesten, welche die Wirklichkeit stilisiert oder vereinfacht widerspiegeln,
wie z.B. das Zusammenlegen der Handflächen an der Wange und Schräglegen des
Kopfes für schlafen“ oder das Antippen des Kopfes mit dem Zeigefinger, um anzu”
deuten, dass man jemanden für verrückt hält.
Viele Gesten haben sich offenbar natürlich herausgebildet, andere wiederum sind Kulturspezifisch. Davon abgesehen gibt es auch Gesten die (innerhalb eines Kulturkreises) verschiedene Bedeutungen haben. Gestik unterscheidet sich sogar – wie z.B. auch Sprache und
Handschrift – zwischen einzelnen Individuen [18].
14
Abbildung 14: Uncle Sam“ zeigt mit dem Finger auf den Betrachter – eine Geste [13].
”
Zusätzlich zur (intentionalen) Gestik drücken sich Menschen auch subtiler und oft unbeabsichtigt durch ihren Körper aus. Den eigenen Körper gänzlich still zu halten, ist unmöglich.
Der Körper muss (abgesehen vom Liegen) ständig durch kleine Ausgleichsbewegungen im
Gleichgewicht gehalten werden, hinzu kommt die Bewegung des Brustkorbes durch die
Atmung [19]. Selbst wenn es für die Wahrung des Gleichgewichts unnötig ist, wechseln
Menschen oft ihre Haltung, z.B. aufgrund von Muskelermüdung [19]. Derartige Bewegungen können – wie Gestik – Ausdruck von Gefühlen sein. Beispielsweise deutet eine nach
vorn geneigte Körperhaltung auf Schamgefühl und ungewöhnlicher Bewegungsdrang auf
Nervosität hin.
Abbildung 15: Veränderung der Körperhaltung [19].
2.2
Warum ist Gestik bei virtuellen Charakteren von Bedeutung?
Analog zur Mimik verleihen Gestik und Körpersprache einem virtuellen Charakter mehr
Realitätsnähe und machen ihn dadurch in 3D-Welten interessanter für die Benutzer. Da
Gestik wie Mimik die verbale Kommunikation auf non-verbaler Ebene unterstützt, ist sie
sowohl bei Kommunikation zwischen Spielern mittels Emotes als auch bei Lehr- bzw. HilfsAvataren von Bedeutung (siehe Kapitel 1.2).
15
Abbildung 16: Gestik beim Ausführen des Emotes shrug“ in Second Life.
”
2.3
Beispiele häufiger Gesten
Die folgenden Gesten sind besonders im Hinblick auf ihre Bedeutung in 3D-Welten ausgewählt.
2.3.1
Gruß.
Die wohl universellste Form des Grüßens durch Gestik ist eine erhobene offene Hand, wobei
es Variationen von nahe am Kopf bis weit abgestreckt gibt. Nähern sich zwei Personen zum
formellen Gruße, kommt es meist zum Händeschütteln (westliche Kulturen), oder (in OstAsien) zur Verbeugung.
Abbildung 17: Zwei verschiedene Gesten der Begrüßung: Hand zum Kopf links,
Händeschütteln rechts [16].
16
2.3.2
Zustimmung oder Ablehnung.
In den meisten Kulturen entspricht das Nicken mit dem Kopf einem ja“ und das Kopfschütteln
”
einem nein“. Es gibt jedoch Ausnahmen: In Griechenland beispielsweise, ist die Bedeutung
”
umgekehrt, wobei dort beim Kopfschütteln der Kopf nur einmal leicht zu jeder Seite gedreht
wird.
2.3.3
Aufforderung zum Folgen.
Eine andere Person wird meistens mit einer Armbewegung in Richtung des angestrebten
Zieles, oder aber nur durch eine heranwinkende Bewegung der Hand oder eines Fingers,
zum Folgen aufgefordert.
2.3.4
Aufforderung zum Anhalten bzw. Bitte um Aufmerksamkeit.
Ein hochgestreckter Arm mit offener Hand wird oft entweder als Halt!“ oder Achtung!“
”
”
verstanden.
2.3.5
Freude über einen Erfolg.
Ein oder beide Arme werden hochgestreckt und die Hand meist zur Faust geballt.
Abbildung 18: Nelson Mandela bringt sein Erfolgsgefühl zum Ausdruck [17].
2.4
Darstellung von Gestik bei virtuellen Charakteren
Um virtuelle Charaktere mit Gestik zu versehen, bedient man sich schon genannter Verfahren, wie skelettbasierter Animation und Muskelsimulation. Die Herausforderung liegt
jedoch dabei, die primären Stellungen (z.B. stehen, sitzen) und Bewegungen (z.B. gehen, rennen, springen) eines Charakters mit den sekundären Animationen für Gestik und Körpersprache so zu verschmelzen, dass eine realitätsnahe Endbewegung bzw. -pose entsteht.
Die unbeabsichtigten Bewegungen des Körpers aufgrund von Anatomie und Körpersprache
können erzeugt werden, indem aus einer Datenbank vordefinierter Posen bzw. Animationen zufällig ausgewählt wird und wiederum eine geeignete Überblendung stattfindet [19].
2.4.1
STEP.
Eine Möglichkeit, Gestik durch eine Skriptsprache zu steuern, stellt STEP (Scripting Technology for Embodied Persona) dar [20]. Um einen virtuellen humanoiden Charakter ( Agent“
”
genannt) zu animieren, wird bei STEP ein Referenzkoordinatensystem festgelegt, wie es in
17
Abbildung 19 dargestellt ist. Dazu werden die verschiedenen Körperteile des Charakters
hierarchisch definiert (Abbildung 20).
Abbildung 19: Referenzkoordinatensystem für einen virtuellen Charakter [20].
Abbildung 20: Definition von Körperteilen [20].
Bewegungen können nun im Bewegungsraum ausgeführt werden, welcher wiederum
18
am Referenzkoordinatensystem ausgerichtet ist. So wird die Bewegung eines Armes beispielsweise durch
turn(Agent, left arm, front, slow)
ausgedrückt, wobei Agent“ der virtuelle Charakter, left arm“ der Körperteil, front“
”
”
”
eine bestimmte Zielposition im Bewegungsraum und slow“ eine vordefinierte Geschwin”
digkeit ist.
Das Verschieben des Charakters oder Teilen dessen, wird durch die Aktion move“ ange”
boten. Die Syntax dieser Aktion ist analog zu turn“ und kann beispielsweise wie folgt ver”
wendet werden:
move(Agent, HumanoidRoot, position(1,0,10), time(2, second))
Zusätzlich zu den zwei grundlegenden Aktionen für Rotation und Verschiebung, gibt
es in STEP Operatoren zum sequentiellen und parallelen Ausführen von Bewegungen und
sowohl Verzweigungen als auch Schleifen.
Abbildung 21: STEP-Bewegungsraum [20].
3
Zusammenfassung
Sowohl Mimik als auch Gestik spielen bei der Erstellung virtueller Charaktere eine bedeutende Rolle, da sie für mehr Realitätsnähe der 3D-Welt, bessere Verständlichkeit und Akzeptanz von Avataren und vereinfachte Kommunikation zwischen Nutzern sorgen. Technologien zur Erstellung von Mimik bei 3D-Charakteren sind skelettbasierte Animation, DrahtVerformer, spezielle Beziehungen zwischen 3D-Objekten und Blendshapes.
19
Für die Realisierung von Gestik bei virtuellen Charakteren bietet sich skelettbasierte Animation an, wobei primäre und sekundäre Bewegungen/Posen überblendet werden müssen.
Unbewusste Änderungen der Körperhaltung sollten zufällig erzeugt werden. Es existieren
Ansätze, Gestik über Skriptsprachen zu steuern, beispielsweise STEP.
Literatur
[1] Mimik. Wikipedia (deutsch). http://de.wikipedia.org/wiki/Mimik. Verwendete Version vom 09.05.2007, 17:46 unter http://de.wikipedia.org/w/index.php?
title=Mimik&oldid=32481918.
[2] Facial expression. Wikipedia (englisch). http://en.wikipedia.org/wiki/
Facial_expression. Verwendete Version vom 31.05.2007, 20:47 unter http:
//en.wikipedia.org/w/index.php?title=Facial_expression&oldid=
134909890.
[3] Suspension of disbelief. Wikipedia (englisch). http://en.wikipedia.org/
wiki/Suspension_of_disbelief. Verwendete Version vom 31.05.2007, 03:59
unter
http://en.wikipedia.org/w/index.php?title=Suspension_of_
disbelief&oldid=134735030.
[4] Igor S. Pandzic, Jörn Ostermann, David Millen. User evaluation: Synthetic talking faces
for interactive services. The Visual Computer, 1999, Band 15, Nr. 7-8, S. 330-340. Online unter http://www.springerlink.com/content/0qr43jn2tmvxwf4x/fulltext.
pdf.
[5] http://www.secondlife.com
[6] http://www.worldofwarcraft.com
[7] Mimikerkennung. Wikipedia (deutsch). http://de.wikipedia.org/wiki/
Mimikerkennung. Verwendete Version vom 26.04.2007, 15:44 unter http://de.
wikipedia.org/w/index.php?title=Mimikerkennung&oldid=31015718.
[8] Mimische Muskulatur. Wikipedia (deutsch). http://de.wikipedia.org/wiki/
Mimische_Muskulatur. Verwendete Version vom 28.04.2007, 10:33 unter http:
//de.wikipedia.org/w/index.php?title=Mimische_Muskulatur&oldid=
31084742.
[9] Gesicht. Wikipedia (deutsch). http://de.wikipedia.org/wiki/Gesicht. Verwendete Version vom 30.05.2007, 01:52 unter http://de.wikipedia.org/w/
index.php?title=Gesicht&oldid=32502312.
[10] Dietmar Jackèl, Stephan Neunreither, Friedrich Wagner. Methoden der Computeranimation. Springer, 2006, S. 118, 125-127, 137-139.
[11] Facial Action Coding System. Wikipedia (deutsch). http://de.wikipedia.
org/wiki/Facial_Action_Coding_System. Verwendete Version vom 06.05.2007,
14:18 unter http://de.wikipedia.org/w/index.php?title=Facial_Action_
Coding_System&oldid=31434586.
[12] Gestik. Wikipedia (deutsch). http://de.wikipedia.org/wiki/Gestik. Verwendete Version vom 29.03.2007, 12:56 unter http://de.wikipedia.org/w/index.
php?title=Gestik&oldid=29832729.
20
[13] Gesture. Wikipedia (englisch). http://en.wikipedia.org/wiki/Gesture. Verwendete Version vom 19.05.2007, 04:38 unter http://en.wikipedia.org/w/
index.php?title=Gesture&oldid=131938806.
[14] Category: Facial expression. Wikimedia Commons. http://commons.wikimedia.
org/wiki/Category:Facial_expression.
[15] Category: Laughter. Wikimedia Commons. http://commons.wikimedia.org/
wiki/Category:Laughter.
[16] Category: Handshakes. Wikimedia Commons. http://commons.wikimedia.org/
wiki/Category:Handshakes.
[17] http://www.britannica.com/eb/art-92121
[18] Kay M. Stanney (Hrsg.). Handbook of Virtual Environments. Lawrence Erlbaum Associates, 2002, S. 224-227.
[19] Michael Dickheiser (Hrsg.). Game Programming Gems 6. Charles River Media, 2006, S.
409-421.
[20] Zhisheng Huang, Anton Eliëns, Cees Visser. STEP: A Scripting Language for Embodied Agents. Online unter http://wasp.cs.vu.nl/step/steppackage/paper/
step.pdf.
21