BA Theorie _-Abbildungen_

Transcription

BA Theorie _-Abbildungen_
Inhaltsübersicht
1. Einführung ................................................................................................................ 1
1.1 Motivation ............................................................................................................................ 1
1.2 Gliederung ........................................................................................................................... 1
2. Was ist Motion Capturing? ........................................................................................ 2
2.1 Definition.............................................................................................................................. 2
2.2 Aufnahmetechniken............................................................................................................. 3
2.3 Arten von Systemen ............................................................................................................ 4
2.4 Anwendungsgebiete............................................................................................................ 6
3. Geschichtlicher Überblick.......................................................................................... 7
3.1 Motion Capturing ................................................................................................................. 7
3.2 Vicon und OMG ................................................................................................................... 9
3.3 MotionBuilder von Kaydara ............................................................................................... 10
4. Komponenten des Vicon Systems .......................................................................... 11
4.1 Hardware ........................................................................................................................... 11
4.1.1 MX Cameras ............................................................................................................ 11
4.1.2 MX Ultranet .............................................................................................................. 13
4.1.3 Host-Computer......................................................................................................... 13
4.1.4 Calibration Kit........................................................................................................... 14
4.2 Software Vicon iQ.............................................................................................................. 15
5. Workflow................................................................................................................. 16
5.1 Pipelines ............................................................................................................................ 17
5.1.1 Vicon iQ-Pipeline...................................................................................................... 17
5.1.2 MotionBuilder-Pipeline ............................................................................................. 17
5.2 Pre-Production .................................................................................................................. 18
5.3 Einbindung des Performers............................................................................................... 19
5.4 Kamera-Kalibrierung ......................................................................................................... 20
5.5 Labeling und Subjekt-Kalibrierung .................................................................................... 21
5.6 Capturing der Bewegungen............................................................................................... 21
5.7 Post- und Data-Processing ............................................................................................... 22
5.8 Weiterverwendung ............................................................................................................ 24
6. Anhang ................................................................................................................... 25
6.1 Literaturverzeichnis ........................................................................................................... 25
6.2 Abbildungsverzeichnis....................................................................................................... 25
7. Leitfaden
1. Einführung
1.1 Motivation
Ein Vicon MX Motion-Capturing-System befähigt ein Produktionsteam zu
erstaunlichen Projekten. Damit man sich nicht mit der Komplexität der Hardund Software auseinandersetzen muss, soll dieser Leitfaden dazu beitragen,
Prozesse zu verstehen, zügig zu arbeiten, Zeit zu sparen und das jeweilige Ziel
auch wie gewünscht zu erreichen.
1.2 Gliederung
Diese Arbeit unterteilt sich in einen theoretischen und einen praktischen Teil.
Die Theorie wird im Hauptteil behandelt, der praktische Teil ist als „Leitfaden“
im Anhang zu finden. Er ist es, der dem Anwender während des
durchzuführenden Motion Capturing zur Seite steht.
Die nachfolgend behandelte Theorie dient ausschließlich dazu, sich mit dem
Thema und dessen Begrifflichkeiten vertraut zu machen.
1
2. Was ist Motion Capturing?
2.1 Definition
Motion
Der Begriff Motion [mō’shən] ist deriviert aus dem Verb mo|vie|ren, dessen
ursprüngliche lateinische Herkunft movere ins Deutsche mit bewegen übersetzt
wird. Die Urwurzel des Wortes findet man im indoeuropäischen Begriff „meuə“.
Im Englischen ist Motion definiert als: „The act or process of changing position
or place.”1
Laut Wortschatz-Projekt2 der Universität Leipzig ist für das Wort Motion der
signifikanteste rechte Nachbar der Begriff Capture. Das heißt, beide Wörter
treten in der deutschen Sprache überwiegend zusammen auf.
Capture
Das Wort Capture [kǎp’chər] stammt vom lateinischen Begriff captūra und kann
mit (ein)fangen übersetzt werden. Die Urwurzel des Wortes liegt im indoeuropäischen „kap“3.
Eine geeignete Definition aus dem Englischen lautet: „The act of catching,
taking, or holding a particle or impulse.”4
Motion Capture (MoCap)
Die Kombination beider vorgenannter Ausdrücke ergibt schließlich einen neuen
Begriff, den des Motion Capture, welcher als die Aufzeichnung von
Bewegungen beziehungsweise als Bewegungserfassung verstanden wird.
An dieser Stelle sei erwähnt, dass Motion Capture bzw. Motion Capturing häufig
mit MoCap abgekürzt wird, so auch in dieser Bachelor Thesis.
Albert Menache, der Autor des Buches „Understanding Motion Capture for
Computer Animation and Video Games“ (Verlag Morgan Kaufmann, 1999)
beschreibt Motion Capturing als „the process of recording a live motion event
and translating it into usable mathematical terms by tracking a number of key
points in space over time and combining them to obtain a single threedimensional representation of the performance.”
1
The American Heritage Dictionary of the English Language, Fourth Edition.
2
Projekt „Der Deutsche Wortschatz“, Universität Leipzig, Website-Zugriff vom 2007-04-22: wortschatz.uni-leipzig.de
3
The American Heritage Dictionary of the English Language, Fourth Edition.
4
The American Heritage Stedman’s Medical Dictionary.
2
Die Technik des Motion Capturing ermöglicht es, Bewegungen eines realen
Objektes (Mensch, Tier, Maschine etc.) in Echtzeit aufzunehmen und sie als
dreidimensionalen Bewegungsablauf im Computer zu speichern, um sie dann
auf einen virtuellen Charakter zu übertragen.
Eine der bekanntesten Anwendungen ist die Animation von computergenerierten Figuren in Filmen und Computerspielen. Weitere Anwendungsgebiete werden im Kapitel 2.4 aufgeführt.
Beim Motion Capturing trägt der sogenannte Performer einen mit Markern oder
Sensoren versehenen Anzug, deren Ortsänderungen von Spezialkameras
erfasst werden. Aus der Analyse der Marker/Sensoren (Positionen,
Orientierungen) über die Zeit werden dreidimensionale Bewegungsaufzeichnungen generiert.
Nach dem Post-Processing, das heißt der Verarbeitung der Bewegungsdaten
verbunden mit der Korrektur von Fehlaufzeichnungen, können die Daten in 3DSysteme importiert werden. Dort werden sie mit dem Skeleton eines 3DKörpers verknüpft (Mapping), der die Bewegungen aufnimmt und entsprechend
wiedergibt.
Der herausragende Nutzen, der sich durch die Technik des Motion Capturing
ergibt, ist die realwirkende, komplexe Bewegung des virtuellen Charakters. Im
Gegensatz dazu wirkt die bisher von Animationsstudios eingesetzte Technik der
Interpolationen zwischen Keyframes wesentlich unwirklicher.
2.2 Aufnahmetechniken
Die auf dem Markt existierenden Systeme zur MoCap-Aufnahme können in drei
Typen unterteilt werden:
1. Inside-In Systeme
Hierbei befinden sich die Sensoren und die Signalaufnahme auf dem Körper
des Performers. Beispiel wäre ein elektromechanisches Außenskelett, bei dem
das Tracking über die Potentiometer erfolgt.
2. Inside-Out Systeme
Die Sensoren sind am Körper des Performers, jedoch ist die Signalaufnahme
entfernt. Beim XSENS-System5 wird beispielsweise eine extern generierte
magnetische Feldstärke gemessen. Es handelt sich um ein Funknetz.
5
XSens Motion Technologies: www.xsens.com
3
3. Outside-In Systeme
Bei diesem System sind die Sensoren auf den Performer gerichtet (oder einen
Raum, in dem sich der Performer befindet). Optische Systeme, bei denen die
reflektierenden Marker verfolgt werden, gehören zu diesen Systemen.6
2.3 Arten von Systemen
Elektromechanische Systeme
Bei diesen Systemen werden elektromagnetische Anzüge (Exo-SkelettSysteme) genutzt. Dabei messen Potentiometer die Rotationen und die
Orientierungen der Gelenke.
Vorteil dieses Systems sind das geringe Gewicht und die geringen Kosten,
außerdem kommt es nicht zu Verdeckungsproblemen. Nachteil ist die
Behinderung des Performers bezüglich seiner Bewegungsfreiheit, da das
Skelett begrenzt ist. Veränderungen der Sensorpositionen sind ebenfalls
problematisch und die Anzahl der Sensoren ist vorbestimmt.7
Elektromagnetische Systeme
Bei diesem System wird ein elektromagnetisches Feld durch die Sender
erzeugt und die Empfänger, welche am Performer befestigt sind, ermitteln
Position und Orientierung. Nachteil bei elektromagnetischen Systemen ist der
kleine Bewegungsraum, eine aufwändige Kalibrierung sowie die Gefahr der
Verzerrung des Magnetfeldes durch Kabel und Metalle.
Akustische Systeme
Ultraschall-Sender werden bei akustischen Systemen am Körper des
Performers angebracht, die Impulse aussenden. In der Nähe aufgestellte
Ultraschallempfänger registrieren diese Impulse und messen deren Positionen.
Dieses System birgt Probleme der Verdeckung und Reflektion in sich,
außerdem ist die Luftbeschaffenheit von Bedeutung, da sie die Ergebnisse
beeinflussen kann.
Lichtleitersysteme
Hierbei werden die Beugungswinkel der Gelenke über Glasfaserkabel optisch
gemessen. Fotosensoren bestimmen dabei die Intensität, mit der das Licht bei
Biegung der Kabel entweicht. Da die Änderung der Lichtintensität der Messung
dient, kommt es bei geringfügigen äußeren Einwirkungen leicht zu Fehlern.
6
Vergleiche Jackel, Neunreither, Wagner: „Methoden der Computeranimation“, Springer-Verlag 2006.
7
Vgl. ebenda.
4
Bilderfassungssysteme
Diese Systeme versuchen, aus Videos oder Bildern die Bewegungen einer
Person zu extrahieren. Hierzu werden geeignete Stellen im Bild identifiziert, die
im Anschluss einer Analyse verbunden werden. Dadurch wird versucht,
Animationsdaten zu extrahieren.
Optische Systeme
Das von uns genutzte Vicon System gehört zu den optischen Systemen mit
Tracking von passiven Markern. Optische Systeme gehören zu den
bekanntesten Verfahren. Der Entschluss zur Anschaffung dieser Systemart
wurde getroffen, nachdem folgende Aspekte betrachtet wurden:
Optische Systeme haben gemeinsam, dass bei ihnen Spezialkameras zum
Einsatz kommen, unterteilen sich jedoch in zwei verschiedene Aufnahmearten:
1. Tracking mit aktiven Markern: Pulsierende Leuchtdioden befinden sich auf
dem Körper des Performers, wobei diese von den Kameras erfasst werden.
2. Tracking mit passiven Markern: Reflektierende, nicht selbstleuchtende
Marker befinden sich auf dem Körper des Performers, die von den
Infrarotpulsen der Spezialkameras zum Reflektieren gebracht werden.
Vorteile von optischen Systemen sind:
•
die extreme Genauigkeit, die aus der Sensorerfassung im
Infrarotbereich resultiert,
•
die Flexibilität, da die Anzahl der Marker beliebig erweitert werden kann,
•
die Bewegungsfreiheit des Performers, da ihn keine Kabel behindern,
und
•
die Möglichkeit, höhere Frequenzen zu benutzen, um damit die
Framerate (Bilder pro Sekunde) zu erhöhen und eine detailliertere
Aufnahme zu erhalten.
Das System hat auch Nachteile, welche im Wesentlichen Verdeckungen sind,
bei denen Marker nicht von ausreichend Kameras gesehen werden, und
Überdeckungen, bei denen das System Marker verwechselt.
Weiterhin kann es problematisch sein, einen Raum zu finden, der dunkel ist und
in dem keine Reflektionen auftreten, da diese als Ghost Marker erkannt werden
könnten.
5
2.4 Anwendungsgebiete
Motion Capturing wird in den unterschiedlichsten Bereichen verwendet, die im
Nachfolgenden grob abgegrenzt und mit Beispielen versehen sind:
Unterhaltungsindustrie
Entertainment steht mittlerweile an erster Stelle, mit Character-Animation in
Computerspielen, Filmen und Werbespots, Character-Vorschau am Set und
Full Motion Video8.
Als Beispiele für erste erfolgreiche Filme unter Einsatz der MoCap-Technik
können genannt werden: Jurassic Park (1993), Toy Story (1995), Titanic (1997),
Batman and Robin (1997) sowie The Mummy (1999). Mit Beginn des 21.
Jahrhunderts kam es zum endgültigen Durchbruch für das Motion Capturing mit
Filmen wie Gladiator (2000), The Patriot (2000), The Lord of the Rings: The
Fellowship of the Ring (2001), Star Wars Episode 1 (2001), Final Fantasy: The
Spirits Within (2001), Pearl Harbor (2001) etc.
Wie man leicht vermuten kann, gehört Motion Capturing bei den heutzutage
produzierten großen Filmen inzwischen zum Standard.
Gleiches gilt für den Bereich der Computerspiele, bei denen die Animation
virtueller Charaktere mittels MoCap-Technik gewonnen wird. Beste Beispiele
hierfür sind die Sportspiele von EA Sports.
Biomedizin
Bewegungsanalysen in der Orthopädie, Pädiatrie und Neurologie, physikalische
Therapien, Objekt-Tracking in medizinischen Umgebungen.
Ingenieurwesen
Visualisierung von Simulationen, virtuelles Prototyping und virtuelle Realität .9
Sport
Optimierung der Performance von Sportlern (so zum Beispiel Verbesserung der
Schlagtechnik eines Golfers oder des Trainings für Rad- und Skifahrer).
Militär
Technisches Training, Einsätze im Übungsspiel America’s Army.10
Justiz
Rekonstruktion und Animation von Handlungsabläufen.
8
Bei FMV handelt es sich um ein im Voraus aufgenommenes Video in Fernsehqualität oder eine computergenerierte
Animation, die in ein Computerspiel integriert wird. (Vgl. Vicon Product Glossary, Seite 10.)
9
Vicon MX Hardware System Reference, Revision 1.3.
10
America’s Army, Zugriff am 2007-05-07: www.americasarmy.com/intel/makingof_motioncap.php
6
3. Geschichtlicher Überblick
3.1 Motion Capturing
Recherchiert man zum Thema Motion Capturing stößt man häufig auf
Informationen zu zweidimensionalen Bewegungsaufzeichnungen, die im 19.
Jahrhundert von Eadweard Muybridge und Etienne-Jules Marey an Menschen
und Tieren durchgeführt wurden.
Nachstehend soll jedoch die Geschichte der heutzutage bekannten MoCapTechnik kurz umrahmt werden, die sich dadurch auszeichnet, dass die
Bewegungen eines realen Menschen auf einen dreidimensionalen Character
übertragen werden.
Es begann damit, dass Ende der 1970er/Anfang der 1980er Jahre mehrere
amerikanische Universitäten unabhängig voneinander verschiedene Systeme
zur Bewegungsaufzeichnung entwickelten. Dabei sahen die Universitäten den
Zweck des Motion Capturing seinerzeit jedoch weniger in den Bereichen des
Entertainments, sondern in Gebieten der Medizin (Prothesen, Sportmedizin).11
Ein Beispiel für solch eine Universität ist die Simon Fraser University, Kanada,
die in ihrem biomechanischen Labor Personen mit Potentiometern ausstattete,
ihre Bewegungen aufzeichnete und Computer benutzte, um computeranimierte
Figuren durch die gewonnenen Daten zu steuern und grafisch darzustellen.12
Mit „Brilliance“, einem Werbespot für Dosennahrung, wurde 1984 erstmals die
Technik des MoCap kommerziell angewendet. Der von Robert Abel produzierte
Werbespot zeigte eine dreidimensionale Roboterfrau, die sich wie eine reale
Frau bewegte.
Um dies zu erreichen, hatte das Produktionsteam schwarze Marker auf den
Gelenken einer echten Darstellerin befestigt und deren Bewegungen mittels
Polaroid-Kameras aus unterschiedlichen Perspektiven fotografiert.
Das Filmmaterial wurde benutzt, um die Markerpositionen mithilfe von
Computern zu analysieren und Bewegungsalgorithmen herzuleiten. Die
Bewegungsalgorithmen wendete man auf die Gelenke an, kombinierte sie und
exportierte sie als Vektorgrafiken.
11
Vgl. Matt Liverman “The Animator's Motion Capture Guide: Organizing, Managing, Editing”, Verlag Charles River
Media, 1. Auflage 2004.
12
T. W. Calvert, J. Chapman and A. Patla, "Aspects of the kinematic simulation of human movement," IEEE Computer
Graphics and Applications, Vol. 2, No. 9, November 1982, pp. 41-50. Entnommen aus:
www.siggraph.org/education/materials/HyperGraph/animation/character_animation/motion_capture/history1.htm
7
Ein erstelltes Drahtgittermodell der Roboterfrau konnte damit angetrieben
werden.
Der Spot, der eine Produktionszeit von vier Wochen und eine Länge von
30 Sekunden hatte, wurde unter dem Namen „Sexy Robot“ bekannt.13
Abbildung 1 - Szene aus dem Werbespot Brilliance
In den Folgejahren entstanden weitere Projekte, die unter anderem von Pacific
Data Images entwickelt wurden, so zum Beispiel im Jahre 1988 das Waldo C.
Project (Echtzeitanimation einer Polygon-Puppe) und das Exoskelett, welches
zur Animation im Film Toys zum Einsatz kam.
DeGraf-Wahrman Inc. entwickelte 1988 Mike The Talking Head, bei dem ein
Puppenspieler in Echtzeit eine animierte Figur steuerte.
Ein weiteres Aufsehen erregendes Projekt war das 1989 vom Animationsstudio
Kleiser-Walczak produzierte Musikvideo „Dozo - Don’t Touch Me”14, in dem eine
Sängerin komplett modelliert und durch MoCap-Bewegungen animiert wurde.
Der erste weibliche Synthespian (synthetischer Schauspieler) war geschaffen.
Für die MoCap-Aufnahme wurde ein optisches System mit reflektierenden
Markern benutzt.
Abbildung 2 - Dozo aus dem Musikvideo „Don’t Touch Me“
13
Vgl. Alberto Menache „Understanding Motion Capture for Computer Animation and Video Games”, Kaufmann, 1999.
14
Verfügbar auf Youtube: www.youtube.com/watch?v=PlqOOYlXzU8 (Zugriff vom 2007-05-15).
8
Weiterhin ist das 1993 produzierte Musikvideo „Steam“15 erwähnenswert, das
aufgrund seiner Spezialeffekte, bei denen die Technik des Motion Capturing
verwendet wurde, einen Grammy erhielt.
Mit Fifa 97 von EA Games erschien 1996 das erste Computerspiel, das MoCapAnimationen enthielt. EA Games benutzt seitdem die MoCap-Technik für Sportspiele, um sie so realistisch wie möglich erscheinen zu lassen.
Mitte der 1990er begann die Filmindustrie die nunmehr professionellen MoCapSysteme zu benutzen, um Spezialeffekte in ihren Filmen zu erzeugen. Damit
war der Durchbruch im Entertainment-Bereich gelungen.16
3.2 Vicon und OMG
Die Hard- und Software, die von uns für die MoCap-Sessions benutzt wird
stammt von Vicon. Dieses Unternehmen ist Weltmarktführer in Hinblick auf
Motion-Systeme und existiert bereits seit mehr als zwei Jahrzehnten.
Nachstehend folgt ein kurzer geschichtlicher Überblick:
Julian Morris gründete im Jahr 1984 in Großbritannien die Oxford Metrics Ltd.
(heute: OMG plc17) sowie deren Tochterunternehmen Vicon Motion Systems,
welches bereits nach wenigen Jahren des Bestehens zum Weltmarktführer in
Sachen Motion Capturing avancierte. Zu Beginn verkaufte Vicon Motion
Systems seine Systeme ausschließlich an Forschungsgruppen in den
Bereichen Biomechanik, Orthopädie und Ganganalyse. Jedoch wurde Mitte der
1990er Jahre das Geschäftsfeld auf den Entertainment-Bereich ausgedehnt
und seitdem MoCap-Systeme auch an Animationsstudios verkauft.18
Peak Performance Technologies Inc., ein 1984 in Colorado, USA entstandenes
Unternehmen, das sich mit der Produktion von computer- und video-basierten
biomechanischen Analysetools für Sportler beschäftigte19, wurde 2005 in die
Oxford Metrics Group eingegliedert und mit Vicon Motion Systems zu einem
einzigen Unternehmen kombiniert: Vicon.
Abbildung 3 - Logos von OMG und Vicon
15
Verfügbar auf Youtube: www.youtube.com/watch?v=aphQNGOz7v8 (Zugriff vom 2007-05-07).
16
Movement Research Lab, mrl.snu.ac.kr/courses/CourseAnimation/notes/MotionCapture.pdf (Zugriff am 2007-05-07).
17
OMG Oxford Metrics Group, Website: www.omg3d.com
18
OMG Website, Zugriff am 2007-05-20: www.omg3d.com/html/3~company.html
19
Vicon Website, Zugriff am 2007-05-20: www.vicon.com/company/
9
Auszeichnungen:
1996 und 2001 gewann Vicon Motion Systems den Queen's Award for
International Trade und im Jahre 2005 wurde einer der Academy Scientific and
Technical Awards als Würdigung für die Entwicklung der Vicon Motion Capture
Technologie verliehen.20
3.3 MotionBuilder von Kaydara
MotionBuilder ist eine Software, die von uns zum Data-Processing benutzt wird.
Sie ist wesentlicher Bestandteil des MoCap-Workflows, da sie mannigfaltige
Funktionen, die das differenzierte Bearbeiten von Animationen stark erleichtern,
zur Verfügung stellt. In späteren Kapiteln wird darauf genau eingegangen, es
folgt ein kurzer Blick auf die Geschichte:
Das Unternehmen Kaydara Inc., das 1993 in Montreal (Kanada) gegründet
wurde, entwickelte ein auf Animationsstudios ausgerichtetes Produkt namens
FiLMBOX, welches unter anderem die Fähigkeit besaß, MoCap-Daten und 3DDaten zu importieren, in Echtzeit zu bearbeiten und wieder zu exportieren.
FiLMBOX war sehr erfolgreich und wurde in Filmen, im Fernsehen, für
Werbungen, im Web und für Spieleentwicklungen verwendet. Die Software
avancierte zum Industriestandard für das Editieren, Säubern und Modifizieren
von MoCap- und Animationsdaten. 21
Im März 2004 brachte Kaydara MotionBuilder heraus, eine Weiterentwicklung
von FiLMBOX mit neuem User-Interface und erweiterten Funktionen sowie Imund Export-Möglichkeiten für eine Vielzahl von Formaten. 22
Da eine wachsende Zahl von Animationsstudios, die die Technik des Motion
Capture nutzten, mit MotionBuilder arbeitete und die Software zunehmend den
Markt beherrschte, kaufte schließlich Alias im Oktober 2004 das Unternehmen
Kaydara. Im Januar 2006 wurde Alias wiederum von Autodesk übernommen,
sodass die Software nun Autodesk MotionBuilder heißt und mit heutigem Stand
in Version 7.5 vorliegt. 23
Fazit: Mit dem modernen Vicon MX System und der aktuellen Version der
Software MotionBuilder ist ein Produktionsteam technisch in der Lage,
hochqualitative Ergebnisse im Bereich der Animationen zu erzielen.
20
Academy of Motion Picture Arts and Sciences: www.oscars.org/scitech/2004/winners.html (Zugriff am 2007-05-20).
21
Measurand: “History Of Animation Companies, 2001 - 2007 “
22
Golem: „Kaydara kündigt Animationssoftware Motionbuilder 4.0 an“ www.golem.de/0205/19788.html (2007-05-21)
23
Autodesk MotionBuilder: www.autodesk.com (Zugriff vom 2007-05-07).
www.measurand.com/motion-capture-resources/Motion-Capture-history-2001.htm (Zugriff vom 2007-05-20)
10
4. Komponenten des Vicon Systems
4.1 Hardware
Das uns zur Verfügung stehende Vicon-System besteht aus den nachfolgend
beschriebenen Hardware-Komponenten, die zusammen als Vicon MX
Architecture bezeichnet werden. 24
Abbildung 4 - Vicon MX Architecture mit 6 Kameras
4.1.1 MX Cameras
Die von uns genutzten sechs Kameras vom Typ Vicon MX3 sind mit mehreren
Hochgeschwindigkeitsprozessoren ausgestattet, welche eine Bildverarbeitung
in Echtzeit ermöglichen.
Die Auflösung je Kamera beträgt 659 x 494 Pixel (Bildseitenverhältnis 4:3), die
maximale Framerate liegt bei 242 und der Sensor ist vom Typ CMOS.25
Das Kamerasystem besteht neben den Videokameras und deren StroboskopEinheiten aus passenden Linsen, optischen Filtern und Kabeln.
24
Die in diesem Kapitel aufgeführten technischen Daten sind der Vicon MX Hardware System Reference, Revision 1.3
entnommen.
25
Complementary Metal Oxide Semiconductor (komplementärer Metall-Oxid-Halbleiter).
11
Abbildung 5 - Vicon MX Kamera
Abbildung 6 - MX Camera Rear Panel
Kameralinsen und Stroboskop-Einheit
Die Strobe Unit wird auf der Frontseite der Kamera befestigt und lässt das
Capture Volume26 erleuchten, indem sie einen Infrarot-Lichtimpuls erzeugt, der
die auf dem Performer befestigten Marker zum Reflektieren bringt. Das
reflektierte Licht gelangt durch einen optischen Kamerafilter, der nur Licht mit
benötigter Wellenlänge zur Linse durchlässt. Die Kameralinse nimmt das
reflektierte Licht aus der Szene auf und formt ein scharfes Bild auf der
Sensoroberfläche. Die Kamera konvertiert daraufhin das Lichtmuster in digitale
Daten, die die Position und den Radius jedes Markers im Bild repräsentieren,
und gibt sie an die MX Ultranet Einheit weiter.
MX Cables
Proprietäre MX Kabel verbinden die Systemkomponenten und bieten eine
Kombination aus Strom, Ethernet Kommunikation, Synchronisations- und
Videosignalen.27
26
Als Capture Volume wird der Raum bezeichnet, in dem die Bewegungserfassung erfolgt und der von den Kameras
erfasst werden kann. Dieses Volume wird im 3D-Workspace von Vicon iQ rekonstruiert und in 3D dargestellt.
27
Detaillierte Informationen können der Vicon MX Hardware System Reference, Revision 1.3 entnommen werden.
12
4.1.2 MX Ultranet
Die MX Ultranet Einheit nimmt die Daten der Kameras auf und gibt sie an den
Host-Computer weiter. Sie sorgt für die Stromversorgung der Kameras und die
synchronisierte Kommunikation zwischen Kameras und Host-Computer.
Abbildung 7 - MX Net Front Panel
Abbildung 8 - MX Net Rear Panel
Informationen zu den rückwärtigen Anschlüssen entnehmen Sie bitte der Vicon
Hardware System Reference, Revision 1.3.
4.1.3 Host-Computer
Der Host-PC nimmt die MoCap-Daten auf, visualisiert sie und verarbeitet sie mit
der auf ihm installierten Vicon iQ Software. Die Prozessorgeschwindigkeit und
der Arbeitsspeicher sind die wichtigsten Faktoren für die System-Performance.
Von Vicon werden daher eine schnelle Festplatte und 1 GByte Arbeitsspeicher
empfohlen.
Ebenfalls sollte eine hochwertige Grafikkarte benutzt werden, damit die hohen
Grafikansprüche der Vicon RealTime Engine befriedigt werden können. Das
Vicon MX System nutzt Gigabit-Ethernet-Verbindungen, sodass der Host-PC
eine geeignete Netzwerkkarte benötigt (PC mit dedicated Ethernet-Port), um mit
den Kameras kommunizieren zu können.
13
4.1.4 Calibration Kit
Das Calibration Kit enthält Werkzeuge zur exakten Kalibrierung des Systems.
Mit dem Kit lassen sich die beiden notwendigen Kalibrierungstypen realisieren:
Kamerakalibrierung mittels Wand (Kalibrierungsstab) und Kalibrierung des
Globalen Koordinatensystems mittels L-Frame.
Abbildung 9 - Calibration Kit
Nachfolgend eine Übersicht zu den im Calibration Kit verfügbaren Elementen.
Nur die Geräte 1, 2, 8 und 11 werden von uns benutzt und hier aufgeführt:
Nummer
Kalibrierungsgerät
Beschreibung
1
240 mm Wand Spacer Bar
Ein 3-Marker Stab mit 14 mm Markern.
2
Wand Handle
Mit dem 240 mm Stab (1) oder dem 390 mm
Stab (5) nutzbar.
8
L-Frame (auch Ergo Calibration
Statisches Kalibrierungsobjekt mit vier 9,5 mm
Frame genannt)
Markern (Tausch mit 14 mm oder 25 mm
Markern möglich). Vergleiche (11).
11
Calibration Marker Pack
Das Marker Paket beinhaltet Marker Sets der
Größen 9,5 mm, 14 mm, und 25 mm, die am
Ergo Calibration Frame (8) befestigt werden.
Static Calibration Object
Der L-Frame (siehe Nr. 8 in obiger Tabelle) ist ein statisches Kalibrierungsobjekt, das benutzt wird, um das globale Koordinatensystem im Capture
Volume einzurichten. Standardmäßig sind 9,5 mm Marker befestigt, die wir
auch für unsere Motion-Capture-Sessions benutzen.
14
Accessory Kit
Das Accessory Kit beinhaltet Utensilien, die vor Beginn der Systembenutzung
benötigt werden: Klebebänder (Mikropore, Gaffer) zum Fixieren von Markern,
den HASP-Lizenzdongle, Velcro-Rollen (Klettverschluss), den Vicon Lycra
Anzug und weitere reflektierende Marker.
4.2 Software Vicon iQ
Die zum Vicon-System dazugehörige und von uns zur Aufzeichnung der
Bewegungen des Performers, zum Processing und zum Post-Processing
verwendete Software heißt Vicon iQ und liegt in Version 2.5 vor.
Vicon iQ wird benutzt, um eine MoCap-Produktion zu managen. Es unterstützt
das MoCap-Team beim Abarbeiten des Workflows und dient dazu, gewonnene
Daten zu verwalten.
Aufgrund der integrierten Real-Time-Engine Tarsus kann Vicon iQ die 2D-Daten
der MX Kameras aufzeichnen und dreidimensional in Echtzeit wiedergeben.
Weiterhin ist es möglich, im Post-Processing diverse Operationen anzuwenden,
dazu gehören unter anderen Rekonstruktion, Labelen der Bewegungsbahnen,
Lücken füllen und die Anpassung an ein kinematisches Modell. Hierauf wird im
Zusammenhang mit der Batch-Pipeline detailliert im Leitfaden eingegangen.28
An dieser Stelle sei der Hinweis gegeben, dass die Vicon MX Architecture
neben Vicon iQ auch mit anderer Software betrieben werden kann, unter
anderem: BodyBuilder, Workstation, Polygon, Tracker.
28
Vgl. Vicon: www.vicon.com/products/viconiq.html (Zugriff vom 2007-05-20).
15
5. Workflow
Sehr grob gegliedert kann man den Prozess des Motion Capturing einteilen in:
1. Planung,
2. Bewegungsaufzeichnung,
3. Datenbereinigung,
4. Nachbearbeitung und
5. Abbildung der Bewegung auf eine zu animierende Figur.
Die nachfolgende Übersicht ist um einige Detailgrade erhöht und hilft, sich
einen besseren Überblick über den MoCap-Produktionsprozess zu verschaffen:
Abbildung 10 - Workflow einer MoCap-Produktion
16
5.1 Pipelines
5.1.1 Vicon iQ-Pipeline
Nachdem die Hardware aufgebaut wurde (siehe Leitfaden) kann mit dem
Arbeitsablauf der Software Vicon iQ begonnen werden. Dieser Ablauf lässt sich
mit folgender Pipeline darstellen:
1. Anlegen der Datenbank, Start der Real-Time-Engine
2. Kamera-Kalibrierung
3. Kalibrierung des Capture Volumes
4. Range of Motion
5. 3D-Rekonstruktion der Daten
6. Labeling des Skeletons (anhand Vicon Skeleton Template)
7. Subjekt-Kalibrierung (Struktur des Vicon Skeletons berechnen)
8. Bewegungen aufzeichnen (Motion Capturing)
9. Bereinigung der MoCap-Daten (Verdeckungen und Störungen)
10. Export als C3D-Datei
5.1.2 MotionBuilder-Pipeline
Die in MotionBuilder vorzunehmenden Arbeitsschritte können allgemein wie
folgt abgebildet werden:
1.
2.
3.
4.
5.
6.
7.
Import der MoCap-Daten (C3D-Datei)
Erstellen eines Actors
Verbinden von MoCap-Daten mit Actor
Import 3D-Figur mit Skeleton aus Maya
Charakterisieren des Skeletons der 3D-Figur
Actor und Skeleton verbinden
Optional:
a. Fehlerkorrekturen
b. Modifizierung von Bewegungen
c. Kombination von Motion Tracks
8. Plotting von Animation und Skeleton
9. Export zur Weiterverarbeitung
17
5.2 Pre-Production
1. Performer
Zu häufigen Aufnahmen der Full-Body-Animation gehören: Laufen, Rennen,
Springen, Tanzen, Fallen, Kämpfen, Akrobatik. Bevor man mit einer Session
anfängt, sollte man sich jedoch ein Skript anfertigen, indem man festlegt,
welche Bewegungen benötigt und aufgenommen werden sollen.
Beim Durchführen der Bewegungen sollte der Performer daher den virtuellen
Character besonders gut verinnerlicht haben, um dessen Eigenschaften
bestmöglich darzustellen. Wichtige Charakteristika wären unter anderen: Alter,
Geschlecht, Größe, Statur und Gewicht, Beeinträchtigung bei Bewegungen,
Gewohnheiten und Intelligenz, Kleidung, Stimmung etc.
2. Drehbuch
Das Drehbuch sollte aus folgenden Elementen bestehen:
- Namen: Auflistung aller Charaktere.
- Szenenkopf: Eine kurze Beschreibung der Örtlichkeit und der Tageszeit.
- Action: Eine Beschreibung aller vorkommenden Szenenelemente und
Handlungen.
- Dialoge: Gespräche zwischen Charactern in der Szene. In den Dialogen erscheint der Name des sprechenden Characters jeweils am Anfang der Zeile.
- Übergänge: Bemerkungen zu den Kamera-Übergängen wie „Auflösen nach“
(hierbei wird das Kamerabild unscharf und geht in eine andere Szene über).
3. Storyboard
Ein Storyboard ist ein konzeptueller Ablaufplan und löst im Stile eines ComicStrips eine Drehbuchhandlung in einzelne Bilder auf. Es wird benutzt, um die
grundsätzlichen Ideen visuell darzustellen, darunter fallen die Handlungen des
Charakters, Zeitabläufe der Bewegungen und Übergänge zwischen den
Szenen. Anhand des Comic-Strips lässt sich eine Motion List erstellen, die dem
Produktionsteam die notwendigen Aufnahmen vorgibt.
4. Liste der Aufnahmen
Es sollte festgehalten werden, in welcher Aufnahme die Kamera welche Szene
aufzeichnet. Hierzu ist eine nummerierte Liste aller Aufnahmen (engl. Takes) zu
erstellen, mit einer jeweiligen Erklärung der gezeigten Performance. Ebenfalls
können die für die jeweilige Aufnahme beabsichtigten Kameraeinstellungen
festgehalten werden (Tracking, Close-Up, Wide Shot). 29
29
Vgl. Kurs ATEC 6351 der Universität Texas (Dallas), bei Professor Midori Kitagawa, Website:
atec.utdallas.edu/~midori/6351/Assignments/Assignment_1.htm (Zugriff am 2007-05-15).
18
5.3 Einbindung des Performers
Die Person, deren Bewegungen aufgezeichnet werden, wird im Englischen als
„Trial Subject“ bezeichnet, wir verwenden den Begriff „Performer“.
Es ist möglich, jedes beliebige Objekt (so auch Tiere und Maschinen) zu
capturen. Der Einfachheit halber und da am häufigsten verwendet, wird sich
jedoch an einem menschlichen Objekt orientiert.
Die nachfolgende Abbildung zeigt den Workflow, in den der Performer involviert
ist:
Abbildung 11 - Workflow für Performer
Auf die in diesem Workflow dargestellten Schritte wird ausführlich im Leitfaden
eingegangen.
19
5.4 Kamera-Kalibrierung
Die Kamera-Kalibrierung (auch bekannt als System-Kalibrierung oder
Dynamische Kalibrierung) ist der erste wesentliche Schritt einer MoCapProduktion. Er unterteilt sich in zwei verschiedene Phasen: In der dynamischen
Phase wird der Kalibrierungsstab (Wand) benutzt, um die physikalischen
Positionen und die Orientierung jeder einzelnen Vicon-Kamera im System zu
messen und Linseneinstellungen gegebenenfalls zu korrigieren. In der
statischen Phase wird ein statisches Kalibrierungsobjekt (L-Frame) genutzt, um
das globale Koordinatensystem für das Capture Volume einzustellen. Die
Kamera-Kalibrierung ist notwendig, um die 3D-Bewegungsdaten fehlerfrei
rekonstruieren zu können.30
Kalibrierungsprozess
Die Leistungsfähigkeit des Vicon MX Systems beruht wesentlich auf der
Genauigkeit, mit der das System kalibriert wurde.
Der Kalibrierungsprozess beinhaltet die Erfassung von internen und externen
Kamera-Parametern. Zu internen Parametern gehören die Blendweiten und die
Bildverzeichnung31, zu externen die Kamerapositionen und deren Orientierung.
Mit der dynamischen Kalibrierung werden alle vorgenannten Parameter
ermittelt. Es wird ein Linearisierungsverfahren verwendet, bei dem optische
Verzerrungen der Kameralinsen gemessen werden und eine Korrekturmatrix
erstellt wird. Die Korrekturen werden dann auf jeden Datenframe für jede
Kamera angewendet.32
Kalibrierungsobjekt
Hierbei handelt es sich um ein Gerät, das zur Kalibrierung des Capture Volume
genutzt wird. Wie bereits zuvor erwähnt, gibt es zwei Arten: den L-Frame und
den Wand. Beide bestehen aus Metall und an ihnen sind reflektierende Marker
befestigt.
Vicon iQ benutzt die von diesen Objekten bekannten physischen Maße, um die
Kalibrierungsparameter zu berechnen.
30
31
Vgl. Vicon iQ 2.5 - System Reference Volume I, Revision 1.0, Seiten 211 f.
Bildverzeichnung ist die Verzeichnung im Meßbild, sie enthält neben der Objektverzeichnung alle weiteren im
Messbild wirksam gewordenen Abweichungen von der Zentralprojektion (DIN).
32
Vgl. Vicon MX Hardware System Reference, Revision 1.3, Seite 79.
20
5.5 Labeling und Subjekt-Kalibrierung
Rekonstruierte dreidimensionale Bewegungsdaten bestehen aus Bewegungsbahnen (Trajectories), die die Markerpositionen im Raum über die Zeit
angeben. Vicon iQ berechnet die Bewegungsbahnen, indem es die Markerpositionen von Bild zu Bild verknüpft. Das rekonstruierte Bild kann im 3D Live
Workspace von Vicon iQ betrachtet werden.
Um die Marker einer Hierarchie zuzuordnen bzw. die Unterscheidbarkeit der
Marker voneinander zu ermöglichen, werden weitere Schritte notwendig:
1. Range of Motion (RoM)
Um eine Subjekt-Kalibrierung durchführen zu können, wird eine essentielle
Erst-Aufnahme, die sogenannte Range of Motion, notwendig. Während dieser
Aufnahme bewegt der Performer seine Gliedmaßen und Gelenke auf jegliche
erdenkliche Art und Weise, damit Vicon iQ im Nachhinein aus der Vielzahl der
gewonnenen Daten die Markerpositionen auf dem Anzug und deren Maße
zueinander errechnen kann.
2. Labeling
Labeling bedeutet, dass jeder im 3D Live Workspace von Vicon iQ abgebildete
Marker mittels der vordefinierten Marker eines Vicon Skeleton Templates
gekennzeichnet wird. Diesen Vorgang muss das Produktionsteam manuell
vornehmen.
3. Subjekt-Kalibrierung
Die Vicon iQ-Software orientiert sich an dem Vicon Skeleton Template und
ordnet bei allen folgenden Bildern die Markerbezeichnungen eigenständig zu.
Danach kalibriert sie das Template und passt es der Struktur des Skeletons an.
Diese proportionierten Daten werden als Vicon Skeleton (VSK) gespeichert und
können nun mit diversen Operationen der Batch-Pipeline bearbeitet werden.
5.6 Capturing der Bewegungen
Wenn die in den Kapiteln zuvor beschriebene Kalibrierung erfolgreich verlaufen
ist, kann mit den Bewegungsaufnahmen begonnen werden.
Dazu stellt sich der Performer in die Mitte des Capture Volumes und der
Capture-Prozess wird in Vicon iQ gestartet. Während des MoCap-Prozesses
wird der Performer entsprechend der Anweisungen des Produktionsteams eine
Anzahl von Bewegungsabläufen im Capture Volume ausführen. Während
dieser Zeit nehmen die Vicon MX Kameras alle Marker auf und senden die
Daten zum MX Ultranet, das als zentrale Einheit des Vicon Systems die 2D-
21
Videodaten sammelt und verarbeitet. Danach kombiniert es die Daten mit den
Kamerakoordinaten und ermittelt ein dreidimensionales Bild, wobei die
dreidimensionalen Daten für jeden Marker separat bestehen.
Die 3D-Daten werden anschließend von Frame zu Frame so kombiniert, dass
Bewegungsbahnen entstehen.
Idealerweise sollte der vorgenannte Prozess durchgängige, vollständige
Bewegungen hervorbringen. In der Realität kommt es jedoch zu Verdeckungen
(Occlusion) oder es können nicht genügend Kameras den jeweiligen Marker
sehen oder Marker sind so dicht beieinander (Crossover), dass sie nicht
interpretiert werden können. Andererseits kann es passieren, dass Reflektionen
von den Kameras wahrgenommen werden, die nicht von den Markern
stammen, aber trotzdem als Marker dargestellt werden (Ghost Marker).
Weiterhin können Fehldarstellungen auftreten, wenn der Performer die Grenzen
des Capture Volumes verlässt.
Als Folge der vorgenannten Fehlermöglichkeiten liegen die Bewegungsdaten
nie komplett vor. Die vorhandenen Lücken und Fehlbereiche müssen dann im
Post-Processing mit diversen Operationen ausgeglichen werden.
5.7 Post- und Data-Processing
Nach dem Aufbau des Vicon-Systems, dessen Kalibrierung sowie der SubjektKalibrierung und der erfolgten MoCap-Aufnahme kommt es zum PostProcessing der gewonnenen Daten. Dies wird notwendig, da es zu den im
vorigen Abschnitt beschriebenen technischen Fehlern kommen kann.
Unter das Post-Processing fallen Operationen wie die 3D-Rekonstruktion der
2D-Kameradaten (Erzeugen von Bewegungsbahnen), die Bereinigung der
MoCap-Daten (Clean-Up, Fill Gaps) und deren Nachbearbeitung (Labeling,
Vicon Skeleton).
Unter Data-Processing hingegen ist die Nutzung der fertigen Daten zu
verstehen.
Post-Processing
Unter diesen Prozess fallen eine große Bandbreite von möglichen Operationen
in Vicon iQ. Um nur einige zu nennen: Herausfiltern von Rauschen bei
undeutlichen Aufnahmen, Füllen von nicht-kontinuierlichen oder fehlenden
Bewegungsbahnen durch lineare, quadratische oder Spline-Interpolationen (Fill
Gaps), Verwendung von Kinematic Fitting, bei dem das fehlerhaft rekonstruierte
Modell über ein generisches Skeleton-Modell wieder hergestellt wird, etc.
Im beiliegenden Leitfaden wird detailliert auf die verschiedenen verfügbaren
Prozesse eingegangen.
22
Data-Processing
Im Data-Processing lassen sich in MotionBuilder die MoCap-Daten mit dem
Skeleton einer 3D-Figur kombinieren. Dies erfolgt über die Zwischeninstanz
eines sogenannten Actors. Anschließend können mithilfe der Software unter
anderem folgende Veränderungen erzielt werden:
•
•
•
•
•
•
•
•
•
•
•
33
Bewegungen sind modifizierbar (so kann beispielsweise die Sprunghöhe
wesentlich erhöht werden).
Ungenauigkeiten und Fehler sind mit verschiedenen Tools ausgleichbar.
Bewegungen aus verschiedenen Aufnahmen können zu einer
Gesamtbewegung kombiniert werden, ohne dass Übergänge zu
erkennen sind (Motion Blending).
Zwangsbedingungen (Constraints) sind möglich (darunter fällt beispielsweise das Nicht-Bewegen eines Körperteils).
Keyframing ist für den vorhandenen Animationsclip verfügbar.
Objekte können eingebaut und analog der animierten Figur bewegt
werden.
Zwischenposen können definiert werden, mit denen sich ebenfalls
animieren lässt.
Mit Hilfe von Control Rigs (Kontrollgerüste) werden Proportionen des
Skeletons eingehalten und Verzerrungen sowie unnatürlich
Bewegungen (z. B. das Einknicken des Knies nach hinten) verhindert.
Durch Gewichtungen wird festgelegt, wie stark das Rig den 3D-Körper
beeinflusst.
Techniken der inversen Kinematik33 führen zu Bewegungsabhängigkeiten zwischen den verschiedenen Gliedern (zum Beispiel
Anheben des Oberschenkels führt zusätzlich zur Bewegung des
Schienbeins).
Weiterhin sehr wichtig ist die Möglichkeit des Retargeting, bei dem die
Proportionen des Performers in den Bewegungsdaten denen der
virtuellen Figur angepasst werden. Durch das Retargeting ist eine
Wiederverwendung der MoCap-Daten auf jede beliebige Figur erlaubt.
Als letztes sind noch Verfeinerungen zu nennen, unter denen zum
Beispiel die Bewegung der Kleidung gehört, Atembewegungen oder
Muskeldeformationen.34
Bei der inversen Kinematik wird ausgehend von der Lage eines Endeffektors die Bewegung der übrigen Glieder
berechnet.
34
Vgl. Jackel, Neunreither, Wagner: „Methoden der Computeranimation“, Springer-Verlag 2006, Seiten 176 f.
23
5.8 Weiterverwendung
Sind Post- und Data-Processing abgeschlossen. Kann die fertige Bewegungsabbildung exportiert werden.
Zuvor müssen jedoch Animation und Skeleton der 3D-Figur in MotionBuilder
miteinander verbunden bzw. verschmolzen werden. Dieser Prozess wird
Plotting (oder auch Baking, Burning) genannt.
Ist dies geschehen, ist nur noch die 3D-Figur (in MotionBuilder als Character
bezeichnet) vorhanden, dessen Skeleton die Bewegungsdaten übernommen
hat.
Jetzt kann die Animation exportiert und in anderen Programmen wie Autodesk
Maya, Autodesk 3ds Max, Cinema 4D, LightWave 3D und Softimage XSI
weiterverwendet werden.
Für den Export bietet sich das FBX-Format (File Interchange Format für 3DContent) an, das von der meisten 3D-Software unterstützt wird.
24
6. Anhang
6.1 Literaturverzeichnis
[1] „Understanding Motion Capture for Computer Animation and Video Games“
Alberto Menache, Verlag Morgan Kaufmann, 1999
[2] „The Animator's Motion Capture Guide: Organizing, Managing, and Editing”
Matthew Liverman, Verlag Charles River Media, Inc., 2004
[3] „Methoden der Computeranimation“
Dietmar Jackel, Stephan Neunreither, Friedrich Wagner, Springer-Verlag, 2006
6.2 Abbildungsverzeichnis
[1] Szene aus dem Werbespot Brilliance
Quelle: Computer Animation, Neal Weinstock
accad.osu.edu/~waynec/history/tree/abel.html (2007-05-07)
[2] Dozo aus dem Musikvideo „Don’t Touch Me“
Quelle: Kleiser-Walczak, Timeline
www.kwcc.com/house/timeline/index_3frames.html (2007-05-15)
[3] Logos von OMG und Vicon
Quelle: Vicon Management Team
www.vicon.com/company/managementteam.htm (2007-06-14)
[4] Vicon MX Architecture mit 6 Kameras
Quelle: Vicon MX Hardware System Reference, Revision 1.3
[5] Vicon MX Camera
[6] MX Camera Rear Panel
[7] MX Net Front Panel
[8] MX Net Rear Panel
[9] Calibration Kit
Quelle: Vicon MX Hardware System Reference, Revision 1.3
[10] Workflow einer MoCap-Produktion
[11] Workflow für Performer
Quelle: Vicon MX Hardware System Reference, Revision 1.3
25