Kapitel 1 - Professur Mediengestaltung

Transcription

Kapitel 1 - Professur Mediengestaltung
Daten zur Diplomarbeit
Technische Universität Dresden, Fakultät Informatik
Diplomthema im Studiengang Medieninformatik
Hochschullehrer: Prof. Dr.-Ing. habil. Rainer Groh
Betreuer: M.Sc. Ingmar S. Franke
Diplomand: Christian Fröde
Matrikelnummer: 2844240
Thema: Zeitlupe und Zeitraffer bei der Wegbeschreibung
Bearbeitungszeit: 15.06.2006 – 14.12.2006
Eigenständigkeitserklärung
Ich versichere hiermit, dass ich die vorstehende Diplomarbeit mit dem Titel Zeitlupen und
Zeitraffer bei der Wegbeschreibung selbstständig verfasst und keine anderen als die angegebenen Hilfsmittel benutzt habe. Die Angaben, welche anderen Quellen dem Wortlaut
oder sinngemäß entnommen wurden, habe ich in jedem einzelnen Fall durch eine Quellenangabe gekennzeichnet.
Pirna, 13. Dezember 2006
Aufgabenstellung
Zeitraffer und Zeitlupen sind spezielle Aufnahmetechniken für Filme, bei denen die Aufnahmefrequenz der Bilder herab oder heraufgesetzt wird. Die Zeitabstände, in denen die
einzelnen Bilder aufgenommen werden, unterscheiden sich dabei von üblichen Filmaufnahmen. Wird die Aufnahme dann mit normaler Geschwindigkeit abgespielt, scheint der
aufgenommene Vorgang dann schneller, beziehungsweise langsamer abzulaufen. Dadurch
werden auch Bewegungen sichtbar, die in Echtzeit vom Menschen nicht oder nur schwer
wahrnehmbar sind.
In dieser Arbeit wird untersucht, inwieweit sich Zeitlupen und Zeitraffer für wissenschaftliche Zwecke eignen.
Im Einzelnen werden folgende Ziele angestrebt:
- es ist ein Überblick zu geben, wann die jeweiligen Aufnahmetechniken erstmals angewendet wurden und wie die Weiterentwicklung erfolgte
- Erarbeitung psychologischer Vorraussetzungen in Bezug auf Bildinhalt und Abspielgeschwindigkeit der Filme
- Abstraktion der Prozesse Zeitlupe und Zeitraffer über Bildinhalte, die in derartigen Filmen häufig vorkommen
- Untersuchung technischer Mittel zur Erstellung von Zeitlupen und Zeitraffern; beschränkt auf die Digitalfotografie und –videografie
- Überprüfung, inwieweit Zeitlupen und Zeitraffer einem wissenschaftlichen Nutzen unterliegen
- Entwurf eines Schemas, in welchen Einsatzgebieten welche Aufnahmetechniken eingesetzt werden können
- Konzeption eines Modells für den Einsatz von Zeitlupe und Zeitraffer bei der Wegbeschreibung
Vorwort
Während der Bearbeitung der Diplomarbeit lernte ich sehr viel Neues kennen. Mir bereitete das Arbeiten an diesem Thema große Freude. Mein Interesse am Thema Zeitlupen
und Zeitraffer bei der Wegbeschreibung entstand während eines längeren Zeitraumes, in
dem ich besonders viele Zeitrafferaufnahmen erstellte. Das Gegenteil zum Zeitraffer ist die
Zeitlupe. Mir erschien es logisch und sinnvoll, hier beide Aufnahmetypen zu betrachten und
gegenüberzustellen. In ersten Gesprächen mit Professor Rainer Groh und meinem Betreuer
Ingmar Franke stellte ich mein Wunschthema vor. Wir erörterten grob den Rahmen, und
einigten uns schnell auf die Untersuchung des Einsatzes dieser beiden Spezialaufnahmetechniken bei der Wegbeschreibung. Dabei entwickelte ich als Erstes ein Modell für den
Einsatz von Zeitlupen und Zeitraffern bei der Wegbeschreibung und schlussfolgerte, aus
welchen wissenschaftlichen Bereichen bei der Anwendung fundierte Kenntnisse notwendig
sind. Dabei zeigte sich, dass neben der technischen Betrachtung auch eine weitreichende
psychologische Kenntnis von Wahrnehmungsprozessen notwendig ist. Mit meiner Ausbildung in den Nebenfächern Kunst und Psychologie fühlte ich mich der Herausforderung
gewachsen und erarbeitete die folgende Diplomarbeit.
Danksagung
Mein Dank gilt allen, die an der Fertigstellung der Diplomarbeit beteiligt waren, ganz
besonders Herrn Professor Rainer Groh, bei dem die Gespräche zum Diplomthema äußerst
motivierend waren. Meinem Betreuer Ingmar Franke gilt ein großes Lob dafür, dass er mir
insbesondere gegen Ende der Bearbeitungszeit jede Frage so schnell wie möglich beantwortete und mir auf diese Weise eine zügige Bearbeitung ermöglichte.
Ebenfalls möchte ich mich bei allen bedanken, die mir Hinweise gaben und mich bei der
praktischen Arbeit unterstützten, besonders bei meinen Eltern Ursula und Dietmar Fröde.
Inhaltsverzeichnis
1 Einleitung
8
1.1 Motivation
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
8
1.2 Zielsetzung
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
8
.
.
.
.
.
.
.
.
.
.
9
.
.
.
.
.
.
.
.
.
. 10
1.3 Theoretische und praktische Ergebnisse
1.4 Gliederung der Arbeit.
.
.
.
.
2 Definitionen
12
2.1 Der Fixpunkt .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. 12
2.2 Der Ruhepunkt
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
2.3 Der Zeitraffer .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. 12
2.4 Der extreme Zeitraffer
.
.
.
.
.
.
.
.
.
.
.
.
.
. 13
2.5 Die Echtzeit .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. 13
2.6 Die Zeitlupe .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. 13
2.7 Die extreme Zeitlupe .
.
.
.
.
.
.
.
.
.
.
.
.
.
. 13
3 Verwandte Arbeiten
12
15
.
.
.
.
.
.
.
.
.
. 15
3.2 Der aktuelle Stand der Aufnahmetechnik .
.
.
.
.
.
.
.
.
. 20
3.2.1 Aufnahmegeräte für Zeitlupen .
.
.
.
.
.
.
.
.
.
. 20
3.2.2 Aufnahmegeräte für Zeitraffer .
.
.
.
.
.
.
.
.
.
. 22
3.2.3 Auswertung
.
.
.
.
.
.
.
.
.
. 24
3.3 Wahrnehmung von Videos – psychologische Ansätze .
.
.
.
.
.
. 25
3.1 Entwicklung der Aufnahmegeräte.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. 26
3.3.2 Raum- oder Tiefenwahrnehmung .
.
.
.
.
.
.
.
.
. 30
3.3.1 Organisation der Wahrnehmung
3.3.3 Visuelle Konstanten
.
.
.
.
.
.
.
.
.
.
.
.
. 33
3.3.4 Mustererkennung .
.
.
.
.
.
.
.
.
.
.
.
.
. 36
.
.
.
.
.
.
.
.
.
.
.
. 39
3.3.6 Individual-, Sozial- und Kulturunterschiede in der Wahrnehmung
.
. 49
3.3.7 Zusammenfassung: Wahrnehmung aus psychologischer Sicht .
.
. 53
.
. 55
3.3.5 Wahrnehmungstheorien
3.4 Zusammenfassung verwandter Arbeiten .
.
.
.
.
.
.
.
4 Zeitlupen und Zeitraffer
58
.
.
.
.
.
. 58
.
.
.
.
.
. 59
.
.
.
.
.
. 60
4.1.3 Was wird in Zeitlupen und Zeitraffern dargestellt? .
.
.
.
.
. 62
4.1 Bildinhaltsabstraktion und Schemen für Einsatzgebiete
4.1.1 Was sind Zeitlupen und Zeitraffer? .
.
.
.
4.1.2 Warum werden Zeitlupen und Zeitraffer erstellt?
4.1.4 Tiefenwahrnehmung in Videoaufnahmen .
.
.
.
.
.
.
. 63
4.1.5 Mustererkennung bei der Wegbeschreibung
.
.
.
.
.
.
. 64
4.1.6 Objektbewegung und Objekttransformation
.
.
.
.
.
.
. 65
4.1.7 Zusammenfassung der Abstraktionen und Schemen
.
.
.
.
. 66
.
.
.
.
. 67
4.2.1 Anwendungsbereiche und Klassifizierung der Videotypen .
.
.
. 67
4.2.2 Regeln für das Verhalten zwischen Kamera und Objekt
.
.
.
. 69
4.2.3 Wann Zeitlupe und wann Zeitraffer?
.
.
.
.
.
.
.
.
. 70
4.2.4 Kamerabewegungen .
.
.
.
.
.
.
.
.
. 74
4.2.5 Zusammenfassung zur Wegbeschreibung .
.
.
.
.
.
.
. 78
4.2 Zeitlupen und Zeitraffer bei der Wegbeschreibung
.
.
4.3 Zusammenfassung des vierten Kapitels
4.3.1 Überblick zu den Regeln
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. 79
.
.
.
.
.
.
.
.
.
. 81
5 Praktische Umsetzungen
83
5.1 Einsatzgebiete von Zeitlupen und Zeitraffern .
.
.
.
.
.
.
.
. 83
5.1.1 Zeitlupen mit wissenschaftlichem Hintergrund .
.
.
.
.
.
. 84
5.1.2 Zeitlupen ohne wissenschaftlichen Hintergrund
.
.
.
.
.
. 97
5.1.3 Zeitraffer mit wissenschaftlichem Hintergrund .
.
.
.
.
.
. 99
5.1.4 Zeitraffer ohne wissenschaftlichen Hintergrund.
.
.
.
.
.
. 101
.
.
.
.
.
.
. 103
5.2 Wegbeschreibung mit Zeitlupen und Zeitraffern .
5.2.1 Autobahnfahrt und Stadtfahrt .
.
.
.
.
.
.
.
.
.
. 103
5.2.2 Campus der Florida State University
.
.
.
.
.
.
.
.
. 107
5.2.3 Taufstein der Marienkirche in Pirna .
.
.
.
.
.
.
.
.
. 108
5.2.4 Zusammenfassung des Einsatzes bei der Wegbeschreibung.
.
.
. 110
.
.
. 111
5.3 Zusammenfassung praktischer Umsetzungen .
.
.
.
.
.
6 Zusammenfassung
6.1 Fazit .
114
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. 115
6.2 Ausblick .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. 116
A Literaturverzeichnis
118
B Abbildungsverzeichnis
122
C Index
126
D Tabellen
127
E DVD
139
Kapitel 1 - Einleitung
8
Kapitel 1 – Einleitung
Diese Diplomarbeit wendet sich an alle Interessierten, die bereits Erfahrungen mit Zeitlupen- und Zeitrafferaufnahmen insofern haben, dass sie diese beiden Spezialaufnahmen von
allen anderen unterscheiden können und den Umgang und Einsatz dieser Aufnahmen verstehen. Hat der Leser noch nie eine dieser Spezialaufnahmen gesehen, sollte er sich die auf
der beiliegenden DVD gespeicherten Videoclips vor dem Lesen der Diplomarbeit ansehen.
Verschiedene Hinweise zum Inhalt der DVD befinden sich im Anhang E.
1.1 Motivation
Routenplaner stellen eine Fahrtroute auf Karten häufig durch Linien dar, die den Startpunkt mit dem Endpunkt verbinden. Die Linien verlaufen dabei exakt entlang der Straßen,
die zum Erreichen des Ziels befahren werden müssen. Dargestellt werden sie meistens auf
einem Stadtplan, einem Satellitenbild oder einer Hybridansicht beider Ansichten, in der
die befahrbaren Straßen durch Linien deutlicher hervorgehoben sind. Lässt sich ein Weg
beschreiben und gleichzeitig so darstellen, wie er befahren oder begangen wird? Wie lässt
sich diese Art der Wegbeschreibung mit Zeitraffern und Zeitlupen darstellen? Womit werden Zeitlupen und Zeitraffer aufgezeichnet, und wo werden sie sonst noch eingesetzt? In
dieser Diplomarbeit erfolgt die Beantwortung dieser und noch weiterer Fragen.
1.2 Zielsetzung
Im Einzelnen wird ein Überblick gegeben, wie sich die jeweiligen Aufnahmegeräte entwickelt haben und wie die Weiterentwicklung erfolgte. Die Ausführungen dazu beschränken
sich auf das Kamerawerk Dresden. Es werden digitale technische Hilfsmittel zur Erstellung
von Zeitlupen und Zeitraffern untersucht, wozu eine Marktanalyse von Digitalkameras und
Hochgeschwindigkeitskameras durchgeführt wird. Zusätzlich zu den technischen Betrachtungen werden psychologische Vorraussetzungen in Bezug auf Wahrnehmung, Bildinhalt
und Abspielgeschwindigkeit der Filme erarbeitet.
Es wird erläutert, was Zeitlupen und Zeitraffer sind und wie sie erstellt werden. Die beiden Prozesse, Zeitlupe und Zeitraffer, lassen sich über den Bildinhalt abstrahieren, wobei
wichtige Kamerabewegungen in Bezug auf die Aufnahme der Vorgänge genau analysiert
werden. Es wird ein Schema entworfen, aus dem der Einsatz der entsprechenden Aufnahmetechniken unter bestimmten Bedingungen hervorgeht. Daraus lässt sich ein Modell
konzipieren, welches den Einsatz von Zeitlupen und Zeitraffern bei der Wegbeschreibung
ermöglicht.
Neben der Überprüfung, inwieweit Zeitraffer und Zeitlupen einem wissenschaftlichen Nutzen unterliegen, soll das entwickelte Modell praktisch erprobt werden.
Kapitel 1 - Einleitung
9
1.3 Theoretische und praktische Ergebnisse
Bei der Marktanalyse von Hochgeschwindigkeitskameras wird deutlich, welche Firmen aktiv
Kameras weiterentwickeln oder lediglich modifizierte Modelle einer bestimmten Kamera
anbieten. Häufig halten die Anbieter wichtige Kamerainformationen zurück. Bei hochwertigen Produkten standen ausführliche und übersichtliche Datenblätter, teilweise sogar die
Baupläne der Kameras zur Verfügung. Die Bildauflösung der untersuchten Kameras beträgt
bis zu 4.096 mal 2.440 Pixel. Die maximale Bildaufnahmefrequenz liegt bei 500.000.000
Bildern pro Sekunde. Die zugehörigen Kameras erfordern jedoch eine Spezialbelichtung
durch einen Laser oder Strahlungen außerhalb des sichtbaren Bereichs. Die Untersuchungen in der Diplomarbeit beschränken sich auf Kameras, bei denen eine Belichtung des
Objektes mit für den Menschen sichtbarem Licht erfolgte.
Aus der Untersuchung der technischen Angaben zu den Digitalkameras geht hervor, in
welche Richtung sich die einzelnen Digitalkamerahersteller entwickeln. Während bei Sony
und Sanyo seit Oktober 2003 fast jede Kamera über einen schnellen USB2.0-Anschluss verfügt, besitzt keine der untersuchten Kameras eine Intervallfunktion zum Erstellen von Zeitraffern. Bei Kodak und Samsung steht eine Intervallfunktion nur bei den Luxusmodellen zur
Verfügung. Bei vielen Modellen von Canon, Nikon oder Ricoh gehört die Intervallfunktion
fast zum Standard. Es wird jedoch empfohlen, Zeitraffer generell mit Hilfe eines Computers
zu erstellen, der mit der Kamera verbunden ist. In diesem Fall ist eine schnelle Verbindung
zum Computer wichtig, wie zum Beispiel USB2.0 oder Firewire, damit auch große Bildformate rechtzeitig übertragen werden können. Lediglich 41 der 1.331 untersuchten Digitalkameras stellen Bilder mit mehr als 8.000.000 Pixel zur Verfügung und übertragen diese mit
einer der genannten schnellen Verbindungen zum Computer.
Die im praktischen Teil der Diplomarbeit untersuchten Einsatzgebiete zeigen, dass vorrangig
Zeitlupen einen wissenschaftlichen Nutzen haben. Ein Zeitraffer dient der Visualisierung,
damit ein lange andauernder Prozess schneller vom Menschen erfasst werden kann. Zeitlupen dienen der Analyse von Prozessen. Die Anzahl der analysierbaren Prozesse ist sehr
hoch. Daher werden die Einsatzgebiete für Zeitlupen in Anwendungsgebiete unterteilt.
Das entwickelte Modell zu Wegbeschreibung mit Zeitraffern und Zeitlupen ist durch acht
Regeln definiert und wird praktisch an drei unterschiedlichen Einsatzorten erfolgreich getestet: bei Autofahrten, in einer Fußgängerzone und in einem Gebäude. Die Regeln legen
fest, wie die Kameraführung gegenüber den aufzunehmenden Objekten erfolgen muss.
Kapitel 1 - Einleitung
10
1.4 Gliederung der Arbeit
Im zweiten Kapitel werden einige Fachbegriffe definiert, die in späteren Kapiteln der Arbeit
häufig vorkommen und dem Verständnis der beschriebenen Sachverhalte dienen.
Das dritte Kapitel stellt den Analyseteil dar. Es werden wissenschaftliche Arbeiten vorgestellt, die eine Grundlage für das vierte Kapitel bilden. Anhand der Entwicklung des Kamerawerkes Dresden wird ein Überblick gegeben, wie sich die Kameratechnik entwickelte.
Obwohl sich die folgenden Ausführungen auf digitale Aufnahmetechnik beschränken, werden hier auch die analogen Geräte vorgestellt. Von den seit 1990 entwickelten Zeitlupenkameras wird zu einer Untersuchung digitaler Aufnahmegeräte für Zeitlupen und Zeitraffer
übergegangen. Bei der durchgeführten Marktanalyse werden 56 Hochgeschwindigkeitskameras und 1.331 Digitalkameras betrachtet und hinsichtlich bestimmter Funktionalitäten
ausgewertet.
Zum weiteren Verständnis sind nicht nur technische Aspekte wichtig, sondern auch eine
psychologische Betrachtung des Wahrnehmungsprozesses. Dabei wird zuerst geklärt, wie
die Wahrnehmung beim Menschen funktioniert. Die Ausführungen zur Tiefenwahrnehmung, zu visuellen Konstanten und zur Mustererkennung sollen erläutern, dass diese Funktionen bei der Wahrnehmung von großer Bedeutung sind. Die erarbeiteten Grundlagen
sind später für eine Anwendung dieser Kenntnisse auf das Betrachten von Zeitlupen und
Zeitraffern wichtig.
Im vierten Kapitel wird zunächst geklärt, was Zeitlupen und Zeitraffer sind, wie sie erstellt
werden und was mit ihnen dargestellt werden kann. Ausgehend vom Bildinhalt wird bei
der Abstraktion ersichtlich, dass dabei nicht nur die Objektbewegung und Objekttransformation von großer Bedeutung sind, sondern auch verschiedene Kamerabewegungen.
Bereits hier werden verschiedene psychologische Erkenntnisse aus dem dritten Kapitel auf
die Abstraktionen angewendet. Weiterhin erfolgt der Entwurf eines Schemas, aus welchem
die Einsatzgebiete der verschiedenen Aufnahmetechniken hervorgehen. Alle Erkenntnisse
werden in Regeln zusammengefasst, wobei schließlich ein Modell konzipiert wird, welches
den Einsatz von Zeitlupen und Zeitraffern bei der Wegbeschreibung ermöglicht. Es wird
untersucht, für welche Bereiche sich dieses Modell anwenden lässt.
Das fünfte Kapitel beschreibt den Praxisteil der Diplomarbeit. Im ersten Abschnitt erfolgt
eine Überprüfung, inwieweit Zeitlupen und Zeitraffer einem wissenschaftlichen Nutzen
unterliegen. Dabei werden Praxisbeispiele aufgezählt und beschrieben. Die Ausführungen konzentrieren sich auf Aufnahmen mit Kameras und einer gewöhnlichen Lichtquelle.
Aufnahmen mit Hilfe von Laserlicht, Infrarot-, Ultraviolett- oder anderer Strahlungen bleiben unberücksichtigt. Es werden auch Beispiele dargestellt, bei denen nur ein begrenzter
wissenschaftlicher Nutzen vorhanden ist. Anschließend wird das im vierten Kapitel erstellte
Modell praktisch erprobt. Die Tests dazu erfolgen in mehreren Einsatzgebieten.
Kapitel 2 - Definitionen
12
Kapitel 2 – Definitionen
Vor dem Einstieg in die Thematik Zeitlupen und Zeitraffer bei der Wegbeschreibung werden zunächst einige Begriffe geklärt, die in der Arbeit häufig vorkommen. Dabei spiegeln
die Definitionen möglicherweise nicht exakt den gleichen Wortlaut wider, wie er von Wissenschaftlern für die jeweiligen Begriffe angewendet wurde. Die Definitionen dienen dem
Verständnis der Thematik, sodass der Leser weiß, was unter den entsprechenden Begriffen
zu verstehen ist.
2.1 Der Fixpunkt
Ein Fixpunkt existiert in einer Videoaufnahme, bei der die Aufnahme während eines Kamerazooms oder einer Kamerafahrt stattfindet. Bei einem Zoom entsteht der Fixpunkt immer
im Bildmittelpunkt, da sich alle Bildpunkte exakt vom oder zum Zentrum bewegen. Der Fixpunkt wird dabei genau von dem Punkt gebildet, der sich als Einziger auf dem Videoanzeigegerät nicht bewegt. Bei einer Kamerafahrt entsteht im Bild nur dann ein Fixpunkt, wenn
der Punkt genau im Bild liegt, in dessen Richtung oder Gegenrichtung die Kamerafahrt
stattfindet. Wie im Fall des Kamerazooms bewegen sich auch hier alle Punkte vom oder
zum Fixpunkt, jedoch muss nun der Fixpunkt nicht in der Bildmitte liegen. Er verändert
seine Position, sobald die Fahrtrichtung oder der Blickwinkel der Kamera geändert wird.
2.2 Der Ruhepunkt
Ein Ruhepunkt entsteht in einer Videoaufnahme, bei der in einem Zeitabschnitt die Farbe
eines bestimmten Pixels gleich bleibt. Häufig entstehen mehrere Ruhepunkte nebeneinander, wobei in diesem Fall auch von einer Ruhefläche gesprochen werden kann. Ist die
Kamera beispielsweise fest arretiert und nimmt ein sich bewegendes Objekt auf, so besteht
der Hintergrund aus vielen Ruhepunkten. Schwenkt die Kamera dagegen mit dem Objekt,
so kann beispielsweise der Objektmittelpunkt ein Ruhepunkt sein.
2.3 Der Zeitraffer
Ein Zeitraffer ist eine Spezialaufnahme aus der Filmtechnik, bei der sehr langsam ablaufende Prozesse beschleunigt dargestellt werden. Dadurch ist es dem Menschen möglich, einen
Überblick von einem sehr lange andauernden Prozess zu erhalten.
Zeitraffer können auf zwei unterschiedliche Weisen erstellt werden. Bei der ersten Möglichkeit werden die Bilder langsamer aufgenommen, als sie bei der Wiedergabe gezeigt werden. Diese Funktion wird häufig Intervallfunktion oder Serienbildfunktion genannt. Für das
Erstellen wird im Allgemeinen eine Digitalkamera eingesetzt.
Die zweite Möglichkeit wird genutzt, wenn das Filmen nur mit einer Kamera möglich ist,
die über keine Zeitrafferaufnahmemöglichkeit verfügt. In diesem Fall werden aus dem Video Einzelbilder nach einem ganz bestimmten Intervall entfernt. Werden die übrigen Bilder
mit der gleichen Geschwindigkeit abgespielt, wie sie aufgenommen wurden, so liegt der
gefilmte Prozess nun als Zeitraffer vor, da nicht mehr alle Einzelbilder angezeigt werden.
Kapitel 2 - Definitionen
13
2.4 Der extreme Zeitraffer
Eine Sonderform des Zeitraffers ist der extreme Zeitraffer. Dieser besteht aus zwei Einzelbildern und visualisiert damit den Anfang und das Ende der zu beobachtenden Veränderung.
Bei einem solchen Zeitraffer wird jedoch nicht ersichtlich, wie es von der Ausgangssituation
zum Ende des Prozesses gekommen ist. Der extreme Zeitraffer gibt damit keinen Überblick
zum Prozessablauf, weshalb auf ihn nicht weiter eingegangen wird.
2.5 Die Echtzeit
Unter Echtzeit wird im Kontext der Diplomarbeit verstanden, dass die Dauer eines Vorganges bei der Aufnahme und der Wiedergabe gleich ist. Wird ein Video beispielsweise mit 25
Bildern pro Sekunde aufgenommen und auch mit 25 Bildern pro Sekunde abgespielt, so
sind alle Abläufe im Video in Echtzeit zu sehen.
2.6 Die Zeitlupe
Eine Zeitlupe ist eine Spezialaufnahme aus der Filmtechnik, bei der sehr schnell ablaufende Prozesse verlangsamt dargestellt werden. Dadurch ist es dem Menschen möglich, sehr
schnelle Bewegungen oder Veränderungen besser oder überhaupt erst wahrzunehmen.
Zeitlupen können auf zwei unterschiedliche Weisen entstehen: Bei der ersten Möglichkeit
werden die Bilder schneller aufgenommen als sie bei der Wiedergabe gezeigt werden.
Dazu wird im Allgemeinen eine Hochgeschwindigkeitskamera eingesetzt.
Die zweite Möglichkeit wird genutzt, wenn kein Ausgangsmaterial mit einer höheren
Bildrate vorliegt. In diesem Fall werden dem Video weitere Einzelbilder hinzugefügt. Im einfachsten Fall werden vorhergehende Bilder verdoppelt. Etwas besser sind Zwischenbilder,
die aus einer Überblendung der beiden benachbarten Bilder bestehen. Es gibt auch Algorithmen, die bewegte Objekte in Videoclips aufspüren und deren Positionen in berechneten
Zwischenbildern interpolieren. Da diese Techniken jedoch nicht mit der Qualität tatsächlich
aufgenommener Einzelbilder konkurrieren können, konzentrieren sich die weiteren Ausführungen auf Zeitlupen, die mit Hochgeschwindigkeitskameras aufgenommen wurden.
2.7 Die extreme Zeitlupe
Eine besondere Form der Zeitlupe ist die extreme Zeitlupe. Sie zeigt bei einem andauernden Prozess einen ganz bestimmten Zeitpunkt und kann auf zwei Wegen entstehen. Im
ersten Fall wird ein Bild aus dem Video einzeln betrachtet. Bei dieser Form wird der Prozess
zu einem bestimmten Zeitpunkt gezeigt, wobei in diesem Einzelbild keine Bewegungen
erkennbar sind.
Im zweiten Fall nehmen mehrere Kameras den Prozess gleichzeitig auf. Nun werden alle
Aufnahmen von einem bestimmten Zeitpunkt zu einem neuen Videoclip zusammengefasst. Der Prozess lässt sich nun zu einem bestimmten Zeitpunkt aus mehreren Perspektiven
betrachten. Die extreme Zeitlupe ist in diesem Fall kein Einzelbild einer Szene, sondern wird
als Videoclip dargestellt.
Kapitel 3 - Verwandte Arbeiten
15
Kapitel 3 – Verwandte Arbeiten
Das Ziel dieses Kapitels ist es, eine wissenschaftlich fundierte Basis zu schaffen, auf die im
vierten Kapitel aufgebaut werden kann. Zur Eingrenzung des Themas wird zu Beginn ein
kurzer geschichtlicher Überblick gegeben, bei dem die Entwicklung von Aufnahmegeräten
nachvollzogen werden kann. Gerade im 20. Jahrhundert entwickelte sich die Photo- und
Kameratechnik weltweit sehr schnell. Damit es bei einem kurzen Überblick bleibt, konzentriert sich die Betrachtung der technischen Entwicklung von Aufnahmegeräten hier auf das
Kamerawerk in Dresden, welches seit 1839 Kameras produziert und in unmittelbarer Nähe
der Technischen Universität Dresden liegt. Aufgrund der stetigen Entwicklung von Fotoapparaten, die in bestimmten Fällen auch zum Erstellen von Zeitraffern eingesetzt werden
können, ist ein historischer Überblick sinnvoll. Ab dem Jahr 1990 begann die Entwicklung
einer Panoramakamera und einer Hochgeschwindigkeitskamera. Davon wird zum heutigen
Stand der Technik übergeleitet.
Ausgehend von der Historie wird im Weiteren tabellarisch der aktuelle Stand digitaler
Aufnahmetechnik vorgestellt. Da es bei Zeitraffern keine physischen Grenzen gibt, wird hier
besonders auf Hochgeschwindigkeitskameras eingegangen. Es werden Modelle genannt,
die bis zu 500.000.000 Einzelbilder pro Sekunde aufnehmen können und kurz die jeweiligen Anwendungsgebiete skizziert. Als Schlussfolgerung werden die physischen Grenzen
dargelegt, die sich im Wesentlichen auf die Belichtungszeit und die Schreibgeschwindigkeit
des Speichers beziehen. Die Entwicklung der Kameras für Zeitrafferaufnahmen wird anhand einer Untersuchung der meisten Digitalkameras ab Oktober 2003 deutlich. Dabei ist
vor allen Dingen wichtig, ob die Kameras über eine Intervallfunktion verfügen, oder ob sie
durch einen Computer ferngesteuert werden können.
Zum Verstehen des vierten Kapitels sind psychologische Ansätze zur Wahrnehmung von
Videoclips besonders wichtig. Damit deutlich wird, wohin der Betrachter bei bewegten Bildern schaut, wie er bewegte Bilder wahrnimmt und wie er bei zweidimensionalen Bildern
ein dreidimensionales Empfinden bekommt, werden die wichtigsten Ansätze heutiger Psychologie erläutert. Dabei spielen nicht nur visuelle Konstanten eine bedeutende Rolle, sondern auch Erkenntnisse der Mustererkennung und verschiedene Wahrnehmungstheorien.
Vieles lässt sich dabei gut an Beispielen und optischen Täuschungen erklären. Schließlich
wird noch kurz untersucht, ob es Individual-, Sozial- und Kulturunterschiede in der Wahrnehmung gibt. Dadurch wird der zum Verständnis dieser Arbeit erforderliche Leserkreis auf
die Personen eingegrenzt, die den Umgang mit Zeitlupen und Zeitraffern bereits kennen.
3.1 Entwicklung der Aufnahmegeräte
Bekanntlich ist mir die Darstellung Daguerrescher Lichtbilder vollkommen
gelungen. Platten von der selben Zubereitung, wie ich sie selbst verwende,
verkaufe ich von jetzt an: 3 Zoll 3 gl., 4 Zoll 6 gl., 6 Zoll 12 gl. ec. Auch
verfertige ich Apparate zur Darstellung von Lichtbildern, sowohl nach der Angabe Daguerre‘s, als nach der meinigen und meines Bruders, des Dr. Enzmann,
welche bei derselben Wirksamkeit wie die Daguerreschen 1/20 des Raumes
dieser einnehmen.
F. W. Enzmann, Mechanikus, Annengasse Nr. 8
Kapitel 3 - Verwandte Arbeiten
Das Zitat stammt aus dem Dresdner Anzeiger vom 31. Oktober 1839. Wie in
[KWD 1998] beschrieben, stellt dieses
historische Datum demzufolge den Beginn
der industriellen Fertigung von Kameras in
Dresden dar. Die französische Regierung
hatte das daguerresche Prinzip freigegeben,
um der Menschheit das fotografierte Bild
erlebbar zu machen. Daraufhin etablierte
sich in Dresden schnell eine Zahl von Kameraherstellern und ein ganzer Industriezweig
entstand in dieser Region.
16
Abbildung 1
Faksimile der Verkaufs-Anerbietung aus dem
Dresdner Anzeiger vom 31. Oktober 1839
In den Kamera-Werkstätten wurde die erste
Kamera im Jahr 1919 produziert. Ende der
dreißiger Jahre übernahm Charles A. Noble aus Detroit das Werk, in dem zu dieser Zeit die
Spiegelreflexkamera „Pilot“ (6 x 6), das Vergrößerungsgerät „Praxidos“ und der Projektor
„Episkop“ gebaut wurden. Da abzusehen war, dass für die kommenden Produktionen
größere Räumlichkeiten notwendig waren, wurde Mitte 1939 das noch heute genutzte
Firmengebäude gekauft.
Es folgte die Entwicklung und Produktion der ersten Kleinbild-Spiegelreflexkamera „Praktiflex“ unter Verwendung des heute noch marktüblichen Prismas zur aufrechten Wiedergabe des Bildes im Sucher. Nach 1949 erfolgte die schrittweise Zusammenführung der
gesamten fotografischen Industrie in der DDR zum Kombinat „Pentacon“. Pro Jahr wurden
etwa 400.000 Kameras hergestellt und überwiegend exportiert. Die Forschung und Entwicklung des gesamten Kombinates fand fast ausschließlich im 1939 erworbenen Hauptgebäude statt.
Nach der deutschen Wiedervereinigung, der Liquidation des Pentacon-Kombinates 1991
und der Rückübertragung des Betriebes an die Familie Noble wurde durch eine kleine
Gruppe von Technikern und Ingenieuren ein Neubeginn geschafft. Mit dem am Standort
vorhandenen Wissen und dem dazugehörigen Enthusiasmus gelang es schon 1992, die
Noblex PRO dem Fachpublikum vorzustellen. Diese innovative und bis heute einzigartige Konstruktion der Panoramakamera führte 1994 zur Entwicklung und Vorstellung der
Kleinbild-Panorama-Kamera Noblex 135. Nach dem Unternehmensverkauf 1997 und der
Gründung des heutigen Unternehmens, der Kamera Werke Dresden GmbH, wurden neue
Geschäftsfelder erschlossen und bestehende weiter ausgebaut.
Zusätzlich zum fototechnischen Gerätebau, welcher die Entwicklung, Konstruktion und Produktion fototechnischer Geräte und des entsprechenden Zubehörs speziell im Bereich der
Panoramafotografie umfasst, wurden ab 1996 auch industrielle Kamerasysteme produziert.
Die Entwicklung und Produktion dieser nun digitalen Kamerasysteme basiert auf HDRCSensor-Technologie (High Dynamic Range CMOS). Diese Kamerasysteme eignen sich durch
ihre spezifischen Eigenschaften, zum Beispiel des sehr hohen Dynamikumfangs, für viele
und teilweise grundlegend neue Anwendungsgebiete. So werden LOGLUX-Kamerasysteme
unter anderem in Flugzeugandocksystemen, bei der Überwachung von Schweißprozessen,
in Automatisierungsprozessen und in der Verkehrsüberwachung eingesetzt. Die nachfolgenden Abbildungen zeigen zeitlich geordnet die im Kamerawerk produzierten Kameraserien und stammen aus [KWD 1998] und der Internetseite [LOGLUX 2006].
Kapitel 3 - Verwandte Arbeiten
17
Abbildung 2
Holzkastenkamera nach Daguerrescher Bauart
mit Voigtländerobjektiv. (Wahrscheinlich aus der
Werkstatt des Dresdner Mechanikus Schedewell
um 1855)
Abbildung 3
Die legendäre Patent-Etui-Kamera der KameraWerkstätten aus dem Jahre 1920, die zusammengeklappt mit 35 Millimetern extrem flach war.
Abbildung 4
Die Zweiformat-Spiegelreflexkamera Pilot-Super mit Metallklappenverschluss: das Bildformat
4,5 x 6 Zentimeter – 1939 eine damals sehr gefragte und äußerst zuverlässige Kamera.
Abbildung 5
Gesichter der Praktiflex – Unter sowjetischer
Besatzung wurden von Mai bis Dezember 1945
etwa 50.000 Kameras produziert und als Reparationszahlung komplett übernommen.
Kapitel 3 - Verwandte Arbeiten
Abbildung 6
Von 1947 bis 1952 erfolgte die Weiterentwicklung der Praktiflex zur Praktica und schließlich
zur Praktina. Die Praktina war übrigens die erste
einäugige Kleinbild-Spiegelreflexkamera der Welt,
die als Systemkamera angeboten wurde.
Abbildung 8
Die Noblex 135: das Pendant zur großen Pro.
In dieser Kamera vereinen sich viele Vorzüge auf
kleinstem Raum. Sie konnte damit Bilder aufnehmen, die der natürlichen Sehweise des Menschen
entsprechen.
18
Abbildung 7
Panorama-Kamera Noblex 150 Pro: 1992 entwickelt nach dem Prinzip der natürlichen, raumerfassenden, menschlichen Sehweise – eine einzigartige Kamerakonstruktion.
Abbildung 9
Die erste CMOS-Kamera mit dem Markennamen
LOGLUX HDRC wurde vorgestellt. Der daraus entstandene Geschäftsbereich industrieller
Kamerasysteme wird seitdem konsequent weiterentwickelt, um den vielfältigen Aufgaben der
Überwachungstechnik, Prozesssteuerung sowie
den Anforderungen an eine kostengünstige
Visualisierung hochdynamischer und/oder schnell
ablaufender Ereignisse Rechnung zu tragen.
Kapitel 3 - Verwandte Arbeiten
Abbildung 10
Nach erfolgreicher Einführung der LOGLUX HDRC
Industriekamera erschien 2002 eine weiterentwickelte Kamera. Neben der deutlichen Verkleinerung besaß die LOGLUX i5A zahlreiche technische Verbesserungen. Die analogen und digitalen
Schnittstellen wurden konsequent in die neue
Serie übernommen.
Die LOGLUX i5 ist damit die aktuell am
weitesten entwickelte Kamera der Kamera
Werk Dresden GmbH. Wie in der nebenstehenden Abbildung ersichtlich ist, liegt der
spektrale Arbeitsbereich bei 400-1.000 Nanometern. Die Kamera nimmt die Bilder mit
einem CMOS Sensor auf und erreicht eine
maximal Auflösung von 1.280 x 1.024 Pixel.
Mit einer Farbtiefe von 10 bit erreicht sie unter Volllast 34 Bilder pro Sekunde. Wird der
Bildausschnitt verkleinert, so sind Bildraten
bis zu 2.000 Bildern pro Sekunde möglich.
Damit liegt die LOGLUX i5 mit der maximalen Auflösung und Bildaufnahmefrequenz
im Mittelfeld vieler weltweit hergestellter
Hochgeschwindigkeitskameras.
19
Abbildung 11
Die Entwicklung auf dem Sensor und Bauelementemarkt gestattete eine weitere Verkleinerung
und Optimierung der LOGLUX i5-Kamera-Serie.
Mit dem Einzug neuer Bildsensoren wurden auch
neue Schnittstellen, links CameraLink und rechts
FireWire, angeboten.
Abbildung 12
Aufnahmespektrum der LOGLUX i5
Im nächsten Abschnitt werden zahlreiche digitale Hochgeschwindigkeitskameras in Bezug
auf Hersteller, Modell, Aufnahme-Bildrate, Auflösung, Aufnahmedauer beziehungsweise
Speicherkapazität und, falls Informationen verfügbar waren, auch nach Farbtiefe katalogisiert. Soweit die Hersteller Angaben bereitstellen, werden mögliche Einsatzgebiete aufgeführt. Einige Modelle erreichen extrem hohe Aufnahme-Bildraten, wobei in diesem Zusammenhang physische Grenzen derartiger Aufnahmen deutlich werden.
Kapitel 3 - Verwandte Arbeiten
20
3.2 Der aktuelle Stand der Aufnahmetechnik
Zur Aufnahme von Zeitlupen und Zeitraffern werden technische Hilfsmittel benötigt. Wie
bereits im vorherigen Abschnitt erwähnt, ist es unter hohem Aufwand möglich, Zeitlupen
und Zeitraffer auch mit analoger Aufnahmetechnik zu erzeugen. Die folgenden Untersuchungen beschränken sich jedoch auf Digitalkameras und digitale Fotoapparate, die unter
Umständen von Personalcomputern ferngesteuert werden können. Aufgrund des großen
Angebotes werden nur ausgewählte Modelle weltweiter Hersteller verglichen und diese
nach technischen Aspekten sortiert, wobei zwischen Aufnahmegeräten für Zeitlupen und
für Zeitraffer unterschieden wird. Die beiden Tabellen befinden sich im Anhang D. Bei den
untersuchten Hochgeschwindigkeitskameras werden physische Grenzen schnell deutlich,
wogegen bei Kameras für Zeitraffer technische Aspekte nur eine untergeordnete Rolle
spielen.
3.2.1 Aufnahmegeräte für Zeitlupen
Für die Aufnahme von Zeitlupen ist es notwendig, dass die Einzelbilder der Videoclips mit
einer höheren Bildfrequenz aufgenommen werden als sie bei der Wiedergabe gezeigt
werden. Beim Fernsehen werden 25 Bilder pro Sekunde dargestellt, vergleiche [Schubiger
2004, Seite 16], wobei das menschliche Auge bei dieser Frequenz im Video Bewegungen,
anstatt sequenziell angezeigter Einzelbilder, erkennt. Kameras, die Bilder nur mit einer Geschwindigkeit von 25 Bildern pro Sekunde aufnehmen, sind für Aufnahmen von Zeitlupen
praktisch ungeeignet, da Aufnahmegeschwindigkeit und Abspielgeschwindigkeit gleich
sind.
Bei bestimmten Anwendungsgebieten ist es jedoch häufig nicht mehr von Interesse, dass
der Zeitlupenfilm kontinuierlich abgespielt wird. Wissenschaftler untersuchen die extreme
Zeitlupe und betrachten sich die Bilder des Videoclips einzeln, um den kritischen Punkt
schnell ablaufender Prozesse genau zu untersuchen. So kann es beispielsweise bei der Verkehrssicherheit von großer Bedeutung sein, wann die Sprengkapsel des Airbags gezündet
wird. Zeitlupen mit wissenschaftlichem Nutzen werden demzufolge häufig als Einzelbildanimation betrachtet, währenddessen es im Allgemeinen als störend empfunden wird, wenn
Zeitlupen für die Unterhaltungsindustrie oder in der Werbung nicht kontinuierlich angezeigt
werden. Die visualisierten, verlangsamten Bewegungen sollen trotzdem geschmeidig sein.
Zur Aufnahme wird zunächst der Bildausschnitt genau geplant. Aufgrund der hohen
Aufnahmegeschwindigkeit, wird der aufzunehmende Bildausschnitt so klein wie möglich
gewählt und ist von Anwendungsfall zu Anwendungsfall verschieden. Die Kamera ist dabei
häufig auf einem Stativ verankert. Einige Kameras lassen sich auch ohne weitere Hilfsmittel
programmieren. Da in den meisten Fällen Computer auch den Auslösemechanismus steuern, werden auch fast alle Kameras mit Computersoftware programmiert. Dabei werden
der Bildausschnitt, die Anzahl der aufzunehmenden Bilder und die Aufnahmebildrate eingestellt. Der Vorgang wird gestartet. Die Kamera wird meist durch einen externen Impuls
ausgelöst und nimmt den gewünschten Zeitraum auf. Bei digitalen Aufnahmegeräten für
Zeitlupen gibt es mindestens zwei physische Grenzen, die eine beliebige Skalierung der
Zeit verhindern. Zum Einen ist es die Belichtungszeit pro Einzelbild und zum Anderen die
Schreibgeschwindigkeit des Speichers.
Kapitel 3 - Verwandte Arbeiten
21
3.2.1.1 Belichtungszeit pro Einzelbild
Ebenso wie bei einer herkömmlichen analogen Kamera wird auch bei einer Digitalkamera
eine Optik verwendet, durch die Lichtstrahlen ins Innere der Kamera geleitet werden. Nach
[Striewisch 2006] hängt die Intensität der Lichtstrahlen dabei unmittelbar von den Beleuchtungsverhältnissen in der Umgebung, sowie von der Beschaffenheit des Objektivs und der
Blende ab. Ein weiterer Faktor der darüber bestimmt, wie viel Licht in die Kamera eintritt,
ist die Zeit. Aus den Betrachtungen des Tafelwerkes von [Engelmann 2004] und den erläuterten Zusammenhängen lassen sich folgende Überlegungen anstellen.
Bleibt die Blende eine längere Zeit geöffnet, kann das einzelne Bild länger belichtet werden
als bei einer nur kurzzeitig geöffneten Blende. Da die Aufnahmefrequenz hier mindestens
25 Bilder pro Sekunde beträgt, kann die Blende höchstens für eine 25tel Sekunde pro
Einzelbild geöffnet bleiben. Wird die Aufnahmebildrate erhöht, so verringert sich die maximale Dauer für eine offene Blende. Die sich dabei ergebende physische Grenze liegt im
Öffnen und Schließen der Blende. Dieser Vorgang kann höchstens so schnell ablaufen, dass
während dieser Zeitspanne der Photonensensor hinter der Blende mindestens ein Photon
registriert. Ansonsten ist das entstandene Einzelbild schwarz und somit nutzlos.
Je nach Anwendungsgebiet reicht es aus, einzelne Photonen zu erkennen oder die Zeitspanne einer geöffneten Blende so zu erhöhen, dass mehrere empfangende Photonen ein
sinnvolles Bild ergeben. Es ist also nicht möglich, einen konkreten Wert für eine Optik zu
nennen, aus dem ersichtlich wird, wie kurz die Blende minimal geöffnet sein muss, damit
auch wirklich ein Bild entsteht. Es werden an dieser Stelle verschiedene Einflüsse nur stichpunktartig genannt:
-
Lichtstärke der Lichtquelle(n):
Formelzeichen: IV Einheit: 1 Candela (cd)
Beleuchtungsstärke des Sensors: Formelzeichen: EV Einheit: 1 Lux (lx)
Wellenlänge des Lichts (Farbton): Formelzeichen: λ Einheit: 1 Meter (m)
Anwendungsgebiet (einzelne Photonen oder zusammenhängendes Bild)
Um extreme Zeitlupen zu erstellen, wird der erste Einfluss häufig skaliert. Bei Erhöhung
der Lichtstärke kann die Blende schneller wieder geschlossen werden. Realisiert wird dieser
Umstand, indem die Lichtstärke der Lampe erhöht wird, oder mehrere Lampen gleichzeitig
das Objekt beleuchten. Dadurch tritt eine weitere physische Grenze auf: Lampen erzeugen
nicht nur Licht, sondern auch Wärme. Die Bestrahlungsstärke kann also nur so groß sein,
dass Objekt und Aufnahmetechnik nicht schmelzen, beziehungsweise nicht zerstört werden. Mit aktiver Kühlung könnte dieser Moment noch etwas verzögert werden. Neben den
beiden genannten physischen Grenzen, gibt es auch noch eine andere, die sich neben der
Aufnahmegeschwindigkeit nun auf die Speicherung der Bilder bezieht.
3.2.1.2 Schreibgeschwindigkeit des Speichers
Die Schreibgeschwindigkeit ist bei Zeitlupenkameras von hoher Bedeutung. Durch sie ist
vorgegeben, wie schnell aufeinander folgende Einzelbilder gespeichert werden können. In
den untersuchten Kameras kommen Schreibgeschwindigkeiten bis zu knapp sieben Gigabyte pro Sekunde vor. Es lässt sich jedoch häufig nicht feststellen, wie derartige Schreibgeschwindigkeiten zustande kommen, da die Firmen die Baupläne der Kameras nicht preisgeben. Um die Schreibgeschwindigkeit zu erhöhen, gibt es folgende Möglichkeiten:
Kapitel 3 - Verwandte Arbeiten
22
1. Bauweise des Speichers optimieren
Einige Systeme bieten die Möglichkeit, die Kamera direkt mit dem Computer zu verbinden. In diesem Fall kann der Speicher nahezu beliebig groß sein, jedoch ist die Schreibgeschwindigkeit durch die Übertragung der Daten eingeschränkt. Wird eine besonders
hohe Speicherrate benötigt, so empfiehlt sich der Einsatz eines schnellen Arbeitsspeichers,
der kameraintern direkt mit dem Photosensor verbunden ist. Auf diese Weise lässt sich die
Wegstrecke zwischen Sensor und Speicher minimieren. Je kürzer der Abstand zwischen
Sensor und Speicher ist, desto schneller kann gespeichert werden. Außerdem sollte der
Speicher mit der größten Schreibgeschwindigkeit verwendet werden. Eingeschränkt wird
dieser Fakt nur durch die Kosten des schnellen Speichers.
2. Parallelisierung
Werden Aufnahmen benötigt, bei denen selbst der schnellste Einzelspeicher zur Aufnahme
der Zeitlupe nicht ausreicht, so gibt es noch andere Möglichkeiten die Schreibgeschwindigkeit zu erhöhen. Eine Variante besteht in der Parallelisierung des Speichers. Eine Kamera
besitzt n Speichereinheiten, wobei das erste Einzelbild durch Speicher eins, das Zweite
durch Speicher zwei und schließlich das n-te Bild durch Speicher n gespeichert wird. Einzelbild n+1 wird wieder durch den ersten Speicher gespeichert. Dadurch kann eine Aufnahme
n-mal schneller erfolgen, als die einzelne Speichereinheit speichern kann.
Eine andere Möglichkeit besteht in der Parallelisierung der Kameras. Das durch das Objektiv kommende Licht wird mittels eines Prismas auf n Sensoren gelenkt. Diese n Sensoren
entsprechen baulich n einzelnen Kameras, die unabhängig voneinander agieren. Ausgelöst
werden diese Kameras durch einen externen Impuls. Nun zeichnet jede Kamera Bilder auf,
wobei auch hier die Bilder n-mal so schnell aufgezeichnet werden können, wie sie nur eine
Kamera hätte speichern können. In beiden Varianten werden die Bilder in der späteren
Verarbeitung in die richtige Reihenfolge gebracht.
3.2.1.3 Zusammenfassung für Aufnahmegeräte von Zeitlupen
Aufgrund physischer Grenzen sind auch die Aufnahmebedingungen bei Kameras für die
Produktion von Zeitlupen begrenzt. Zum Einen bezieht sich diese Einschränkung auf die
Anzahl der Bilder pro Zeiteinheit, zum Anderen auf die Einzelbildgröße.
Forscher sollten die Aufnahmetechnik sehr sorgfältig wählen, um nicht einen zu hohen
Preis für die Ausrüstung zu zahlen. Dabei spielt in erster Linie der Anwendungsfall eine
Rolle. Des Weiteren müssen die Bilderanzahl pro Zeiteinheit, das Videoformat, der Auslösemechanismus, die Speichergröße und dessen Schreibgeschwindigkeit, sowie der richtige
Aufnahmeort mit den passenden Beleuchtungsverhältnissen beachtet werden. Eine Auswahl untersuchter Hochgeschwindigkeitskameras befindet sich im Anhang D.
3.2.2 Aufnahmegeräte für Zeitraffer
Bei Zeitlupenkameras muss die Aufnahmegeschwindigkeit des Videos niedriger sein als die
Wiedergabegeschwindigkeit. Bei den folgenden Untersuchungen wird davon ausgegangen, dass die Videoclipgeschwindigkeit 25 Einzelbilder pro Sekunde beträgt. Der Videoclip
Kapitel 3 - Verwandte Arbeiten
23
muss demzufolge mit einer Kamera aufgezeichnet werden, die weniger als 25 Bilder pro
Sekunde speichert, da ansonsten Aufnahmegeschwindigkeit und Abspielgeschwindigkeit
gleich sind und damit die Aufnahme keinem Zeitraffer entspricht.
Die Herausforderung bei Zeitraffern liegt darin, einen sehr langsam ablaufenden Prozess
durch beschleunigte Wiedergabe besser sichtbar zu machen. Dies gelingt, indem eine
Kamera oder ein digitaler Fotoapparat über einen längeren Zeitraum Aufnahmen des zu
untersuchenden Objektes oder Gebietes aufzeichnet. Dafür werden zwei Einstellungen
vorgenommen:
1. Die Dauer, wie lange ein Szenario aufgenommen werden soll.
2. Die Größe des Zeitintervalls, in dem die Bilder aufgezeichnet werden sollen.
Die Gesamtlänge wird entweder als Zeitdauer oder als Gesamtbildanzahl angegeben. Das
Intervall beschreibt, nach wie vielen Sekunden jeweils ein Bild aufgenommen wird. Wichtig
dabei ist, dass die Bilder exakt zu den im Intervall liegenden Zeitpunkten aufgenommen
werden.
Bei der Aufnahme von Zeitraffern muss rationell vorgegangen werden. Es ist möglich,
einen Zeitraffer mit einer gewöhnlichen Fernsehkamera aufzunehmen. Zeichnet diese eine
Stunde Film mit einer Frequenz von 25 Bildern pro Sekunde auf, dann hat der fertige Film
90.000 Bilder. Wird aus diesem Video nur jedes tausendste Bild verwendet, dann ergibt
sich daraus ein Zeitraffer mit 90 Einzelbildern. Bei einer Wiedergabefrequenz von 25 Bildern
pro Sekunde ist dieser Clip 3,6 Sekunden lang. In diesem Fall ist für einen 3,6 Sekunden
langen Clip die Speichermenge für einen Stundenfilm nötig. Um die Aufzeichnung unnötiger Daten zu verhindern, müssen die untersuchten Kameras in der Lage sein, Einzelbilder
zu fest vorgegebenen Zeitpunkten aufzunehmen. Diese Funktion wird häufig Intervall- oder
Intervall/Timer-Funktion genannt. Viele Videorekorder aus dem Amateurbereich leisten
dies nicht, sodass sich die Recherche auf Digitalkameras beschränkt.
Es ist auch möglich einen Zeitraffer mit Hilfe der Serienbildproduktion zu erstellen. In diesem Fall ist jedoch nur ein einziger zeitlicher Abstand aufeinanderfolgender Bilder möglich.
Dieser zeitliche Abstand ist abhängig von der Bauweise der Kamera und wird dadurch
bestimmt, wie schnell die Kamera ein Bild mit maximaler Auflösung speichern kann.
Wie auch bei Hochgeschwindigkeitskameras produzieren nur die wenigsten Digitalkameras
Bilder, die der Fernsehnorm PAL entsprechen. In den meisten Fällen liegt hier die Auflösung der Bilder sehr viel höher. Diese Tatsache bringt zwei zu untersuchende Aspekte mit
sich: Erstens wird geprüft, wie hoch die maximale Auflösung bei Digitalkameras ist, und
wie schnell die Bilder bei maximaler Auflösung aufgenommen werden können, wenn eine
Serienbildfunktion vorhanden ist. Zweitens wird geprüft, ob die Kamera intern über eine
Intervallaufnahmefunktion verfügt oder ob eine Zeitrafferaufnahme über einen angeschlossenen Computer erfolgen kann. Damit wird die Recherche auf die Kameras eingeschränkt,
die über einen Anschluss für externe Geräte verfügen. Weiterhin konzentriert sich die
Untersuchung auf Digitalkameras, die ab Oktober 2003 auf den Markt kamen. Die Experimente im praktischen Teil wurden mit einer Canon Powershot A80 durchgeführt, die ab
dieser Zeit auf dem Markt verfügbar war. Die tabellarische Übersicht liegt im Anhang D vor.
Beim Erstellen von Zeitraffern kann das Aufnahmeintervall sehr groß werden. In diesem Fall
lohnt sich das Verwenden einer kameraexternen Stromversorgung und einer festen Verbindung zu einem externen Speichermedium, wie zum Beispiel zu einem Computer. Für die im
Kapitel 3 - Verwandte Arbeiten
24
Anhang D angegebenen Kameramodelle existiert eine Software, mit der die Kameras extern ausgelöst werden können. Die Aufnahme von Zeitraffern funktioniert daher wie folgt:
Mit Hilfe der Kamerasteuersoftware wird eingestellt, wie viele Bilder und nach wie vielen
Sekunden das jeweils nächste Bild aufgenommen werden soll. Je nach Übertragungsstandard kann die Kamera die Vollbilder in der entsprechenden Zeit übertragen. Ist das gewählte Zeitintervall zu klein, schreiben die meisten Kameras einen internen Puffer voll. Die
maximale Bildanzahl wird hierbei von der Puffergröße bestimmt. Anschließend werden die
Einzelbilder zum Computer übertragen. Je nach Software liegen diese bereits als Videoclip
vor, oder sie müssen nun mit einem Videoschnittprogramm zu einem Clip zusammengefügt werden. Dabei besteht die Möglichkeit, das komplette Bild zu skalieren oder einen
Teil des Bildes auszuschneiden. Dadurch lässt sich von einer Szene ein Zeitraffer erstellen,
wobei auch einzelne Bildausschnitte ausgewählt werden können. Im Gegensatz zur Zeitlupe, bei welcher der Bildausschnitt vorher exakt bestimmt wird, kann hier der Bildausschnitt
nach der Aufnahme festgelegt werden.
3.2.2.1 Zusammenfassung für Aufnahmegeräte von Zeitraffern
Zeitraffer können preiswert und effizient mit Digitalkameras erstellt werden. Von den untersuchten 1.331 Digitalkameras wurden 636 ab Oktober 2003 auf dem Markt eingeführt.
Bis Dezember 2003 waren Kameras mit bis zu vier Megapixeln Standard. Profikameras
erreichten auch größere Formate, wobei im Dezember 2003 nur eine Kamera mit knapp
acht Megapixeln auf dem Markt eingeführt wurde. Die seit September 2006 hergestellten
Kameras besitzen durchschnittlich 7,8 Megapixel. 128 der 636 untersuchten Kameras verfügen ohne externes Zubehör über eine Intervallaufnahmefunktion, wobei sich die maximale Bildanzahl häufig auf 99 Bilder beschränkt. Außerdem sind auch die Intervalle meist
fest vorgegeben. Über eine externe Steuerung lässt sich das Intervall oft sekundengenau
einstellen.
Bei Zeitraffern werden die Daten häufig über einen sehr langen Zeitraum gesammelt. Es
gibt sogar eine Kamera, die Bilder mit 5.328 x 4.000 Bildpunkten aufnehmen und speichern kann. Je nach Kompression hat ein Einzelbild eine Größe von zirka elf Megabyte. Die
Herausforderung liegt also nicht in der Aufnahme, sondern in der Wiedergabe eines Zeitraffers. Solange die Rohdaten nicht vor der Wiedergabe skaliert oder geschnitten werden,
treten bei einer Wiedergabegeschwindigkeit von 25 Bildern pro Sekunde Datenströme mit
ungefähr 275 Megabyte pro Sekunde auf. Demzufolge sollten die Einzelbilder noch vor der
Bearbeitung oder der Übertragung der Auflösung des Anzeigegerätes angepasst werden.
3.2.3 Auswertung
Bei Zeitlupenaufnahmen spielen ebenso wie bei Zeitrafferaufnahmen technische Anforderungen eine große Rolle bei der Auswahl der richtigen Kamera für einen bestimmten
Zweck. Bei Zeitlupenkameras kann die Aufnahmegeschwindigkeit bedeutend vergrößert
werden, wenn der aufzunehmende Bildbereich verkleinert wird. Wird dennoch eine Zeitlupe für eine große Szene benötigt, lohnt sich oft der Einsatz mehrerer Kameras, da in
diesem Fall der Speicher auf mehrere Geräte verteilt ist. Damit wird zumindest das Problem
der schnellen Speicherung eingedämmt. Die meisten Hochgeschwindigkeitskameras produzieren Farbbilder. Dazu werden die Bilder mit einem Drei-Farben-Sensor aufgenommen.
Wird der Lichtanteil pro Pixel dieser drei Sensoren addiert, so entsteht ein Graustufenbild.
Kapitel 3 - Verwandte Arbeiten
25
Unter Umständen erfüllt auch diese Aufnahme den erwünschten Zweck, wobei es nun
möglich ist, auch bei etwas dunkleren Lichtverhältnissen Zeitlupenaufnahmen zu erstellen.
Bei Zeitrafferaufnahmen ist vor allen Dingen eine effiziente Speicherung der Bilddaten
erforderlich. Aus diesem Grund bietet sich die Durchführung von Zeitrafferaufnahmen mit
einer Digitalkamera und einem extern angeschlossenen Computer an. Der Computer löst
die Kamera aus und speichert anschließend das entstandene Foto. Die Grenzen liegen dabei nur in der maximalen Bildauflösung der Kamera, der Übertragungsgeschwindigkeit zum
Computer und dessen Speicherkapazität.
In beiden Fällen, Zeitlupe und Zeitraffer, sollte die Kamera auf einem Stativ befestigt sein.
Das Ergebnis ist ein Filmclip, der mit einer Geschwindigkeit von 25 Bildern pro Sekunde
abgespielt wird. Doch worauf achtet der Mensch beim Betrachten des Clips? Woran werden im Film Tiefeninformationen ersichtlich, wenn Zeitlupen oder Zeitraffer zur Wegbeschreibung eingesetzt werden? Wie nimmt der Mensch Bewegungen in Videofilmen wahr,
und welche Rolle spielen persönliche Erfahrungen oder Erwartungen beim Betrachten des
Videos? Um diese Fragen zu klären bedarf es psychologischer Betrachtungen. Da es für das
Verständnis von Kapitel vier sehr wichtig ist, warum Zeitlupen und Zeitraffer bei der Wegbeschreibung funktionieren, wird der folgende Abschnitt besonders ausführlich diskutiert.
Neben verschiedenen Ansätzen der Wahrnehmungstheorie wird auch auf kulturelle Unterschiede bei der Wahrnehmung eingegangen.
3.3 Wahrnehmung von Videos – psychologische Ansätze
Es scheint sehr einfach zu sein die Welt um uns herum zu sehen und sie zu verstehen.
Zum Beispiel müssen wir nicht lange überlegen, ob wir uns auf dem Bürgersteig befinden
und ob sich Autos auf der Straße in beide Richtungen fortbewegen. Tatsächlich ist die
Wahrnehmung und Deutung der Umgebung eine Hauptleistung des Menschen. Einige
der Wahrnehmungsgrundlagen werden in diesem Kapitel diskutiert. Die Ausführungen
beschränken sich dabei auf die Organisation der Wahrnehmung, Raum oder Tiefenwahrnehmung, visuelle Konstanten, Mustererkennung, Wahrnehmungstheorien und Individual-,
Sozial- und Kulturunterschiede in der Wahrnehmung.
Was wird unter dem Begriff Wahrnehmung verstanden? Nach [Roth 1986, Seite 81]:
The term perception refers to the means by which information acquired from
the environment via the sense organs is transformed into experiences of objects, events, sounds, tastes, etc.
Im Deutschen: Der Begriff Wahrnehmung nimmt Bezug auf Mittel, mit denen Informationen, die über die Sinnesorgane aus der Umgebung aufgenommen werden, in Erfahrungen
mit Dingen, Ereignissen, Klängen, Geschmäcken und so weiter umgewandelt werden.
Manchmal wird zwischen Wahrnehmung und Empfindung differenziert. Als Empfindung
wird die grundlegende, uninterpretierte Information bezeichnet, die unsere Sinnesorgane
erreicht. Es wurde behauptet, dass Empfindung vor der Wahrnehmung auftritt. Realistischer ist jedoch die Annahme, dass sie sich im Allgemeinen zeitlich überlappen. Die allgemeine Sichtweise heutzutage ist, dass die beteiligten Prozesse so komplex sind, dass es nur
von geringem Wert ist, sie klar voneinander abzugrenzen.
Kapitel 3 - Verwandte Arbeiten
26
3.3.1 Organisation der Wahrnehmung
Nach [Eysenck 2000, Seite 264 ff.] ist die visuelle Wahrnehmung fast immer hoch organisiert. Unsere visuelle Welt besteht aus Objekten, die im dreidimensionalen Raum bedeutungsvoll angeordnet sind. Dies geschieht so selbstverständlich und ohne Anstrengung,
dass es schwer zu glauben ist, dass die organisierte Wahrnehmung eine wesentliche Errungenschaft ist. Die Tatsache, dass Computer so programmiert werden können, dass sie
erstklassiges Schach spielen, aber immer noch nicht die Eigenschaften der visuellen Wahrnehmung selbst der primitiven Lebewesen haben, unterstützt diesen Gedanken.
Die an den Rezeptoren ankommenden Informationen sind konfus und unorganisiert. Im Fall
des Sehens ist es für gewöhnlich ein Farbenmosaik. Größen und Formen, so wie sie auf der
Netzhaut abgebildet werden, stimmen nur wenig mit Größen und Formen der Originalobjekte überein. Die Wahrnehmungsorganisation erfordert eine gute Tiefenwahrnehmung,
Fähigkeiten, Objekte zu erkennen, Bewegungen zu erfassen und Größen und Farben von
Objekten akkurat zu bestimmen. Diese Fähigkeiten werden im Folgenden diskutiert.
3.3.1.1 Die Gestalt-Theorie
Die erste systematische Studie zur Wahrnehmungsorganisation wurde von einer Gruppe
Gestaltpsychologen herausgebracht. Gestalt steht dabei für das organisierte Ganze. Die
Gruppe bestand aus deutschen Psychologen (unter anderem Koffka, Köhler und Wertheimer; im Folgenden als Gestaltisten bezeichnet), die zwischen den beiden Weltkriegen in
die Vereinigten Staaten von Amerika auswanderten. Sie waren besonders an einer Trennung der Funktionen im Wahrnehmungsprozess interessiert. Sie versuchten herauszufinden, welche Teile der wahrgenommenen visuellen Information zusammen gehören, und
welche voneinander unterschieden werden. Ein Schlüsselaspekt der Wahrnehmungstrennung ist das Unterteilen des visuellen Feldes in einen zentralen Bereich (zentraler Fokus der
Aufmerksamkeit) und einen dezentralen Bereich (alles Andere).
1. Prinzipien der Wahrnehmungsorganisation
Die Gestaltisten stellten zahlreiche Gesetzmäßigkeiten der Wahrnehmungsorganisation auf. Ihr grundlegendstes Prinzip war das Gesetz der Prägnanz, welches [Koffka 1935,
Seite 110] wie folgt formulierte:
Psychological organisation will always be as „good“ as the prevailing conditions
allow. In this definition the term „good“ is undefined.
Im Deutschen: Psychologische Organisation wird immer nur so „gut“ sein, wie es die vorherrschenden Gegebenheiten ermöglichen. In dieser Definition ist der Begriff „gut“ undefiniert.
Tatsächlich war Koffka undeutlich in seiner Definition. Die Gestaltisten halten sogar eine
gute Formel für die einfachste oder die einheitlichste Erklärung der verschiedenen möglichen Organisationsstrukturen. Die Gestalt-Theorie kann am deutlichsten nachvollzogen
werden, wenn ein paar spezielle Beispiele betrachtet werden:
Kapitel 3 - Verwandte Arbeiten
27
Muster (a) wird am natürlichsten als drei
durch Punkte gezeichnete horizontale
Reihen gesehen. Das illustriert das Gesetz
der Nähe. Diesem Gesetz entsprechend
neigen Personen dazu, nahe beieinanderliegende visuelle Elemente zu gruppieren. In
Muster (b) werden eher vertikale Spalten als
horizontale Zeilen gesehen. Dies entspricht
dem Gesetz der Ähnlichkeit, nach welchem
ähnliche visuelle Elemente zu Gruppen
zusammengefasst werden. In Muster (c)
werden eher zwei sich kreuzende Linien
wahrgenommen als zwei V, die sich im EckAbbildung 13
punkt berühren. Diese Tatsache entspricht
Beispiele zur Gestalt-Theorie
dem Gesetz der Fortführung, welches
aussagt, dass diese visuellen Elemente die
kleinste Unterbrechung erzeugen und damit die sanft gekurvten Linien gruppiert werden.
Schließlich entspricht Muster (d) dem Gesetz des Abschlusses, nach welchem einem Objekt
fehlende Teile hinzugefügt werden, um es zu vervollständigen. Alle diese Gesetze können
als spezifischere Aussagen des fundamentalen Gesetzes der Prägnanz betrachtet werden.
Laut [Soegaard 2003] war der dänische Psychologe Edgar Rubin
der Erste, der systematisch das Phänomen der Prägnanz erforschte.
Das Figure-Ground-Phänomen wird dadurch geprägt, dass beim
Empfang eines visuellen Feldes bestimmte Objekte eine bedeutende Rolle übernehmen (im Englischen: figures), während andere als
Hintergrund interpretiert werden (englisch: ground). Folglich wird
das Sichtfeld in diese beiden grundlegenden Teile aufgeteilt.
Dieser Effekt wird häufig in Logos verwendet, wie in den nebenstehenden Abbildungen dargestellt. Das Logo von visitnorway.com
kann als drei separate Elemente in den Farben hellblau, blau und
grün gesehen werden. Es kann jedoch auch als eine Person gesehen werden, die ihre Arme in die Höhe streckt. Gleichermaßen ist
es möglich das Logo von Gnome Desktop Environment als ein „G“
oder einen Fußabdruck zu sehen. Schließlich kann auch das Macintosh Logo als ein gewöhnliches, lachendes Gesicht oder als ein auf
einen Computerbildschirm schauendes Gesicht im Profil gesehen
werden.
Die Gemeinsamkeit der Logos besteht darin, dass beim Fokussieren
nur eine Interpretation zu einem bestimmten Zeitpunkt möglich ist.
Es können nicht beide Figuren gleichzeitig wahrgenommen werden.
Der Hintergrund wird zum Vordergrundobjekt, wenn der Fokus
geändert wird.
Das Figure-Ground-Phänomen lässt sich meistens beispielhaft an
der Gesicht/Vase-Illusion erläutern, die von Edgar Rubin entdeckt
wurde.
Abbildungen 14-16
Die Logos von visitnorway.com, Gnome
Desktop Environment
und Macintosh
Kapitel 3 - Verwandte Arbeiten
28
Doch woher kommen die organisatorischen Prozesse? Nach
[Eysenck 2000] argumentierten die Gestaltisten, dass die Wahrnehmungsorganisation die größtenteils angeborene, bestimmte Arbeitsweise des Wahrnehmungssystems widerspiegelt. Es ist jedoch
unwahrscheinlich, damit das gesamte Spektrum erfasst zu haben.
Die alltäglichen Erfahrungen zeigen, dass die visuellen Elemente, die
sich ähnlich und nah beieinander sind, typischerweise zum selben
visuellen Objekt gehören, jedoch nicht die visuellen Elemente, die
sich unähnlich sind und weit voneinander entfernt sind.
2. Bewegungswahrnehmung
Abbildung 17
Gesicht/Vase-Illusion
Eine der ersten Studien über Wahrnehmung, die von den Gestaltisten durchgeführt wurde,
war jene von [Wertheimer 1912]. Zwei Lichter befanden sich in einem dunklen Raum. Als
ein Licht ungefähr 50 Millisekunden aufblinkte, bevor das andere Licht ein und ausgeschaltet wurde, nahmen die Probanden ein einziges Licht wahr, welches sich in der Dunkelheit
zu bewegen schien. Dieser Effekt ist bekannt als scheinbare Bewegung, weil Bewegung
wahrgenommen wird, obwohl tatsächlich keine Bewegung stattfindet. Jeder, der sich bereits einen Film angesehen hat, wird Erfahrungen mit diesem Phänomen gemacht haben.
Die Gestaltisten waren an scheinbaren Bewegungen interessiert, weil sie verdeutlichen,
wie das Ganze (Bewegungswahrnehmung) mehr als die Summe ihrer Teile (zwei stationäre
Lichter) sein kann. [Eysenck 2000] schlussfolgerte daraus:
In the cinema, what we perceive to be a moving picture is a series of stationary
pictures, each one slightly different, presented in a rapid succession.
Im Deutschen: Was wir in einem Film als ein bewegtes Bild wahrnehmen ist eine Serie
stehender Bilder, die sich geringfügig voneinander unterscheiden und in schneller Abfolge
gezeigt werden.
Die Gestaltisten schlugen außerdem das Gesetz des gemeinsamen Schicksals vor,
entsprechend welchem visuelle Elemente, die sich scheinbar in die gleiche Richtung fortbewegen, gruppiert werden. [Johansson 1973] befestigte Lampen an allen Gelenken eines
Schauspielers, der schwarze Kleindung trug. Dieser Schauspieler wurde gefilmt während
er in einem dunklen Raum umherlief. Die Probanden sahen lediglich eine nichts aussagende Anordnung von Lampen auf dem Display als der Schauspieler still stand. Sie nahmen
jedoch eine sich bewegende Person wahr, sobald der Schauspieler umherlief. Dies war
möglich, obwohl sie außer den Lampen nichts sehen konnten.
[Kozlowski, Cutting 1978] fanden heraus, dass die Probanden sich selbst und andere Personen anhand der Lichtpunkte auf den Bildschirmen gut identifizieren können. Die Probanden lagen zu 65% beim Schätzen des Geschlechts des Schauspielers richtig, während sie
die Lichtpunkte auf dem Bildschirm sahen. Die Probanden zogen Nutzen aus der Tatsache,
dass Männer beim Laufen ihre Schultern mehr als ihre Hüften bewegen, wogegen bei
Frauen tendenziell das Gegenteil zutrifft.
Kapitel 3 - Verwandte Arbeiten
29
Abbildung 18
Bewegungswahrnehmung: Johannson befestigte Lampen an den Gelenken des Schauspielers. Während
der Schauspieler im dunklen Raum still stand, waren die Probanden nicht in der Lage einen Sinn in der
Anordnung der Lampen zu entdecken. Jedoch erkannten sie einen Menschen, sobald der Schauspieler
begann, sich zu bewegen.
Wie wichtig die Bewegungswahrnehmung ist, wurde im Fall einer weiblichen Patientin sehr
deutlich gezeigt, die einen Gehirnschaden erlitten hatte. Sie konnte lokale, stationäre Objekte erkennen und Farben gut voneinander unterscheiden, aber ihre Bewegungswahrnehmung war extrem schlecht. Als ein Resultat schrieben [Zihl und Andere 1983, Seite 315]:
She could not cross the street because of her inability to judge the speed of a
car, but she could identify the car without difficulty. „When I‘m looking at the
car first, it seems far away. But then, when I want to cross the road, suddenly
the car is very near.“
Im Deutschen: Sie konnte die Straße nicht überqueren, weil sie die Geschwindigkeit eines
Autos nicht einschätzen konnte, aber sie konnte das Fahrzeug ohne Schwierigkeiten identifizieren. „Als ich das erste Mal nach dem Auto schaute, schien es weit weg zu sein. Aber
als ich die Straße überqueren wollte, war das Auto plötzlich sehr nah.“
Wie kann man feststellen, ob Veränderungen des Abbildes eines Objektes auf der Retina
durch Bewegung des Objektes oder durch Bewegung der Augen entstanden sind? Entsprechend der Folgeentladungstheorie nach [Richards 1975] vergleicht das visuelle System
auf der Retina registrierte Bewegungen mit Signalen zur Augenbewegung. Wenn das Gehirn eine Nachricht zum Augenmuskel aussendet, schickt es ebenso eine Kopie (bekannt als
Folgeentladung oder resultierende Entladung) zu dem Teil des visuellen Systems, der für die
Bewegungswahrnehmung zuständig ist. Dadurch wird festgestellt, ob eine Bewegung des
Abbildes auf der Retina aus einer Objektbewegung oder einer Augenbewegung resultiert.
Ein einfacher Beweis unterstützt die Folgeentladungstheorie, indem sanft gegen die Seite des Auges gedrückt wird. Das verursacht eine Bewegung des Abbildes auf der Retina,
ohne dass sich die Augenmuskeln bewegen. Als Resultat wird die Bewegung vom visuellen
System als eine Bewegung in der Umgebung interpretiert.
Jedoch bietet die Folgeentladungstheorie keine vollständige Darstellung der Bewegungswahrnehmung. [Tresilian 1994, Seite 336] stellte dar, dass diese Theorie vorhersagt:
Kapitel 3 - Verwandte Arbeiten
30
If the eyes are stationary in the head as the head rotates, the resulting image
motion will be interpreted as motion of the environment, yet everyone knows
that this does not happen.
Im Deutschen: Wenn der Blick verharrt, während sich der Kopf dreht, wird die resultierende Bewegung als Bewegung der Umgebung interpretiert, dennoch weiß jeder, dass das
nicht der Fall ist.
Daher verlässt man sich nicht nur auf Informationen der Augenbewegung, um eine stabile
Umgebung zu bemerken. Die Bewegung des gesamten auf der Retina abgebildeten Bildes
wird für gewöhnlich der Bewegung des Kopfes oder dem Auge zugeordnet, wobei die
Bewegung von Teilen des Abbildes auf der Retina als Bewegung externer Objekte interpretiert wird.
3. Einschätzung von [Eysenck 2000]
Die Gestalt-Theorien scheinen sinnvoll zu sein, aber sie haben starke Kritik hervorgerufen.
Die Gesetze sind lediglich beschreibende Aussagen, welche jedoch nicht erklären, warum
ähnliche visuelle Elemente oder eng beieinanderliegende gruppiert werden. Eine andere
Beschränkung ist, dass sich die meisten Gestalt-Theorien hauptsächlich auf die Wahrnehmung von zweidimensionalen Mustern beziehen. Andere Faktoren kommen bei dreidimensionalen Szenerien ins Spiel. Zum Beispiel kann es nur möglich sein, ein Chamäleon vom
Hintergrund abzugrenzen, wenn es sich bewegt. Schließlich ist es schwierig, die GestaltTheorien für Organisation auf bestimmte komplizierte, visuelle Anreize anzuwenden (zum
Beispiel Reize, bei denen ähnliche Elemente relativ weit entfernt und unähnliche Elemente
nahe beisammen sind).
3.3.2 Raum- oder Tiefenwahrnehmung
Bei der visuellen Wahrnehmung wird das zweidimensionale Abbild auf der Retina zur
Wahrnehmung einer dreidimensionalen Welt umgewandelt. Im alltäglichen Leben gibt es
aufgrund der Bewegung des Probanden oder des Objektes häufig Tiefenhinweise in der
visuellen Umgebung. Jedoch liegt der Schwerpunkt der Betrachtung zur Tiefenwahrnehmung hier auf den Merkmalen, die gegeben sind, auch wenn der Proband und die Objekte
in der visuellen Umgebung statisch sind. Diese Hinweise können in monokulare und binokulare Hinweise unterteilt werden. Monokulare Hinweise erfordern das Sehen mit nur
einem Auge, wobei es auch Anwendung findet, wenn beide Augen geöffnet sind. Diese
Hinweise existieren offensichtlich, weil die Welt nach wie vor Tiefenwahrnehmung zulässt,
auch wenn ein Auge geschlossen bleibt. Binokulare Hinweise sind solche, die ein gleichzeitiges Sehen mit beiden Augen erfordern.
3.3.2.1 Monokulare Hinweise
Es gibt verschiedene monokulare Tiefenhinweise. Sie sind manchmal auch als bildhafte
Hinweise bekannt, da sie von Künstlern zum Erstellen der Impression einer dreidimensionalen Szene genutzt werden. Einer dieser Hinweise ist die Linearperspektive. Zueinander
parallele Linien, die vom Betrachter weg führen, scheinen in der Entfernung enger beiein-
Kapitel 3 - Verwandte Arbeiten
31
ander zu liegen (zum Beispiel Eisenbahngleise). Diese Konvergenz
der Linien kann einen starken Tiefeneindruck in zweidimensionalen
Gemälden kreieren.
Ein anderer Aspekt der Perspektive ist bekannt als Verblauung,
im Englischen aerial perspective genannt. Licht wird auf dem Weg
durch die Atmosphäre gestreut, speziell wenn die Atmosphäre staubig ist. Als Resultat erscheinen entferntere Objekte in geringerem
Kontrast und damit diesig oder trüb.
Ein Hinweis, der sich auf die Perspektive bezieht, ist die Textur. Die
meisten Objekte besitzen eine Textur. [Gibson 1979] stellte fest:
Werden diese Objekte mit geneigtem Blickwinkel betrachtet, haben
sie einen Texturgradienten. Dieser Gradient (Veränderungsrate) der
Texturdichte vergrößert sich, wenn man das Objekt von nah bis fern
betrachtet. Schaut man zum Beispiel auf einen langen, gemusterten
Teppich, dann werden die Details zum entfernten Ende hin undeutlicher als die am nahe liegenden Anfang.
Ein weiterer Hinweis ist die Verdeckung, auch Interposition
genannt, bei der ein näheres Objekt Teile eines weiter hinten
liegenden Objektes verdeckt. Beweis für die Eindrucksstärke der
Verdeckung liefert das illusionistisches Quadrat von [Kanizsa 1976].
Hier herrscht eine sehr starke, subjektive Impression eines weißen
Quadrates, welches über vier schwarzen Kreisen liegt. Man erkennt
vier dreiviertel Scheiben und nimmt aufgrund ihrer Anordnung ein
vor den Scheiben liegendes, illusorisches weißes Quadrat wahr.
Abbildung 19
Dieses Kalksteingeröll
an der Zugspitze ist ein
Beispiel eines natürlichen Texturgradienten.
Je näher die Steine am
Betrachter sind, desto
größer und deutlicher
wird das Muster.
Noch ein anderer Hinweis für Tiefe ist durch Schattierung gegeben, oder durch das Muster für Licht und Dunkelheit auf und um
ein Objekt herum. Flache zweidimensionale Oberflächen verursachen keinen Schatten, wodurch die Schattierung ein guter Beweis
für das Vorhandensein eines dreidimensionalen Objektes ist.
Ein weiterer Hinweis für Tiefe ist die vertraute Größe. Wenn wir
die tatsächliche Größe eines Objektes kennen, dann können wir
mit Hilfe des Abbildes auf der Retina die Entfernung des Objektes
schätzen. Als [Ittelson 1951] Teilnehmer durch ein Schlüsselloch auf
Spielkarten schauen ließ, dann sahen die Teilnehmer überdimensionierte Karten und schätzten diese näher ein als sie es waren. Kleinere Spielkarten schienen weiter weg zu sein, als es der Fall war.
Der letzte monokulare Hinweis ist die Bewegungsparallaxe. Sie
basiert auf der Bewegung des Objektabbildes auf der Retina. Man
betrachtet beispielsweise zwei Objekte, die sich von links nach
rechts mit gleicher Geschwindigkeit durch das Sichtfeld bewegen,
jedoch ist ein Objekt weiter vom Probanden entfernt als das andere. In diesem Fall bewegt sich das Abbild des näheren Objektes
schneller über die Retina.
Abbildung 20
Kanizsa‘s illusionistisches Quadrat: Obwohl
kein weißes Quadrat
präsent ist, sehen Menschen das Diagramm,
als wären vier schwarze
Kreise von einem weißen Quadrat überdeckt.
Kapitel 3 - Verwandte Arbeiten
32
3.3.2.2 Binokulare Hinweise
Nach [Eysenck 2000] gibt es drei andere Tiefenhinweise, die nur bei binokularer Sichtweise
verfügbar sind. Diese Hinweise (Konvergenz, Akkommodation und Stereopsis) verlieren ihre
Wirkungsweise, wenn Objekte weiter weg als in kurzer Entfernung sind:
1. Konvergenz bezieht sich auf die Tatsache, dass sich die Augen nach innen drehen, um
ein sehr nahes Objekt besser zu fokussieren.
2. Akkommodation bezieht sich auf die Variation der optischen Sehkraft, die auf das Verdicken der Linse des Auges zurückzuführen ist, um nahe Objekte besser zu fokussieren.
3. Stereopsis ist stereoskopisches Sehen, welches von der Verschiedenheit der Abbildungen auf der Retina der beiden Augen abhängt.
Es hat Diskussionen über die Eigenschaft der Konvergenz als Merkmal für einen Hinweis
zur Entfernung gegeben. Die Forschungsergebnisse tendierten zum Negativen, solange
reale Objekte verwendet wurden. Akkommodation ist ebenso nur von geringer Bedeutung.
Ihr potenzieller Wert als ein Tiefenhinweis ist auf den Raum beschränkt, der sich unmittelbar vor den Augen befindet. Trotzdem sind nach [Kunnapas 1968] auf Akkommodation
basierende Entscheidungen zur Entfernung inakkurat, sogar wenn das Objekt in kurzer
Entfernung ist.
Die große Bedeutung der Stereopsis wurde von [Wheatstone 1838], dem Entwickler des
Stereoskops, gezeigt. Was in einem Stereoskop passiert ist, dass separate Bilder oder
Gemälde dem Probanden so präsentiert werden, dass jedes Auge diese Information empfängt, die es auch empfangen würde wenn das dargestellte Objekt tatsächlich präsentiert
wird. Stereoskopisches Sehen erzeugt einen sehr starken Tiefeneffekt.
Abbildung 21
Binokulare Disparität: Werden Gegenstände in
kurzer Entfernung betrachtet empfängt jedes
Auge ein leicht unterschiedliches Abbild der gleichen Szenerie. Der Unterschied in den Abbildungen auf der Retina eines jeden Auges wird binokulare Disparität genannt. Das Gehirn nutzt diesen
geringen Unterschied als einen Weg, räumliche
Tiefe zu registrieren. Dies ist das Prinzip des Stereoskops, bei dem Bilder aus leicht unterschiedlichem Winkel, korrespondierend zur Position jedes
Auges, aufgenommen werden. Dem Betrachter
erscheinen diese beiden Bilder als ein einziges
dreidimensionales Bild.
3.3.2.3 Kombinieren der verschiedenen Tiefenhinweise
Bis zu diesem Punkt wurden die Tiefenhinweise einzeln betrachtet. In der realen Welt treten jedoch im Allgemeinen mehrere Tiefenhinweise gleichzeitig auf, sodass ein bestimmter
Wissensstand vorhanden sein muss, wie die Informationen verschiedener Tiefenhinweise
kombiniert und eingegliedert werden. [Bruno, Cutting 1988] identifizierten drei Strategien,
die von Probanden genutzt werden könnten, denen zwei oder mehr Tiefenhinweise vorlagen.
Kapitel 3 - Verwandte Arbeiten
33
1. Additivität: Informationen unterschiedlicher Hinweise werden einfach zusammenaddiert.
2. Selektion: Informationen von einem Hinweis werden mit Hilfe der Informationen eines
anderen Tiefenhinweises genutzt, oder es werden Hinweise ignoriert.
3. Multiplikation: Informationen unterschiedlicher Hinweise sind multiplikativ miteinander
verknüpft.
Bruno und Cutting studierten Tiefenwahrnehmung an einer Serie von Studien, in welchen
die Probanden mit nur einem Auge auf visuelle Displays schauen konnten. Die Teilnehmer
hatten Zugang zu vier Informationsquellen der Tiefenwahrnehmung (zum Beispiel Interposition), als sie Entscheidungen zur Entfernung verschiedener Objekte treffen sollten.
Die Teilnehmer verwendeten die additive Strategie, da sie alle vier Informationsquellen zur
Tiefenwahrnehmung gleichermaßen nutzten.
Meist ist ein additives Kombinieren der Tiefenhinweise sinnvoll. Jeder Tiefenhinweis kann
inakkurate Informationen bieten. Damit würde der Bezug auf nur einen Hinweis oft zum
Fehler führen. Im Gegensatz dazu ist das Beachten von allen verfügbaren Informationen im
Allgemeinen der beste Weg, um sicher zu gehen, dass die Tiefenwahrnehmung fehlerfrei
ist. Es gibt aber vereinzelte Fälle, in denen die selektive Strategie angewandt wird.
[Woodworth, Schlosberg 1954] behandelten eine Studie, in welcher zwei normale Spielkarten der gleichen Größe sich leicht überlappend unmittelbar hintereinander aufgestellt
wurden. Der Proband betrachtete die beiden Karten monokular und die weiter weg stehende Karte sah entfernter aus. In der nächsten, entscheidenden Phase der Studie wurde
die Ecke der näheren Karte ausgeschnitten. Die beiden Karten wurden so angeordnet, dass
die entferntere Karte exakt in die ausgeschnittene Ecke der vorderen Karte passte. Bei monokularer Sichtweise schien die entferntere Karte vor der anderen zu stehen und sie dabei
teilweise zu verdecken. Der Hinweis der Interposition überwältigte die vertraute Größe.
Abbildung 22
Interposition (Kartenexperiment): Links
verdeckt die schwarze
Karte teilweise die rote
Karte, die weiter hinten
steht. Rechts wurde
ein Teil der schwarzen
Karte ausgeschnitten,
sodass die Teilnehmer dachten, dass die
schwarze Karte hinter
der roten Karte steht,
was jedoch nicht der
Fall war.
3.3.3 Visuelle Konstanten
Den Menschen erscheinen bekannte Gegenstände jedes Mal sehr ähnlich, wenn sie betrachtet werden. Zum Beispiel verändern sich die wahrgenommene Größe, Form und Farbe
eines guten Freundes nur gering über die Zeit. Der Begriff visuelle Konstanten bezieht
sich nach [Eysenck 2000] auf die Tatsache, dass die meisten der visuellen Charakteristiken
Kapitel 3 - Verwandte Arbeiten
34
eines Objektes trotz unterschiedlicher äußerer Begebenheiten ähnlich aussehen, sogar
wenn es starke Veränderungen auf dem Abbild der Retina gibt (beispielsweise ist das Abbild eines guten Freundes auf der Retina eher groß, wenn er sehr nah steht, aber es wird
sehr klein, wenn er sehr weit entfernt ist). Psychologen haben sehr viele visuelle Konstanten identifiziert, einschließlich Konstanz in der Größe, der Form und der Farbe.
3.3.3.1 Größenkonstanz
Größenkonstanz ist die Tendenz eines gegebenen Objektes in gleicher Größe zu erscheinen, unabhängig davon, ob das Abbild auf der Retina groß oder klein ist. Warum zeigt
der Mensch Größenkonstanz? Ein Hauptgrund ist, dass die scheinbare Entfernung beim
Abschätzen der Größe beachtet wird. Zum Beispiel könnte ein Objekt groß eingeschätzt
werden, obwohl das Abbild auf der Retina sehr klein ist, wenn das Objekt in großer Entfernung ist. Größenkonstanz ist oft nicht sichtbar, wenn von einem hohen Gebäude oder
einem Flugzeug auf Objekte am Boden geschaut wird, weil für den Menschen das richtige
Einschätzen der Entfernung schwer ist.
Die vertraute Größe ist einer der Faktoren, der die Größenkonstanz beeinflusst. Zum
Beispiel ist allgemein bekannt, dass Erwachsene oft zwischen 1,60 und 1,85 Meter groß
sind. Diese vertraute Größeninformation kann verwendet werden, um eine genaue Größenabschätzung zu treffen, egal ob das Retinaabbild sehr groß oder klein ist. [Schiffman
1967] führte einen Beweis für die Wichtigkeit der vertrauten Größe. Personen betrachteten Objekte bekannter Größe mit Vorhandensein oder Fehlen von Tiefenhinweisen aus
unterschiedlichen Entfernungen. Ihre Abschätzungen waren auch dann exakt, wenn keine
Tiefenhinweise verfügbar waren, weil sie ihr Wissen über vertraute Größen nutzten.
Entsprechend der Größe-Entfernung-Invarianz-Hypothese erarbeiten sich Menschen
eine Objektgröße, indem sie die Informationen des Retinaabbildes mit den Informationen
über die wahrgenommene Entfernung vergleichen. [Holway, Boring 1941] unterstützten
diese Theorie. Die Teilnehmer saßen an einem Schnittpunkt zweier Gänge. Der Testkreis
wurde in dem einen Gang gezeigt, während der Vergleichskreis in dem anderen Gang
präsentiert wurde. Der Testkreis konnte verschiedene Größen und Entfernungen annehmen. Die Aufgabe der Teilnehmer bestand in der Justierung des Vergleichskreises, sodass
er die gleiche Größe und die gleiche Entfernung wie der Testkreis hatte. Die Leistungen
der Teilnehmer waren sehr gut, solange Tiefenhinweise vorhanden waren. Jedoch nahmen
die Leistungen stark ab, als die Tiefenhinweise entfernt wurden, indem im Gang Vorhänge
platziert wurden und die Teilnehmer durch ein Guckloch hindurchschauen mussten.
Wenn Größeneinschätzungen von der wahrgenommenen Entfernung abhängen, dann liegt
keine Größenkonstanz vor, falls die wahrgenommene Entfernung eines Objektes sehr von
seiner realen Entfernung abweicht. Der Ames-Raum bietet ein gutes Beispiel. Er hat eine
eigenartige Form: der Boden hat ein Gefälle und die hintere Wand ist nicht rechtwinklig
zu den angrenzenden Wänden. Trotzdem erzeugt der Ames-Raum das gleiche Abbild auf
der Retina wie ein normaler rechteckiger Raum, wenn in ihn durch ein Guckloch geschaut
wird. Die Tatsache, dass ein Ende der hinteren Wand vom Betrachter weiter weg ist, wird
dadurch verschleiert, dass der Raum zu dieser Stelle hin höher gebaut ist. Die Hinweise, die
den Betrachter vermuten lassen, dass die Rückwand rechtwinklig zu ihm ist, sind so stark,
dass jemand zu wachsen oder zu schrumpfen scheint, sobald er sich entlang der Wand
vorwärts oder rückwärts bewegt.
Kapitel 3 - Verwandte Arbeiten
35
Abbildung 23
Der Ames-Raum:
Zeichnungen der realen
Dimensionen und Winkel, die im Ames-Raum
verwendet wurden. Die
rote Linie verdeutlicht
die hintere untere Kante des Raumes.
Die Abbildung unten
rechts zeigt den AmesRaum, wahrgenommen
durch das Guckloch.
Läuft eine Person
entlang der Rückwand
von links nach rechts,
scheint sie auf merkwürdige Weise zu
wachsen.
3.3.3.2 Farbkonstanz
Farbkonstanz ist die Eigenschaft eines Objektes in ein und derselben Farbe zu erscheinen,
egal welches Licht von ihm reflektiert wird. Zum Beispiel ist das von einem Objekt reflektierte Licht häufig etwas gelblicher, solange es mit künstlichem Licht bestrahlt wird, gegenüber einer Beleuchtung mit gewöhnlichem Tageslicht. Jedoch hat diese Tatsache nach
[Sekuler, Blake 1994] nur einen geringen Einfluss auf die wahrgenommene Objektfarbe.
Warum zeigen Menschen Farbkonstanz? Ein Grund ist, dass sie über Jahre hinweg gelernt
haben, dass die meisten Objekte dazu neigen eine ganz bestimmte Farbe zu besitzen. Zum
Beispiel wissen deutsche Personen, dass Briefkästen gelb sind, und somit sehen sie für den
Betrachter auch in der Nacht unter geringeren Beleuchtungsverhältnissen noch gelb aus.
[Land 1977] argumentierte in seiner Retinex-Theorie, dass Menschen die Oberflächenfarbe exakt wahrnehmen, wenn sie das reflektierte Licht von der Oberfläche gegenüber dem
Licht benachbarter Oberflächen vergleichen. Den Beweis seiner Theorie erzielte er mit Hilfe
zweier optischer Anzeigen. Die Beleuchtung wurde so inszeniert, dass zwei Rechtecke mit
unterschiedlichen Farben Licht derselben Wellenlänge reflektierten. Dennoch erschienen
die zwei Rechtecke unterschiedlich und ihre wirklichen Farben wurden wahrgenommen.
Aus der Theorie von Land folgt, dass Farbkonstanz nicht vorliegen würde, wenn keine Informationen über das reflektierte Licht angrenzender Flächen vorhanden sind. Als auf den
Bildschirmen alles andere außer den beiden Rechtecken ausgeblendet wurde, schienen sie
dieselbe Farbe zu haben.
Farbkonstanz ist deutlich vorhanden, wenn Objekte in natürlichem Sonnenlicht betrachtet werden. Sie geht verloren, wenn auf Objekte unter künstlichem Licht mit begrenztem
Wellenlängenbereich geschaut wird. Wie [Sekuler, Blake 1994] darlegten, nutzen einige
Supermärkte diese Tatsache bei der Beleuchtung ihrer Fleischwaren aus, sodass das Fleisch
röter aussieht, als es der Fall ist.
Kapitel 3 - Verwandte Arbeiten
36
3.3.4 Mustererkennung
Mustererkennung bedeutet hier das Identifizieren zweidimensionaler Muster und dreidimensionaler Objekte trotz Variationen in der
Größe und Ausrichtung. Sie ist sehr wichtig, weil es dem Menschen
dadurch möglich ist, Objekte in seiner Umwelt sinnvoll einzuordnen. Der Fokus einiger Studien über zweidimensionale Stimuli lag
auf dem Erkennen alphanumerischer Muster (alphabetische oder
numerische Zeichen). Ein Schlüsselpunkt ist das flexible menschliche
Wahrnehmungssystem.
Zum Beispiel kann man den Buchstaben „A“ sehr schnell und exakt
wahrnehmen, obwohl er stark in der Ausrichtung, der Schriftart
und im Schreibstil variiert. Wie ist das möglich? Verfechter von
Schablonen-Theorien, Abstraktions-Theorien und Theorien struktureller Beschreibung brachten verschiedene Antworten auf diese
Frage hervor. Jedoch stimmen sie überein, dass die Mustererkennung Informationen zur Übereinstimmung von optischen Reizen
und Informationen aus dem Gehirn einbezieht.
Abbildung 24
Mustererkennung:
Der Buchstabe „A“
wird auch in großer
Variation der Lage
und Schriftart richtig
erkannt.
3.3.4.1 Schablonen-Theorien
Nach [Eysenck 2000] ist der Schlüsselgedanke für Schablonen-Theorien, dass eine Minikopie oder eine Schablone entsprechend allen bekannten Mustern im Langzeitgedächtnis
gespeichert ist. Ein Muster wird auf der Basis wahrgenommen, bei welcher es am Besten
zum optischen Eingangsreiz passt.
Diese Art der Theorie ist sehr einfach. Jedoch ist sie in Bezug auf die enormen Variationen optischer Reize, die angeblich zur gleichen Schablone passen, unrealistisch. Vielleicht
durchlebt der Sehreiz einen Normalisierungsprozess, der eine interne Repräsentation mit
Standardposition, Standardgröße und so weiter produziert. Nach diesem Normalisierungsprozess beginnt die Suche nach einer passenden Schablone. Eine Normalisierung mag bei
der Mustererkennung von Buchstaben und Zahlen helfen, aber es würde manchmal etwas
passend zur falschen Schablone interpretiert werden.
Wahrscheinlich gibt es mehr als eine Schablone für jeden Buchstaben und jede Ziffer. Das
würde eine genauere Übereinstimmung von Reiz und Schablone über einen großen Bereich
an Reizen ermöglichen. Jedoch würde dieser Erfolg auf Kosten einer handlichen Theorie
erzielt werden.
Schablonen-Theorien sind schlecht geeignet, wenn es um das Betrachten der Adaptivität
geht, die von Menschen beim Erkennen von Mustern gezeigt wird. Einschränkungen der
Schablonen-Theorien werden deutlich, wenn sich der Reiz auf schlecht definierte Kategorien, wie zum Beispiel Gebäude, bezieht. In diesem Fall kann eine einzelne Schablone nicht
genug sein.
Kapitel 3 - Verwandte Arbeiten
37
Abbildung 25
Schablone für die Kategorie „Gebäude“: Es ist leicht zu sehen, wie anpassungsfähig der Mensch sein
muss, um verschiedene Beispiele derselben Gruppe zu erkennen. Abgebildet sind die Frauenkirche und
die Volkswagen-Manufaktur in Dresden. Das dritte Gebäude steht in Austin, der Hauptstadt von Texas
in den USA und erscheint in der amerikanischen Fernsehwerbung „Raising Bars“ für ein Mobilfunknetz.
3.3.4.2 Abstraktions-Theorien
[Eysenck 2000] behauptet, dass nach der Meinung der Abstraktions-Theoretiker ein Muster
aus einem Set aus Abstrakten oder Attributen besteht. Zum Beispiel könnte gesagt werden, ein Gesicht besteht aus einer Nase, zwei Augen, einem Mund, einem Kinn und so
weiter. Es wird davon ausgegangen, dass der Prozess der Mustererkennung beim Erkennen
der einzelnen Attribute vom Sehreiz ausgeht. Dieses Set an Attributen wird anschließend
kombiniert und mit Informationen aus dem Langzeitgedächtnis abgeglichen.
Im Falle des Buchstaben „A“ argumentieren die Abstraktions-Theoretiker, dass die entscheidenden Attribute zwei aufrechte Linien und eine verbindende Querlinie sind. Diese Art
des Ansatzes hat den Vorteil, dass optische Reize, die in Größe, Lage und kleineren Details
variieren, weiterhin als Instanzen desselben Musters identifizierbar bleiben.
1. Abstraktions-Analyse
Abstraktions-Theorien wurden in Studien
zur visuellen Suche getestet, bei welchen
ein Zielbuchstabe in kürzester Zeit in einem
Buchstabentextblock gefunden werden soll.
[Neisser 1964] verglich die Zeiten, die zur
Suche des Buchstaben „Z“ benötigt wurden.
Im ersten Fall bestanden die benachbarten
Buchstaben aus geraden Linien (wie zum
Beispiel bei „W“ oder „V“), wobei der
zweite Block aus Buchstaben mit runden
Merkmalen (wie zum Beispiel bei „O“ oder
„G“) bestand. Die Leistung war unter der
zweiten Bedingung vermutlich besser, weil
die benachbarten Buchstaben weniger Gemeinsamkeiten mit dem Zielbuchstaben „Z“
hatten.
IMVXEW
WVMEIX
VXWIEM
MIEWVX
IWVXEM
IXEZVW
VWEMXI
MIVEWX
WXEIMV
ODUGQB
GBODUQ
DUBOQG
BGOUDQ
UGQDBO
GUQZOB
ODGBUQ
DBUQGO
UQGOBD
Abbildung 26
Neisser nutzte diese Reize, um die Zeit zu messen,
die man zur Suche des Buchstabens „Z“ benötigt.
Er fand heraus, dass man weniger Zeit braucht,
ihn im Block mit den runden Buchstaben zu finden, als in den Buchstaben mit geraden Linien.
Kapitel 3 - Verwandte Arbeiten
38
2. Kontext und Erwartungen
Abstraktions-Theorien ignorieren die Effekte von Kontext und von Erwartungen. [Weisstein, Harris 1974] forderten ihre Teilnehmer auf, eine Linie aufzuspüren, die entweder kurz
in dreidimensionaler Form eingeblendet oder in einer weniger kohärenten Form eingebaut
war. Nach den Abstraktions-Theoretikern sollte die Ziellinie immer die gleichen Abstraktions-Detektoren aktivieren. Damit hätte Kohärenz der Form, in welcher die Linie vorkommt,
keinen Einfluss auf das Aufspüren. Tatsächlich gelang das Auffinden der Linie am besten,
wenn die Ziellinie Teil des Dreidimensionalen war. Weisstein und Harris nannten dies den
Objekt-Überlegenheits-Effekt. Dieser Effekt ist inkonsistent zu vielen Abstraktions-Theorien.
Mustererkennung hängt nicht ausschließlich davon ab, auf die erkannten Abstrakte aus
den Reizen zu achten. Zum Beispiel besteht der Buchstabe „A“ aus zwei schrägen Strichen
und einem horizontalen Strich. Jedoch können diese Teile auch so vorliegen, dass sie nicht
als ein „A“ wahrgenommen werden: \ / - . Also muss man die Beziehungen zwischen den
abstrakten Teilen betrachten.
3. Einschränkungen
Die Einschränkungen der Abstraktions-Theorien werden bei dreidimensionalen Reizen
deutlicher. Zuschauer können für gewöhnlich dreidimensionale Objekte sogar dann wahrnehmen, wenn ein oder mehrere der Haupt-Abstrakte von der Sicht verborgen sind. Das ist
schwer zu beschreiben, solange Abstrakte entscheidend für die Wahrnehmung sind.
3.3.4.3 Strukturelle Beschreibungen
Auf strukturellen Beschreibungen basierende Theorien sind angemessener als Schablonenund Abstraktions-Theorien. Strukturelle Beschreibungen bestehen aus Theoremen, welche
die kleinsten Einheiten sind, denen eine Bedeutung zugeordnet werden kann. Nach [Bruce,
Green 1990, Seite 186]:
Such propositions describe the nature of the components of a configuration
and make explicit the structural arrangements of these parts.
Im Deutschen: Solche Theoreme beschreiben die Natur der Komponenten und deren Zusammensetzung und verdeutlichen die strukturelle Anordnung dieser Teile.
Zum Beispiel könnte die strukturelle Beschreibung des Großbuchstabens „T“ folgendes
enthalten: Es gibt zwei Teile; ein Teil ist eine horizontale Linie; ein Teil besteht aus einer
vertikalen Linie; die vertikale Linie trägt die horizontale Linie; die vertikale Linie halbiert die
horizontale Linie.
Strukturale Beschreibungen sind vollständiger als die einer Abstraktions-Analyse. Strukturelle Beschreibungen fokussieren auf Schlüsselaspekte der Reize und ignorieren andere. Zum
Beispiel beinhaltet die strukturelle Beschreibung des Buchstabens „T“ keine Aussagen über
die Längen der horizontalen und vertikalen Linien. Deshalb wird der Buchstabe T wahrgenommen, auch wenn er in der Länge der beiden Linien stark variiert.
Kapitel 3 - Verwandte Arbeiten
39
Einschränkungen
Zusammenfassend ist der auf strukturellen Beschreibungen basierende Ansatz besser als
der auf Schablonen oder Abstraktionen basierende. Jedoch wird nicht deutlich, wie die
vom Sehreiz gebildete strukturelle Beschreibung mit den relevanten, gespeicherten strukturellen Beschreibungen in Übereinstimmung gebracht wird. Außerdem leiden die strukturellen Beschreibungen an der Einschränkung, dass kontextabhängige Informationen nicht
beachtet werden.
3.3.5 Wahrnehmungstheorien
Die visuelle Wahrnehmung hängt von zwei Prozessmodellen ab.
Erstens gibt es den Bottom-Up-Prozess, der direkt von externen
Reizen abhängt. Zweitens gibt es den Top-Down-Prozess, welcher von individuellem Wissen und Erwartungen beeinflusst wird.
Der Bottom-Up-Prozess muss bei visueller Wahrnehmung beteiligt
sein, aber es ist weniger deutlich, dass das auch für den Top-DownProzess zutrifft. Eine einfache Darstellung der Rolle des Top-DownProzesses wird in der dreieckigen Figur rechts gezeigt. Der Leser
betrachte das Abbild nun, bevor er weiter liest.
Insofern er mit dieser Täuschung nicht vertraut ist, liest er im Dreieck die Nachricht „Von vorn bis hinten“. Bei genauerer Betrachtung
wird er feststellen, dass sich das Wort „bis“ wiederholt. Die Erwartung, dass es eine wohl bekannte Phrase ist (das heißt Top-DownVerarbeitung), überschreibt die Informationen, die durch den Reiz
zur Verfügung gestellt werden (das heißt Bottom-Up-Verarbeitung).
Abbildung 27
Die durch den TopDown-Prozess erkannte
Phrase überschreibt
die Informationen, die
durch den Bottom-UpProzess wahrgenommen werden. Buchstaben gerader Linien zu
finden.
Wahrnehmung bezieht häufig einen Mix beider Prozesse ein, Bottom-Up sowie Top-Down.
Eine wirklich deutliche Demonstration dafür kommt aus einer Studie von [Bruner, Postman,
Rodrigues 1951], in welcher den Teilnehmern gesagt wurde, dass sie gewöhnliche Spielkarten sehr kurz gezeigt bekommen. Als schwarze Herzen präsentiert wurden, behaupteten
einige von ihnen violette oder braune Herzen gesehen zu haben. Aufgrund der Erwartung,
dass Herzen rot sein werden, handelt es sich hierbei um eine beinahe wörtliche Blendung
der schwarzen Farbe, basierend auf dem Bottom-Up-Prozess, und der roten Farbe, basierend auf dem Top-Down-Prozess.
Einige Theoretiker haben die Wichtigkeit entweder der Bottom-Up- oder der Top-DownVerarbeitung für die visuelle Wahrnehmung hervorgehoben. Zum Beispiel fokussierte [Gibson 1979] auf Bottom-Up-Prozesse. Nach seiner Theorie zur direkten Wahrnehmung
ermöglicht die von der visuellen Umgebung zur Verfügung gestellte Information dem
Individuum, sich frei zu bewegen und direkt mit dieser Umgebung zu interagieren, ohne
dass daran interne Prozesse beteiligt sind. Im Gegenzug spezialisierten sich [Neisser 1967]
und [Gregory 1980] auf Top-Down-Prozesse. Nach ihren konstruktivistischen Theorien
ist Wahrnehmung ein aktiver und konstruktiver Prozess, welcher stark von Hypothesen und
Erwartungen beeinflusst wird. Diese Theorien werden im Folgenden näher betrachtet.
Kapitel 3 - Verwandte Arbeiten
40
3.3.5.1 Gibson‘s Theorie der direkten Wahrnehmung
Gibson‘s Theorie der direkten Wahrnehmung beinhaltet Aussagen zum optischen Fluss und
zum optischen Feld Weiterhin nimmt er Bezug auf Wahrnehmung und Handlung, Invarianten sowie zur Resonanz.
1. Optischer Fluss
Gibson‘s Interesse an visueller Wahrnehmung begann während des zweiten Weltkrieges. Ihm wurde die Aufgabe gestellt,
Trainingsvideos zu erstellen, die Erfahrungen
der Piloten beim Landevorgang enthalten. [Gibson 1950] hatte herausgefunden,
dass es Muster im optischen Fluss gibt:
Der Punkt, zu dem sich der Pilot bewegt
(Pol genannt, später Fixpunkt), ist bewegungslos. Der Rest der visuellen Umgebung
scheint sich offensichtlich von diesem Punkt
wegzubewegen. Je weiter irgendein Teil
der Landebahn vom Pol entfernt ist, desto
Abbildung 28
größer ist die Geschwindigkeit der offenPiloten trainieren heutzutage an Computersimusichtlichen Bewegung. Nach Gibson liefern
latoren und lernen, wie sie Informationen über
diese Sinnesinformationen den Piloten
den optischen Fluss, über Geschwindigkeit, Höhe
Muster optischer Flüsse, eindeutige Hinund Richtung interpretieren, um ein Verständnis
weise über Richtung, Geschwindigkeit und
zu bekommen, wie das Flugzeug in verschiedenen
Höhe. Gibson war so sehr vom Reichtum an Situationen reagieren wird.
Sinnesinformationen bei Piloten aus Mustern
optischer Flüsse beeindruckt, dass er sich
selbst einer Analyse verfügbarer Informationen in anderen Situationen hingab. Er argumentierte, dass Texturgradienten nützliche Hinweise zur Tiefe geben: Objekte, die schräg von
einem weg verlaufen, haben einen erhöhten Texturdichtegradienten (Veränderungsrate),
wenn man von der näheren zur entfernteren Ecke blickt.
2. Optisches Feld
[Gibson 1979] trieb eine allgemeine Theorie zur visuellen Wahrnehmung voran. Sein Ausgangspunkt war der Gedanke, dass das Auge erreichende Lichtmuster als ein optisches
Feld gedacht werden kann, das allen verfügbaren visuellen Informationen auf der Retina
enthält. Dieses optische Feld bietet eindeutige Hinweise über die Anordnung der Objekte im Raum. Die Hinweise treten in vielen Formen, inklusive Muster optischer Flüsse und
Texturgradienten, in Erscheinung. Die Wahrnehmung schließt das „Aufsammeln“ der vom
optischen Feld zur Verfügung gestellten Informationen ein, wobei auch eine geringe Informationsverarbeitung beteiligt sein kann.
Kapitel 3 - Verwandte Arbeiten
41
3. Wahrnehmung und Handlung
Von besonderer Bedeutung in Gibson‘s Theorie war die Annahme, dass es eine enge Beziehung zwischen Wahrnehmung und Handlung gibt. Ein Beobachter bekommt wertvolle
Informationen über die Umgebung, indem er sich umherbewegt. Zum Beispiel existieren
Muster optischer Flüsse nur dann, wenn das Individuum in Bewegung ist. Vorherige Forscher visueller Wahrnehmung hatten die Wichtigkeit der Bewegung minimiert, zum Teil
aufgrund künstlicher Laborstudien. Zum Beispiel wurden oft die Augenbewegungen relativ
zur visuellen Anzeige verhindert, indem Kinnstützen oder andere Klemmvorrichtungen zur
Verwendung kamen.
4. Invarianten
Gibson vertrat die Auffassung, dass wichtige Aspekte des optischen Feldes die gleichen
bleiben, wenn Beobachter ihre Umgebung umherbewegen; diese sind als Invarianten
bekannt. Der Pol (der Punkt, zu dem sich jemand bewegt) ist ein Beispiel für eine Invariante. Ein anderes Beispiel ist die Horizont-Verhältnis-Relation: Das Verhältnis einer Objekthöhe
zur Strecke zwischen Boden und dem Horizont ist unabhängig von der Entfernung zum Beobachter invariant. Nach Gibson unterstützt die Invarianz den Erhalt der Größenkonstanz.
5. Resonanz
Wie erfassen Menschen die invarianten Informationen, die vom optischen Feld geliefert
werden? Nach Gibson gibt es einen Resonanzprozess, welcher analog zur Funktionsweise eines Radios funktioniert. In den meisten Haushalten der gesamten westlichen Welt sind
fast ununterbrochen elektromagnetische Wellen von verschiedenen Radiosendern messbar.
Wenn ein Radio eingeschaltet wird, könnte möglicherweise nur ein Rauschen zu hören
sein. Sprache oder Musik können jedoch deutlich gehört werden, wenn es gut eingestellt
ist. In Gibson‘s Zusammenhang geht das Radio mit den elektromagnetischen Wellen in
Resonanz, wodurch die vorhandenen Informationen (die Sender) empfangen werden.
Die Analogie legt nahe, dass Informationen aus der Umgebung nahezu automatisch und
ohne Mühe aufgenommen werden können, wenn Personen auf diese Informationen
eingestellt sind. Das Radio funktioniert als einzelne Einheit in dem Sinn, dass es nicht mehr
funktionieren würde, sobald einer der Schaltkreise Schaden nimmt. In ähnlicher Weise, so
behauptet Gibson, funktioniert auch das Nervensystem während des Empfangs als einzige
Einheit.
6. Auswertung
Wahrnehmung und Handlung: Die Hauptstärke von Gibson‘s Theorie liegt in ihrer Betonung auf dem Gedanken, dass die visuelle Umgebung sehr viel mehr Informationen bereitstellt, als vorher jemals geglaubt wurde. Gibson lag richtig in der Annahme, dass die
ständig auftretenden Veränderungen im sich bewegenden optischen Feld nützliche Informationen über die Gestaltung der visuellen Umgebung lieferern. Die meisten vorherigen
Theoretiker unterschätzten die Wichtigkeit der Bewegung und brachten Studien heraus, bei
denen sowohl die visuelle Umgebung als auch der Teilnehmer bewegungslos blieben.
Kapitel 3 - Verwandte Arbeiten
42
Genauigkeit der Wahrnehmung: Gibson behauptete, dass Wahrnehmung fast immer exakt
ist, weil eine durch das optische Feld gelieferte Informationsvielfalt vorhanden ist. Was ist
mit Laborstudien, in denen gezeigt wird, dass die visuelle Wahrnehmung sehr ungenau
sein kann? Nach Gibson sind in solchen Studien (zum Beispiel in optischen Täuschungen)
typischerweise entweder nur kurze Anregungsdarstellungen oder unterentwickelte Reize
involviert, und sie finden somit wenig Relevanz in der alltäglichen Wahrnehmung. Er argumentierte zurecht, dass es nur wenig Sinn ergibt, die Forschungsergebnisse aus künstlichen
Laborsituationen auf die alltägliche Wahrnehmung anzuwenden.
Zu starke Vereinfachung: Im negativen Sinne sind Prozesse, die am Identifizieren der Invarianten in der Umgebung und am Erzeugen von Resonanz beteiligt sind, wesentlich komplexer, als es Gibson andeutete. Nach [Marr 1982, Seite 30] resultieren die meisten Defizite
aus Gibson‘s Analyse
from a failure to realise two things. First, the detection of physical invariants ...
is exactly and precisely an information-prozessing problem ... And second, he
vastly under-rated the sheer difficulty of such detection.
Im Deutschen: aus einem Fehler, zwei Dinge zu erkennen. Erstens ist gerade das Aufspüren
von Invarianten genau ... ein informationsverarbeitendes Problem ... Und zweitens unterschätzte er sehr stark die Schwierigkeit dieses Aufspürens.
„Sehen als“: Gibson‘s theoretischer Ansatz ist auf einige andere Aspekte visueller Wahrnehmung viel besser anzuwenden. Das Schlüsselproblem kann über die Unterschiede der
Begriffe „sehen“ und „sehen als“ angegangen werden. [Fodor, Pylyshyn 1981] stellten
diesen Unterschied klar, indem sie einen Seemann namens Smith, der sich auf hoher See
verfahren hatte, betrachteten. Er hatte die Sterne, inklusive den Polarstern, am Nachthimmel gesehen. Jedoch war für sein Überleben möglicherweise ausschlaggebend, ob er den
Polarstern auch wirklich als Polarstern erkannt hatte oder als irgendeinen anderen Stern.
Mit anderen Worten, „sehen als“ beinhaltet das Verbinden einer Bedeutung mit dem Gesehenen. Gibson bot eine wertvolle Darstellung des „Sehens“, aber hatte wenig Interesse
etwas über „sehen als“ zu sagen.
Die Rolle des Gedächtnisses: Eine letzte Schwäche Gibson‘s Ansatzes war seine Auffassung, dass keine internen Repräsentationen (zum Beispiel Gedanken oder Erfahrungen)
gebraucht werden, um Wahrnehmung zu erläutern. [Bruce, Green, Georgeson 1996]
verwiesen auf die Arbeit von [Menzel 1978], um die von Gibsons Standpunkt ausgehenden
Probleme zu zeigen. Schimpansen wurden um ein Feld getragen, und es wurden ihnen 20
Stellen mit Nahrung gezeigt. Als jeder Schimpanse freigelassen wurde, bewegten sie sich
sehr effizient umher und sammelten das Futter ein. Da keine relevanten Informationen im
Licht, was ihre Augen erreichte, stecken konnten (weil sie sich nun eher unabhängig voneinander bewegten, als herumgetragen zu werden), mussten sie nun von gespeicherten
Informationen aus ihrem Langzeitgedächtnis Gebrauch machen, um ihre Suche zu lenken.
Dieser Sachverhalt ist gegensätzlich zu den Annahmen von Gibson.
Kapitel 3 - Verwandte Arbeiten
43
3.3.5.2 Konstruktivistische Theorie
[Helmholtz 1903] argumentierte, dass die unzureichenden Informationen von den Sinnen
um unbewusste Folgerungen angereichert werden, welche den Sinneseindrücken Bedeutung hinzufügen. Er nahm an, dass diese Folgerungen unbewusst waren, weil man für gewöhnlich nicht bemerkt, dass man Schlussfolgerungen während der Wahrnehmung zieht.
Der helmholtzsche konstruktivistische Ansatz zur Wahrnehmung wurde von Theoretikern
wie [Gregory 1980] und [Neisser 1967] weiterentwickelt.
Abbildung 29
Die Studie von [Carmichael, Hogan, Walters
1932] bezieht zwei
Gruppen von Teilnehmern ein, denen
die mittleren Skizzen gezeigt wurden.
Gruppe eins erhielt die
Beschreibungen der
linken Seite, Gruppe
zwei die der rechten
Seite; zum Beispiel erfuhr Gruppe eins, dass
ein Objekt ein Gewehr
sei und Gruppe zwei,
es sei ein Besen. Später
sollten die Teilnehmer
die Skizzen aus ihrem
Gedächtnis reproduzieren. Die Skizzen glichen
den Beschreibungen,
aber nicht den Originalskizzen. Damit wurde
gezeigt, dass Wahrnehmung nicht nur von
Reizen beeinflusst wird,
sondern auch von Wissen und Erwartungen.
Die folgenden Annahmen wurden von vielen konstruktivistischen Theoretikern getroffen:
- Wahrnehmung ist ein aktiver und konstruktiver Prozess;
nach [Gordon 1989, Seite 124] ist sie „something more than the direct registration of
sensations ... other events intervene between stimulation and experience.“
Im Deutschen: „etwas mehr als das unmittelbare Registrieren von Empfindungen ...
andere Ereignisse liegen zwischen Anregung und Erfahrung.“
- Wahrnehmung ist nicht direkt durch die Energiezufuhr der Reize gegeben, vielmehr sind
interne Hypothesen, Erwartungen und Wissen genauso wie anregende und emotionale
Faktoren beteiligt; sensorische Informationen werden als eine Grundlage verwendet, um
kenntnisreiche Abschätzungen oder Folgerungen über den empfangenen Reiz und seine
Bedeutung zu treffen.
- Weil Wahrnehmung zeitweise auch von fehlerhaften Hypothesen und Erwartungen
beeinflusst wird, ist die Wahrnehmung fehleranfällig.
Kapitel 3 - Verwandte Arbeiten
44
Das Besondere dieses theoretischen Ansatzes wurde von [Gregory 1972] erfasst. Er behauptete, dass Wahrnehmungen Konstruktionen aus bruchstückhaften Datenresten sind,
welche von den Nerven signalisiert und von den Speicherzellen im Gehirn gezeichnet
werden. Diese sind wiederum selber aus Schnipseln der Vergangenheit zusammengesetzt.
Daher wird die von den Sinnesorganen kommende, unzureichende Information verwendet,
um eine Grundlage zum Erzeugen von Rückschlüssen oder zum Formen von Hypothesen
über die visuelle Umgebung zu schaffen.
[Ittelson 1952] bot basierend auf dem in Abschnitt 3.3.3 vorgestellten gestörten AmesRaum eine Darstellung an, wie Erwartungen die Wahrnehmung beeinflussen können.
Dieser Raum hat eine äußerst seltsame Form, aber die menschliche Wahrnehmung ist stark
durch die Erwartung beeinflusst, dass Räume rechtwinklig sind. Als Ergebnis erscheint
jemand in der hinteren rechten Ecke sehr viel größer als jemand, der in der hinteren linken
Ecke steht.
Konstruktivistische Theoretiker argumentieren, dass Erwartungen und Hypothesen der
Probanden von anregenden und emotionalen Faktoren beeinflussbar sind. Ein unterstützender Beweis wurde von [Schafer, Murphy 1943] angetreten. Sie benutzen Bilder, in welchen eine ungleichmäßige Linie vertikal durch einen Kreis gezeichnet wurde, so dass jede
Kreishälfte als Profil eines unterschiedlichen Gesichts gesehen werden konnte. Zu Beginn
dieser Studie wurde jedes Gesicht einzeln gezeigt. Ein Gesicht jedes Paares wurde Geld
gewinnend assoziiert, wogegen das andere Gesicht Geld verlierend beigeordnet wurde.
Als die fertigen Bilder den Teilnehmern dann nur sehr kurz gezeigt wurden, meldeten die
Teilnehmer eher das vorherige, „belohnte“ Gesicht gesehen zu haben, als das „bestrafte“.
Es geht aus dieser Studie nicht hervor, ob Belohnung die Wahrnehmungserfahrung beeinflusst, oder ob sie nur die Antworten der Teilnehmer beeinflusst.
[Gregory 1970] verwendete den konstruktivistischen Ansatz, um
viele der bekannten visuellen Illusionen zu erläutern. Er begann mit
der Größenkonstanz, bei welcher ein Objekt mit derselben Größe
wahrgenommen wird, egal ob es aus der Nähe oder aus der Ferne
betrachtet wird. Nach seiner Falsch-Angewendeten-Größenkonstanz-Theorie (englisch: misapplied size-constancy theory)
sind Prozesse, die Größenkonstanz bei dreidimensionalen Objekten
hervorrufen, manchmal bei der Wahrnehmung zweidimensionaler
Objekte unpassend angewendet. Die Kerngedanken können begriffen werden, wenn die hier abgebildete Ponzo-Illusion betrachtet
wird. Die langen Linien in der Abbildung sehen wie Eisenbahnschienen aus, die in der Ferne verschwinden. Die obere horizontale Linie
kann so gesehen werden, dass sie weiter entfernt ist als die untere.
Obwohl die Rechtecke A und B auf dem Abbild der Retina die gleiche Größe haben, muss das entferntere Rechteck (A) in Wirklichkeit
größer sein als das nähere Rechteck (B).
Abbildung 30
Die Ponzo-Illusion: Obwohl beide Rechtecke
die gleiche Größe besitzen, scheint Rechteck A
größer zu sein als B.
Die Falsch-Angewendete-Größenkonstanz-Theorie kann ebenso an der bestens bekannten
Muller-Lyer-Illusion erklärt werden. Die vertikalen Linien in den beiden Gebilden haben
die gleiche Länge. Jedoch scheint die vertikale Linie im linken Gebilde länger zu sein als
beim rechten Gebilde. Nach Gregory kann die Muller-Lyer-Illusion als eine einfache perspektivische Zeichnung dreidimensionaler Objekte gedacht werden. Die linke Figur sieht wie
die Innenkante eines Raumes aus, wogegen die rechte Figur der Außenkante eines Raumes
Kapitel 3 - Verwandte Arbeiten
45
oder eines Gebäudes ähnelt. Daher erscheint die vertikale Linie in
irgendeiner Weise weiter weg vom Betrachter zu sein, als sie es ist.
Die vertikale Linie der rechten Figur scheint näher zum Betrachter zu
sein. Obwohl die Größe des Abbildes auf der Retina für beide vertikalen Linien die Gleiche ist, sagt das Prinzip der Größenkonstanz,
dass die Linie, die weiter weg ist (das heißt die Linie in der linken
Figur), länger sein muss. Das genau ist die Muller-Lyer-Illusion.
Gregory argumentierte, dass Figuren wie die Ponzo-Illusion und die
Muller-Lyer-llusion in vielerlei Hinsicht als dreidimensionale Objekte
behandelt werden. Warum erscheinen sie dann flach und zweiAbbildung 31
dimensional? Nach Gregory werden Tiefenhinweise automatisch
Die Muller-Lyer-Illusion
verwendet, egal ob die Figuren flach auf einer Oberfläche liegend
gesehen werden oder nicht. Diese Betrachtungsweise unterstützt
die Tatsache, dass die zweidimensionalen Muller-Lyer-Figuren wirklich dreidimensional erscheinen, wenn sie als leuchtende Modelle in einem dunklen Raum gezeigt werden. Nach
Gregory ist das nur dann so, wenn diese (und andere) Figuren auf einer flachen Oberfläche
gezeigt werden, sodass man sie nicht als dreidimensional wahrnimmt.
Es könnte vermutet werden, dass die Tiefenhinweise zweidimensionaler Skizzen weniger
effektiv sind als auf Fotos. [Leibowitz und Andere 1969] erbrachten einen unterstützenden
Beweis. Sie studierten die Ponzo-Illusion und fanden heraus, dass das Ausmaß der Illusion
bei einem Foto bedeutend größer war als bei einer Skizze.
Auswertung
Nach [Eysenck 2000] ist Gregory’s Falsch-Angewendete-Größenkonstanz-Theorie genial und wurde als die geeigneteste Theorie
visueller Illusionen betrachtet. Jedoch ist Gregory’s Behauptung
falsch, dass leuchtende Muller-Lyer-Figuren von jedermann als dreidimensional gesehen werden. Es ist rätselhaft, dass die Muller-LyerIllusion immer noch erkannt wird, auch wenn die Enden der beiden
Figuren durch andere Teile ersetzt werden, wie zum Beispiel Kreise
oder Quadrate. Diese Beweise wurden von [Matlin, Foley 1997]
unterstützend für die falsche Vergleichstheorie aufgegriffen, bei
welcher die Wahrnehmung visueller Illusionen von Teilen einer Figur
beeinflusst wird, die nicht bewertet werden. So erscheinen zum
Beispiel die vertikalen Linien in der Muller-Lyer-Illusion länger oder
kürzer als ihre tatsächliche Größe, einfach weil sie Teil eines großen
oder eines kleinen Objektes sind.
[Coren, Girgus 1972] brachten einen Beweis hervor, der die FalscheVergleich-Theorie unterstützt. Der Wert der Muller-Lyer-Illusion
wird stark eingeschränkt, sobald die Enden eine zur vertikalen Linie
unterschiedliche Farbe besitzen. Nach Eysenck ist es beim Schätzen
vermutlich einfacher, die Enden zu ignorieren, um die relative Länge
der zwei vertikalen Linien zu bestimmen.
Abbildung 32
Varianten der MullerLyer-Illusion
Abbildung 33
Zu welchem Buch ist
der Buchrücken des
mittleren Buches näher? Überprüfen sie es
mit einem Lineal.
Kapitel 3 - Verwandte Arbeiten
46
[DeLucia, Hochberg 1991] erbrachten den umfassendsten Beweis, dass Gregory’s Theorie
unvollständig ist. Sie verwendeten eine dreidimensionale Anzeige, welche drei 61 Zentimeter hohe Pfeile auf einer Ebene zeigte. Obwohl es offensichtlich war, dass sich alle drei Pfeile in gleicher Entfernung zum Betrachter befinden, wurde der typische Muller-Lyer-Effekt
erreicht. Man kann diesen Sachverhalt überprüfen, indem drei geöffnete Bücher in einer
Linie so aufgestellt werden, dass das linke und das rechte Buch zur rechten Seite geöffnet
sind und das Buch in der Mitte nach links geöffnet ist. Der Buchrücken des mittleren Buches sollte die gleiche Entfernung zu den Buchrücken der anderen beiden Bücher haben.
3.3.5.3 Allgemeine Auswertung
Top-Down-Prozesse, basierend auf Erwartungen, Hypothesen und so weiter, können einen
beachtlichen Einfluss auf die visuelle Wahrnehmung haben. Viele Theoretiker, wie zum
Beispiel Gibson, haben die Wichtigkeit von Bottom-Up-Prozessen hervorgehoben und konstruktivistische Theoretiker demonstrieren, dass Top-Down-Prozesse nicht ignoriert werden
sollten. Jedoch gibt es einige ernste Probleme mit dem konstruktivistischen Ansatz, und die
drei Hauptprobleme werden hier erörtert.
1. Präzision
Konstruktivistische Theoretiker sagen voraus, dass Wahrnehmung häufig fehlerhaft ist,
obwohl sie typischerweise präzise ist. Werden immer Hypothesen und Erwartungen zum
Interpretieren sensorischer Daten verwendet, wie kann es dann sein, dass diese Hypothesen und Erwartungen fast immer wahr sind? Die offensichtliche Antwort ist, dass die
Umwelt wesentlich mehr Informationen bietet, als die „bruchstückhaften Datenteile“, wie
sie die Konstruktivisten vermuten.
2. Künstliche Reize
In vielen der von konstruktivistischen Theoretikern herausgebrachten Studien werden
künstliche oder unnatürliche Reize verwendet. Wie [Gordon 1989, Seite 144] betonte, umfassen solche Studien
the perception of patterns under conditions of brief exposure, drawings which
could represent the corners of buildings, glowing objects in darkened corridors
... none of these existed in the African grasslands where human perceptual
systems reached their present state of evolutionary development.
Im Deutschen: die Wahrnehmung von schwach belichteten Mustern, Zeichnungen, die
Ecken von Gebäuden repräsentieren können, glühende Objekte in dunklen Räumen ... Keine dieser Bedingungen existiert auf afrikanischem Weideland, wo menschliche Wahrnehmungsorgane ihren aktuellen Grad evolutionärer Entwicklung erreicht haben.
Man betrachte zum Beispiel Studien, die sehr schnelle Präsentationen visueller Reize umfassen. Eine kurze Darstellung reduziert den Einfluss von Bottom-Up-Prozessen, und ermöglicht den Top-Down-Prozessen einen größeren Wirkungsbereich zum Agieren.
Kapitel 3 - Verwandte Arbeiten
47
3. Hypothesen
Konstruktivistische Theoretiker vermuten, dass die Hypothesen von
Wahrnehmenden ihre „beste Schätzung“ angesichts vorhandener Informationen ist. Oft ist es jedoch schwer, Beobachter zum
Verändern ihrer Hypothesen zu überzeugen. Zum Beispiel existiert
[Gregory’s 1973] Hohle-Gesichts-Illusion. Bei dieser Täuschung wird
eine hohle Gesichtsmaske von der Rückseite betrachtet. Die Teilnehmer vermelden, dass es ein normales Gesicht ist. Sogar, wenn sie
von der Rückansicht wissen, bestätigen sie die Vorderansicht.
Abbildung 34
Das Foto zeigt die
Innenseite einer hohlen
Gesichtsmaske. Sie ist
schwer „von der Rückseite“ wahrnehmbar.
Die Betrachter nehmen
sie eher so wahr, als ob
sie von der Vorderseite
gezeigt wird.
3.3.5.4 Synthese: Neisser‘s Zyklentheorie
[Neisser 1976] bot in seiner Zyklentheorie eine Synthese des direkten und des konstruktivistischen Ansatzes zur Wahrnehmung an. Er
behauptete, dass es einen Wahrnehmungszyklus gibt, der Schemen, Wahrnehmungserforschung und die Umgebung der Reize
umfasst. Abgeleitet aus vorherigen Erfahrungen enthalten Schemen
Wissensansammlungen, welche die Wahrnehmungserforschung
lenken. Dadurch werden relevante Reize aus der Umgebung eher
wahrgenommen. Das Erforschen der Umwelt lässt den Wahrnehmenden oft einige verfügbare Informationen der Reize probieren. Wenn die aus der Umwelt erhaltenen Informationen von denen des Schemas abweichen, dann werden sie im Schema modifiziert.
Der Wahrnehmungszyklus, wie er von Neisser beschrieben wird, beinhaltet Elemente des
Bottom-Up- und des Top-Down-Prozesses. Der Bottom-Up-Prozess wird durch das Probieren verfügbarer Informationen aus der Umwelt gebildet, welche das aktuelle Schema
modifizieren können. Der Top-Down-Prozess wird dadurch gebildet, dass Schemen den
Lauf von an der Wahrnehmung beteiligten Informationsprozessen beeinflussen.
1. Schemen
Der Kerngedanke in Neisser‘s Theorie ist ein
Schema und organisiertes Wissen. Nach der
Theorie sollten Schemen das Bedürfnis reduzieren, alle Aspekte einer visuellen Szene zu
analysieren. Beweise dafür lieferten [Biedermann, Glass, Stacy 1973]. Die Teilnehmer
waren in der Lage fast die Hälfte von allen
Objekten in Fotografien einer vertrauten
Umgebung zu nennen, nachdem sie die
Fotos nur ein Zehntel einer Sekunde betrachteten, weil das relevante Schema leicht
anzuwenden war. Als die Objekte dagegen
im Foto in einer zufälligen Verteilung zu
sehen waren, empfanden es die Teilnehmer
wesentlich schwieriger, sich an die einzelnen
Abbildung 35
Objekte zu erinnern.
Der Wahrnehmungszyklus von [Neisser 1976].
Kapitel 3 - Verwandte Arbeiten
48
[Friedmann 1979] erbrachte einen guten Beweis, dass visuelle Wahrnehmung von Schemen
beeinflusst wird. Den Teilnehmern wurden detaillierte Skizzen von Szenen (zum Beispiel
eine Küche, ein Büro) präsentiert. Die Dauer des ersten Hinsehens war für unerwartete Objekte fast doppelt so lange wie für erwartete, woraus die Rolle von Schemen bei der Verarbeitung erwarteter Objekte ersichtlich wird. Die Wahrnehmung von Objekten, die in ein
gewisses Schema passen, ist leichter als bei Objekten, die nicht in dieses Schema passen.
2. Auswertung
Nach [Eysenck 2000] vereinigt [Neisser‘s 1976] Zyklentheorie einige der besten Eigenschaften des direkten und des konstruktivistischen Ansatzes zur Wahrnehmung. Diese umfasst
oft Top-Down-Prozesse genauso wie Bottom-Up-Prozesse, und beide Prozesstypen sind
in Neisser‘s Wahrnehmungszyklus integriert. Eine andere Stärke Neisser‘s Theorie ist ihr
Schwerpunkt auf Schemen. Schemen-relevante Objekte werden allgemein sehr viel besser
wahrgenommen und sind leichter merkbar als schemen-irrelevante Objekte.
Neisser‘s Zyklentheorie ist sehr skizzenhaft und scheitert am Erklären jeglicher Prozesse, die
an der Wahrnehmung beteiligt sind. Genauer betrachtet wird im Detail nicht erläutert, wie
die relevanten Schemen die Wahrnehmungserforschung lenken, wie bei der erforschenden Wahrnehmung festgestellt wird, welche Reize oder Sinneseindrücke aus der Umwelt
probiert werden müssen oder wie das Verarbeiten der Reize aus der Umwelt die relevanten
Schemen ändert. Theorien wie diese von [Marr 1982] und [Biedermann 1987] zeigen, dass
wesentlich komplexere und detailliertere Theorien benötigt werden, um die menschliche
Wahrnehmung richtig zu verstehen.
Abbildungen 36, 37
Das Biedermann-Experiment: Zeigen sie jemandem, der die Abbildungen noch nicht gesehen hat, die
Szene auf der linken Seite sehr kurz. (Biedermann zeigte sie nur eine Zehntelsekunde.) Welche Gegenstände werden ihnen aufgezählt? Zeigen sie die Anordnung auf der rechten Seite einer anderen Person
in gleicher Dauer. Wie viele Gegenstände kann ihnen diese Person nennen? Warum müssen sie die
Bilder verschiedenen Personen zeigen? Wie könnte dadurch das Ergebnis beeinflusst werden?
Kapitel 3 - Verwandte Arbeiten
49
3.3.6 Individual-, Sozial- und Kulturunterschiede in der Wahrnehmung
Wenn visuelle Wahrnehmung, wie von
konstruktivistischen Theoretikern behauptet,
von Erfahrung und Erwartungen abhängt,
dann wären individuelle, soziale und kulturelle Variationen in der Wahrnehmung zu
erwarten. Diese drei Faktoren können die
Wahrnehmung beeinflussen, speziell die Bedeutung oder Signifikanz, die von externen
Reizen erlangt wird. Zum Beispiel nehmen
vermutlich Menschen aus allen sozialen und
kulturellen Herkünften die Bewegungen
eines Fußballspielers während eines Fußballspiels gleichermaßen wahr. Jedoch erkennen
nur die mit dem Spiel vertrauten Zuschauer
die Bedeutung, wann ein Spieler in einer
Abseitsposition steht, wie in Abbildung 38
der rote Spieler im Strafraum.
Abbildung 38
Abseitsposition: Bei der Fußball Weltmeisterschaft
2006 spielte am 11. Juni um 21:00 Uhr Angola
gegen Portugal in Köln.
3.3.6.1 Individuelle Variationen
Zahlreiche Faktoren verursachen individuelle Variationen bei der Wahrnehmung, aber hier
werden nur zwei betrachtet: Wirkungsfeldabhängigkeit und charakteristisches Angstgefühl.
1. Wirkungsfeldabhängigkeit
Wirkungsfeldabhängigkeit ist ein Wahrnehmungstyp, bei dem die Wahrnehmung durch
den Hintergrund oder durch andere kontextabhängige Faktoren gestört wird. [Witkin 1967]
schrieb, dass es einen wichtigen Unterschied zwischen Wirkungsfeldabhängigkeit und
Wirkungsfeldunabhängigkeit gibt, bei welcher die Wahrnehmung frei von Störungen durch
Umweltfaktoren ist. Eine Möglichkeit, die Wirkungsfeldabhängigkeit festzustellen, wird
durch das Verwenden des Geneigten-Raum-Tests erreicht, in welchem der Raum und
der Stuhl, auf dem der Teilnehmer sitzt, in unterschiedliche Richtungen bewegt werden.
Des Teilnehmers Aufgabe besteht darin, den Stuhl zurück in eine aufrechte Position zu stellen. Wirkungsfeldabhängige Menschen nehmen mehr Rücksicht auf den geneigten Raum
als wirkungsfeldunabhängige. Damit wird ihre Wahrnehmung stärker durch externe Faktoren beeinflusst, wogegen wirkungsfeldunabhängige Menschen eher von internen Faktoren
(wie zum Beispiel dem Gleichgewichtssinn) beeinflusst werden.
Es gibt zwei Probleme bei diesem Ansatz. Erstens korrelieren nach [Eysenck 1977] für
gewöhnlich unterschiedliche Messungen der Wirkungsfeldabhängigkeit nicht sehr stark
miteinander. Zweitens gibt es Überlappungen zwischen Wirkungsfeldabhängigkeit und
Intelligenz, wobei nach [Vernon 1972] wirkungsfeldunabhängige Menschen tendenziell
intelligenter sind als wirkungsfeldabhängige. Daraus geht hervor, dass es häufig nicht klar
ist, ob individuelle Wahrnehmungsunterschiede aus der Wirkungsfeldabhängigkeit oder der
Intelligenz resultieren.
Kapitel 3 - Verwandte Arbeiten
50
2. Charakteristisches Angstgefühl
Einige Menschen nehmen die Welt in einem positiven oder optimistischen Sinn wahr, wogegen andere sie in einem negativen oder pessimistischen Sinn wahrnehmen. Zum Beispiel
ist für einige ein Glas halb voll, wogegen für andere das Glas halb leer ist. Nach [Eysenck
1977] gibt es viele Beweise dafür, dass Individuen mit einem ausgeprägten charakteristischen Angstgefühl (eine Dimension der Persönlichkeit, die sich auf die Erfahrung mit
Angst bezieht) die Dinge negativer sehen als Menschen, bei denen diese Eigenschaft kaum
ausgeprägt ist. [Derakshan, Eysenck 1997] zeichneten Teilnehmer auf Video auf, während
diese eine öffentliche Rede hielten. Danach betrachteten die Teilnehmer und unabhängige
Richter die Videoaufzeichnungen und bewerteten das Angstverhalten. Die Personen mit
einem ausgeprägtem Angstgefühl bewerteten ihr Verhalten als ängstlicher, als es für die
Richter erschien, aber die Meinungen derer, bei denen das Angstgefühl kaum ausgeprägt
war, unterschied sich nicht von den Meinungen der Richter.
3.3.6.2 Soziale Variationen
[Bruner, Goodman 1947] studierten soziale Wahrnehmungsvariationen. Reiche und arme
Kinder schätzten die Größen von Münzen. Die armen Kinder überschätzten die Größe
jeder Münze. Das könnte den größeren Wert der Münzen für arme Kinder widerspiegeln.
Eine einfachere Erklärung ist, dass reichen Kindern die Münzen vertrauter sind, was sie in
ihrer Größenabschätzung genauer werden lässt. [Ashley, Harper, Runyon 1951] modifizierten die Studie in genialer Weise. Sie hypnotisierten erwachsene Teilnehmer, dass sie glaubten, sie wären reich oder arm. Die Münzgrößen wurden größer eingeschätzt, wenn sich die
Teilnehmer im „arm“-Stadium befanden. Diese Erkenntnisse lassen vermuten, dass arme
Teilnehmer die Größen der Münzen nicht überschätzen, weil es ihnen an Vertrautheit fehlt,
und deutet damit die Wichtigkeit des sozialen Faktors bei der Wahrnehmung an.
[Witkin und Andere 1962] fanden heraus, dass soziale Faktoren die Wahrnehmungstypen
der Wirkungsfeldabhängigkeit und der Wirkungsfeldunabhängigkeit beeinflussen. Männer
tendieren zur Wirkungsfeldunabhängigkeit, und damit war ihre visuelle Wahrnehmung relativ unbetroffen von ablenkenden Reizen. Dagegen neigen Frauen zur Wirkungsfeldabhängigkeit. Witkin und Andere berichteten auch, dass Kinder, die von tyrannischen Eltern
erzogen wurden, zur Wirkungsfeldabhängigkeit neigen, wogegen Kinder liberalerer Eltern
wirkungsfeldunabhängig waren. Wie bereits zuvor erwähnt, ist nach [Eysenck 1977] jedoch
eine exakte Messung der Wirkungsfeldabhängigkeit schwierig.
3.3.6.3 Kulturelle Variationen
[Witkin, Berry 1975] forschten auf dem Gebiet der Wirkungsfeldabhängigkeit weiter, um
interkulturelle Variationen in der Wahrnehmung mit einzuschließen. Sie unterschieden zwischen zwei Kulturen oder sozialen Gruppen.
1. Jäger und Sammler, welche in einer kleinen Gruppe umherziehen,
um nach Nahrung zu suchen.
2. Ländlich, bäuerliche Gruppe, in welcher die Gruppenmitglieder am selben Ort verbleiben, Herden hüten oder Getreide anbauen.
Kapitel 3 - Verwandte Arbeiten
51
Die Kinder der Jäger und Sammler neigen dazu, wirkungsfeldunabhängig zu sein, wogegen solche in ländlich, bäuerlichen Gruppen zur Wirkungsfeldabhängigkeit tendieren. Es
könnte argumentiert werden, dass die klare, ungestörte Wahrnehmung der Welt damit
assoziiert wird, dass Wirkungsfeldunabhängigkeit bei Jägern und Sammlern wichtiger ist.
1. Verwendung von visuellen Illusionen
Ein Großteil des Beweises zu interkulturellen Variationen bei der Wahrnehmung basiert
auf zahlreichen visuellen Illusionen. [Segall und Andere 1963] argumentierten, dass die
Muller-Lyer-Illusion nur von denen wahrgenommen wird, die Erfahrungen mit „gezimmerten Umgebungen“ haben, wo zahlreiche rechte Winkel, gerade Linien und regelmäßige
Ecken vorhanden sind. Menschen der westlichen Gesellschaft leben in einer gezimmerten
Umgebung, aber die in Stammesgemeinschaften lebenden Zulus nicht. (Ein Zulu ist ein
Angehöriger eines Bantustammes in Natal). Bei ländlichen Zulus zeigte die Muller-Lyer-Illusion keine Wirkung. Dieser Befund kann jedoch bedeuten, dass ländliche Zulus zweidimensionale Skizzen nicht interpretieren können. Dies wäre zu Ungunsten der Funde von Segall
und Anderen. Sie studierten die Horizontal-Vertikal-Illusion, die in zweidimensionalen
Zeichnungen das Überschätzen der vertikaler Maße gegenüber den horizontalen Maßen
umfasst. Bei ländlichen Zulus zeigte die Horizontal-Vertikal-Illusion ein größeres Ausmaß als
bei Europäern, weil die Zulus vermutlich mit weiten, offenen Räumen vertrauter sind.
[Gregor, McPherson 1965] verglichen zwei Gruppen australischer Ureinwohner. Eine Gruppe wohnte in einer gezimmerten Umgebung, aber die andere Gruppe lebte unter freiem
Himmel und hatte sehr einfache Behausungen. In Bezug auf das Erkennen der MullerLyer-Illusion und der Horizontal-Vertikal-Illusion unterschieden sich die beiden Gruppen
nicht. Interkulturelle Unterschiede bei der visuellen Wahrnehmung könnten damit eher von
Training und Bildung abhängen, als von der Tatsache, ob oder ob sie nicht in einer gezimmerten Welt leben.
Abbildung 39
Büffelherde in großer
Entfernung. Ein Zwergmensch gab an, die
Büffel haben die Größe
von Insekten.
[Turnbull 1961] lieferte einen zusätzlichen Beweis für interkulturelle Differenzen bei der
Wahrnehmung. Gegenstand seiner Forschung war ein Zwergmensch, der im dunklen Wald
wohnte und damit nur begrenzt Erfahrung mit dem Betrachten entfernter Objekte hatte.
Der Zwergmensch wurde zu einer weitläufigen Ebene gebracht, auf der er eine weit entfernte Büffelherde zu sehen bekam. Er gab an, dass die Büffel Insekten waren und weigerte sich zu glauben, dass sie wirklich große Tiere waren. Vermutlich hatte er niemals erlernt,
einige der Tiefenhinweise, die bereits im Kapitel erwähnt wurden, so zu nutzen, wie es
Menschen in anderen Kulturen können. Die Studie ist jedoch in ihrer Aussage beschränkt,
weil nur eine einzige Person untersucht wurde, und es nicht klar ist, ob sie Büffel schon
einmal gesehen hatte.
Kapitel 3 - Verwandte Arbeiten
52
[Annis und Frost 1973] lieferten mehr Beweise interkultureller Wahrnehmungsunterschiede
in einer Studie über kanadische Cree-Indianer. Einige Indianer leben in Tipis (kegelförmige Stangenzelte nordamerikanischer Prärieindianer, mit gegerbten Bisonfellen bespannt)
auf dem Land und einige wohnen in Städten. Annis und Frost argumentierten, dass die
in Städten wohnenden Indianer, täglich hauptsächlich vertikalen und horizontalen Linien
ausgesetzt sind, wogegen den in Tipis wohnenden Indianern Linien in allen möglichen
Ausrichtungen begegnen. Beide Gruppen wurden danach gefragt, ob zwei Linien parallel
sind. Die in Tipis wohnenden Cree-Indianer schnitten bei dieser Aufgabe gut ab, egal in
welchem Winkel ihnen die Linien präsentiert wurden. Dagegen waren die in Städten lebenden Indianer wesentlich besser, wenn die Linien horizontal oder vertikal verliefen, als bei
anderen Winkeln. Diese Befunde zeigen, wie wichtig relevante Erfahrungen bei der Wahrnehmung sind.
[Allport, Pettigrew 1957] nutzen eine Illusion, die auf fast rechteckigen oder trapezförmigen Fenstern basiert, in die horizontale und vertikale Stäbe eingepasst wurden. Wenn sich
ein solches Fenster im Kreis dreht, sieht es wie ein sich vorwärts und rückwärts bewegendes rechteckiges Fenster aus. Menschen, die in Kulturen ohne rechteckige Fenster leben,
neigten dazu, diese Illusion nicht zu erfahren. Zulus, die in ländlichen Gegenden wohnen,
konnten ein sich vorwärts und rückwärts bewegendes rechteckiges Fenster nicht so gut
erkennen, wie Europäer oder in städtischen Bereichen lebende Zulus.
2. Verwendung von Zeichnungen
Die meisten Erwachsenen westlicher Gesellschaften sind in der Lage, zweidimensionale
Zeichnungen und Bilder zu interpretieren, die dreidimensionale Szenen widerspiegeln.
Nach [Hudson 1960] empfinden es jedoch schwarze Kinder und Eltern in Südafrika, die
bisher kaum Erfahrungen mit Zeichnungen sammeln konnten, als sehr schwierig, in ihnen
Tiefe wahrzunehmen. Es gibt Probleme bei derartigen interkulturellen Forschungen. [Deregowski, Muldrow 1972] fanden heraus, dass Mitglieder des Me‘en-Stammes in Äthiopien nicht auf Tierfotos ansprachen, weil Papier für sie ein unbekanntes Material war. Das
könnte bedeuten, dass ihre Fähigkeit zur Wahrnehmung zweidimensionaler Abbildungen
sehr beschränkt war. Als jedoch den Stammesleuten Tiere gezeigt wurden, die auf Textilien
gemalt waren (dieses Material ist ihnen vertraut), waren sie im Allgemeinen in der Lage, die
Tiere korrekt zu erkennen.
3.3.6.4 Auswertung
Nach [Eysenck 2000] gibt es Beweise für individuelle, soziale und interkulturelle Variationen
bei der visuellen Wahrnehmung. Individuen unterscheiden sich in ihrer Art der Wahrnehmung. Es gibt soziale Unterschiede bei der Kindererziehung und bei Erfahrungen. Außerdem unterscheiden sich Kulturen in ihren Hauptaktivitäten und in den Erfahrungen bei der
Wahrnehmung.
Bei der Forschung auf diesem Gebiet gibt es drei Haupteinschränkungen. Erstens ist eine
Interpretation der Befunde oft schwierig. Zum Beispiel könnten interkulturelle Unterschiede
bei der Wahrnehmung durch unterschiedliche Faktoren zustande kommen, weil die Erfahrungen von Menschen unterschiedlicher Kulturen in vielen Punkten differieren. In Zukunft
könnte erforscht werden, wie lange und welche Lernerfahrungen Gruppen dazu brauchen,
Kapitel 3 - Verwandte Arbeiten
53
visuelle Illusionen (zum Beispiel die Muller-Lyer-Illusion) zu erlernen, wenn sie diese Illusion
nicht wahrnehmen. Obwohl nach [Malott und Anderen 1967] sogar Tauben die MullerLyer-Illusion erkennen, sollte man vorsichtig mit der Annahme sein, den kulturellen Faktoren die Hauptrolle zuzuordnen, wie Illusionen gesehen werden.
Zweitens gelten die meisten Studien eingeschränkt, weil sie sich auf selbst festgelegte
Maßstäbe beziehen. Zum Beispiel ist es möglich, dass Individuen mit ausgeprägten Angstgefühlen hinsichtlich ihres Verhaltens übertreiben. Es könnte eher aufgrund eines geringen
Selbstwertgefühls erfolgen als aufgrund dessen, was sie wirklich wahrnehmen. Einige
offensichtliche interkulturelle Wahrnehmungsunterschiede könnten auftreten, weil es auch
interkulturelle Unterschiede bei der Fähigkeit gibt, Wahrnehmungserfahrungen sinngetreu
widerzugeben. Andere interkulturelle Unterschiede könnten eher von Unterschieden bei
der Sprache abhängen als von wirklichen Unterschieden bei der Wahrnehmung.
Drittens fokussierten die meisten interkulturellen Forschungen auf zweidimensionale visuelle Illusionen. Solche eingeschränkten Forschungen sagen nur wenig über die kulturellen
Unterschiede bei der Wahrnehmung im alltäglichen Leben aus. Es ist davon auszugehen,
dass es große kulturelle Unterschiede in der den zahlreichen visuellen Reizen zugeordneten
Bedeutungen gibt. Zum Beispiel können viele Mitglieder afrikanischer Kulturen komplexe
Fußspurenmuster wesentlich besser erkennen als Menschen der westlichen Gesellschaft.
3.3.7 Zusammenfassung: Wahrnehmung aus psychologischer Sicht
Abbildung 40
Übersicht über wahrnehmungbeeinflussende Faktoren. In
Klammern sind Wissenschaftler angegeben,
die in ihren Studien
diese Faktoren befürworteten.
1. Organisation der Wahrnehmung
Die Gestaltisten legten den Schwerpunkt auf die Trennung der Wahrnehmungsfunktionen
und auf das Gesetz der Prägnanz. Weitere Gesetze (die sich zum Beispiel auf die nähere
Umgebung, die Ähnlichkeit und den Abschluss beziehen) illustrieren das Gesetz der Prägnanz. Diese Gesetze sind eher Beschreibungen als Erläuterungen. Die Gestaltisten vermuteten auch, dass das Ganze mehr als die Summe aller Teile ist, und einige Beweise unterstützen diese Annahme.
Kapitel 3 - Verwandte Arbeiten
54
2. Raum oder Tiefenwahrnehmung
Die Raumwahrnehmung hängt von zahlreichen monokularen Hinweisen ab, wie bildhafte
Hinweise, Linearperspektive, räumliche Perspektive, Textur, Interposition, Schattierung, vertraute Größe und Bewegungsparallaxe. Sie ist ebenfalls von binokularen Hinweisen abhängig, von welchen die Stereopsis der wichtigste ist. Informationen von Hinweisen werden
normalerweise auf additive Art und Weise kombiniert, aber gelegentlich werden Informationen von einem Hinweis ignoriert.
3. Visuelle Konstanten
Die meisten der visuellen Objektcharakteristiken sehen unter veränderten Sichtbedingungen ähnlich aus. Zum Beispiel weisen Menschen Größenkonstanz, Formkonstanz und
Farbkonstanz auf. Dieses Fähigkeit wird im Leben sehr früh entwickelt und ermöglicht den
Menschen, eine sich kaum verändernde Welt wahrzunehmen, obwohl starke Variationen
des Abbildes auf der Retina auftreten.
4. Mustererkennung
Schablonentheorien wurden in der Mustererkennung nicht erfolgreich bewiesen. Weitere
Theorien legen Wert auf die Verarbeitung individueller Eigenschaften oder Attribute, aber
tendieren zum Ignorieren von Kontext und Erwartungseffekten. Theoretiker wie Marr und
Biedermann haben auf strukturellen Beschreibungen basierende Theorien zur Mustererkennung vorgeschlagen. Marr identifizierte drei Arten der Repräsentation (ursprüngliche
Skizze, 2½-dimensionale Skizze und dreidimensionale Modellrepräsentation). Biedermann
argumentierte, dass Objekte aus Grundformen bestehen. Diese Theorien erläutern grobe
Abgrenzungen und neigen dazu, die Betrachtung des Kontextes bei der Mustererkennung
zu ignorieren.
5. Wahrnehmungstheorien
Gibson betonte mit seiner Theorie der direkten Wahrnehmung, dass die aus der Umwelt
kommenden Informationen allgemein ausreichen, damit sich Individuen frei umher bewegen können. Er argumentierte, dass einige Aspekte des optischen Feldes gleich oder unverändert bleiben, wenn sich Betrachter umherbewegen. Er argumentierte auch, dass die
potenzielle Verwendung eines Objektes offensichtlich wahrnehmbar ist. Gibson minimierte
die Komplexität des Prozesses der eigentlichen visuellen Wahrnehmung. Konstruktivisten
wie Gregory und Neisser schrieben, dass die Wahrnehmung Hypothesen, Erwartungen und
Wissen umfasst. Sie behaupteten, dass motivierende und emotionale Faktoren die Wahrnehmung beeinflussen können. Die von den Konstruktivisten diskutierten Top-Down-Prozesse beeinflussen die Wahrnehmung. Jedoch deutet die Tatsache, dass visuelle Wahrnehmung nahezu fehlerlos ist, darauf hin, dass diese Prozesse seltener Anwendung finden, als
es von den Konstruktivisten vermutet wurde.
Kapitel 3 - Verwandte Arbeiten
55
6. Individual-, Sozial- und Kulturunterschiede in der Wahrnehmung
Es gibt Beweise für individuelle, soziale und kulturelle Variationen in der Wahrnehmung.
Einige Unterschiede hängen von der Art der Wahrnehmung und der Persönlichkeit ab. Die
Muller-Lyer-Illusion wird eher nicht von Menschen wahrgenommen, denen das Leben in einer Gesellschaft mit gezimmerten Umgebungen unbekannt ist. Die abweichenden visuellen
Erfahrungen in den unterschiedlichen Kulturen beeinflussen die visuelle Wahrnehmung auf
unterschiedlicher Weise. Von besonderer Bedeutung ist, dass es Menschen der westlichen
Gesellschaft aufgrund weitreichender sachbezogener Erfahrungen leichter fällt, zweidimensionale Zeichnungen und dreidimensionale Szenen zeigende Bildern zu interpretieren, als
in anderen Kulturen lebenden Menschen. Probleme treten bei der Interpretation kultureller
Unterschiede auf, wenn ein zu großer Bezug auf zweidimensionale Figuren genommen
wird, und wenn Wissenschaftler selbst festgelegte Maßstäbe bei der Wahrnehmung verwenden.
3.4 Zusammenfassung verwandter Arbeiten
Ausgehend von den Anfängen des Kamerawerkes Dresden, in welchem bis heute analoge
Kameras und ab 1996 digitale Hochgeschwindigkeitskameras produziert werden, wurde
der aktuelle Stand digitaler Aufnahmetechnik dargelegt. Damit erhielt der Leser einen geschichtlichen Überblick zur Entwicklung von Kameras in der Region Dresden.
Für die weitere Betrachtung wurde eine Marktanalyse durchgeführt, deren Ziel in der
Auflistung aktueller Hochgeschwindigkeitskameras und Kameras für Zeitrafferaufnahmen
lag. Bei Zeitlupenkameras treten physische Grenzen auf, weshalb für einen speziellen Anwendungsfall genau geprüft werden muss, welche Kamera den gegebenen Anforderungen genügt. Die Aufnahmegeschwindigkeit muss so hoch sein, dass das sich bewegende
Objekt dennoch genügend scharf und ausdauernd angezeigt wird. Trotzdem kann die
Aufnahmegeschwindigkeit nicht beliebig vergrößert werden, da die Belichtungszeit pro
Einzelbild abnimmt. Wird der resultierende Videoclip zu dunkel, so müssen bereits während der Aufnahme Gegenmaßnahmen eingeleitet werden. Eine andere Grenze bildet die
Schreibgeschwindigkeit des Speichers. Auch hier wurden Methoden vorgestellt, wie dieses
Problem bis zu einem bestimmten Grad gelöst werden kann.
Es hat sich herausgestellt, dass für die Aufnahme von Zeitraffern der Einsatz von Digitalkameras, gekoppelt mit einem Computer, die effizienteste und preiswerteste Lösung ist.
Insbesondere sollten nur die Bilder abgespeichert werden, die letzten Endes im Zeitraffer
abgespielt werden. Aus diesem Grund wurde bei der Untersuchung darauf Wert gelegt,
dass die Digitalkameras über eine Intervall-Timer-Funktion oder eine Möglichkeit zum
computergesteuerten Auslösen verfügen. Da zum Verständnis von Kapitel vier nicht nur die
technische Seite wichtig ist, wurden psychologische Betrachtungen durchgeführt.
Um zu klären, wie ein Mensch Bewegungen in einem Video überhaupt als solche erkennt,
wurde zuerst der Wahrnehmungsprozess ausführlich erläutert. Dabei sollte deutlich werden, dass der Mensch bei bewegten Bildern entweder das bewegte Objekt verfolgt, oder
wenn sich die Bewegung auf die gesamte Szene bezieht, nach einem Fixpunkt oder Ruhepunkten sucht, die während der gesamten Bewegung an einer Stelle verharren. Ist die
Kamera ruhig und bewegt sich beispielsweise das Fahrzeug in Richtung einer Betonmauer,
dann verfolgt das Auge primär sich bewegende Teile, wie zum Beispiel das Auto, davonflie-
Kapitel 3 - Verwandte Arbeiten
56
gende Splitter oder den Crash-Test-Dummy. Ist dagegen die Kamera auf einem fahrenden
Auto montiert und filmt das Geschehen in Fahrtrichtung, so bewegen sich alle Punkte von
einem Zentrum weg. In diesem Fall neigt das Auge eher zum Suchen des Fixpunktes, welcher insbesondere bei hohen Geschwindigkeiten sehr deutlich wird.
Ein weiterer Aspekt ist die Tiefenwahrnehmung. Neben den binokularen Hinweisen sind
insbesondere die monokularen Hinweise für Videoaufnahmen von großer Bedeutung.
Solange das Video auf einem handelsüblichen Bildschirm abgespielt wird, kann der Mensch
nur noch den monokularen Tiefenhinweisen vertrauen. Damit er erkennt, dass beispielsweise ein Fahrzeug in diesem Moment relativ weit entfernt ist, sich jedoch im nächsten
Moment in nächster Nähe befindet, sind die Linearperspektive, die Verblauung, die Textur, die Verdeckung, die Schattierung, die vertraute Größe und die Bewegungsparallaxe
sehr wichtig. Auf den Punkt der vertrauten Größe, beziehungsweise allgemein auf visuelle
Konstanten, wird im nächsten Abschnitt besonders eingegangen. Dabei wird deutlich, dass
zum Beispiel Personen auch dann ein Verkehrsschild erkennen, wenn es noch sehr weit
weg ist, oder wenn die Beleuchtungsverhältnisse stark differieren.
Durch den Einblick in die Mustererkennung wird vor allen Dingen deutlich, dass das Bild
nicht nur als solches erkannt und wahrgenommen wird, sondern dass auch Erwartungen
eine Rolle spielen. Solange das Fahrzeug auf der Straße fährt, ist der untere Teil des Bildes
straßengrau, der obere Teil hat die Farbe des Himmels und an den Seiten herrscht vorrangig die Farbe der Landschaft. Es wäre ungewöhnlich, wenn dieser Zustand auf einmal nicht
mehr so wäre. Darauf wird am Anfang des nächsten Kapitels näher eingegangen. Ebenso
ist zu erwarten, dass gleich das Verkehrsschild Autobahnausfahrt kommt, wenn bereits das
Verkehrsschild 500 Meter rechts erschien.
Anschließend wurde erläutert nach welchen beiden Prinzipien Menschen Bilder wahrnehmen. Beinhaltet das Bild viel Neues, beispielsweise unmittelbar nach dem Einbiegen in
eine unbekannte Straße, nimmt der Mensch eher die Dinge nach dem Bottom-Up-Prinzip
wahr. Er sucht zunächst das Bild ab und überlegt erst danach, was die einzelnen Bildpunkte
bedeuten. In Neisser‘s Zyklentheorie wurde gut ersichtlich, dass beide Prozesse eng miteinander verbunden sind. Schließlich konnte festgestellt werden, dass es soziale und kulturelle
Unterschiede bei der Wahrnehmung gibt. Somit ist klar, dass dem Leser der Umgang mit
Zeitlupen und Zeitraffern klar sein muss, damit er die folgenden Ausführungen nachvollziehen kann.
Kapitel 4 - Zeitlupen und Zeitraffer
58
Kapitel 4 – Zeitlupen und Zeitraffer
In diesem Kapitel werden die Prozesse Zeitraffer und Zeitlupe über den Bildinhalt abstrahiert. Zum Verständnis des ersten Abschnittes wird das Lesen des Abschnittes 3.3 erforderlich, da nun einige Sachverhalte daraus speziell auf Zeitraffer und Zeitlupen angewendet
werden. Zunächst wird formal beschrieben, was Zeitraffer und Zeitlupen sind, wie sie erstellt werden können und warum sie überhaupt notwendig sind. Um die Einsatzgebiete zu
erörtern, werden die Spezialaufnahmen untersucht, wie in ihnen die Tiefenwahrnehmung
erfolgt und warum vertraute Objekte ebenfalls wichtig für die Orientierung sind. Schließlich
wird der Unterschied zwischen einer Objektbewegung und einer Objekttransformation
verdeutlicht.
Des Weiteren wird ein Schema vorgestellt, in welchem die Einsatzgebiete den Aufnahmetechniken gegenübergestellt werden. Dabei spielt in erster Linie eine Rolle, ob in der Spezialaufnahme die Objektbewegung oder die Objekttransformation im Vordergrund steht.
Entsprechend veranschaulicht das Schema, wie die Szene aufgenommen werden muss. Bei
Spezialaufnahmen für die Wegbeschreibung wird die Kamerafahrt von besonderer Bedeutung sein. Daher wird speziell an dieser Kameraeinstellung untersucht, wann sich ein Clip
zum Zeitraffer eignet, und wann er als Zeitlupe bereitgestellt werden sollte.
Für die Konzeption eines Modells zum Einsatz von Zeitlupen und Zeitraffern bei der Wegbeschreibung werden Regeln aufgestellt. Diese sind nicht nur auf den Bildinhalt abgestimmt, sondern auch auf die Videocliplänge. Beim Aufstellen der Regeln wird deutlich,
dass auch die unterschiedlichen Kameraeinstellungen ausschlaggebend für eine Aufnahme
der Videoclips sind. Daher werden im letzten Abschnitt mögliche Kamerapositionen und
Schwenks untersucht. In den Abstraktionen wird unter anderem deutlich, dass ein Fixpunkt
nicht immer in der Bildmitte liegen muss.
Ziel ist es, für den Einsatz von Zeitlupen und Zeitraffern ein Modell zu erstellen, welches im
nächsten Kapitel praktisch angewendet werden kann.
4.1 Bildinhaltsabstraktionen und Schemen für Einsatzgebiete
In diesem Abschnitt werden zuerst Zeitlupen und Zeitraffer formal beschrieben. Die Erstellung dieser Videoaufnahmen wird schematisch dargestellt, wobei bereits an den Schemen
effiziente Aufnahmetechniken deutlich werden. Des Weiteren wird das Ziel einer Zeitlupe
und eines Zeitraffers verdeutlicht, woraus ersichtlich wird, warum derartige Spezialaufnahmen durchgeführt werden. Dabei wird festgestellt, dass ein Optimum der Videocliplänge
existiert, egal wie schnell oder langsam der gefilmte Prozess in Echtzeit dauert.
Besonders wichtig ist die Frage, was durch einen Zeitraffer oder eine Zeitlupe genau dargestellt wird. Dabei spielen die Objektbewegung und die Objekttransformation eine entscheidende Rolle. Eine Videoaufnahme wird nur dann angefertigt, wenn es eine Veränderung
zwischen den Einzelbildern gibt, da ansonsten ein Foto der Szene genügt. Interessant und
wichtig für die Orientierung im Video ist dabei, welche Bereiche sich im Video verändern,
und ob es auch Regionen gibt, die während des gesamten Clips unverändert bleiben. Anschließend werden die Tiefenhinweise aus Abschnitt 3.3.2 und die Mustererkennung aus
Abschnitt 3.3.4 speziell an Zeitlupen und Zeitraffern erörtert.
Kapitel 4 - Zeitlupen und Zeitraffer
59
Nach der Erläuterung des allgemeinen Aufbaus der beiden Spezialaufnahmen werden die
beiden Einsatzgebiete schematisch dargestellt. Im ersten Fall steht die Objektbewegung im
Vordergrund. Die im zweiten Fall betrachtete Objekttransformation bedarf einer ausführlichen Beschreibung, bei der zunächst erläutert wird, was genau unter einer Transformation
in einem Video verstanden wird. Daran anschließend werden die drei häufigsten Objekttransformationen vorgestellt – Skalieren, Verzerren und Rotieren.
4.1.1 Was sind Zeitlupen und Zeitraffer?
Die mit einer handelsüblichen Videokamera aufgenommenen Filme werden bei der Wiedergabe mit derselben Geschwindigkeit abgespielt, wie sie aufgenommen wurden. Dieser
Vorgang wird oft auch „Wiedergabe in Echtzeit“ genannt. Dabei zielt der Begriff Echtzeit
auf die Tatsache ab, dass die Aufnahmezeit und Wiedergabezeit des Videos identisch sind.
Bei einer Zeitlupe oder einem Zeitraffer ist dies nicht der Fall. Während bei einer Zeitlupe
der aufgenommene Vorgang bei der Wiedergabe länger dauert, läuft ein Prozess nach
einer Zeitrafferaufnahme schneller ab. Im Übrigen werden Zeitraffer und Zeitlupe auch
häufig Spezialaufnahme oder Spezialeffekt genannt. Der Begriff Spezialaufnahme steht
stellvertretend auch für andere Aufnahmetechniken, wobei er die beiden hier betrachteten
Formen Zeitlupe und Zeitraffer einschließt. Eine Spezialaufnahme ist schließlich ein Videoclip, der beispielsweise mit einem Fernseher betrachtet werden kann. Damit das möglich
ist, beschränken sich die folgenden Ausführungen auf eine Bildrate von 25 Bildern pro
Sekunde, was der Bildrate der deutschen Norm für Fernsehbildübertragungen entspricht.
Doch wie wird nun eine Zeitlupe oder ein Zeitraffer erstellt?
Zur Herstellung von Zeitlupen als auch von Zeitraffern gibt es eine effiziente und eine ineffiziente Methode. Die beiden folgenden Abbildungen zeigen beide Ansätze für die jeweiligen Aufnahmetechniken. Im oberen Teil findet die Videoaufnahme statt, und im unteren
Teil die Wiedergabe des Zeitraffers oder der Zeitlupe.
Abbildung 41
Ineffiziente Videoherstellung
eines Zeitraffers (links) oder einer Zeitlupe (rechts).
Abbildung 42
Effiziente Videoherstellung
eines Zeitraffers (links) oder einer Zeitlupe (rechts).
Kapitel 4 - Zeitlupen und Zeitraffer
60
In Abbildung 41 wird auf der linken Seite das Erstellen eines Zeitraffers verdeutlicht und
auf der rechten Seite die Herstellung einer Zeitlupe. Eine Kamera nimmt Bilder mit einer
Geschwindigkeit von 25 Bildern pro Sekunde auf. Damit der Vorgang bei der Wiedergabe
schneller als bei der Aufnahme abläuft, werden bei der ineffizienten Lösung bestimmte Bilder (rot markiert) herausgeschnitten. Jedes n-te Bild wird im Videoclip belassen. Im
abgebildeten Beispiel bleibt jedes zweite Bild im Clip erhalten. Da bei der Wiedergabe nun
nicht mehr alle Bilder gezeigt werden, sondern nur noch jedes n-te, verkürzt sich die Dauer
des gefilmten Prozesses um das n-fache. Die Aufnahme einer Zeitlupe scheint nach diesem
Verfahren zunächst effizient. Das Video wird mit einer Bildrate von 25 Bildern pro Sekunde
aufgezeichnet. Anschließend werden n Einzelbilder (blau markiert) jeweils zwischen zwei
Kamerabildern durch einen Computer berechnet. Das Video wird dabei auf das 1+n-fache
gedehnt. Die auf diese Weise entstandene Zeitlupe ist jedoch unexakt, da der Computer
keine Kenntnis darüber hat, wie sich der Vorgang zwischen den Einzelbildern verhält. Häufig ist der ablaufende Prozess so schnell, dass er abgeschlossen ist, bevor die Kamera in der
Lage war, ein nächstes Einzelbild aufzunehmen.
Beide Verfahren zeigen neben den bereits genannten Schwächen eine weitere Eigenschaft,
die eine ineffiziente Aufnahmetechnik unterstützt. Zum Herausschneiden bestimmter Bilder
bei einem Zeitraffer und dem Berechnen zusätzlicher Bilder bei einer Zeitlupe wird Rechenzeit benötig. Diese wird bei der effizienten Lösung nicht benötigt. Für eine Zeitrafferaufnahme (links in Abbildung 42) werden die Bilder in einem vorher fest definierten Intervall
aufgenommen, welches größer als die Bildwiedergabefrequenz ist. Dadurch müssen nur
die Bilder aufgenommen und gespeichert werden, die letzten Endes im Videoclip erscheinen sollen. Eine Zeitlupenaufnahme erfolgt mit einer Hochgeschwindigkeitskamera, welche die Bilder schneller aufnehmen kann, als sie später gezeigt werden. Die Aufnahme im
Beispiel findet doppelt so schnell wie die Wiedergabe statt.
4.1.2 Warum werden Zeitlupen und Zeitraffer erstellt?
Neben dem Erstellen von Zeitlupen und Zeitraffern für die Werbeindustrie oder für Spielfilme beziehen sich die folgenden Überlegungen eher auf Spezialaufnahmen mit einem
wissenschaftlichen Hintergrund.
4.1.2.1 Zeitlupen
Eine Zeitlupenaufnahme wird erstellt, damit ein sehr schnell ablaufender Prozess von Menschen besser oder überhaupt wahrgenommen werden kann. Ein Mensch nimmt zeitlich
zusammenhängende Bilder mit einer Bildrate von 25 Bildern pro Sekunde nicht mehr als
Einzelbilder, sondern als Videostrom wahr. Findet also eine Bewegung so schnell statt,
dass ein Objekt im ersten Augenblick noch sichtbar ist und es aufgrund seiner Bewegung
bereits im nächsten Augenblick nicht mehr erkennbar ist, kann eine Zeitlupenaufnahme
Auskunft darüber geben, wie sich das Objekt fortbewegt hat. Der in Echtzeit sehr schnell
ablaufende Prozess wird in der Zeitlupe stark verlangsamt dargestellt. Dabei stellt sich die
Frage, wie langsam der Prozess nun dargestellt werden muss, damit alle nötigen Informationen aus der Zeitlupenaufnahme entnommen werden können, jedoch das Video nicht zu
lang wird?
Kapitel 4 - Zeitlupen und Zeitraffer
61
Ein Vorgang dauert in Echtzeit beispielsweise eine Sekunde. Reicht es, wenn die Bilder genau doppelt so schnell aufgenommen werden und der Vorgang im Videoclip dadurch zwei
Sekunden dauert, oder müssen die Bilder so schnell aufgezeichnet werden, dass die Zeitlupenaufnahme mehrere Stunden dauert? Die Aufnahmebildrate ist für jeden Anwendungsfall verschieden, jedoch muss es ein Optimum der Filmlänge geben. Wird ein schnell ablaufender Vorgang zeitlich viel zu stark aufgelöst, entstehen möglicherweise Bilder, zwischen
denen kaum noch Veränderungen sichtbar sind. Ist dagegen die Zeitlupe zu kurz, so sind
noch zu große Veränderungen zwischen den jeweiligen Einzelbildern vorhanden.
Abbildung 43
Die Spezialaufnahme
eines Prozesses ist links
zu kurz, kann in der
Mitte optimal sein und
dauert rechts zu lange.
Die Wiedergabe einer Zeitlupe dauert für einen bestimmten Vorgang n Sekunden. Wird
zum Beispiel der Austritt eines Projektils aus einer Schusswaffe gefilmt, ist die Zeitlupe für
die Phase von größtem Wert, wenn das Projektil unmittelbaren nach dem Abschuss das
Bild nach n Sekunden verlässt. Ist das Projektil bereits vor dieser Zeit nicht mehr im Kamerablickfeld, fehlen wichtige Einzelbilder, die den Flugverlauf genauer beschreiben könnten.
Dauert die Zeitlupe dagegen länger als n Sekunden, sind im Video kaum noch Bewegungen feststellbar. Aus der resultierenden Zeitlupe werden dann trotz längerer Wiedergabezeit nur die Informationen gewonnen, welche die Zeitlupe bei der optimalen Prozesswiedergabedauer vermittelt. Die Bildaufnahmefrequenz muss bei einem Vorgang so hoch sein,
dass die resultierende Zeitlupe n Sekunden dauert und damit die optimale Wiedergabedauer hat.
Die Hypothese zur Prozessdauer lautet demzufolge:
Für jeden beliebigen Vorgang, der durch eine Zeitlupe dargestellt wird, gibt es
eine optimale Wiedergabedauer.
4.1.2.2 Zeitraffer
Ein Zeitraffer wird erstellt, damit ein sehr lange andauernder Prozess überschaubarer wird.
Analog zur Zeitlupe muss es auch hier ein Optimum für die Prozessdauer im Zeitraffer
geben. Dauert ein Vorgang in Echtzeit beispielsweise ein Jahr, so gibt es auch für diesen
Zeitraffer eine optimale Länge. Hat der resultierende Videoclip eine Länge von einer Stunde, so kann der zu untersuchende Prozess immer noch zu lange dauern, sodass zwischen
den Einzelbildern zu wenige Unterschiede auftreten. Hat der Zeitraffer jedoch eine Länge
von einer Sekunde, so wird der in Echtzeit ein Jahr andauernde Prozess nun viel zu schnell
angezeigt. Nun werden eventuell wichtige Informationen nicht mehr dargestellt.
Schließlich haben Zeitlupe und Zeitraffer gemeinsam, dass in einer bestimmten Zeit ein
Prozess dargestellt wird. Doch was muss im Video genau gezeigt werden, beziehungsweise
wie werden diese Spezialaufnahmen durchgeführt, um aus den Bildern den größtmöglichen Nutzen zu ziehen?
Kapitel 4 - Zeitlupen und Zeitraffer
62
4.1.3 Was wird in Zeitlupen und Zeitraffern dargestellt?
In einer Zeitlupe oder einem Zeitraffer wird eine Veränderung einer Szene in einem bestimmten Zeitabschnitt aufgenommen. Grundsätzlich kann dabei zwischen zwei Typen
unterschieden werden: Im ersten Fall gibt es in der Spezialaufnahme ein zu beobachtendes
Objekt, im zweiten Fall nicht. In beiden Typen ist jedoch wichtig, dass neben der erkennbaren Veränderung auch Bereiche vorkommen, die während der Aufnahme unverändert
bleiben. Steht die Objektbewegung im Vordergrund, so sollte die Kamera fest arretiert sein,
damit der Hintergrund den sich nicht verändernden Bereich darstellt. Ist dagegen die Objekttransformation von größerem Interesse, so muss zum Einen der Kontrast zwischen Objekt und Hintergrund besonders stark sein und zum Anderen sollte der Objektmittelpunkt
genau im Bildmittelpunkt der Videoaufnahme sein. In diesem Fall ist das Objekt selber der
ruhende Bereich. Der Ruhebereich dient in diesen Spezialaufnahmen als Orientierungspunkt. Orientierungspunkte können der Objektmittelpunkt, Objektbegrenzungen oder im
Objekt vorkommende markante Punkte sein.
Abbildung 44
Orientierungspunkte
bei Objekttransformationen (von links):
Objektmittelpunkt,
Objektbegrenzung und
markante Bereiche
Handelt es sich bei der Spezialaufnahme um eine Kamerafahrt oder einen Kameraflug,
muss ein Objekt nicht zwangsläufig verfolgt werden. Ist in einer solchen Aufnahme kein
Objekt vorhanden, bewegen sich alle Bildteile von einem Punkt weg oder zu diesem Punkt
hin. Dieser Punkt wird Fixpunkt genannt und beschreibt mit seiner Lage genau die Richtung, in welche die Kamerafahrt oder der Kameraflug stattfindet. Anhand eines Bildes
lässt sich dieser Punkt nicht erläutern, da dieser Punkt nur durch die Bewegung entsteht.
Allerdings lässt sich bei einer Langzeitbelichtung eines Bildes vermuten, wo dieser Punkt
liegen muss. Auf dem nachfolgenden Bild ist die Mehrfachbelichtung einer Allee zu sehen.
Der Fotograf filmte die Landschaft aus einem fahrenden Fahrzeug. Das zweite Beispiel zeigt
Aufnahmen aus einer fliegenden Concord, bei der im letzten Bild der Fixpunkt durch ein
rotes Fadenkreuz eingezeichnet ist.
Abbildung 45
Mehrfachbelichtung einer Allee von [Hamel 1998, Seite 16]
Kapitel 4 - Zeitlupen und Zeitraffer
63
Abbildung 46
Flug mit einer Concord
Diese Aufnahmen stammen aus einem Dokumentarfilm von [Amirani 2003]. Um Nachträglich
den Effekt der Mehrfachbelichtung zu erzielen,
wurden die Bilder übereinandergelegt und ein rotes Fadenkreuz hinzugefügt. Nun lässt sich selbst
in einem Einzelbild erkennen, dass der Pilot das
Flugzeug in einer Rollbewegung flog. Dabei kippte
das Flugzeug von einer linkslastigen Fluglage in
die rechtslastige. Daraus resultierend entfernen
sich alle Bildpunkte in einer Kreisbewegung vom
Fixpunk weg.
Die Richtung der Kamera ist bei der Betrachtung des Fixpunktes irrelevant. Solange der
Fixpunkt im Bild zu sehen ist, führen alle Linien vom Fixpunkt weg, da dieser der einzig unbewegte Punkt im Bild ist. Bei einer Kamerafahrt entstehen immer zwei Fixpunkte. Einer in
Richtung der Kamerabewegung und der andere exakt in Gegenrichtung. Filmt die Kamera
die rückwärtige Sicht einer Kamerafahrt, bewegen sich alle Bildteile zum Fixpunkt hin. Je
näher sie dem Fixpunkt sind, desto langsamer bewegen sie sich. Dieser Sachverhalt wird
unter anderem im folgenden Abschnitt noch genauer untersucht.
4.1.4 Tiefenwahrnehmung in Videoaufnahmen
Neben den sechs monokularen Tiefenhinweisen Linearperspektive, Verblauung, Textur, Verdeckung, Schattierung und der vertrauten Größe ist der siebte Hinweis der einzige, der erst
durch eine Bewegung sichtbar wird. Die Bewegungsparallaxe tritt bei jeglicher Art von
Bewegung auf, egal ob die Blickrichtung in Fahrtrichtung ist, der Blick 90° zur Seite gewendet ist oder eine Rotationsbewegung um ein Objekt erfolgt.
Der Betrachter erhält die Tiefeninformation darüber, wie schnell sich einzelne Bildbereiche bewegen. Vorraussetzung dieser Annahme ist, dass sich der Betrachter bewegt und
die umliegende Landschaft in Ruhelage befindet. Verändert nun ein Objekt seine Position
langsamer als ein anderes, so muss es sich weiter weg vom Betrachter befinden. Anders
formuliert: Je kleiner der Abstand zwischen dem Objekt und dem fahrenden Betrachter ist,
desto höher ist die relative Geschwindigkeit zwischen Objekt und Betrachter. Die folgenden
Abstraktionen sollen diesen Sachverhalt bei verschiedenen Perspektiven und Bewegungsformen verdeutlichen.
Kapitel 4 - Zeitlupen und Zeitraffer
64
Abbildung 47
Bewegungsparallaxe aus verschiedenen Perspektiven
Das linke Bild verdeutlicht, dass sich Objekte nahe dem Fixpunkt langsamer bewegen, als
solche, die näher am Bildrand sind. In den beiden mittleren Skizzen wird gezeigt, dass sich
die Objekte langsamer bewegen, welche vom Betrachter weiter entfernt sind. Diese Tatsache gilt nicht nur bei einem Blick 90° zur Fahrtrichtung, wie in der dritten Skizze, sondern
auch bei einem Blick in Fahrtrichtung. In der rechten Skizze wird dargestellt, dass sich bei
einer Rotation um ein Objekt die Bewegungsparallaxe umkehrt. Nahe Objekte im Hintergrund bewegen sich langsamer um das Objekt, wogegen sich weit entfernte Objekte sehr
schnell bewegen.
Diese Möglichkeit der Tiefenwahrnehmung wird insbesondere bei Zeitraffern und Zeitlupen
für die Wegbeschreibung wichtig. Dabei entsteht ein typischer Bildaufbau der Videoaufnahmen, der häufig auch Hintergrund genannt wird. Im Vordergrund dienten bisher lediglich Objekte als Hilfsmittel, um die auftretenden Erscheinungen besser erklären zu können.
Aber was genau sind das für Objekte, und wie grenzen sie sich voneinander ab?
4.1.5 Mustererkennung bei der Wegbeschreibung
Insbesondere bei der Wegbeschreibung auf Straßen ist der allgemeine Bildaufbau häufig
identisch. Während bei Aufnahmen zwischen hohen Wolkenkratzern kein Himmel zu sehen ist, oder bei einer Fahrt durch einen Tunnel lediglich Lampen, Reflektoren und andere
Fahrzeuge den Bildinhalt beschreiben, trifft bei den meisten Bildern folgende Abstraktion
zu. Im unteren Bildteil ist ein graues Dreieck in Straßenfarbe, in der oberen Bildhälfte ein
Dreieck in Himmelfarbe und an den Rändern entweder grüne oder graue Farbtöne, je nach
dem, ob die Landschaft repräsentativ für Stadt oder Land ist.
Abbildung 48
Abstraktion einer typischen Verkehrssituation
Dabei werden im Wesentlichen zwei Dinge deutlich. Wäre die hellblaue Fläche mit der
grauen Fläche vertauscht, neigen Personen zur Aussage, dass etwas nicht stimmt. Dies ist
in der alltäglichen Sehweise begründet, bei welcher der Himmel und das Licht meistens
im oberen Blickfeld vorkommen und die Straße das untere Blickfeld dominiert. Die andere
Tatsache ist die Neigung der Horizontlinie. Für ihre Lage können mehrere Ursachen verantwortlich sein.
Kapitel 4 - Zeitlupen und Zeitraffer
Entweder ist die Landschaft geneigt und das
Auto steht horizontal, oder die Landschaft
ist eben und das Auto ist geneigt. Dabei ist
interessant, dass in beiden Fällen das gleiche
Kamerabild entsteht. Der gleiche Effekt tritt
bei gleichmäßiger Bergfahrt und gleichmäßiger horizontaler Fahrt auf. Daher lässt
sich beim Betrachten eines Videos auch nur
schwer feststellen, ob eine Fahrt kontinuierlich bergauf, bergab oder horizontal stattfindet. Lediglich bestimmte Hinweise im Bild
lassen vermuten, ob es zum Beispiel stark
bergan geht. Ein aus dem Sattel gegangener Radfahrer kann aber auch auf ebener
Strecke gegen starken Wind fahren. Für die
weitere Betrachtung ist es jedoch egal, wie
das Kamerabild entsteht, da zwischen dem
Blickfeld der Kamera und dem des Fahrers
kein Unterschied besteht.
65
Abbildung 49
Die Landschaft ist
geneigt: Das Auto steht
vor einem Berg auf
ebener Straße.
Abbildung 50
Das Auto ist geneigt:
Das Auto steht an
einem Berg, bei dem
die Straße zum Abhang
geneigt ist.
Abbildung 51
Videobild der Landschaft: In beiden Fällen
entsteht das gleiche
Kamerabild.
Die Mustererkennung beinhaltet jedoch nicht nur die gesamte Szene, sondern auch darin
enthaltene Objekte. Nach dem Ansatz der strukturellen Beschreibung erkundet das Auge
das Video nach dem Bottom-Up-Prinzip. Wenn die Person bereits über Erfahrungen mit
Verkehrsschildern, Leuchtsignalen und anderen immer wieder auftretenden Merkmalen
verfügt, erkennt sie bereits in kürzester Zeit, ob es sich um ein Gefahrenschild, ein richtungsweisendes Schild oder eine Informationstafel handelt. Nach dem Top-Down-Prinzip werden rote Lichter schnell als Gefahr interpretiert. Das vorherfahrende Fahrzeug mit
Bremslichtern, eine rote Ampel oder ein Bahnübergang können nicht mehr weit sein. Sogar
Blinklichter werden schnell in ihrer Bedeutung erfasst. Gelbe Blinklichter deuten auf eine
mögliche Gefahrenquelle hin, währenddessen blaue Blinklichter sofort den Einsatz von
Polizei, Feuerwehr, Krankenwagen, dem Technischen Hilfswerk oder der Unfallforschung
vermuten lassen. Damit ist geklärt, warum Personen gut bekannte Objekte sehr schnell
wahrnehmen und warum solche Objekte häufig den Blick auf sich lenken. Damit bleibt
nur noch zu erörtern, in welchen Situationen Zeitlupen und Zeitraffer allgemein eingesetzt
werden können.
4.1.6 Objektbewegung und Objekttransformation
Zeitraffer und Zeitlupen werden dort eingesetzt, wo über einen bestimmten Zeitraum eine
Veränderung stattfindet. Diese Veränderung kann sich entweder auf die Bewegung eines
Objektes oder auf eine Objekttransformation beziehen. An dieser Stelle muss jedoch definiert werden, was eine Objektveränderung im Video bedeutet.
Während der Aufnahme kann das Objekt seine Position, seine Form oder seine Farbe verändern. Allerdings wird im Video das Objekt (und auch der Hintergrund) nur noch durch
farbige Pixel repräsentiert. Damit ändert sich bei einer Objektbewegung die Position des
Objektes im Video nicht wirklich, da die Pixel auf dem Anzeigegerät ihre Position nicht
verändern können. Im Video ändert sich ausschließlich die Farbigkeit der Pixel, die das
bewegte Objekt darstellen. Demzufolge wäre die Behauptung falsch, dass sich das Objekt
Kapitel 4 - Zeitlupen und Zeitraffer
66
im Video bewegt. Gemeint ist damit, dass ein an das Objekt angrenzender Pixelbereich die
Farbtöne des Objektes bekommen wird. Im Folgenden beziehen sich die Begriffe Objektbewegung und Objekttransformation wieder auf das Objekt. Dem Leser sollte jedoch klar
sein, dass sich im eigentlichen Sinne lediglich die Farben bestimmter Pixel ändern.
4.1.6.1 Objektbewegung
Bei der Objektbewegung wandert das Objekt auf dem Bildschirm von einer Stelle an eine
andere. Dabei bleiben die Form und Struktur des Objektes erhalten und bei gleichmäßiger
Beleuchtung auch die Farbigkeit. Der Bildausschnitt lässt sich so optimieren, dass sich das
Objekt im gewählten Zeitintervall über die gesamte Bildschirmfläche bewegt.
4.1.6.2 Objekttransformation
Eine Objekttransformation bedeutet eine Skalierung, Verzerrung, Verformung und
Rotation von Objekten. Die ersten drei Transformationen führen zu einer Strukturveränderung des Objektes. Je größer das Objekt im Video wird, desto detailreicher wird die
Struktur des Objektes. In den meisten Fällen kommen dabei Farbtöne hinzu. Bei einer
Objektrotation treten Bewegung und Dehnung gleichermaßen auf. Wird das Objekt nahe
der Rotationsachse betrachtet, bewegen sich die Objektpunkte über den Bildschirm, wobei
sie am Objektrand gestaucht werden. Gleichermaßen erfolgt auch bei einer Kamerafahrt
mit Blick in Fahrtrichtung Bewegung und Dehnung. Im Bereich des Fixpunktes tritt eher
eine Dehnung auf, währenddessen Objekte bei ihrer Bewegung zum Bildrand stetig skaliert
werden.
4.1.7 Zusammenfassung der Abstraktionen und Schemen
Zeitraffer und Zeitlupen sind Spezialaufnahmen, mit denen Veränderungen einer Szene
dargestellt werden. Während ein Zeitraffer dem Betrachter einen Überblick über einen sehr
lange andauernden Prozess innerhalb kurzer Zeit gibt, werden durch eine Zeitlupe Einblicke
in einen Prozess möglich, der normalerweise aufgrund seiner hohen Geschwindigkeit nur
sehr schwer oder gar nicht erkennbar ist. Dargestellt werden Objektveränderungen, wie
zum Beispiel: Farbänderung, Bewegung, Skalierung, Dehnung oder Rotation. In vielen Fällen lässt sich jedoch zwischen Objektbewegung und Objekttransformation unterscheiden.
Bei einer Kamerafahrt mit Blick in Fahrtrichtung treten alle Merkmale gleichzeitig auf.
Die Tiefenwahrnehmung in Zeitlupen und Zeitraffern basiert größtenteils auf der Bewegungsparallaxe. Diese wurde nicht nur an der Kamerafahrt, sondern auch an der Rotation
um ein Objekt diskutiert. Im nächsten Abschnitt werden Regeln für Zeitlupen und Zeitraffer
bei der Wegbeschreibung aufgestellt. Dafür waren grundlegende Erkenntnisse aus dem Bereich der Mustererkennung notwendig. Vertraute Objekte, wie zum Beispiel Verkehrsschilder oder Leuchtsignale, lenken den Blick des Betrachters auf sich. Die Regeln im nächsten
Abschnitt verdeutlichen ebenfalls, wie dieser Einfluss durch eine aktive Kamerabewegung
zusätzlich unterstützt werden kann.
Kapitel 4 - Zeitlupen und Zeitraffer
67
4.2 Zeitlupen und Zeitraffer bei der Wegbeschreibung
Das Ziel dieses Abschnittes soll die Entwicklung eines Modells für eine Wegbeschreibung
mit Hilfe von Zeitlupen und Zeitraffern sein. Dazu wird zunächst analysiert, für welche Bereiche welche Videoclips in Frage kommen. Anschließend wird das Modell mit Hilfe von Regeln aufgestellt. Diese Regeln beschreiben unter Anderem, wie lange ein Videoclip dauern
sollte. Ähnlich zu einem Navigationssystem werden auch bei diesem Modell gesprochene
Sätze integriert. Anhand dieses Einflusses lassen sich die Videocliplängen exakt festlegen.
4.2.1 Anwendungsbereiche und Klassifizierung der Videotypen
Zeitraffer zielen darauf ab, sehr langsam
ablaufende Prozesse zu beschleunigen,
damit sie in kürzerer Zeit dargestellt und
überschaubarer werden. Vergleichbar ist
dieser Prozess mit der Liniendicke und Farbe
bei Straßenkarten. Befindet sich der Kraftfahrer auf einer Autobahn, betrachtet er
untergeordnete Straße als unwesentlich und
konzentriert sich nur auf den Verlauf der
Autobahn bis zum nächsten Autobahnkreuz
oder der gewünschten Ausfahrt. Im abgebildeten Beispiel ist für den Autofahrer hier
nur von Bedeutung, dass er sich momentan
auf der kräftigen roten Linie befindet, dass
grob die Himmelsrichtung stimmt und bis
zu welchem Punkt er sich um keinen Richtungswechsel kümmern muss.
Befindet sich der Kraftfahrer dagegen im
Großstadtbereich mit vielen, engen und
kurzen Straßen, so muss er unter Umständen genauer hinschauen und sogar Straßennamen lesen, um sich besser orientieren zu
können. In diesem Fall sollte äquivalent bei
der Wegbeschreibung eine Zeitlupe eingesetzt werden. Zeitlupen werden verwendet,
um sehr schnell ablaufende Prozesse sichtbar zu machen. Der Blick geht hierbei vom
Wesentlichen auf die Details über, wobei
nun mehr Informationen über ein Objekt in
Erfahrung gebracht werden können, als das
in Realzeit hätte geschehen können.
Leipzig
Dresden
Abbildung 52
Kartenausschnitt Leipzig – Dresden
Um von Leipzig nach Dresden zu gelangen, führt
der schnellste Fahrtroute über die Autobahn.
Campus
Autobahnabfahrt
Abbildung 53
Kartenausschnitt Autobahn – Campus
Von der Autobahnabfahrt Dresden Süd sind es nur
wenige Minuten Autofahrt bis zum Campus.
Für den sinnvollen Einsatz von Zeitraffern und Zeitlupen muss vorher bestimmt werden,
um welche Videoclipkategorie es sich handelt. Diese hängt von drei Faktoren ab, die
zunächst genannt und anschließend näher erläutert werden: Kamerabewegung, Transformation des Motivs und Fixpunkt im Bild.
Kapitel 4 - Zeitlupen und Zeitraffer
68
Bei Kamerabewegungen wird unterschieden, ob sich das Objekt relativ zur Kamera bewegt oder ob es ruht. Daraus lässt sich ableiten, ob in erster Linie eine Objektverformung
oder eine Objektbewegung aufgenommen werden soll und ob der Videoclip einen Fixpunkt besitzt. Dabei können folgende Varianten auftreten:
1.
2.
3.
4.
Die Kamera ist fest verankert und beobachtet das ruhende Objekt.
Die Kamera ist fest verankert und beobachtet das sich bewegende Objekt.
Die Kamera fährt, neigt sich, rotiert, schwenkt und beobachtet das ruhende Objekt.
Die Kamera fährt, neigt sich, rotiert, schwenkt exakt mit dem sich bewegenden Objekt.
Videoaufnahmen werden im Allgemeinen angefertigt, um eine
Veränderung von Dingen zu visualisieren. Es wird also davon ausgegangen, dass stetig in jedem Einzelbild eine Veränderung zum
vorherigen zu beobachten ist. Sind nun Kamera und Objekt wie in
Abbildung 54 starr, so nimmt die Kamera in diesem Fall eine Objekttransformation auf. Das Objekt verformt sich oder rotiert um
eine Achse, die durch das Objekt hindurchgeht. (Rotiert es um eine
Achse außerhalb des Objektes, liegt anstelle einer Transformation
eine Bewegung vor.)
Ebenso wird ein transformierendes Objekt aufgenommen, wenn
sich Kamera und Objekt mit gleicher Geschwindigkeit in dieselbe
Richtung bewegen, wie hier in Abbildung 55 nach oben. Gegenüber der Kamera ist auch hier das Objekt starr. Der Unterschied besteht lediglich darin, dass sich bei dieser Aufnahme der Hintergrund
im Gegensatz zum im Vordergrund liegenden Objekt bewegt.
Dabei wird ein Kontrast geschaffen, der im ersten Fall nicht eintritt,
wenn sich der Hintergrund mit einer so hohen Geschwindigkeit
bewegt, dass er aufgrund der Belichtungszeit nur noch verschwommen dargestellt werden kann. Der Hintergrund ist unscharf; das
Objekt wird scharf abgebildet.
Die Abbildung 56 verdeutlicht eine Möglichkeiten zur Aufnahme
einer Objektbewegung. Sobald sich das Objekt relativ zur Kamera
bewegt, muss nicht zwangsweise eine Transformation des Objektes
stattfinden. Häufig bleibt das Objekt in seiner ursprünglichen Form.
Im Fall einer starren Kamera und eines bewegten Objektes spielt
meistens die Bewegungskurve eine Rolle. In diesem Fall verhält sich
das Kontrastverhältnis genau entgegengesetzt zum vorherigen Fall.
Der Hintergrund ist starr und das Objekt bewegt sich unter Umständen so schnell, dass es nicht scharf im Videoclip abgebildet werden
kann. Daher sollten bei diesen Aufnahmen Hintergründe verwendet
werden, die sich stark vom zu beobachtenden Objekt unterscheiden. Ein einfarbiger Hintergrund ist oft ideal.
Kaum angewendet wird dagegen der Fall, dass sich die Kamera bewegt und das Objekt an Ort und Stelle bleibt, wie in Abbildung 57
dargestellt. Unter Kamerabewegung werden hier lediglich die Fälle
gesehen, bei denen die Kamera fährt oder schwenkt. Rotiert die
Kamera um das zu beobachtende Objekt, so tritt ähnlich zum zwei-
Kapitel 4 - Zeitlupen und Zeitraffer
69
ten Fall das Phänomen auf, dass sich Kamera und Objekt relativ zueinander nicht bewegen.
In diesem Fall verformt sich das im Videoclip abgebildete zweidimensionale Objekt auf
diese Weise, dass das dreidimensionale Objekt aus mehreren Blickwinkeln abgebildet wird.
Zu den möglichen Kamerabewegungen folgen anschließend gesonderte Betrachtungen.
Damit kann nun zunächst eine Regel aufgestellt werden, wie Kamera und Objekt zueinander agieren müssen, wenn der Schwerpunkt der Betrachtung auf der Transformation oder
der Bewegung liegt.
4.2.2 Regeln für das Verhalten zwischen Kamera und Objekt
Regel 1 – Aufnahmen mit Objekttransformation
Liegt der Schwerpunkt der Betrachtung auf der Objekttransformation, ist die Kamera so zu verankern oder zu führen, dass sich
der Objektmittelpunkt immer im Bildmittelpunkt befindet.
Regel 2 – Aufnahmen mit Objektbewegung
Liegt der Schwerpunkt der Betrachtung auf der Objektbewegung, ist die Kamera gegenüber dem Objekt in geeigneter
Position, Richtung und Entfernung fest zu verankern.
Dieser Sachverhalt wird in einem Schema dargestellt:
Abbildung 58
Das Schema erläutert,
wie sich bewegende
oder sich transformierende Objekte mit einer
Kamera aufzunehmen
sind. Die Transformation kann neben der
Verformung auch eine
Skalierung und Farbänderung bedeuten.
So lange die Objekttransformation von Bedeutung ist, muss der Bereich des größten Interesses immer im Bild sein. Damit ist im Allgemeinen das Filmen des Bereiches gemeint, der
sich beim Prozessablauf verändern wird. Ist das Objekt ruhend, so wird auch die Kamera
fest arretiert; bewegt es sich, muss die Kamera entsprechend geführt werden.
Ist dagegen die Bewegungskurve zwischen der Kamera und dem Objekt von Interesse,
sollte eines von beiden fest arretiert sein: entweder die Kamera oder das Objekt. Meistens
ist die Kamera so befestigt, dass sie das sich bewegende Objekt aufzeichnen kann.
Kapitel 4 - Zeitlupen und Zeitraffer
70
Im nächsten Schritt muss geklärt werden, wann eine Aufnahme als Zeitlupe oder als Zeitraffer zu erstellen ist. Dazu wird zuerst ein proportionaler Zusammenhang zwischen dem
Detailreichtum des Bildes und der Aufnahmegeschwindigkeit des Videoclips erörtert. Im
zweiten Schritt werden diese Erkenntnisse auf unterschiedliche Kameraführungen angewendet. Diese beinhalten neben der fest arretierten Kamera nicht nur stationäre Bewegungen der Kamera, wie zum Beispiel den Schwenk oder die Neigung, sondern auch verschiedene Kamerafahrten, beispielsweise die Durchfahrt oder die Rotation um ein Objekt.
4.2.3 Wann Zeitlupe und wann Zeitraffer?
Von einem Video werden auf dem Anzeigegerät viele Einzelbilder hintereinander gezeigt.
Aufgrund der hohen Bildfrequenz ist der Mensch nicht in der Lage die Einzelbilder als solche wahrzunehmen. Sie verschwimmen zu einem fließenden Videostrom. Videos werden
aufgezeichnet, um die Veränderungen eines Bildausschnittes über die Zeit zu beobachten.
Deshalb kann davon ausgegangen werden, dass in jedem Einzelbild eine Veränderung gegenüber dem vorherigen Bild vorliegt. Dauert der beobachtbare Prozess sehr lange, so sind
die Unterschiede der Einzelbilder eher gering, wobei die Unterschiede sehr groß werden
können, wenn die aufzunehmenden Prozesse sehr schnell ablaufen.
Zwei Beispiele verdeutlichen diesen Zusammenhang. Fährt der Betrachter lange Zeit auf einer Autobahn, hat das aufgenommene Bild, wie bereits im Abschnitt 4.1 beschrieben, über
längere Zeit den gleichen Bildaufbau. Das untere Feld wird durch ein betongraues Dreieck
dominiert, zur rechten und zur linken Seite schließen sich zwei grüne Dreiecke an, die
markant für die Landschaft sind, und in der oberen Hälfte ist ein blaues Dreieck, was den
Himmel charakterisiert. Verkehrszeichen, fahrende Autos und weitere Details sind nicht von
Interesse, solange nicht die Fahrtrichtung geändert wird oder die Absicht zum Verlassen
der Autobahn besteht. Der Bildinhalt ändert sich also über einen längeren Zeitraum nicht,
sodass in diesem Fall die Aufnahme als Zeitraffer erfolgen kann. Damit ist gleichzeitig festgestellt worden, dass während dieses Zeitraffers für eine Routenplanung keine wichtigen
Details vorkommen. Ansonsten ist für diesen Wegabschnitt ein Zeitraffer unangebracht.
Befindet sich der Kraftfahrer jedoch in der
Innenstadt, so verändern sich der Bildaufbau
und der Bildinhalt relativ schnell. Teilweise
sind sehr kleine Details, wie zum Beispiel
Schilder mit Straßennamen, von hoher
Wichtigkeit, sodass in diesem Fall das einzelne Bild von größerer Bedeutung ist. Nun
muss die Bildaufnahmefrequenz hoch
sein, damit diese Details später auch wahrgenommen werden können. Abbildung 59
verdeutlicht diesen Sachverhalt. Bei einer
geringen Detailveränderung, wird ein
Zeitraffer erstellt. Ist die Aufnahmefrequenz
größer als 25 Bilder pro Sekunde, entsteht
eine Zeitlupe. Nun lässt sich die dritte Regel
aufstellen, in welcher verschiedene Festlegungen zum Einsatz von Zeitlupen und
Zeitraffern erfolgen.
Abbildung 59
Zusammenhang zwischen Bildaufnahmefrequenz
und Detailveränderungen zwischen den Einzelbildern. Daraus ergibt sich der Einsatz von Zeitraffer
oder Zeitlupe.
Kapitel 4 - Zeitlupen und Zeitraffer
71
Regel 3 – Wann Zeitlupe und wann Zeitraffer?
Die Aufnahmefrequenz kann klein sein, wenn in den Bildern nur
wenige Details und zwischen den Bildern geringe Veränderungen vorliegen.
Sind die Bilder detailreicher und liegen zwischen den einzelnen
Bildern größere Veränderungen vor, ist eine hohe Aufnahmefrequenz erforderlich.
Die Bildaufnahmefrequenz ändert sich demzufolge proportional zum Detailreichtum in
den Bildern, sowie zur Veränderung des Bildinhaltes aufeinanderfolgender Einzelbilder. Die
praktische Umsetzung ist relativ einfach. Eine Aufnahme der Videoclips von einem fahrenden Fahrzeug erfolgt mit einer handelsüblichen Kamera mit 25 Bildern pro Sekunde. Die
Aufnahmefrequenz ist damit konstant und klein, sobald eine längere Autobahnfahrt stattfindet. Die relative Bildfrequenz pro gefahrenen Meter wird noch kleiner, wenn das Fahrzeug auf hohe Geschwindigkeiten beschleunigt. Zusätzlich wird in der Nachproduktion für
diesen Zeitraffer nur jedes n-te Bild verwendet, sodass die Zeitrafferwirkung noch verstärkt
wird. Dabei gibt n das Intervall der wiederzugebenden Bilder an.
Ein Fahrzeug fährt in schmalen Gassen und engen Kurven einer Innenstadt nicht die gleiche Geschwindigkeit wie auf der Autobahn. Risiken, die Unkenntnis über die Fahrtroute
und nicht zuletzt die Verkehrsregeln zwingen den Fahrer zu einer langsameren Fahrt. Nun
werden mehr Bilder pro gefahrenen Meter aufgezeichnet, genau wie es Abbildung 59
verlangt. Damit entspricht das Schema der menschlichen Sehweise eines Autofahrers. Fährt
das Fahrzeug in der Stadt mit 36 Kilometern pro Stunde, entspricht diese Geschwindigkeit zehn Metern pro Sekunde. Nimmt die Kamera 25 Bilder pro Sekunde auf, entstehen
25 Bilder pro zehn Meter Fahrtweg. Die Kamera nimmt nach 40 Zentimetern jeweils ein
Einzelbild auf. Liegt bei einer Autobahnfahrt eine Geschwindigkeit von 180 Kilometern
pro Stunde vor, entspricht das 50 Metern pro Sekunde und damit 25 Bildern pro 50 Meter
Fahrtweg. Nun nimmt die Kamera nach jeweils zwei Metern ein Bild auf.
Um vom Ausgangsort an den Zielort zu
gelangen, kann entweder ein Blick auf eine
Straßenkarte weiterhelfen, oder es kann
eine Routenbeschreibung angesagt werden.
Die Sätze müssen die Route exakt beschreiben. Dazu gehören im Wesentlichen zwei
Informationen: Wie lange und auf welcher
Straße befindet sich der Fahrer, sowie die
exakte Angabe der Richtungsänderung an
einem Kreuzungsbereich. Daraus ergeben
sich zwei Videoclipkategorien. Der ersten
Kategorie gehören Videoclips an, die den
längeren Straßenverlauf ohne Richtungsänderung darstellen. Der zweiten Kategorie
gehören alle Clips an, bei denen ein Richtungswechsel im Kreuzungsbereich darge-
Abbildung 60
Der Straßenverlauf ohne Richtungsänderung
entspricht der ersten Kategorie und ist grün
hervorgehoben. Ändert sich die Richtung an einer
Kreuzung, gehört der dazugehörige Videoclip der
zweiten Kategorie an und ist blau dargestellt.
Kapitel 4 - Zeitlupen und Zeitraffer
72
stellt wird. Die Länge der Videoclips lässt sich daher wie folgt festlegen: Aufnahmen zur
ersten Kategorie neigen zum Zeitraffer, wogegen Aufnahmen der zweiten Kategorie eher
zu Zeitlupen tendieren. Das damit erzeugte Modell zur Wegbeschreibung lässt sich universell auf jede endliche Wegstrecke anwenden.
Regel 4 – Wegbeschreibung mit Zeitlupen und Zeitraffern
Zeitlupen werden in Kreuzungsbereichen eingesetzt, an denen
sich die Fahrtrichtung eines Fahrzeugs ändert. Zeitraffer werden
von den Fahrstrecken erstellt, bei denen über einen längeren
Zeitraum keine Richtungsänderungen auftreten.
Während der Untersuchungen im Praxisteil, Abschnitt 5.2 Zeitraffer und Zeitlupe bei der
Wegbeschreibung, wird festgestellt, dass Regel 4 erweitert werden muss. Die erstellten
Videoclips können zeitlich nicht beliebig zu einem Zeitraffer gestaucht werden. Ist der
Sprung von einem Einzelbild zum nächsten zu groß, verliert der Betrachter die Orientierung
und bewertet den Zeitraffer als zu schnell. Daher ist die Verkürzung des Videos auf einen
Zeitraffer beschränkt. Es darf höchstens mit der x-fachen Geschwindigkeit abgespielt werden, wobei x unterschiedlich für verschiedene Anwendungsfälle ist. Der Zeitraffer muss in
diesem Fall zerteilt werden, wobei in der fertigen Beschreibung der erste Teil des Zeitraffers
gezeigt und schließlich in den Schlussteil dieses Zeitraffers übergeblendet wird. Daher wird
bereits an dieser Stelle eine zusätzliche Regel eingeführt:
Regel 5 – Abspielgeschwindigkeit von Zeitraffern
Sollte ein Zeitraffer Z maximal nur mit x-facher Geschwindigkeit
angezeigt werden, und übersteigt die Dauer des Zeitraffers die
gewünschte Dauer t, wird der Zeitraffer mit x-facher Geschwindigkeit in drei Teile Z1, Z2 und Z3 zerlegt.
Z1 dauert ½t und Z3 dauert ½t.
Z2 wird nicht angezeigt.
Z1 und Z3 werden wiedergegeben.
Abbildung 61
Schema zum Teilen eines Zeitraffers auf die Dauer t.
Kapitel 4 - Zeitlupen und Zeitraffer
73
Abbildung 61 soll das Teilen des Videos veranschaulichen. Im oberen Bereich ist zunächst
der Zeitraffer dargestellt, der auf eine bestimmte Zeit t gekürzt werden soll. Da dieser
Zeitraffer die Realität bereits mit x-facher Geschwindigkeit anzeigt, kann die Zeit nicht noch
stärker reduziert werden. Daher wird der Clip in drei Teile zerlegt, wobei nur der erste und
der letzte Teil den neuen Clip bilden. Der gesamte Clip stellt einen Zeitraffer dar, wobei
dadurch auch der Teilabschnitt Z2 ein Zeitraffer ist. Regel 3 besagte, dass in Zeitraffern keine wichtigen Details vorkommen, die zur Wegbeschreibung nützlich sind. Somit kann der
Ausschnitt Z2 entfernt werden, ohne dass dem Videoclip wertvolle Informationen verloren
gehen. Z1 und Z3 müssen jedoch vorhanden sein, um einen fließenden Übergang zwischen zwei Kreuzungsbereichen zu schaffen, in denen eine Richtungsänderung stattfindet.
Optional kann von Z1 in Z3 übergeblendet werden, damit ersichtlich wird, dass ein Teil des
Clips ausgelassen wurde.
4.2.3.1 Optimierung der Videocliplänge
Die Optimierung der Videocliplänge erfolgt so, dass jede Videoclipdauer der Dauer des
Kommentars bei natürlicher Sprechweise entspricht. Für diesen Zweck müssen vorgefertigte Musterstimmen zur Verfügung stehen, die über Lautsprecher beispielsweise folgende
Sätze anbieten können. Die in den Klammern angegebene Zeit ist eine Schätzung für das
Sprechtempo des jeweiligen Satzes.
(6,5 Sekunden)
(7,4 Sekunden)
(4,0 Sekunden)
(3,3 Sekunden)
Fahren sie 76 Kilometer auf der Autobahn A14 in Richtung
Magdeburg, Halle, Leipzig
Verlassen sie die Autobahn an der Ausfahrt Dresden-Süd
und biegen sie links in die Bundesstraße B170 ein.
Bleiben sie auf der B170 für 2,6 Kilometer.
Biegen sie links ab in die Nöthnitzer Straße.
Für die Ansage dieser Sätze ist jeweils eine gewisse Zeit erforderlich. Diese Zeiten sind
zunächst Schätzungen, können aber exakt bestimmt werden, sobald die Stimme einmal
aufgezeichnet wurde. Für jeden Satz ist dann eine genaue Sprechdauer bekannt. Zusätzlich
zur Wegbeschreibung kann auch auf besondere Begebenheiten hingewiesen werden, wie
zum Beispiel der Hinweis zu einem Verkehrsleitschild oder auf einen Blitzer.
(3,0 Sekunden)
(2,7 Sekunden)
Ordnen sie sich in der äußerst linken Fahrspur ein!
Vorsicht! Blitzer auf der rechten Seite.
Da sich jede endliche Route mit endlich vielen Richtungsanweisungen darstellen lässt, hat
auch die gesprochene Wegbeschreibung eine endliche Dauer. Damit zwischen den einzelnen Videoclips und zwischen den einzelnen Sätzen ein gleitender Übergang entsteht, sollte
nach jedem Satz eine Pause von beispielsweise ein bis zwei Sekunden festgelegt werden.
Was bisher noch nicht beachtet wurde, beschreibt der folgende Sachverhalt: Bewegt sich
das Fahrzeug genügend langsam, dann hat der Fahrer auch die Möglichkeit zur Seite zu
schauen. Mit einer fest arretierten, immer geradeaus gerichteten Kamera, ist das nicht
möglich. Damit dieser Fall in die Betrachtung mit einbezogen werden kann, müssen zunächst Untersuchungen verschiedener Kamerabewegungen angestellt werden.
Kapitel 4 - Zeitlupen und Zeitraffer
74
4.2.4 Kamerabewegungen
Kamerabewegungen sind nötig, um das zu betrachtende Objekt zu verfolgen. Bei der
Betrachtung der Kamerabewegungen in Bezug auf die Wegbeschreibung ist wichtig, dass
sich das Orientierungsobjekt auf dem Bild in ruhiger Lage befindet, oder sich nur minimal
bewegt. Durch ein Beispiel soll dieser Sachverhalt verständlicher werden: Fährt ein Kraftfahrer auf der Autobahn mit einer hohen Geschwindigkeit, wird er entsprechend den psychologischen Betrachtungen aus dem Abschnitt 3.3 konzentriert auf den Fixpunkt oder auf
ein vorherfahrendes Fahrzeug blicken. Sobald sich jedoch ein richtungsweisendes Verkehrsschild nähert, und der Fahrer zum Überprüfen seiner Route das Schild lesen will, schweift
der Blick vom Fixpunkt ab und wandert zum Verkehrsschild. Sind die Sichtverhältnisse
schlecht, muss der Fahrer relativ lange warten, bis das Verkehrsschild in lesbarer Reichweite
ist. Mit zunehmender Geschwindigkeit entfernt sich das Verkehrschild vom Fixpunkt, bis es
schließlich nicht mehr im Blickfeld ist.
Eine Kamera kann dieses Problem auf zweierlei Wegen umgehen. Zum Einen kann sie wie
die Augen des Fahrers in Richtung Verkehrsschild schwenken und zum Anderen kann sie
an dieser Stelle eine Zeitlupe erstellen, sodass selbst bei hoher Geschwindigkeit genügend
Zeit zum Erkennen des Verkehrsschildes bleibt.
Zusätzlich zur Durchfahrt und zum Kameraschwenk lassen sich auch Regeln für eine Rotation um ein Objekt aufstellen, durch welche die Kameraführung um beliebige Objekte bei
der Wegbeschreibung möglich wird.
4.2.4.1 Kamerafahrt
Während einer Kamerafahrt mit einer in Fahrtrichtung filmenden Kamera, entsteht ein
Fixpunkt. Dieser muss nicht zwangsläufig identisch zum zentralen Punkt der Zentralperspektive sein. Aufgrund der Beschaffenheit von Kameralinsen liegt der zentrale Punkt
immer exakt im Mittelpunkt des Bildes. Weicht die Blickrichtung der Kamera leicht von
der Fahrtrichtung ab, ist der Fixpunkt außerhalb der Bildmitte. Ist die Kamera starr auf
einem fahrenden Objekt montiert, ändert sich die Position des Fixpunktes bei jedem Kameraschwenk. Ebenso verändert sich die Lage des Fixpunktes mit jeder Richtungsänderung
der fahrenden Kamera. Liegt der Fahrtrichtungsvektor außerhalb des Blickwinkels der Kamera, gibt es im Bild keinen Fixpunkt mehr. Fährt die Kamera genau entgegengesetzt zur
Blickrichtung, entsteht wieder ein Fixpunkt im Bild.
Die folgenden Grafiken sollen den Zusammenhang zwischen Fixpunkt und Fahrtrichtung
verdeutlichen. In der linken Abbildung ist jeweils das Kamerabild zu sehen. Der zentrale
Punkt ist durch ein grünes Fadenkreuz markiert; der Fixpunkt durch einen Knotenpunkt
roter Pfeile. Gibt es keinen Knotenpunkt roter Pfeile im Bild, so existiert auch kein Fixpunkt
in diesem Videoclip. Die mittlere Darstellung zeigt symbolisch die Kamera auf dem fahrbaren Untersatz von der Seite. Der rote Pfeil zeigt die Fahrtrichtung an und der grüne Pfeil die
Blickrichtung der Kamera. Die rechte Abbildung verdeutlicht denselben Sachverhalt in der
Draufsicht.
Kapitel 4 - Zeitlupen und Zeitraffer
75
In Abbildung 62 sind Fahrtrichtung und
Blickrichtung der Kamera identisch. Dabei
ist egal, ob der Wagen konstant horizontal
oder konstant eine geneigte Ebene hoch,
beziehungsweise runter fährt. Der Fixpunkt
entsteht genau in der Mitte des Videos und
alle Punkte bewegen sich von ihm weg.
Die Kamera ist in Abbildung 63 leicht nach
unten geneigt, oder der Wagen beginnt mit
einer Anfahrt auf einen Berg. Der Fixpunkt
verlagert sich daraus resultierend nach oben.
Der Wagen fährt geradeaus und die Kamera
blickt leicht nach rechts. Der Fixpunkt liegt
dadurch weiter links im Videoclip. Vorsicht:
Eine leicht geschwenkte Kamera produziert
nicht die gleichen Bilder, wie eine geradeaus
blickende Kamera bei leichter Kurvenfahrt.
In Abbildung 65 ist die Kamera so weit
nach rechts geschwenkt, dass im Bild kein
Fixpunkt entsteht. Der hier abgebildete Fall
zeigt einen Kamerablickwinkel von 90°,
wobei sich in diesem Fall alle Punkte im Bild
horizontal von links nach rechts bewegen.
Fahrtrichtung und Blickrichtung der Kamera sind exakt entgegengesetzt. Dabei ist
egal, ob der Wagen konstant horizontal
oder konstant eine geneigte Ebene hoch,
beziehungsweise runterfährt. Der Fixpunkt
entsteht genau in der Mitte des Videos und
alle Punkte bewegen sich zum Fixpunkt.
Lenkt der Wagen nach links, und blickt die
Kamera geradeaus, ergibt sich ein Fixpunkt
links der Bildmitte, wobei sich die Punkte
nicht linear von ihm wegbewegen.
Abbildungen 62-67
Fixpunkt bei Kamerafahrten. Links das Kamerabild,
in der Mitte das Fahrzeug in der Seitansicht und
rechts in der gedrehten Draufsicht.
Fixpunkte treten auch in der Egoperspektive bei 3D-Computerspielen auf. In einigen Fällen
wird der Blick des Spielers aktiv auf den Fixpunkt gelenkt, indem vom Fixpunkt weit entfernte Bereiche verschwommen dargestellt werden. Den gleichen Effekt erfahren Personen,
die mit hoher Geschwindigkeit Auto fahren. Der Fixpunkt bleibt scharf, die Randbereiche
dagegen nicht: Aufgrund der hohen Geschwindigkeit kann das Auge am Bildrand keine
Details mehr wahrnehmen. Falls dennoch ein wichtiges Objekt außerhalb des Fixpunktes in
Erscheinung tritt, zum Beispiel ein wichtiges Verkehrsschild oder ein Blitzer am Straßenrand,
ist eine Kamerafahrt ungeeignet. Damit der Fahrer für diesen Moment das Verkehrsschild
genau erkennen kann, muss er seinen Kopf zur Seite neigen. Äquivalent dazu muss die
Kamera direkt in Richtung des wichtigen Objektes geschwenkt werden.
Kapitel 4 - Zeitlupen und Zeitraffer
76
Regel 6 – Einschränkung für Zeitraffer
Zeitrafferaufnahmen sind ungeeignet, wenn der Information
dienende Objekte am Wegesrand vorkommen, auch wenn die
Fahrtrichtung beibehalten wird.
Es gibt eine Möglichkeit auf derartige Informationen gezielt hinzuweisen, indem nicht nur
von einem Zeitraffer abgesehen wird, sondern indem das Objekt aktiv im Bildmittelpunkt
gehalten wird. Dazu muss die Kamera das Objekt verfolgen und bei der Kamerafahrt einen
Schwenk durchführen.
4.2.4.2 Kameraschwenk
Bei einem Schwenk, der dem Objekt in seiner Bewegung exakt folgt, sollte der Objektmittelpunkt auch im Mittelpunkt des Videoclips liegen. Erscheint bei der Kamerafahrt ein
Objekt nahe dem Fixpunkt, kann der Schwenk direkt vom Fixpunkt auf das Objekt erfolgen. Da sich nun der Fixpunkt vom Objekt wegbewegt und nicht mehr das Objekt vom Fixpunkt, liegt die Aufmerksamkeit sofort auf dem Objekt. Dieses ist nun das Einzige, welches
sich im Bild nicht bewegt. Durch die Fahrt der Kamera wird das Objekt zunehmend größer.
Damit die Kamera das Objekt nicht so lange verfolgt, bis es bereits hinter dem Wagen ist,
muss ein maximaler Schwenkwinkel vorgegeben werden. Sinnvoll ist hier genau der Winkel, welcher sich ergibt, wenn der Fixpunkt der immer noch andauernden Fahrbewegung
an den Bildrand stößt. Ab diesem Moment sollte die Kamera das Objekt verschwinden lassen und zurück in die Ausgangsstellung kehren. Diese ist erreicht, sobald die Blickrichtung
der Kamera wieder mit der Fahrtrichtung des Wagens übereinstimmt.
Regel 7 – Schwenk auf informative Objekte
Wenn ein der Information dienendes Objekt am Wegesrand
auftritt, muss ein Kameraschwenk so erfolgen, dass das betreffende Objekt im Bildmittelpunkt erscheint. Sobald das Objekt
aufgrund der Bewegung den Mittelpunkt verlässt, muss die
Kamera zurück in die Ausgangsstellung schwenken.
Das im Folgenden abgebildete Beispiel soll diesen Sachverhalt verdeutlichen. Als Objekt
wurde ein Verkehrsschild verwendet, welches Angaben über die Entfernungen zu verschiedenen Städten bereitstellt.
Kapitel 4 - Zeitlupen und Zeitraffer
77
Abbildung 68
Kameraschwenk auf ein informatives Objekt:
Erscheint nahe des Fixpunktes ein informatives
Objekt, schwenkt die Kamera auf dieses. Verlässt
das Objekt das Bild an einem Bildrand, schwenkt
die Kamera zurück in Fahrtrichtung.
4.2.4.3 Kamerarotation um ein Objekt
Eine besondere Form der Objektverfolgung
ist die Kamerarotation um ein Objekt.
Diese ist eine Mischform aus der Kamerafahrt und dem Kameraschwenk. Die Kamera
fährt kreisförmig um das Objekt, wobei der
Blickwinkel der Kamera zu jedem Zeitpunkt
rechtwinklig zur Fahrtrichtung bleibt. Obwohl es im eigentlichen Sinne eine Kamerafahrt ist, verlässt das ruhende Objekt nie das
Kamerablickfeld, solange ein Teil des Objek- Abbildungen 69, 70
Kamerarotation um ein Objekt. Obere Skizze
tes im Zentrum des Kreises ist. Das Objekt
von links: Kamerabild, Seitansicht und gedrehte
erscheint dabei besonders ästhetisch, da es
Draufsicht des Fahrzeugs. Die blauen Quadrate in
sich zwar dreht, sich aber nicht fortbewegt. der unteren Skizze stellen den Hintergrund dar.
Der Hintergrund bewegt sich entgegengesetzt der Rotationsrichtung des sich drehenden Objektes. Rotiert die Kamera um das Objekt rechts herum, bewegen sich alle Punkte
des Objektes in der Vorderansicht nach rechts (schwarze Pfeile), die Punkte des Hintergrundes bewegen sich jedoch nach links (blaue Pfeile). Eingesetzt werden diese Aufnahmen,
wenn ein Objekt besonders hervorgehoben werden soll. Es bleibt zu klären, wie bei einer
Rotation um das Objekt aus einem transformierenden ein sich bewegendes Motiv wird.
Die Kamera rotiert um das Objekt. Die Rotationsachse verläuft nicht durch das Objekt.
Das resultierende Video zeigt, wie sich das
Objekt ständig von links nach rechts und
von rechts nach links bewegt. Bei dieser
Aufnahme entsteht kein Ruhebereich.
Abbildung 71
Kamerarotation, bei der die Rotationsachse nicht
durch das Objekt verläuft.
Kapitel 4 - Zeitlupen und Zeitraffer
Verläuft die Rotationsachse durch das
Objekt, zeigt das Video kein sich bewegendes, sondern ein transformierendes Objekt.
Dabei entsteht mindestens ein Ruhepunkt.
Im abgebildeten Fall sind sogar mehrere Ruhepunkte vorhanden, die durch die Begrenzung des Objektes gebildet werden.
78
Abbildung 72
Die Rotationsachse verläuft bei dieser
Kamerarotation nicht durch das Objekt.
Der Ruhepunkt ist vergleichbar mit dem Fixpunkt bei einer Kamerafahrt. Es gibt jedoch
höchstens einen Fixpunkt, dagegen kann es mehrere Ruhepunkte geben. Ein Ruhepunkt
verändert seine Position nicht und entsteht genau dort, wo während des gesamten Videoclips eine Objektbegrenzung oder markante Punkte des Objektes ihre Ausgangsposition
nicht verlassen. Nach den psychologischen Untersuchungen aus dem dritten Kapitel wird
ein sich bewegendes Objekt eher wahrgenommen als ein transformierendes. Ist die Transformation, beziehungsweise die auf dem Video zu erkennende Rotation des Objektes wichtiger als eine Objektbewegung, so muss die Rotationsachse durch das Objekt verlaufen.
Regel 8 – Rotation um ein Objekt
Rotiert die Kamera um ein festes Objekt, muss die Rotationsachse durch das zu betrachtende Objekt verlaufen.
Für die navigierende Wegbeschreibung auf offener Straße ist diese Art der Aufnahme
sicher selten von Nutzen. Jedoch bietet sie sich zum Beispiel bei virtuellen Museumsrundgängen an. Erscheint beispielsweise eine Skulptur oder in einer Kirche ein Taufstein, hat der
Zuschauer des Videos nun die Möglichkeit, das Objekt von allen Seiten zu betrachten und
kann in Gedanken um das Objekt herumgehen.
4.2.5 Zusammenfassung zur Wegbeschreibung
Im Text wurden alle wichtigen Regeln zur richtigen Handhabung von Zeitlupe und Zeitraffer bei der Wegbeschreibung erläutert. Zusammenfassend lässt sich feststellen, dass sowohl
die Bewegungen des Objektes und der Kamera genau dem entsprechenden Anwendungsfall angepasst werden müssen. Ist die Bewegungskurve von primärem Interesse, so gelten
andere Bedingungen als für das Beobachten einer Objekttransformation.
Bei den Untersuchungen zur Wegbeschreibung wurde festgestellt, dass in längeren, sich
nur wenig verändernden Wegpassagen Zeitraffer zur Anwendung kommen können. In
kritischen Bereichen, wie zum Beispiel in Kurven, bei richtungsweisenden Verkehrsschildern
oder sonstigen wichtigen Hinweisen, werden Zeitlupen benötigt. Die entstehenden Videoclips dieser zwei Kategorien können in Bezug auf die Sprechdauer der zum Wegabschnitt
gehörenden Wegbeschreibung optimiert werden.
Neben der Kamerafahrt wurden auch der Kameraschwenk und die Rotation um ein Objekt
ausführlich diskutiert. Im Zusammenhang mit der Kamerafahrt ließ sich der Begriff des Fixpunktes in einem Videoclip definieren, wobei dieser bei den praktischen Untersuchungen
Kapitel 4 - Zeitlupen und Zeitraffer
79
in Abschnitt 5.2 von großer Bedeutung sein wird. Erscheinen wichtige Objekte, wie zum
Beispiel richtungsweisende Verkehrsschilder, muss der Kameraschwenk so erfolgen, dass
das wichtige Objekt stets in der Bildmitte ist. Die Grenze des Schwenkwinkels ist genau so
groß, dass der nach wie vor existierende Fixpunkt nicht außerhalb des Bildes liegt. Zuletzt
wurde noch kurz darauf eingegangen, warum eine Rotationsbewegung um ein Objekt
besonders ästhetisch wirken kann.
4.3 Zusammenfassung des vierten Kapitels
Im ersten Abschnitt wurden die Begriffe Zeitraffer und Zeitlupe definiert. Während Zeitrafferaufnahmen mit einer handelsüblichen Videokamera oder einer Digitalkamera aufgenommen werden, bedarf es zur Aufnahme von Zeitlupen einer Hochgeschwindigkeitskamera.
Diese muss die Bilder schneller aufnehmen können, als sie später wiedergegeben werden.
Der Aufnahmeprozess wurde für beide Spezialaufnahmen schematisch dargestellt. Dabei
wurde deutlich, dass es ein ineffizientes und ein effizientes Aufnahmeverfahren gibt.
Zeitlupen werden angefertigt, damit sehr schnell ablaufende Prozesse für den Menschen
besser oder überhaupt sichtbar werden. Zeitraffer geben einen Überblick über sehr lange
andauernde Prozesse. Bei beiden Prozessen werden Bewegungen dargestellt, wobei es eine
optimale Bewegungsdauer geben muss. Mit Hilfe einer Skizze konnte gezeigt werden, wie
in beiden Videoaufnahmen der Prozess zu kurz oder zu lang dargestellt wurde. Die Länge
eines Prozesses ist jedoch von Fall zu Fall verschieden, weshalb eine Verallgemeinerung
nicht stattfinden konnte.
Bei der Visualisierung von Zeitraffern und Zeitlupen ist nicht nur das Darstellen der Bewegung wichtig. Bei einer Kamerafahrt müssen im Video Ruhepunkte oder ein Fixpunkt
vorhanden sein, damit ein Betrachter Orientierungspunkte hat. Ruhepunkte können dabei
durch den Objektmittelpunkt, die Objektbegrenzung, markante Punkte oder Bereiche im
Objekt gegeben sein. Ein Fixpunkt entsteht bei einer Kamerafahrt, bei der sich alle Bildpunkte vom Fixpunkt in Fahrtrichtung wegbewegen und sich in entgegengesetzter Richtung alle Bildpunkte zum Fixpunkt hinbewegen. Dieser Effekt tritt nicht nur bei einer Fahrt,
sondern auch bei einem Flug auf. Die Lage des Fixpunktes muss nicht mit der Position des
zentralen Punktes der Zentralperspektive übereinstimmen.
Besonders wichtig für die Wegbeschreibung im Straßenverkehr sind die Tiefenwahrnehmung und die Mustererkennung vertrauter Objekte. Die Bewegungsparallaxe ist der wichtigste der monokularen Tiefenhinweise, da in jedem Video Bewegungen aufgezeichnet
werden. Anhand verschiedener Skizzen wurde gezeigt, dass die Bewegungsparallaxe nicht
nur bei einem Blick erkennbar wird, der um 90° von der Fahrtrichtung abweicht. Im Falle
einer Rotation um ein Objekt bewirkt die Bewegungsparallaxe sogar, dass sich der Hintergrund schneller bewegt als das rotierende Objekt. Im Bereich des Straßenverkehrs bewegen sich weit entfernte Objekte langsamer als nahe Objekte. Wenn ein nahes Objekt von
hoher Bedeutung ist, muss die Kamera so geschwenkt werden, dass sich das Objekt für
eine bestimmte Zeit im Bildmittelpunkt befindet. Dabei sollte der Fixpunkt nicht außerhalb
des Videobildes liegen.
Der typische Bildaufbau von Kameraaufnahmen aus dem Verkehrsbereich wurde über den
Bildinhalt erörtert. Dabei stellte sich heraus, dass ein und dieselbe Kameraaufnahme aufgrund unterschiedlicher Gegebenheiten entstanden sein kann. Die wichtigste Erkenntnis
Kapitel 4 - Zeitlupen und Zeitraffer
80
lag darin, dass es bei der Entwicklung des Modells für eine Wegbeschreibung irrelevant ist,
ob eine Fahrt konstant bergauf oder auf horizontalem Weg stattfindet. Der Fixpunkt, der
sich genau in Fahrtrichtung ergibt, ist an derselben Stelle im Bild, solange sich das Auto
exakt horizontal oder stetig bergan oder bergab bewegt.
Schließlich wurde noch kurz erwähnt, worauf es bei Zeitlupen und Zeitraffern im Allgemeinen ankommt. Entweder liegt der Fokus auf der Objektbewegung oder auf der Objekttransformation. In bestimmten Fällen treten beide Veränderungen kombiniert auf.
Im nächsten Abschnitt wurde das Modell zur Wegbeschreibung mit Zeitraffern und Zeitlupen entwickelt. Das entworfene Schema zeigte, bei welchen Wegabschnitten Zeitraffer
und in welchen Bereichen Zeitlupen zur Anwendung kommen können. Im Vordergrund
stand zunächst ganz allgemein betrachtet, ob eine Objektbewegung oder einer Objekttransformation aufgezeichnet werden soll. Entsprechend dieser Kriterien muss die Kamera
fest verankert werden oder sich gleichförmig zum Objekt bewegen.
Nun spezialisierten sich die Argumente auf eine Wegbeschreibung im Straßenverkehr. Dazu
wurden acht Regeln aufgestellt, wobei diese Regeln zusammenfassend im Anschluss noch
einmal abgedruckt werden. Für den Straßenverkehr erwies es sich als vorteilhaft, lange
Wegpassagen ohne Richtungsänderung als Zeitraffer darzustellen und Kreuzungsbereiche,
bei denen die Fahrtrichtung geändert wird, als Zeitlupe wiederzugegeben. Damit verbunden ist auch die Objektvielfalt. Während bei langer Fahrt ohne Richtungsänderung mögliche Details nicht von Interesse sind, so muss im Kreuzungsbereich der Blick auf viele Details
ermöglicht werden.
Mit diesen Ergebnissen wurde eine erste Skizze erarbeitet, bei der die unterschiedlichen
Aufnahmetypen, Zeitlupe oder Zeitraffer, eine Anwendung fanden. Der Stadtplanausschnitt
zeigte, welche Fahrbereiche als Zeitraffer und Zeitlupe dargestellt werden können.
Beim Praxiseinsatz wurde deutlich, dass die Länge von Zeitrafferaufnahmen noch nicht
ausreichend gut definiert war. Durch geschicktes Teilen der Zeitrafferaufnahme wurde eine
Lösung gefunden, die sogar einen weiteren Vorteil bietet. Unwichtige Details während der
langen Fahrt ohne Richtungsänderung werden nun aus dem Video herausgeschnitten. Die
Videocliplänge basiert nur noch auf der Länge des Tonkommentars, mit welchem die Wegbeschreibung in fest vorgegebener Satzstruktur angesagt wird.
Anschließend wurden theoretische Untersuchungen zu Kamerabewegungen angestellt.
Daraus ging hervor, dass eine Kamera bei einer Fahrt ein wichtiges Objekt verfolgen muss,
damit der Betrachter des Videos den Fokus auf das Objekt lenkt, anstelle auf dem Fixpunkt
zu verharren. Anhand mehrerer Skizzen wurde dabei verglichen, wo sich der Fixpunkt bei
bestimmten Blickwinkeln der Kamera befindet.
Der letzte Abschnitt befasste sich mit der theoretischen Betrachtung des Spezialfalls einer
Rotation um ein Objekt. Wichtig für einen Nutzen im entwickelten Modell zur Wegbeschreibung sind vor allen Dingen zwei Kriterien: Erstens sollte die Rotationsachse durch das
Objekt verlaufen und zweitens bewegt sich der Hintergrund schneller als das Objekt. Dieser
Effekt ist durch die Bewegungsparallaxe begründet. Am Beispiel der Aufnahme des Taufsteins wird dies im nächsten Kapitel besonders deutlich. Die angestellten theoretischen Untersuchungen werden unter Beachtung der Regeln im nächsten Kapitel praktisch getestet.
Kapitel 4 - Zeitlupen und Zeitraffer
81
4.3.1 Überblick zu den Regeln
Regel 1 – Aufnahmen mit Objekttransformation
Liegt der Schwerpunkt der Betrachtung auf der Objekttransformation, ist die Kamera so
zu verankern oder zu führen, dass sich der Objektmittelpunkt immer im Bildmittelpunkt
befindet.
Regel 2 – Aufnahmen mit Objektbewegung
Liegt der Schwerpunkt der Betrachtung auf der Objektbewegung, ist die Kamera gegenüber dem Objekt in geeigneter Position, Richtung und Entfernung fest zu verankern.
Regel 3 – Wann Zeitlupe und wann Zeitraffer?
Die Aufnahmefrequenz kann klein sein, wenn in den Bildern nur wenige Details und zwischen den Bildern geringe Veränderungen vorliegen.
Sind die Bilder detailreicher und liegen zwischen den einzelnen Bildern größere Veränderungen vor, ist eine hohe Aufnahmefrequenz erforderlich.
Regel 4 – Wegbeschreibung mit Zeitlupen und Zeitraffern
Zeitlupen werden in Kreuzungsbereichen eingesetzt, an denen sich die Fahrtrichtung eines
Fahrzeugs ändert. Zeitraffer werden von den Fahrstrecken erstellt, bei denen über einen
längeren Zeitraum keine Richtungsänderungen auftreten.
Regel 5 – Abspielgeschwindigkeit von Zeitraffern
Sollte ein Zeitraffer Z maximal nur mit x-facher Geschwindigkeit angezeigt werden, und
übersteigt die Dauer des Zeitraffers die gewünschte Dauer t, wird der Zeitraffer mit x-facher Geschwindigkeit in drei Teile Z1, Z2 und Z3 zerlegt.
Z1 dauert ½t und Z3 dauert ½t.
Z2 wird nicht angezeigt.
Z1 und Z3 werden wiedergegeben.
Regel 6 – Einschränkung für Zeitraffer
Zeitrafferaufnahmen sind ungeeignet, wenn der Information dienende Objekte am Wegesrand vorkommen, auch wenn die Fahrtrichtung beibehalten wird.
Regel 7 – Schwenk auf informative Objekte
Wenn ein der Information dienendes Objekt am Wegesrand auftritt, muss ein Kameraschwenk so erfolgen, dass das betreffende Objekt im Bildmittelpunkt erscheint. Sobald
das Objekt aufgrund der Bewegung den Mittelpunkt verlässt, muss die Kamera zurück in
die Ausgangsstellung schwenken.
Regel 8 – Rotation um ein Objekt
Rotiert die Kamera um ein festes Objekt, muss die Rotationsachse durch das zu betrachtende Objekt verlaufen.
Kapitel 5 - Praktische Untersuchungen
83
Kapitel 5 – Praktische Umsetzungen
In diesem Kapitel werden praktische Einsatzgebiete für Zeitlupen und Zeitraffer
erörtert. Die beschriebenen Anwendungen
für Zeitlupen stammen häufig von Firmen,
die sich auf die Produktion von Zeitlupen
spezialisiert haben, wogegen bei Zeitraffern
auch Beispiele untersucht werden, die vom
Autor selbst erstellt wurden. Diese beziehen
sich vorrangig auf die Wegbeschreibung
mit Hilfe der beiden Spezialaufnahmen.
Dabei werden die im vierten Kapitel aufgestellten Regeln angewendet und für den
Praxiseinsatz modifiziert. Bei der Wegbeschreibung dauert jeder Abbiegevorgang in
einem Kreuzungsbereich etwa gleich lange.
Es wird zu sehen sein, dass die Länge der
Zeitrafferaufnahmen für jeden Wegabschnitt
dynamisch angepasst werden muss, da die
Fahrtzeit bei einer Fahrt mit ungeänderter
Fahrtrichtung sehr unterschiedlich sein kann.
Die Praktischen Umsetzungen des Autors
erfolgten mit diesen technischen Hilfsmitteln: Sony VX2000 DV-Kamera, Canon XL1
DV-Kamera, Canon Powershot A80 Digitalkamera und in Kombination zur Digitalkamera ein tragbarer Computer mit einem
mobile AMD Athlon XP-M 2800+ Prozessor
und einer Taktfrequenz von 1.45 Gigahertz,
512 Megabyte Arbeitsspeicher und einer
Festplatte mit 60 Gigabyte Speicherkapazität. Die Videodaten wurden per Firewire auf
den Computer überspielt und dort bearbeitet. Der Laptop besaß drei USB 2.0-Schnittstellen. Da die Digitalkamera jedoch nur
USB 1.1 unterstützte, wurde die Übertragungsgeschwindigkeit durch den Computer
nicht gebremst.
Abbildungen 73-75
Der Autor erstellte die praktischen Arbeiten mit
einer Sony VX2000 DV-Kamera (oben), einer
Canon XL1 DV-Kamera (mitte) und einer Canon
Powershot A80 Digitalkamera (unten).
5.1 Einsatzgebiete von Zeitlupen und Zeitraffern
Zeitlupen sind für die Forschung von hoher Bedeutung, da durch sie sehr schnell ablaufende Bewegungen zeitlich stark verlängert werden können, sodass das menschliche Auge
diese beobachten und untersuchen kann. Die Anwendung von Zeitlupenaufnahmen erfolgt
jedoch nicht nur für wissenschaftliche Zwecke, sondern auch für die Werbeindustrie. Spezialaufnahmen mit wissenschaftlichem Hintergrund werden hier vorrangig untersucht und
dafür in verschiedene Anwendungsgebiete unterteilt.
Kapitel 5 - Praktische Untersuchungen
84
5.1.1 Zeitlupen mit wissenschaftlichem Hintergrund
Die für wissenschaftliche Zwecke erstellten Zeitlupen erstrecken sich über viele Anwendungsgebiete, wie zum Beispiel: Verkehrssicherheit, Ballistik, Materialtechnik, Elektrotechnik und die Biologie. Die Zeitlupen dienen dabei vorwiegend dem Sichtbarmachen von
schnell ablaufenden Prozessen, die mit bloßem Auge nicht mehr wahrgenommen werden
können.
5.1.1.1 Verkehrssicherheit
Das Hauptziel bei der Verkehrssicherheit besteht darin, Fahrzeuge sicherer zu bauen, sodass
bei einem Unfall das Leben des Fahrers und gegebenenfalls weiterer Insassen weitestgehend geschützt wird. Zeitlupenstudien werden hierfür angefertigt, um verschiedene Unfallsituationen analysieren zu können. Dabei sind verschiedene Faktoren besonders wichtig.
Als Fahrer werden Crash-Test-Dummys eingesetzt, an denen Messgeräte das Verhalten
bei einem Test messen. Der Crash-TestDummy ist eine Puppe, die in ihren Ausmaßen, dem Gewicht und der Bewegungsfreiheit einem Menschen entspricht. Oft erhält
er alltägliche Kleidung, damit die Versuche
möglichst realitätsnah sind. Die Gelenke
eines Crash-Test-Dummys können nicht anders gedreht oder gedehnt werden, als sie
beim durchschnittlichen Menschen bewegt
werden könnten. Die Zeitlupenaufnahme
soll Aufschluss darüber geben, wie, wo und
wodurch der Crash-Test-Dummy verletzt
wird, beziehungsweise wie diese Verletzungen künftig vermieden werden können.
Abbildung 76
Zwei Crash-Test-Dummys werden für einen Sicherheitstest in Position gebracht.
Ein weiteres Augenmerk liegt auf der Verformung des Fahrzeugs. Damit sich beispielsweise
bei einem Aufprall die Karosserie eines Autos vorwiegend in der Knautschzone verformt,
werden die Front-, Seiten- und Heckpartien entsprechend so konstruiert, dass die Fahrgastzelle weitestgehend ihre Form beibehält. Die Analyse der Filmaufnahmen ist dabei auf das
ganze Fahrzeug, beziehungsweise auf die Verformung ganz bestimmter Teile gerichtet.
Ebenso kann mit Zeitlupenaufnahmen in der Verkehrstechnik überprüft werden, ob die
Technik des Autos funktioniert. Wenn das Fahrzeug über Airbags verfügt, soll der Fahrerairbag bei einem frontalen Zusammenstoß den Aufprall des Fahrers auf das Lenkrad
verhindern oder dämpfen. Dieser Schutz ist aber nur dann wirksam, wenn sich der Airbag
bei einem Unfall schnell genug öffnet. Nach [Hug 2006] benötigt ein Airbag ungefähr
50 Millisekunden zum Entscheiden, ob er sich öffnet, zum Zünden der Sprengkapsel und
schließlich zum Aufblasen. Für eine genaue Analyse dieses Vorgangs kann die Zeitlupenaufnahme von hoher Bedeutung sein.
Kapitel 5 - Praktische Untersuchungen
85
Abbildungen 77-79
Diese Zeitlupenstudien
sind Beispiele für Unfallanalysen zur Erhöhung
der Verkehrssicherheit.
Dabei werden vorrangig zwei Aspekte untersucht. Ein Schwerpunkt
liegt beim Material, wie
es sich verformt, oder
ob es sogar bricht, und
wie es zersplittert. Das
Hauptziel ist, den Fahrer vor Verletzungen zu
schützen. Dazu werden
häufig Crash-Test-Dummys eingesetzt, die den
zweiten Kern solcher
Untersuchungen bilden.
Anhand der Messdaten
wird überprüft, ob sich
ein Mensch in dieser
Situation verletzt hätte.
Links:
Motorradunfall im
Kreuzungsbereich:
Durch ein [Weinberger Vision 2006]
Video kann aufgeklärt
werden, wodurch es
in diesem Fall zum
Hüftbruch kam und
wie wichtig das Tragen
eines Motorradschutzhelmes ist.
Mitte:
Gurt-Test bei einem
Auffahrunfall: Im
zweiten Video von
[Weinberger Vision
2006] wird untersucht,
wie stark der Gurt eines
Autositzes nachgeben
darf, damit der Kopf
des Fahrers nicht auf
das Lenkrad schlägt.
Rechts:
Frontalkollision eines
Formel 1 Autos: Das
[Photron 2006] Video
zeigt, dass die Fahrerzelle erhalten bleibt,
obwohl der Rennwagen
frontal in eine Betonmauer fährt.
Kapitel 5 - Praktische Untersuchungen
86
Abbildungen 80
Am 18. Januar 2005 wurde der Airbus A380 erstmals der Öffentlichkeit vorgestellt.
Das Zweite Deutsche Fernsehen [ZDF 2006] berichtete über Crashund Materialtest am Airbus A380. Nach Christoph Schremp ist das
Hauptanliegen bei den Crashtests die Sicherheit der Passagiere an
Bord. Bei einer Bruchlandung entstehen große Kräfte, sodass die
Passagiere in ihren Sitzen nach vorn geschleudert werden. Dabei
dürfen die Passagiere ihr Bewusstsein nicht verlieren, damit sie sich
nach dem Unfall selbst noch aus den Sitzen befreien und das Flugzeug verlassen können.
Insbesondere wird mit Hilfe von Crash-Test-Dummys untersucht, wo
der Kopf auf den Vordersitz aufschlägt. Untersuchungen ergaben,
dass ein Aufprall auf den ausklappbaren Tisch besonders gefährlich
ist, wohingegen der im Vordersitz integrierte Monitor einen guten
Schutz bietet.
Die Materialtests beziehen sich dabei nicht nur auf Gegenstände
im Flugzeug. Peter Bösch leitete die Überprüfung der Tragflächen,
bei der getestet wurde, ob diese durchschnittlichen und extremen
Belastungen standhalten. Bei normalem Flugbetrieb kann die Belastung auf die Tragflächen so hoch sein, dass die Tragflächenspitze
um vier Meter nach oben gebogen wird.
Ein anderer extremer Härtetest bei der Firma Boeing in Toulouse
(Frankreich) in den neunziger Jahren zeigte, dass der untersuchte
Flügel brach, sobald die Flügelspitze etwa acht Meter nach oben
gebogen wurde. Obwohl dieser Fall im späteren Flugbetrieb niemals eintreten sollte, geben Zeitlupenaufnahmen großen Aufschluss
darüber, wie der Flügel bricht, und wo sich die Schwachstellen des
Flügels befinden. Um diesen kritischen Punkt zu vermeiden, werden
bei derartigen Tests auftretende Rissbildungen mit Kameras aufgezeichnet und genau untersucht.
Abbildung 81
In einem Dokumentarfilm zur Flugsicherheit
werden die Sitze und
Flügel verschiedener
Flugzeuge getestet.
Kapitel 5 - Praktische Untersuchungen
87
5.1.1.2 Ballistik
Nach Richard Emil Kutterer in [Schardin 1938] ist die Ballistik (griechisch: werfen) „Die
Lehre von den geworfenen Körpern“. Es ist ein Teilbereich der Physik und beschreibt die
Vorgänge, die einen sich durch den Raum bewegenden Körper betreffen. Als Vater der
Ballistik gilt der Italiener Niccolò Tartaglia. Er entdeckte die Wurfparabel und erkannte die
Möglichkeit, die Bewegungen von geworfenen Körpern in ihre Einzelkomponenten zu
zerlegen und damit zu berechnen. Insbesondere werden in der Ballistik die Vorgänge beschrieben, die aus einer Waffe verschossene Projektile betreffen. Hierbei werden folgende
Unterbereiche angesprochen:
-
Innenballistik: Vorgänge im Lauf einer Waffe beim Abschuss eines Projektils
Abgangsballistik: Vorgänge an der Laufmündung einer Waffe beim Schuss
Außenballistik: Vorgänge während des Fluges am verschossenen Projektil
Zielballistik: Wirkung des Projektils im Ziel
Raketenballistik: Wirkung des Projektils im Ziel
Von einer ballistischen Rakete spricht man, wenn diese im Unterschied zum aerodynamischen Flug eine ballistische Kurve fliegt, welche bei gegebener Menge an Treibstoff theoretisch und praktisch die höchste Reichweite ergibt. Hierbei wird die Rakete nur in der Abschussphase beschleunigt und fliegt dann im Allgemeinen ohne Antrieb wie ein Geschoss
weiter, jedoch nicht zwingend ungesteuert.
Bei Versuchen, die insbesondere militärischen Zwecken dienen sollen, werden zum Beispiel
Pistolen beim Abschuss eines Projektils gefilmt, um hauptsächlich Kenntnis über vier Dinge
zu erhalten: Erstens wird untersucht, ob das Projektil den Lauf ordnungsgemäß verlässt
und zweitens, ob die zurückbleibende Hülse effizient aus der Pistole geworfen wird. Eine
Aufnahme der dritten Phase, der Flugphase, gestaltet sich häufig sehr schwierig, da die
abgeschossenen Projektile große Entfernungen zurücklegen können. Von großer Bedeutung ist schließlich die vierte Phase, bei der das Projektil in das Ziel einschlägt. Hierbei wird
meistens untersucht, ob das Material dem Geschoss standhält. Analysen werden beispielsweise im Bereich der Entwicklung von Sicherheitsglas, kugelsicheren Westen oder Fahrzeugen durchgeführt.
Die Abbildungen auf der folgenden Seite visualisieren vier Beispiele. Das erste ist aus dem
Bereich der Innenballistik und zeigt das Feuern einer Pistole. Damit der nächste Schuss
schnell nach dem ersten erfolgen kann, muss unter anderem die Hülse rapide und effizient
aus dem Lauf der Pistole fliegen. Die Aufnahme stammt von [Weinberger Vision 2006],
ebenso wie die nächste. Bei ihr wurde der Videoclip, der das Austreten des Projektils aus
der Pistole zeigt, mit 10.000 Bildern pro Sekunde aufgenommen.
Die letzten beiden Beispiele wurden von Kameras der Firma [Photron 2006] aufgezeichnet.
Beim dritten Beispiel wird die Zielballistik am Einschlag eines Projektils in einen Eisblock
überprüft. Diese Aufnahme erfolgte bei einer Auflösung von 768 x 656 Pixel und einer Belichtungszeit von 25 Mikrosekunden mit 6.000 Einzelbildern pro Sekunde. Der vierte Clip,
aus dem Bereich der Raketenballistik, zeigt den Abschuss einer Rakete vom Typ Dragon.
Bereits bei 3.000 Bildern pro Sekunde, einer Belichtungszeit von 300 Mikrosekunden und
der Auflösung von 1.024 x 1.024 Pixel wird gut ersichtlich, dass sich die drei Flügel unmittelbar nach dem Abfeuern korrekt ausgeklappt haben.
Kapitel 5 - Praktische Untersuchungen
88
Abbildungen 82-85
Die Zeitlupenaufnahmen verdeutlichen
den Auswurf einer
Patronenhülse beim
Abfeuern aus einer
Pistole, den Abschuss
eines Projektils aus
einer Pistole, den
Einschlag einer Kugel in
einen Eisblock und den
Abschuss einer ballistischen Rakete vom Typ
Dragon.
Kapitel 5 - Praktische Untersuchungen
89
5.1.1.3 Materialtechnik
In der Materialtechnik wird vorrangig das Verhalten von Stoffen unter extremen Belastungen analysiert. Ähnlich dem Brechen des Flügels bei Untersuchungen zur Flugsicherheit ist
häufig von hoher Bedeutung, wann, wo und wie das Material reißt, zerbricht oder zersplittert. Jedoch werden nicht nur Zeitlupenstudien von festen Körpern analysiert, sondern
auch von Flüssigkeiten oder Gasen. Nach der Durchführung mehrerer Versuchsreihen kann
ermittelt werden, welche Materialzusammensetzung die stabilste war.
Nach [Krankenhagen, Laube 1983] umfasst die Werkstoffprüfung verschiedenste Prüfverfahren, mit denen das Verhalten und die Werkstoffkenngrößen von normierten Werkstoffproben oder fertigen Bauteilen unter mechanischen, thermischen oder chemischen
Beanspruchungen ermittelt werden. Ein Werkstoff wird dabei hinsichtlich seiner Reinheit,
Fehlerfreiheit oder Belastbarkeit überprüft. Nach der Art werden die gängigen Prüfverfahren in zwei Hauptbereiche aufgeteilt: zerstörende und zerstörungsfreie Werkstoffprüfungen.
Im ersten Beispiel wird eine Werkstoffprobe aus Metall auseinandergezogen, bis das Werkstück reißt. Bei dem Experiment wurde untersucht, ob das Prüfstück gleichmäßig gefertigt
wurde. In diesem Fall hat sich das Metall gedehnt und ist anschließend in der Mitte gerissen. Nach der Aufzeichnung des Experimentes mit einer Kamera von [Weinberger Vision
2006] bei einer Bildrate von 4.000 Bildern pro Sekunde lässt sich gut nachvollziehen, nach
welcher Zeit sich im Werkstück an einer bestimmten Stelle eine Einschnürung ausbildet und
schließlich genau an dieser Stelle reißt.
[Photron 2006] wies bei einem anderen Test mit Hilfe der Kamera Fastcam X 1024 PCI
100KC nach, wie ein Schaufenster aus Sicherheitsglas einer gezündeten Sprengladung
standhält. Dabei soll durch eine besondere Bauweise verhindert werden, dass das Material, hier das Glas, bricht oder zersplittert. Der Test war erfolgreich, sodass in dem Videoclip
außer einer Explosion hinter der Glasscheibe nichts zu sehen ist. Daher wurde diese Aufnahme hier nicht abgedruckt. Dieser und alle anderen Videoclips befinden sich jedoch auf
der zur Diplomarbeit gehörenden DVD im Anhang E.
Ein anderes Beispiel zeigt einen Pfeil, der sich durch eine gewöhnliche Glasscheibe bohrt. In
der Zeitlupe wird gut ersichtlich, dass die Scheibe beim Auftreffen der Pfeilspitze zunächst
nur springt, jedoch noch nicht zersplittert. Erst durch die Trägheit des Geschosses kann das
Glas einen Durchbruch des Pfeils nicht mehr verhindern.
Der wissenschaftliche Nutzen der letzten beiden Beispiele ist eher begrenzt. Es wird ein mit
Wasser gefüllter Luftballon zum Platzen gebracht. Dabei wird er mit einer Photron Fastcam
Ultima APX 120 KC bei einer Bildrate von 4.000 Bildern pro Sekunde und einer Auflösung
von 1.024 x 512 Pixel gefilmt. Es wird deutlich, wie schnell sich der Gummi des Luftballons
zusammenzieht, verglichen mit der Zeitdauer, bis das Wasser die Form des Luftballons
verliert.
Das letzte Beispiel verdeutlicht das Zünden des Gases eines Feuerzeugs. Die Firma [Weinberger Vision 2006] erzielte beeindruckende Bilder, wie die Funken des Feuersteins das
entweichende Gas entzünden. Erst mit Hilfe dieser Zeitlupenaufnahmen wird ersichtlich,
wie sich die Flamme aufbaut, bevor sie ruhig und gleichmäßig brennt.
Kapitel 5 - Praktische Untersuchungen
90
Abbildungen 86-89
Eine Werkstoffprobe
zerreißt an der Stelle
der Einschnürung. Das
zweite Beispiel zeigt,
wie sich ein Pfeil durch
eine Glasscheibe bohrt.
Wie ein mit Wasser
gefüllter Luftballon
platzt und wie sich die
Flamme eines Feuerzeugs entzündet, geht
aus den letzten beiden
Beispielen hervor.
Kapitel 5 - Praktische Untersuchungen
91
5.1.1.4 Elektrotechnik
In der Elektrotechnik wird hauptsächlich im Kerngebiet des Schweißens untersucht, ob
dieser Prozess ordnungsgemäß abläuft. Unter Schweißen wird gemäß DIN 1910-1 das unlösbare Verbinden von Bauteilen unter Anwendung von Wärme oder Druck, mit oder ohne
Schweißzusatzwerkstoffen, verstanden. Neben sehr vielen unterschiedlichen Methoden des
Schweißens konzentrieren sich die folgenden Darstellungen auf das Schutzgasschweißen
(SG) nach DIN ISO 857-1:2002-11 und hier speziell auf das Wolfram-Inertgasschweißverfahren (WIG).
Nach [Dilthey, Brandenburg 2001] stammt das WIG-Schweißverfahren aus den USA und
wurde dort 1936 unter dem Namen Argonarc-Schweißen bekannt. Das Verfahren zeichnet
sich gegenüber anderen Schmelzschweißverfahren durch eine Reihe von Vorteilen aus. Es
ist zum Beispiel universell anwendbar. Wenn ein metallischer Werkstoff überhaupt schmelzschweißgeeignet ist, dann lässt er sich mit diesem Verfahren fügen. Weiterhin ist es ein
sehr sauberes Verfahren, das kaum Spritzer und nur wenig Schadstoffe erzeugt und bei
richtiger Anwendung eine qualitativ hochwertige Schweißverbindung gewährleistet.
Ein besonderer Vorteil des WIG-Schweißens ist, dass gegenüber anderen Verfahren, die
mit abschmelzender Elektrode arbeiten, die Zugabe von Schweißzusatz und die Stromstärke entkoppelt sind. Der Schweißer kann deshalb seinen Strom optimal auf die Schweißaufgabe abstimmen und nur so viel Schweißzusatz zugeben, wie gerade erforderlich ist.
Dies macht das Verfahren besonders geeignet zum Schweißen von Wurzellagen und zum
Schweißen in Zwangslagen. Die genannten Vorteile haben dazu geführt, dass sich das
Verfahren besonders gut für Schweißungen von Luft- und Raumfahrtgeräten, Bauteile der
Kerntechnik sowie für den chemischen Anlagen- und Apparatebau eignet.
Bei der WIG-Schweißung wird zwischen dem Gleichstrom- und dem Wechselstromschweißen unterschieden. Das Gleichstromschweißen wird vorwiegend zum Schweißen von
legierten Stählen, NE-Metallen und deren Legierungen eingesetzt. Die Wolframelektrode
liegt dabei auf dem Minuspol. Die Anwendung des Wechselstromschweißens erfolgt meist
beim Schweißen von Leichtmetallen.
Eine Weiterentwicklung des WIG-Schweißens ist das Schweißen mit pulsierendem Strom.
Dabei pulsiert der Schweißstrom zwischen einem Grund- und Impulsstrom mit variablen
Frequenzen. Die fein dosierbare Wärmeeinbringung beim WIG-Impulsschweißen ermöglicht eine gute Spaltüberbrückung und eine gute Wurzelschweißung. Schweißnahtfehler
am Nahtanfang und Nahtende werden vermieden. Beim Rohrschweißen ist das zum Beispiel von großer Bedeutung.
Mit Hilfe der Zeitlupenstudien kann nun überprüft werden, ob eine nach diesem Verfahren
erzeugte Schweißnaht gleichmäßig und ohne Störstellen hergestellt wird. [Photron 2006]
erstellte die linke Aufnahme mit einer Photron Fastcam Ultima APX RS 250K und einer
Auflösung von 1.024 x 512 Pixel, 3.000 Bilder pro Sekunde und einer Belichtungszeit von
100 Mikrosekunden. Die rechte Studie wurde mit einer Hochgeschwindigkeitskamera von
[Weiberger Vision 2006] angefertigt.
Kapitel 5 - Praktische Untersuchungen
92
Abbildungen 90, 91
Impulsschweißen
Die Schweißanlage
besteht aus einer
Stromquelle, die in
den meisten Fällen auf
Gleich- oder Wechselstrom geschaltet
werden kann, und
einem Schweißbrenner,
der mit der Stromquelle
durch ein Schlauchpaket verbunden ist. Im
Schlauchpaket befinden
sich die Schweißstromleitung, die Schutzgaszuführung, die
Steuerleitung und bei
größeren Brennern der
Zu- und Rücklauf des
Kühlwassers.
Es gibt zwei Arten, den
Lichtbogen zu zünden,
die Kontakt- und die
Hochfrequenzzündung. Bei der hier
dargestellten Hochfrequenzzündung wird
mit Hilfe eines Hochfrequenzzünders, der eine
extrem hohe Spannung
auf die Wolframelektrode gibt, das Gas
zwischen Elektrode und
Werkstück ionisiert,
wodurch der Lichtbogen gezündet wird.
Dieser Vorgang wird
je nach Bedarf wiederholt, wobei der Lichtbogen durch weitere
Impulse gezündet wird.
Bei dieser Methode des
Schweißens können
Temperaturen bis zu
4.000 °C entstehen.
Kapitel 5 - Praktische Untersuchungen
93
5.1.1.5 Biologie
Beispiele für Zeitlupenstudien aus dem Bereich der Biologie gibt es sehr viele. Dabei ist
für den Menschen häufig nicht nur interessant, wie sich Tiere oder Pflanzen verhalten,
sondern ob sie darin versteckte Prinzipien
auf anderen Gebieten anwenden können.
Bereits [Lilienthal 1889] erkannte, dass es für
den Bau von Ornithoptern sinnvoll erscheint,
Vögel beim Fliegen zu analysieren, um einen
hohen Wirkungsgrad dieser Flugmaschinen
zu erzielen. Ein Ornithopter (im altgriechischen: Vogelflügel) ist ein Schwingflügelflugzeug, das Auftrieb und Vortrieb durch
Bewegung der Tragflächen erzeugt. Auch
Abbildung 92
[Bradshaw 2006] berichtete, dass Edward
Das Foto von [Bradshaw 2006] zeigt Eadward
Frost aus Cambridgeshire, England, 1902
Frost in seinem Ornithopter.
einen Ornithopter aus Weidegras, Seide und
Vogelfedern konstruierte.
Die erste Studie zur Bewegung eines Pferdes führte Eadweard Muybridge bereits im Jahr
1878 durch, vergleiche [Fröde 2005, Seite 29]. Die damit praktisch erste Zeitlupe der Welt
wurde angefertigt, um zu zeigen, dass ein galoppierendes Pferd zu einem bestimmten
Zeitpunkt alle Beine in der Luft hat. Das erste Beispiel zeigt eine ähnliche Aufnahme von
[Science Media 2006] und dient der Optimierung der Absprungtechnik von Pferd und Reiter beim Springreiten.
Jedoch werden Zeitlupenstudien nicht nur angefertigt, damit sich der Mensch schnell ablaufende Prozesse ansehen und für eigene Anwendungen zu Nutze machen kann, sondern
auch um diese überhaupt zu verstehen. Um nachvollziehen zu können, wie ein Chamäleon
seine Beute fängt, hilft diese zweite Aufnahmefolge von Science Media. [Dost 2007] beschrieb, dass Chamäleons über eine lange Schleuderzunge verfügen, mit der sie auch über
größere Entfernungen ihre Beute erjagen können. Die Länge der Zunge entspricht meistens
in etwa der Körperlänge des Tieres.
Das dritte Beispiel zeigt einen Schlangenbiss. Mit Hilfe einer Aufnahme der Photron Fastcam Ultima 1024 16KC, 1.000 Bildern pro Sekunde und einer Belichtungszeit von einer
Millisekunde wird der Schutzmechanismus einer Giftschlange deutlich. Nach Meyers Neuem Lexikon [MNL 1973] liegt die Schlange zunächst fast regungslos am Boden. Kommt das
Opfer der Schlange zu nahe, schleudert sie ihren Körper in Richtung Gefahr, reißt ihr Maul
auf und injiziert ihrem Opfer das Gift durch die hohlen Giftzähne.
Das letzte Beispiel zeigt einen Spatz, der nach kurzem freien Fall von einem Dach mit dem
Flügelschlag beginnt. Bemerkenswert ist hier der Einsatz der Schwanzfedern, die sich ständig spreizen und wieder schließen. Diese Zeitlupenstudie wurde von der Firma Weinberger
Vision aufgezeichnet.
Kapitel 5 - Praktische Untersuchungen
94
Abbildungen 93-96
Ein Pferd kann weiter und höher über
eine Hürde springen,
wenn sich der Reiter
in seinen Bewegungen
dem Pferd anpasst. Die
anderen Aufnahmen
zeigen ein Chamäleon
beim Beutefang, einen
Schlangenbiss und den
Beginn der Flugphase
eines Spatzes.
Kapitel 5 - Praktische Untersuchungen
95
5.1.1.6 Maschinelle Verarbeitung
Bei der maschinellen Verarbeitung werden mit Hilfe von Zeitlupenaufnahmen Untersuchungen angestellt, ob sehr schnell arbeitende Maschinen korrekt funktionieren. Im Laufe der
Industrialisierung mussten Maschinen immer schneller arbeiten, damit bestehende Firmen
konkurrenzfähig blieben. Der Mensch als Arbeitskraft wurde immer teurer, sodass zunehmend eine Automatisierung der Vorgänge stattfand. Zusätzlich sollte die Produktivität gesteigert werden. Es wurden Maschinen gebaut, die bisher von Hand ausgeübte Tätigkeiten
um ein Vielfaches schneller ausführen konnten. Das [Presseportal 2006] berichtete, dass
am 19.04.2005 um 11:00 Uhr in Zürich (Frauenfeld) die modernste und leistungsfähigste
PET-Flaschen-Sortieranlage Europas eingeweiht wurde. Pro Stunde verarbeitet sie bis zu
140.000 Getränkeflaschen, also fast 39 Flaschen pro Sekunde. Dabei wird schnell ersichtlich, dass maschinelle Prozesse mittlerweile so schnell ablaufen, dass sie durch die menschliche Wahrnehmung nicht mehr erfasst werden können. Mit Hilfe der Zeitlupenstudien ist es
möglich, fehlerhaft ablaufende Prozesse zu erkennen und zu korrigieren.
Das erste Beispiel zeigt die Herstellung von
Teebeuteln. Im letzten Schritt wird der Bindfaden mit dem Papier verknotet. Die Maschine schafft zirka 33 Knoten pro Sekunde.
Ein Mensch erkennt bei dieser Geschwindigkeit praktisch keine Details, die jedoch
gut mit Hilfe eine Zeitlupenstudie sichtbar
werden. [Weinberger Vision 2006] zeichnete
diesen Vorgang mit 10.000 Bildern pro Sekunde auf. Bei einer anderen Aufnahme mit Abbildung 97
Die Bindfäden an Teebeuteln werden oft mit Meeiner Photron Fastcam-X 1024 PCI 100KC
tallklammern befestigt. Traditionell hält der Faden
und 10.000 Bildern pro Sekunde wird deut- jedoch ohne weitere Hilfsmittel am Papierschild.
lich, wie zwei Bindfäden maschinell miteinander verknotet werden. Ein Knoten wird dabei in 30 Millisekunden gezogen. Auch diese
Zeitlupe dient der Kontrolle, ob die Mechanik ordnungsgemäß funktioniert.
Das dritte Beispiel zeigt einen Ausschnitt der Produktionskette von Faltschachteln. Ein Saugnapf transportiert die Faltschachteln von einer Verarbeitungseinheit an eine andere. Nach
[Biedermann, Cromme 2006] können Faltschachteln mit Geschwindigkeiten von fünf bis
einhundert Schachteln pro Sekunde hergestellt werden.
Bei den in der Luft- und Raumfahrt eingesetzten Spaceshuttles zählen der Startvorgang
und der Landevorgang zu den kritischsten Phasen. Nach [Grodde 2004] steht das Shuttle mit dem Tank und den beiden Feststoffraketen mit einem Gesamtgewicht von zirka
2.000 Tonnen senkrecht auf der Startrampe. Das Flugobjekt wird von einem Greifarm
gehalten, damit es nicht durch Wettererscheinungen kippen kann. Dieser muss jedoch
unmittelbar beim Abheben vom Raumschiff gelöst werden, wobei dieser Vorgang aus zwei
Schritten besteht. Erstens entfernt sich der Greifarm und zweitens muss sich die Luke am
Raumschiff schließen, damit dieses für den Flug eine aerodynamische Form besitzt. Im letzten Beispiel ist gut zu sehen, dass beide Vorgänge erfolgreich verliefen.
Zeitlupen werden jedoch nicht nur mit einem wissenschaftlichem Hintergrund und einem
unmittelbarem Nutzen in der Wirtschaft erstellt. Der nächste Abschnitt zeigt zwei Beispiele
aus der Werbe- und Filmindustrie, wo Zeitlupen eine bedeutende Rolle spielen.
Kapitel 5 - Praktische Untersuchungen
96
Abbildungen 98-101
Der Bindfaden wird mit
dem Papierschild des
Teebeutels verbunden.
Beispiel zwei zeigt eine
maschinelle Erstellung
eines Knotens. Der
Transport einer Faltschachtel erfolgt durch
einen Saugnapf. Bei einem Raketenstart muss
der Greifarm rechtzeitig
entfernt und die Luke
geschlossen werden.
Kapitel 5 - Praktische Untersuchungen
97
5.1.2 Zeitlupen ohne wissenschaftlichen Hintergrund
Zeitlupenstudien ohne wissenschaftlichen Hintergrund sind solche, aus denen unmittelbar
und direkt kein Nutzen gezogen wird. Sie werden in der Werbung und in Spielfilmen als
Spezialeffekte eingesetzt, weil es in den meisten Fällen einfach gut aussieht und besonders ästhetisch wirkt. Ohne zu sehr in die Tiefe zu gehen, werden an dieser Stelle nur zwei
Beispiele genannt.
Beim ersten Beispiel handelt es sich um einen Werbespot für [Adidas 2005], der am
11.11.2005 veröffentlicht wurde. Die Zeitlupenaufnahmen des Werbespots zur Fußball
Weltmeisterschaft 2006 sind mit einer Cine SpeedCam von Weinberger Vision mit 1.000
Bildern pro Sekunde entstanden. Der 60 Sekunden lange Werbeclip konnte im Kino und im
deutschen Fernsehen betrachtet werden. Die Kampagne sollte ausdrücken, was das Individuum für das Team leisten kann, und was das Team den einzelnen Individuen bieten kann.
Der Spot wurde im High Definition Format produziert. In der Nachproduktion wurden die
Zeitlupenaufnahmen mit den Aufnahmen der High Definition Kamera kombiniert. Das
Resultat zeigte unter anderem, wie zum Beispiel ein Spieler in Zeitlupe einen Fallrückzieher
durchführt, während er in Echtzeit in die Kamera spricht.
Ein anderes Beispiel kommt aus der Filmbranche von den Gebrüdern [Wachowski 1999].
Der im Film The Matrix verwendete Bullet-Time-Effect stellt eine besondere Form der
Zeitlupe dar. Bisher wurden Zeitlupen häufig erstellt, indem eine Hochgeschwindigkeitskamera die Bilder schneller aufnahm, als sie danach abgespielt werden. Bei diesem Spezialeffekt werden anstelle einer Kamera mehrere Kameras eingesetzt. In dem speziell für diesen
Film entwickelten runden Raum befanden sich zwei Hochgeschwindigkeitskameras und
120 Kameras, die in einer Kreisbahn angeordnet wurden. Die Hochgeschwindigkeitskameras waren zu jeder Zeit in der Lage, Zeitlupenaufnahmen zu erstellen. Die anderen 120 Kameras wurden durch einen Computer entweder zeitgleich oder nach einem äußerst kurzen
Zeitintervall aktiviert. Löste der Computer die Kameras gleichzeitig aus, so entstand eine
Form der extremen Zeitlupe. Für einen ganz bestimmten Zeitpunkt war es nun möglich,
das gefilmte Objekt von allen Seiten zu betrachten. Beim Auslösen der Kameras musste
lediglich darauf geachtet werden, dass Kamera n+1 weniger als ein Fünfundzwanzigstel
Sekunden nach Kamera n ausgelöst wurde.
Wird eine Zeitlupe mit den gegebenen 120 Kameras erstellt, so entsteht ein Videoclip mit
120 Einzelbildern. In der Originalversion des Filmes werden die Bilder mit einer Geschwindigkeit von 30 Bildern pro Sekunde abgespielt. Damit hat der Videoclip eine Länge von vier
Sekunden. Um den Genuss der Zeitlupe noch etwas zu verlängern, wurden weitere Zwischenbilder mit einem Computer berechnet.
Die aus dem Making Of von [Oreck, Matthies 1999] entnommenen Bilder visualisieren den
Aufbau des Raumes und geben einen Einblick in die computertechnischen Möglichkeiten
mit diesen Aufnahmen. Die ersten drei Bilder geben einen Überblick zum Aufnahmeort.
Die folgenden Abbildungen zeigen den Hauptdarsteller Keanu Reeves in einer Fallbewegung im Studio, in einer Computergrafik zur Vorbereitung eines Videoclips, als Computermodell, als Schauspieler mit einem einfarbig grünem Hintergrund, eingebettet in eine
computergenerierte Landschaft als Drahtgittermodell und schließlich in der Szene, wie sie
im Film zu sehen ist.
Kapitel 5 - Praktische Untersuchungen
98
Abbildungen 102-103
Die hier abgebildeten
Zeitlupenaufnahmen
sind aus der Werbeund Filmindustrie.
Links:
Diese Adidas Werbung
wurde zur Fußball WM
2006 im deutschen
Fernsehen ausgestrahlt.
Während der Spieler
bei einem Fallrückzieher
in Zeitlupe zu sehen ist,
spricht er in Echtzeit in
die Kamera.
Rechts:
Aufbau des Bullet-TimeEffects aus dem Film
The Matrix. 120 Kameras sind auf einer
Kreisbahn angeordnet.
Diese werden in einem
Bruchteil einer Sekunde
ausgelöst, sodass der
Betrachter in Zeitlupe
um den Hauptdarsteller
fliegt. Kombiniert werden diese Aufnahmen
mit einer computergenerierten Welt.
Diese Technik wurde
in dieser Form 1999
von den WachowskiBrüdern das erste Mal
umgesetzt. Seitdem
gehört dieser Spezialeffekt in Hollywood zum
Standard.
Kapitel 5 - Praktische Untersuchungen
99
5.1.3 Zeitraffer mit wissenschaftlichem Hintergrund
Zeitraffer dienen weniger der Untersuchung, sondern vielmehr der Visualisierung von sehr
langsam ablaufenden Prozessen. Ein wissenschaftlicher Nutzen ergibt sich nur dann, wenn
der Forscher aufgrund der Dauer des Prozesses nicht in der Lage ist, ihn vollständig in
Echtzeit zu überwachen. In einem solchen Fall wird die Aufnahme des Prozesses automatisiert. Der Wissenschaftler hat nach entsprechender Zeit oder nach Ablaufen des Prozesses
die Möglichkeit, das Geschehen im Schnelldurchlauf zu betrachten. Ist im Vorfeld bereits
abschätzbar, wie lange der Prozess andauern wird, so kann das Aufnahmeintervall genau
bestimmt werden. Eine andere Methode besteht darin, dass ein festes Intervall vorgegeben
wird, und ein Versuch mit ungewissem Ausgang aufgenommen wird.
Es ist also schwierig vorherzusehen, ob die unter Umständen sehr lange andauernde Aufnahme zum gewünschten Erfolg führt. Dennoch können derartige Aufnahmen eine gute
Zusammenfassung sein und geben dem Betrachter eine Übersicht über das Ganze. Einige
Beispiele sollen dies verdeutlichen.
[Wiesner 1881] untersuchte das Bewegungsvermögen von Pflanzen. Interessant dabei
ist, wie sich die Zellen strecken, beziehungsweise wohin sie sich strecken. Da der Prozess sehr lange dauert, gewinnt ein Betrachter in Echtzeit eher den Eindruck, dass sich
über mehrere Minuten nichts verändert. Erst
im Zeitraffer wird deutlich, wie sich die Blüte
öffnet. Bei entsprechender Dunkelheit und
anschließend starker Beleuchtung kann dieser Vorgang noch relativ schnell ablaufen.
Wird dagegen das Ausrichten einer Sonnenblume in natürlicher Umgebung untersucht,
so müsste der Betrachter einen halben Tag
die Blumen anschauen. Beim Ansehen des
Zeitraffers kann innerhalb weniger SekunAbbildung 104
den deutlich werden, dass sich die meisten
Die Eigenschaft, dass sich alle Sonnenblumen nach
Sonnenblumen zur Sonne drehen. Diese
der Sonne richten, heißt Heliotropismus.
Eigenschaft nennt sich Heliotropismus.
Ein anderes Beispiel dient der Erforschung des Wetters. [Spiegel Online 2005] berichtete,
dass im Jahr 2005 die Hurrikansaison im Osten des Nordamerikanischen Kontinents ungewöhnlich früh und intensiv begann. Die National Aeronautics and Space Administration
(NASA) erstellte ein Video, welches den Sturmlauf der Tropentiefs im Zeitraffer zeigt. Das
Update dieses Videos von [Starobin, Halverson 2006] zeigt die gesamte Hurrikansaison in
High-Definition-Qualität. Die Farben geben die Wasseroberflächentemperatur an. Je wärmer der Farbton, desto wärmer die Wasseroberfläche. Die schwarzen Linien verdeutlichen
den Verlauf der Hurrikans.
Kapitel 5 - Praktische Untersuchungen
100
Abbildung 105
Hurrikansaison 2005
Die abgebildeten Grafiken zeigen Nordamerika und den Atlantik
der Nordhalbkugel aus
der Satellitenperspektive. Landflächen sind
grün dargestellt. Der
Farbton des Meereswassers variiert mit
der Wassertemperatur.
Blaue Flächen bedeuten
kaltes Wasser, warme
Farbtöne signalisieren
warmes Wasser. Damit
ein Hurrikan entsteht,
muss die Meereswassertemperatur entsprechend hoch sein.
Konkret zeigt die obere
Grafik ein Satellitenbild
vom 28. August 2005,
an dem der Hurrikan
Katrina über dem Golf
von Mexiko wütet.
Auf der mittleren Grafik
ist ersichtlich, dass am
22. September 2005
der Hurrikan Rita über
der gleichen Region
wütete.
Die untere Grafik veranschaulicht den Hurrikan
Wilma am 24. Oktober
2005 über Florida.
Kapitel 5 - Praktische Untersuchungen
101
5.1.4 Zeitraffer ohne wissenschaftlichen Hintergrund
Zeitraffer ohne wissenschaftlichen Hintergrund dienen in erster Linie als Visualisierung
eines lange andauernden Vorgangs, wobei der Zeitraffer keinen unmittelbaren Nutzen
hervorruft. So erscheint es dem Betrachter oft recht eindrucksvoll, wenn ein ganzes Haus in
kürzester Zeit erbaut wird, oder ein Dach in Sekundenschnelle abgedeckt wird. Besonders
imposant wirken auch Zeitrafferaufnahmen von vorbeifliegenden Wolken oder Nachtaufnahmen einer stark befahrenen Straße in einer Großstadt.
Abbildungen 106-107
Die auf der folgenden Seite dargestellten
Eine Digitalkamera
Beispiele wurden vom Autor mit der Digitalmisst bei einer Punktkamera Canon Powershot A80 aufgenomlichtmessung nur die
men. Häufig liegt das Bildaufnahmeintervall
Helligkeit des mittleren
bei acht Sekunden. Die ersten beiden BeiFeldes. Damit sind die
spiele entstanden im Juli 2004 und zeigen
umliegenden Felder
den Blick aus dem Arbeitszimmerfenster des
unter Umständen zu
hell oder zu dunkel.
Autors. Da es an diesem Tag beinahe windstill war, sich jedoch die Wolken sehr schnell
Eine 9-Feld-Lichtmesfortbewegten, entstand ein guter Kontrast
sung beachtet bei der
zwischen der ruhigen Landschaft und den
Helligkeitsjustierung
sich schnell bewegenden Wolken. Diese
das gesamte Foto.
Aufnahme erfolgte mit einer 9-Feld-Lichtmessung, sodass jedes Bild im Durchschnitt
die gleiche Helligkeit besitzt. Sowie eine Wolke Schatten im Garten erzeugt, erhöht sich
der Kontrast zwischen Himmel und Erde. Bei einer Punktlichtmessung auf das Bildzentrum
wären schattige Fotos aufgehellt worden und statt der Wolken am Himmel eine einheitlich
weiße Fläche zu sehen.
Das zweite Beispiel zeigt bei der Rekonstruktion eines Hauses das Abdecken des Daches.
Beim Betrachten des Zeitraffers wird nicht nur deutlich, wie schnell die Bauarbeiter das
Dach abdeckten, sondern auch wie lange ihre Mittagspause dauerte. Da die Kamera die
Fotos in einem exakten Zeitintervall aufnahm, gibt die Anzahl der Bilder ohne Bauarbeiter
Auskunft über ihre Pausenzeit.
Das letzte Beispiel zeigt eine Zeitrafferaufnahme der Elbwiesen in Dresden mit Blick auf den
Fernsehturm. Diese Aufnahme entstand im November 2004. Zusätzlich zur Wolkenbewegung lässt sich gut nachvollziehen, wie viele Hunde auf den Elbwiesen ausgeführt wurden
und wie schnell sich ein Schiff auf der Elbe bewegte.
Nachdem in diesem Abschnitt ausführlich mehrere Beispiele für Zeitlupen und Zeitraffer
vorgestellt wurden, beziehen sich die Aufnahmen des nächsten Abschnittes auf die Wegbeschreibung. Es wird geklärt, wann Zeitlupen und Zeitraffer eingesetzt werden können.
Außerdem erfolgen praktische Tests der in Abschnitt 4.2 aufgestellten Regeln. Dabei tritt
ein Effekt auf, der bei den bisherigen Beispielen keine Anwendung fand: Die hier genannten Beispiele beziehen sich auf die Kameraaufnahmen, bei denen die Einzelbilder nach
einem festen Zeitintervall aufgenommen wurden. Entweder war das Intervall sehr kurz,
dass eine konstante Zeitlupe entstand, oder das Intervall wurde größer als die Abspielgeschwindigkeit gewählt, sodass ein kontinuierlicher Zeitraffer entstand. Warum und wie sich
die beschriebenen Zeitlupen und Zeitraffer dynamisch verändern müssen, ist im nächsten
Abschnitt beschrieben.
Kapitel 5 - Praktische Untersuchungen
102
Abbildungen 108-110
Diese Zeitraffer wurden
nicht mit einer Videokamera, sondern mit
einem digitalen Fotoapparat erstellt.
Links:
Blick aus dem Arbeitszimmerfenster des
Autors. Bei diesem Zeitraffer steht die Wolkenbewegung im Kontrast
zur ruhigen Landschaft.
Mitte:
Dach abdecken. Bei
diesem Zeitraffer ist gut
zu erkennen, in welcher
Reihenfolge die Ziegel
vom Dach verschwinden.
Rechts:
Zeitraffer auf den Elbwiesen mit Blick auf das
Blaue Wunder und den
Dresdner Fernsehturm.
Dabei sind nicht nur die
Wolkenbewegungen
interessant, sondern
auch ein auf der Elbe
fahrendes Schiff oder
die Passanten mit ihren
Haustieren.
Kapitel 5 - Praktische Untersuchungen
103
5.2 Wegbeschreibung mit Zeitlupen und Zeitraffern
Dieser Abschnitt beinhaltet mehrere Praxisversuche des im vierten Kapitel entwickelten
Modells. Der Test wurde dabei in drei verschiedenen Szenarios durchgeführt. Praxistest eins
zeigt eine Fahrt auf einer Autobahn und in der Großstadt Dresden. Die zweite Anwendung
bezieht sich auf einen Fußgängerbereich auf dem Campus der Florida State University in
Tallahassee, Florida, USA. Der letzte Schauplatz befindet sich in der Pirnaer Marienkirche.
Hier ist ausschließlich eine Kamerarotation um ein Objekt dargestellt.
5.2.1 Autobahnfahrt und Stadtfahrt
Die beiden folgenden Videos wurden speziell für diese Diplomarbeit angefertigt. Die Aufnahmen erfolgten mit einer Sony VX2000 DV-Kamera, welche auf einem Stativ in einem
Fahrzeug befestigt wurde. Schmutz und Kratzer auf der Frontscheibe hätten bei einer
Aufnahme von innen zu einer verminderten Bildqualität geführt. Deshalb wurde das Dachfenster ausgebaut und die Kamera oberhalb des Daches arretiert. Dadurch war ein freier
Kamerablick gewährleistet.
Die Kamera war fest mit dem Fahrzeug verbunden, was die Möglichkeit zum Schwenken während der Fahrtzeit verhinderte.
Außerdem musste sich der Fahrer auf das
Fahren konzentrieren. Damit besteht eine
Einschränkung einer zuvor aufgestellten
Regel insofern, dass die Kamera wichtige
Objekte nicht verfolgen konnte. Erscheint
während der Fahrt beispielsweise ein wichtiges, richtungweisendes Verkehrsschild, so
bedurfte diese Situation einer verlangsamten Wiedergabe des Filmes, damit der Text
auf dem Schild lesbar wird.
Abbildung 111
Die Kamera filmte aus dem Dachfenster und wurde für diese Aufnahme mehrfach gesichert.
Die Videoaufnahme erfolgte nach der in Abschnitt 4.1 beschriebenen uneffizienten Lösung. Da jedoch unter Beachtung der vorgeschriebenen Verkehrsregeln auf geraden Strecken automatisch schneller gefahren wird, entstanden Zeitraffer und Zeitlupen bereits auf
natürliche Weise. Oft genügte es im späteren Videofilm eine Echtzeitaufnahme statt einer
Zeitlupe zu zeigen, da diese Aufnahmen bereits bei einer sehr langsamen Fahrt erfolgten.
Dagegen mussten die meisten Videoaufnahmen für Zeitraffer zeitlich stark gestaucht werden. Die vierte Regel sieht vor, dass über den gesamten Bereich ein Zeitraffer erstellt wird,
in welchem keine Richtungsänderung in einem Kreuzungsbereich stattfindet. Es stellte sich
heraus, dass diese Regel im Praxiseinsatz nicht funktioniert. Die Straßen sind zu uneben
und die Kurvenanzahl ist nicht vorhersehbar, sodass sich der Fixpunkt in Zeitrafferaufnahmen unbestimmt häufig ändert. Personen, die sich diese Aufnahmen anschauten, waren
irritiert und meinten häufig, dass es ihnen zu schnell ging.
Neue Untersuchungen führten zu folgendem Ergebnis: Findet eine Kamerafahrt über lange
Zeit auf einer Autobahn statt, so sollte der Zeitraffer den Videoclip höchstens mit 20-facher
Geschwindigkeit anzeigen. Im Stadtbereich stellte sich heraus, dass ein Zeitraffer höchstens
mit 16-facher Geschwindigkeit präsentiert werden sollte.
Kapitel 5 - Praktische Untersuchungen
104
Das daraus resultierende Problem lässt sich gut an einem Beispiel erläutern. Die Autobahnfahrt auf der A17 von der Auffahrt Pirna bis zum Dreieck Dresden West dauert in Echtzeit
zirka 14 Minuten. Bei einer 20-fachen Abspielgeschwindigkeit des Clips ergibt sich für den
Zeitraffer eine Dauer von 42 Sekunden. Die Dauer des Tondokumentes, bleiben sie auf der
Autobahn A17 für 25 Kilometer, beträgt jedoch nur 4,3 Sekunden. Der Zeitraffer dauert
damit noch viel zu lange, obwohl er bereits mit 20-facher Geschwindigkeit gezeigt wird.
Die Lösung ist ein Zerteilen des Zeitraffers. Er zeigt mit 20-facher Geschwindigkeit den
Wegstreckenanfang. Nach der Hälfte der Tondokumentdauer wird zu dem Stück übergeblendet, welches das Wegstreckenende darstellt. Die Gesamtlänge des Zeitraffers wurde
so gekürzt, dass sie synchron zum Ton die Videobilder liefert. Zusätzlich wurde damit ein
anderer Nebeneffekt beseitigt. Dauert der Zeitraffer zu lange, werden zu viele Informationen gezeigt, die für den Verlauf der Fahrtroute irrelevant sind. Wird ein Großteil dieser
Fahrt aus dem Zeitraffer entfernt, sieht der Betrachter nur die wichtigen Streckenabschnitte: Kreuzungsbereiche, in denen sich die Fahrtrichtung ändert und die Wegstrecken unmittelbar vor und nach Kreuzungen. Damit wird der Betrachter gar nicht erst dazu verleitet,
sich Objekte oder Begebenheiten einzuprägen, die für die Fahrtroute unbedeutend sind.
Ein gutes Beispiel dafür ist ein brennendes Fahrzeug am Straßenrand. Aufgrund
der Rauchentwicklung und der Sorge um
Verletzte, würden viele Kraftfahrer beim
Vorbeifahren auf das brennende Fahrzeug
schauen. Dass diese Situation jedoch an
ein und derselben Stelle so häufig eintritt,
dass man sich bei der Navigation auch an
anderen Tagen auf das Vorhandensein des
brennenden Fahrzeugs verlassen könnte, ist
unwahrscheinlich. Für die Navigation spielt
dieses Ereignis also keine entscheidende
Rolle, sodass es entweder nur kurz in einem
Zeitraffer zu sehen ist oder unter Umständen ganz aus dem Video geschnitten wird.
Abbildung 112
Ein brennendes Fahrzeug am linken Straßenrand.
Andere wichtige Ereignisse, wie zum BeiAbbildung 113
spiel fest installierte Blitzer, der Hinweis
Ein Blitzer am rechten Straßenrand.
zur Vorfahrt von rechts kommender Fahrzeuge in einer Tempo 30-Zone oder ein
Fußgängerüberweg, sollten dagegen unbedingt im Video erscheinen, da sie die Fahrweise
des Fahrers beeinflussen. Die erste Aufnahme beschreibt die Fahrtroute vom Grundstück
Schillerstraße 22 in Pirna in Richtung Leipzig. Sie verdeutlicht vorrangig die Autobahnfahrt.
Die zweite Aufnahme zeigt einen Ausschnitt einer Fahrt durch die Stadt Dresden. Der Anfang der Route liegt auf der Tolkewitzer Straße in Richtung Schillerplatz und führt über das
Blaue Wunder nach Dresden Wachwitz zur Wachwitzer Bergstraße.
Auf den nächsten beiden Seiten werden Ausschnitte aus der Autobahnfahrt und der Stadtfahrt gezeigt. Nimmt die Kamera 25 Bilder pro Sekunde auf, und fährt das Fahrzeug 180
Kilometer pro Stunde, so nimmt die Kamera alle zwei Meter ein Bild auf.
Kapitel 5 - Praktische Untersuchungen
105
Abbildungen 114-116
Autobahnfahrt
Links:
Auffahrt in Pirna auf
die Autobahn A17 in
Richtung Dresden.
Mitte:
Fahrt bei 170 km/h.
Aufgrund der hohen Geschwindigkeit
verschwimmen die
Bereiche im Rand.Das
vorausfahrende Fahrzeug ist jedoch deutlich
zu erkennen.
Rechts:
Das Autobahnkreuz
Dresden-West. Die Autobahn A4 führt weiter
in Richtung Chemnitz,
Leipzig.
Kapitel 5 - Praktische Untersuchungen
106
Abbildungen 117-119
Stadtfahrt in Dresden
Links:
Fahrt bei 50 Kilometern pro Stunde
in Dresden auf der
Tolkewitzer Straße in
Richtung Schillerplatz.
Im Vergleich zu den
Geschwindigkeiten auf
der Autobahn ist eine
Stadtfahrt eher langsam. Objekte, wie zum
Beispiel Bäume, bewegen sich näher am Fahrzeug vorbei. Begründet
durch die Bewegungsparallaxe und durch
den Zeitraffereffekt
können jedoch auch
hier die Bildränder stark
verschwimmen.
Mitte:
Abbiegen von der
Tolkewitzer Straße in
Richtung Blaues Wunder. Wird der Videoclip
zum Abbiegevorgang
zu schnell abgespielt,
werden verschiedene
Bildbereiche schnell
undeutlich.
Rechts:
Fahrt über die Elbe auf
dem Blauen Wunder.
Die Brücke wurde 1893
fertiggestellt und erhielt
den Namen aufgrund
ihrer blauen Farbgebung.
Kapitel 5 - Praktische Untersuchungen
107
5.2.2 Campus der Florida State University
Der Trailer unten links sollte den Studenten zeigen, dass es vom Court Yard (Bild 1) zum
Student Life Building (Bild 6) nur ein kurzer Weg (Abbildung 121) ist. Der Court Yard ist ein
markanter Platz, den nahezu jeder Student kennt. Die erste Sequenz erfolgte in rückwärtiger Sicht, damit zu Beginn der Court Yard im Bild zu sehen ist. Bild 2 zeigt, wie die Kamera
den Court Yard verlässt. Die Indianerstatue in Bild 3 ist der erste wichtige Wechselpunkt,
da sie im Mittelpunkt der Kreuzung steht. Das Bild verweilt einen kurzen Augenblick auf
der Statue, damit sie der Betrachter besser in Erinnerung behält. Als Zeitraffer wird anschließend der Gang über den Sidewalk dargestellt, da dieser geradeaus verläuft (Bild 4).
Die Videos wurden mit einer Canon XL1 Videokamera aufgenommen. Dagegen besteht
der Zeitraffer aus zirka 100 Einzelfotos einer Canon Powershot A80 Digitalkamera. Die
Aufnahmen erfolgten im Abstand von drei Metern. Später wurden die Bilder in der x-Achse und der y-Achse justiert und zusätzlich so gedreht, dass der Bildhorizont in jedem Bild
horizontal verläuft. Der resultierende Zeitraffer spielt die Einzelbilder als Videoclip ab.
Am Ende des Sidewalks wechselt die Ansicht von der rückwärtigen Sicht mit einem
Schwenk auf das Student Life Building (Bilder 5, 6). Nun ist das Zielgebäude der primäre
Orientierungspunkt. Die letzten beiden Fotos (Bilder 7, 8) zeigen den Autor, wie er über
einen Parkplatz sprintet und eine Treppe zum Eingang des Student Life Building hinunterspringt. Hier musste ein Objekt, der Autor, als Orientierungspunkt dienen, da eine schlechte Sicht durch viele Bäume eine Kamerafahrt unmöglich machten.
1
1
5
2
6
2,3
4
5,6
3
4
7
8
7,8
Abbildungen 120-121
Links sind acht Einzelbilder des Trailers zu sehen.
Sie beschreiben den Weg vom Court Yard zum
Student Life Building. Rechts ist ein Kartenausschnitt vom Campus der Florida State University
und den jeweiligen Kamerastandorten zu sehen.
Kapitel 5 - Praktische Untersuchungen
108
5.2.3 Taufstein der Marienkirche in Pirna
Diese Aufnahme diente in erster Linie der Visualisierung des Taufsteins. Die Intension lag darin, dass der Betrachter des Videos sozusagen um den Taufstein herumgeht und sich diesen dabei anschauen kann. Diese Aufnahmen wurden mit einer Canon Powershot
A80, also mit einer Digitalkamera, durchgeführt.
Zuerst wurde ermittelt, mit welchem Radius die Kamera zur senkrechten Achse des Taufsteins rotieren muss, damit sie diesen in
voller Größe erfasst. Mit einem Toleranzbereich oben und unten
ergab sich ein Radius von 2,04 Meter. Daraufhin wurde eine Sperrholzplatte für etwas mehr als ein Achtel des Kreisumfangs zugeschnitten. Da 360 Einzelfotos um den Taufstein vorgesehen waren,
befand sich auf der Schablone entlang des Umfangs nach jeweils
3,56 Zentimetern eine Markierung.
Für eine stabile Kameralage wurde nun ein Styroporblock hergestellt, welcher auf einer Sperrholzplatte klebte, die den gleichen
Außenradius wie die Schablone besaß. In der Achse der Kamerablickrichtung wurde auf der Sperrholzplatte eine Markierung angebracht. Für die Aufnahmen konnte nun die Kamera von Markierung
zu Markierung geschoben werden. Die Kamera war mit einem Laptop verbunden. Dieser löste die Kamera nach jeweils 15 Sekunden
aus und speicherte die Bilder auf einer Festplatte. Während dieser
15 Sekunden wurde das jeweilige Foto zum Computer übertragen
und die Kamera an der nächsten Markierung positioniert.
Auf diese Weise entstanden um den Taufstein 360 Fotos. Nach
jeweils 53 Bildern (45 Bilder entsprechen einem Achtel des Kreises, plus vier Bilder Toleranz auf jeder Seite für eine Überlappung
zum nächsten Abschnitt) musste die Schablone neu ausgerichtet
werden. Dank der Fliesen um den Taufstein und vorher erstellten
Markierungen, konnte die Schablone zügig ausgerichtet werden.
Damit war die Fotoaufnahme abgeschlossen. In der anschließenden
Montage wurden alle Fotos in der x-Achse und der y-Achse justiert.
Dazu wurde bestimmt, wo sich im Durchschnitt bei allen Bildern
der Mittelpunkt des Taufsteins befindet. Nun wurde jedes einzelne
Bild entsprechend seines Fehlers in die richtige Position geschoben,
wobei zunächst an zwei Rändern schwarze Streifen entstanden.
Die letzte Aufgabe bestand darin, das größtmögliche Rechteck zu
finden, welches im 4:3 – Format war und keine schwarzen Streifen
beinhaltete. Nun war der Videoclip fertig.
Abbildung 122
Die ersten drei Abbildungen zeigen die Herstellung der Schablone.
Die folgenden beiden
Fotos zeigen den Autor
bei der Aufnahme des
Taufsteins in der Marienkirche in Pirna.
Dieselben Rohdaten konnten zum Erstellen eines Detailausschnittes
für einen Rundflug um den Taufstein verwendet werden. Anstatt einer Skalierung des gesamten Videos wurde ein Detailausschnitt herDie letzte Abbildung
ausgeschnitten. Demzufolge entstand ohne großen Mehraufwand
zeigt die Digitalkamera
ein Rundflug um den Fuß, den Sockel und das Taufsteinbecken.
im Styroporblock.
Kapitel 5 - Praktische Untersuchungen
109
Abbildungen 123-124
Links sind acht Einzelbilder aus dem Rundflug um den Taufstein zu sehen. Sie
zeigen den kompletten Taufstein, wobei dazu eine Skalierung nötig war. Mit
diesen Bildern war es auch möglich, Videoclips einzelner Bereiche zu erstellen. Die drei Fotos rechts zeigen Ausschnitte der Dateilansichten. Dadurch
lassen sich die einzelnen Objekte auf dem Taufstein besser erkennen.
Kapitel 5 - Praktische Untersuchungen
110
Beim Betrachten der Rohdaten war auffällig, dass der Taufstein nicht in jedem Foto exakt
an der gleichen Stelle stand. Wie sind die Fehler im Bild entstanden? Warum war es wichtig
einen Toleranzbereich festzulegen? Die Fliesen um den Taufstein waren nicht absolut horizontal verlegt, wobei dieser Fehler von Fliese zu Fliese differierte. Wurde die Kamera nun
entlang der Schablone geschoben, so bedeckte sie nur einen Teil der Fliesen. Sobald die
Kamera auf einer neuen, unebenen Fliese stand, neigte sie sich. Auch wenn sich der Aufnahmewinkel nur minimal von den bisherigen unterschied, befindet sich der Taufstein im
Foto doch an einer anderen Position. Die Kamera erzeugte Bilder in einer Größe von 2.272
x 1.704 Pixel. Der maximale horizontale Fehler lag bei 48 Pixeln, der vertikale Fehler bei –47
Pixeln. In den meisten Fällen mussten die Bilder also nach unten links verschoben werden.
Entstanden ist eine Kamerarotation um den Taufstein. Der Betrachter hat die Möglichkeit,
den Taufstein von allen Seiten zu betrachten. Bei Bedarf kann das Video angehalten werden, wobei dadurch eine Betrachtung einer bestimmten Ansicht für längere Zeit möglich
ist. Die Aufnahme kann auch als Zeitraffer abgespielt werden. Der Ruhebereich wird von
der Begrenzung des Taufsteins gebildet, da er an der Begrenzung für diese Aufnahme ausgerichtet wurde. Des Weiteren wird ein vollständiger Kreis um den Taufstein beschrieben,
sodass die Aufnahme auch mehrmals hintereinander abgespielt werden kann.
Auffällig ist nicht nur der Taufstein, sondern auch der Hintergrund. Je weiter die Säulen
und Wände im Hintergrund entfernt sind, desto schneller bewegen sie sich von links nach
rechts. Damit wird der Effekt der Bewegungsparallaxe bei der Rotation um ein Objekt
deutlich. Weil sich der Taufstein im Gegensatz dazu relativ langsam bewegt, wird hier neben dem Hell-Dunkel-Kontrast ein zusätzlicher Gegensatz geschaffen. Auch durch die tiefe
Kamerastellung – die Kamera blickt zu dem 98 Zentimeter hohen Taufstein hinauf, wirkt
die Aufnahme besonders reizvoll. Sie könnte in einen Rundgang durch die Kirche integriert
werden, wobei für den Rundgang Zeitraffer und Zeitlupen nach dem entwickeltem Modell
zu erstellen wären.
5.2.4 Zusammenfassung des Einsatzes bei der Wegbeschreibung
Mit diesen drei Beispielen wurde demonstriert, dass das entwickelte Modell zur Wegbeschreibung mit Zeitraffern und Zeitlupen praxistauglich ist. Beim ersten Beispiel, welches
explizit zur Untersuchung der Regeln durchgeführt wurde, konnte festgestellt werden, dass
die im vierten Kapitel aufgestellten Regeln noch nicht ausreichend waren. Während das
erste Anwendungsbeispiel eine Wegbeschreibung als Routenplaner und Navigationshilfe
für einen Kraftfahrer bei einer Autobahnfahrt und einer Fahrt durch Dresden ermöglicht,
wurde im zweiten Beispiel gezeigt, dass es auch für Fußgänger von Nutzen sein kann. Der
Direktor des Student Life Building, Robert B. Howard, freut sich seit der Veröffentlichung
des Videos an der Florida State University über steigende Besucherzahlen. Offensichtlich
finden nun mehr Studenten den Weg zum Gebäude als in vergangener Zeit. Im letzten Beispiel wurde der Spezialfall, bei dem die Kamera um ein Objekt rotiert, praktisch umgesetzt.
Annemarie Träger und Thomas Albrecht vom Kirchenvorstand in Pirna berichteten über
eine sehr gelungene und interessante Aufnahme des Taufsteins der evangelischen Kirche
Saint Marien zu Pirna.
Kapitel 5 - Praktische Untersuchungen
111
5.3 Zusammenfassung praktischer Umsetzungen
Im Kapitel zu den praktischen Untersuchungen wurden im ersten Abschnitt mehrere Anwendungsgebiete für Zeitlupen und Zeitraffer dargestellt. Da insbesondere Zeitlupen einen
wissenschaftlichen Nutzen erbringen, lohnte sich eine Aufteilung der Aufnahmebereiche.
Die Zeitlupen bei der Verkehrssicherheit helfen den Wissenschaftlern bei der Entwicklung
sicherer Verkehrsmittel. Das betrifft nicht nur Fahrzeuge sondern auch Flugzeuge.
Obwohl Waffen eigentlich nicht zum Einsatz kommen sollten, werden speziell im militärischen Bereich Schusswaffen ständig weiterentwickelt, wobei nicht nur die Schussweite,
sondern auch die Feuergeschwindigkeit entscheidend sind. Damit eine Waffe nach kürzester Zeit das nächste Projektil abfeuern kann, muss die zurückgebliebene Hülse schnellstmöglich ausgeworfen werden. Die Zeitlupenaufnahmen von ballistischen Vorgängen sind
für eine Entwicklung in diesem Bereich von hoher Bedeutung.
Im Bereich der Materialtechnik werden Stoffe vorwiegend auf ihre Festigkeit überprüft. Dabei steht nicht zwangsläufig die Frage, wann das Material reißt, schmilzt oder zersplittert,
sondern ob und wie. Erst die Zeitlupenaufnahmen können darüber eine genaue Auskunft
geben. Diese Untersuchungen werden nicht nur bei festen Körpern vorgenommen, sondern auch bei flüssigen oder gasförmigen. Zum Beispiel beim WIG-Impulsschweißen wird
untersucht, ob die entstehenden Temperaturen ausreichen, um das Metall zu schmelzen
und somit eine exakte Schweißnaht produziert werden kann.
Die Aufnahmen aus dem Bereich der Biologie dienen nicht nur der Unterhaltung. Wissenschaftler untersuchen die Bewegung und das Verhalten von Tieren, um ihre Erkenntnisse
bei anderen Entwicklungen nachzuahmen oder anzuwenden. Häufig geschehen Bewegungen im Tierreich so schnell, dass der Mensch sie mit bloßem Auge kaum erkennen kann.
Die Zeitlupenaufnahme kann zum Beispiel verdeutlichen, wie das Gift bei einem Schlangenbiss injiziert wird.
Bei der Produktion von Teebeuteln werden pro Sekunde 33 Knoten erstellt und die beiden Bindfäden mit dem Papierzettel verbunden. Ein Mensch kann bei der Geschwindigkeit
dieses automatisierten Prozesses keine Details erkennen. Gerät eine Maschine ins Stocken
oder lässt die Produktionsgeschwindigkeit plötzlich nach, so werden mit Zeitlupenaufnehmen mögliche Fehler aufgespürt. Die Kameraaufnahmen maschineller Prozesse helfen auch
in den Fällen, bei denen eine direkte Sichtkontrolle durch eine Person zu gefährlich ist. Das
Schließen der Außenklappen bei einem Spaceshuttle-Start wird durch Kameras beobachtet,
wobei das Betrachten der Videos am Monitor weit weniger gefährlich ist.
Schließlich wurden noch zwei Beispiele für Zeitlupen erwähnt, bei denen der wissenschaftliche Nutzen eher begrenzt ist. In dem vorgestellten Werbespot wurde vor allem eine neue
Wiedergabetechnik deutlich, bei der sich die Spieler in Zeitlupe bewegen und gleichzeitig in
Echtzeit in die Kamera sprechen. Das andere Beispiel zeigte die spezielle Zeitlupenproduktion in einem Kinofilm.
Im Bereich der Zeitraffer wurde festgestellt, dass diese eher der Unterhaltung dienen,
beziehungsweise durch Weglassen von Details einen Überblick zu sehr lange andauernden
Prozessen geben. Einerseits werden Aufnahmen von Pflanzenbewegungen aufgezeichnet,
um bei der Wiedergabe des Zeitraffers Kenntnis über die Bewegung zu erlangen. Betrachtet eine Person ein Sonnenblumenfeld nur kurze Zeit, so scheinen sich die Blumen nicht
Kapitel 5 - Praktische Untersuchungen
112
zu bewegen. Eine Aufzeichnung über mehrere Stunden kann im Zeitraffer das Gegenteil
beweisen.
Die Aufzeichnung von Wetterphänomenen dient in erster Linie den Meteorologen zur
Erforschung des Wetters. Das Beispiel zeigt die Hurrikansaison 2005 über Nordamerika und
dem Atlantischen Ozean. Anhand der Aufnahmen lassen sich Rückschlüsse ziehen, wie es
zu derartigen Verwirbelungen der Luft kommen konnte. Diese Erkenntnisse können für die
Entwicklung eines Frühwarnsystems nützlich sein.
Bei den Zeitraffern ohne wissenschaftlichen Hintergrund faszinieren in erster Linie die Bilder, beziehungsweise dass ein Vorgang schneller abläuft als in Echtzeit. Die drei erwähnten
Beispiele wurden vom Autor aufgenommen und zeigen eine Wolkenbewegung, das Abdecken eines Daches und die Situation auf den Elbwiesen mit Blick auf das Blaue Wunder und
den Fernsehturm Dresdens.
Im zweiten Abschnitt wurde schließlich das entwickelte Modell zur Wegbeschreibung mit
Zeitlupen und Zeitraffern praktisch erprobt. Während der ersten beiden Aufnahmen, auf
der Autobahn und bei der Stadtfahrt durch Dresden, wurde deutlich, dass die bis dahin
aufgestellten Regeln um eine Weitere ergänzt werden mussten. Der Prozess des Abbiegens
in einem Kreuzungsbereich ist zeitlich überschaubar. Dagegen kann eine Fahrt ohne Änderung der Richtung sehr lange dauern, wobei in diesem Fall die Aufnahme stark gerafft
werden müsste. Der Praxistest zeigte jedoch, dass die Abspielgeschwindigkeit nur um einen
bestimmten Faktor gesteigert werden kann, da ansonsten die Betrachter des Videos die
Orientierung verlieren. Zur Lösung des Problems wurde eine Regel eingeführt, die durch
Weglassen bestimmter Teile den Zeitraffer auch für lange Strecken definiert. Mit dieser
Änderung wurde das Modell erfolgreich erprobt.
Das zweite Beispiel sollte demonstrieren, dass dieses Modell nicht nur für Kamerafahrten
im Straßenverkehr konzipiert wurde, sondern allgemeingültig für jegliche Wegbeschreibungen ist. In diesem Fall sollte der Weg von einem markanten Platz zu einem bestimmten
Gebäude visualisiert werden. Insbesondere die Zeitraffersequenz über den Sidewalk wurde
effizient mit einer Digitalkamera aufgenommen. In den beiden bisherigen Beispielen erfolgte keine Kamerafahrt um ein Objekt herum, sodass mit dem letzten Beispiel auch für diese
spezielle Situation ein Beispiel gegeben wird.
Bei der Visualisierung des Taufsteins in der Marienkirche zu Pirna wurden 360 Einzelbildaufnahmen angefertigt, die den Taufstein aus 360 verschiedenen Positionen zeigen. Diese
Aufnahmen wurden justiert, skaliert und konnten damit den Taufstein in einem Film von
allen Ansichten in gleicher Entfernung zeigen. Zusätzlich bestand aufgrund der Aufnahmetechnik die Möglichkeit, nachträglich einen bestimmten Bildbereich herauszuschneiden,
wobei nun für einen Rundflug um den Sockel die gleichen Rohdaten verwendet werden
konnten. Damit wurde der Kamerarundflug um ein Objekt praktisch getestet. Diese Art der
Aufnahme ist nur geringfügig für eine Wegbeschreibung im Straßenverkehr geeignet. Jedoch könnte sie bei einem Rundgang durch ein Museum von Nutzen sein, wenn in diesem
dreidimensionale Objekte ausgestellt werden.
Kapitel 6 - Zusammenfassung
114
Kapitel 6 – Zusammenfassung
Die Zusammenfassung erfolgt nach den Gliederungspunkten der Aufgabenstellung, wobei
die einzelnen Abschnitte entsprechend der Bearbeitung in der Diplomarbeit geordnet sind.
Ein Überblick zur Entwicklung der Aufnahmegeräte wurde an der Geschichte der Kamerawerk Dresden GmbH gezeigt. Die seit 1919 hergestellten Fotoapparate trugen sehr bei der
Entwicklung der Technik von heute bei. 1992 wurde eine Panoramakamera auf den Markt
gebracht, die es bis zum damaligen Zeitpunkt noch nicht gegeben hatte. Auch die Kamerawerk Dresden GmbH konnte dem Boom zur Digitalisierung nicht entrinnen und begann
1996 mit der Entwicklung einer Hochgeschwindigkeitskamera. Im Vergleich zu anderen
Firmen liegt diese Kamera im technischen Mittelfeld. Die Auflösung der Bilder ist vergleichsweise relativ hoch. Die maximale Aufnahmegeschwindigkeit für die höchste Auflösung liegt
allerdings unter dem Durchschnitt.
Die Entwicklung von Zeitlupenkameras tendiert nicht nur zu schnelleren Aufnahmen, sondern auch zu größeren Bildauflösungen. Ein Ende der Entwicklungen ist abzusehen, sobald
die Kameras an physische Grenzen stoßen. Im Bereich der Digitalkameras, die sich in Kombination mit einem Computer hervorragend zum Erstellen von Zeitraffern eignen, tendiert
die Entwicklung zu immer größer werdenden Bildauflösungen. Viele Anbieter versuchen
jedoch in Bezug auf die maximale Pixelanzahl und die maximale Vergrößerung die Kunden
zu täuschen. Eine Interpolation von Pixeln und der Digitalzoom führen zu unscharfen Fotos.
Unbetrachtet blieb in dieser Arbeit die zugehörige Optik, welche für eine gute Bildqualität
bestimmten Anforderungen genügen muss. Die Untersuchung technischer Mittel zur Erstellung von Zeitlupen und Zeitraffern hat ergeben, dass zwar bei beiden Aufnahmeverfahren
eine hohe Bildauflösung angestrebt wird, die Aufnahmegeschwindigkeiten der Hochgeschwindigkeitskameras jedoch einen Kompromiss zwischen hoher Auflösung und schneller
Aufnahme erfordern.
Die psychologischen Betrachtungen waren insbesondere für ein Verstehen der weiteren
Ausführungen von großer Bedeutung. Nach der Definition des wichtigsten Begriffes, der
Wahrnehmung, wurde die Gestalt-Theorie vorgestellt. Die Gestaltisten zeigten anhand von
optischen Illusionen, nach welchen Kriterien der Mensch die Dinge wahrnimmt. Die Dinge
beziehen sich dabei auf Objekte, Gruppierungen von Objekten und Objektbewegungen.
Diese fundamentalen Erkenntnisse konnten direkt auf die Wahrnehmung von Videoclips
übertragen werden. Da bei Zeitlupen und Zeitraffern für der Wegbeschreibung Kameraaufnahmen von dreidimensionalen Szenen angefertigt werden, die Repräsentation jedoch nur
zweidimensional erfolgt, waren Einblicke in die Tiefenwahrnehmung notwendig. Neben
den monokularen Hinweisen, bei denen die Bildparallaxe in Videoaufnahmen eine besondere Bedeutung hat, wurden auch kurz die binokularen Tiefenhinweise vorgestellt. Besonders eindrucksvoll erschienen die Betrachtungen von [Bruno, Cutting 1988], die beide
Tiefenhinweise miteinander verknüpften. In speziellen Fällen kann zum Beispiel der Tiefenhinweis zur vertrauten Größe vom Tiefenhinweis der Interposition überschrieben werden.
Die vertraute Größe ist eine der visuellen Konstanten und wurde am Beispiel des AmesRaumes erläutert. Dabei sollte verdeutlicht werden, dass die vertraute Größe auch bei Objekten in Videoclips wichtig ist. Neben der Größenkonstanz war auch die Betrachtung der
Farbkonstanz erforderlich, weil ein bestimmtes Objekt eindeutig identifiziert werden kann,
wenn die Beleuchtung durch unterschiedliche Lichtquellen erfolgt. Beim Erörtern der Mustererkennung in Bezug auf Videoclips stellte sich heraus, dass die Ansätze zu strukturellen
Beschreibungen besser als die Schablonen-Theorie und die Abstraktions-Theorie sind.
Kapitel 6 - Zusammenfassung
115
Es konnte geklärt werden, wie der Wahrnehmungsprozess abläuft. Bottom-Up und TopDown sind zwei Modelle, durch die der Wahrnehmungsprozess besser verstanden werden
kann. Es zeigte sich, dass Neisser‘s Zyklentheorie die Beste ist, weil sie Gibson‘s Theorie der
direkten Wahrnehmung mit der konstruktivistischen Theorie verknüpft. Außerdem wurde
hervorgehoben, dass es individuelle, soziale und kulturelle Unterschiede in der Wahrnehmung gibt. Jemand, der noch nie zuvor ein Video gesehen hat, wird unter Umständen
nicht verstehen, was eine Zeitlupe oder ein Zeitraffer ist.
Das vierte Kapitel beinhaltet theoretische Auseinandersetzungen mit Zeitlupen und Zeitraffern. Zunächst wurde der Bildinhalt und ablaufende Prozesse in derartigen Aufnahmen
analysiert und abstrahiert. Dafür liesen sich verschiedene Schemata erstellen, die auch
einen Bezug auf die Kameraführung nahmen. Aufgenommen wird ein Objekt, welches sich
bewegt oder transformiert. Neben der Objektveränderung ist auch ein Orientierungspunkt
wichtig, der sich im Film nicht oder nur kaum verändert. Ein Unterschied zwischen Zeitlupe
und Zeitraffer ist der Einsatzort: Zeitlupen werden verwendet, wenn Objektveränderungen
zu schnell stattfinden. Mit Hilfe der Zeitlupe ist es dem Menschen möglich, einen Einblick
in solche Prozesse zu erlangen. Zeitraffer erwiesen sich nützlich, wenn über eine sehr lange
andauernde Objektveränderung ein Überblick gegeben werden soll. Für die beiden Spezialaufnahmen kommen unterschiedliche Aufnahmegeräte zum Einsatz.
Digitale, technische Hilfsmitteln zur Erstellung von Zeitlupen und Zeitraffern sind Videokameras und digitale Fotoapparate. Im Falle der Zeitlupenaufnahmen muss die Aufnahmefrequenz der Bilder höher sein als die Bildwiedergabefrequenz. Daher werden für Zeitlupenaufnahmen oft Hochgeschwindigkeitskameras eingesetzt. Eine Überprüfung dieser
Kameras schloss Ergebnisse über die maximale Auflösung und Aufnahmefrequenz ein. Es
stellte sich heraus, dass eine Digitalkamera zum Erstellen von Zeitraffern eine effiziente Lösung ist, wenn diese mit einem Computer gekoppelt wird. Daher wurden bei der Marktanalyse ausschließlich Digitalkameras untersucht, die eine Verbindungsmöglichkeit zu einem
Computer besitzen und eine Kamerafernsteuerung durch den Computer möglich ist.
Dass Zeitraffer und Zeitlupen einen wissenschaftlichen Nutzen besitzen können, wurde
an mehreren Beispielen demonstriert. Solche Spezialaufnahmen finden jedoch auch eine
Anwendung in der Werbe- und Filmeindustrie, wobei ein Erwähnen dieser Anwendungsgebiete anhand von zwei Beispielen genügte. Die praktischen Untersuchungen für diese
Diplomarbeit bezogen sich speziell auf Zeitlupen und Zeitraffer bei der Wegbeschreibung.
Es wurde ein Modell erstellt, welches den Einsatz von Zeitlupen und Zeitraffern bei der
Wegbeschreibung ermöglicht. Der Kerngedanke ist, dass Wegabschnitte ohne Richtungsänderungen als Zeitraffer und Kreuzungsbereiche mit Richtungsänderungen als Zeitlupenaufnahme visualisiert werden können. Das Modell wird durch Regeln charakterisiert, durch
die bestimmt wird, wann, wie und wo Zeitlupen und Zeitraffer zum Einsatz kommen.
6.1 Fazit
Damit wurden alle Aufgabenpunkte bearbeitet und erfolgreich beantwortet. Der Leser
erhielt mit dieser Diplomarbeit einen Überblick über die Entwicklung der Kameratechnik
der Kamerawerk Dresden GmbH, und er konnte sich über den aktuellen Stand der Technik
bei Hochgeschwindigkeitskameras und Digitalkameras informieren. Für das Betrachten der
Videos ist ein technisches Verständnis jedoch nicht ausreichend. Viele psychologische
116
Theorien und Ansätze lieferten das nötige Hintergrundwissen, welches zum Verstehen der
Wahrnehmung von Videos gebraucht wird. Das erarbeitete Modell für die Wegbeschreibung wurde erfolgreich mehrere Male praktisch getestet. Mit Hilfe von Zeitlupen und
Zeitraffern lassen sich beliebige, endliche Routen beschreiben und visualisieren.
6.2 Ausblick
Bei der Recherche zum historischen Überblick über die Kamerawerk Dresden GmbH stellte
sich heraus, dass die seit 1992 entwickelte Panoramakamera nur als Filmkamera hergestellt wird. In Bezug auf die einzigartige Bauweise und dem Trend zum Digitalen sollte eine
Produktion dieses Gerätes auch als Digitalkamera erfolgreich sein. Die Bauweise könnte im
Gegensatz zu einer herkömmlichen Digitalkamera so angepasst werden, dass der Fotosensor das Bild zeilenweise einliest. Bei einer Filmkamera erfolgt die Weiterbewegung des Films
motorisch, damit das Panoramabild vollständig auf dem Film abgelichtet wird. Die digitale
Version der Noblex-Serie könnte einen Fotosensor besitzen, der ähnlich zu dem Prinzip eines Scanners arbeitet. Während der Kamerakopf mit dem Objektiv rotiert, tastet der Zeilensensor kontinuierlich die Szene ab und speichert den vom Sensor kommenden Datenstrom.
Das in dieser Diplomarbeit entwickelte Modell zur Wegbeschreibung ist universell für jede
endliche Route einsetzbar. Es kann nicht nur für Wege auf einer Fläche angewendet werden, sondern auch für eine Route durch den Raum. Bei dieser Erweiterung müsste jedoch
untersucht werden, inwieweit die Bilder der Kamera ausreichen, um dem Betrachter genügend Orientierung in der dreidimensionalen Szene zu geben. Zunächst wäre im Falle der
Navigation auf einer Ebene das Einblenden eines Kompasses nützlich, da bei einem Zeitraffer Teile herausgeschnitten werden. Dadurch kann nur schlecht nachvollzogen werden, in
welchem Winkel der Weg zur bisherigen Strecke nach einer Kurve weiterführt.
Zum Beispiel würde der Betrachter in diesem Szenario leicht die Orientierung verlieren: Die
Kamera ist auf einem Fahrzeug montiert und nimmt eine Autofahrt ähnlich der Aufnahmen
unter 5.2.1 auf. Allerdings scheint diesmal die Sonne nicht, sodass durch die Positionen der
Objektschatten im Video keine Information über die Himmelsrichtung vorhanden ist. Fährt
nun das Fahrzeug entlang eines Streckenabschnittes, in dem über längere Zeit kein Richtungswechsel erfolgt, wird ein Teil dieses Zeitraffers gelöscht und dadurch nicht wiedergegeben. Der gelöschte Streckenabschnitt kann jedoch zahlreiche Kurven enthalten, die dem
Betrachter damit verborgen bleiben. Die Fahrtrichtung, bezogen auf die Himmelsrichtung,
kann sich also zwischen zwei Kreuzungsbereichen geändert haben, ohne dass es dem
Zuschauer bewusst ist. Das Einblenden eines Kompasses kann diese Orientierungslosigkeit
beseitigen, da die Kompassnadel immer nach Norden zeigt. Ändert das Fahrzeug die Fahrtrichtung, so wandert die Kompassnadel entweder nach links oder nach rechts. Alternativ
funktioniert auch der Einsatz eines modifizierten Kompasses, dessen Nadel zu jeder Zeit
auf den Zielort zeigt.
Äquivalent zu einer Wegbeschreibung im dreidimensionalen Raum müssten Geräte installiert werden, welche eine Orientierung im Raum ermöglichen. Zusätzlich zum Kompass
sollten diese Geräte die Kameraneigung zu allen drei Koordinaten-Achsen angeben und
im Video anzeigen. Dies Aufnahmen können zum Beispiel allgemein für eine Wegbeschreibung bei Flügen oder Unterwasserfahrten eingesetzt werden.
Anhang A - Literaturverzeichnis
118
Literaturverzeichnis
[Adidas 2005]
adidas-Salomon AG. Hainer, H. (Vorsitzender). (2005). Adidas Football
Commercial. Abgefragt am 23.10.2005, 12:09 Uhr von http://www.
weinbergervision.com/adidas-commercial-l3cat51side146.html
[Allport, Pettigrew 1957]
Allport, G.W. und Pettigrew, T.F. (1957). Cultural influences on the perception
of movement: The trapezoidal illusion among Zulus. Journal of Abnormal and
Social Psychology, 55, 104-113
[Amirani 2003]
Amirani, A. (2003). Concorde, el avión supersónico, 49:16 Minuten,
Originalsprache: Spanisch, Spanien: Principal Films Production
[Annis, Frost 1973]
Annis, R.C. und Frost, B. (1973). Human visual ecology and orientation
anisotropies in acuity. Science, 182, 729-741
[Ashley, Harper, Runyon 1951]
Ashley, W.R., Harper, R.S. und Runyon, D.L. (1951). The perceived size of coins
in normal und hypnotically induced economic states. American Journal of
Psychology, 64, 564-572
[Biedermann 1987]
Biedermann, I. (1987). Recognition-by-components: A theory of human image
understanding. Psychological Review, 94, 115-147
[Biedermann, Cromme 2006]
Biedermann, J. und Cromme, L. (2006). Echtzeit-Farbbildverarbeitung zur
vollflächigen Kontrolle von Faltschachteln. Brandenburgische TU Cottbus.
Abgefragt am 21.10.2006, 12:26 Uhr von http://kb-bmts.rz.tu-ilmenau.de/
gcg/html/Vortr_99_pdf/14_Biedermann.pdf
[Biedermann, Glass, Stacy 1973]
Biedermann, I., Glass, A.L. und Stacy, E.W. (1973). Searching for objects in
real-world scenes. Journal of Experimental Psychology, 97, 22-27
[Bradshaw 2006]
Bradshaw, G. (2006). http://www.centennialofflight.gov. Ornithopter.
Abgefragt am 30.11.2006, 09:40 Uhr von http://www.centennialofflight.
gov/essay/Dictionary/ornithopter/DI37.htm
[Bruce, Green 1990]
Bruce, V. und Green, P.R. (1990) Visual perception: Physiology, psychology,
and ecology (2. Auflage). Hove, UK: Psychology Press
[Bruce, Green, Georgeson 1996]
Bruce, V., Green, P.R. und Georgeson. M.A. (1996). Visual perception:
Physiology, psychology, and ecology (3. Auflage). Hove, UK: Psychology Press
[Bruner, Goodman 1947]
Bruner, J.S. und Goodman, C.D. (1947). Value and need as organising factors
in perception. Journal of Abnormal and Social Psychology, 42, 33-44
[Bruner, Postman, Rodrigues 1951] Bruner, J.S., Postman, L. und Rodriques, J. (1951). Expectations and the
perception of colour. American Journal of Psychology, 64, 216-227
[Bruno, Cutting 1988]
Bruno, N. und Cutting, J.E. (1988). Mini-modularity and the perception of
layout. Journal of Experimental Psychology: General, 117, 161-170
[Carmichael, Hogan, Walters 1932] Carmichael, L.C., Hogan, H.P., Walters, A.A. (1932). An experimental study of
the effect of language on the reproduction of visually perceived form. Journal
of Experimental Psychology, 15, 73-86
[Coren, Girgus 1972]
Coren, S. und Girgus, J.S. (1972). Visual spatial illusions: Many explanations.
Science, 179, 503-504
[DeLucia, Hochberg 1991]
DeLucia, P.R. und Hochberg, J. (1991). Geometrical illusions in solid objects
under ordinary viewing conditions. Perception & Psychophysics, 50, 547-554
[Derakshan, Eysenck 1997]
Derakshan, N. und Eysenck, M.W. (1997). Interpretive biases for one's own
behaviour in high-anxious individuals and repressors. Journal of Personality
and Social Psychology, 73, 816-825
[Deregowski, Muldrow 1972]
Deregowski, J., Muldrow, E.S. und Muldrow, W.F. (1972). Pictorial recognition
in a remote Ethiopian population. Perception, 1, 417-425
Anhang A - Literaturverzeichnis
119
[Dilthey, Brandenburg 2001]
Dilthey, U. und Brandenburg, A. (2001). Schweißtechnische
Fertigungsverfahren. Band 3: Gestaltung und Festigkeit von
Schweißkonstruktionen. Düsseldorf, Deutschland: Springer Verlag, 2. Auflage,
ISBN 3-540-62661-1
[Dost 2007]
Dost, U. (2007). Chamäleons. Ulmer (Eugen), ISBN: 3-8001-3544-2
[Engelmann 2004]
Engelmann, L. und Weitere (2004). Formelsammlung – Formeln, Tabellen,
Daten (4. Auflage). Berlin, Deutschland: PAETEC Gesellschaft für Bildung und
Technik mbH, ISBN 3-89818-700-4
[Eysenck 1977]
Eysenck, M.W. (1977). Human memory: Theory, research and individual
differences. New York, USA: Pergamon Press
[Eysenck 2000]
Eysenck, M.W. (2000). Psychology: A student's handbook. East Sussex, UK:
Psychology Press
[Fodor, Pylyshyn 1981]
Fodor, J.A. und Pylyshyn, Z.W. (1981). How direct is visual perception? Some
reflections on Gibson's "ecological approach". Cognition, 9, 139-196
[Friedmann 1979]
Friedmann, A. (1979). Framing pictures: The role of knowledge in automatised
encoding and memory for gist. Journal of Experimental Psychology: General,
108, 316-355
[Fröde 2005]
Fröde, C. (2005). Fotorealismus in der Malerei, in Fotos und in der
Computergrafik. Dresden, Deutschland: Archiv der TU Dresden, Fakultät
Informatik, Professur für Mediengestaltung
[Fröde 2006]
Fröde, C. (2006). Zeitlupen und Zeitraffer bei der Wegbeschreibung. Dresden,
Deutschland: Archiv der TU Dresden, Fakultät Informatik, Professur für
Mediengestaltung
[Gibson 1950]
Gibson, J.J. (1950). The perception of the visual world. Boston, USA:
Houghton Mifflin
[Gibson 1979]
Gibson, J.J. (1979). The ecological approach to visual perception. Boston,
USA: Houghton Mifflin
[Google Maps 2006]
Google Inc. Schmidt, E.E. (Vorstandsvorsitzender), TeleAtlas. Taeye A.D. (CEO)
(2006). Kartendaten. Abgefragt von http://maps.google.de
[Gordon 1989]
Gordon, I.E. (1989). Theories of visual perception. Chichester, UK: Wiley
[Gregor, McPherson 1965]
Gregor, A.J. und McPherson, D.A. (1965). A study of susceptibility to
Australian aborigines. Psychology in Africa, 11, 1-13
[Gregory 1970]
Gregory, R.L. (1970). The intelligent eye. New York, USA: McGraw-Hill
[Gregory 1972]
Gregory, R.L. (1972). Seeing as thinking. Times Literary Supplement, 23 June
[Gregory 1973]
Gregory, R.L. (1973). The confounded eye. In R.L. Gregory & E.H. Gombrich
(Eds.), Illusion in nature and art. London, UK: Duckworth
[Gregory 1980]
Gregory, R.L. (1980). Perceptions as hypotheses. Philosophical Transactions of
the Royal Society of London, Series B, 290, 181-197
[Grodde 2004]
Grodde, R. (2004). Lift Off - Der Weg ins All. Abgefragt am 23.10.2006,
10:51 Uhr von http://www.blue-cosmos.de/shuttle/start.html
[Hamel 1998]
Hamel, P. (1998). Mehrfachbelichtung Allee aus: Kamera Werk Dresden
GmbH (Herausgeber) (1998). Noblex® rotating lens. Großenhain/Sachsen,
Deutschland: Starke & Sachse GmbH
[Helmholtz 1903]
Helmholtz, H. (1903). Die Tatsachen in der Wahrnehmung, Vorträge und
Reden, II, Braunschweig, Deutschland
[Holway, Boring 1941]
Holway, A.F. und Boring, E.G. (1941). Determinants of apparent visual size
with distance variant. American Journal of Psychology, 54, 21-37
Anhang A - Literaturverzeichnis
120
[Hudson 1960]
Hudson, W. (1960). Pictorial depth perception in subcultural groups in Africa.
Journal of Social Psychology, 52, 183-208
[Hug 2006]
Hug, M. (2006). www.hti.bfh.ch. Mit rund 2,7 Tonnen rein ins Lenkrad.
Abgefragt am 22.09.2006, 18:03 Uhr von www.hti.bfh.ch/fileadmin/img/HTI/
KOMPR/Medien/Medienecho/ 2006_Mai/22052006_2_7Tonnen.pdf
[Ittelson 1951]
Ittelson, W.H. (1951). Size as a cue to distance: Static localisation. American
Journal of Psychology, 64, 54-67
[Ittelson 1952]
Ittelson, W.H. (1952). The Ames demonstrations in perception. New York,
USA: Hafner
[Johansson 1973]
Johannson, G. (1973). Visual perception of biological motion and a model for
its analysis. Perception & Psychophysics, 14, 201-211
[Kanizsa 1976]
Kanizsa, G. (1976). Subjective contours. Scientific American, 234, 48-52
[Koffka 1935]
Koffka, K. (1935). Principles of Gestalt psychology. New York, USA: Harcourt
Brace
[Kozlowski, Cutting 1978]
Kozlowski, L.T. & Cutting, J.E. (1978). Recognising the gender of walkers
from point-lights mounted on ankles: Some second thoughts. Perception &
Psychophysics, 23, 459
[Krankenhagen, Laube 1983]
Krankenhagen, G. und Laube, H. (1983). Werkstoffprüfung, Von Explosionen,
Brüchen und Prüfungen. Reinbek bei Hamburg, Deutschland: rororo, ISBN
3-499-17710-2
[Kunnapas 1968]
Kunnapas, T.M. (1968). Distance perception as a function of available visual
cues. Journal of Experimental Psychology, 77, 523-529
[KWD 1998]
Kamera Werk Dresden GmbH (Herausgeber) (1998). Noblex® rotating lens.
Großenhain/Sachsen, Deutschland: Starke & Sachse GmbH
[Land 1977]
Land, E.H. (1977). The retinex theory of colour vision. Scientific American, 237,
108-128
[Leibowitz und Andere 1969]
Leibowitz, H., Brislin, R., Permutter, L. und Hennessy, R. (1969). Ponzo
perspective illusions as a manifestation of space perception. Science, 166,
1174-1176
[Lilienthal 1889]
Lilienthal, O. (1889). Der Vogelflug als Grundlage der Fliegekunst. Berlin,
Deutschland: Verlagsbuchhandlung R. Gärtner. Neudruck: 1977. München,
Deutschland: Oldenbourg Verlag
[LOGLUX 2006]
Springer, G. (2006). http://www.kamera-werk-dresden.de. Ein Historisches
Datum 31.10.1839 - Beginn der industriellen Fertigung von Kameras in
Dresden. Abgefragt am 12.10.2006, 14:12 Uhr von http://www.kamera-werkdresden.de/deutsch/historie/inhalt.htm
[Malott und Andere 1967]
Malott, R.W., Malott, M.K. und Pokrzywinski, J. (1967). The effects of
outward pointing arrowheads on the Muller-Lyer illusion in pigeons.
Psychonomic Science, 9, 55-56
[Marr 1982]
Marr, D. (1982). Vision: A computational investigation into the human
representation and processing of visual information. San Francisco, USA: W.H.
Freeman
[Matlin, Foley 1997]
Matlin, M.W. und Foley, H.J. (1997). Sensation and perception (4th Edition).
Bostyn, Weißrussland: Allyn & Bacon
[Menzel 1978]
Menzel, E.W. (1978). Cognitive mapping in chimpanzees. In S.H. Hulse,
F. Fowler, & W.K. Honig (Eds.), Cognitive processes in animal behaviour.
Hillsdale, USA: Lawrence Erlbaum Associates Inc.
[MNL 1973]
Meyers Neues Lexikon (1973). Gifttiere. Band 5, Seite 466. Leipzig, DDR: VEB
Bibliographisches Institut
Anhang A - Literaturverzeichnis
121
[Neisser 1964]
Neisser, U. (1964). Visual Search. Scientific American, 210, 94-102
[Neisser 1967]
Neisser, U. (1967). Cognitive psychology. New York, USA: Appleton-CenturyCrofts
[Neisser 1976]
Neisser, U. (1976). Cognition and reality. San Francisco, USA: W.H. Freeman
[Oreck, Matthies 1999]
Oreck, J. und Matthies, E. (1999). Making "The Matrix", 25:55 Minuten,
Originalsprache: Englisch, USA: Eric Matthies Productions, Inc.
[Photron 2006]
Walentschka, W. (2006). http://www.vkt.de/highspeedfilme.html. HighspeedSysteme. Abgefragt am 26.09.2006, 10:15 Uhr von http://www.vkt.de/
Komponenten/Filme.klein.fertig/*.wmv
[Presseportal 2006]
News Aktuell Schweiz. Jäggi, H. (Geschäftsführer). (2006). Leistungsfähiger,
präziser und umweltschonender: Größte PET-Flaschensortieranlage
Europas eingeweiht. Abgefragt am 18.10.2006, 11:10 Uhr von http://www.
presseportal.ch/de/story.htx?nr=100489002
[Richards 1975]
Richards, W. (1975). Visual space perception. In E.C. Carterette & M.P.
Friedman (Eds.), Handbook of
perception. New York, USA: Academic Press
[Roth 1986]
Roth, I. (1986). An introduction to object perception. In I. Roth & J.P. Frisby
(Eds.), Perception and representation: A cognitive approach. Milton Keynes,
UK: Open University Press
[Schafer, Murphy 1943]
Schafer, R. und Murphy, G. (1943). The role of autism in visual figure-ground
relationship. Journal of Experimental Psychology, 32, 335-343
[Schardin 1938]
Schardin, H. (1938). Beiträge zur Ballistik und technischen Physik. Leipzig,
Deutschland: Leinen
[Schiffman 1967]
Schiffman, H.R. (1967). Size estimation of familiar objects under informative
and reduced conditions of viewing. American Journal of Psychology, 80, 229235
[Schubiger 2004]
Schubiger, I. (2004). Selbstdarstellung in der Videokunst – Zwischen
Performance und "Self-editing", Bonn, Deutschland: Dietrich Reimer Verlag
[Science Media 2006]
Science Media (2006). Diesel, R. (Inhaber). http://www.science-media.de/RD_
HS_d.htm. Digital Highspeed Video - Footage. abgerufen am 08.09.2006 um
8:29 Uhr von http://www.science-media.de/HS_pics/*.wmv
[Segall und Andere 1963]
Segall, M.H., Campbell, D.T. und Herskovits, M.J. (1963). Cultural differences
in the perception of geometrical illusions. Science, 139, 769-771
[Sekuler, Blake 1994]
Sekuler, R., und Blake, R. (1994). Perception (3. Edition). New York: McGrawHill
[Soegaard 2003]
Soegaard, M. (2003). Interaction-Design.org Encyclopedia: Gestalt principles
of form perception. Retrieved July 17, 2006 from Interaction-Design.org:
http://www.interaction-design.org/encyclopedia/gestalt_principles_of_form_
perception.html
[Spiegel Online 2005]
Spiegel Online (2005). Tropenstürme im Zeitraffer. (20.10.2005), abgerufen
am 12.06.2006 um 9:16 Uhr von http://www.spiegel.de/wissenschaft/
natur/0,1518,380634,00.html
[Starobin, Halverson 2006]
Starobin, M. und Halverson, J. (2006). 27 Storms – Arlene to Zeta
(01.03.2006), heruntergeladen am 08.11.2006 um 10:41 Uhr von http://svs.
gsfc.nasa.gov/vis/a000000/a003300/a003354/index.html
[Striewisch 2006]
Striewisch, T. (2006). Der grosse Humboldt Fotolehrgang (3. Auflage).
Gütersloh, Deutschland: Humboldt
[Tipper 2006]
Tipper, B. (2006). http://tipperography.typepad.com/about.html. A380
Abgefragt am 23.09.2006, 09:43 Uhr von http://tipperography.typepad.com/
tipperography/myimages/A380.jpg
Anhang B - Abbildungsverzeichnis
122
[Tresilian 1994]
Tresilian, J.R. (1994). Two straw men stay silent when asked about the
"direct" versus "inferential" controversy. Behavioural and Brain Sciences, 17,
335-336
[Turnbull 1961]
Turnbull, C.M. (1961). The forest people. New York, USA: Simon & Schuster
[Vernon 1972]
Vernon, P.E. (1972). The distinctiveness of field independence. Journal of
Personality, 40, 366-391
[Wachowski 1999]
Wachowski, A. und Wachowski, L. (1999). The Matrix, 130:37 Minuten,
Originalsprache: Englisch, USA: Warner Bros. Studios
[Weinberger Vision 2006]
Kunz, M. (2006). http://www.weinbergervision.com/deutsch-l1cat51.html.
Hochgeschwindigkeitskamera und Anwendungsbeispiele. Abgefragt am
26.09.2006, 10:00 Uhr von http://www.weinbergervision.com/mpeg/*.mpg
[Weisstein, Harris 1974]
Weisstein, N. und Harris, C.S. (1974). Visual detection of line segments: An
object-superiority effect. Science, 186, 752-755
[Wertheimer 1912]
Wertheimer, M. (1912). Experimental studies on the seeing of motion
[übersetzt von T. Shipley]. Aus Classics in perception. Princeton, NJ: Van
Nostrand
[Wheatstone 1838]
Wheatstone, C. (1838). Contributions to the physiology of vision. Part 1: On
some remarkable and hitherto unobserved phenomena of binocular vision.
Philosophical Transactions of the Royal Society of London, 128, 371-394
[Wiesner 1881]
Wiesner, J. (1881). Das Bewegungsvermögen der Pflanzen. Deutschland: A.
Hölder
[Witkin 1967]
Witkin, H.A. (1967). A cognitive style approach to cross-cultural research.
International Journal of Personality and Social Psychology, 33, 409-420
[Witkin und Andere 1962]
Witkin, H.A., Dyke, R.B., Faterson, H.F., Goodenough, D.R. und Karp, S.A.
(1962). Psychological differentiation. New York, USA: Wiley
[Witkin, Berry 1975]
Witkin, H.A. und Berry, J.W. (1975). Psychological differentiation in crosscultural perspective. Journal of Cross-Cultural Psychology, 6, 4-87
[Woodworth, Schlosberg 1954]
Woodworth, R.S. und Schlosberg, H. (1954). Experimental psychology (2nd
Edn.). New York, USA: Holt, Rinehart, & Winston
[ZDF 2006]
Zweites Deutsches Fernsehen, ZDF (2006). Abenteuer Wissen – Flugzeugsitze
im Crashtest. Gesendet am 12.04.2006 um 22:15 Uhr. Abgefragt am
23.09.2006, 7:28 Uhr von http://www.zdf.de/ZDFde/inhalt/27/0,1872,39234
51,00.html
[Zihl und Andere 1983]
Zihl, J., von Cramon, D. und Mai, N. (1983). Selective disturbance of
movement vision after bilateral brain damage. Brain, 106, 313-340
Abbildungsverzeichnis
Nr. Seite Titel
Quelle
1
16
Faksimile vom 31.10.1839
[KWD 1998, Seite 1]
2
17
Holzkastenkamera
[KWD 1998, Seite 1]
3
17
Patent-Etui-Kamera
[KWD 1998, Seite 2]
4
17
Pilot-Super
[KWD 1998, Seite 2]
5
17
Praktiflex
[KWD 1998, Seite 2]
6
18
Praktica und Praktina
[KWD 1998, Seite 3]
7
18
Noblex 150 Pro
[KWD 1998, Seite 3]
Anhang B - Abbildungsverzeichnis
123
Nr. Seite Titel
Quelle
8
18
Noblex 135
[KWD 1998, Seite 3]
9
18
LOGLUX HDRC
[LOGLUX 2006, loglux_vorne.gif]
10 19
LOGLUX i5A
[LOGLUX 2006, logluxi5.jpg]
11 19
LOGLUX i5
[KWD 1998, Datenblatt Loglux i5, Vorderseite]
12 19
Aufnahmespektrum der LOGLUX i5
[KWD 1998, Datenblatt Loglux i5, Rückseite]
13 27
Beispiele zur Gestalt-Theorie
[Fröde 2006, Seite 27]
14 27
Das Logo von visitnorway.com
[Soegaard 2003, gestalt_figure_ground_2.gif]
15 27
Das Logo von Gnome
[Soegaard 2003, gestalt_figure_ground.gif]
16 27
Das Logo von Macintosh
[Soegaard 2003, gestalt_figure_ground_3.gif]
17 28
Gesicht/Vase-Illusion
[Fröde 2006, Seite 28]
18 29
Bewegungswahrnehmung
[Fröde 2006, Seite 29], vergleiche [Eysenck 2000, Seite 267]
19 31
Kalksteingeröll an der Zugspitze
[Fröde 2006, Seite 31]
20 31
Kanizsa's illusionistisches Quadrat
[Fröde 2006, Seite 31]
21 32
Binokulare Disparität
[Fröde 2006, Seite 32], vergleiche [Eysenck 2000, Seite 269]
22 33
Interposition (Kartenexperiment)
[Fröde 2006, Seite 33], vergleiche [Eysenck 2000, Seite 270]
23 35
Der Ames-Raum
[Fröde 2006, Seite 35], vergleiche [Eysenck 2000, Seite 271]
24 36
Mustererkennung
[Fröde 2006, Seite 36]
25 37
Schablonen der Kategorie "Gebäude"
[Fröde 2006, Seite 37]
26 37
Buchstabenblöcke
[Fröde 2006, Seite 37], vergleiche [Eysenck 2000, Seite 273]
27 39
Top-Down und Bottom-Up
[Fröde 2006, Seite 39], vergleiche [Eysenck 2000, Seite 276]
28 40
Flugsimulator
[Fröde 2006, Seite 40]
29 43
Konstruktivistische Theorie
[Fröde 2006, Seite 43], vergleiche [Eysenck 2000, Seite 279]
30 44
Die Ponzo-Illusion
[Fröde 2006, Seite 44], vergleiche [Eysenck 2000, Seite 280]
31 45
Die Muller-Lyer-Illusion
[Fröde 2006, Seite 45], vergleiche [Eysenck 2000, Seite 281]
32 45
Varianten der Muller-Lyer-Illusion
[Fröde 2006, Seite 45], vergleiche [Eysenck 2000, Seite 281]
33 45
Die Muller-Lyer-Illusion (Buchrücken)
[Fröde 2006, Seite 45], vergleiche [Eysenck 2000, Seite 281]
34 47
Hohle Gesichtsmaske
[Eysenck 2000, Seite 282]
35 47
Der Wahrnehmungszyklus von Neisser
[Fröde 2006, Seite 47], vergleiche [Eysenck 2000, Seite 283]
36 48
Biedermann-Experiment (beisammen)
[Fröde 2006, Seite 48]
37 48
Biedermann-Experiment (verstreut)
[Fröde 2006, Seite 48]
38 49
Abseitsposition
[Fröde 2006, Seite 49]
39 51
Büffelherde in großer Entfernung
[Fröde 2006, Seite 51]
40 53
Wahrnehmungsbeeinflussende Faktoren
[Fröde 2006, Seite 53], vergleiche [Eysenck 2000, Seite 287]
41 59
Ineffiziente Aufnahme
[Fröde 2006, Seite 59]
42 59
Effiziente Aufnahme
[Fröde 2006, Seite 59]
43 61
Prozessablaufdauer
[Fröde 2006, Seite 61]
44 62
Orientierungspunkte bei Objekten
[Fröde 2006, Seite 62]
45 62
Mehrfachbelichtung einer Allee
Hamel, P. (1998). Mehrfachbelichtung Allee. aus: [KWD 1998, Seite 16]
46 63
Flug mit einer Concord
[Amirani 2003]
47 64
Bewegungsparallaxe
[Fröde 2006, Seite 64]
Anhang B - Abbildungsverzeichnis
124
Nr. Seite Titel
Quelle
48 64
Abstraktion einer Verkehrssituation
[Fröde 2006, Seite 64]
49 65
Landschaft geneigt, Auto eben
[Fröde 2006, Seite 65]
50 65
Landschaft eben, Auto geneigt
[Fröde 2006, Seite 65]
51 65
Videobild der Landschaft
[Fröde 2006, Seite 65]
52 67
Kartenausschnitt Leipzig – Dresden
[Google Maps 2006, 16.10.2006 um 11:28 Uhr]
53 67
Kartenausschnitt Autobahn – Campus
[Google Maps 2006, 16.10.2006 um 12:18 Uhr]
54 68
Kamera starr, Objekt starr
[Fröde 2006, Seite 68]
55 68
Kamera bewegt, Objekt bewegt
[Fröde 2006, Seite 68]
56 68
Kamera starr, Objekt bewegt
[Fröde 2006, Seite 68]
57 68
Kamera bewegt, Objekt starr
[Fröde 2006, Seite 68]
58 69
Schema zur Objektaufnahme
[Fröde 2006, Seite 69]
59 70
Wann Zeitraffer, wann Zeitlupe?
[Fröde 2006, Seite 70]
60 71
Videoclipkategorien
[Fröde 2006, Seite 69], vergleiche [Google Maps 2006]
61 72
Schema zum Teilen eines Zeitraffers
[Fröde 2006, Seite 72]
62 75
Fahrt geradeaus, Blick nach vorn
[Fröde 2006, Seite 75]
63 75
Fahrt geradeaus, Blick nach unten
[Fröde 2006, Seite 75]
64 75
Fahrt geradeaus, Blick leicht nach rechts
[Fröde 2006, Seite 75]
65 75
Fahrt geradeaus, Blick 90° nach rechts
[Fröde 2006, Seite 75]
66 75
Fahrt geradeaus, Blick nach hinten
[Fröde 2006, Seite 75]
67 75
Fahrt mit Linkskurve, Blick nach vorn
[Fröde 2006, Seite 75]
68 77
Kameraschwenk auf informative Objekte
[Fröde 2006, Seite 77]
69 77
Kamerarotation, Blick auf das Objekt
[Fröde 2006, Seite 77]
70 77
Kamerarotation, Bewegungserläuterung
[Fröde 2006, Seite 77]
71 77
Bewegungsachse außerhalb des Objektes
[Fröde 2006, Seite 77]
72 78
Bewegungsachse verläuft durch das Objekt [Fröde 2006, Seite 78]
73 83
Sony VX2000 DV-Kamera
[Fröde 2006, Seite 83]
74 83
Canon XL1 DV-Kamera
[Fröde 2006, Seite 83]
75 83
Canon Powershot A80 Digitalkamera
[Fröde 2006, Seite 83]
76 84
Crash-Test-Dummys
[ZDF 2006]
77 85
Zeitlupe Motorradunfall
[Weinberger Vision 2006, Motorrad.mpg]
78 85
Zeitlupe Gurt-Test
[Weinberger Vision 2006, Schlitten.mpg]
79 85
Zeitlupe Frontalkollision
[Photron 2006, crash.wmv]
80 86
Airbus A380
[Tipper 2006]
81 86
Dokumentarfilm zur Flugsicherheit
[ZDF 2006]
82 88
Zeitlupe Patronenhülsenauswurf
[Weinberger Vision 2006, Huelsenauswurf.mpeg]
83 88
Zeitlupe Projektilabschuss
[Weinberger Vision 2006, Pistolenmuendung_10000fps.mpeg]
84 88
Zeitlupe Kugeleinschlag im Eisblock
[Photron 2006, eisblock4.wmv]
85 88
Zeitlupe Start einer ballistischen Rakete
[Photron 2006, dragon1.wmv]
86 90
Zeitlupe Werkstoffprobe
[Weinberger Vision 2006, Werkstoffprobe_1_4000fps.mpeg]
87 90
Zeitlupe Pfeil durch Glas
[Photron 2006, pfeile2.wmv]
Anhang B - Abbildungsverzeichnis
125
Nr. Seite Titel
Quelle
88 90
Zeitlupe Luftballon mit Wasser
[Photron 2006, luftballon.wmv]
89 90
Zeitlupe Feuerzeug
[Weinberger Vision 2006, Feuerzeug.mpeg]
90 92
Zeitlupe Impulsschweißen (Photron)
[Photron 2006, schweissen3.wmv]
91 92
Zeitlupe Impulsschweißen (Weinberger)
[Weinberger Vision 2006, Pulsschweissen.mpeg]
92 93
Ornithopter
[Bradshaw 2006]
93 94
Zeitlupe Springreiten
[Science Media 2006, jumping horse_17.wmv]
94 94
Zeitlupe Chamäleon
[Science Media 2006, chamaeleon_1.wmv]
95 94
Zeitlupe Schlangenbiss
[Photron 2006, schlange5.wmv]
96 94
Zeitlupe fliegender Spatz
[Science Media 2006
97 95
Teebeutel
[Weinberger Vision 2006, Vogel.mpeg]
98 96
Zeitlupe Bindfaden an Teebeutel
[Weinberger Vision 2006, Teebeutel.avi]
99 96
Zeitlupe Bindfadenknoten
[Photron 2006, bindfaden.wmv]
100 96
Zeitlupe Faltschachteltransport
[Weinberger Vision 2006, Faltschachtel.avi]
101 96
Zeitlupe Start eines Space Shuttles
[Photron 2006, rakete4.wmv]
102 98
Zeitlupe Adidas Werbefilm
[Weinberger Vision 2006, adidas_fussball_komprimiert.asf]
103 98
Zeitlupe Bullet Time Effect
[Oreck, Matthies 1999]
104 99
Sonnenblumenfeld
[Fröde 2006, Seite 99]
105 100
Hurrikansaison 2005
[Starobin, Halverson 2006]
106 101
Punktlichtmessung
[Fröde 2006, Seite 101]
107 101
9-Feld-Lichtmessung
[Fröde 2006, Seite 101]
108 102
Zeitraffer Blick aus dem Fenster
[Fröde 2006, Seite 102]
109 102
Zeitraffer Dach abdecken
[Fröde 2006, Seite 102]
110 102
Zeitraffer Dresdner Elbwiesen
[Fröde 2006, Seite 102]
111 103
Kamera auf Auto montiert
[Fröde 2006, Seite 103]
112 104
Brennendes Fahrzeug
[Fröde 2006, Seite 104]
113 104
Blitzer
[Fröde 2006, Seite 104]
114 105
Autobahnfahrt - Auffahrt
[Fröde 2006, Seite 105]
115 105
Autobahnfahrt - Fahrt
[Fröde 2006, Seite 105]
116 105
Autobahnfahrt - Autobahndreieck
[Fröde 2006, Seite 105]
117 106
Stadtfahrt - Fahrt
[Fröde 2006, Seite 106]
118 106
Stadtfahrt - Abbiegevorgang
[Fröde 2006, Seite 106]
119 106
Stadtfahrt – Fahrt über Brücke
[Fröde 2006, Seite 106]
120 107
Trailer für das Student Life Building
[Fröde 2006, Seite 107], vergleiche [Google Maps 2006]
121 107
Campus der Florida State University
[Fröde 2006, Seite 107]
122 108
Taufstein der Marienkirche in Pirna
[Fröde 2006, Seite 108]
123 109
Taufstein - Rundflug
[Fröde 2006, Seite 109]
124 109
Taufstein - Dateilaufnahmen
[Fröde 2006, Seite 109]
Anhang C - Index
126
Index
Abspielgeschwindigkeit, 72
Abstraktions-Theorien, 37
Akkomodation, 32
Ames-Raum, 34-35, 44
Aufnahmegeräte, 15-24
Aufnahmetechniken, 59-60
Autobahnfahrt, 71, 103-105
Belichtungszeit, 21
Bewegungsparallaxe, 31, 63, 110
Bewegungswahrnehmung, 28
Biedermann-Experiment, 48
Bildaufnahmefrequenz, 70
bildhafte Tiefenhinweise, 30
binokulare Disparität, 32
binokulare Tiefenhinweise, 30, 32
Blende, 21
Bottom-Up-Prozess, 39, 65
Bullet-Time-Effect, 97
charakteristisches Angstgefühl, 50
Crash-Test-Dummy, 56, 84, 85-86
Detailveränderung, 70
Echtzeit, 13, 59
Empfindung, 25
Erwartung, 38, 44
extreme Zeitlupe, 13, 20, 97
extremer Zeitraffer, 13
Falsch-Angewendeten-Größenkonstanz-Theorie, 44
Farbkonstanz, 35
Figure-Ground-Phänomen, 27
Fixpunkt, 12, 40, 62, 74
Folgeentladungstheorie, 29
gemeinsames Schicksal, 28
Geneigter-Raum-Test, 49
Gesicht/Vase-Illusion, 27, 28
Gestalt-Theorie, 26
Größe-Entfernung-Invarianz-Hypothese, 34
Größenkonstanz, 34, 44
Horizontal-Vertikal-Illusion, 51
Hurrikansaison, 99-100
Hypothese zur Prozessdauer, 61
individuelle Variationen, 49
informative Objekte, 76
Intelligenz, 49
Interposition, 31, 33
Intervall/Timer-Funktion, 23
Invarianten, 41
Kamerabewegungen, 68, 74-78
Kamerafahrt, 74-76
Kamerarotation, 77, 110
Kameraschwenk, 76
Kartenexperiment, 33
konstruktivistische Theorie, 43-46
Konvergenz, 32
kulturelle Variationen, 50
Linearperspektive, 30,56, 63
Logo, 27
monokulare Hinweise, 30
Muller-Lyer-Illusion, 44-45, 51
Mustererkennung, 36, 64
Normalisierungsprozess, 36
Objektbewegung, 65-66, 68
Objekttransformation, 65-66, 68
Objekt-Überlegenheits-Effekt, 38
Optimierung, 73
optisches Feld, 40
Ornithopter, 93
Parallelisierung, 22
Pixel, 65
Pol, 40
Ponzo-Illusion, 44
Resonanzprozess, 41
Retinex-Theorie, 35
Rotation, 66
Ruhebereich, 62, 77, 110
Ruhepunkt, 12, 78
Schablonen-Theorie, 36
Schattierung, 31, 63
scheinbare Bewegung, 28
Serienbildfunktion, 23
Skalierung, 66
soziale Variationen, 50
Speicher, 21
Spezialaufnahme, 59
Spielfilm, 97
Stadtfahrt, 103-106
Stereopsis, 32
strukturelle Beschreibung, 38, 65
Taufstein, 78, 80, 108-110
Textur, 31, 63
Texturgradient, 40
Theorie der direkten Wahrnehmung, 40-42
Tiefenwahrnehmung, 30-33, 63
Toleranzbereich, 110
Top-Down-Prozess, 39, 65
Verblauung, 31, 63
Verdeckung, 31, 63
Verformung, 66
vertraute Größe, 31, 34, 63
Verzerrung, 66
Videoclipkategorien, 71-72
visuelle Illusionen, 51
visuelle Konstanten, 33
visuelle Wahrnehmung, 30
Wahrnehmung, 25, 43
Wahrnehmungsorganisation, 26-28
Wahrnehmungstheorien, 39-48
Wahrnehmungszyklus, 47
Werbung, 97
Wirkungsfeldabhängigkeit, 49
Zeichnungen, 52
Zeitlupe, 13
Zeitraffer, 12
Zentralperspektive, 74
Zyklentheorie, 47-48
Anhang D - Tabellen
127
Tabellen
Tabelle:
Abgrenzung:
Internet:
Stand:
Einführung
Anzahl (Pixel)
Farbe (Bit)
Intervall (intern)
Schreiben (B/Sek)
Volllast (Bilder)
Speicher (MByte)
Hersteller
Model
Digitalkameras zum Erstellen von Zeitraffern
Kameras ab Oktober 2003 mit einer PC-Verbindungsmöglichkeit
und der jeweiligen maximalen Auflösung ohne Interpolation
http://www.digitalkamera.de/Kameras/Schnellzugriff-de.asp
06.11.2006, 12:07 Uhr
Monat der Markteinführung
Anzahl der sichtbaren Pixel = Breite mal Höhe
Farbtiefe des Fotos
Gibt an, ob die Kamera ohne externes Zubehör über eine
Intervallfunktion verfügt.
Gibt in Byte pro Sekunde an, wie viele Vollbilder pro Sekunde die
Kamera bei einer Serienbildfunktion aufnehmen kann.
Gibt an, wie viele Bilder bei der Serienbildfunktion und der größt
möglichen Auflösung maximal erstellt werden können.
Bei keiner Angabe in einem grünen Feld wird die Anzahl nur durch
den maximal verfügbaren Speicher begrenzt.
Gibt in Megabyte an, über wieviel Speicher die Kamera (intern
und Speicherkarten) originalverpackt und ohne weiteres Zubehör
verfügt.
Bei Speicher = 0 Mbyte ist entweder kein Speicher oder keine
Angabe über den Speicher vorhanden.
Einführung
Breite Höhe
Anzahl
Farbe
Anschluss
Datum
Pixel Pixel
Pixel
Bit
extern
Intervall Schreiben Volllast Speicher
intern
B/Sek
Bilder
MByte
Acer
CR-5130
Februar 05
2560 1920
4915200
24
USB1.x
nein
2
3
64
Acer
CR-6530
Februar 05
2816 2112
5947392
24
USB1.x
nein
3
2
64
Acer
CR-8530
Juli 05
3264 2448
7990272
24
USB1.x
nein
Acer
CS-5530
Februar 05
2560 1920
4915200
24
USB2.0
nein
3
2
BenQ
DC C40
Juni 04
2304 1728
3981312
k.A.
USB1.x
nein
BenQ
DC C50
November 03
2560 1920
4915200
k.A.
USB1.x
nein
2
3
BenQ
DC C630
Juni 06
2816 2112
5947392
24
USB1.x
ja
BenQ
DC E43
November 04
2272 1704
3871488
24
USB1.x
nein
32
BenQ
DC E53
November 04
2560 1920
4915200
24
USB1.x
nein
32
BenQ
DC E600
Februar 06
2816 2112
5947392
24
USB2.0
ja
32
BenQ
DC E720
Oktober 06
3072 2304
7077888
24
USB2.0
ja
9
BenQ
DC S30
April 04
2848 2136
6083328
k.A.
USB1.x
nein
14
BenQ
DC S40
September 04 2848 2136
6083328
k.A.
USB1.x
nein
BenQ
DC X600
November 05
2816 2112
5947392
36
USB2.0
ja
Canon
Digital Ixus 30
Oktober 04
2048 1536
3145728
24
USB
nein
Canon
Digital Ixus 40
Oktober 04
2272 1704
3871488
24
USB1.1
nein
Canon
Digital Ixus 430
März 04
2272 1704
3871488
24
USB1.x
nein
2,5
Canon
Digital Ixus 50
April 05
2592 1944
5038848
24
USB2.0
ja
2,1
Canon
Digital Ixus 500
März 04
2592 1944
5038848
24
USB1.x
nein
2,5
Canon
Digital Ixus 55
September 05 2592 1944
5038848
24
USB2.0
ja
2,1
16
Canon
Digital Ixus 60
März 06
2816 2112
5947392
24
USB2.0
ja
2,1
16
Canon
Digital Ixus 65
April 06
2816 2112
5947392
24
USB2.0
ja
2,1
16
Canon
Digital Ixus 700
April 05
3072 2304
7077888
24
USB2.0
ja
2
32
Canon
Digital Ixus 750
September 05 3072 2304
7077888
24
USB2.0
ja
2
32
Canon
Digital Ixus 800 IS
April 06
2816 2112
5947392
24
USB2.0
ja
2,1
16
Canon
Digital Ixus 850 IS
Oktober 06
3072 2304
7077888
24
USB2.0
ja
1,7
16
Canon
Digital Ixus 900 Ti
September 06 3648 2736
9980928
24
USB2.0
ja
2,1
Canon
Digital Ixus i
2272 1704
3871488
24
USB
nein
1,6
Canon
Digital Ixus i zoom
September 05 2592 1944
5038848
24
USB
ja
1,8
Canon
Digital Ixus i5
November 04
2592 1944
5038848
24
USB
nein
0,9
Canon
Digital Ixus i7
Oktober 06
3072 2304
7077888
24
USB2.0
ja
1,6
Canon
Digital Ixus IIs
März 04
2048 1536
3145728
24
USB1.x
nein
2,2
Canon
Digital Ixus Wireless
Januar 06
2592 1944
5038848
24
USB2.0, WLAN
ja
2,1
Canon
EOS 20D
September 04 3504 2336
8185344
36
USB2.0
ja
5
Oktober 03
64
64
14
3
32
8
14
1,6
3
23
16
16
5
32
16
5
32
32
4
32
16
17
32
16
12
16
16
23
0
Anhang D - Tabellen
Hersteller
Model
128
Einführung
Breite Höhe
Anzahl
Farbe
Anschluss
Datum
Pixel Pixel
Pixel
Bit
extern
intern
B/Sek
Bilder
MByte
8185344
36
USB2.0
ja
5
23
0
September 05 3504 2336
Intervall Schreiben Volllast Speicher
Canon
EOS 20Da
Canon
EOS 30D
März 06
3504 2336
8185344
36
USB2.0
ja
5
30
0
Canon
EOS 350D
März 05
3456 2304
7962624
36
USB2.0
nein
3
14
0
Canon
EOS 400D
September 06 3888 2592 10077696
36
USB2.0
nein
3
27
0
Canon
EOS 5D
September 05 4368 2912 12719616
36
USB2.0
nein
3
60
0
Canon
EOS-1D Mark II
Canon
April 04
3504 2336
8185344
36
USB1.x, Firewire
ja
8,5
40
0
EOS-1D Mark II N
September 05 3504 2336
8185344
36
USB1.x, Firewire
ja
8,5
48
0
Canon
EOS-1Ds Mark II
November 04
4992 3328 16613376
36
USB1.x, Firewire
ja
4
32
0
Canon
PowerShot A310
März 04
2048 1536
3145728
24
USB1.x
nein
2,2
12
16
Canon
PowerShot A400
September 04 2048 1536
3145728
24
USB1.x
nein
1,3
12
16
Canon
PowerShot A410
August 05
2048 1536
3145728
24
USB2.0
ja
2,5
16
Canon
PowerShot A420
März 06
2272 1704
3871488
24
USB
ja
2,3
16
Canon
PowerShot A430
März 06
2272 1704
3871488
24
USB
ja
2,3
Canon
PowerShot A510
Februar 05
2048 1536
3145728
24
USB1.x
ja
2,3
12
16
Canon
PowerShot A520
März 05
2272 1704
3871488
24
USB1.x
ja
1,9
8
16
Canon
PowerShot A530
März 06
2592 1944
5038848
24
USB2.0
ja
2,1
16
Canon
PowerShot A540
März 06
2816 2112
5947392
24
USB2.0
ja
2,3
16
Canon
PowerShot A610
September 05 2592 1944
5038848
24
USB2.0
ja
2,4
16
Canon
PowerShot A620
September 05 3072 2304
7077888
24
USB2.0
ja
2,4
32
Canon
PowerShot A630
September 06 3264 2448
7990272
24
USB2.0
ja
1,8
32
Canon
PowerShot A640
September 06 3648 2736
9980928
24
USB2.0
ja
1,5
32
Canon
PowerShot A700
2816 2112
5947392
24
USB2.0
ja
2
16
Canon
PowerShot A710 IS
September 06 3072 2304
7077888
24
USB2.0
ja
1,7
Canon
PowerShot A75
März 04
2048 1536
3145728
24
USB1.x
nein
2,2
Canon
PowerShot A80
Oktober 03
2272 1704
3871488
24
USB1.x
nein
2,4
Canon
PowerShot A85
August 04
2272 1704
3871488
24
USB1.x
nein
1,5
8
32
Canon
PowerShot A95
September 04 2592 1944
5038848
24
USB1.x
nein
1,5
17
32
Canon
PowerShot G6
September 04 3072 2304
7077888
24
USB
ja
1,2
23
32
Canon
PowerShot G7
Canon
März 06
16
32
12
32
32
Oktober 06
3648 2736
9980928
24
USB2.0
nein
2
PowerShot Pro1
März 04
3264 2448
7990272
24
USB
ja
2,5
6
64
Canon
PowerShot S1 IS
März 04
2048 1536
3145728
24
USB
ja
1,7
17
32
Canon
PowerShot S2 IS
Juni 05
2592 1944
5038848
24
USB2.0
ja
2,3
Canon
PowerShot S3 IS
Mai 06
2816 2112
5947392
24
USB2.0
ja
1,5
Canon
PowerShot S60
Juli 04
2592 1944
5038848
24
USB1.x
nein
2
8
32
Canon
PowerShot S70
September 04 3072 2304
7077888
24
USB1.x
nein
2
15
32
Canon
PowerShot S80
Oktober 05
3264 2448
7990272
24
USB2.0
ja
1,8
Casio
Exilim Card EX-S100
Oktober 04
2048 1536
3145728
k.A.
USB
nein
Casio
Exilim Card EX-S500
Juli 05
2560 1920
4915200
k.A.
USB2.0
nein
1
8,3
Casio
Exilim Card EX-S600
Januar 06
2816 2112
5947392
24
USB2.0
nein
1
8,3
Casio
Exilim Card EX-S600D
Juli 06
2816 2112
5947392
24
USB2.0
nein
1
8,3
Casio
Exilim Card EX-S770
Januar 06
3072 2304
7077888
24
USB2.0
nein
1
6
Casio
Exilim EX-Z10
September 05 2560 1920
4915200
24
USB2.0
nein
1,1
8,7
3678 2736 10063008
24
USB2.0
nein
2816 2112
5947392
24
USB2.0
nein
1,1
8,7
September 05 3072 2304
1,1
8,3
Mai 06
32
16
16
32
9,3
Casio
Exilim EX-Z1000
Casio
Exilim EX-Z110
Casio
Exilim EX-Z120
7077888
24
USB2.0
nein
Casio
Exilim EX-Z30
März 04
2048 1536
3145728
k.A.
USB
nein
Casio
Exilim EX-Z4
Oktober 03
2304 1728
3981312
k.A.
USB1.x
nein
10
Casio
Exilim EX-Z40
März 04
2304 1728
3981312
k.A.
USB
nein
9,7
Casio
Exilim EX-Z5
Mai 06
2560 1920
4915200
24
USB2.0
nein
8,3
Casio
Exilim EX-Z50
Oktober 04
2560 1920
4915200
k.A.
USB
nein
Casio
Exilim EX-Z500
August 05
2560 1920
4915200
24
USB2.0
nein
Casio
Exilim EX-Z55
Oktober 04
2560 1920
4915200
k.A.
USB
nein
Casio
Exilim EX-Z57
März 05
2560 1920
4915200
k.A.
USB
nein
Casio
Exilim EX-Z60
März 06
2816 2112
5947392
24
USB2.0
nein
1
8,3
Casio
Exilim EX-Z600
Januar 06
2816 2112
5947392
24
USB2.0
nein
1
8,3
Casio
Exilim EX-Z70
Juni 06
3072 2304
7077888
24
USB2.0
nein
1
8,3
Casio
Exilim EX-Z700
August 06
3072 2304
7077888
24
USB2.0
nein
1
8,3
Casio
Exilim EX-Z750
April 05
3072 2304
7077888
k.A.
USB2.0
nein
1
8,3
Casio
Exilim EX-Z850
März 06
3264 2448
7990272
24
USB2.0
nein
0,9
Casio
Exilim Pro EX-P505
März 05
2560 1920
4915200
24
USB2.0
nein
Casio
Exilim Pro EX-P600
März 04
2816 2112
5947392
k.A.
USB
nein
3
6
9
Casio
Exilim Pro EX-P700
Oktober 04
3072 2304
7077888
k.A.
USB
nein
3
5
8,9
Casio
QV-R41
Februar 04
2304 1712
3944448
k.A.
USB
nein
3
3
9,7
Casio
QV-R51
Januar 04
2560 1920
4915200
k.A.
USB
ja
3
3
9,7
Casio
QV-R52
Oktober 04
2560 1920
4915200
k.A.
USB
ja
3
3
9,7
Casio
QV-R61
Oktober 04
2816 2112
5947392
k.A.
USB
ja
3
3
9,7
Casio
QV-R62
Januar 05
2816 2112
5947392
k.A.
USB
ja
3
3
9,7
Concord
1500
Februar 05
1280 1024
1310720
24
USB1.x
nein
Concord
3045
März 05
2048 1536
3145728
24
USB1.x
nein
5
16
Concord
Eye-Q 3040AF
Oktober 03
2048 1536
3145728
30
USB
nein
7
Concord
Eye-Q 4342z
November 03
2272 1704
3871488
k.A.
USB
nein
16
Contax
i4R
November 04
2272 1704
3871488
k.A.
USB2.0
nein
August 05
8
9,7
9,3
1,1
8,7
9,3
9,3
8
7,5
8
3
16
Anhang D - Tabellen
Hersteller
Model
129
Einführung
Breite Höhe
Anzahl
Farbe
Anschluss
Datum
Pixel Pixel
Pixel
Bit
extern
Intervall Schreiben Volllast Speicher
intern
B/Sek
Februar 04
2048 1536
3145728
k.A.
USB
nein
3,5
November 04
2272 1704
3871488
k.A.
USB2.0
nein
3
Oktober 03
2304 1728
3981312
k.A.
USB1.x
nein
16
Bilder
MByte
Contax
SL300R T
Contax
U4R
16
Epson
PhotoPC L-400
Epson
PhotoPC L-500V
November 04
2560 1920
4915200
k.A.
USB2.0
nein
0
Epson
R-D1
November 04
3008 2000
6016000
36
PC-Synchronbuchse
nein
0
Epson
R-D1s
Juli 06
3008 2000
6016000
36
PC-Synchronbuchse
nein
0
Fujifilm
Digital Q1
November 03
1600 1200
1920000
k.A.
USB
nein
8
Fujifilm
FinePix A120
April 04
2016 1512
3048192
k.A.
USB
nein
16
Fujifilm
FinePix A330
April 04
2016 1512
3048192
k.A.
USB
nein
16
Fujifilm
FinePix A340
April 04
2272 1704
3871488
k.A.
USB
nein
Fujifilm
FinePix A345
März 05
2272 1704
3871488
k.A.
USB
nein
1,5
3
16
Fujifilm
FinePix A350
Juni 05
2592 1944
5038848
k.A.
USB
nein
1,5
3
16
Fujifilm
FinePix A400
März 06
2304 1728
3981312
24
USB2.0
nein
12
Fujifilm
FinePix A500
März 06
2592 1944
5038848
24
USB2.0
nein
12
Fujifilm
FinePix A510
April 06
2592 1944
5038848
24
USB2.0
nein
Fujifilm
FinePix A600
Juli 06
3024 2016
6096384
24
USB2.0
nein
Fujifilm
FinePix A700
Oktober 06
3072 2304
7077888
24
USB2.0
nein
12
Fujifilm
FinePix E500
September 04 2304 1728
3981312
k.A.
USB1.x
nein
16
Fujifilm
FinePix E510
September 04 2592 1944
5038848
k.A.
USB1.x
nein
16
Fujifilm
FinePix E550
September 04 2848 2136
6083328
k.A.
USB
nein
Fujifilm
FinePix E900
0
16
12
0,95
3
16
16
Oktober 05
3488 2616
9124608
k.A.
USB2.0
nein
0,6
40
128
Fujifilm
FinePix F10
April 05
2848 2136
6083328
k.A.
USB2.0
nein
2,2
3
16
Fujifilm
FinePix F11
November 05
2848 2136
6083328
k.A.
USB2.0
nein
2,2
3
16
Fujifilm
FinePix F20
September 06 2848 2136
6083328
24
USB2.0
nein
0,7
10
Fujifilm
FinePix F30
16
Fujifilm
Juli 06
2848 2136
6083328
24
USB2.0
nein
0,7
FinePix F31fd
Dezember 06
2848 2136
6083328
24
USB2.0, IrDA-Infrarot
nein
0,7
Fujifilm
FinePix F420
März 04
2048 1536
3145728
k.A.
USB
nein
6
4
16
Fujifilm
FinePix F440
September 04 2304 1728
3981312
k.A.
USB
nein
4
8
16
Fujifilm
FinePix F450
September 04 2592 1944
5038848
k.A.
USB1.x
nein
Fujifilm
FinePix F455
November 04
2592 1944
5038848
k.A.
USB1.x
nein
Fujifilm
FinePix F460
November 05
2592 1944
5038848
k.A.
USB1.x
nein
Fujifilm
FinePix F470
März 06
2816 2112
5947392
24
USB2.0
nein
Fujifilm
FinePix F610
März 04
2848 2136
6083328
24
USB1.x
Fujifilm
FinePix F650
Juli 06
2816 2112
5947392
24
Fujifilm
FinePix F710
April 04
2048 1536
3145728
Fujifilm
FinePix F810
September 04 2848 2136
Fujifilm
FinePix S20 Pro
April 04
Fujifilm
FinePix S3 Pro
Fujifilm
FinePix S3000
Fujifilm
Fujifilm
Fujifilm
FinePix S5600
Fujifilm
26
16
16
1,9
44
nein
3,3
10
16
USB2.0
nein
0,6
2
32
k.A.
USB2.0
nein
1,8
40
16
6083328
k.A.
USB2.0
nein
3
40
16
2048 1536
3145728
k.A.
USR2.0, Firewire
nein
1
Oktober 04
3024 2016
6096384
36
USR2.0, Firewire
nein
Oktober 03
2048 1536
3145728
24
USB
nein
FinePix S3500
September 04 2272 1704
3871488
k.A.
USB
nein
FinePix S5500
September 04 2272 1704
3871488
k.A.
USB
nein
2592 1944
5038848
k.A.
USB2.0
nein
FinePix S6500fd
September 06 2848 2136
6083328
24
USB2.0
nein
Fujifilm
FinePix S9500
September 05 3488 2616
9124608
k.A.
USB2.0
nein
128
Fujifilm
FinePix S9600
Oktober 06
3488 2616
9124608
k.A.
USB2.0
nein
128
Fujifilm
FinePix V10
März 06
2592 1944
5038848
24
USB2.0
nein
16
Fujifilm
FinePix Z1
Juni 05
2592 1944
5038848
24
USB2.0
nein
16
Fujifilm
FinePix Z2
November 05
2592 1944
5038848
24
USB2.0, IrDA-Infrarot
nein
Fujifilm
FinePix Z3
Mai 06
2592 1944
5038848
24
USB2.0, IrDA-Infrarot
nein
Fujitsu-Siemens
CX 431
Januar 04
2272 1704
3871488
k.A.
USB
nein
Hewlett-Packard
HP Photosmart M305
August 04
2080 1544
3211520
36
USB
nein
Hewlett-Packard
Photosmart E317
September 05 2560 1920
4915200
36
USB2.0
nein
16
Hewlett-Packard
Photosmart E327
Januar 06
2560 1920
4915200
36
USB2.0
nein
16
Hewlett-Packard
Photosmart M22
April 05
2320 1744
4046080
36
USB1.x, HP Dockport
nein
16
Hewlett-Packard
Photosmart M23
Mai 05
2320 1744
4046080
36
USB1.x, HP Dockport
nein
Hewlett-Packard
Photosmart M307
April 04
2080 1544
3211520
36
USB
nein
Hewlett-Packard
Photosmart M407
April 05
2272 1704
3871488
36
USB
nein
Hewlett-Packard
Photosmart M417
April 05
2620 1984
5198080
36
USB1.x, HP Dockport
Hewlett-Packard
Photosmart M517
Mai 05
2690 1984
5336960
36
Hewlett-Packard
Photosmart M527
April 06
2800 2128
5958400
Hewlett-Packard
Photosmart R507
September 04 2320 1744
Hewlett-Packard
Photosmart R607
Mai 05
Hewlett-Packard
Photosmart R707
Hewlett-Packard
Oktober 05
13
16
16
0
2
4
1,6
40
16
16
16
16
0,7
10
16
0,7
10
16
4
16
16
4
16
2
4
16
nein
2
3
16
USB2.0, HP Dockport
nein
2
4
32
36
USB2.0, HP Dockport
nein
2
3
16
4046080
36
USB2.0
nein
32
2320 1744
4046080
36
USB2.0
nein
32
Mai 04
2612 1968
5140416
36
USB
nein
Photosmart R717
April 05
2934 2170
6366780
36
USB1.x, HP Dockport
nein
3
3
32
Hewlett-Packard
Photosmart R727
April 06
2864 2160
6186240
36
USB2.0, HP Dockport
nein
2
3
32
Hewlett-Packard
Photosmart R817
Juni 05
2592 1935
5015520
36
USB2.0, HP Dockport
nein
2
4
32
Hewlett-Packard
Photosmart R827
August 06
3112 2328
7244736
36
USB2.0, HP Dockport
nein
Hewlett-Packard
Photosmart R927
März 06
3312 2496
8266752
48
USB2.0, HP Dockport
nein
1
3
Hewlett-Packard
Photosmart R967
August 06
3664 2752 10083328
48
USB2.0, HP Dockport
nein
Jay-tech
Jay-Cam i4800
Jenoptik
JD 3.3z10
32
32
32
32
März 04
2272 1704
3871488
k.A.
USB2.0
nein
20
3
16
November 03
2048 1536
3145728
k.A.
USB1.x
nein
3,3
9
16
Anhang D - Tabellen
Hersteller
Model
130
Einführung
Breite Höhe
Anzahl
Farbe
Anschluss
Datum
Pixel Pixel
Pixel
Bit
extern
Intervall Schreiben Volllast Speicher
intern
B/Sek
Bilder
MByte
Jenoptik
JD 4.1 xz3
April 04
2272 1704
3871488
24
USB1.x
nein
16
Jenoptik
JD 4100 zoom
April 04
2272 1704
3871488
24
USB1.x
nein
16
Jenoptik
JD 5.2 z3 MPEG 4
April 04
2560 1920
4915200
24
USB1.x
nein
Jenoptik
JD C 3.1 SL
März 05
2048 1536
3145728
24
USB1.x
nein
Kodak
C300
Mai 05
2080 1544
3211520
24
USB
nein
Kodak
C310
August 05
2304 1728
3981312
24
USB2.0
nein
Kodak
C330
Juli 05
2304 1728
3981312
24
USB2.0
nein
1,8
3
16
Kodak
C340
Mai 05
2576 1932
4976832
24
USB
nein
3
3
16
Kodak
C360 Zoom
Juni 05
2576 1932
4976832
24
USB2.0
nein
2,4
5
32
Kodak
C530
Juni 06
2576 1932
4976832
24
USB2.0
nein
Kodak
C533
Juni 06
2576 1932
4976832
24
USB2.0
nein
0,6
4
16
Kodak
C643
April 06
2848 2134
6077632
24
USB2.0
nein
0,8
4
32
Kodak
C663
Februar 06
2832 2128
6026496
24
USB2.0
nein
0,8
4
32
Kodak
C875
September 06 3264 2448
7990272
24
USB2.0
nein
2
Kodak
CX7220
März 04
1632 1232
2010624
k.A.
USB1.x
nein
2
3
Kodak
CX7300
März 04
2080 1544
3211520
k.A.
USB
nein
Kodak
CX7330
Juni 04
2032 1524
3096768
k.A.
USB1.x
nein
3
3
16
Kodak
CX7430
März 04
2304 1728
3981312
k.A.
USB1.x
nein
3
6
16
Kodak
CX7525
Juli 04
2560 1920
4915200
k.A.
USB1.x
nein
2,4
5
16
Kodak
CX7530
Juli 04
2560 1920
4915200
k.A.
USB1.x
nein
2,4
5
32
Kodak
DCS Pro SLR c
Mai 04
4536 3024 13716864
36
Firewire
ja
1,7
19
512
Kodak
DCS Pro SLR n
März 04
4536 3024 13716864
36
Firewire
ja
1,7
19
512
Kodak
DX6490 Zoom
Oktober 03
2304 1728
3981312
k.A.
USB2.0
nein
3
6
16
Kodak
DX7440
Juli 04
2304 1728
3981312
k.A.
USB2.0
nein
2
6
32
Kodak
DX7590
September 04 2576 1932
4976832
k.A.
USB2.0
nein
2,5
5
32
Kodak
DX7630
April 04
2856 2142
6117552
k.A.
USB2.0
nein
2
4
32
Kodak
EasyShare-One
Juni 05
2408 1758
4233264
24
USB
nein
2
6
256
Kodak
LS743 Zoom
April 04
2304 1728
3981312
k.A.
USB
nein
3
6
16
Kodak
LS753 Zoom
Juni 04
2569 1929
4955601
k.A.
USB
nein
3
6
32
Kodak
LS755 Zoom
November 04
2592 1944
5038848
24
USB2.0
nein
4
1
16
Kodak
P712
Juli 06
3072 2304
7077888
k.A.
USB2.0
ja
2,6
Kodak
P850
September 05 2592 1944
5038848
k.A.
USB2.0
ja
2,3
Kodak
P880
September 05 3264 2448
7990272
k.A.
USB2.0
ja
1,6
7
32
Kodak
V530
Juli 05
2576 1932
4976832
24
USB2.0
nein
2,5
5
16
Kodak
V550
Juni 05
2576 1932
4976832
24
USB2.0
nein
3
5
32
Kodak
V570
Januar 06
2576 1932
4976832
24
USB2.0
nein
2,3
4
32
Kodak
V603
Mai 06
2832 2128
6026496
24
USB2.0
nein
3
4
32
Kodak
V610
Juni 06
2832 2128
6026496
24
USB2.0, Bluetooth
nein
1,6
8
32
Kodak
V705
September 06 3072 2304
7077888
24
USB2.0, Bluetooth
nein
2
7
32
Kodak
Z612
Juni 06
2832 2128
6026496
24
USB2.0
nein
2
8
32
Kodak
Z650
Februar 06
2832 2128
6026496
24
USB2.0
nein
2,5
4
32
Kodak
Z700
März 05
2304 1728
3981312
24
USB2.0
nein
3
6
16
Kodak
Z710
September 06 3072 2304
7077888
24
USB2.0
nein
1,7
3
32
Kodak
Z730
Mai 05
2576 1932
4976832
24
USB2.0
nein
2,5
5
32
Kodak
Z750
März 05
2576 1932
4976832
24
USB2.0
nein
2
5
32
Kodak
Z7590
Mai 05
2576 1932
4976832
24
USB2.0
nein
2
5
32
Konica
KD-3300 Z
Januar 04
2048 1536
3145728
k.A.
USB
nein
Konica
Revio KD-420Z
November 03
2272 1704
3871488
k.A.
USB
nein
2,5
3
16
Konica Minolta
Dimage A2
März 04
3264 2448
7990272
48
USB2.0
ja
1,8
3
0
Konica Minolta
Dimage A200
November 04
3264 2448
7990272
36
USB2.0
nein
2
3
Konica Minolta
Dimage E40
Januar 05
2272 1704
3871488
24
USB1.x
nein
Konica Minolta
Dimage E50
Januar 05
2560 1920
4915200
24
USB1.x
nein
Konica Minolta
Dimage G500
Februar 04
2593 1944
5040792
k.A.
USB1.x
nein
1,5
2
Konica Minolta
Dimage G530
August 04
2592 1944
5038848
k.A.
USB2.0
nein
0,7
16
Konica Minolta
Dimage G600
April 04
2816 2112
5947392
k.A.
USB
nein
Konica Minolta
Dimage X1
September 05 3264 2448
7990272
k.A.
USB2.0
nein
0,5
Konica Minolta
Dimage X21
April 04
1600 1200
1920000
36
USB
nein
1,5
Konica Minolta
Dimage X31
Juli 04
2048 1536
3145728
36
USB
nein
Konica Minolta
Dimage X50
August 04
2560 1920
4915200
k.A.
USB2.0
nein
1,9
Konica Minolta
Dimage X60
Mai 05
2560 1920
4915200
k.A.
USB2.0
nein
1,6
Konica Minolta
Dimage Xg
März 04
2048 1536
3145728
36
USB
nein
1,5
Konica Minolta
Dimage Z10
August 04
2048 1536
3145728
k.A.
USB2.0
nein
1,5
5
Konica Minolta
Dimage Z2
April 04
2272 1704
3871488
k.A.
USB
nein
1,5
5
48
Konica Minolta
Dimage Z20
Februar 05
2560 1920
4915200
k.A.
USB2.0
nein
1
5
30,5
Konica Minolta
Dimage Z3
August 04
2272 1704
3871488
k.A.
USB2.0
nein
2,5
2
48
Konica Minolta
Dimage Z5
Februar 05
2560 1920
4915200
k.A.
USB2.0
nein
2,2
2
16
Konica Minolta
Dimage Z6
September 05 2816 2112
5947392
k.A.
USB2.0
nein
1,8
Konica Minolta
Dynax 5D
September 05 3008 2000
6016000
k.A.
USB2.0
nein
3
3
Konica Minolta
Dynax 7D
November 04
3008 2000
6016000
k.A.
USB2.0
ja
3
9
Kyocera
Finecam L30
November 03
2048 1536
3145728
k.A.
USB1.x
nein
Kyocera
Finecam M400R
April 04
2272 1704
3871488
24
USB2.0
nein
3,3
Kyocera
Finecam M410R
April 04
2272 1704
3871488
24
USB2.0
nein
3,3
0
Kyocera
Finecam S3R
November 03
2048 1536
3145728
k.A.
USB
nein
3,1
16
16
0,5
3
16
16
16
13
32
16
16
32
32
16
0
32
0
18
3
32
8
16
16
4
15
16
32
16
64
0
16
0
Anhang D - Tabellen
Hersteller
Model
131
Einführung
Breite Höhe
Anzahl
Farbe
Anschluss
Datum
Pixel Pixel
Pixel
Bit
extern
Intervall Schreiben Volllast Speicher
intern
B/Sek
Kyocera
Finecam SL400R
April 04
2304 1728
3981312
k.A.
USB
nein
3
Bilder
MByte
Leica
C-LUX 1
Mai 06
2816 2112
5947392
24
USB2.0
nein
3
Leica
Digilux 2
Februar 04
2560 1920
4915200
36
USB2.0
nein
2,7
64
Leica
Digilux 3
Oktober 06
3136 2352
7375872
k.A.
USB2.0
nein
3
1
Leica
D-LUX 2
November 05
3840 2160
8294400
k.A.
USB2.0
nein
Leica
D-LUX 3
Oktober 06
4224 2376 10036224
k.A.
USB2.0
nein
2
3
November 06
3916 2634 10314744
16
8
64
0
64
Leica
M8
48
USB2.0
nein
2
10
0
Leica
V-LUX 1
Oktober 06
3648 2736
9980928
k.A.
USB2.0
nein
2
3
512
Maginon
DC2100
Januar 04
1600 1200
1920000
24
USB
nein
8
Maginon
DC-3010
April 05
2048 1536
3145728
24
USB
nein
32
Maginon
DC-320
April 05
2032 1520
3088640
24
USB2.0
nein
16
Maginon
DC-5000
April 05
2560 1920
4915200
24
USB
nein
Maginon
DC-5300
Oktober 03
2560 1920
4915200
24
USB
ja
Maginon
Slimline X4
November 04
2272 1704
3871488
24
USB1.x
nein
Maginon
Slimline X5
Januar 05
2560 1920
4915200
24
USB2.0
nein
Mamiya
ZD
5328 4000 21312000
48
Firewire
nein
Medion
MD 2998
Januar 04
2560 1920
4915200
24
USB
nein
Medion
MD 40696
Dezember 03
2592 1944
5038848
24
USB1.x
nein
Medion
MD 85416
Juni 06
2816 2112
5947392
24
USB2.0
ja
Minolta
Dimage G400
November 03
2272 1704
3871488
k.A.
USB
nein
Minox
DC 4211
September 04 2272 1704
3871488
24
USB1.x
nein
Minox
DC 5222
Januar 05
2560 1920
4915200
24
USB2.0
nein
Minox
DC 6211
Dezember 05
2816 2112
5947392
24
USB2.0
nein
Minox
DC 6311
September 04 2816 2112
5947392
24
USB1.x
ja
32
Minox
DC 8111
Juli 05
3264 2448
7990272
24
USB1.x
nein
64
Minox
DC-5011
März 06
2560 1920
4915200
24
USB
nein
Minox
DC5211
Dezember 03
2560 1920
4915200
24
USB1.x
ja
Minox
DC-6011 slim
März 06
2816 2112
5947392
24
USB1.x
nein
Mustek
MDC 6500Z
Oktober 04
2560 1920
4915200
24
USB2.0
nein
32
Nikon
Coolpix 2200
März 04
1600 1200
1920000
k.A.
USB
nein
14,5
Nikon
Coolpix 3200
März 04
2048 1536
3145728
k.A.
USB
nein
Nikon
Coolpix 3700
Dezember 03
2048 1536
3145728
k.A.
USB1.x
ja
Nikon
Coolpix 4100
Juni 04
2288 1712
3917056
k.A.
USB
nein
Nikon
Coolpix 4200
Juli 04
2272 1704
3871488
k.A.
USB
nein
1
16
Nikon
Coolpix 4600
Februar 05
2288 1712
3917056
24
USB2.0
nein
1,3
3
Nikon
Coolpix 4800
November 04
2288 1712
3917056
24
USB
nein
1,5
Nikon
Coolpix 5200
Juni 04
2592 1944
5038848
k.A.
USB
nein
2,5
Nikon
Coolpix 5600
Februar 05
2592 1944
5038848
k.A.
USB2.0
nein
1,3
3
14
Nikon
Coolpix 5900
Februar 05
2592 1944
5038848
k.A.
USB2.0
nein
2
5
13,5
Nikon
Coolpix 7600
Juni 05
3072 2304
7077888
k.A.
USB2.0
nein
Nikon
Coolpix 7900
März 05
3072 2304
7077888
k.A.
USB2.0
nein
1,7
7
13,5
Nikon
Coolpix 8400
Oktober 04
3264 2448
7990272
k.A.
USB2.0
ja
2,3
5
0
Nikon
Coolpix 8700
Februar 04
3264 2448
7990272
k.A.
USB
ja
2,5
5
0
Nikon
Coolpix 8800
Oktober 04
3264 2448
7990272
k.A.
USB2.0
ja
2,3
5
Nikon
Coolpix L1
September 05 2816 2112
5947392
24
USB2.0
nein
Nikon
Coolpix L101
September 05 2816 2112
5947392
24
USB2.0
nein
0,7
10
Nikon
Coolpix L2
Februar 06
2816 2112
5947392
24
USB2.0
nein
1,7
23
Nikon
Coolpix L3
Februar 06
2592 1944
5038848
24
USB2.0
nein
1,7
23
Nikon
Coolpix L4
März 06
2272 1704
3871488
24
USB2.0
nein
Nikon
Coolpix L5
September 06 3072 2304
7077888
24
USB2.0
nein
0,7
8
Nikon
Coolpix L6
September 06 2816 2112
5947392
24
USB2.0
nein
1,7
23
Nikon
Coolpix P1
September 05 3264 2448
7990272
24
USB2.0, WLAN
ja
2
32
Nikon
Coolpix P2
September 05 2592 1944
5038848
24
USB2.0, WLAN
ja
2,5
16
Nikon
Coolpix P3
Februar 06
3264 2448
7990272
24
USB2.0, WLAN
ja
1,7
23
Nikon
Coolpix P4
März 06
3264 2448
7990272
24
USB2.0
ja
1,7
23
Nikon
Coolpix S1
Juli 05
2592 1944
5038848
24
USB1.x
nein
1,8
Nikon
Coolpix S10
September 06 2816 2112
5947392
24
USB2.0
ja
1,6
Nikon
Coolpix S2
September 05 2592 1944
5038848
24
USB1.x
ja
1,8
Nikon
Coolpix S3
September 05 2816 2112
5947392
24
USB2.0
ja
1,6
12
Nikon
Coolpix S4
September 05 2816 2112
5947392
24
USB2.0
nein
1,3
13,5
Nikon
Coolpix S5
Februar 06
2816 2112
5947392
24
USB2.0
ja
2,2
21
Nikon
Coolpix S6
März 06
2816 2112
5947392
24
USB2.0, WLAN
ja
2,2
20
Nikon
Coolpix S7c
September 06 3072 2304
7077888
24
USB2.0, WLAN
ja
1,4
Nikon
Coolpix S9
September 06 2816 2112
5947392
24
USB2.0
ja
1,7
9
24
Nikon
D200
Dezember 05
3872 2592 10036224
36
USB2.0
ja
5
37
0
Nikon
D2H
November 03
2464 1632
4021248
36
USB2.0
ja
8
40
0
Nikon
D2Hs
März 05
2464 1632
4021248
36
USB2.0
ja
8
50
0
Nikon
D2X
Oktober 04
4288 2848 12212224
36
USB2.0
ja
8
40
0
Nikon
D2Xs
Juli 06
4288 2848 12212224
36
USB2.0
ja
8
40
0
Nikon
D50
Juni 05
3008 2000
6016000
36
USB2.0
nein
2,5
Nikon
D70
März 04
3008 2000
6016000
36
USB
ja
3
April 06
43
2
3
32
32
5
1,2
10
73
0
128
0,63
128
32
2,5
3
16
32
32
3
0
16
2
3
16
32
14,5
2,5
16
14,5
12
14
13,5
12
14,5
0
10
10
12
5
16
12
14
0
12
0
Anhang D - Tabellen
Hersteller
Model
Nikon
D70s
Nikon
D80
Olympus
AZ-2 Zoom
Olympus
Olympus
132
Einführung
Breite Höhe
Anzahl
Farbe
Anschluss
Datum
Pixel Pixel
Pixel
Bit
extern
Intervall Schreiben Volllast Speicher
intern
B/Sek
Bilder
MByte
April 05
3008 2000
6016000
36
USB2.0
ja
3
12
0
September 06 3872 2592 10036224
36
USB2.0
ja
3
100
0
1,5
8
16
Oktober 04
2288 1712
3917056
24
USB
nein
C-160
April 04
2048 1536
3145728
k.A.
USB
nein
16
C-170
Februar 05
2288 1721
3937648
24
USB
nein
14
Olympus
C-180
Juni 05
2592 1944
5038848
24
USB
nein
Olympus
C-310
März 04
2048 1536
3145728
k.A.
USB
nein
1,5
12
16
Olympus
C-315 Zoom
Juli 05
2592 1944
5038848
24
USB
nein
1,1
4
16
Olympus
C-360 Zoom
März 04
2048 1536
3145728
k.A.
USB
nein
1,5
10
16
Olympus
C-370 Zoom
Oktober 04
2048 1536
3145728
24
USB
nein
Olympus
C-460 Zoom
März 04
2288 1721
3937648
k.A.
USB
nein
1,3
8
16
Olympus
C-460 Zoom del Sol
März 04
2288 1721
3937648
k.A.
USB
nein
1,3
8
16
Olympus
C-470 Zoom
Oktober 04
2272 1704
3871488
24
USB
nein
1
4
16
Olympus
C-480 Zoom
März 05
2288 1712
3917056
24
USB
nein
1,3
7
14
Olympus
C-500 Zoom
März 05
2560 1920
4915200
24
USB
nein
1,5
5
14
Olympus
C-5000 Zoom
Oktober 03
2560 1920
4915200
k.A.
USB
nein
1,7
5
32
Olympus
C-5060 Wide Zoom
November 03
2592 1944
5038848
k.A.
USB
nein
1,7
Olympus
C-55 Zoom
März 05
2592 1944
5038848
k.A.
USB2.0
ja
2,7
5
16
Olympus
C-60 Zoom
Mai 04
2816 2112
5947392
k.A.
USB
nein
1,5
5
32
Olympus
C-70 Zoom
Oktober 04
3072 2304
7077888
k.A.
USB2.0
ja
1,5
Olympus
C-7070 Wide Zoom
Februar 05
3072 2304
7077888
k.A.
USB2.0
nein
1,4
10
32
Olympus
C-725 Ultra Zoom
Mai 04
1984 1488
2952192
k.A.
USB1.x
nein
1,2
5
16
Olympus
C-760 Ultra Zoom
Februar 04
2048 1536
3145728
k.A.
USB2.0
nein
1,4
12
16
Olympus
C-765 Ultra Zoom
Mai 04
2272 1704
3871488
k.A.
USB2.0
nein
2,1
2
16
Olympus
C-770 Ultra Zoom
Mai 04
2272 1704
3871488
k.A.
USB2.0
nein
2,7
12
32
Olympus
C-8080 Wide Zoom
April 04
3264 2448
7990272
k.A.
USB2.0
nein
1
26
32
Olympus
E-300
Dezember 04
3264 2448
7990272
24
USB2.0
nein
2,5
3
0
Olympus
E-330
März 06
3136 2352
7375872
24
USB2.0
nein
3
4
0
Olympus
E-400
Oktober 06
3648 2736
9980928
24
USB2.0
nein
3
27
0
Olympus
E-500
November 05
3264 2448
7990272
24
USB2.0
nein
2,5
Olympus
FE-100
Oktober 05
2272 1704
3871488
24
USB
nein
28
Olympus
FE-110
Oktober 05
2560 1920
4915200
24
USB
nein
44
Olympus
FE-115
März 06
2560 1920
4915200
24
USB
nein
Olympus
FE-120
Oktober 05
2816 2112
5947392
24
USB
nein
Olympus
FE-130
März 06
2592 1944
5038848
24
USB
nein
22
Olympus
FE-140
März 06
2816 2112
5947392
24
USB
nein
22
Olympus
FE-150
August 06
2560 1920
4915200
24
USB
nein
9
Olympus
FE-160
August 06
2816 2112
5947392
24
USB
nein
9
Olympus
FE-170
August 06
2816 2112
5947392
24
USB2.0
nein
10
Olympus
FE-180
September 06 2816 2112
Olympus
FE-190
Olympus
FE-200
Olympus
FE-5500
Mai 05
Olympus
Ferrari Digital 2004
Olympus
14
12
32
0
0
28
1,3
7
14
5947392
24
USB2.0
nein
22
2816 2112
5947392
24
USB
nein
22
September 06 2816 2112
5947392
24
USB
nein
24
2560 1920
4915200
24
USB
nein
Juli 04
2048 1536
3145728
k.A.
USB2.0
nein
1
3
16
IR-300
März 05
2560 1920
4915200
24
USB
nein
1,5
4
15
Olympus
IR-500
Januar 05
2288 1712
3917056
24
USB2.0
nein
1,6
7
Olympus
mju 1000
Oktober 06
3648 2736
9980928
24
USB2.0
nein
Olympus
mju 410 Digital
März 04
2272 1704
3871488
k.A.
USB1.x
nein
2
4
32
Olympus
mju 500 Digital
Januar 05
2560 1920
4915200
24
USB
nein
1,5
4
32
Olympus
mju 700
Februar 06
3072 2304
7077888
24
USB2.0
nein
1,1
6
19
Olympus
mju 720 SW
März 06
3072 2304
7077888
24
USB2.0
nein
1,1
8
19
Olympus
mju 725 SW
Oktober 06
3072 2304
7077888
24
USB2.0
nein
1,1
8
19
Olympus
mju 730
Oktober 06
3072 2304
7077888
24
USB2.0
nein
22
Olympus
mju 740
September 06 3072 2304
7077888
24
USB2.0
nein
17
Olympus
mju 750
September 06 3072 2304
7077888
24
USB2.0
nein
17
Olympus
mju 810
Olympus
August 06
14
0
28
März 06
3264 2448
7990272
24
USB2.0
nein
mju Digital 600
August 05
2816 2112
5947392
24
USB2.0
nein
1,3
Olympus
mju Digital 800
Juli 05
3264 2448
7990272
24
USB2.0
nein
1,3
4
19
Olympus
mju-mini Digital
Oktober 04
2272 1704
3871488
24
USB
nein
1,3
7
0
Olympus
mju-mini Digital S
April 05
2560 1920
4915200
24
USB
nein
1,5
4
0
Olympus
SP-310
August 05
3072 2304
7077888
k.A.
USB2.0
ja
2,4
2
25
Olympus
SP-320
März 06
3072 2304
7077888
k.A.
USB2.0
ja
1,4
10
25
Olympus
SP-350
Januar 05
3264 2448
7990272
k.A.
USB2.0
ja
2,4
2
25
Olympus
SP-500UZ
August 05
2816 2112
5947392
k.A.
USB2.0
ja
2,5
3
10
Olympus
SP-510UZ
September 06 3072 2304
7077888
k.A.
USB2.0
ja
1,7
3
21
Olympus
SP-700
Oktober 05
2816 2112
5947392
24
USB
nein
0,7
3
11
Panasonic
D-Snap SV-AS10
Oktober 03
1600 1200
1920000
k.A.
USB
nein
3
3
16
Panasonic
Lumix DMC-FX01
März 06
2816 2112
5947392
24
USB2.0
nein
3
8
16
Panasonic
Lumix DMC-FX07
September 06 3072 2304
7077888
24
USB2.0
nein
3
8
16
Panasonic
Lumix DMC-FX1
2048 1536
3145728
k.A.
USB
nein
4
5
16
Panasonic
Lumix DMC-FX2
September 04 2304 1728
3981312
k.A.
USB
nein
4
Panasonic
Lumix DMC-FX3
September 06 2816 2112
5947392
k.A.
USB2.0
nein
3
6
13,5
Panasonic
Lumix DMC-FX5
3981312
k.A.
USB
nein
4
5
16
Februar 04
März 04
2304 1728
28
8
16
Anhang D - Tabellen
Hersteller
Model
133
Einführung
Breite Höhe
Anzahl
Farbe
Anschluss
Datum
Pixel Pixel
Pixel
Bit
extern
Intervall Schreiben Volllast Speicher
intern
B/Sek
Bilder
MByte
Panasonic
Lumix DMC-FX50
September 06 3072 2304
7077888
24
USB2.0
nein
3
6
16
Panasonic
Lumix DMC-FX7
September 04 2560 1920
4915200
k.A.
USB2.0
nein
3
Panasonic
Lumix DMC-FX8
2560 1920
4915200
k.A.
USB2.0
nein
3
Panasonic
Lumix DMC-FX9
September 05 2816 2112
5947392
k.A.
USB2.0
nein
3
6
16
Panasonic
Lumix DMC-FZ10
2304 1728
3981312
k.A.
USB1.x
nein
4
5
16
Panasonic
Lumix DMC-FZ20
September 04 2560 1920
4915200
k.A.
USB
nein
4
4
16
Panasonic
Lumix DMC-FZ3
September 04 2016 1512
3048192
k.A.
USB
nein
4
7
8
Panasonic
Lumix DMC-FZ30
September 05 3264 2448
7990272
k.A.
USB2.0
nein
3
5
32
Panasonic
Lumix DMC-FZ4
März 05
2304 1728
3981312
k.A.
USB
nein
4
4
16
Panasonic
Lumix DMC-FZ5
März 05
2560 1920
4915200
k.A.
USB
nein
3
4
16
Panasonic
Lumix DMC-FZ50
September 06 3648 2736
9980928
k.A.
USB2.0
nein
2
3
32
Panasonic
Lumix DMC-FZ7
2816 2112
5947392
24
USB
nein
3
7
16
Panasonic
Lumix DMC-L1
September 06 3136 2352
7375872
k.A.
USB2.0
nein
3
6
0
Panasonic
Lumix DMC-LC1
März 04
2560 1920
4915200
36
USB2.0
nein
2,7
9
16
Panasonic
Lumix DMC-LC50
März 04
2048 1536
3145728
k.A.
USB
nein
3,5
8
16
Panasonic
Lumix DMC-LC70
April 04
2304 1728
3981312
k.A.
USB
nein
3,3
3
16
Panasonic
Lumix DMC-LC80
September 04 2560 1920
4915200
k.A.
USB
nein
2,7
5
16
Panasonic
Lumix DMC-LS1
März 05
2304 1728
3981312
k.A.
USB
nein
4
4
14
Panasonic
Lumix DMC-LS3
März 06
2560 1920
4915200
24
USB
nein
3
4
14
Panasonic
Lumix DMC-LX1
September 05 3840 2160
8294400
k.A.
USB
nein
3
5
0
Panasonic
Lumix DMC-LX2
September 06 4224 2376 10036224
k.A.
USB
nein
2
3
13
Panasonic
Lumix DMC-LZ1
Juni 05
2304 1728
3981312
k.A.
USB
nein
4
4
14
Panasonic
Lumix DMC-LZ2
März 05
2560 1920
4915200
k.A.
USB
nein
3
3
14
Panasonic
Lumix DMC-LZ3
März 06
2560 1920
4915200
24
USB
nein
3
3
14
Panasonic
Lumix DMC-LZ4
Juni 06
2560 1920
4915200
24
USB2.0
nein
3
3
14
Panasonic
Lumix DMC-LZ5
März 06
2816 2112
5947392
24
USB
nein
3
6
14
Panasonic
Lumix DMC-TZ1
April 06
2560 1920
4915200
24
USB
nein
3
3
13,4
Pentax
ist DL
Juli 05
3008 2008
6040064
24
USB2.0
ja
2,8
5
0
Pentax
ist DS
Oktober 04
3008 2008
6040064
24
USB2.0
ja
2,8
8
0
Pentax
K100D
August 06
3008 2008
6040064
24
USB2.0
ja
2,8
5
0
Pentax
K10D
Oktober 06
3872 2592 10036224
36
USB2.0
ja
3
9
0
Pentax
K110D
August 06
3008 2008
6040064
24
USB2.0
ja
2,8
5
Pentax
Optio 30
April 04
2048 1536
3145728
k.A.
USB1.x
ja
16
Pentax
Optio 33LF
Oktober 03
2048 1536
3145728
36
USB1.x
nein
16
Pentax
Optio 43WR
April 04
2288 1712
3917056
k.A.
USB1.x
ja
16
Pentax
Optio 50
April 05
2560 1920
4915200
36
USB
nein
12
Pentax
Optio 50L
Dezember 05
2560 1920
4915200
36
USB
nein
Pentax
Optio 555
Oktober 03
2592 1944
5038848
36
USB1.x
ja
Pentax
Optio 60
August 05
2848 2136
6083328
36
USB
nein
12
Pentax
Optio 750Z
September 04 3056 2296
7016576
36
USB
ja
0
Pentax
Optio A10
März 06
3264 2448
7990272
36
USB2.0
nein
0
Pentax
Optio A20
Oktober 06
3648 2736
9980928
36
USB2.0
nein
24
Pentax
Optio E10
Februar 06
2816 2112
5947392
36
USB
nein
10
Pentax
Optio E20
Oktober 06
2816 2112
5947392
36
USB
nein
13
Pentax
Optio L20
September 06 3072 2304
7077888
36
USB2.0
nein
23
Pentax
Optio M10
2816 2112
5947392
36
USB
nein
22
Pentax
Optio M20
September 06 3072 2304
7077888
36
USB
nein
22
Pentax
Optio MX
Juli 04
2048 1536
3145728
36
USB
nein
16
Pentax
Optio MX4
Oktober 04
2304 1728
3981312
36
USB
nein
16
Pentax
Optio S30
April 04
2048 1536
3145728
36
USB1.x
nein
11
Pentax
Optio S4
Oktober 03
2304 1728
3981312
k.A.
USB1.x
nein
11
Pentax
Optio S40
April 04
2304 1728
3981312
36
USB1.x
nein
11
Pentax
Optio S45
Juni 05
2304 1728
3981312
36
USB
nein
11
Pentax
Optio S4i
April 04
2304 1728
3981312
36
USB1.x
ja
10
Pentax
Optio S50
November 04
2560 1920
4915200
36
USB
nein
11
Pentax
Optio S55
Juni 05
2560 1920
4915200
36
USB
nein
11
Pentax
Optio S5i
Oktober 04
2560 1920
4915200
36
USB1.x
nein
10
Pentax
Optio S5n
April 05
2560 1920
4915200
36
USB2.0
nein
10
Pentax
Optio S5z
Juni 05
2560 1920
4915200
36
USB2.0
nein
9,3
Pentax
Optio S6
Oktober 05
2816 2112
5947392
36
USB2.0
nein
Pentax
Optio S60
September 05 2816 2112
5947392
36
USB
nein
11
Pentax
Optio S7
September 06 3072 2304
7077888
36
USB2.0
nein
23
Pentax
Optio SV
November 04
2560 1920
4915200
36
USB2.0
ja
32
Pentax
Optio Svi
Juni 05
2560 1920
4915200
36
USB2.0
ja
32
Pentax
Optio T10
April 06
2816 2112
5947392
36
USB2.0
ja
12
Pentax
Optio T20
Oktober 06
3072 2304
7077888
36
USB2.0
ja
12
Pentax
Optio W10
März 06
2816 2112
5947392
36
USB
nein
10,5
Pentax
Optio W20
September 06 3072 2304
7077888
36
USB
ja
Pentax
Optio WP
April 05
2560 1920
4915200
k.A.
USB
nein
Pentax
Optio Wpi
Oktober 05
2816 2112
5947392
k.A.
USB
nein
10,5
Pentax
Optio X
November 04
2560 1920
4915200
k.A.
USB1.x
ja
14
Practica
DCZ 5.1
Dezember 03
2560 1920
4915200
24
USB
nein
32
Juli 05
Januar 04
März 06
März 06
16
16
0
12
1,25
16
1,6
23
21,9
3
3
10,5
Anhang D - Tabellen
Hersteller
Model
134
Einführung
Breite Höhe
Anzahl
Farbe
Anschluss
Datum
Pixel Pixel
Pixel
Bit
extern
Intervall Schreiben Volllast Speicher
intern
B/Sek
Bilder
MByte
Practica
Luxmedia 4008
Juni 04
2272 1704
3871488
k.A.
USB2.0
nein
20
3
16
Practica
Luxmedia 5203
November 05
2560 1920
4915200
24
USB
nein
4
32
Practica
Luxmedia 8003
November 05
3264 2448
7990272
24
USB
nein
4
32
Revue
DC8000
Juli 05
3264 2448
7990272
24
USB1.x
nein
Ricoh
Caplio 300G
Oktober 03
2048 1536
3145728
k.A.
USB1.x
ja
7,6
15
Ricoh
Caplio 400G Wide
April 04
2048 1536
3145728
k.A.
USB1.x
ja
7,6
15
Ricoh
Caplio 500G Wide
August 06
3264 2448
7990272
k.A.
USB2.0
ja
Ricoh
Caplio GX
Mai 04
2592 1944
5038848
k.A.
USB1.x
ja
Ricoh
Caplio GX8
Mai 05
3264 2448
7990272
k.A.
USB2.0
ja
Ricoh
Caplio R1
September 04 2304 1728
3981312
k.A.
USB1.x
ja
12
Ricoh
Caplio R1V
Ricoh
Caplio R2
Ricoh
Caplio R3
Ricoh
Caplio R30
Januar 06
Ricoh
Caplio R4
Ricoh
Caplio R40
Ricoh
Caplio R5
Ricoh
Caplio RR330
März 04
Ricoh
Caplio RR530
Ricoh
64
8
8
26
16
0,6
26
Januar 05
2560 1920
4915200
k.A.
USB1.x
ja
12
März 05
2560 1920
4915200
24
USB1.x
ja
28
September 05 2592 1944
5038848
24
USB1.x
ja
26
2592 1944
5038848
24
USB1.x
ja
28
März 06
2816 2112
5947392
24
USB1.x
ja
26
Juni 06
2816 2112
5947392
24
USB1.x
ja
28
September 06 3072 2304
7077888
24
USB2.0
ja
26
2048 1536
3145728
k.A.
USB1.x
nein
16
Oktober 05
2560 1920
4915200
36
USB1.x
nein
12
Caplio RR630
März 06
2848 2136
6083328
24
USB1.x
nein
16
Ricoh
Caplio RR660
Juli 06
2816 2112
5947392
24
USB1.x
nein
16
Ricoh
Caplio RX
April 04
2048 1536
3145728
k.A.
USB1.x
ja
8
Ricoh
Caplio RZ1
September 04 2304 1728
3981312
k.A.
USB1.x
ja
12
Ricoh
GR Digital
November 05
3264 2448
7990272
k.A.
USB2.0
ja
26
Rollei
db60
Februar 06
2816 2112
5947392
24
USB2.0
ja
Rollei
dk4010
November 04
2272 1704
3871488
24
USB2.0
nein
3,3
Rollei
dp3210
Dezember 03
2048 1536
3145728
k.A.
USB1.x
nein
1,25
Rollei
dp8300
Juli 05
3264 2448
7990272
24
USB1.x
nein
64
Rollei
dr4
März 05
2304 1728
3981312
k.A.
USB1.x
nein
12
Rollei
dr5
März 05
2560 1920
4915200
k.A.
USB1.x
ja
12
Rollei
dr5100
November 04
2592 1944
5038848
k.A.
USB1.x
ja
16
Rollei
Prego dp5200
November 04
2560 1920
4915200
24
USB1.x
nein
Rollei
Prego dp6300
September 04 2816 2112
5947392
24
USB1.x
ja
5
32
5
32
24
0
16
16
0
Samsung
Digimax 530
Juli 04
2592 1944
5038848
k.A.
USB1.x
nein
Samsung
Digimax A4
März 05
2272 1704
3871488
24
USB1.x
nein
Samsung
Digimax A40
September 05 2272 1704
3871488
24
USB2.0
nein
11
Samsung
Digimax A400
Samsung
Digimax A402
Samsung
Digimax A5
Samsung
16
Oktober 04
2272 1704
3871488
24
USB1.x
nein
16
Mai 05
2272 1704
3871488
24
USB1.x
nein
16
November 04
2592 1944
5038848
24
USB1.x
nein
16
Digimax A50
September 05 2592 1944
5038848
24
USB2.0
nein
16
Samsung
Digimax A55W
September 05 2592 1944
5038848
24
USB2.0
nein
32
Samsung
Digimax A6
Oktober 04
2816 2112
5947392
24
USB1.x
nein
32
Samsung
Digimax A7
März 05
3072 2304
7077888
24
USB1.x
nein
32
Samsung
Digimax i5
Juni 05
2592 1944
5038848
24
USB2.0
nein
50
Samsung
Digimax i50 MP3
September 05 2592 1944
5038848
24
USB2.0
nein
48
Samsung
Digimax i6
45
Samsung
Digimax L50
Samsung
Digimax L55W
Samsung
Digimax L60
Samsung
Digimax L70
Samsung
Digimax L85
Samsung
März 06
2816 2112
5947392
24
USB2.0
nein
August 05
2592 1944
5038848
24
USB2.0
nein
September 05 2592 1944
5038848
24
USB2.0
nein
2
0
2816 2112
5947392
24
USB2.0
nein
2
32
September 06 3072 2304
März 06
32
7077888
24
USB2.0
ja
3264 2448
7990272
24
USB2.0
nein
2
32
Digimax Pro815
September 05 3264 2448
7990272
24
USB2.0
ja
1
64
Samsung
Digimax S1000
September 06 3672 2760 10134720
24
USB2.0
nein
45
Samsung
Digimax S500
Februar 06
2592 1944
5038848
24
USB2.0
nein
20
Samsung
Digimax S600
Februar 06
2816 2112
5947392
24
USB2.0
nein
20
Samsung
Digimax S700
September 06 3072 2304
7077888
24
USB2.0
nein
20
Samsung
Digimax S800
Samsung
März 06
32
März 06
3264 2448
7990272
24
USB2.0
nein
20
Digimax U-CA 3
Dezember 03
2048 1536
3145728
k.A.
USB1.x
nein
32
Samsung
Digimax U-CA 4
Oktober 04
2272 1704
3871488
k.A.
USB1.x
nein
32
Samsung
Digimax U-CA 401
Juli 04
2272 1704
3871488
k.A.
USB
nein
16
Samsung
Digimax U-CA 5
Juni 05
2592 1944
5038848
24
USB2.0
nein
32
Samsung
Digimax U-CA 505
November 04
2560 1920
4915200
k.A.
USB1.x
nein
16
Samsung
Digimax V40
August 04
2272 1704
3871488
k.A.
USB
nein
32
Samsung
Digimax V5
Juni 04
2560 1920
4915200
k.A.
USB1.x
nein
Samsung
Digimax V50
Juni 04
2592 1944
5038848
24
USB2.0
nein
Samsung
Digimax V6
Oktober 04
2816 2112
5947392
k.A.
USB1.x
nein
Samsung
Digimax V70
November 04
3072 2304
7077888
k.A.
USB2.0
nein
0
Samsung
Digimax V700
März 05
3072 2304
7077888
24
USB1.x
nein
32
Samsung
Digimax V800
Oktober 05
3264 2448
Samsung
GX-10
November 06
Samsung
GX-1L
Samsung
GX-1S
Samsung
Samsung
32
3
0
32
7990272
24
USB2.0
nein
3872 2592 10036224
36
USB2.0
ja
3
9
32
0
April 06
3008 2008
6040064
24
USB2.0
ja
2,8
5
0
April 06
3008 2008
6040064
24
USB2.0
ja
2,8
8
NV10
September 06 3648 2736
9980928
24
USB2.0
nein
19
NV3
September 06 3072 2304
7077888
24
USB2.0
nein
15
0
Anhang D - Tabellen
Hersteller
Model
135
Einführung
Breite Höhe
Anzahl
Farbe
Anschluss
Datum
Pixel Pixel
Pixel
Bit
extern
intern
7077888
24
USB2.0
nein
19
16
September 06 3072 2304
Intervall Schreiben Volllast Speicher
B/Sek
Bilder
MByte
Samsung
NV7 OPS
Sanyo
VPC-J2 EX
Oktober 03
2880 2160
6220800
k.A.
USB1.x
nein
Sanyo
VPC-J4 EX
April 04
2288 1712
3917056
k.A.
USB
nein
0
Sanyo
VPC-S3 EX
Mai 04
2048 1536
3145728
k.A.
USB2.0
nein
16
Sanyo
VPC-S4
Juli 04
2288 2448
5601024
k.A.
USB2.0
nein
Sanyo
Xacti VPC-A5
Oktober 04
2560 1920
4915200
k.A.
USB2.0
nein
Sanyo
Xacti VPC-C4
Oktober 04
2288 2448
5601024
k.A.
USB2.0
nein
0
Sanyo
Xacti VPC-C40
November 05
2288 2448
5601024
24
USB2.0
nein
0
Sanyo
Xacti VPC-C5
März 05
2592 1944
5038848
k.A.
USB2.0
nein
0
Sanyo
Xacti VPC-C6
November 05
2816 2112
5947392
24
USB2.0
nein
0
Sanyo
Xacti VPC-CA6 Active
September 06 2816 2112
5947392
24
USB2.0
nein
0
Sanyo
Xacti VPC-E6
September 05 2816 2112
5947392
24
USB2.0
nein
16
Sanyo
Xacti VPC-E60
2816 2112
5947392
24
USB2.0
nein
Sanyo
Xacti VPC-E7
September 06 3072 2760
8478720
24
USB2.0
nein
2,3
23
Sanyo
Xacti VPC-HD1A
September 06 2592 1944
5038848
24
USB2.0
nein
5
0
Sanyo
Xacti VPC-HD1EX
März 06
2592 1944
5038848
24
USB2.0
nein
Sanyo
Xacti VPC-S5
März 05
2592 1944
5038848
24
USB2.0
nein
Sanyo
Xacti VPC-S50
Oktober 06
2560 1920
4915200
24
USB2.0
nein
Sanyo
Xacti VPC-S6
Oktober 05
2816 2112
5947392
24
USB2.0
nein
Sanyo
Xacti VPC-S60
März 06
2816 2112
5947392
24
USB2.0
nein
Sanyo
Xacti VPC-S7
September 06 3072 2760
8478720
24
USB2.0
nein
2,3
Sigma
SD10
November 03
2268 1512
3429216
36
USB1.x, Firewire
nein
1,9
6
Sigma
Sigma SD14
November 06
2652 1768
4688736
36
USB2.0
nein
3
6
Skanhex
SX-626z3
November 04
2848 2136
6083328
24
USB1.x
nein
Sony
Alpha 100
Juli 06
k.A.
USB2.0
nein
3
Sony
DSC-F828
Dezember 03
3264 2448
7990272
24
USB2.0
nein
2,4
Sony
DSC-F88
Juli 04
2592 1944
5038848
k.A.
USB2.0
nein
Sony
DSC-H1
Juni 05
2592 1944
5038848
24
USB2.0
nein
Sony
DSC-H2
April 06
2816 2112
5947392
24
USB2.0
nein
1,3
Sony
DSC-H5
März 06
3072 2304
7077888
24
USB2.0
nein
Sony
DSC-L1
Oktober 04
2304 1728
3981312
24
USB2.0
Sony
DSC-M2
November 05
2592 1944
5038848
24
Sony
DSC-N1
November 05
3264 2448
7990272
Sony
DSC-N2
Oktober 06
3648 2736
Sony
DSC-P100
Mai 04
Sony
DSC-P120
Mai 04
Sony
DSC-P150
Sony
DSC-P200
Februar 05
Sony
DSC-P43
Sony
März 06
3880 2600 10088000
16
1,9
16
32
0
1,3
3
16
6
23
4
15
21,9
22
0
0
128
0
7
0
9
32
9
32
7
32
1,1
5
32
nein
0,9
5
16
USB2.0
nein
3
4
64
24
USB2.0
nein
9980928
24
USB2.0
nein
0,9
3
2592 1944
5038848
36
USB2.0
nein
2592 1944
5038848
36
USB2.0
nein
5
32
September 04 3072 2304
7077888
36
USB2.0
nein
5
32
3072 2304
7077888
24
USB2.0
nein
1
32
Mai 04
2304 1728
3981312
k.A.
USB2.0
nein
16
DSC-P73
Mai 04
2304 1728
3981312
k.A.
USB2.0
nein
16
Sony
DSC-P93
Mai 04
2592 1944
5038848
36
USB2.0
nein
32
Sony
DSC-R1
November 05
k.A.
USB2.0, ACC
nein
Sony
DSC-S40
April 05
2304 1728
3981312
24
USB2.0
nein
Sony
DSC-S500
August 06
2816 2112
5947392
36
USB2.0
nein
Sony
DSC-S60
April 05
2304 1728
3981312
24
USB2.0
Sony
DSC-S600
Januar 06
2816 2112
5947392
36
Sony
DSC-S80
April 05
2304 1728
3981312
Sony
DSC-S90
April 05
2304 1728
Sony
DSC-T1
Januar 04
Sony
DSC-T10
Sony
DSC-T3
Oktober 04
Sony
DSC-T30
Sony
DSC-T33
Sony
DSC-T5
Sony
DSC-T50
Oktober 06
Sony
DSC-T7
Sony
3882 2592 10062144
26
26
32
5
0
1,4
4
32
nein
1,4
4
32
USB2.0
nein
1,25
7
32
24
USB2.0
nein
1,4
4
32
3981312
24
USB2.0
nein
1,4
4
32
2592 1944
5038848
k.A.
USB2.0
nein
4
32
September 06 3072 2304
7077888
24
USB2.0
nein
0,7
5
56
2592 1944
5038848
24
USB2.0
nein
1,2
9
32
Mai 06
3072 2304
7077888
24
USB2.0
nein
1,1
5
58
Februar 05
2592 1944
5038848
24
USB2.0
nein
1,2
9
32
September 05 2592 1944
5038848
24
USB2.0
nein
1,4
9
32
3072 2304
7077888
24
USB2.0
nein
0,7
5
56
Mai 05
2592 1944
5038848
24
USB2.0
nein
1,2
9
32
DSC-T9
Februar 06
2816 2112
5947392
24
USB2.0
nein
1,4
7
58
Sony
DSC-U40
Januar 04
1632 1224
1997568
24
USB
nein
2
8
Sony
DSC-U50
Oktober 03
1632 1224
1997568
24
USB
nein
2
8
Sony
DSC-V3
Oktober 04
3072 2304
7077888
24
USB2.0
nein
0,9
15
0
Sony
DSC-W1
Juni 04
2592 1944
5038848
36
USB2.0
nein
1,2
9
32
Sony
DSC-W100
April 06
3264 2448
7990272
24
USB2.0
nein
3
64
Sony
DSC-W12
Juni 04
2592 1944
5038848
36
USB2.0
nein
1,2
9
32
Sony
DSC-W30
März 06
2816 2112
5947392
24
USB2.0
nein
1,4
3
32
Sony
DSC-W5
Februar 05
2592 1944
5038848
36
USB2.0
nein
1,6
9
64
Sony
DSC-W50
März 06
2816 2112
5947392
24
USB2.0
nein
1,4
3
32
Sony
DSC-W7
März 05
3072 2304
7077888
36
USB2.0
nein
1,1
5
64
Sony
DSC-W70
April 06
3072 2304
7077888
24
USB2.0
nein
3
58
Traveler
DC-4000
Juni 04
2304 1728
3981312
24
USB
nein
Traveler
DC-5300
Oktober 03
2560 1920
4915200
24
USB
ja
Traveler
DC-8300
Juni 05
3264 2448
7990272
24
USB1.x
nein
64
Traveler
DC-8600
Juni 06
3264 2448
7990272
24
USB
nein
256
Traveler
Slimline X5
Mai 05
2560 1920
4915200
24
USB2.0
nein
5
265
Traveler
Slimline X6
Dezember 05
2816 2112
5947392
24
USB1.x
nein
3
272
Trust
1490Z PowerCam Optical Zoom
April 04
2560 1920
4915200
24
USB
nein
25
32
2
3
64
14
Anhang D - Tabellen
Hersteller
136
Model
Einführung
Breite Höhe
Anzahl
Farbe
Anschluss
Datum
Pixel Pixel
Pixel
Bit
extern
Intervall Schreiben Volllast Speicher
intern
Januar 04
2048 1536
3145728
k.A.
USB2.0
nein
B/Sek
Bilder
MByte
3
16
Trust
922Z PowerCam Optical Zoom
Voigtländer
Virtus D4
November 04
2272 1704
3871488
24
USB1.x
nein
32
Voigtländer
Virtus D500
September 05 2560 1920
4915200
24
USB1.x
nein
9
Voigtländer
Virtus D6
September 05 2816 2112
5947392
24
USB2.0
nein
0
Voigtländer
Virtus D8
September 05 3264 2448
7990272
24
USB1.x
ja
Voigtländer
Virtus S6
Yakumo
April 06
2816 2112
5947392
24
USB1.x
nein
Mega-Image 410
Februar 05
2304 1728
3981312
24
USB1.x
nein
Yakumo
Mega-Image 47SL
August 04
2304 1728
3981312
24
USB2.0
nein
0
2
5
0
3
16
0
Yakumo
Mega-Image 47sx
Juli 04
2272 1704
3871488
24
USB
nein
Yakumo
Mega-Image 55cx
März 05
2592 1944
5038848
24
USB1.x
nein
Yakumo
Mega-Image 57
Mai 04
2560 1920
4915200
24
USB
nein
Yakumo
Mega-Image 57x
Juli 04
2560 1920
4915200
k.A.
USB
nein
Yakumo
Mega-Image 610x
April 05
2816 2112
5947392
24
USB1.x
nein
Yakumo
Mega-Image 67x
Juli 04
2816 2112
5947392
k.A.
USB
nein
Yakumo
Mega-Image 811x
März 06
3296 2472
8147712
24
USB1.x
nein
Yakumo
Mega-Image 84D
September 04 2272 1704
3871488
k.A.
USB2.0
nein
Yakumo
Mega-Image 85D
September 05 2560 1920
4915200
24
USB2.0
nein
Yakumo
Mega-Image VI
Oktober 03
2048 1536
3145728
24
USB
nein
Yakumo
Mega-Image VII
Oktober 04
2880 2160
6220800
24
USB2.0
nein
Yakumo
Mega-Image X
Juni 05
2592 1944
5038848
24
USB
nein
16
Yakumo
Mega-Image XL
Oktober 05
2592 1944
5038848
24
USB
nein
32
Yakumo
Mega-Image XS
Mai 06
2048 1536
3145728
24
USB
nein
16
Tabelle:
Abgrenzung:
Internet:
0
0,63
0
11
2
16
2
16
0
32
16
20
3
16
16
3
16
Hochgeschwindigkeitskameras zum Erstellen von Zeitlupen
maximale Aufnahmefrequenz bei höchster Auflösung und
maximale Aufnahmefrequenz überhaupt,
nur Kameras, die sichtbares Licht aufnehmen
(Infrarot, Ultraviolett und andere Strahlungen nicht)
die jeweiligen Internetseiten der Firmen
Stand:
20.11.2006; 12:35 Uhr
Aufnahme (Bilder/Sek): Gibt in Bildern pro Sekunde die maximale Aufnahmefrequenz bei
dem gewählten Videoformat an.
Aufnahmedauer
Gibt in Sekunden an, wie lange die Kamera ohne Speicher(Sekunden):
erweiterungen filmen kann.
Wenn der Wert 0,00 ist, dann wird die Aufnahme nur durch den
externen, physischen Speicher begrenzt.
Speicher (GBbyte):
Gibt in Gigabyte an, wie groß der interne Kameraspeicher ist.
Farbe (Bit):
Gibt in Bit die Farbtiefe der Zeitlupe an.
Schreiben (MByte/Sek): Gibt in Megabyte pro Sekunde an, wie schnell der Speicher
beschrieben werden kann.
Hersteller
Model
Aufnahme Breite Höhe Aufnahmedauer Speicher Farbe Schreiben
Bilder/Sek Pixel Pixel
Kamera Werk Dresden GmbH (D)LogLux i5 CameraLink
34
Kamera Werk Dresden GmbH (D) LogLux i5 CameraLink
1750
Sekunden
GByte
Bit
1280 1024
10
100
MByte/Sek
100
10
Kamera Werk Dresden GmbH (D) LogLux i5 FireWire
25
1280 1024
10
Kamera Werk Dresden GmbH (D) LogLux i5 FireWire
417
100
100
L.O.T. Oriel AG (D)
Citus Imaging C10
99
640
480
70,90
2
8
L.O.T. Oriel AG (D)
Citus Imaging C10
10652
40
20
252,00
2
8
8,13
L.O.T. Oriel AG (D)
Model 212-4
10
parallel
L.O.T. Oriel AG (D)
Model 212-4
10
parallel
L.O.T. Oriel AG (D)
Model 222-16
10
parallel
L.O.T. Oriel AG (D)
Model 222-16
10
parallel
L.O.T. Oriel AG (D)
10
parallel
20000000
1000 1000
166
1000 1000
100000000 1000 1000
90
1000 1000
Model 530
200000
1000 1000
L.O.T. Oriel AG (D)
Model 530
-
L.O.T. Oriel AG (D)
Model 535
1000000
-
-
1000 1000
10
4 Einzelbilder
8 Einzelbilder
16 Einzelbilder
16 Einzelbilder
-
28,89
10
parallel
Anhang D - Tabellen
Hersteller
137
Model
Aufnahme Breite Höhe Aufnahmedauer Speicher Farbe Schreiben
Bilder/Sek Pixel Pixel
L.O.T. Oriel AG (D)
Model 535
-
-
-
Sekunden
GByte
Bit
-
-
-
MByte/Sek
L.O.T. Oriel AG (D)
Model 550
4000000
L.O.T. Oriel AG (D)
Model 550
-
-
-
-
-
-
Olympus (USA)
i-SPEED 2
1000
800
600
4,47
2
24
458,17
Olympus (USA)
i-SPEED 3
33000
96
72
9,41
2
24
217,64
Optronis (D)
CamRecord 1000
1000
Optronis (D)
CamRecord 1000
200000
Optronis (D)
CamRecord 600
500
Optronis (D)
CamRecord 600
100000
Optronis (D)
CamRecord 800
1000
Optronis (D)
CamRecord 800
120000
PCO.imaging (D, USA)
hsfc pro
8000000
PCO.imaging (D, USA)
hsfc pro
PCO.imaging (D, USA)
pco.1200 hs
636
PCO.imaging (D, USA)
pco.1200 hs
40720
PCO.imaging (D, USA)
pco.1200 s
500
PCO.imaging (D, USA)
pco.1200 s
32023
PCO.imaging (D, USA)
pco.inspector high speed
636
PCO.imaging (D, USA)
pco.inspector high speed
40720
1280
16
Photron (D)
Fastcam PCI R2
250
512
480
0,00
Photron (D)
Fastcam PCI R2
10000
128
34
0,00
Photron (D)
Fastcam Super 10K
250
512
480
2,20
0,128
24
Photron (D)
Fastcam Super 10K
10000
128
34
2,20
0,128
24
59,58
Photron (D)
Fastcam Ultima 512
2000
512
512
1,00
0,67
30
686,08
Photron (D)
Fastcam Ultima 512
32000
512
32
1,00
0,67
30
686,08
Photron (D)
Fastcam Ultima 512 Multi 4
2000
512
512
2,00
2
30
1024,00
Photron (D)
Fastcam Ultima 512 Multi 4
10000
512
100
2,00
2
30
1024,00
Photron (D)
Fastcam Ultima APX
2000
1024 1024
1,00
2,6
30
2662,40
Photron (D)
Fastcam Ultima APX
120000
128
10,91
2,6
30
244,03
Photron (D)
Fastcam Ultima APX-RS
3000
1024 1024
0,68
2,6
30
3915,29
Photron (D)
Fastcam Ultima APX-RS
250000
128
Photron (D)
Fastcam-X 1024 PCI
1000
Photron (D)
Fastcam-X 1024 PCI
109500
Redlake (USA)
Lightning RDT
500
Redlake (USA)
Lightning RDT
16000
Redlake (USA)
MotionPro X-3
1040
Redlake (USA)
MotionPro X-3
64000
Redlake (USA)
MotionPro X-4
50000
Redlake (USA)
MotionPro X-4
140000
Redlake (USA)
MotionScope M-1
Redlake (USA)
MotionScope M-1
-
Redlake (USA)
MotionScope M-2
500
Redlake (USA)
MotionScope M-2
16000
Redlake (USA)
MotionScope M-3
500
Redlake (USA)
MotionScope M-3
32000
Redlake (USA)
MotionXtra HG-100K
1000
Redlake (USA)
MotionXtra HG-100K
100000
Redlake (USA)
MotionXtra HG-LE
1000
Redlake (USA)
MotionXtra HG-LE
100000
Redlake (USA)
MotionXtra HG-SE
500
Redlake (USA)
MotionXtra HG-SE
32000
Redlake (USA)
MotionXtra HG-TH
1000
Redlake (USA)
MotionXtra HG-TH
100000
Redlake (USA)
MotionXtra HG-XR
1000
Redlake (USA)
MotionXtra HG-XR
100000
Redlake (USA)
Ranger
1000
Redlake (USA)
Ranger
1000
Redlake (USA)
Ranger HR
500
1000 1000 154 Einzelbilder
1280 1024
parallel
4
4
1280 1024
8
8
800
600
1280 1024
8 Einzelbilder
500000000 1280 1024
4 Einzelbilder
1000
10
1280 1024
1
1280
1
16
1280 1024
1
1280
1
16
1280 1024
16
16
1
1
24
24
59,58
5,24
2,6
30
508,09
1024 1024
1,54
2
30
1329,87
128
7,66
2
30
267,36
4
10
4
10
4
10
4
10
16
1280 1024
1280 1024
512
512
640
512
-
-
1,3
-
1280 1024
-
-
1,3
2,6
1280 1024
2,6
2,6
1504 1128
752
1128
2,40
4
1706,67
2,40
4
1706,67
2,40
2
853,33
2,40
2
853,33
1280 1024
2,6
2,6
752
564
1504 1128
640
480
1280 1024
19,20
8
19,20
8
426,67
426,67
20,00
32
1638,40
20,00
32
1638,40
Anhang D - Tabellen
Hersteller
138
Model
Aufnahme Breite Höhe Aufnahmedauer Speicher Farbe Schreiben
Bilder/Sek Pixel Pixel
Redlake (USA)
Ranger HR
16000
Redlake (USA)
TroubleShooter
1000
Redlake (USA)
TroubleShooter
1000
Redlake (USA)
TroubleShooter HR
500
Redlake (USA)
TroubleShooter HR
16000
Redlake (USA)
X-EMA (MIL Spec)
500
Redlake (USA)
X-EMA (MIL Spec)
32000
Vision Research (USA)
phantom 65
125
Vision Research (USA)
phantom 65
-
Vision Research (USA)
phantom HD
1000
Vision Research (USA)
phantom HD
-
640
Sekunden
GByte
Bit
MByte/Sek
2,61
8
11
3138,70
-
-
-
0,90
4
11
-
-
-
0,36
1,5
14
1,5
14
480
1280 1024
1280 1024
4096 2440
-
-
1920 1080
-
-
Vision Research (USA)
phantom v10
480
Vision Research (USA)
phantom v10
153846
2400 1800
96
8
4551,11
4266,67
Vision Research (USA)
phantom v4.2
2100
512
512
0,48
0,256
10
Vision Research (USA)
phantom v4.2
90000
32
32
2,84
0,256
10
92,30
Vision Research (USA)
phantom v4.3
1000
800
600
0,55
0,256
10
476,63
32
32
2,84
0,256
10
92,30
1
10
Vision Research (USA)
phantom v4.3
90000
Vision Research (USA)
phantom v5.1
1200
Vision Research (USA)
phantom v5.1
95000
64
32
1
10
Vision Research (USA)
phantom v6.2e
1400
512
512
1
10
Vision Research (USA)
phantom v6.2e
115385
32
32
1
10
Vision Research (USA)
phantom v7.3
6688
800
600
2
14
Vision Research (USA)
phantom v7.3
190476
32
32
2
14
Vision Research (USA)
phantom v9.1
1016
1,5
14
Vision Research (USA)
phantom v9.1
153846
1,5
14
1024 1024
1632 1200
96
0,30
0,38
8
Weinberger (CH, D, USA)
SpeedCam MiniVis
500
1280 1024
3,00
Weinberger (CH, D, USA)
SpeedCam MiniVis
32000
160
128
3,00
Weinberger (CH, D, USA)
SpeedCam MiniVis e2
2500
512
512
3,00
Weinberger (CH, D, USA)
SpeedCam MiniVis e2
120000
64
64
4,00
Weinberger (CH, D, USA)
SpeedCam MiniVis ECO-1
1000
640
512
3,00
Weinberger (CH, D, USA)
SpeedCam MiniVis ECO-1
-
-
-
Weinberger (CH, D, USA)
SpeedCam MiniVis ECO-2
500
Weinberger (CH, D, USA)
SpeedCam MiniVis ECO-2
32000
Weinberger (CH, D, USA)
SpeedCam MotionBLITZ® XP
500
Weinberger (CH, D, USA)
SpeedCam MotionBLITZ® XP
16000
320
Weinberger (CH, D, USA)
SpeedCam Visario 1500
1000
1536 1024
1,00
30
Weinberger (CH, D, USA)
SpeedCam Visario 1500
10000
512
192
1,00
30
Weinberger (CH, D, USA)
SpeedCam Visario g2
1000
1536 1024
1,00
30
Weinberger (CH, D, USA)
SpeedCam Visario g2
10000
512
192
1,00
30
Weinberger (CH, D, USA)
SpeedCam Visario g2 LT 400
4000
768
512
1,00
Weinberger (CH, D, USA)
SpeedCam Visario g2 LT 400
-
-
-
-
-
1280 1024
3,00
160
3,00
128
1280 1024
-
1
128
1
30
-
30
546,13
6826,67
4042,11
Anhang E - DVD
139
DVD
Die DVD befindet sich in der Hülle der hinteren Umschlagseite. Zum Betrachten des Inhaltes ist ein Computer mit Windows XP oder einem kompatiblen Betriebssystem notwendig.
Zum Öffnen der PDF-Dateien wird mindestens der Adobe Acrobat Reader 1.3 gebraucht.
Die Diplomarbeit ist ein Adobe InDesign CS 3.0.1-Dokument und die Word-Dateien wurden mit Word 2000 verfasst. Die Videos können mit dem VLC-Player betrachtet werden,
welcher sich auf der DVD befindet. Um ein Durchsuchen der DVD zu erleichtern, ist an
dieser Stelle ein dokumentiertes Inhaltsverzeichnis abgedruckt.
Diplomarbeit.pdf
Diplomarbeit in digitaler Form
\Arbeit
Enthält die Aufgabenstellung, eine Inhaltsbeschreibung und das Adobe InDesign-Dokument, in welchem die
Diplomarbeit in nachträglich veränderbarer Form gespeichert ist.
\Informationen
Beinhaltet verschiedene Hinweise vom Leerstuhl zur Bearbeitung einer Diplomarbeit, verwendete Schriftarten
und Büchertips als Internetdokumente.
\Texte
Enhält die Texte abschnittweise als Worddokumente, wobei der aktuelle Stand nur in der Adobe Indesign
Datei im Ordner \Arbeit gespeichert ist. Jeder Unterordner steht entweder für ein ganzes Kapitel oder einen
bestimmten Abschnitt. Ein Unterordner enthält den Textabschnitt als Word-Dokument und alle Bild-Dateien
und Internetquellen, die für den Text dieses Abschnittes notwendig waren. Oft liegen die Grafiken in zwei oder
sogar drei Versionen vor: komprimiert (für das Word-Dokument), ohne Qualitätsverlusst (für das Indesign-Dokument) und die skalierbare Grafik im Flash-5-Format als FLA-Datei. Internetquellen liegen als HTM-Dateien
vor, wobei für die Internetseiten notwenige Dateien in weiteren Unterodnern gespeichert sind. Zusätzlich zu
den im Buch beschriebenen Videos befinden sich weitere Zeitlupen und Zeitraffer in den jeweiligen Ordner. Die
Zeitlupen wurden zwei Mal abgespeichert. Einmal inhaltlich sortiert und einmal nach den Produktionsfirmennamen der Hochgeschwindikeitskameras.
\Versionen
Enthält Zwischenschritte der Diplomarbeit und die Zwischenpräsentation als Flash-5-Dokument und Shockwave-Datei.
\VLC Videoplayer
Der Videoplayer vlc.exe läuft auch direkt von DVD. Es empfiehlt sich jedoch das Kopieren des Players auf eine
Festplatte, bevor er zum Einsatz gebracht wird.
Zeitlupen und Zeitraffer
bei der Wegbeschreibung
Te c h n i s c h e U n i ve r s i t ä t D r e s d e n, Fa kul t ät I nfo r mat ik
Diplomthema im Studiengang Medieninformatik
H o c h s c h u l l e h r e r : P r o f. D r. - I n g . h a b i l . R a i n e r G r o h
B etreu er: M . S c. I ngmar S . Franke
B e a r b e i tu n g s ze i t : 15.0 6 . 20 0 6 – 14 .12. 20 0 6
Diplomand: Christian Fröde
M a t r i ke l # : 2 8 4 4 24 0