Kapitel 1 - Professur Mediengestaltung
Transcription
Kapitel 1 - Professur Mediengestaltung
Daten zur Diplomarbeit Technische Universität Dresden, Fakultät Informatik Diplomthema im Studiengang Medieninformatik Hochschullehrer: Prof. Dr.-Ing. habil. Rainer Groh Betreuer: M.Sc. Ingmar S. Franke Diplomand: Christian Fröde Matrikelnummer: 2844240 Thema: Zeitlupe und Zeitraffer bei der Wegbeschreibung Bearbeitungszeit: 15.06.2006 – 14.12.2006 Eigenständigkeitserklärung Ich versichere hiermit, dass ich die vorstehende Diplomarbeit mit dem Titel Zeitlupen und Zeitraffer bei der Wegbeschreibung selbstständig verfasst und keine anderen als die angegebenen Hilfsmittel benutzt habe. Die Angaben, welche anderen Quellen dem Wortlaut oder sinngemäß entnommen wurden, habe ich in jedem einzelnen Fall durch eine Quellenangabe gekennzeichnet. Pirna, 13. Dezember 2006 Aufgabenstellung Zeitraffer und Zeitlupen sind spezielle Aufnahmetechniken für Filme, bei denen die Aufnahmefrequenz der Bilder herab oder heraufgesetzt wird. Die Zeitabstände, in denen die einzelnen Bilder aufgenommen werden, unterscheiden sich dabei von üblichen Filmaufnahmen. Wird die Aufnahme dann mit normaler Geschwindigkeit abgespielt, scheint der aufgenommene Vorgang dann schneller, beziehungsweise langsamer abzulaufen. Dadurch werden auch Bewegungen sichtbar, die in Echtzeit vom Menschen nicht oder nur schwer wahrnehmbar sind. In dieser Arbeit wird untersucht, inwieweit sich Zeitlupen und Zeitraffer für wissenschaftliche Zwecke eignen. Im Einzelnen werden folgende Ziele angestrebt: - es ist ein Überblick zu geben, wann die jeweiligen Aufnahmetechniken erstmals angewendet wurden und wie die Weiterentwicklung erfolgte - Erarbeitung psychologischer Vorraussetzungen in Bezug auf Bildinhalt und Abspielgeschwindigkeit der Filme - Abstraktion der Prozesse Zeitlupe und Zeitraffer über Bildinhalte, die in derartigen Filmen häufig vorkommen - Untersuchung technischer Mittel zur Erstellung von Zeitlupen und Zeitraffern; beschränkt auf die Digitalfotografie und –videografie - Überprüfung, inwieweit Zeitlupen und Zeitraffer einem wissenschaftlichen Nutzen unterliegen - Entwurf eines Schemas, in welchen Einsatzgebieten welche Aufnahmetechniken eingesetzt werden können - Konzeption eines Modells für den Einsatz von Zeitlupe und Zeitraffer bei der Wegbeschreibung Vorwort Während der Bearbeitung der Diplomarbeit lernte ich sehr viel Neues kennen. Mir bereitete das Arbeiten an diesem Thema große Freude. Mein Interesse am Thema Zeitlupen und Zeitraffer bei der Wegbeschreibung entstand während eines längeren Zeitraumes, in dem ich besonders viele Zeitrafferaufnahmen erstellte. Das Gegenteil zum Zeitraffer ist die Zeitlupe. Mir erschien es logisch und sinnvoll, hier beide Aufnahmetypen zu betrachten und gegenüberzustellen. In ersten Gesprächen mit Professor Rainer Groh und meinem Betreuer Ingmar Franke stellte ich mein Wunschthema vor. Wir erörterten grob den Rahmen, und einigten uns schnell auf die Untersuchung des Einsatzes dieser beiden Spezialaufnahmetechniken bei der Wegbeschreibung. Dabei entwickelte ich als Erstes ein Modell für den Einsatz von Zeitlupen und Zeitraffern bei der Wegbeschreibung und schlussfolgerte, aus welchen wissenschaftlichen Bereichen bei der Anwendung fundierte Kenntnisse notwendig sind. Dabei zeigte sich, dass neben der technischen Betrachtung auch eine weitreichende psychologische Kenntnis von Wahrnehmungsprozessen notwendig ist. Mit meiner Ausbildung in den Nebenfächern Kunst und Psychologie fühlte ich mich der Herausforderung gewachsen und erarbeitete die folgende Diplomarbeit. Danksagung Mein Dank gilt allen, die an der Fertigstellung der Diplomarbeit beteiligt waren, ganz besonders Herrn Professor Rainer Groh, bei dem die Gespräche zum Diplomthema äußerst motivierend waren. Meinem Betreuer Ingmar Franke gilt ein großes Lob dafür, dass er mir insbesondere gegen Ende der Bearbeitungszeit jede Frage so schnell wie möglich beantwortete und mir auf diese Weise eine zügige Bearbeitung ermöglichte. Ebenfalls möchte ich mich bei allen bedanken, die mir Hinweise gaben und mich bei der praktischen Arbeit unterstützten, besonders bei meinen Eltern Ursula und Dietmar Fröde. Inhaltsverzeichnis 1 Einleitung 8 1.1 Motivation . . . . . . . . . . . . . . . . . 8 1.2 Zielsetzung . . . . . . . . . . . . . . . . . 8 . . . . . . . . . . 9 . . . . . . . . . . 10 1.3 Theoretische und praktische Ergebnisse 1.4 Gliederung der Arbeit. . . . . 2 Definitionen 12 2.1 Der Fixpunkt . . . . . . . . . . . . . . . . . 12 2.2 Der Ruhepunkt . . . . . . . . . . . . . . . . 2.3 Der Zeitraffer . . . . . . . . . . . . . . . . . 12 2.4 Der extreme Zeitraffer . . . . . . . . . . . . . . 13 2.5 Die Echtzeit . . . . . . . . . . . . . . . . . 13 2.6 Die Zeitlupe . . . . . . . . . . . . . . . . . 13 2.7 Die extreme Zeitlupe . . . . . . . . . . . . . . . 13 3 Verwandte Arbeiten 12 15 . . . . . . . . . . 15 3.2 Der aktuelle Stand der Aufnahmetechnik . . . . . . . . . . 20 3.2.1 Aufnahmegeräte für Zeitlupen . . . . . . . . . . . 20 3.2.2 Aufnahmegeräte für Zeitraffer . . . . . . . . . . . 22 3.2.3 Auswertung . . . . . . . . . . 24 3.3 Wahrnehmung von Videos – psychologische Ansätze . . . . . . . 25 3.1 Entwicklung der Aufnahmegeräte. . . . . . . . . . . . . . . . . 26 3.3.2 Raum- oder Tiefenwahrnehmung . . . . . . . . . . 30 3.3.1 Organisation der Wahrnehmung 3.3.3 Visuelle Konstanten . . . . . . . . . . . . . 33 3.3.4 Mustererkennung . . . . . . . . . . . . . . 36 . . . . . . . . . . . . 39 3.3.6 Individual-, Sozial- und Kulturunterschiede in der Wahrnehmung . . 49 3.3.7 Zusammenfassung: Wahrnehmung aus psychologischer Sicht . . . 53 . . 55 3.3.5 Wahrnehmungstheorien 3.4 Zusammenfassung verwandter Arbeiten . . . . . . . . 4 Zeitlupen und Zeitraffer 58 . . . . . . 58 . . . . . . 59 . . . . . . 60 4.1.3 Was wird in Zeitlupen und Zeitraffern dargestellt? . . . . . . 62 4.1 Bildinhaltsabstraktion und Schemen für Einsatzgebiete 4.1.1 Was sind Zeitlupen und Zeitraffer? . . . . 4.1.2 Warum werden Zeitlupen und Zeitraffer erstellt? 4.1.4 Tiefenwahrnehmung in Videoaufnahmen . . . . . . . . 63 4.1.5 Mustererkennung bei der Wegbeschreibung . . . . . . . 64 4.1.6 Objektbewegung und Objekttransformation . . . . . . . 65 4.1.7 Zusammenfassung der Abstraktionen und Schemen . . . . . 66 . . . . . 67 4.2.1 Anwendungsbereiche und Klassifizierung der Videotypen . . . . 67 4.2.2 Regeln für das Verhalten zwischen Kamera und Objekt . . . . 69 4.2.3 Wann Zeitlupe und wann Zeitraffer? . . . . . . . . . 70 4.2.4 Kamerabewegungen . . . . . . . . . . 74 4.2.5 Zusammenfassung zur Wegbeschreibung . . . . . . . . 78 4.2 Zeitlupen und Zeitraffer bei der Wegbeschreibung . . 4.3 Zusammenfassung des vierten Kapitels 4.3.1 Überblick zu den Regeln . . . . . . . . . . . . . . . 79 . . . . . . . . . . 81 5 Praktische Umsetzungen 83 5.1 Einsatzgebiete von Zeitlupen und Zeitraffern . . . . . . . . . 83 5.1.1 Zeitlupen mit wissenschaftlichem Hintergrund . . . . . . . 84 5.1.2 Zeitlupen ohne wissenschaftlichen Hintergrund . . . . . . 97 5.1.3 Zeitraffer mit wissenschaftlichem Hintergrund . . . . . . . 99 5.1.4 Zeitraffer ohne wissenschaftlichen Hintergrund. . . . . . . 101 . . . . . . . 103 5.2 Wegbeschreibung mit Zeitlupen und Zeitraffern . 5.2.1 Autobahnfahrt und Stadtfahrt . . . . . . . . . . . 103 5.2.2 Campus der Florida State University . . . . . . . . . 107 5.2.3 Taufstein der Marienkirche in Pirna . . . . . . . . . . 108 5.2.4 Zusammenfassung des Einsatzes bei der Wegbeschreibung. . . . 110 . . . 111 5.3 Zusammenfassung praktischer Umsetzungen . . . . . . 6 Zusammenfassung 6.1 Fazit . 114 . . . . . . . . . . . . . . . . . . 115 6.2 Ausblick . . . . . . . . . . . . . . . . . . 116 A Literaturverzeichnis 118 B Abbildungsverzeichnis 122 C Index 126 D Tabellen 127 E DVD 139 Kapitel 1 - Einleitung 8 Kapitel 1 – Einleitung Diese Diplomarbeit wendet sich an alle Interessierten, die bereits Erfahrungen mit Zeitlupen- und Zeitrafferaufnahmen insofern haben, dass sie diese beiden Spezialaufnahmen von allen anderen unterscheiden können und den Umgang und Einsatz dieser Aufnahmen verstehen. Hat der Leser noch nie eine dieser Spezialaufnahmen gesehen, sollte er sich die auf der beiliegenden DVD gespeicherten Videoclips vor dem Lesen der Diplomarbeit ansehen. Verschiedene Hinweise zum Inhalt der DVD befinden sich im Anhang E. 1.1 Motivation Routenplaner stellen eine Fahrtroute auf Karten häufig durch Linien dar, die den Startpunkt mit dem Endpunkt verbinden. Die Linien verlaufen dabei exakt entlang der Straßen, die zum Erreichen des Ziels befahren werden müssen. Dargestellt werden sie meistens auf einem Stadtplan, einem Satellitenbild oder einer Hybridansicht beider Ansichten, in der die befahrbaren Straßen durch Linien deutlicher hervorgehoben sind. Lässt sich ein Weg beschreiben und gleichzeitig so darstellen, wie er befahren oder begangen wird? Wie lässt sich diese Art der Wegbeschreibung mit Zeitraffern und Zeitlupen darstellen? Womit werden Zeitlupen und Zeitraffer aufgezeichnet, und wo werden sie sonst noch eingesetzt? In dieser Diplomarbeit erfolgt die Beantwortung dieser und noch weiterer Fragen. 1.2 Zielsetzung Im Einzelnen wird ein Überblick gegeben, wie sich die jeweiligen Aufnahmegeräte entwickelt haben und wie die Weiterentwicklung erfolgte. Die Ausführungen dazu beschränken sich auf das Kamerawerk Dresden. Es werden digitale technische Hilfsmittel zur Erstellung von Zeitlupen und Zeitraffern untersucht, wozu eine Marktanalyse von Digitalkameras und Hochgeschwindigkeitskameras durchgeführt wird. Zusätzlich zu den technischen Betrachtungen werden psychologische Vorraussetzungen in Bezug auf Wahrnehmung, Bildinhalt und Abspielgeschwindigkeit der Filme erarbeitet. Es wird erläutert, was Zeitlupen und Zeitraffer sind und wie sie erstellt werden. Die beiden Prozesse, Zeitlupe und Zeitraffer, lassen sich über den Bildinhalt abstrahieren, wobei wichtige Kamerabewegungen in Bezug auf die Aufnahme der Vorgänge genau analysiert werden. Es wird ein Schema entworfen, aus dem der Einsatz der entsprechenden Aufnahmetechniken unter bestimmten Bedingungen hervorgeht. Daraus lässt sich ein Modell konzipieren, welches den Einsatz von Zeitlupen und Zeitraffern bei der Wegbeschreibung ermöglicht. Neben der Überprüfung, inwieweit Zeitraffer und Zeitlupen einem wissenschaftlichen Nutzen unterliegen, soll das entwickelte Modell praktisch erprobt werden. Kapitel 1 - Einleitung 9 1.3 Theoretische und praktische Ergebnisse Bei der Marktanalyse von Hochgeschwindigkeitskameras wird deutlich, welche Firmen aktiv Kameras weiterentwickeln oder lediglich modifizierte Modelle einer bestimmten Kamera anbieten. Häufig halten die Anbieter wichtige Kamerainformationen zurück. Bei hochwertigen Produkten standen ausführliche und übersichtliche Datenblätter, teilweise sogar die Baupläne der Kameras zur Verfügung. Die Bildauflösung der untersuchten Kameras beträgt bis zu 4.096 mal 2.440 Pixel. Die maximale Bildaufnahmefrequenz liegt bei 500.000.000 Bildern pro Sekunde. Die zugehörigen Kameras erfordern jedoch eine Spezialbelichtung durch einen Laser oder Strahlungen außerhalb des sichtbaren Bereichs. Die Untersuchungen in der Diplomarbeit beschränken sich auf Kameras, bei denen eine Belichtung des Objektes mit für den Menschen sichtbarem Licht erfolgte. Aus der Untersuchung der technischen Angaben zu den Digitalkameras geht hervor, in welche Richtung sich die einzelnen Digitalkamerahersteller entwickeln. Während bei Sony und Sanyo seit Oktober 2003 fast jede Kamera über einen schnellen USB2.0-Anschluss verfügt, besitzt keine der untersuchten Kameras eine Intervallfunktion zum Erstellen von Zeitraffern. Bei Kodak und Samsung steht eine Intervallfunktion nur bei den Luxusmodellen zur Verfügung. Bei vielen Modellen von Canon, Nikon oder Ricoh gehört die Intervallfunktion fast zum Standard. Es wird jedoch empfohlen, Zeitraffer generell mit Hilfe eines Computers zu erstellen, der mit der Kamera verbunden ist. In diesem Fall ist eine schnelle Verbindung zum Computer wichtig, wie zum Beispiel USB2.0 oder Firewire, damit auch große Bildformate rechtzeitig übertragen werden können. Lediglich 41 der 1.331 untersuchten Digitalkameras stellen Bilder mit mehr als 8.000.000 Pixel zur Verfügung und übertragen diese mit einer der genannten schnellen Verbindungen zum Computer. Die im praktischen Teil der Diplomarbeit untersuchten Einsatzgebiete zeigen, dass vorrangig Zeitlupen einen wissenschaftlichen Nutzen haben. Ein Zeitraffer dient der Visualisierung, damit ein lange andauernder Prozess schneller vom Menschen erfasst werden kann. Zeitlupen dienen der Analyse von Prozessen. Die Anzahl der analysierbaren Prozesse ist sehr hoch. Daher werden die Einsatzgebiete für Zeitlupen in Anwendungsgebiete unterteilt. Das entwickelte Modell zu Wegbeschreibung mit Zeitraffern und Zeitlupen ist durch acht Regeln definiert und wird praktisch an drei unterschiedlichen Einsatzorten erfolgreich getestet: bei Autofahrten, in einer Fußgängerzone und in einem Gebäude. Die Regeln legen fest, wie die Kameraführung gegenüber den aufzunehmenden Objekten erfolgen muss. Kapitel 1 - Einleitung 10 1.4 Gliederung der Arbeit Im zweiten Kapitel werden einige Fachbegriffe definiert, die in späteren Kapiteln der Arbeit häufig vorkommen und dem Verständnis der beschriebenen Sachverhalte dienen. Das dritte Kapitel stellt den Analyseteil dar. Es werden wissenschaftliche Arbeiten vorgestellt, die eine Grundlage für das vierte Kapitel bilden. Anhand der Entwicklung des Kamerawerkes Dresden wird ein Überblick gegeben, wie sich die Kameratechnik entwickelte. Obwohl sich die folgenden Ausführungen auf digitale Aufnahmetechnik beschränken, werden hier auch die analogen Geräte vorgestellt. Von den seit 1990 entwickelten Zeitlupenkameras wird zu einer Untersuchung digitaler Aufnahmegeräte für Zeitlupen und Zeitraffer übergegangen. Bei der durchgeführten Marktanalyse werden 56 Hochgeschwindigkeitskameras und 1.331 Digitalkameras betrachtet und hinsichtlich bestimmter Funktionalitäten ausgewertet. Zum weiteren Verständnis sind nicht nur technische Aspekte wichtig, sondern auch eine psychologische Betrachtung des Wahrnehmungsprozesses. Dabei wird zuerst geklärt, wie die Wahrnehmung beim Menschen funktioniert. Die Ausführungen zur Tiefenwahrnehmung, zu visuellen Konstanten und zur Mustererkennung sollen erläutern, dass diese Funktionen bei der Wahrnehmung von großer Bedeutung sind. Die erarbeiteten Grundlagen sind später für eine Anwendung dieser Kenntnisse auf das Betrachten von Zeitlupen und Zeitraffern wichtig. Im vierten Kapitel wird zunächst geklärt, was Zeitlupen und Zeitraffer sind, wie sie erstellt werden und was mit ihnen dargestellt werden kann. Ausgehend vom Bildinhalt wird bei der Abstraktion ersichtlich, dass dabei nicht nur die Objektbewegung und Objekttransformation von großer Bedeutung sind, sondern auch verschiedene Kamerabewegungen. Bereits hier werden verschiedene psychologische Erkenntnisse aus dem dritten Kapitel auf die Abstraktionen angewendet. Weiterhin erfolgt der Entwurf eines Schemas, aus welchem die Einsatzgebiete der verschiedenen Aufnahmetechniken hervorgehen. Alle Erkenntnisse werden in Regeln zusammengefasst, wobei schließlich ein Modell konzipiert wird, welches den Einsatz von Zeitlupen und Zeitraffern bei der Wegbeschreibung ermöglicht. Es wird untersucht, für welche Bereiche sich dieses Modell anwenden lässt. Das fünfte Kapitel beschreibt den Praxisteil der Diplomarbeit. Im ersten Abschnitt erfolgt eine Überprüfung, inwieweit Zeitlupen und Zeitraffer einem wissenschaftlichen Nutzen unterliegen. Dabei werden Praxisbeispiele aufgezählt und beschrieben. Die Ausführungen konzentrieren sich auf Aufnahmen mit Kameras und einer gewöhnlichen Lichtquelle. Aufnahmen mit Hilfe von Laserlicht, Infrarot-, Ultraviolett- oder anderer Strahlungen bleiben unberücksichtigt. Es werden auch Beispiele dargestellt, bei denen nur ein begrenzter wissenschaftlicher Nutzen vorhanden ist. Anschließend wird das im vierten Kapitel erstellte Modell praktisch erprobt. Die Tests dazu erfolgen in mehreren Einsatzgebieten. Kapitel 2 - Definitionen 12 Kapitel 2 – Definitionen Vor dem Einstieg in die Thematik Zeitlupen und Zeitraffer bei der Wegbeschreibung werden zunächst einige Begriffe geklärt, die in der Arbeit häufig vorkommen. Dabei spiegeln die Definitionen möglicherweise nicht exakt den gleichen Wortlaut wider, wie er von Wissenschaftlern für die jeweiligen Begriffe angewendet wurde. Die Definitionen dienen dem Verständnis der Thematik, sodass der Leser weiß, was unter den entsprechenden Begriffen zu verstehen ist. 2.1 Der Fixpunkt Ein Fixpunkt existiert in einer Videoaufnahme, bei der die Aufnahme während eines Kamerazooms oder einer Kamerafahrt stattfindet. Bei einem Zoom entsteht der Fixpunkt immer im Bildmittelpunkt, da sich alle Bildpunkte exakt vom oder zum Zentrum bewegen. Der Fixpunkt wird dabei genau von dem Punkt gebildet, der sich als Einziger auf dem Videoanzeigegerät nicht bewegt. Bei einer Kamerafahrt entsteht im Bild nur dann ein Fixpunkt, wenn der Punkt genau im Bild liegt, in dessen Richtung oder Gegenrichtung die Kamerafahrt stattfindet. Wie im Fall des Kamerazooms bewegen sich auch hier alle Punkte vom oder zum Fixpunkt, jedoch muss nun der Fixpunkt nicht in der Bildmitte liegen. Er verändert seine Position, sobald die Fahrtrichtung oder der Blickwinkel der Kamera geändert wird. 2.2 Der Ruhepunkt Ein Ruhepunkt entsteht in einer Videoaufnahme, bei der in einem Zeitabschnitt die Farbe eines bestimmten Pixels gleich bleibt. Häufig entstehen mehrere Ruhepunkte nebeneinander, wobei in diesem Fall auch von einer Ruhefläche gesprochen werden kann. Ist die Kamera beispielsweise fest arretiert und nimmt ein sich bewegendes Objekt auf, so besteht der Hintergrund aus vielen Ruhepunkten. Schwenkt die Kamera dagegen mit dem Objekt, so kann beispielsweise der Objektmittelpunkt ein Ruhepunkt sein. 2.3 Der Zeitraffer Ein Zeitraffer ist eine Spezialaufnahme aus der Filmtechnik, bei der sehr langsam ablaufende Prozesse beschleunigt dargestellt werden. Dadurch ist es dem Menschen möglich, einen Überblick von einem sehr lange andauernden Prozess zu erhalten. Zeitraffer können auf zwei unterschiedliche Weisen erstellt werden. Bei der ersten Möglichkeit werden die Bilder langsamer aufgenommen, als sie bei der Wiedergabe gezeigt werden. Diese Funktion wird häufig Intervallfunktion oder Serienbildfunktion genannt. Für das Erstellen wird im Allgemeinen eine Digitalkamera eingesetzt. Die zweite Möglichkeit wird genutzt, wenn das Filmen nur mit einer Kamera möglich ist, die über keine Zeitrafferaufnahmemöglichkeit verfügt. In diesem Fall werden aus dem Video Einzelbilder nach einem ganz bestimmten Intervall entfernt. Werden die übrigen Bilder mit der gleichen Geschwindigkeit abgespielt, wie sie aufgenommen wurden, so liegt der gefilmte Prozess nun als Zeitraffer vor, da nicht mehr alle Einzelbilder angezeigt werden. Kapitel 2 - Definitionen 13 2.4 Der extreme Zeitraffer Eine Sonderform des Zeitraffers ist der extreme Zeitraffer. Dieser besteht aus zwei Einzelbildern und visualisiert damit den Anfang und das Ende der zu beobachtenden Veränderung. Bei einem solchen Zeitraffer wird jedoch nicht ersichtlich, wie es von der Ausgangssituation zum Ende des Prozesses gekommen ist. Der extreme Zeitraffer gibt damit keinen Überblick zum Prozessablauf, weshalb auf ihn nicht weiter eingegangen wird. 2.5 Die Echtzeit Unter Echtzeit wird im Kontext der Diplomarbeit verstanden, dass die Dauer eines Vorganges bei der Aufnahme und der Wiedergabe gleich ist. Wird ein Video beispielsweise mit 25 Bildern pro Sekunde aufgenommen und auch mit 25 Bildern pro Sekunde abgespielt, so sind alle Abläufe im Video in Echtzeit zu sehen. 2.6 Die Zeitlupe Eine Zeitlupe ist eine Spezialaufnahme aus der Filmtechnik, bei der sehr schnell ablaufende Prozesse verlangsamt dargestellt werden. Dadurch ist es dem Menschen möglich, sehr schnelle Bewegungen oder Veränderungen besser oder überhaupt erst wahrzunehmen. Zeitlupen können auf zwei unterschiedliche Weisen entstehen: Bei der ersten Möglichkeit werden die Bilder schneller aufgenommen als sie bei der Wiedergabe gezeigt werden. Dazu wird im Allgemeinen eine Hochgeschwindigkeitskamera eingesetzt. Die zweite Möglichkeit wird genutzt, wenn kein Ausgangsmaterial mit einer höheren Bildrate vorliegt. In diesem Fall werden dem Video weitere Einzelbilder hinzugefügt. Im einfachsten Fall werden vorhergehende Bilder verdoppelt. Etwas besser sind Zwischenbilder, die aus einer Überblendung der beiden benachbarten Bilder bestehen. Es gibt auch Algorithmen, die bewegte Objekte in Videoclips aufspüren und deren Positionen in berechneten Zwischenbildern interpolieren. Da diese Techniken jedoch nicht mit der Qualität tatsächlich aufgenommener Einzelbilder konkurrieren können, konzentrieren sich die weiteren Ausführungen auf Zeitlupen, die mit Hochgeschwindigkeitskameras aufgenommen wurden. 2.7 Die extreme Zeitlupe Eine besondere Form der Zeitlupe ist die extreme Zeitlupe. Sie zeigt bei einem andauernden Prozess einen ganz bestimmten Zeitpunkt und kann auf zwei Wegen entstehen. Im ersten Fall wird ein Bild aus dem Video einzeln betrachtet. Bei dieser Form wird der Prozess zu einem bestimmten Zeitpunkt gezeigt, wobei in diesem Einzelbild keine Bewegungen erkennbar sind. Im zweiten Fall nehmen mehrere Kameras den Prozess gleichzeitig auf. Nun werden alle Aufnahmen von einem bestimmten Zeitpunkt zu einem neuen Videoclip zusammengefasst. Der Prozess lässt sich nun zu einem bestimmten Zeitpunkt aus mehreren Perspektiven betrachten. Die extreme Zeitlupe ist in diesem Fall kein Einzelbild einer Szene, sondern wird als Videoclip dargestellt. Kapitel 3 - Verwandte Arbeiten 15 Kapitel 3 – Verwandte Arbeiten Das Ziel dieses Kapitels ist es, eine wissenschaftlich fundierte Basis zu schaffen, auf die im vierten Kapitel aufgebaut werden kann. Zur Eingrenzung des Themas wird zu Beginn ein kurzer geschichtlicher Überblick gegeben, bei dem die Entwicklung von Aufnahmegeräten nachvollzogen werden kann. Gerade im 20. Jahrhundert entwickelte sich die Photo- und Kameratechnik weltweit sehr schnell. Damit es bei einem kurzen Überblick bleibt, konzentriert sich die Betrachtung der technischen Entwicklung von Aufnahmegeräten hier auf das Kamerawerk in Dresden, welches seit 1839 Kameras produziert und in unmittelbarer Nähe der Technischen Universität Dresden liegt. Aufgrund der stetigen Entwicklung von Fotoapparaten, die in bestimmten Fällen auch zum Erstellen von Zeitraffern eingesetzt werden können, ist ein historischer Überblick sinnvoll. Ab dem Jahr 1990 begann die Entwicklung einer Panoramakamera und einer Hochgeschwindigkeitskamera. Davon wird zum heutigen Stand der Technik übergeleitet. Ausgehend von der Historie wird im Weiteren tabellarisch der aktuelle Stand digitaler Aufnahmetechnik vorgestellt. Da es bei Zeitraffern keine physischen Grenzen gibt, wird hier besonders auf Hochgeschwindigkeitskameras eingegangen. Es werden Modelle genannt, die bis zu 500.000.000 Einzelbilder pro Sekunde aufnehmen können und kurz die jeweiligen Anwendungsgebiete skizziert. Als Schlussfolgerung werden die physischen Grenzen dargelegt, die sich im Wesentlichen auf die Belichtungszeit und die Schreibgeschwindigkeit des Speichers beziehen. Die Entwicklung der Kameras für Zeitrafferaufnahmen wird anhand einer Untersuchung der meisten Digitalkameras ab Oktober 2003 deutlich. Dabei ist vor allen Dingen wichtig, ob die Kameras über eine Intervallfunktion verfügen, oder ob sie durch einen Computer ferngesteuert werden können. Zum Verstehen des vierten Kapitels sind psychologische Ansätze zur Wahrnehmung von Videoclips besonders wichtig. Damit deutlich wird, wohin der Betrachter bei bewegten Bildern schaut, wie er bewegte Bilder wahrnimmt und wie er bei zweidimensionalen Bildern ein dreidimensionales Empfinden bekommt, werden die wichtigsten Ansätze heutiger Psychologie erläutert. Dabei spielen nicht nur visuelle Konstanten eine bedeutende Rolle, sondern auch Erkenntnisse der Mustererkennung und verschiedene Wahrnehmungstheorien. Vieles lässt sich dabei gut an Beispielen und optischen Täuschungen erklären. Schließlich wird noch kurz untersucht, ob es Individual-, Sozial- und Kulturunterschiede in der Wahrnehmung gibt. Dadurch wird der zum Verständnis dieser Arbeit erforderliche Leserkreis auf die Personen eingegrenzt, die den Umgang mit Zeitlupen und Zeitraffern bereits kennen. 3.1 Entwicklung der Aufnahmegeräte Bekanntlich ist mir die Darstellung Daguerrescher Lichtbilder vollkommen gelungen. Platten von der selben Zubereitung, wie ich sie selbst verwende, verkaufe ich von jetzt an: 3 Zoll 3 gl., 4 Zoll 6 gl., 6 Zoll 12 gl. ec. Auch verfertige ich Apparate zur Darstellung von Lichtbildern, sowohl nach der Angabe Daguerre‘s, als nach der meinigen und meines Bruders, des Dr. Enzmann, welche bei derselben Wirksamkeit wie die Daguerreschen 1/20 des Raumes dieser einnehmen. F. W. Enzmann, Mechanikus, Annengasse Nr. 8 Kapitel 3 - Verwandte Arbeiten Das Zitat stammt aus dem Dresdner Anzeiger vom 31. Oktober 1839. Wie in [KWD 1998] beschrieben, stellt dieses historische Datum demzufolge den Beginn der industriellen Fertigung von Kameras in Dresden dar. Die französische Regierung hatte das daguerresche Prinzip freigegeben, um der Menschheit das fotografierte Bild erlebbar zu machen. Daraufhin etablierte sich in Dresden schnell eine Zahl von Kameraherstellern und ein ganzer Industriezweig entstand in dieser Region. 16 Abbildung 1 Faksimile der Verkaufs-Anerbietung aus dem Dresdner Anzeiger vom 31. Oktober 1839 In den Kamera-Werkstätten wurde die erste Kamera im Jahr 1919 produziert. Ende der dreißiger Jahre übernahm Charles A. Noble aus Detroit das Werk, in dem zu dieser Zeit die Spiegelreflexkamera „Pilot“ (6 x 6), das Vergrößerungsgerät „Praxidos“ und der Projektor „Episkop“ gebaut wurden. Da abzusehen war, dass für die kommenden Produktionen größere Räumlichkeiten notwendig waren, wurde Mitte 1939 das noch heute genutzte Firmengebäude gekauft. Es folgte die Entwicklung und Produktion der ersten Kleinbild-Spiegelreflexkamera „Praktiflex“ unter Verwendung des heute noch marktüblichen Prismas zur aufrechten Wiedergabe des Bildes im Sucher. Nach 1949 erfolgte die schrittweise Zusammenführung der gesamten fotografischen Industrie in der DDR zum Kombinat „Pentacon“. Pro Jahr wurden etwa 400.000 Kameras hergestellt und überwiegend exportiert. Die Forschung und Entwicklung des gesamten Kombinates fand fast ausschließlich im 1939 erworbenen Hauptgebäude statt. Nach der deutschen Wiedervereinigung, der Liquidation des Pentacon-Kombinates 1991 und der Rückübertragung des Betriebes an die Familie Noble wurde durch eine kleine Gruppe von Technikern und Ingenieuren ein Neubeginn geschafft. Mit dem am Standort vorhandenen Wissen und dem dazugehörigen Enthusiasmus gelang es schon 1992, die Noblex PRO dem Fachpublikum vorzustellen. Diese innovative und bis heute einzigartige Konstruktion der Panoramakamera führte 1994 zur Entwicklung und Vorstellung der Kleinbild-Panorama-Kamera Noblex 135. Nach dem Unternehmensverkauf 1997 und der Gründung des heutigen Unternehmens, der Kamera Werke Dresden GmbH, wurden neue Geschäftsfelder erschlossen und bestehende weiter ausgebaut. Zusätzlich zum fototechnischen Gerätebau, welcher die Entwicklung, Konstruktion und Produktion fototechnischer Geräte und des entsprechenden Zubehörs speziell im Bereich der Panoramafotografie umfasst, wurden ab 1996 auch industrielle Kamerasysteme produziert. Die Entwicklung und Produktion dieser nun digitalen Kamerasysteme basiert auf HDRCSensor-Technologie (High Dynamic Range CMOS). Diese Kamerasysteme eignen sich durch ihre spezifischen Eigenschaften, zum Beispiel des sehr hohen Dynamikumfangs, für viele und teilweise grundlegend neue Anwendungsgebiete. So werden LOGLUX-Kamerasysteme unter anderem in Flugzeugandocksystemen, bei der Überwachung von Schweißprozessen, in Automatisierungsprozessen und in der Verkehrsüberwachung eingesetzt. Die nachfolgenden Abbildungen zeigen zeitlich geordnet die im Kamerawerk produzierten Kameraserien und stammen aus [KWD 1998] und der Internetseite [LOGLUX 2006]. Kapitel 3 - Verwandte Arbeiten 17 Abbildung 2 Holzkastenkamera nach Daguerrescher Bauart mit Voigtländerobjektiv. (Wahrscheinlich aus der Werkstatt des Dresdner Mechanikus Schedewell um 1855) Abbildung 3 Die legendäre Patent-Etui-Kamera der KameraWerkstätten aus dem Jahre 1920, die zusammengeklappt mit 35 Millimetern extrem flach war. Abbildung 4 Die Zweiformat-Spiegelreflexkamera Pilot-Super mit Metallklappenverschluss: das Bildformat 4,5 x 6 Zentimeter – 1939 eine damals sehr gefragte und äußerst zuverlässige Kamera. Abbildung 5 Gesichter der Praktiflex – Unter sowjetischer Besatzung wurden von Mai bis Dezember 1945 etwa 50.000 Kameras produziert und als Reparationszahlung komplett übernommen. Kapitel 3 - Verwandte Arbeiten Abbildung 6 Von 1947 bis 1952 erfolgte die Weiterentwicklung der Praktiflex zur Praktica und schließlich zur Praktina. Die Praktina war übrigens die erste einäugige Kleinbild-Spiegelreflexkamera der Welt, die als Systemkamera angeboten wurde. Abbildung 8 Die Noblex 135: das Pendant zur großen Pro. In dieser Kamera vereinen sich viele Vorzüge auf kleinstem Raum. Sie konnte damit Bilder aufnehmen, die der natürlichen Sehweise des Menschen entsprechen. 18 Abbildung 7 Panorama-Kamera Noblex 150 Pro: 1992 entwickelt nach dem Prinzip der natürlichen, raumerfassenden, menschlichen Sehweise – eine einzigartige Kamerakonstruktion. Abbildung 9 Die erste CMOS-Kamera mit dem Markennamen LOGLUX HDRC wurde vorgestellt. Der daraus entstandene Geschäftsbereich industrieller Kamerasysteme wird seitdem konsequent weiterentwickelt, um den vielfältigen Aufgaben der Überwachungstechnik, Prozesssteuerung sowie den Anforderungen an eine kostengünstige Visualisierung hochdynamischer und/oder schnell ablaufender Ereignisse Rechnung zu tragen. Kapitel 3 - Verwandte Arbeiten Abbildung 10 Nach erfolgreicher Einführung der LOGLUX HDRC Industriekamera erschien 2002 eine weiterentwickelte Kamera. Neben der deutlichen Verkleinerung besaß die LOGLUX i5A zahlreiche technische Verbesserungen. Die analogen und digitalen Schnittstellen wurden konsequent in die neue Serie übernommen. Die LOGLUX i5 ist damit die aktuell am weitesten entwickelte Kamera der Kamera Werk Dresden GmbH. Wie in der nebenstehenden Abbildung ersichtlich ist, liegt der spektrale Arbeitsbereich bei 400-1.000 Nanometern. Die Kamera nimmt die Bilder mit einem CMOS Sensor auf und erreicht eine maximal Auflösung von 1.280 x 1.024 Pixel. Mit einer Farbtiefe von 10 bit erreicht sie unter Volllast 34 Bilder pro Sekunde. Wird der Bildausschnitt verkleinert, so sind Bildraten bis zu 2.000 Bildern pro Sekunde möglich. Damit liegt die LOGLUX i5 mit der maximalen Auflösung und Bildaufnahmefrequenz im Mittelfeld vieler weltweit hergestellter Hochgeschwindigkeitskameras. 19 Abbildung 11 Die Entwicklung auf dem Sensor und Bauelementemarkt gestattete eine weitere Verkleinerung und Optimierung der LOGLUX i5-Kamera-Serie. Mit dem Einzug neuer Bildsensoren wurden auch neue Schnittstellen, links CameraLink und rechts FireWire, angeboten. Abbildung 12 Aufnahmespektrum der LOGLUX i5 Im nächsten Abschnitt werden zahlreiche digitale Hochgeschwindigkeitskameras in Bezug auf Hersteller, Modell, Aufnahme-Bildrate, Auflösung, Aufnahmedauer beziehungsweise Speicherkapazität und, falls Informationen verfügbar waren, auch nach Farbtiefe katalogisiert. Soweit die Hersteller Angaben bereitstellen, werden mögliche Einsatzgebiete aufgeführt. Einige Modelle erreichen extrem hohe Aufnahme-Bildraten, wobei in diesem Zusammenhang physische Grenzen derartiger Aufnahmen deutlich werden. Kapitel 3 - Verwandte Arbeiten 20 3.2 Der aktuelle Stand der Aufnahmetechnik Zur Aufnahme von Zeitlupen und Zeitraffern werden technische Hilfsmittel benötigt. Wie bereits im vorherigen Abschnitt erwähnt, ist es unter hohem Aufwand möglich, Zeitlupen und Zeitraffer auch mit analoger Aufnahmetechnik zu erzeugen. Die folgenden Untersuchungen beschränken sich jedoch auf Digitalkameras und digitale Fotoapparate, die unter Umständen von Personalcomputern ferngesteuert werden können. Aufgrund des großen Angebotes werden nur ausgewählte Modelle weltweiter Hersteller verglichen und diese nach technischen Aspekten sortiert, wobei zwischen Aufnahmegeräten für Zeitlupen und für Zeitraffer unterschieden wird. Die beiden Tabellen befinden sich im Anhang D. Bei den untersuchten Hochgeschwindigkeitskameras werden physische Grenzen schnell deutlich, wogegen bei Kameras für Zeitraffer technische Aspekte nur eine untergeordnete Rolle spielen. 3.2.1 Aufnahmegeräte für Zeitlupen Für die Aufnahme von Zeitlupen ist es notwendig, dass die Einzelbilder der Videoclips mit einer höheren Bildfrequenz aufgenommen werden als sie bei der Wiedergabe gezeigt werden. Beim Fernsehen werden 25 Bilder pro Sekunde dargestellt, vergleiche [Schubiger 2004, Seite 16], wobei das menschliche Auge bei dieser Frequenz im Video Bewegungen, anstatt sequenziell angezeigter Einzelbilder, erkennt. Kameras, die Bilder nur mit einer Geschwindigkeit von 25 Bildern pro Sekunde aufnehmen, sind für Aufnahmen von Zeitlupen praktisch ungeeignet, da Aufnahmegeschwindigkeit und Abspielgeschwindigkeit gleich sind. Bei bestimmten Anwendungsgebieten ist es jedoch häufig nicht mehr von Interesse, dass der Zeitlupenfilm kontinuierlich abgespielt wird. Wissenschaftler untersuchen die extreme Zeitlupe und betrachten sich die Bilder des Videoclips einzeln, um den kritischen Punkt schnell ablaufender Prozesse genau zu untersuchen. So kann es beispielsweise bei der Verkehrssicherheit von großer Bedeutung sein, wann die Sprengkapsel des Airbags gezündet wird. Zeitlupen mit wissenschaftlichem Nutzen werden demzufolge häufig als Einzelbildanimation betrachtet, währenddessen es im Allgemeinen als störend empfunden wird, wenn Zeitlupen für die Unterhaltungsindustrie oder in der Werbung nicht kontinuierlich angezeigt werden. Die visualisierten, verlangsamten Bewegungen sollen trotzdem geschmeidig sein. Zur Aufnahme wird zunächst der Bildausschnitt genau geplant. Aufgrund der hohen Aufnahmegeschwindigkeit, wird der aufzunehmende Bildausschnitt so klein wie möglich gewählt und ist von Anwendungsfall zu Anwendungsfall verschieden. Die Kamera ist dabei häufig auf einem Stativ verankert. Einige Kameras lassen sich auch ohne weitere Hilfsmittel programmieren. Da in den meisten Fällen Computer auch den Auslösemechanismus steuern, werden auch fast alle Kameras mit Computersoftware programmiert. Dabei werden der Bildausschnitt, die Anzahl der aufzunehmenden Bilder und die Aufnahmebildrate eingestellt. Der Vorgang wird gestartet. Die Kamera wird meist durch einen externen Impuls ausgelöst und nimmt den gewünschten Zeitraum auf. Bei digitalen Aufnahmegeräten für Zeitlupen gibt es mindestens zwei physische Grenzen, die eine beliebige Skalierung der Zeit verhindern. Zum Einen ist es die Belichtungszeit pro Einzelbild und zum Anderen die Schreibgeschwindigkeit des Speichers. Kapitel 3 - Verwandte Arbeiten 21 3.2.1.1 Belichtungszeit pro Einzelbild Ebenso wie bei einer herkömmlichen analogen Kamera wird auch bei einer Digitalkamera eine Optik verwendet, durch die Lichtstrahlen ins Innere der Kamera geleitet werden. Nach [Striewisch 2006] hängt die Intensität der Lichtstrahlen dabei unmittelbar von den Beleuchtungsverhältnissen in der Umgebung, sowie von der Beschaffenheit des Objektivs und der Blende ab. Ein weiterer Faktor der darüber bestimmt, wie viel Licht in die Kamera eintritt, ist die Zeit. Aus den Betrachtungen des Tafelwerkes von [Engelmann 2004] und den erläuterten Zusammenhängen lassen sich folgende Überlegungen anstellen. Bleibt die Blende eine längere Zeit geöffnet, kann das einzelne Bild länger belichtet werden als bei einer nur kurzzeitig geöffneten Blende. Da die Aufnahmefrequenz hier mindestens 25 Bilder pro Sekunde beträgt, kann die Blende höchstens für eine 25tel Sekunde pro Einzelbild geöffnet bleiben. Wird die Aufnahmebildrate erhöht, so verringert sich die maximale Dauer für eine offene Blende. Die sich dabei ergebende physische Grenze liegt im Öffnen und Schließen der Blende. Dieser Vorgang kann höchstens so schnell ablaufen, dass während dieser Zeitspanne der Photonensensor hinter der Blende mindestens ein Photon registriert. Ansonsten ist das entstandene Einzelbild schwarz und somit nutzlos. Je nach Anwendungsgebiet reicht es aus, einzelne Photonen zu erkennen oder die Zeitspanne einer geöffneten Blende so zu erhöhen, dass mehrere empfangende Photonen ein sinnvolles Bild ergeben. Es ist also nicht möglich, einen konkreten Wert für eine Optik zu nennen, aus dem ersichtlich wird, wie kurz die Blende minimal geöffnet sein muss, damit auch wirklich ein Bild entsteht. Es werden an dieser Stelle verschiedene Einflüsse nur stichpunktartig genannt: - Lichtstärke der Lichtquelle(n): Formelzeichen: IV Einheit: 1 Candela (cd) Beleuchtungsstärke des Sensors: Formelzeichen: EV Einheit: 1 Lux (lx) Wellenlänge des Lichts (Farbton): Formelzeichen: λ Einheit: 1 Meter (m) Anwendungsgebiet (einzelne Photonen oder zusammenhängendes Bild) Um extreme Zeitlupen zu erstellen, wird der erste Einfluss häufig skaliert. Bei Erhöhung der Lichtstärke kann die Blende schneller wieder geschlossen werden. Realisiert wird dieser Umstand, indem die Lichtstärke der Lampe erhöht wird, oder mehrere Lampen gleichzeitig das Objekt beleuchten. Dadurch tritt eine weitere physische Grenze auf: Lampen erzeugen nicht nur Licht, sondern auch Wärme. Die Bestrahlungsstärke kann also nur so groß sein, dass Objekt und Aufnahmetechnik nicht schmelzen, beziehungsweise nicht zerstört werden. Mit aktiver Kühlung könnte dieser Moment noch etwas verzögert werden. Neben den beiden genannten physischen Grenzen, gibt es auch noch eine andere, die sich neben der Aufnahmegeschwindigkeit nun auf die Speicherung der Bilder bezieht. 3.2.1.2 Schreibgeschwindigkeit des Speichers Die Schreibgeschwindigkeit ist bei Zeitlupenkameras von hoher Bedeutung. Durch sie ist vorgegeben, wie schnell aufeinander folgende Einzelbilder gespeichert werden können. In den untersuchten Kameras kommen Schreibgeschwindigkeiten bis zu knapp sieben Gigabyte pro Sekunde vor. Es lässt sich jedoch häufig nicht feststellen, wie derartige Schreibgeschwindigkeiten zustande kommen, da die Firmen die Baupläne der Kameras nicht preisgeben. Um die Schreibgeschwindigkeit zu erhöhen, gibt es folgende Möglichkeiten: Kapitel 3 - Verwandte Arbeiten 22 1. Bauweise des Speichers optimieren Einige Systeme bieten die Möglichkeit, die Kamera direkt mit dem Computer zu verbinden. In diesem Fall kann der Speicher nahezu beliebig groß sein, jedoch ist die Schreibgeschwindigkeit durch die Übertragung der Daten eingeschränkt. Wird eine besonders hohe Speicherrate benötigt, so empfiehlt sich der Einsatz eines schnellen Arbeitsspeichers, der kameraintern direkt mit dem Photosensor verbunden ist. Auf diese Weise lässt sich die Wegstrecke zwischen Sensor und Speicher minimieren. Je kürzer der Abstand zwischen Sensor und Speicher ist, desto schneller kann gespeichert werden. Außerdem sollte der Speicher mit der größten Schreibgeschwindigkeit verwendet werden. Eingeschränkt wird dieser Fakt nur durch die Kosten des schnellen Speichers. 2. Parallelisierung Werden Aufnahmen benötigt, bei denen selbst der schnellste Einzelspeicher zur Aufnahme der Zeitlupe nicht ausreicht, so gibt es noch andere Möglichkeiten die Schreibgeschwindigkeit zu erhöhen. Eine Variante besteht in der Parallelisierung des Speichers. Eine Kamera besitzt n Speichereinheiten, wobei das erste Einzelbild durch Speicher eins, das Zweite durch Speicher zwei und schließlich das n-te Bild durch Speicher n gespeichert wird. Einzelbild n+1 wird wieder durch den ersten Speicher gespeichert. Dadurch kann eine Aufnahme n-mal schneller erfolgen, als die einzelne Speichereinheit speichern kann. Eine andere Möglichkeit besteht in der Parallelisierung der Kameras. Das durch das Objektiv kommende Licht wird mittels eines Prismas auf n Sensoren gelenkt. Diese n Sensoren entsprechen baulich n einzelnen Kameras, die unabhängig voneinander agieren. Ausgelöst werden diese Kameras durch einen externen Impuls. Nun zeichnet jede Kamera Bilder auf, wobei auch hier die Bilder n-mal so schnell aufgezeichnet werden können, wie sie nur eine Kamera hätte speichern können. In beiden Varianten werden die Bilder in der späteren Verarbeitung in die richtige Reihenfolge gebracht. 3.2.1.3 Zusammenfassung für Aufnahmegeräte von Zeitlupen Aufgrund physischer Grenzen sind auch die Aufnahmebedingungen bei Kameras für die Produktion von Zeitlupen begrenzt. Zum Einen bezieht sich diese Einschränkung auf die Anzahl der Bilder pro Zeiteinheit, zum Anderen auf die Einzelbildgröße. Forscher sollten die Aufnahmetechnik sehr sorgfältig wählen, um nicht einen zu hohen Preis für die Ausrüstung zu zahlen. Dabei spielt in erster Linie der Anwendungsfall eine Rolle. Des Weiteren müssen die Bilderanzahl pro Zeiteinheit, das Videoformat, der Auslösemechanismus, die Speichergröße und dessen Schreibgeschwindigkeit, sowie der richtige Aufnahmeort mit den passenden Beleuchtungsverhältnissen beachtet werden. Eine Auswahl untersuchter Hochgeschwindigkeitskameras befindet sich im Anhang D. 3.2.2 Aufnahmegeräte für Zeitraffer Bei Zeitlupenkameras muss die Aufnahmegeschwindigkeit des Videos niedriger sein als die Wiedergabegeschwindigkeit. Bei den folgenden Untersuchungen wird davon ausgegangen, dass die Videoclipgeschwindigkeit 25 Einzelbilder pro Sekunde beträgt. Der Videoclip Kapitel 3 - Verwandte Arbeiten 23 muss demzufolge mit einer Kamera aufgezeichnet werden, die weniger als 25 Bilder pro Sekunde speichert, da ansonsten Aufnahmegeschwindigkeit und Abspielgeschwindigkeit gleich sind und damit die Aufnahme keinem Zeitraffer entspricht. Die Herausforderung bei Zeitraffern liegt darin, einen sehr langsam ablaufenden Prozess durch beschleunigte Wiedergabe besser sichtbar zu machen. Dies gelingt, indem eine Kamera oder ein digitaler Fotoapparat über einen längeren Zeitraum Aufnahmen des zu untersuchenden Objektes oder Gebietes aufzeichnet. Dafür werden zwei Einstellungen vorgenommen: 1. Die Dauer, wie lange ein Szenario aufgenommen werden soll. 2. Die Größe des Zeitintervalls, in dem die Bilder aufgezeichnet werden sollen. Die Gesamtlänge wird entweder als Zeitdauer oder als Gesamtbildanzahl angegeben. Das Intervall beschreibt, nach wie vielen Sekunden jeweils ein Bild aufgenommen wird. Wichtig dabei ist, dass die Bilder exakt zu den im Intervall liegenden Zeitpunkten aufgenommen werden. Bei der Aufnahme von Zeitraffern muss rationell vorgegangen werden. Es ist möglich, einen Zeitraffer mit einer gewöhnlichen Fernsehkamera aufzunehmen. Zeichnet diese eine Stunde Film mit einer Frequenz von 25 Bildern pro Sekunde auf, dann hat der fertige Film 90.000 Bilder. Wird aus diesem Video nur jedes tausendste Bild verwendet, dann ergibt sich daraus ein Zeitraffer mit 90 Einzelbildern. Bei einer Wiedergabefrequenz von 25 Bildern pro Sekunde ist dieser Clip 3,6 Sekunden lang. In diesem Fall ist für einen 3,6 Sekunden langen Clip die Speichermenge für einen Stundenfilm nötig. Um die Aufzeichnung unnötiger Daten zu verhindern, müssen die untersuchten Kameras in der Lage sein, Einzelbilder zu fest vorgegebenen Zeitpunkten aufzunehmen. Diese Funktion wird häufig Intervall- oder Intervall/Timer-Funktion genannt. Viele Videorekorder aus dem Amateurbereich leisten dies nicht, sodass sich die Recherche auf Digitalkameras beschränkt. Es ist auch möglich einen Zeitraffer mit Hilfe der Serienbildproduktion zu erstellen. In diesem Fall ist jedoch nur ein einziger zeitlicher Abstand aufeinanderfolgender Bilder möglich. Dieser zeitliche Abstand ist abhängig von der Bauweise der Kamera und wird dadurch bestimmt, wie schnell die Kamera ein Bild mit maximaler Auflösung speichern kann. Wie auch bei Hochgeschwindigkeitskameras produzieren nur die wenigsten Digitalkameras Bilder, die der Fernsehnorm PAL entsprechen. In den meisten Fällen liegt hier die Auflösung der Bilder sehr viel höher. Diese Tatsache bringt zwei zu untersuchende Aspekte mit sich: Erstens wird geprüft, wie hoch die maximale Auflösung bei Digitalkameras ist, und wie schnell die Bilder bei maximaler Auflösung aufgenommen werden können, wenn eine Serienbildfunktion vorhanden ist. Zweitens wird geprüft, ob die Kamera intern über eine Intervallaufnahmefunktion verfügt oder ob eine Zeitrafferaufnahme über einen angeschlossenen Computer erfolgen kann. Damit wird die Recherche auf die Kameras eingeschränkt, die über einen Anschluss für externe Geräte verfügen. Weiterhin konzentriert sich die Untersuchung auf Digitalkameras, die ab Oktober 2003 auf den Markt kamen. Die Experimente im praktischen Teil wurden mit einer Canon Powershot A80 durchgeführt, die ab dieser Zeit auf dem Markt verfügbar war. Die tabellarische Übersicht liegt im Anhang D vor. Beim Erstellen von Zeitraffern kann das Aufnahmeintervall sehr groß werden. In diesem Fall lohnt sich das Verwenden einer kameraexternen Stromversorgung und einer festen Verbindung zu einem externen Speichermedium, wie zum Beispiel zu einem Computer. Für die im Kapitel 3 - Verwandte Arbeiten 24 Anhang D angegebenen Kameramodelle existiert eine Software, mit der die Kameras extern ausgelöst werden können. Die Aufnahme von Zeitraffern funktioniert daher wie folgt: Mit Hilfe der Kamerasteuersoftware wird eingestellt, wie viele Bilder und nach wie vielen Sekunden das jeweils nächste Bild aufgenommen werden soll. Je nach Übertragungsstandard kann die Kamera die Vollbilder in der entsprechenden Zeit übertragen. Ist das gewählte Zeitintervall zu klein, schreiben die meisten Kameras einen internen Puffer voll. Die maximale Bildanzahl wird hierbei von der Puffergröße bestimmt. Anschließend werden die Einzelbilder zum Computer übertragen. Je nach Software liegen diese bereits als Videoclip vor, oder sie müssen nun mit einem Videoschnittprogramm zu einem Clip zusammengefügt werden. Dabei besteht die Möglichkeit, das komplette Bild zu skalieren oder einen Teil des Bildes auszuschneiden. Dadurch lässt sich von einer Szene ein Zeitraffer erstellen, wobei auch einzelne Bildausschnitte ausgewählt werden können. Im Gegensatz zur Zeitlupe, bei welcher der Bildausschnitt vorher exakt bestimmt wird, kann hier der Bildausschnitt nach der Aufnahme festgelegt werden. 3.2.2.1 Zusammenfassung für Aufnahmegeräte von Zeitraffern Zeitraffer können preiswert und effizient mit Digitalkameras erstellt werden. Von den untersuchten 1.331 Digitalkameras wurden 636 ab Oktober 2003 auf dem Markt eingeführt. Bis Dezember 2003 waren Kameras mit bis zu vier Megapixeln Standard. Profikameras erreichten auch größere Formate, wobei im Dezember 2003 nur eine Kamera mit knapp acht Megapixeln auf dem Markt eingeführt wurde. Die seit September 2006 hergestellten Kameras besitzen durchschnittlich 7,8 Megapixel. 128 der 636 untersuchten Kameras verfügen ohne externes Zubehör über eine Intervallaufnahmefunktion, wobei sich die maximale Bildanzahl häufig auf 99 Bilder beschränkt. Außerdem sind auch die Intervalle meist fest vorgegeben. Über eine externe Steuerung lässt sich das Intervall oft sekundengenau einstellen. Bei Zeitraffern werden die Daten häufig über einen sehr langen Zeitraum gesammelt. Es gibt sogar eine Kamera, die Bilder mit 5.328 x 4.000 Bildpunkten aufnehmen und speichern kann. Je nach Kompression hat ein Einzelbild eine Größe von zirka elf Megabyte. Die Herausforderung liegt also nicht in der Aufnahme, sondern in der Wiedergabe eines Zeitraffers. Solange die Rohdaten nicht vor der Wiedergabe skaliert oder geschnitten werden, treten bei einer Wiedergabegeschwindigkeit von 25 Bildern pro Sekunde Datenströme mit ungefähr 275 Megabyte pro Sekunde auf. Demzufolge sollten die Einzelbilder noch vor der Bearbeitung oder der Übertragung der Auflösung des Anzeigegerätes angepasst werden. 3.2.3 Auswertung Bei Zeitlupenaufnahmen spielen ebenso wie bei Zeitrafferaufnahmen technische Anforderungen eine große Rolle bei der Auswahl der richtigen Kamera für einen bestimmten Zweck. Bei Zeitlupenkameras kann die Aufnahmegeschwindigkeit bedeutend vergrößert werden, wenn der aufzunehmende Bildbereich verkleinert wird. Wird dennoch eine Zeitlupe für eine große Szene benötigt, lohnt sich oft der Einsatz mehrerer Kameras, da in diesem Fall der Speicher auf mehrere Geräte verteilt ist. Damit wird zumindest das Problem der schnellen Speicherung eingedämmt. Die meisten Hochgeschwindigkeitskameras produzieren Farbbilder. Dazu werden die Bilder mit einem Drei-Farben-Sensor aufgenommen. Wird der Lichtanteil pro Pixel dieser drei Sensoren addiert, so entsteht ein Graustufenbild. Kapitel 3 - Verwandte Arbeiten 25 Unter Umständen erfüllt auch diese Aufnahme den erwünschten Zweck, wobei es nun möglich ist, auch bei etwas dunkleren Lichtverhältnissen Zeitlupenaufnahmen zu erstellen. Bei Zeitrafferaufnahmen ist vor allen Dingen eine effiziente Speicherung der Bilddaten erforderlich. Aus diesem Grund bietet sich die Durchführung von Zeitrafferaufnahmen mit einer Digitalkamera und einem extern angeschlossenen Computer an. Der Computer löst die Kamera aus und speichert anschließend das entstandene Foto. Die Grenzen liegen dabei nur in der maximalen Bildauflösung der Kamera, der Übertragungsgeschwindigkeit zum Computer und dessen Speicherkapazität. In beiden Fällen, Zeitlupe und Zeitraffer, sollte die Kamera auf einem Stativ befestigt sein. Das Ergebnis ist ein Filmclip, der mit einer Geschwindigkeit von 25 Bildern pro Sekunde abgespielt wird. Doch worauf achtet der Mensch beim Betrachten des Clips? Woran werden im Film Tiefeninformationen ersichtlich, wenn Zeitlupen oder Zeitraffer zur Wegbeschreibung eingesetzt werden? Wie nimmt der Mensch Bewegungen in Videofilmen wahr, und welche Rolle spielen persönliche Erfahrungen oder Erwartungen beim Betrachten des Videos? Um diese Fragen zu klären bedarf es psychologischer Betrachtungen. Da es für das Verständnis von Kapitel vier sehr wichtig ist, warum Zeitlupen und Zeitraffer bei der Wegbeschreibung funktionieren, wird der folgende Abschnitt besonders ausführlich diskutiert. Neben verschiedenen Ansätzen der Wahrnehmungstheorie wird auch auf kulturelle Unterschiede bei der Wahrnehmung eingegangen. 3.3 Wahrnehmung von Videos – psychologische Ansätze Es scheint sehr einfach zu sein die Welt um uns herum zu sehen und sie zu verstehen. Zum Beispiel müssen wir nicht lange überlegen, ob wir uns auf dem Bürgersteig befinden und ob sich Autos auf der Straße in beide Richtungen fortbewegen. Tatsächlich ist die Wahrnehmung und Deutung der Umgebung eine Hauptleistung des Menschen. Einige der Wahrnehmungsgrundlagen werden in diesem Kapitel diskutiert. Die Ausführungen beschränken sich dabei auf die Organisation der Wahrnehmung, Raum oder Tiefenwahrnehmung, visuelle Konstanten, Mustererkennung, Wahrnehmungstheorien und Individual-, Sozial- und Kulturunterschiede in der Wahrnehmung. Was wird unter dem Begriff Wahrnehmung verstanden? Nach [Roth 1986, Seite 81]: The term perception refers to the means by which information acquired from the environment via the sense organs is transformed into experiences of objects, events, sounds, tastes, etc. Im Deutschen: Der Begriff Wahrnehmung nimmt Bezug auf Mittel, mit denen Informationen, die über die Sinnesorgane aus der Umgebung aufgenommen werden, in Erfahrungen mit Dingen, Ereignissen, Klängen, Geschmäcken und so weiter umgewandelt werden. Manchmal wird zwischen Wahrnehmung und Empfindung differenziert. Als Empfindung wird die grundlegende, uninterpretierte Information bezeichnet, die unsere Sinnesorgane erreicht. Es wurde behauptet, dass Empfindung vor der Wahrnehmung auftritt. Realistischer ist jedoch die Annahme, dass sie sich im Allgemeinen zeitlich überlappen. Die allgemeine Sichtweise heutzutage ist, dass die beteiligten Prozesse so komplex sind, dass es nur von geringem Wert ist, sie klar voneinander abzugrenzen. Kapitel 3 - Verwandte Arbeiten 26 3.3.1 Organisation der Wahrnehmung Nach [Eysenck 2000, Seite 264 ff.] ist die visuelle Wahrnehmung fast immer hoch organisiert. Unsere visuelle Welt besteht aus Objekten, die im dreidimensionalen Raum bedeutungsvoll angeordnet sind. Dies geschieht so selbstverständlich und ohne Anstrengung, dass es schwer zu glauben ist, dass die organisierte Wahrnehmung eine wesentliche Errungenschaft ist. Die Tatsache, dass Computer so programmiert werden können, dass sie erstklassiges Schach spielen, aber immer noch nicht die Eigenschaften der visuellen Wahrnehmung selbst der primitiven Lebewesen haben, unterstützt diesen Gedanken. Die an den Rezeptoren ankommenden Informationen sind konfus und unorganisiert. Im Fall des Sehens ist es für gewöhnlich ein Farbenmosaik. Größen und Formen, so wie sie auf der Netzhaut abgebildet werden, stimmen nur wenig mit Größen und Formen der Originalobjekte überein. Die Wahrnehmungsorganisation erfordert eine gute Tiefenwahrnehmung, Fähigkeiten, Objekte zu erkennen, Bewegungen zu erfassen und Größen und Farben von Objekten akkurat zu bestimmen. Diese Fähigkeiten werden im Folgenden diskutiert. 3.3.1.1 Die Gestalt-Theorie Die erste systematische Studie zur Wahrnehmungsorganisation wurde von einer Gruppe Gestaltpsychologen herausgebracht. Gestalt steht dabei für das organisierte Ganze. Die Gruppe bestand aus deutschen Psychologen (unter anderem Koffka, Köhler und Wertheimer; im Folgenden als Gestaltisten bezeichnet), die zwischen den beiden Weltkriegen in die Vereinigten Staaten von Amerika auswanderten. Sie waren besonders an einer Trennung der Funktionen im Wahrnehmungsprozess interessiert. Sie versuchten herauszufinden, welche Teile der wahrgenommenen visuellen Information zusammen gehören, und welche voneinander unterschieden werden. Ein Schlüsselaspekt der Wahrnehmungstrennung ist das Unterteilen des visuellen Feldes in einen zentralen Bereich (zentraler Fokus der Aufmerksamkeit) und einen dezentralen Bereich (alles Andere). 1. Prinzipien der Wahrnehmungsorganisation Die Gestaltisten stellten zahlreiche Gesetzmäßigkeiten der Wahrnehmungsorganisation auf. Ihr grundlegendstes Prinzip war das Gesetz der Prägnanz, welches [Koffka 1935, Seite 110] wie folgt formulierte: Psychological organisation will always be as „good“ as the prevailing conditions allow. In this definition the term „good“ is undefined. Im Deutschen: Psychologische Organisation wird immer nur so „gut“ sein, wie es die vorherrschenden Gegebenheiten ermöglichen. In dieser Definition ist der Begriff „gut“ undefiniert. Tatsächlich war Koffka undeutlich in seiner Definition. Die Gestaltisten halten sogar eine gute Formel für die einfachste oder die einheitlichste Erklärung der verschiedenen möglichen Organisationsstrukturen. Die Gestalt-Theorie kann am deutlichsten nachvollzogen werden, wenn ein paar spezielle Beispiele betrachtet werden: Kapitel 3 - Verwandte Arbeiten 27 Muster (a) wird am natürlichsten als drei durch Punkte gezeichnete horizontale Reihen gesehen. Das illustriert das Gesetz der Nähe. Diesem Gesetz entsprechend neigen Personen dazu, nahe beieinanderliegende visuelle Elemente zu gruppieren. In Muster (b) werden eher vertikale Spalten als horizontale Zeilen gesehen. Dies entspricht dem Gesetz der Ähnlichkeit, nach welchem ähnliche visuelle Elemente zu Gruppen zusammengefasst werden. In Muster (c) werden eher zwei sich kreuzende Linien wahrgenommen als zwei V, die sich im EckAbbildung 13 punkt berühren. Diese Tatsache entspricht Beispiele zur Gestalt-Theorie dem Gesetz der Fortführung, welches aussagt, dass diese visuellen Elemente die kleinste Unterbrechung erzeugen und damit die sanft gekurvten Linien gruppiert werden. Schließlich entspricht Muster (d) dem Gesetz des Abschlusses, nach welchem einem Objekt fehlende Teile hinzugefügt werden, um es zu vervollständigen. Alle diese Gesetze können als spezifischere Aussagen des fundamentalen Gesetzes der Prägnanz betrachtet werden. Laut [Soegaard 2003] war der dänische Psychologe Edgar Rubin der Erste, der systematisch das Phänomen der Prägnanz erforschte. Das Figure-Ground-Phänomen wird dadurch geprägt, dass beim Empfang eines visuellen Feldes bestimmte Objekte eine bedeutende Rolle übernehmen (im Englischen: figures), während andere als Hintergrund interpretiert werden (englisch: ground). Folglich wird das Sichtfeld in diese beiden grundlegenden Teile aufgeteilt. Dieser Effekt wird häufig in Logos verwendet, wie in den nebenstehenden Abbildungen dargestellt. Das Logo von visitnorway.com kann als drei separate Elemente in den Farben hellblau, blau und grün gesehen werden. Es kann jedoch auch als eine Person gesehen werden, die ihre Arme in die Höhe streckt. Gleichermaßen ist es möglich das Logo von Gnome Desktop Environment als ein „G“ oder einen Fußabdruck zu sehen. Schließlich kann auch das Macintosh Logo als ein gewöhnliches, lachendes Gesicht oder als ein auf einen Computerbildschirm schauendes Gesicht im Profil gesehen werden. Die Gemeinsamkeit der Logos besteht darin, dass beim Fokussieren nur eine Interpretation zu einem bestimmten Zeitpunkt möglich ist. Es können nicht beide Figuren gleichzeitig wahrgenommen werden. Der Hintergrund wird zum Vordergrundobjekt, wenn der Fokus geändert wird. Das Figure-Ground-Phänomen lässt sich meistens beispielhaft an der Gesicht/Vase-Illusion erläutern, die von Edgar Rubin entdeckt wurde. Abbildungen 14-16 Die Logos von visitnorway.com, Gnome Desktop Environment und Macintosh Kapitel 3 - Verwandte Arbeiten 28 Doch woher kommen die organisatorischen Prozesse? Nach [Eysenck 2000] argumentierten die Gestaltisten, dass die Wahrnehmungsorganisation die größtenteils angeborene, bestimmte Arbeitsweise des Wahrnehmungssystems widerspiegelt. Es ist jedoch unwahrscheinlich, damit das gesamte Spektrum erfasst zu haben. Die alltäglichen Erfahrungen zeigen, dass die visuellen Elemente, die sich ähnlich und nah beieinander sind, typischerweise zum selben visuellen Objekt gehören, jedoch nicht die visuellen Elemente, die sich unähnlich sind und weit voneinander entfernt sind. 2. Bewegungswahrnehmung Abbildung 17 Gesicht/Vase-Illusion Eine der ersten Studien über Wahrnehmung, die von den Gestaltisten durchgeführt wurde, war jene von [Wertheimer 1912]. Zwei Lichter befanden sich in einem dunklen Raum. Als ein Licht ungefähr 50 Millisekunden aufblinkte, bevor das andere Licht ein und ausgeschaltet wurde, nahmen die Probanden ein einziges Licht wahr, welches sich in der Dunkelheit zu bewegen schien. Dieser Effekt ist bekannt als scheinbare Bewegung, weil Bewegung wahrgenommen wird, obwohl tatsächlich keine Bewegung stattfindet. Jeder, der sich bereits einen Film angesehen hat, wird Erfahrungen mit diesem Phänomen gemacht haben. Die Gestaltisten waren an scheinbaren Bewegungen interessiert, weil sie verdeutlichen, wie das Ganze (Bewegungswahrnehmung) mehr als die Summe ihrer Teile (zwei stationäre Lichter) sein kann. [Eysenck 2000] schlussfolgerte daraus: In the cinema, what we perceive to be a moving picture is a series of stationary pictures, each one slightly different, presented in a rapid succession. Im Deutschen: Was wir in einem Film als ein bewegtes Bild wahrnehmen ist eine Serie stehender Bilder, die sich geringfügig voneinander unterscheiden und in schneller Abfolge gezeigt werden. Die Gestaltisten schlugen außerdem das Gesetz des gemeinsamen Schicksals vor, entsprechend welchem visuelle Elemente, die sich scheinbar in die gleiche Richtung fortbewegen, gruppiert werden. [Johansson 1973] befestigte Lampen an allen Gelenken eines Schauspielers, der schwarze Kleindung trug. Dieser Schauspieler wurde gefilmt während er in einem dunklen Raum umherlief. Die Probanden sahen lediglich eine nichts aussagende Anordnung von Lampen auf dem Display als der Schauspieler still stand. Sie nahmen jedoch eine sich bewegende Person wahr, sobald der Schauspieler umherlief. Dies war möglich, obwohl sie außer den Lampen nichts sehen konnten. [Kozlowski, Cutting 1978] fanden heraus, dass die Probanden sich selbst und andere Personen anhand der Lichtpunkte auf den Bildschirmen gut identifizieren können. Die Probanden lagen zu 65% beim Schätzen des Geschlechts des Schauspielers richtig, während sie die Lichtpunkte auf dem Bildschirm sahen. Die Probanden zogen Nutzen aus der Tatsache, dass Männer beim Laufen ihre Schultern mehr als ihre Hüften bewegen, wogegen bei Frauen tendenziell das Gegenteil zutrifft. Kapitel 3 - Verwandte Arbeiten 29 Abbildung 18 Bewegungswahrnehmung: Johannson befestigte Lampen an den Gelenken des Schauspielers. Während der Schauspieler im dunklen Raum still stand, waren die Probanden nicht in der Lage einen Sinn in der Anordnung der Lampen zu entdecken. Jedoch erkannten sie einen Menschen, sobald der Schauspieler begann, sich zu bewegen. Wie wichtig die Bewegungswahrnehmung ist, wurde im Fall einer weiblichen Patientin sehr deutlich gezeigt, die einen Gehirnschaden erlitten hatte. Sie konnte lokale, stationäre Objekte erkennen und Farben gut voneinander unterscheiden, aber ihre Bewegungswahrnehmung war extrem schlecht. Als ein Resultat schrieben [Zihl und Andere 1983, Seite 315]: She could not cross the street because of her inability to judge the speed of a car, but she could identify the car without difficulty. „When I‘m looking at the car first, it seems far away. But then, when I want to cross the road, suddenly the car is very near.“ Im Deutschen: Sie konnte die Straße nicht überqueren, weil sie die Geschwindigkeit eines Autos nicht einschätzen konnte, aber sie konnte das Fahrzeug ohne Schwierigkeiten identifizieren. „Als ich das erste Mal nach dem Auto schaute, schien es weit weg zu sein. Aber als ich die Straße überqueren wollte, war das Auto plötzlich sehr nah.“ Wie kann man feststellen, ob Veränderungen des Abbildes eines Objektes auf der Retina durch Bewegung des Objektes oder durch Bewegung der Augen entstanden sind? Entsprechend der Folgeentladungstheorie nach [Richards 1975] vergleicht das visuelle System auf der Retina registrierte Bewegungen mit Signalen zur Augenbewegung. Wenn das Gehirn eine Nachricht zum Augenmuskel aussendet, schickt es ebenso eine Kopie (bekannt als Folgeentladung oder resultierende Entladung) zu dem Teil des visuellen Systems, der für die Bewegungswahrnehmung zuständig ist. Dadurch wird festgestellt, ob eine Bewegung des Abbildes auf der Retina aus einer Objektbewegung oder einer Augenbewegung resultiert. Ein einfacher Beweis unterstützt die Folgeentladungstheorie, indem sanft gegen die Seite des Auges gedrückt wird. Das verursacht eine Bewegung des Abbildes auf der Retina, ohne dass sich die Augenmuskeln bewegen. Als Resultat wird die Bewegung vom visuellen System als eine Bewegung in der Umgebung interpretiert. Jedoch bietet die Folgeentladungstheorie keine vollständige Darstellung der Bewegungswahrnehmung. [Tresilian 1994, Seite 336] stellte dar, dass diese Theorie vorhersagt: Kapitel 3 - Verwandte Arbeiten 30 If the eyes are stationary in the head as the head rotates, the resulting image motion will be interpreted as motion of the environment, yet everyone knows that this does not happen. Im Deutschen: Wenn der Blick verharrt, während sich der Kopf dreht, wird die resultierende Bewegung als Bewegung der Umgebung interpretiert, dennoch weiß jeder, dass das nicht der Fall ist. Daher verlässt man sich nicht nur auf Informationen der Augenbewegung, um eine stabile Umgebung zu bemerken. Die Bewegung des gesamten auf der Retina abgebildeten Bildes wird für gewöhnlich der Bewegung des Kopfes oder dem Auge zugeordnet, wobei die Bewegung von Teilen des Abbildes auf der Retina als Bewegung externer Objekte interpretiert wird. 3. Einschätzung von [Eysenck 2000] Die Gestalt-Theorien scheinen sinnvoll zu sein, aber sie haben starke Kritik hervorgerufen. Die Gesetze sind lediglich beschreibende Aussagen, welche jedoch nicht erklären, warum ähnliche visuelle Elemente oder eng beieinanderliegende gruppiert werden. Eine andere Beschränkung ist, dass sich die meisten Gestalt-Theorien hauptsächlich auf die Wahrnehmung von zweidimensionalen Mustern beziehen. Andere Faktoren kommen bei dreidimensionalen Szenerien ins Spiel. Zum Beispiel kann es nur möglich sein, ein Chamäleon vom Hintergrund abzugrenzen, wenn es sich bewegt. Schließlich ist es schwierig, die GestaltTheorien für Organisation auf bestimmte komplizierte, visuelle Anreize anzuwenden (zum Beispiel Reize, bei denen ähnliche Elemente relativ weit entfernt und unähnliche Elemente nahe beisammen sind). 3.3.2 Raum- oder Tiefenwahrnehmung Bei der visuellen Wahrnehmung wird das zweidimensionale Abbild auf der Retina zur Wahrnehmung einer dreidimensionalen Welt umgewandelt. Im alltäglichen Leben gibt es aufgrund der Bewegung des Probanden oder des Objektes häufig Tiefenhinweise in der visuellen Umgebung. Jedoch liegt der Schwerpunkt der Betrachtung zur Tiefenwahrnehmung hier auf den Merkmalen, die gegeben sind, auch wenn der Proband und die Objekte in der visuellen Umgebung statisch sind. Diese Hinweise können in monokulare und binokulare Hinweise unterteilt werden. Monokulare Hinweise erfordern das Sehen mit nur einem Auge, wobei es auch Anwendung findet, wenn beide Augen geöffnet sind. Diese Hinweise existieren offensichtlich, weil die Welt nach wie vor Tiefenwahrnehmung zulässt, auch wenn ein Auge geschlossen bleibt. Binokulare Hinweise sind solche, die ein gleichzeitiges Sehen mit beiden Augen erfordern. 3.3.2.1 Monokulare Hinweise Es gibt verschiedene monokulare Tiefenhinweise. Sie sind manchmal auch als bildhafte Hinweise bekannt, da sie von Künstlern zum Erstellen der Impression einer dreidimensionalen Szene genutzt werden. Einer dieser Hinweise ist die Linearperspektive. Zueinander parallele Linien, die vom Betrachter weg führen, scheinen in der Entfernung enger beiein- Kapitel 3 - Verwandte Arbeiten 31 ander zu liegen (zum Beispiel Eisenbahngleise). Diese Konvergenz der Linien kann einen starken Tiefeneindruck in zweidimensionalen Gemälden kreieren. Ein anderer Aspekt der Perspektive ist bekannt als Verblauung, im Englischen aerial perspective genannt. Licht wird auf dem Weg durch die Atmosphäre gestreut, speziell wenn die Atmosphäre staubig ist. Als Resultat erscheinen entferntere Objekte in geringerem Kontrast und damit diesig oder trüb. Ein Hinweis, der sich auf die Perspektive bezieht, ist die Textur. Die meisten Objekte besitzen eine Textur. [Gibson 1979] stellte fest: Werden diese Objekte mit geneigtem Blickwinkel betrachtet, haben sie einen Texturgradienten. Dieser Gradient (Veränderungsrate) der Texturdichte vergrößert sich, wenn man das Objekt von nah bis fern betrachtet. Schaut man zum Beispiel auf einen langen, gemusterten Teppich, dann werden die Details zum entfernten Ende hin undeutlicher als die am nahe liegenden Anfang. Ein weiterer Hinweis ist die Verdeckung, auch Interposition genannt, bei der ein näheres Objekt Teile eines weiter hinten liegenden Objektes verdeckt. Beweis für die Eindrucksstärke der Verdeckung liefert das illusionistisches Quadrat von [Kanizsa 1976]. Hier herrscht eine sehr starke, subjektive Impression eines weißen Quadrates, welches über vier schwarzen Kreisen liegt. Man erkennt vier dreiviertel Scheiben und nimmt aufgrund ihrer Anordnung ein vor den Scheiben liegendes, illusorisches weißes Quadrat wahr. Abbildung 19 Dieses Kalksteingeröll an der Zugspitze ist ein Beispiel eines natürlichen Texturgradienten. Je näher die Steine am Betrachter sind, desto größer und deutlicher wird das Muster. Noch ein anderer Hinweis für Tiefe ist durch Schattierung gegeben, oder durch das Muster für Licht und Dunkelheit auf und um ein Objekt herum. Flache zweidimensionale Oberflächen verursachen keinen Schatten, wodurch die Schattierung ein guter Beweis für das Vorhandensein eines dreidimensionalen Objektes ist. Ein weiterer Hinweis für Tiefe ist die vertraute Größe. Wenn wir die tatsächliche Größe eines Objektes kennen, dann können wir mit Hilfe des Abbildes auf der Retina die Entfernung des Objektes schätzen. Als [Ittelson 1951] Teilnehmer durch ein Schlüsselloch auf Spielkarten schauen ließ, dann sahen die Teilnehmer überdimensionierte Karten und schätzten diese näher ein als sie es waren. Kleinere Spielkarten schienen weiter weg zu sein, als es der Fall war. Der letzte monokulare Hinweis ist die Bewegungsparallaxe. Sie basiert auf der Bewegung des Objektabbildes auf der Retina. Man betrachtet beispielsweise zwei Objekte, die sich von links nach rechts mit gleicher Geschwindigkeit durch das Sichtfeld bewegen, jedoch ist ein Objekt weiter vom Probanden entfernt als das andere. In diesem Fall bewegt sich das Abbild des näheren Objektes schneller über die Retina. Abbildung 20 Kanizsa‘s illusionistisches Quadrat: Obwohl kein weißes Quadrat präsent ist, sehen Menschen das Diagramm, als wären vier schwarze Kreise von einem weißen Quadrat überdeckt. Kapitel 3 - Verwandte Arbeiten 32 3.3.2.2 Binokulare Hinweise Nach [Eysenck 2000] gibt es drei andere Tiefenhinweise, die nur bei binokularer Sichtweise verfügbar sind. Diese Hinweise (Konvergenz, Akkommodation und Stereopsis) verlieren ihre Wirkungsweise, wenn Objekte weiter weg als in kurzer Entfernung sind: 1. Konvergenz bezieht sich auf die Tatsache, dass sich die Augen nach innen drehen, um ein sehr nahes Objekt besser zu fokussieren. 2. Akkommodation bezieht sich auf die Variation der optischen Sehkraft, die auf das Verdicken der Linse des Auges zurückzuführen ist, um nahe Objekte besser zu fokussieren. 3. Stereopsis ist stereoskopisches Sehen, welches von der Verschiedenheit der Abbildungen auf der Retina der beiden Augen abhängt. Es hat Diskussionen über die Eigenschaft der Konvergenz als Merkmal für einen Hinweis zur Entfernung gegeben. Die Forschungsergebnisse tendierten zum Negativen, solange reale Objekte verwendet wurden. Akkommodation ist ebenso nur von geringer Bedeutung. Ihr potenzieller Wert als ein Tiefenhinweis ist auf den Raum beschränkt, der sich unmittelbar vor den Augen befindet. Trotzdem sind nach [Kunnapas 1968] auf Akkommodation basierende Entscheidungen zur Entfernung inakkurat, sogar wenn das Objekt in kurzer Entfernung ist. Die große Bedeutung der Stereopsis wurde von [Wheatstone 1838], dem Entwickler des Stereoskops, gezeigt. Was in einem Stereoskop passiert ist, dass separate Bilder oder Gemälde dem Probanden so präsentiert werden, dass jedes Auge diese Information empfängt, die es auch empfangen würde wenn das dargestellte Objekt tatsächlich präsentiert wird. Stereoskopisches Sehen erzeugt einen sehr starken Tiefeneffekt. Abbildung 21 Binokulare Disparität: Werden Gegenstände in kurzer Entfernung betrachtet empfängt jedes Auge ein leicht unterschiedliches Abbild der gleichen Szenerie. Der Unterschied in den Abbildungen auf der Retina eines jeden Auges wird binokulare Disparität genannt. Das Gehirn nutzt diesen geringen Unterschied als einen Weg, räumliche Tiefe zu registrieren. Dies ist das Prinzip des Stereoskops, bei dem Bilder aus leicht unterschiedlichem Winkel, korrespondierend zur Position jedes Auges, aufgenommen werden. Dem Betrachter erscheinen diese beiden Bilder als ein einziges dreidimensionales Bild. 3.3.2.3 Kombinieren der verschiedenen Tiefenhinweise Bis zu diesem Punkt wurden die Tiefenhinweise einzeln betrachtet. In der realen Welt treten jedoch im Allgemeinen mehrere Tiefenhinweise gleichzeitig auf, sodass ein bestimmter Wissensstand vorhanden sein muss, wie die Informationen verschiedener Tiefenhinweise kombiniert und eingegliedert werden. [Bruno, Cutting 1988] identifizierten drei Strategien, die von Probanden genutzt werden könnten, denen zwei oder mehr Tiefenhinweise vorlagen. Kapitel 3 - Verwandte Arbeiten 33 1. Additivität: Informationen unterschiedlicher Hinweise werden einfach zusammenaddiert. 2. Selektion: Informationen von einem Hinweis werden mit Hilfe der Informationen eines anderen Tiefenhinweises genutzt, oder es werden Hinweise ignoriert. 3. Multiplikation: Informationen unterschiedlicher Hinweise sind multiplikativ miteinander verknüpft. Bruno und Cutting studierten Tiefenwahrnehmung an einer Serie von Studien, in welchen die Probanden mit nur einem Auge auf visuelle Displays schauen konnten. Die Teilnehmer hatten Zugang zu vier Informationsquellen der Tiefenwahrnehmung (zum Beispiel Interposition), als sie Entscheidungen zur Entfernung verschiedener Objekte treffen sollten. Die Teilnehmer verwendeten die additive Strategie, da sie alle vier Informationsquellen zur Tiefenwahrnehmung gleichermaßen nutzten. Meist ist ein additives Kombinieren der Tiefenhinweise sinnvoll. Jeder Tiefenhinweis kann inakkurate Informationen bieten. Damit würde der Bezug auf nur einen Hinweis oft zum Fehler führen. Im Gegensatz dazu ist das Beachten von allen verfügbaren Informationen im Allgemeinen der beste Weg, um sicher zu gehen, dass die Tiefenwahrnehmung fehlerfrei ist. Es gibt aber vereinzelte Fälle, in denen die selektive Strategie angewandt wird. [Woodworth, Schlosberg 1954] behandelten eine Studie, in welcher zwei normale Spielkarten der gleichen Größe sich leicht überlappend unmittelbar hintereinander aufgestellt wurden. Der Proband betrachtete die beiden Karten monokular und die weiter weg stehende Karte sah entfernter aus. In der nächsten, entscheidenden Phase der Studie wurde die Ecke der näheren Karte ausgeschnitten. Die beiden Karten wurden so angeordnet, dass die entferntere Karte exakt in die ausgeschnittene Ecke der vorderen Karte passte. Bei monokularer Sichtweise schien die entferntere Karte vor der anderen zu stehen und sie dabei teilweise zu verdecken. Der Hinweis der Interposition überwältigte die vertraute Größe. Abbildung 22 Interposition (Kartenexperiment): Links verdeckt die schwarze Karte teilweise die rote Karte, die weiter hinten steht. Rechts wurde ein Teil der schwarzen Karte ausgeschnitten, sodass die Teilnehmer dachten, dass die schwarze Karte hinter der roten Karte steht, was jedoch nicht der Fall war. 3.3.3 Visuelle Konstanten Den Menschen erscheinen bekannte Gegenstände jedes Mal sehr ähnlich, wenn sie betrachtet werden. Zum Beispiel verändern sich die wahrgenommene Größe, Form und Farbe eines guten Freundes nur gering über die Zeit. Der Begriff visuelle Konstanten bezieht sich nach [Eysenck 2000] auf die Tatsache, dass die meisten der visuellen Charakteristiken Kapitel 3 - Verwandte Arbeiten 34 eines Objektes trotz unterschiedlicher äußerer Begebenheiten ähnlich aussehen, sogar wenn es starke Veränderungen auf dem Abbild der Retina gibt (beispielsweise ist das Abbild eines guten Freundes auf der Retina eher groß, wenn er sehr nah steht, aber es wird sehr klein, wenn er sehr weit entfernt ist). Psychologen haben sehr viele visuelle Konstanten identifiziert, einschließlich Konstanz in der Größe, der Form und der Farbe. 3.3.3.1 Größenkonstanz Größenkonstanz ist die Tendenz eines gegebenen Objektes in gleicher Größe zu erscheinen, unabhängig davon, ob das Abbild auf der Retina groß oder klein ist. Warum zeigt der Mensch Größenkonstanz? Ein Hauptgrund ist, dass die scheinbare Entfernung beim Abschätzen der Größe beachtet wird. Zum Beispiel könnte ein Objekt groß eingeschätzt werden, obwohl das Abbild auf der Retina sehr klein ist, wenn das Objekt in großer Entfernung ist. Größenkonstanz ist oft nicht sichtbar, wenn von einem hohen Gebäude oder einem Flugzeug auf Objekte am Boden geschaut wird, weil für den Menschen das richtige Einschätzen der Entfernung schwer ist. Die vertraute Größe ist einer der Faktoren, der die Größenkonstanz beeinflusst. Zum Beispiel ist allgemein bekannt, dass Erwachsene oft zwischen 1,60 und 1,85 Meter groß sind. Diese vertraute Größeninformation kann verwendet werden, um eine genaue Größenabschätzung zu treffen, egal ob das Retinaabbild sehr groß oder klein ist. [Schiffman 1967] führte einen Beweis für die Wichtigkeit der vertrauten Größe. Personen betrachteten Objekte bekannter Größe mit Vorhandensein oder Fehlen von Tiefenhinweisen aus unterschiedlichen Entfernungen. Ihre Abschätzungen waren auch dann exakt, wenn keine Tiefenhinweise verfügbar waren, weil sie ihr Wissen über vertraute Größen nutzten. Entsprechend der Größe-Entfernung-Invarianz-Hypothese erarbeiten sich Menschen eine Objektgröße, indem sie die Informationen des Retinaabbildes mit den Informationen über die wahrgenommene Entfernung vergleichen. [Holway, Boring 1941] unterstützten diese Theorie. Die Teilnehmer saßen an einem Schnittpunkt zweier Gänge. Der Testkreis wurde in dem einen Gang gezeigt, während der Vergleichskreis in dem anderen Gang präsentiert wurde. Der Testkreis konnte verschiedene Größen und Entfernungen annehmen. Die Aufgabe der Teilnehmer bestand in der Justierung des Vergleichskreises, sodass er die gleiche Größe und die gleiche Entfernung wie der Testkreis hatte. Die Leistungen der Teilnehmer waren sehr gut, solange Tiefenhinweise vorhanden waren. Jedoch nahmen die Leistungen stark ab, als die Tiefenhinweise entfernt wurden, indem im Gang Vorhänge platziert wurden und die Teilnehmer durch ein Guckloch hindurchschauen mussten. Wenn Größeneinschätzungen von der wahrgenommenen Entfernung abhängen, dann liegt keine Größenkonstanz vor, falls die wahrgenommene Entfernung eines Objektes sehr von seiner realen Entfernung abweicht. Der Ames-Raum bietet ein gutes Beispiel. Er hat eine eigenartige Form: der Boden hat ein Gefälle und die hintere Wand ist nicht rechtwinklig zu den angrenzenden Wänden. Trotzdem erzeugt der Ames-Raum das gleiche Abbild auf der Retina wie ein normaler rechteckiger Raum, wenn in ihn durch ein Guckloch geschaut wird. Die Tatsache, dass ein Ende der hinteren Wand vom Betrachter weiter weg ist, wird dadurch verschleiert, dass der Raum zu dieser Stelle hin höher gebaut ist. Die Hinweise, die den Betrachter vermuten lassen, dass die Rückwand rechtwinklig zu ihm ist, sind so stark, dass jemand zu wachsen oder zu schrumpfen scheint, sobald er sich entlang der Wand vorwärts oder rückwärts bewegt. Kapitel 3 - Verwandte Arbeiten 35 Abbildung 23 Der Ames-Raum: Zeichnungen der realen Dimensionen und Winkel, die im Ames-Raum verwendet wurden. Die rote Linie verdeutlicht die hintere untere Kante des Raumes. Die Abbildung unten rechts zeigt den AmesRaum, wahrgenommen durch das Guckloch. Läuft eine Person entlang der Rückwand von links nach rechts, scheint sie auf merkwürdige Weise zu wachsen. 3.3.3.2 Farbkonstanz Farbkonstanz ist die Eigenschaft eines Objektes in ein und derselben Farbe zu erscheinen, egal welches Licht von ihm reflektiert wird. Zum Beispiel ist das von einem Objekt reflektierte Licht häufig etwas gelblicher, solange es mit künstlichem Licht bestrahlt wird, gegenüber einer Beleuchtung mit gewöhnlichem Tageslicht. Jedoch hat diese Tatsache nach [Sekuler, Blake 1994] nur einen geringen Einfluss auf die wahrgenommene Objektfarbe. Warum zeigen Menschen Farbkonstanz? Ein Grund ist, dass sie über Jahre hinweg gelernt haben, dass die meisten Objekte dazu neigen eine ganz bestimmte Farbe zu besitzen. Zum Beispiel wissen deutsche Personen, dass Briefkästen gelb sind, und somit sehen sie für den Betrachter auch in der Nacht unter geringeren Beleuchtungsverhältnissen noch gelb aus. [Land 1977] argumentierte in seiner Retinex-Theorie, dass Menschen die Oberflächenfarbe exakt wahrnehmen, wenn sie das reflektierte Licht von der Oberfläche gegenüber dem Licht benachbarter Oberflächen vergleichen. Den Beweis seiner Theorie erzielte er mit Hilfe zweier optischer Anzeigen. Die Beleuchtung wurde so inszeniert, dass zwei Rechtecke mit unterschiedlichen Farben Licht derselben Wellenlänge reflektierten. Dennoch erschienen die zwei Rechtecke unterschiedlich und ihre wirklichen Farben wurden wahrgenommen. Aus der Theorie von Land folgt, dass Farbkonstanz nicht vorliegen würde, wenn keine Informationen über das reflektierte Licht angrenzender Flächen vorhanden sind. Als auf den Bildschirmen alles andere außer den beiden Rechtecken ausgeblendet wurde, schienen sie dieselbe Farbe zu haben. Farbkonstanz ist deutlich vorhanden, wenn Objekte in natürlichem Sonnenlicht betrachtet werden. Sie geht verloren, wenn auf Objekte unter künstlichem Licht mit begrenztem Wellenlängenbereich geschaut wird. Wie [Sekuler, Blake 1994] darlegten, nutzen einige Supermärkte diese Tatsache bei der Beleuchtung ihrer Fleischwaren aus, sodass das Fleisch röter aussieht, als es der Fall ist. Kapitel 3 - Verwandte Arbeiten 36 3.3.4 Mustererkennung Mustererkennung bedeutet hier das Identifizieren zweidimensionaler Muster und dreidimensionaler Objekte trotz Variationen in der Größe und Ausrichtung. Sie ist sehr wichtig, weil es dem Menschen dadurch möglich ist, Objekte in seiner Umwelt sinnvoll einzuordnen. Der Fokus einiger Studien über zweidimensionale Stimuli lag auf dem Erkennen alphanumerischer Muster (alphabetische oder numerische Zeichen). Ein Schlüsselpunkt ist das flexible menschliche Wahrnehmungssystem. Zum Beispiel kann man den Buchstaben „A“ sehr schnell und exakt wahrnehmen, obwohl er stark in der Ausrichtung, der Schriftart und im Schreibstil variiert. Wie ist das möglich? Verfechter von Schablonen-Theorien, Abstraktions-Theorien und Theorien struktureller Beschreibung brachten verschiedene Antworten auf diese Frage hervor. Jedoch stimmen sie überein, dass die Mustererkennung Informationen zur Übereinstimmung von optischen Reizen und Informationen aus dem Gehirn einbezieht. Abbildung 24 Mustererkennung: Der Buchstabe „A“ wird auch in großer Variation der Lage und Schriftart richtig erkannt. 3.3.4.1 Schablonen-Theorien Nach [Eysenck 2000] ist der Schlüsselgedanke für Schablonen-Theorien, dass eine Minikopie oder eine Schablone entsprechend allen bekannten Mustern im Langzeitgedächtnis gespeichert ist. Ein Muster wird auf der Basis wahrgenommen, bei welcher es am Besten zum optischen Eingangsreiz passt. Diese Art der Theorie ist sehr einfach. Jedoch ist sie in Bezug auf die enormen Variationen optischer Reize, die angeblich zur gleichen Schablone passen, unrealistisch. Vielleicht durchlebt der Sehreiz einen Normalisierungsprozess, der eine interne Repräsentation mit Standardposition, Standardgröße und so weiter produziert. Nach diesem Normalisierungsprozess beginnt die Suche nach einer passenden Schablone. Eine Normalisierung mag bei der Mustererkennung von Buchstaben und Zahlen helfen, aber es würde manchmal etwas passend zur falschen Schablone interpretiert werden. Wahrscheinlich gibt es mehr als eine Schablone für jeden Buchstaben und jede Ziffer. Das würde eine genauere Übereinstimmung von Reiz und Schablone über einen großen Bereich an Reizen ermöglichen. Jedoch würde dieser Erfolg auf Kosten einer handlichen Theorie erzielt werden. Schablonen-Theorien sind schlecht geeignet, wenn es um das Betrachten der Adaptivität geht, die von Menschen beim Erkennen von Mustern gezeigt wird. Einschränkungen der Schablonen-Theorien werden deutlich, wenn sich der Reiz auf schlecht definierte Kategorien, wie zum Beispiel Gebäude, bezieht. In diesem Fall kann eine einzelne Schablone nicht genug sein. Kapitel 3 - Verwandte Arbeiten 37 Abbildung 25 Schablone für die Kategorie „Gebäude“: Es ist leicht zu sehen, wie anpassungsfähig der Mensch sein muss, um verschiedene Beispiele derselben Gruppe zu erkennen. Abgebildet sind die Frauenkirche und die Volkswagen-Manufaktur in Dresden. Das dritte Gebäude steht in Austin, der Hauptstadt von Texas in den USA und erscheint in der amerikanischen Fernsehwerbung „Raising Bars“ für ein Mobilfunknetz. 3.3.4.2 Abstraktions-Theorien [Eysenck 2000] behauptet, dass nach der Meinung der Abstraktions-Theoretiker ein Muster aus einem Set aus Abstrakten oder Attributen besteht. Zum Beispiel könnte gesagt werden, ein Gesicht besteht aus einer Nase, zwei Augen, einem Mund, einem Kinn und so weiter. Es wird davon ausgegangen, dass der Prozess der Mustererkennung beim Erkennen der einzelnen Attribute vom Sehreiz ausgeht. Dieses Set an Attributen wird anschließend kombiniert und mit Informationen aus dem Langzeitgedächtnis abgeglichen. Im Falle des Buchstaben „A“ argumentieren die Abstraktions-Theoretiker, dass die entscheidenden Attribute zwei aufrechte Linien und eine verbindende Querlinie sind. Diese Art des Ansatzes hat den Vorteil, dass optische Reize, die in Größe, Lage und kleineren Details variieren, weiterhin als Instanzen desselben Musters identifizierbar bleiben. 1. Abstraktions-Analyse Abstraktions-Theorien wurden in Studien zur visuellen Suche getestet, bei welchen ein Zielbuchstabe in kürzester Zeit in einem Buchstabentextblock gefunden werden soll. [Neisser 1964] verglich die Zeiten, die zur Suche des Buchstaben „Z“ benötigt wurden. Im ersten Fall bestanden die benachbarten Buchstaben aus geraden Linien (wie zum Beispiel bei „W“ oder „V“), wobei der zweite Block aus Buchstaben mit runden Merkmalen (wie zum Beispiel bei „O“ oder „G“) bestand. Die Leistung war unter der zweiten Bedingung vermutlich besser, weil die benachbarten Buchstaben weniger Gemeinsamkeiten mit dem Zielbuchstaben „Z“ hatten. IMVXEW WVMEIX VXWIEM MIEWVX IWVXEM IXEZVW VWEMXI MIVEWX WXEIMV ODUGQB GBODUQ DUBOQG BGOUDQ UGQDBO GUQZOB ODGBUQ DBUQGO UQGOBD Abbildung 26 Neisser nutzte diese Reize, um die Zeit zu messen, die man zur Suche des Buchstabens „Z“ benötigt. Er fand heraus, dass man weniger Zeit braucht, ihn im Block mit den runden Buchstaben zu finden, als in den Buchstaben mit geraden Linien. Kapitel 3 - Verwandte Arbeiten 38 2. Kontext und Erwartungen Abstraktions-Theorien ignorieren die Effekte von Kontext und von Erwartungen. [Weisstein, Harris 1974] forderten ihre Teilnehmer auf, eine Linie aufzuspüren, die entweder kurz in dreidimensionaler Form eingeblendet oder in einer weniger kohärenten Form eingebaut war. Nach den Abstraktions-Theoretikern sollte die Ziellinie immer die gleichen Abstraktions-Detektoren aktivieren. Damit hätte Kohärenz der Form, in welcher die Linie vorkommt, keinen Einfluss auf das Aufspüren. Tatsächlich gelang das Auffinden der Linie am besten, wenn die Ziellinie Teil des Dreidimensionalen war. Weisstein und Harris nannten dies den Objekt-Überlegenheits-Effekt. Dieser Effekt ist inkonsistent zu vielen Abstraktions-Theorien. Mustererkennung hängt nicht ausschließlich davon ab, auf die erkannten Abstrakte aus den Reizen zu achten. Zum Beispiel besteht der Buchstabe „A“ aus zwei schrägen Strichen und einem horizontalen Strich. Jedoch können diese Teile auch so vorliegen, dass sie nicht als ein „A“ wahrgenommen werden: \ / - . Also muss man die Beziehungen zwischen den abstrakten Teilen betrachten. 3. Einschränkungen Die Einschränkungen der Abstraktions-Theorien werden bei dreidimensionalen Reizen deutlicher. Zuschauer können für gewöhnlich dreidimensionale Objekte sogar dann wahrnehmen, wenn ein oder mehrere der Haupt-Abstrakte von der Sicht verborgen sind. Das ist schwer zu beschreiben, solange Abstrakte entscheidend für die Wahrnehmung sind. 3.3.4.3 Strukturelle Beschreibungen Auf strukturellen Beschreibungen basierende Theorien sind angemessener als Schablonenund Abstraktions-Theorien. Strukturelle Beschreibungen bestehen aus Theoremen, welche die kleinsten Einheiten sind, denen eine Bedeutung zugeordnet werden kann. Nach [Bruce, Green 1990, Seite 186]: Such propositions describe the nature of the components of a configuration and make explicit the structural arrangements of these parts. Im Deutschen: Solche Theoreme beschreiben die Natur der Komponenten und deren Zusammensetzung und verdeutlichen die strukturelle Anordnung dieser Teile. Zum Beispiel könnte die strukturelle Beschreibung des Großbuchstabens „T“ folgendes enthalten: Es gibt zwei Teile; ein Teil ist eine horizontale Linie; ein Teil besteht aus einer vertikalen Linie; die vertikale Linie trägt die horizontale Linie; die vertikale Linie halbiert die horizontale Linie. Strukturale Beschreibungen sind vollständiger als die einer Abstraktions-Analyse. Strukturelle Beschreibungen fokussieren auf Schlüsselaspekte der Reize und ignorieren andere. Zum Beispiel beinhaltet die strukturelle Beschreibung des Buchstabens „T“ keine Aussagen über die Längen der horizontalen und vertikalen Linien. Deshalb wird der Buchstabe T wahrgenommen, auch wenn er in der Länge der beiden Linien stark variiert. Kapitel 3 - Verwandte Arbeiten 39 Einschränkungen Zusammenfassend ist der auf strukturellen Beschreibungen basierende Ansatz besser als der auf Schablonen oder Abstraktionen basierende. Jedoch wird nicht deutlich, wie die vom Sehreiz gebildete strukturelle Beschreibung mit den relevanten, gespeicherten strukturellen Beschreibungen in Übereinstimmung gebracht wird. Außerdem leiden die strukturellen Beschreibungen an der Einschränkung, dass kontextabhängige Informationen nicht beachtet werden. 3.3.5 Wahrnehmungstheorien Die visuelle Wahrnehmung hängt von zwei Prozessmodellen ab. Erstens gibt es den Bottom-Up-Prozess, der direkt von externen Reizen abhängt. Zweitens gibt es den Top-Down-Prozess, welcher von individuellem Wissen und Erwartungen beeinflusst wird. Der Bottom-Up-Prozess muss bei visueller Wahrnehmung beteiligt sein, aber es ist weniger deutlich, dass das auch für den Top-DownProzess zutrifft. Eine einfache Darstellung der Rolle des Top-DownProzesses wird in der dreieckigen Figur rechts gezeigt. Der Leser betrachte das Abbild nun, bevor er weiter liest. Insofern er mit dieser Täuschung nicht vertraut ist, liest er im Dreieck die Nachricht „Von vorn bis hinten“. Bei genauerer Betrachtung wird er feststellen, dass sich das Wort „bis“ wiederholt. Die Erwartung, dass es eine wohl bekannte Phrase ist (das heißt Top-DownVerarbeitung), überschreibt die Informationen, die durch den Reiz zur Verfügung gestellt werden (das heißt Bottom-Up-Verarbeitung). Abbildung 27 Die durch den TopDown-Prozess erkannte Phrase überschreibt die Informationen, die durch den Bottom-UpProzess wahrgenommen werden. Buchstaben gerader Linien zu finden. Wahrnehmung bezieht häufig einen Mix beider Prozesse ein, Bottom-Up sowie Top-Down. Eine wirklich deutliche Demonstration dafür kommt aus einer Studie von [Bruner, Postman, Rodrigues 1951], in welcher den Teilnehmern gesagt wurde, dass sie gewöhnliche Spielkarten sehr kurz gezeigt bekommen. Als schwarze Herzen präsentiert wurden, behaupteten einige von ihnen violette oder braune Herzen gesehen zu haben. Aufgrund der Erwartung, dass Herzen rot sein werden, handelt es sich hierbei um eine beinahe wörtliche Blendung der schwarzen Farbe, basierend auf dem Bottom-Up-Prozess, und der roten Farbe, basierend auf dem Top-Down-Prozess. Einige Theoretiker haben die Wichtigkeit entweder der Bottom-Up- oder der Top-DownVerarbeitung für die visuelle Wahrnehmung hervorgehoben. Zum Beispiel fokussierte [Gibson 1979] auf Bottom-Up-Prozesse. Nach seiner Theorie zur direkten Wahrnehmung ermöglicht die von der visuellen Umgebung zur Verfügung gestellte Information dem Individuum, sich frei zu bewegen und direkt mit dieser Umgebung zu interagieren, ohne dass daran interne Prozesse beteiligt sind. Im Gegenzug spezialisierten sich [Neisser 1967] und [Gregory 1980] auf Top-Down-Prozesse. Nach ihren konstruktivistischen Theorien ist Wahrnehmung ein aktiver und konstruktiver Prozess, welcher stark von Hypothesen und Erwartungen beeinflusst wird. Diese Theorien werden im Folgenden näher betrachtet. Kapitel 3 - Verwandte Arbeiten 40 3.3.5.1 Gibson‘s Theorie der direkten Wahrnehmung Gibson‘s Theorie der direkten Wahrnehmung beinhaltet Aussagen zum optischen Fluss und zum optischen Feld Weiterhin nimmt er Bezug auf Wahrnehmung und Handlung, Invarianten sowie zur Resonanz. 1. Optischer Fluss Gibson‘s Interesse an visueller Wahrnehmung begann während des zweiten Weltkrieges. Ihm wurde die Aufgabe gestellt, Trainingsvideos zu erstellen, die Erfahrungen der Piloten beim Landevorgang enthalten. [Gibson 1950] hatte herausgefunden, dass es Muster im optischen Fluss gibt: Der Punkt, zu dem sich der Pilot bewegt (Pol genannt, später Fixpunkt), ist bewegungslos. Der Rest der visuellen Umgebung scheint sich offensichtlich von diesem Punkt wegzubewegen. Je weiter irgendein Teil der Landebahn vom Pol entfernt ist, desto Abbildung 28 größer ist die Geschwindigkeit der offenPiloten trainieren heutzutage an Computersimusichtlichen Bewegung. Nach Gibson liefern latoren und lernen, wie sie Informationen über diese Sinnesinformationen den Piloten den optischen Fluss, über Geschwindigkeit, Höhe Muster optischer Flüsse, eindeutige Hinund Richtung interpretieren, um ein Verständnis weise über Richtung, Geschwindigkeit und zu bekommen, wie das Flugzeug in verschiedenen Höhe. Gibson war so sehr vom Reichtum an Situationen reagieren wird. Sinnesinformationen bei Piloten aus Mustern optischer Flüsse beeindruckt, dass er sich selbst einer Analyse verfügbarer Informationen in anderen Situationen hingab. Er argumentierte, dass Texturgradienten nützliche Hinweise zur Tiefe geben: Objekte, die schräg von einem weg verlaufen, haben einen erhöhten Texturdichtegradienten (Veränderungsrate), wenn man von der näheren zur entfernteren Ecke blickt. 2. Optisches Feld [Gibson 1979] trieb eine allgemeine Theorie zur visuellen Wahrnehmung voran. Sein Ausgangspunkt war der Gedanke, dass das Auge erreichende Lichtmuster als ein optisches Feld gedacht werden kann, das allen verfügbaren visuellen Informationen auf der Retina enthält. Dieses optische Feld bietet eindeutige Hinweise über die Anordnung der Objekte im Raum. Die Hinweise treten in vielen Formen, inklusive Muster optischer Flüsse und Texturgradienten, in Erscheinung. Die Wahrnehmung schließt das „Aufsammeln“ der vom optischen Feld zur Verfügung gestellten Informationen ein, wobei auch eine geringe Informationsverarbeitung beteiligt sein kann. Kapitel 3 - Verwandte Arbeiten 41 3. Wahrnehmung und Handlung Von besonderer Bedeutung in Gibson‘s Theorie war die Annahme, dass es eine enge Beziehung zwischen Wahrnehmung und Handlung gibt. Ein Beobachter bekommt wertvolle Informationen über die Umgebung, indem er sich umherbewegt. Zum Beispiel existieren Muster optischer Flüsse nur dann, wenn das Individuum in Bewegung ist. Vorherige Forscher visueller Wahrnehmung hatten die Wichtigkeit der Bewegung minimiert, zum Teil aufgrund künstlicher Laborstudien. Zum Beispiel wurden oft die Augenbewegungen relativ zur visuellen Anzeige verhindert, indem Kinnstützen oder andere Klemmvorrichtungen zur Verwendung kamen. 4. Invarianten Gibson vertrat die Auffassung, dass wichtige Aspekte des optischen Feldes die gleichen bleiben, wenn Beobachter ihre Umgebung umherbewegen; diese sind als Invarianten bekannt. Der Pol (der Punkt, zu dem sich jemand bewegt) ist ein Beispiel für eine Invariante. Ein anderes Beispiel ist die Horizont-Verhältnis-Relation: Das Verhältnis einer Objekthöhe zur Strecke zwischen Boden und dem Horizont ist unabhängig von der Entfernung zum Beobachter invariant. Nach Gibson unterstützt die Invarianz den Erhalt der Größenkonstanz. 5. Resonanz Wie erfassen Menschen die invarianten Informationen, die vom optischen Feld geliefert werden? Nach Gibson gibt es einen Resonanzprozess, welcher analog zur Funktionsweise eines Radios funktioniert. In den meisten Haushalten der gesamten westlichen Welt sind fast ununterbrochen elektromagnetische Wellen von verschiedenen Radiosendern messbar. Wenn ein Radio eingeschaltet wird, könnte möglicherweise nur ein Rauschen zu hören sein. Sprache oder Musik können jedoch deutlich gehört werden, wenn es gut eingestellt ist. In Gibson‘s Zusammenhang geht das Radio mit den elektromagnetischen Wellen in Resonanz, wodurch die vorhandenen Informationen (die Sender) empfangen werden. Die Analogie legt nahe, dass Informationen aus der Umgebung nahezu automatisch und ohne Mühe aufgenommen werden können, wenn Personen auf diese Informationen eingestellt sind. Das Radio funktioniert als einzelne Einheit in dem Sinn, dass es nicht mehr funktionieren würde, sobald einer der Schaltkreise Schaden nimmt. In ähnlicher Weise, so behauptet Gibson, funktioniert auch das Nervensystem während des Empfangs als einzige Einheit. 6. Auswertung Wahrnehmung und Handlung: Die Hauptstärke von Gibson‘s Theorie liegt in ihrer Betonung auf dem Gedanken, dass die visuelle Umgebung sehr viel mehr Informationen bereitstellt, als vorher jemals geglaubt wurde. Gibson lag richtig in der Annahme, dass die ständig auftretenden Veränderungen im sich bewegenden optischen Feld nützliche Informationen über die Gestaltung der visuellen Umgebung lieferern. Die meisten vorherigen Theoretiker unterschätzten die Wichtigkeit der Bewegung und brachten Studien heraus, bei denen sowohl die visuelle Umgebung als auch der Teilnehmer bewegungslos blieben. Kapitel 3 - Verwandte Arbeiten 42 Genauigkeit der Wahrnehmung: Gibson behauptete, dass Wahrnehmung fast immer exakt ist, weil eine durch das optische Feld gelieferte Informationsvielfalt vorhanden ist. Was ist mit Laborstudien, in denen gezeigt wird, dass die visuelle Wahrnehmung sehr ungenau sein kann? Nach Gibson sind in solchen Studien (zum Beispiel in optischen Täuschungen) typischerweise entweder nur kurze Anregungsdarstellungen oder unterentwickelte Reize involviert, und sie finden somit wenig Relevanz in der alltäglichen Wahrnehmung. Er argumentierte zurecht, dass es nur wenig Sinn ergibt, die Forschungsergebnisse aus künstlichen Laborsituationen auf die alltägliche Wahrnehmung anzuwenden. Zu starke Vereinfachung: Im negativen Sinne sind Prozesse, die am Identifizieren der Invarianten in der Umgebung und am Erzeugen von Resonanz beteiligt sind, wesentlich komplexer, als es Gibson andeutete. Nach [Marr 1982, Seite 30] resultieren die meisten Defizite aus Gibson‘s Analyse from a failure to realise two things. First, the detection of physical invariants ... is exactly and precisely an information-prozessing problem ... And second, he vastly under-rated the sheer difficulty of such detection. Im Deutschen: aus einem Fehler, zwei Dinge zu erkennen. Erstens ist gerade das Aufspüren von Invarianten genau ... ein informationsverarbeitendes Problem ... Und zweitens unterschätzte er sehr stark die Schwierigkeit dieses Aufspürens. „Sehen als“: Gibson‘s theoretischer Ansatz ist auf einige andere Aspekte visueller Wahrnehmung viel besser anzuwenden. Das Schlüsselproblem kann über die Unterschiede der Begriffe „sehen“ und „sehen als“ angegangen werden. [Fodor, Pylyshyn 1981] stellten diesen Unterschied klar, indem sie einen Seemann namens Smith, der sich auf hoher See verfahren hatte, betrachteten. Er hatte die Sterne, inklusive den Polarstern, am Nachthimmel gesehen. Jedoch war für sein Überleben möglicherweise ausschlaggebend, ob er den Polarstern auch wirklich als Polarstern erkannt hatte oder als irgendeinen anderen Stern. Mit anderen Worten, „sehen als“ beinhaltet das Verbinden einer Bedeutung mit dem Gesehenen. Gibson bot eine wertvolle Darstellung des „Sehens“, aber hatte wenig Interesse etwas über „sehen als“ zu sagen. Die Rolle des Gedächtnisses: Eine letzte Schwäche Gibson‘s Ansatzes war seine Auffassung, dass keine internen Repräsentationen (zum Beispiel Gedanken oder Erfahrungen) gebraucht werden, um Wahrnehmung zu erläutern. [Bruce, Green, Georgeson 1996] verwiesen auf die Arbeit von [Menzel 1978], um die von Gibsons Standpunkt ausgehenden Probleme zu zeigen. Schimpansen wurden um ein Feld getragen, und es wurden ihnen 20 Stellen mit Nahrung gezeigt. Als jeder Schimpanse freigelassen wurde, bewegten sie sich sehr effizient umher und sammelten das Futter ein. Da keine relevanten Informationen im Licht, was ihre Augen erreichte, stecken konnten (weil sie sich nun eher unabhängig voneinander bewegten, als herumgetragen zu werden), mussten sie nun von gespeicherten Informationen aus ihrem Langzeitgedächtnis Gebrauch machen, um ihre Suche zu lenken. Dieser Sachverhalt ist gegensätzlich zu den Annahmen von Gibson. Kapitel 3 - Verwandte Arbeiten 43 3.3.5.2 Konstruktivistische Theorie [Helmholtz 1903] argumentierte, dass die unzureichenden Informationen von den Sinnen um unbewusste Folgerungen angereichert werden, welche den Sinneseindrücken Bedeutung hinzufügen. Er nahm an, dass diese Folgerungen unbewusst waren, weil man für gewöhnlich nicht bemerkt, dass man Schlussfolgerungen während der Wahrnehmung zieht. Der helmholtzsche konstruktivistische Ansatz zur Wahrnehmung wurde von Theoretikern wie [Gregory 1980] und [Neisser 1967] weiterentwickelt. Abbildung 29 Die Studie von [Carmichael, Hogan, Walters 1932] bezieht zwei Gruppen von Teilnehmern ein, denen die mittleren Skizzen gezeigt wurden. Gruppe eins erhielt die Beschreibungen der linken Seite, Gruppe zwei die der rechten Seite; zum Beispiel erfuhr Gruppe eins, dass ein Objekt ein Gewehr sei und Gruppe zwei, es sei ein Besen. Später sollten die Teilnehmer die Skizzen aus ihrem Gedächtnis reproduzieren. Die Skizzen glichen den Beschreibungen, aber nicht den Originalskizzen. Damit wurde gezeigt, dass Wahrnehmung nicht nur von Reizen beeinflusst wird, sondern auch von Wissen und Erwartungen. Die folgenden Annahmen wurden von vielen konstruktivistischen Theoretikern getroffen: - Wahrnehmung ist ein aktiver und konstruktiver Prozess; nach [Gordon 1989, Seite 124] ist sie „something more than the direct registration of sensations ... other events intervene between stimulation and experience.“ Im Deutschen: „etwas mehr als das unmittelbare Registrieren von Empfindungen ... andere Ereignisse liegen zwischen Anregung und Erfahrung.“ - Wahrnehmung ist nicht direkt durch die Energiezufuhr der Reize gegeben, vielmehr sind interne Hypothesen, Erwartungen und Wissen genauso wie anregende und emotionale Faktoren beteiligt; sensorische Informationen werden als eine Grundlage verwendet, um kenntnisreiche Abschätzungen oder Folgerungen über den empfangenen Reiz und seine Bedeutung zu treffen. - Weil Wahrnehmung zeitweise auch von fehlerhaften Hypothesen und Erwartungen beeinflusst wird, ist die Wahrnehmung fehleranfällig. Kapitel 3 - Verwandte Arbeiten 44 Das Besondere dieses theoretischen Ansatzes wurde von [Gregory 1972] erfasst. Er behauptete, dass Wahrnehmungen Konstruktionen aus bruchstückhaften Datenresten sind, welche von den Nerven signalisiert und von den Speicherzellen im Gehirn gezeichnet werden. Diese sind wiederum selber aus Schnipseln der Vergangenheit zusammengesetzt. Daher wird die von den Sinnesorganen kommende, unzureichende Information verwendet, um eine Grundlage zum Erzeugen von Rückschlüssen oder zum Formen von Hypothesen über die visuelle Umgebung zu schaffen. [Ittelson 1952] bot basierend auf dem in Abschnitt 3.3.3 vorgestellten gestörten AmesRaum eine Darstellung an, wie Erwartungen die Wahrnehmung beeinflussen können. Dieser Raum hat eine äußerst seltsame Form, aber die menschliche Wahrnehmung ist stark durch die Erwartung beeinflusst, dass Räume rechtwinklig sind. Als Ergebnis erscheint jemand in der hinteren rechten Ecke sehr viel größer als jemand, der in der hinteren linken Ecke steht. Konstruktivistische Theoretiker argumentieren, dass Erwartungen und Hypothesen der Probanden von anregenden und emotionalen Faktoren beeinflussbar sind. Ein unterstützender Beweis wurde von [Schafer, Murphy 1943] angetreten. Sie benutzen Bilder, in welchen eine ungleichmäßige Linie vertikal durch einen Kreis gezeichnet wurde, so dass jede Kreishälfte als Profil eines unterschiedlichen Gesichts gesehen werden konnte. Zu Beginn dieser Studie wurde jedes Gesicht einzeln gezeigt. Ein Gesicht jedes Paares wurde Geld gewinnend assoziiert, wogegen das andere Gesicht Geld verlierend beigeordnet wurde. Als die fertigen Bilder den Teilnehmern dann nur sehr kurz gezeigt wurden, meldeten die Teilnehmer eher das vorherige, „belohnte“ Gesicht gesehen zu haben, als das „bestrafte“. Es geht aus dieser Studie nicht hervor, ob Belohnung die Wahrnehmungserfahrung beeinflusst, oder ob sie nur die Antworten der Teilnehmer beeinflusst. [Gregory 1970] verwendete den konstruktivistischen Ansatz, um viele der bekannten visuellen Illusionen zu erläutern. Er begann mit der Größenkonstanz, bei welcher ein Objekt mit derselben Größe wahrgenommen wird, egal ob es aus der Nähe oder aus der Ferne betrachtet wird. Nach seiner Falsch-Angewendeten-Größenkonstanz-Theorie (englisch: misapplied size-constancy theory) sind Prozesse, die Größenkonstanz bei dreidimensionalen Objekten hervorrufen, manchmal bei der Wahrnehmung zweidimensionaler Objekte unpassend angewendet. Die Kerngedanken können begriffen werden, wenn die hier abgebildete Ponzo-Illusion betrachtet wird. Die langen Linien in der Abbildung sehen wie Eisenbahnschienen aus, die in der Ferne verschwinden. Die obere horizontale Linie kann so gesehen werden, dass sie weiter entfernt ist als die untere. Obwohl die Rechtecke A und B auf dem Abbild der Retina die gleiche Größe haben, muss das entferntere Rechteck (A) in Wirklichkeit größer sein als das nähere Rechteck (B). Abbildung 30 Die Ponzo-Illusion: Obwohl beide Rechtecke die gleiche Größe besitzen, scheint Rechteck A größer zu sein als B. Die Falsch-Angewendete-Größenkonstanz-Theorie kann ebenso an der bestens bekannten Muller-Lyer-Illusion erklärt werden. Die vertikalen Linien in den beiden Gebilden haben die gleiche Länge. Jedoch scheint die vertikale Linie im linken Gebilde länger zu sein als beim rechten Gebilde. Nach Gregory kann die Muller-Lyer-Illusion als eine einfache perspektivische Zeichnung dreidimensionaler Objekte gedacht werden. Die linke Figur sieht wie die Innenkante eines Raumes aus, wogegen die rechte Figur der Außenkante eines Raumes Kapitel 3 - Verwandte Arbeiten 45 oder eines Gebäudes ähnelt. Daher erscheint die vertikale Linie in irgendeiner Weise weiter weg vom Betrachter zu sein, als sie es ist. Die vertikale Linie der rechten Figur scheint näher zum Betrachter zu sein. Obwohl die Größe des Abbildes auf der Retina für beide vertikalen Linien die Gleiche ist, sagt das Prinzip der Größenkonstanz, dass die Linie, die weiter weg ist (das heißt die Linie in der linken Figur), länger sein muss. Das genau ist die Muller-Lyer-Illusion. Gregory argumentierte, dass Figuren wie die Ponzo-Illusion und die Muller-Lyer-llusion in vielerlei Hinsicht als dreidimensionale Objekte behandelt werden. Warum erscheinen sie dann flach und zweiAbbildung 31 dimensional? Nach Gregory werden Tiefenhinweise automatisch Die Muller-Lyer-Illusion verwendet, egal ob die Figuren flach auf einer Oberfläche liegend gesehen werden oder nicht. Diese Betrachtungsweise unterstützt die Tatsache, dass die zweidimensionalen Muller-Lyer-Figuren wirklich dreidimensional erscheinen, wenn sie als leuchtende Modelle in einem dunklen Raum gezeigt werden. Nach Gregory ist das nur dann so, wenn diese (und andere) Figuren auf einer flachen Oberfläche gezeigt werden, sodass man sie nicht als dreidimensional wahrnimmt. Es könnte vermutet werden, dass die Tiefenhinweise zweidimensionaler Skizzen weniger effektiv sind als auf Fotos. [Leibowitz und Andere 1969] erbrachten einen unterstützenden Beweis. Sie studierten die Ponzo-Illusion und fanden heraus, dass das Ausmaß der Illusion bei einem Foto bedeutend größer war als bei einer Skizze. Auswertung Nach [Eysenck 2000] ist Gregory’s Falsch-Angewendete-Größenkonstanz-Theorie genial und wurde als die geeigneteste Theorie visueller Illusionen betrachtet. Jedoch ist Gregory’s Behauptung falsch, dass leuchtende Muller-Lyer-Figuren von jedermann als dreidimensional gesehen werden. Es ist rätselhaft, dass die Muller-LyerIllusion immer noch erkannt wird, auch wenn die Enden der beiden Figuren durch andere Teile ersetzt werden, wie zum Beispiel Kreise oder Quadrate. Diese Beweise wurden von [Matlin, Foley 1997] unterstützend für die falsche Vergleichstheorie aufgegriffen, bei welcher die Wahrnehmung visueller Illusionen von Teilen einer Figur beeinflusst wird, die nicht bewertet werden. So erscheinen zum Beispiel die vertikalen Linien in der Muller-Lyer-Illusion länger oder kürzer als ihre tatsächliche Größe, einfach weil sie Teil eines großen oder eines kleinen Objektes sind. [Coren, Girgus 1972] brachten einen Beweis hervor, der die FalscheVergleich-Theorie unterstützt. Der Wert der Muller-Lyer-Illusion wird stark eingeschränkt, sobald die Enden eine zur vertikalen Linie unterschiedliche Farbe besitzen. Nach Eysenck ist es beim Schätzen vermutlich einfacher, die Enden zu ignorieren, um die relative Länge der zwei vertikalen Linien zu bestimmen. Abbildung 32 Varianten der MullerLyer-Illusion Abbildung 33 Zu welchem Buch ist der Buchrücken des mittleren Buches näher? Überprüfen sie es mit einem Lineal. Kapitel 3 - Verwandte Arbeiten 46 [DeLucia, Hochberg 1991] erbrachten den umfassendsten Beweis, dass Gregory’s Theorie unvollständig ist. Sie verwendeten eine dreidimensionale Anzeige, welche drei 61 Zentimeter hohe Pfeile auf einer Ebene zeigte. Obwohl es offensichtlich war, dass sich alle drei Pfeile in gleicher Entfernung zum Betrachter befinden, wurde der typische Muller-Lyer-Effekt erreicht. Man kann diesen Sachverhalt überprüfen, indem drei geöffnete Bücher in einer Linie so aufgestellt werden, dass das linke und das rechte Buch zur rechten Seite geöffnet sind und das Buch in der Mitte nach links geöffnet ist. Der Buchrücken des mittleren Buches sollte die gleiche Entfernung zu den Buchrücken der anderen beiden Bücher haben. 3.3.5.3 Allgemeine Auswertung Top-Down-Prozesse, basierend auf Erwartungen, Hypothesen und so weiter, können einen beachtlichen Einfluss auf die visuelle Wahrnehmung haben. Viele Theoretiker, wie zum Beispiel Gibson, haben die Wichtigkeit von Bottom-Up-Prozessen hervorgehoben und konstruktivistische Theoretiker demonstrieren, dass Top-Down-Prozesse nicht ignoriert werden sollten. Jedoch gibt es einige ernste Probleme mit dem konstruktivistischen Ansatz, und die drei Hauptprobleme werden hier erörtert. 1. Präzision Konstruktivistische Theoretiker sagen voraus, dass Wahrnehmung häufig fehlerhaft ist, obwohl sie typischerweise präzise ist. Werden immer Hypothesen und Erwartungen zum Interpretieren sensorischer Daten verwendet, wie kann es dann sein, dass diese Hypothesen und Erwartungen fast immer wahr sind? Die offensichtliche Antwort ist, dass die Umwelt wesentlich mehr Informationen bietet, als die „bruchstückhaften Datenteile“, wie sie die Konstruktivisten vermuten. 2. Künstliche Reize In vielen der von konstruktivistischen Theoretikern herausgebrachten Studien werden künstliche oder unnatürliche Reize verwendet. Wie [Gordon 1989, Seite 144] betonte, umfassen solche Studien the perception of patterns under conditions of brief exposure, drawings which could represent the corners of buildings, glowing objects in darkened corridors ... none of these existed in the African grasslands where human perceptual systems reached their present state of evolutionary development. Im Deutschen: die Wahrnehmung von schwach belichteten Mustern, Zeichnungen, die Ecken von Gebäuden repräsentieren können, glühende Objekte in dunklen Räumen ... Keine dieser Bedingungen existiert auf afrikanischem Weideland, wo menschliche Wahrnehmungsorgane ihren aktuellen Grad evolutionärer Entwicklung erreicht haben. Man betrachte zum Beispiel Studien, die sehr schnelle Präsentationen visueller Reize umfassen. Eine kurze Darstellung reduziert den Einfluss von Bottom-Up-Prozessen, und ermöglicht den Top-Down-Prozessen einen größeren Wirkungsbereich zum Agieren. Kapitel 3 - Verwandte Arbeiten 47 3. Hypothesen Konstruktivistische Theoretiker vermuten, dass die Hypothesen von Wahrnehmenden ihre „beste Schätzung“ angesichts vorhandener Informationen ist. Oft ist es jedoch schwer, Beobachter zum Verändern ihrer Hypothesen zu überzeugen. Zum Beispiel existiert [Gregory’s 1973] Hohle-Gesichts-Illusion. Bei dieser Täuschung wird eine hohle Gesichtsmaske von der Rückseite betrachtet. Die Teilnehmer vermelden, dass es ein normales Gesicht ist. Sogar, wenn sie von der Rückansicht wissen, bestätigen sie die Vorderansicht. Abbildung 34 Das Foto zeigt die Innenseite einer hohlen Gesichtsmaske. Sie ist schwer „von der Rückseite“ wahrnehmbar. Die Betrachter nehmen sie eher so wahr, als ob sie von der Vorderseite gezeigt wird. 3.3.5.4 Synthese: Neisser‘s Zyklentheorie [Neisser 1976] bot in seiner Zyklentheorie eine Synthese des direkten und des konstruktivistischen Ansatzes zur Wahrnehmung an. Er behauptete, dass es einen Wahrnehmungszyklus gibt, der Schemen, Wahrnehmungserforschung und die Umgebung der Reize umfasst. Abgeleitet aus vorherigen Erfahrungen enthalten Schemen Wissensansammlungen, welche die Wahrnehmungserforschung lenken. Dadurch werden relevante Reize aus der Umgebung eher wahrgenommen. Das Erforschen der Umwelt lässt den Wahrnehmenden oft einige verfügbare Informationen der Reize probieren. Wenn die aus der Umwelt erhaltenen Informationen von denen des Schemas abweichen, dann werden sie im Schema modifiziert. Der Wahrnehmungszyklus, wie er von Neisser beschrieben wird, beinhaltet Elemente des Bottom-Up- und des Top-Down-Prozesses. Der Bottom-Up-Prozess wird durch das Probieren verfügbarer Informationen aus der Umwelt gebildet, welche das aktuelle Schema modifizieren können. Der Top-Down-Prozess wird dadurch gebildet, dass Schemen den Lauf von an der Wahrnehmung beteiligten Informationsprozessen beeinflussen. 1. Schemen Der Kerngedanke in Neisser‘s Theorie ist ein Schema und organisiertes Wissen. Nach der Theorie sollten Schemen das Bedürfnis reduzieren, alle Aspekte einer visuellen Szene zu analysieren. Beweise dafür lieferten [Biedermann, Glass, Stacy 1973]. Die Teilnehmer waren in der Lage fast die Hälfte von allen Objekten in Fotografien einer vertrauten Umgebung zu nennen, nachdem sie die Fotos nur ein Zehntel einer Sekunde betrachteten, weil das relevante Schema leicht anzuwenden war. Als die Objekte dagegen im Foto in einer zufälligen Verteilung zu sehen waren, empfanden es die Teilnehmer wesentlich schwieriger, sich an die einzelnen Abbildung 35 Objekte zu erinnern. Der Wahrnehmungszyklus von [Neisser 1976]. Kapitel 3 - Verwandte Arbeiten 48 [Friedmann 1979] erbrachte einen guten Beweis, dass visuelle Wahrnehmung von Schemen beeinflusst wird. Den Teilnehmern wurden detaillierte Skizzen von Szenen (zum Beispiel eine Küche, ein Büro) präsentiert. Die Dauer des ersten Hinsehens war für unerwartete Objekte fast doppelt so lange wie für erwartete, woraus die Rolle von Schemen bei der Verarbeitung erwarteter Objekte ersichtlich wird. Die Wahrnehmung von Objekten, die in ein gewisses Schema passen, ist leichter als bei Objekten, die nicht in dieses Schema passen. 2. Auswertung Nach [Eysenck 2000] vereinigt [Neisser‘s 1976] Zyklentheorie einige der besten Eigenschaften des direkten und des konstruktivistischen Ansatzes zur Wahrnehmung. Diese umfasst oft Top-Down-Prozesse genauso wie Bottom-Up-Prozesse, und beide Prozesstypen sind in Neisser‘s Wahrnehmungszyklus integriert. Eine andere Stärke Neisser‘s Theorie ist ihr Schwerpunkt auf Schemen. Schemen-relevante Objekte werden allgemein sehr viel besser wahrgenommen und sind leichter merkbar als schemen-irrelevante Objekte. Neisser‘s Zyklentheorie ist sehr skizzenhaft und scheitert am Erklären jeglicher Prozesse, die an der Wahrnehmung beteiligt sind. Genauer betrachtet wird im Detail nicht erläutert, wie die relevanten Schemen die Wahrnehmungserforschung lenken, wie bei der erforschenden Wahrnehmung festgestellt wird, welche Reize oder Sinneseindrücke aus der Umwelt probiert werden müssen oder wie das Verarbeiten der Reize aus der Umwelt die relevanten Schemen ändert. Theorien wie diese von [Marr 1982] und [Biedermann 1987] zeigen, dass wesentlich komplexere und detailliertere Theorien benötigt werden, um die menschliche Wahrnehmung richtig zu verstehen. Abbildungen 36, 37 Das Biedermann-Experiment: Zeigen sie jemandem, der die Abbildungen noch nicht gesehen hat, die Szene auf der linken Seite sehr kurz. (Biedermann zeigte sie nur eine Zehntelsekunde.) Welche Gegenstände werden ihnen aufgezählt? Zeigen sie die Anordnung auf der rechten Seite einer anderen Person in gleicher Dauer. Wie viele Gegenstände kann ihnen diese Person nennen? Warum müssen sie die Bilder verschiedenen Personen zeigen? Wie könnte dadurch das Ergebnis beeinflusst werden? Kapitel 3 - Verwandte Arbeiten 49 3.3.6 Individual-, Sozial- und Kulturunterschiede in der Wahrnehmung Wenn visuelle Wahrnehmung, wie von konstruktivistischen Theoretikern behauptet, von Erfahrung und Erwartungen abhängt, dann wären individuelle, soziale und kulturelle Variationen in der Wahrnehmung zu erwarten. Diese drei Faktoren können die Wahrnehmung beeinflussen, speziell die Bedeutung oder Signifikanz, die von externen Reizen erlangt wird. Zum Beispiel nehmen vermutlich Menschen aus allen sozialen und kulturellen Herkünften die Bewegungen eines Fußballspielers während eines Fußballspiels gleichermaßen wahr. Jedoch erkennen nur die mit dem Spiel vertrauten Zuschauer die Bedeutung, wann ein Spieler in einer Abseitsposition steht, wie in Abbildung 38 der rote Spieler im Strafraum. Abbildung 38 Abseitsposition: Bei der Fußball Weltmeisterschaft 2006 spielte am 11. Juni um 21:00 Uhr Angola gegen Portugal in Köln. 3.3.6.1 Individuelle Variationen Zahlreiche Faktoren verursachen individuelle Variationen bei der Wahrnehmung, aber hier werden nur zwei betrachtet: Wirkungsfeldabhängigkeit und charakteristisches Angstgefühl. 1. Wirkungsfeldabhängigkeit Wirkungsfeldabhängigkeit ist ein Wahrnehmungstyp, bei dem die Wahrnehmung durch den Hintergrund oder durch andere kontextabhängige Faktoren gestört wird. [Witkin 1967] schrieb, dass es einen wichtigen Unterschied zwischen Wirkungsfeldabhängigkeit und Wirkungsfeldunabhängigkeit gibt, bei welcher die Wahrnehmung frei von Störungen durch Umweltfaktoren ist. Eine Möglichkeit, die Wirkungsfeldabhängigkeit festzustellen, wird durch das Verwenden des Geneigten-Raum-Tests erreicht, in welchem der Raum und der Stuhl, auf dem der Teilnehmer sitzt, in unterschiedliche Richtungen bewegt werden. Des Teilnehmers Aufgabe besteht darin, den Stuhl zurück in eine aufrechte Position zu stellen. Wirkungsfeldabhängige Menschen nehmen mehr Rücksicht auf den geneigten Raum als wirkungsfeldunabhängige. Damit wird ihre Wahrnehmung stärker durch externe Faktoren beeinflusst, wogegen wirkungsfeldunabhängige Menschen eher von internen Faktoren (wie zum Beispiel dem Gleichgewichtssinn) beeinflusst werden. Es gibt zwei Probleme bei diesem Ansatz. Erstens korrelieren nach [Eysenck 1977] für gewöhnlich unterschiedliche Messungen der Wirkungsfeldabhängigkeit nicht sehr stark miteinander. Zweitens gibt es Überlappungen zwischen Wirkungsfeldabhängigkeit und Intelligenz, wobei nach [Vernon 1972] wirkungsfeldunabhängige Menschen tendenziell intelligenter sind als wirkungsfeldabhängige. Daraus geht hervor, dass es häufig nicht klar ist, ob individuelle Wahrnehmungsunterschiede aus der Wirkungsfeldabhängigkeit oder der Intelligenz resultieren. Kapitel 3 - Verwandte Arbeiten 50 2. Charakteristisches Angstgefühl Einige Menschen nehmen die Welt in einem positiven oder optimistischen Sinn wahr, wogegen andere sie in einem negativen oder pessimistischen Sinn wahrnehmen. Zum Beispiel ist für einige ein Glas halb voll, wogegen für andere das Glas halb leer ist. Nach [Eysenck 1977] gibt es viele Beweise dafür, dass Individuen mit einem ausgeprägten charakteristischen Angstgefühl (eine Dimension der Persönlichkeit, die sich auf die Erfahrung mit Angst bezieht) die Dinge negativer sehen als Menschen, bei denen diese Eigenschaft kaum ausgeprägt ist. [Derakshan, Eysenck 1997] zeichneten Teilnehmer auf Video auf, während diese eine öffentliche Rede hielten. Danach betrachteten die Teilnehmer und unabhängige Richter die Videoaufzeichnungen und bewerteten das Angstverhalten. Die Personen mit einem ausgeprägtem Angstgefühl bewerteten ihr Verhalten als ängstlicher, als es für die Richter erschien, aber die Meinungen derer, bei denen das Angstgefühl kaum ausgeprägt war, unterschied sich nicht von den Meinungen der Richter. 3.3.6.2 Soziale Variationen [Bruner, Goodman 1947] studierten soziale Wahrnehmungsvariationen. Reiche und arme Kinder schätzten die Größen von Münzen. Die armen Kinder überschätzten die Größe jeder Münze. Das könnte den größeren Wert der Münzen für arme Kinder widerspiegeln. Eine einfachere Erklärung ist, dass reichen Kindern die Münzen vertrauter sind, was sie in ihrer Größenabschätzung genauer werden lässt. [Ashley, Harper, Runyon 1951] modifizierten die Studie in genialer Weise. Sie hypnotisierten erwachsene Teilnehmer, dass sie glaubten, sie wären reich oder arm. Die Münzgrößen wurden größer eingeschätzt, wenn sich die Teilnehmer im „arm“-Stadium befanden. Diese Erkenntnisse lassen vermuten, dass arme Teilnehmer die Größen der Münzen nicht überschätzen, weil es ihnen an Vertrautheit fehlt, und deutet damit die Wichtigkeit des sozialen Faktors bei der Wahrnehmung an. [Witkin und Andere 1962] fanden heraus, dass soziale Faktoren die Wahrnehmungstypen der Wirkungsfeldabhängigkeit und der Wirkungsfeldunabhängigkeit beeinflussen. Männer tendieren zur Wirkungsfeldunabhängigkeit, und damit war ihre visuelle Wahrnehmung relativ unbetroffen von ablenkenden Reizen. Dagegen neigen Frauen zur Wirkungsfeldabhängigkeit. Witkin und Andere berichteten auch, dass Kinder, die von tyrannischen Eltern erzogen wurden, zur Wirkungsfeldabhängigkeit neigen, wogegen Kinder liberalerer Eltern wirkungsfeldunabhängig waren. Wie bereits zuvor erwähnt, ist nach [Eysenck 1977] jedoch eine exakte Messung der Wirkungsfeldabhängigkeit schwierig. 3.3.6.3 Kulturelle Variationen [Witkin, Berry 1975] forschten auf dem Gebiet der Wirkungsfeldabhängigkeit weiter, um interkulturelle Variationen in der Wahrnehmung mit einzuschließen. Sie unterschieden zwischen zwei Kulturen oder sozialen Gruppen. 1. Jäger und Sammler, welche in einer kleinen Gruppe umherziehen, um nach Nahrung zu suchen. 2. Ländlich, bäuerliche Gruppe, in welcher die Gruppenmitglieder am selben Ort verbleiben, Herden hüten oder Getreide anbauen. Kapitel 3 - Verwandte Arbeiten 51 Die Kinder der Jäger und Sammler neigen dazu, wirkungsfeldunabhängig zu sein, wogegen solche in ländlich, bäuerlichen Gruppen zur Wirkungsfeldabhängigkeit tendieren. Es könnte argumentiert werden, dass die klare, ungestörte Wahrnehmung der Welt damit assoziiert wird, dass Wirkungsfeldunabhängigkeit bei Jägern und Sammlern wichtiger ist. 1. Verwendung von visuellen Illusionen Ein Großteil des Beweises zu interkulturellen Variationen bei der Wahrnehmung basiert auf zahlreichen visuellen Illusionen. [Segall und Andere 1963] argumentierten, dass die Muller-Lyer-Illusion nur von denen wahrgenommen wird, die Erfahrungen mit „gezimmerten Umgebungen“ haben, wo zahlreiche rechte Winkel, gerade Linien und regelmäßige Ecken vorhanden sind. Menschen der westlichen Gesellschaft leben in einer gezimmerten Umgebung, aber die in Stammesgemeinschaften lebenden Zulus nicht. (Ein Zulu ist ein Angehöriger eines Bantustammes in Natal). Bei ländlichen Zulus zeigte die Muller-Lyer-Illusion keine Wirkung. Dieser Befund kann jedoch bedeuten, dass ländliche Zulus zweidimensionale Skizzen nicht interpretieren können. Dies wäre zu Ungunsten der Funde von Segall und Anderen. Sie studierten die Horizontal-Vertikal-Illusion, die in zweidimensionalen Zeichnungen das Überschätzen der vertikaler Maße gegenüber den horizontalen Maßen umfasst. Bei ländlichen Zulus zeigte die Horizontal-Vertikal-Illusion ein größeres Ausmaß als bei Europäern, weil die Zulus vermutlich mit weiten, offenen Räumen vertrauter sind. [Gregor, McPherson 1965] verglichen zwei Gruppen australischer Ureinwohner. Eine Gruppe wohnte in einer gezimmerten Umgebung, aber die andere Gruppe lebte unter freiem Himmel und hatte sehr einfache Behausungen. In Bezug auf das Erkennen der MullerLyer-Illusion und der Horizontal-Vertikal-Illusion unterschieden sich die beiden Gruppen nicht. Interkulturelle Unterschiede bei der visuellen Wahrnehmung könnten damit eher von Training und Bildung abhängen, als von der Tatsache, ob oder ob sie nicht in einer gezimmerten Welt leben. Abbildung 39 Büffelherde in großer Entfernung. Ein Zwergmensch gab an, die Büffel haben die Größe von Insekten. [Turnbull 1961] lieferte einen zusätzlichen Beweis für interkulturelle Differenzen bei der Wahrnehmung. Gegenstand seiner Forschung war ein Zwergmensch, der im dunklen Wald wohnte und damit nur begrenzt Erfahrung mit dem Betrachten entfernter Objekte hatte. Der Zwergmensch wurde zu einer weitläufigen Ebene gebracht, auf der er eine weit entfernte Büffelherde zu sehen bekam. Er gab an, dass die Büffel Insekten waren und weigerte sich zu glauben, dass sie wirklich große Tiere waren. Vermutlich hatte er niemals erlernt, einige der Tiefenhinweise, die bereits im Kapitel erwähnt wurden, so zu nutzen, wie es Menschen in anderen Kulturen können. Die Studie ist jedoch in ihrer Aussage beschränkt, weil nur eine einzige Person untersucht wurde, und es nicht klar ist, ob sie Büffel schon einmal gesehen hatte. Kapitel 3 - Verwandte Arbeiten 52 [Annis und Frost 1973] lieferten mehr Beweise interkultureller Wahrnehmungsunterschiede in einer Studie über kanadische Cree-Indianer. Einige Indianer leben in Tipis (kegelförmige Stangenzelte nordamerikanischer Prärieindianer, mit gegerbten Bisonfellen bespannt) auf dem Land und einige wohnen in Städten. Annis und Frost argumentierten, dass die in Städten wohnenden Indianer, täglich hauptsächlich vertikalen und horizontalen Linien ausgesetzt sind, wogegen den in Tipis wohnenden Indianern Linien in allen möglichen Ausrichtungen begegnen. Beide Gruppen wurden danach gefragt, ob zwei Linien parallel sind. Die in Tipis wohnenden Cree-Indianer schnitten bei dieser Aufgabe gut ab, egal in welchem Winkel ihnen die Linien präsentiert wurden. Dagegen waren die in Städten lebenden Indianer wesentlich besser, wenn die Linien horizontal oder vertikal verliefen, als bei anderen Winkeln. Diese Befunde zeigen, wie wichtig relevante Erfahrungen bei der Wahrnehmung sind. [Allport, Pettigrew 1957] nutzen eine Illusion, die auf fast rechteckigen oder trapezförmigen Fenstern basiert, in die horizontale und vertikale Stäbe eingepasst wurden. Wenn sich ein solches Fenster im Kreis dreht, sieht es wie ein sich vorwärts und rückwärts bewegendes rechteckiges Fenster aus. Menschen, die in Kulturen ohne rechteckige Fenster leben, neigten dazu, diese Illusion nicht zu erfahren. Zulus, die in ländlichen Gegenden wohnen, konnten ein sich vorwärts und rückwärts bewegendes rechteckiges Fenster nicht so gut erkennen, wie Europäer oder in städtischen Bereichen lebende Zulus. 2. Verwendung von Zeichnungen Die meisten Erwachsenen westlicher Gesellschaften sind in der Lage, zweidimensionale Zeichnungen und Bilder zu interpretieren, die dreidimensionale Szenen widerspiegeln. Nach [Hudson 1960] empfinden es jedoch schwarze Kinder und Eltern in Südafrika, die bisher kaum Erfahrungen mit Zeichnungen sammeln konnten, als sehr schwierig, in ihnen Tiefe wahrzunehmen. Es gibt Probleme bei derartigen interkulturellen Forschungen. [Deregowski, Muldrow 1972] fanden heraus, dass Mitglieder des Me‘en-Stammes in Äthiopien nicht auf Tierfotos ansprachen, weil Papier für sie ein unbekanntes Material war. Das könnte bedeuten, dass ihre Fähigkeit zur Wahrnehmung zweidimensionaler Abbildungen sehr beschränkt war. Als jedoch den Stammesleuten Tiere gezeigt wurden, die auf Textilien gemalt waren (dieses Material ist ihnen vertraut), waren sie im Allgemeinen in der Lage, die Tiere korrekt zu erkennen. 3.3.6.4 Auswertung Nach [Eysenck 2000] gibt es Beweise für individuelle, soziale und interkulturelle Variationen bei der visuellen Wahrnehmung. Individuen unterscheiden sich in ihrer Art der Wahrnehmung. Es gibt soziale Unterschiede bei der Kindererziehung und bei Erfahrungen. Außerdem unterscheiden sich Kulturen in ihren Hauptaktivitäten und in den Erfahrungen bei der Wahrnehmung. Bei der Forschung auf diesem Gebiet gibt es drei Haupteinschränkungen. Erstens ist eine Interpretation der Befunde oft schwierig. Zum Beispiel könnten interkulturelle Unterschiede bei der Wahrnehmung durch unterschiedliche Faktoren zustande kommen, weil die Erfahrungen von Menschen unterschiedlicher Kulturen in vielen Punkten differieren. In Zukunft könnte erforscht werden, wie lange und welche Lernerfahrungen Gruppen dazu brauchen, Kapitel 3 - Verwandte Arbeiten 53 visuelle Illusionen (zum Beispiel die Muller-Lyer-Illusion) zu erlernen, wenn sie diese Illusion nicht wahrnehmen. Obwohl nach [Malott und Anderen 1967] sogar Tauben die MullerLyer-Illusion erkennen, sollte man vorsichtig mit der Annahme sein, den kulturellen Faktoren die Hauptrolle zuzuordnen, wie Illusionen gesehen werden. Zweitens gelten die meisten Studien eingeschränkt, weil sie sich auf selbst festgelegte Maßstäbe beziehen. Zum Beispiel ist es möglich, dass Individuen mit ausgeprägten Angstgefühlen hinsichtlich ihres Verhaltens übertreiben. Es könnte eher aufgrund eines geringen Selbstwertgefühls erfolgen als aufgrund dessen, was sie wirklich wahrnehmen. Einige offensichtliche interkulturelle Wahrnehmungsunterschiede könnten auftreten, weil es auch interkulturelle Unterschiede bei der Fähigkeit gibt, Wahrnehmungserfahrungen sinngetreu widerzugeben. Andere interkulturelle Unterschiede könnten eher von Unterschieden bei der Sprache abhängen als von wirklichen Unterschieden bei der Wahrnehmung. Drittens fokussierten die meisten interkulturellen Forschungen auf zweidimensionale visuelle Illusionen. Solche eingeschränkten Forschungen sagen nur wenig über die kulturellen Unterschiede bei der Wahrnehmung im alltäglichen Leben aus. Es ist davon auszugehen, dass es große kulturelle Unterschiede in der den zahlreichen visuellen Reizen zugeordneten Bedeutungen gibt. Zum Beispiel können viele Mitglieder afrikanischer Kulturen komplexe Fußspurenmuster wesentlich besser erkennen als Menschen der westlichen Gesellschaft. 3.3.7 Zusammenfassung: Wahrnehmung aus psychologischer Sicht Abbildung 40 Übersicht über wahrnehmungbeeinflussende Faktoren. In Klammern sind Wissenschaftler angegeben, die in ihren Studien diese Faktoren befürworteten. 1. Organisation der Wahrnehmung Die Gestaltisten legten den Schwerpunkt auf die Trennung der Wahrnehmungsfunktionen und auf das Gesetz der Prägnanz. Weitere Gesetze (die sich zum Beispiel auf die nähere Umgebung, die Ähnlichkeit und den Abschluss beziehen) illustrieren das Gesetz der Prägnanz. Diese Gesetze sind eher Beschreibungen als Erläuterungen. Die Gestaltisten vermuteten auch, dass das Ganze mehr als die Summe aller Teile ist, und einige Beweise unterstützen diese Annahme. Kapitel 3 - Verwandte Arbeiten 54 2. Raum oder Tiefenwahrnehmung Die Raumwahrnehmung hängt von zahlreichen monokularen Hinweisen ab, wie bildhafte Hinweise, Linearperspektive, räumliche Perspektive, Textur, Interposition, Schattierung, vertraute Größe und Bewegungsparallaxe. Sie ist ebenfalls von binokularen Hinweisen abhängig, von welchen die Stereopsis der wichtigste ist. Informationen von Hinweisen werden normalerweise auf additive Art und Weise kombiniert, aber gelegentlich werden Informationen von einem Hinweis ignoriert. 3. Visuelle Konstanten Die meisten der visuellen Objektcharakteristiken sehen unter veränderten Sichtbedingungen ähnlich aus. Zum Beispiel weisen Menschen Größenkonstanz, Formkonstanz und Farbkonstanz auf. Dieses Fähigkeit wird im Leben sehr früh entwickelt und ermöglicht den Menschen, eine sich kaum verändernde Welt wahrzunehmen, obwohl starke Variationen des Abbildes auf der Retina auftreten. 4. Mustererkennung Schablonentheorien wurden in der Mustererkennung nicht erfolgreich bewiesen. Weitere Theorien legen Wert auf die Verarbeitung individueller Eigenschaften oder Attribute, aber tendieren zum Ignorieren von Kontext und Erwartungseffekten. Theoretiker wie Marr und Biedermann haben auf strukturellen Beschreibungen basierende Theorien zur Mustererkennung vorgeschlagen. Marr identifizierte drei Arten der Repräsentation (ursprüngliche Skizze, 2½-dimensionale Skizze und dreidimensionale Modellrepräsentation). Biedermann argumentierte, dass Objekte aus Grundformen bestehen. Diese Theorien erläutern grobe Abgrenzungen und neigen dazu, die Betrachtung des Kontextes bei der Mustererkennung zu ignorieren. 5. Wahrnehmungstheorien Gibson betonte mit seiner Theorie der direkten Wahrnehmung, dass die aus der Umwelt kommenden Informationen allgemein ausreichen, damit sich Individuen frei umher bewegen können. Er argumentierte, dass einige Aspekte des optischen Feldes gleich oder unverändert bleiben, wenn sich Betrachter umherbewegen. Er argumentierte auch, dass die potenzielle Verwendung eines Objektes offensichtlich wahrnehmbar ist. Gibson minimierte die Komplexität des Prozesses der eigentlichen visuellen Wahrnehmung. Konstruktivisten wie Gregory und Neisser schrieben, dass die Wahrnehmung Hypothesen, Erwartungen und Wissen umfasst. Sie behaupteten, dass motivierende und emotionale Faktoren die Wahrnehmung beeinflussen können. Die von den Konstruktivisten diskutierten Top-Down-Prozesse beeinflussen die Wahrnehmung. Jedoch deutet die Tatsache, dass visuelle Wahrnehmung nahezu fehlerlos ist, darauf hin, dass diese Prozesse seltener Anwendung finden, als es von den Konstruktivisten vermutet wurde. Kapitel 3 - Verwandte Arbeiten 55 6. Individual-, Sozial- und Kulturunterschiede in der Wahrnehmung Es gibt Beweise für individuelle, soziale und kulturelle Variationen in der Wahrnehmung. Einige Unterschiede hängen von der Art der Wahrnehmung und der Persönlichkeit ab. Die Muller-Lyer-Illusion wird eher nicht von Menschen wahrgenommen, denen das Leben in einer Gesellschaft mit gezimmerten Umgebungen unbekannt ist. Die abweichenden visuellen Erfahrungen in den unterschiedlichen Kulturen beeinflussen die visuelle Wahrnehmung auf unterschiedlicher Weise. Von besonderer Bedeutung ist, dass es Menschen der westlichen Gesellschaft aufgrund weitreichender sachbezogener Erfahrungen leichter fällt, zweidimensionale Zeichnungen und dreidimensionale Szenen zeigende Bildern zu interpretieren, als in anderen Kulturen lebenden Menschen. Probleme treten bei der Interpretation kultureller Unterschiede auf, wenn ein zu großer Bezug auf zweidimensionale Figuren genommen wird, und wenn Wissenschaftler selbst festgelegte Maßstäbe bei der Wahrnehmung verwenden. 3.4 Zusammenfassung verwandter Arbeiten Ausgehend von den Anfängen des Kamerawerkes Dresden, in welchem bis heute analoge Kameras und ab 1996 digitale Hochgeschwindigkeitskameras produziert werden, wurde der aktuelle Stand digitaler Aufnahmetechnik dargelegt. Damit erhielt der Leser einen geschichtlichen Überblick zur Entwicklung von Kameras in der Region Dresden. Für die weitere Betrachtung wurde eine Marktanalyse durchgeführt, deren Ziel in der Auflistung aktueller Hochgeschwindigkeitskameras und Kameras für Zeitrafferaufnahmen lag. Bei Zeitlupenkameras treten physische Grenzen auf, weshalb für einen speziellen Anwendungsfall genau geprüft werden muss, welche Kamera den gegebenen Anforderungen genügt. Die Aufnahmegeschwindigkeit muss so hoch sein, dass das sich bewegende Objekt dennoch genügend scharf und ausdauernd angezeigt wird. Trotzdem kann die Aufnahmegeschwindigkeit nicht beliebig vergrößert werden, da die Belichtungszeit pro Einzelbild abnimmt. Wird der resultierende Videoclip zu dunkel, so müssen bereits während der Aufnahme Gegenmaßnahmen eingeleitet werden. Eine andere Grenze bildet die Schreibgeschwindigkeit des Speichers. Auch hier wurden Methoden vorgestellt, wie dieses Problem bis zu einem bestimmten Grad gelöst werden kann. Es hat sich herausgestellt, dass für die Aufnahme von Zeitraffern der Einsatz von Digitalkameras, gekoppelt mit einem Computer, die effizienteste und preiswerteste Lösung ist. Insbesondere sollten nur die Bilder abgespeichert werden, die letzten Endes im Zeitraffer abgespielt werden. Aus diesem Grund wurde bei der Untersuchung darauf Wert gelegt, dass die Digitalkameras über eine Intervall-Timer-Funktion oder eine Möglichkeit zum computergesteuerten Auslösen verfügen. Da zum Verständnis von Kapitel vier nicht nur die technische Seite wichtig ist, wurden psychologische Betrachtungen durchgeführt. Um zu klären, wie ein Mensch Bewegungen in einem Video überhaupt als solche erkennt, wurde zuerst der Wahrnehmungsprozess ausführlich erläutert. Dabei sollte deutlich werden, dass der Mensch bei bewegten Bildern entweder das bewegte Objekt verfolgt, oder wenn sich die Bewegung auf die gesamte Szene bezieht, nach einem Fixpunkt oder Ruhepunkten sucht, die während der gesamten Bewegung an einer Stelle verharren. Ist die Kamera ruhig und bewegt sich beispielsweise das Fahrzeug in Richtung einer Betonmauer, dann verfolgt das Auge primär sich bewegende Teile, wie zum Beispiel das Auto, davonflie- Kapitel 3 - Verwandte Arbeiten 56 gende Splitter oder den Crash-Test-Dummy. Ist dagegen die Kamera auf einem fahrenden Auto montiert und filmt das Geschehen in Fahrtrichtung, so bewegen sich alle Punkte von einem Zentrum weg. In diesem Fall neigt das Auge eher zum Suchen des Fixpunktes, welcher insbesondere bei hohen Geschwindigkeiten sehr deutlich wird. Ein weiterer Aspekt ist die Tiefenwahrnehmung. Neben den binokularen Hinweisen sind insbesondere die monokularen Hinweise für Videoaufnahmen von großer Bedeutung. Solange das Video auf einem handelsüblichen Bildschirm abgespielt wird, kann der Mensch nur noch den monokularen Tiefenhinweisen vertrauen. Damit er erkennt, dass beispielsweise ein Fahrzeug in diesem Moment relativ weit entfernt ist, sich jedoch im nächsten Moment in nächster Nähe befindet, sind die Linearperspektive, die Verblauung, die Textur, die Verdeckung, die Schattierung, die vertraute Größe und die Bewegungsparallaxe sehr wichtig. Auf den Punkt der vertrauten Größe, beziehungsweise allgemein auf visuelle Konstanten, wird im nächsten Abschnitt besonders eingegangen. Dabei wird deutlich, dass zum Beispiel Personen auch dann ein Verkehrsschild erkennen, wenn es noch sehr weit weg ist, oder wenn die Beleuchtungsverhältnisse stark differieren. Durch den Einblick in die Mustererkennung wird vor allen Dingen deutlich, dass das Bild nicht nur als solches erkannt und wahrgenommen wird, sondern dass auch Erwartungen eine Rolle spielen. Solange das Fahrzeug auf der Straße fährt, ist der untere Teil des Bildes straßengrau, der obere Teil hat die Farbe des Himmels und an den Seiten herrscht vorrangig die Farbe der Landschaft. Es wäre ungewöhnlich, wenn dieser Zustand auf einmal nicht mehr so wäre. Darauf wird am Anfang des nächsten Kapitels näher eingegangen. Ebenso ist zu erwarten, dass gleich das Verkehrsschild Autobahnausfahrt kommt, wenn bereits das Verkehrsschild 500 Meter rechts erschien. Anschließend wurde erläutert nach welchen beiden Prinzipien Menschen Bilder wahrnehmen. Beinhaltet das Bild viel Neues, beispielsweise unmittelbar nach dem Einbiegen in eine unbekannte Straße, nimmt der Mensch eher die Dinge nach dem Bottom-Up-Prinzip wahr. Er sucht zunächst das Bild ab und überlegt erst danach, was die einzelnen Bildpunkte bedeuten. In Neisser‘s Zyklentheorie wurde gut ersichtlich, dass beide Prozesse eng miteinander verbunden sind. Schließlich konnte festgestellt werden, dass es soziale und kulturelle Unterschiede bei der Wahrnehmung gibt. Somit ist klar, dass dem Leser der Umgang mit Zeitlupen und Zeitraffern klar sein muss, damit er die folgenden Ausführungen nachvollziehen kann. Kapitel 4 - Zeitlupen und Zeitraffer 58 Kapitel 4 – Zeitlupen und Zeitraffer In diesem Kapitel werden die Prozesse Zeitraffer und Zeitlupe über den Bildinhalt abstrahiert. Zum Verständnis des ersten Abschnittes wird das Lesen des Abschnittes 3.3 erforderlich, da nun einige Sachverhalte daraus speziell auf Zeitraffer und Zeitlupen angewendet werden. Zunächst wird formal beschrieben, was Zeitraffer und Zeitlupen sind, wie sie erstellt werden können und warum sie überhaupt notwendig sind. Um die Einsatzgebiete zu erörtern, werden die Spezialaufnahmen untersucht, wie in ihnen die Tiefenwahrnehmung erfolgt und warum vertraute Objekte ebenfalls wichtig für die Orientierung sind. Schließlich wird der Unterschied zwischen einer Objektbewegung und einer Objekttransformation verdeutlicht. Des Weiteren wird ein Schema vorgestellt, in welchem die Einsatzgebiete den Aufnahmetechniken gegenübergestellt werden. Dabei spielt in erster Linie eine Rolle, ob in der Spezialaufnahme die Objektbewegung oder die Objekttransformation im Vordergrund steht. Entsprechend veranschaulicht das Schema, wie die Szene aufgenommen werden muss. Bei Spezialaufnahmen für die Wegbeschreibung wird die Kamerafahrt von besonderer Bedeutung sein. Daher wird speziell an dieser Kameraeinstellung untersucht, wann sich ein Clip zum Zeitraffer eignet, und wann er als Zeitlupe bereitgestellt werden sollte. Für die Konzeption eines Modells zum Einsatz von Zeitlupen und Zeitraffern bei der Wegbeschreibung werden Regeln aufgestellt. Diese sind nicht nur auf den Bildinhalt abgestimmt, sondern auch auf die Videocliplänge. Beim Aufstellen der Regeln wird deutlich, dass auch die unterschiedlichen Kameraeinstellungen ausschlaggebend für eine Aufnahme der Videoclips sind. Daher werden im letzten Abschnitt mögliche Kamerapositionen und Schwenks untersucht. In den Abstraktionen wird unter anderem deutlich, dass ein Fixpunkt nicht immer in der Bildmitte liegen muss. Ziel ist es, für den Einsatz von Zeitlupen und Zeitraffern ein Modell zu erstellen, welches im nächsten Kapitel praktisch angewendet werden kann. 4.1 Bildinhaltsabstraktionen und Schemen für Einsatzgebiete In diesem Abschnitt werden zuerst Zeitlupen und Zeitraffer formal beschrieben. Die Erstellung dieser Videoaufnahmen wird schematisch dargestellt, wobei bereits an den Schemen effiziente Aufnahmetechniken deutlich werden. Des Weiteren wird das Ziel einer Zeitlupe und eines Zeitraffers verdeutlicht, woraus ersichtlich wird, warum derartige Spezialaufnahmen durchgeführt werden. Dabei wird festgestellt, dass ein Optimum der Videocliplänge existiert, egal wie schnell oder langsam der gefilmte Prozess in Echtzeit dauert. Besonders wichtig ist die Frage, was durch einen Zeitraffer oder eine Zeitlupe genau dargestellt wird. Dabei spielen die Objektbewegung und die Objekttransformation eine entscheidende Rolle. Eine Videoaufnahme wird nur dann angefertigt, wenn es eine Veränderung zwischen den Einzelbildern gibt, da ansonsten ein Foto der Szene genügt. Interessant und wichtig für die Orientierung im Video ist dabei, welche Bereiche sich im Video verändern, und ob es auch Regionen gibt, die während des gesamten Clips unverändert bleiben. Anschließend werden die Tiefenhinweise aus Abschnitt 3.3.2 und die Mustererkennung aus Abschnitt 3.3.4 speziell an Zeitlupen und Zeitraffern erörtert. Kapitel 4 - Zeitlupen und Zeitraffer 59 Nach der Erläuterung des allgemeinen Aufbaus der beiden Spezialaufnahmen werden die beiden Einsatzgebiete schematisch dargestellt. Im ersten Fall steht die Objektbewegung im Vordergrund. Die im zweiten Fall betrachtete Objekttransformation bedarf einer ausführlichen Beschreibung, bei der zunächst erläutert wird, was genau unter einer Transformation in einem Video verstanden wird. Daran anschließend werden die drei häufigsten Objekttransformationen vorgestellt – Skalieren, Verzerren und Rotieren. 4.1.1 Was sind Zeitlupen und Zeitraffer? Die mit einer handelsüblichen Videokamera aufgenommenen Filme werden bei der Wiedergabe mit derselben Geschwindigkeit abgespielt, wie sie aufgenommen wurden. Dieser Vorgang wird oft auch „Wiedergabe in Echtzeit“ genannt. Dabei zielt der Begriff Echtzeit auf die Tatsache ab, dass die Aufnahmezeit und Wiedergabezeit des Videos identisch sind. Bei einer Zeitlupe oder einem Zeitraffer ist dies nicht der Fall. Während bei einer Zeitlupe der aufgenommene Vorgang bei der Wiedergabe länger dauert, läuft ein Prozess nach einer Zeitrafferaufnahme schneller ab. Im Übrigen werden Zeitraffer und Zeitlupe auch häufig Spezialaufnahme oder Spezialeffekt genannt. Der Begriff Spezialaufnahme steht stellvertretend auch für andere Aufnahmetechniken, wobei er die beiden hier betrachteten Formen Zeitlupe und Zeitraffer einschließt. Eine Spezialaufnahme ist schließlich ein Videoclip, der beispielsweise mit einem Fernseher betrachtet werden kann. Damit das möglich ist, beschränken sich die folgenden Ausführungen auf eine Bildrate von 25 Bildern pro Sekunde, was der Bildrate der deutschen Norm für Fernsehbildübertragungen entspricht. Doch wie wird nun eine Zeitlupe oder ein Zeitraffer erstellt? Zur Herstellung von Zeitlupen als auch von Zeitraffern gibt es eine effiziente und eine ineffiziente Methode. Die beiden folgenden Abbildungen zeigen beide Ansätze für die jeweiligen Aufnahmetechniken. Im oberen Teil findet die Videoaufnahme statt, und im unteren Teil die Wiedergabe des Zeitraffers oder der Zeitlupe. Abbildung 41 Ineffiziente Videoherstellung eines Zeitraffers (links) oder einer Zeitlupe (rechts). Abbildung 42 Effiziente Videoherstellung eines Zeitraffers (links) oder einer Zeitlupe (rechts). Kapitel 4 - Zeitlupen und Zeitraffer 60 In Abbildung 41 wird auf der linken Seite das Erstellen eines Zeitraffers verdeutlicht und auf der rechten Seite die Herstellung einer Zeitlupe. Eine Kamera nimmt Bilder mit einer Geschwindigkeit von 25 Bildern pro Sekunde auf. Damit der Vorgang bei der Wiedergabe schneller als bei der Aufnahme abläuft, werden bei der ineffizienten Lösung bestimmte Bilder (rot markiert) herausgeschnitten. Jedes n-te Bild wird im Videoclip belassen. Im abgebildeten Beispiel bleibt jedes zweite Bild im Clip erhalten. Da bei der Wiedergabe nun nicht mehr alle Bilder gezeigt werden, sondern nur noch jedes n-te, verkürzt sich die Dauer des gefilmten Prozesses um das n-fache. Die Aufnahme einer Zeitlupe scheint nach diesem Verfahren zunächst effizient. Das Video wird mit einer Bildrate von 25 Bildern pro Sekunde aufgezeichnet. Anschließend werden n Einzelbilder (blau markiert) jeweils zwischen zwei Kamerabildern durch einen Computer berechnet. Das Video wird dabei auf das 1+n-fache gedehnt. Die auf diese Weise entstandene Zeitlupe ist jedoch unexakt, da der Computer keine Kenntnis darüber hat, wie sich der Vorgang zwischen den Einzelbildern verhält. Häufig ist der ablaufende Prozess so schnell, dass er abgeschlossen ist, bevor die Kamera in der Lage war, ein nächstes Einzelbild aufzunehmen. Beide Verfahren zeigen neben den bereits genannten Schwächen eine weitere Eigenschaft, die eine ineffiziente Aufnahmetechnik unterstützt. Zum Herausschneiden bestimmter Bilder bei einem Zeitraffer und dem Berechnen zusätzlicher Bilder bei einer Zeitlupe wird Rechenzeit benötig. Diese wird bei der effizienten Lösung nicht benötigt. Für eine Zeitrafferaufnahme (links in Abbildung 42) werden die Bilder in einem vorher fest definierten Intervall aufgenommen, welches größer als die Bildwiedergabefrequenz ist. Dadurch müssen nur die Bilder aufgenommen und gespeichert werden, die letzten Endes im Videoclip erscheinen sollen. Eine Zeitlupenaufnahme erfolgt mit einer Hochgeschwindigkeitskamera, welche die Bilder schneller aufnehmen kann, als sie später gezeigt werden. Die Aufnahme im Beispiel findet doppelt so schnell wie die Wiedergabe statt. 4.1.2 Warum werden Zeitlupen und Zeitraffer erstellt? Neben dem Erstellen von Zeitlupen und Zeitraffern für die Werbeindustrie oder für Spielfilme beziehen sich die folgenden Überlegungen eher auf Spezialaufnahmen mit einem wissenschaftlichen Hintergrund. 4.1.2.1 Zeitlupen Eine Zeitlupenaufnahme wird erstellt, damit ein sehr schnell ablaufender Prozess von Menschen besser oder überhaupt wahrgenommen werden kann. Ein Mensch nimmt zeitlich zusammenhängende Bilder mit einer Bildrate von 25 Bildern pro Sekunde nicht mehr als Einzelbilder, sondern als Videostrom wahr. Findet also eine Bewegung so schnell statt, dass ein Objekt im ersten Augenblick noch sichtbar ist und es aufgrund seiner Bewegung bereits im nächsten Augenblick nicht mehr erkennbar ist, kann eine Zeitlupenaufnahme Auskunft darüber geben, wie sich das Objekt fortbewegt hat. Der in Echtzeit sehr schnell ablaufende Prozess wird in der Zeitlupe stark verlangsamt dargestellt. Dabei stellt sich die Frage, wie langsam der Prozess nun dargestellt werden muss, damit alle nötigen Informationen aus der Zeitlupenaufnahme entnommen werden können, jedoch das Video nicht zu lang wird? Kapitel 4 - Zeitlupen und Zeitraffer 61 Ein Vorgang dauert in Echtzeit beispielsweise eine Sekunde. Reicht es, wenn die Bilder genau doppelt so schnell aufgenommen werden und der Vorgang im Videoclip dadurch zwei Sekunden dauert, oder müssen die Bilder so schnell aufgezeichnet werden, dass die Zeitlupenaufnahme mehrere Stunden dauert? Die Aufnahmebildrate ist für jeden Anwendungsfall verschieden, jedoch muss es ein Optimum der Filmlänge geben. Wird ein schnell ablaufender Vorgang zeitlich viel zu stark aufgelöst, entstehen möglicherweise Bilder, zwischen denen kaum noch Veränderungen sichtbar sind. Ist dagegen die Zeitlupe zu kurz, so sind noch zu große Veränderungen zwischen den jeweiligen Einzelbildern vorhanden. Abbildung 43 Die Spezialaufnahme eines Prozesses ist links zu kurz, kann in der Mitte optimal sein und dauert rechts zu lange. Die Wiedergabe einer Zeitlupe dauert für einen bestimmten Vorgang n Sekunden. Wird zum Beispiel der Austritt eines Projektils aus einer Schusswaffe gefilmt, ist die Zeitlupe für die Phase von größtem Wert, wenn das Projektil unmittelbaren nach dem Abschuss das Bild nach n Sekunden verlässt. Ist das Projektil bereits vor dieser Zeit nicht mehr im Kamerablickfeld, fehlen wichtige Einzelbilder, die den Flugverlauf genauer beschreiben könnten. Dauert die Zeitlupe dagegen länger als n Sekunden, sind im Video kaum noch Bewegungen feststellbar. Aus der resultierenden Zeitlupe werden dann trotz längerer Wiedergabezeit nur die Informationen gewonnen, welche die Zeitlupe bei der optimalen Prozesswiedergabedauer vermittelt. Die Bildaufnahmefrequenz muss bei einem Vorgang so hoch sein, dass die resultierende Zeitlupe n Sekunden dauert und damit die optimale Wiedergabedauer hat. Die Hypothese zur Prozessdauer lautet demzufolge: Für jeden beliebigen Vorgang, der durch eine Zeitlupe dargestellt wird, gibt es eine optimale Wiedergabedauer. 4.1.2.2 Zeitraffer Ein Zeitraffer wird erstellt, damit ein sehr lange andauernder Prozess überschaubarer wird. Analog zur Zeitlupe muss es auch hier ein Optimum für die Prozessdauer im Zeitraffer geben. Dauert ein Vorgang in Echtzeit beispielsweise ein Jahr, so gibt es auch für diesen Zeitraffer eine optimale Länge. Hat der resultierende Videoclip eine Länge von einer Stunde, so kann der zu untersuchende Prozess immer noch zu lange dauern, sodass zwischen den Einzelbildern zu wenige Unterschiede auftreten. Hat der Zeitraffer jedoch eine Länge von einer Sekunde, so wird der in Echtzeit ein Jahr andauernde Prozess nun viel zu schnell angezeigt. Nun werden eventuell wichtige Informationen nicht mehr dargestellt. Schließlich haben Zeitlupe und Zeitraffer gemeinsam, dass in einer bestimmten Zeit ein Prozess dargestellt wird. Doch was muss im Video genau gezeigt werden, beziehungsweise wie werden diese Spezialaufnahmen durchgeführt, um aus den Bildern den größtmöglichen Nutzen zu ziehen? Kapitel 4 - Zeitlupen und Zeitraffer 62 4.1.3 Was wird in Zeitlupen und Zeitraffern dargestellt? In einer Zeitlupe oder einem Zeitraffer wird eine Veränderung einer Szene in einem bestimmten Zeitabschnitt aufgenommen. Grundsätzlich kann dabei zwischen zwei Typen unterschieden werden: Im ersten Fall gibt es in der Spezialaufnahme ein zu beobachtendes Objekt, im zweiten Fall nicht. In beiden Typen ist jedoch wichtig, dass neben der erkennbaren Veränderung auch Bereiche vorkommen, die während der Aufnahme unverändert bleiben. Steht die Objektbewegung im Vordergrund, so sollte die Kamera fest arretiert sein, damit der Hintergrund den sich nicht verändernden Bereich darstellt. Ist dagegen die Objekttransformation von größerem Interesse, so muss zum Einen der Kontrast zwischen Objekt und Hintergrund besonders stark sein und zum Anderen sollte der Objektmittelpunkt genau im Bildmittelpunkt der Videoaufnahme sein. In diesem Fall ist das Objekt selber der ruhende Bereich. Der Ruhebereich dient in diesen Spezialaufnahmen als Orientierungspunkt. Orientierungspunkte können der Objektmittelpunkt, Objektbegrenzungen oder im Objekt vorkommende markante Punkte sein. Abbildung 44 Orientierungspunkte bei Objekttransformationen (von links): Objektmittelpunkt, Objektbegrenzung und markante Bereiche Handelt es sich bei der Spezialaufnahme um eine Kamerafahrt oder einen Kameraflug, muss ein Objekt nicht zwangsläufig verfolgt werden. Ist in einer solchen Aufnahme kein Objekt vorhanden, bewegen sich alle Bildteile von einem Punkt weg oder zu diesem Punkt hin. Dieser Punkt wird Fixpunkt genannt und beschreibt mit seiner Lage genau die Richtung, in welche die Kamerafahrt oder der Kameraflug stattfindet. Anhand eines Bildes lässt sich dieser Punkt nicht erläutern, da dieser Punkt nur durch die Bewegung entsteht. Allerdings lässt sich bei einer Langzeitbelichtung eines Bildes vermuten, wo dieser Punkt liegen muss. Auf dem nachfolgenden Bild ist die Mehrfachbelichtung einer Allee zu sehen. Der Fotograf filmte die Landschaft aus einem fahrenden Fahrzeug. Das zweite Beispiel zeigt Aufnahmen aus einer fliegenden Concord, bei der im letzten Bild der Fixpunkt durch ein rotes Fadenkreuz eingezeichnet ist. Abbildung 45 Mehrfachbelichtung einer Allee von [Hamel 1998, Seite 16] Kapitel 4 - Zeitlupen und Zeitraffer 63 Abbildung 46 Flug mit einer Concord Diese Aufnahmen stammen aus einem Dokumentarfilm von [Amirani 2003]. Um Nachträglich den Effekt der Mehrfachbelichtung zu erzielen, wurden die Bilder übereinandergelegt und ein rotes Fadenkreuz hinzugefügt. Nun lässt sich selbst in einem Einzelbild erkennen, dass der Pilot das Flugzeug in einer Rollbewegung flog. Dabei kippte das Flugzeug von einer linkslastigen Fluglage in die rechtslastige. Daraus resultierend entfernen sich alle Bildpunkte in einer Kreisbewegung vom Fixpunk weg. Die Richtung der Kamera ist bei der Betrachtung des Fixpunktes irrelevant. Solange der Fixpunkt im Bild zu sehen ist, führen alle Linien vom Fixpunkt weg, da dieser der einzig unbewegte Punkt im Bild ist. Bei einer Kamerafahrt entstehen immer zwei Fixpunkte. Einer in Richtung der Kamerabewegung und der andere exakt in Gegenrichtung. Filmt die Kamera die rückwärtige Sicht einer Kamerafahrt, bewegen sich alle Bildteile zum Fixpunkt hin. Je näher sie dem Fixpunkt sind, desto langsamer bewegen sie sich. Dieser Sachverhalt wird unter anderem im folgenden Abschnitt noch genauer untersucht. 4.1.4 Tiefenwahrnehmung in Videoaufnahmen Neben den sechs monokularen Tiefenhinweisen Linearperspektive, Verblauung, Textur, Verdeckung, Schattierung und der vertrauten Größe ist der siebte Hinweis der einzige, der erst durch eine Bewegung sichtbar wird. Die Bewegungsparallaxe tritt bei jeglicher Art von Bewegung auf, egal ob die Blickrichtung in Fahrtrichtung ist, der Blick 90° zur Seite gewendet ist oder eine Rotationsbewegung um ein Objekt erfolgt. Der Betrachter erhält die Tiefeninformation darüber, wie schnell sich einzelne Bildbereiche bewegen. Vorraussetzung dieser Annahme ist, dass sich der Betrachter bewegt und die umliegende Landschaft in Ruhelage befindet. Verändert nun ein Objekt seine Position langsamer als ein anderes, so muss es sich weiter weg vom Betrachter befinden. Anders formuliert: Je kleiner der Abstand zwischen dem Objekt und dem fahrenden Betrachter ist, desto höher ist die relative Geschwindigkeit zwischen Objekt und Betrachter. Die folgenden Abstraktionen sollen diesen Sachverhalt bei verschiedenen Perspektiven und Bewegungsformen verdeutlichen. Kapitel 4 - Zeitlupen und Zeitraffer 64 Abbildung 47 Bewegungsparallaxe aus verschiedenen Perspektiven Das linke Bild verdeutlicht, dass sich Objekte nahe dem Fixpunkt langsamer bewegen, als solche, die näher am Bildrand sind. In den beiden mittleren Skizzen wird gezeigt, dass sich die Objekte langsamer bewegen, welche vom Betrachter weiter entfernt sind. Diese Tatsache gilt nicht nur bei einem Blick 90° zur Fahrtrichtung, wie in der dritten Skizze, sondern auch bei einem Blick in Fahrtrichtung. In der rechten Skizze wird dargestellt, dass sich bei einer Rotation um ein Objekt die Bewegungsparallaxe umkehrt. Nahe Objekte im Hintergrund bewegen sich langsamer um das Objekt, wogegen sich weit entfernte Objekte sehr schnell bewegen. Diese Möglichkeit der Tiefenwahrnehmung wird insbesondere bei Zeitraffern und Zeitlupen für die Wegbeschreibung wichtig. Dabei entsteht ein typischer Bildaufbau der Videoaufnahmen, der häufig auch Hintergrund genannt wird. Im Vordergrund dienten bisher lediglich Objekte als Hilfsmittel, um die auftretenden Erscheinungen besser erklären zu können. Aber was genau sind das für Objekte, und wie grenzen sie sich voneinander ab? 4.1.5 Mustererkennung bei der Wegbeschreibung Insbesondere bei der Wegbeschreibung auf Straßen ist der allgemeine Bildaufbau häufig identisch. Während bei Aufnahmen zwischen hohen Wolkenkratzern kein Himmel zu sehen ist, oder bei einer Fahrt durch einen Tunnel lediglich Lampen, Reflektoren und andere Fahrzeuge den Bildinhalt beschreiben, trifft bei den meisten Bildern folgende Abstraktion zu. Im unteren Bildteil ist ein graues Dreieck in Straßenfarbe, in der oberen Bildhälfte ein Dreieck in Himmelfarbe und an den Rändern entweder grüne oder graue Farbtöne, je nach dem, ob die Landschaft repräsentativ für Stadt oder Land ist. Abbildung 48 Abstraktion einer typischen Verkehrssituation Dabei werden im Wesentlichen zwei Dinge deutlich. Wäre die hellblaue Fläche mit der grauen Fläche vertauscht, neigen Personen zur Aussage, dass etwas nicht stimmt. Dies ist in der alltäglichen Sehweise begründet, bei welcher der Himmel und das Licht meistens im oberen Blickfeld vorkommen und die Straße das untere Blickfeld dominiert. Die andere Tatsache ist die Neigung der Horizontlinie. Für ihre Lage können mehrere Ursachen verantwortlich sein. Kapitel 4 - Zeitlupen und Zeitraffer Entweder ist die Landschaft geneigt und das Auto steht horizontal, oder die Landschaft ist eben und das Auto ist geneigt. Dabei ist interessant, dass in beiden Fällen das gleiche Kamerabild entsteht. Der gleiche Effekt tritt bei gleichmäßiger Bergfahrt und gleichmäßiger horizontaler Fahrt auf. Daher lässt sich beim Betrachten eines Videos auch nur schwer feststellen, ob eine Fahrt kontinuierlich bergauf, bergab oder horizontal stattfindet. Lediglich bestimmte Hinweise im Bild lassen vermuten, ob es zum Beispiel stark bergan geht. Ein aus dem Sattel gegangener Radfahrer kann aber auch auf ebener Strecke gegen starken Wind fahren. Für die weitere Betrachtung ist es jedoch egal, wie das Kamerabild entsteht, da zwischen dem Blickfeld der Kamera und dem des Fahrers kein Unterschied besteht. 65 Abbildung 49 Die Landschaft ist geneigt: Das Auto steht vor einem Berg auf ebener Straße. Abbildung 50 Das Auto ist geneigt: Das Auto steht an einem Berg, bei dem die Straße zum Abhang geneigt ist. Abbildung 51 Videobild der Landschaft: In beiden Fällen entsteht das gleiche Kamerabild. Die Mustererkennung beinhaltet jedoch nicht nur die gesamte Szene, sondern auch darin enthaltene Objekte. Nach dem Ansatz der strukturellen Beschreibung erkundet das Auge das Video nach dem Bottom-Up-Prinzip. Wenn die Person bereits über Erfahrungen mit Verkehrsschildern, Leuchtsignalen und anderen immer wieder auftretenden Merkmalen verfügt, erkennt sie bereits in kürzester Zeit, ob es sich um ein Gefahrenschild, ein richtungsweisendes Schild oder eine Informationstafel handelt. Nach dem Top-Down-Prinzip werden rote Lichter schnell als Gefahr interpretiert. Das vorherfahrende Fahrzeug mit Bremslichtern, eine rote Ampel oder ein Bahnübergang können nicht mehr weit sein. Sogar Blinklichter werden schnell in ihrer Bedeutung erfasst. Gelbe Blinklichter deuten auf eine mögliche Gefahrenquelle hin, währenddessen blaue Blinklichter sofort den Einsatz von Polizei, Feuerwehr, Krankenwagen, dem Technischen Hilfswerk oder der Unfallforschung vermuten lassen. Damit ist geklärt, warum Personen gut bekannte Objekte sehr schnell wahrnehmen und warum solche Objekte häufig den Blick auf sich lenken. Damit bleibt nur noch zu erörtern, in welchen Situationen Zeitlupen und Zeitraffer allgemein eingesetzt werden können. 4.1.6 Objektbewegung und Objekttransformation Zeitraffer und Zeitlupen werden dort eingesetzt, wo über einen bestimmten Zeitraum eine Veränderung stattfindet. Diese Veränderung kann sich entweder auf die Bewegung eines Objektes oder auf eine Objekttransformation beziehen. An dieser Stelle muss jedoch definiert werden, was eine Objektveränderung im Video bedeutet. Während der Aufnahme kann das Objekt seine Position, seine Form oder seine Farbe verändern. Allerdings wird im Video das Objekt (und auch der Hintergrund) nur noch durch farbige Pixel repräsentiert. Damit ändert sich bei einer Objektbewegung die Position des Objektes im Video nicht wirklich, da die Pixel auf dem Anzeigegerät ihre Position nicht verändern können. Im Video ändert sich ausschließlich die Farbigkeit der Pixel, die das bewegte Objekt darstellen. Demzufolge wäre die Behauptung falsch, dass sich das Objekt Kapitel 4 - Zeitlupen und Zeitraffer 66 im Video bewegt. Gemeint ist damit, dass ein an das Objekt angrenzender Pixelbereich die Farbtöne des Objektes bekommen wird. Im Folgenden beziehen sich die Begriffe Objektbewegung und Objekttransformation wieder auf das Objekt. Dem Leser sollte jedoch klar sein, dass sich im eigentlichen Sinne lediglich die Farben bestimmter Pixel ändern. 4.1.6.1 Objektbewegung Bei der Objektbewegung wandert das Objekt auf dem Bildschirm von einer Stelle an eine andere. Dabei bleiben die Form und Struktur des Objektes erhalten und bei gleichmäßiger Beleuchtung auch die Farbigkeit. Der Bildausschnitt lässt sich so optimieren, dass sich das Objekt im gewählten Zeitintervall über die gesamte Bildschirmfläche bewegt. 4.1.6.2 Objekttransformation Eine Objekttransformation bedeutet eine Skalierung, Verzerrung, Verformung und Rotation von Objekten. Die ersten drei Transformationen führen zu einer Strukturveränderung des Objektes. Je größer das Objekt im Video wird, desto detailreicher wird die Struktur des Objektes. In den meisten Fällen kommen dabei Farbtöne hinzu. Bei einer Objektrotation treten Bewegung und Dehnung gleichermaßen auf. Wird das Objekt nahe der Rotationsachse betrachtet, bewegen sich die Objektpunkte über den Bildschirm, wobei sie am Objektrand gestaucht werden. Gleichermaßen erfolgt auch bei einer Kamerafahrt mit Blick in Fahrtrichtung Bewegung und Dehnung. Im Bereich des Fixpunktes tritt eher eine Dehnung auf, währenddessen Objekte bei ihrer Bewegung zum Bildrand stetig skaliert werden. 4.1.7 Zusammenfassung der Abstraktionen und Schemen Zeitraffer und Zeitlupen sind Spezialaufnahmen, mit denen Veränderungen einer Szene dargestellt werden. Während ein Zeitraffer dem Betrachter einen Überblick über einen sehr lange andauernden Prozess innerhalb kurzer Zeit gibt, werden durch eine Zeitlupe Einblicke in einen Prozess möglich, der normalerweise aufgrund seiner hohen Geschwindigkeit nur sehr schwer oder gar nicht erkennbar ist. Dargestellt werden Objektveränderungen, wie zum Beispiel: Farbänderung, Bewegung, Skalierung, Dehnung oder Rotation. In vielen Fällen lässt sich jedoch zwischen Objektbewegung und Objekttransformation unterscheiden. Bei einer Kamerafahrt mit Blick in Fahrtrichtung treten alle Merkmale gleichzeitig auf. Die Tiefenwahrnehmung in Zeitlupen und Zeitraffern basiert größtenteils auf der Bewegungsparallaxe. Diese wurde nicht nur an der Kamerafahrt, sondern auch an der Rotation um ein Objekt diskutiert. Im nächsten Abschnitt werden Regeln für Zeitlupen und Zeitraffer bei der Wegbeschreibung aufgestellt. Dafür waren grundlegende Erkenntnisse aus dem Bereich der Mustererkennung notwendig. Vertraute Objekte, wie zum Beispiel Verkehrsschilder oder Leuchtsignale, lenken den Blick des Betrachters auf sich. Die Regeln im nächsten Abschnitt verdeutlichen ebenfalls, wie dieser Einfluss durch eine aktive Kamerabewegung zusätzlich unterstützt werden kann. Kapitel 4 - Zeitlupen und Zeitraffer 67 4.2 Zeitlupen und Zeitraffer bei der Wegbeschreibung Das Ziel dieses Abschnittes soll die Entwicklung eines Modells für eine Wegbeschreibung mit Hilfe von Zeitlupen und Zeitraffern sein. Dazu wird zunächst analysiert, für welche Bereiche welche Videoclips in Frage kommen. Anschließend wird das Modell mit Hilfe von Regeln aufgestellt. Diese Regeln beschreiben unter Anderem, wie lange ein Videoclip dauern sollte. Ähnlich zu einem Navigationssystem werden auch bei diesem Modell gesprochene Sätze integriert. Anhand dieses Einflusses lassen sich die Videocliplängen exakt festlegen. 4.2.1 Anwendungsbereiche und Klassifizierung der Videotypen Zeitraffer zielen darauf ab, sehr langsam ablaufende Prozesse zu beschleunigen, damit sie in kürzerer Zeit dargestellt und überschaubarer werden. Vergleichbar ist dieser Prozess mit der Liniendicke und Farbe bei Straßenkarten. Befindet sich der Kraftfahrer auf einer Autobahn, betrachtet er untergeordnete Straße als unwesentlich und konzentriert sich nur auf den Verlauf der Autobahn bis zum nächsten Autobahnkreuz oder der gewünschten Ausfahrt. Im abgebildeten Beispiel ist für den Autofahrer hier nur von Bedeutung, dass er sich momentan auf der kräftigen roten Linie befindet, dass grob die Himmelsrichtung stimmt und bis zu welchem Punkt er sich um keinen Richtungswechsel kümmern muss. Befindet sich der Kraftfahrer dagegen im Großstadtbereich mit vielen, engen und kurzen Straßen, so muss er unter Umständen genauer hinschauen und sogar Straßennamen lesen, um sich besser orientieren zu können. In diesem Fall sollte äquivalent bei der Wegbeschreibung eine Zeitlupe eingesetzt werden. Zeitlupen werden verwendet, um sehr schnell ablaufende Prozesse sichtbar zu machen. Der Blick geht hierbei vom Wesentlichen auf die Details über, wobei nun mehr Informationen über ein Objekt in Erfahrung gebracht werden können, als das in Realzeit hätte geschehen können. Leipzig Dresden Abbildung 52 Kartenausschnitt Leipzig – Dresden Um von Leipzig nach Dresden zu gelangen, führt der schnellste Fahrtroute über die Autobahn. Campus Autobahnabfahrt Abbildung 53 Kartenausschnitt Autobahn – Campus Von der Autobahnabfahrt Dresden Süd sind es nur wenige Minuten Autofahrt bis zum Campus. Für den sinnvollen Einsatz von Zeitraffern und Zeitlupen muss vorher bestimmt werden, um welche Videoclipkategorie es sich handelt. Diese hängt von drei Faktoren ab, die zunächst genannt und anschließend näher erläutert werden: Kamerabewegung, Transformation des Motivs und Fixpunkt im Bild. Kapitel 4 - Zeitlupen und Zeitraffer 68 Bei Kamerabewegungen wird unterschieden, ob sich das Objekt relativ zur Kamera bewegt oder ob es ruht. Daraus lässt sich ableiten, ob in erster Linie eine Objektverformung oder eine Objektbewegung aufgenommen werden soll und ob der Videoclip einen Fixpunkt besitzt. Dabei können folgende Varianten auftreten: 1. 2. 3. 4. Die Kamera ist fest verankert und beobachtet das ruhende Objekt. Die Kamera ist fest verankert und beobachtet das sich bewegende Objekt. Die Kamera fährt, neigt sich, rotiert, schwenkt und beobachtet das ruhende Objekt. Die Kamera fährt, neigt sich, rotiert, schwenkt exakt mit dem sich bewegenden Objekt. Videoaufnahmen werden im Allgemeinen angefertigt, um eine Veränderung von Dingen zu visualisieren. Es wird also davon ausgegangen, dass stetig in jedem Einzelbild eine Veränderung zum vorherigen zu beobachten ist. Sind nun Kamera und Objekt wie in Abbildung 54 starr, so nimmt die Kamera in diesem Fall eine Objekttransformation auf. Das Objekt verformt sich oder rotiert um eine Achse, die durch das Objekt hindurchgeht. (Rotiert es um eine Achse außerhalb des Objektes, liegt anstelle einer Transformation eine Bewegung vor.) Ebenso wird ein transformierendes Objekt aufgenommen, wenn sich Kamera und Objekt mit gleicher Geschwindigkeit in dieselbe Richtung bewegen, wie hier in Abbildung 55 nach oben. Gegenüber der Kamera ist auch hier das Objekt starr. Der Unterschied besteht lediglich darin, dass sich bei dieser Aufnahme der Hintergrund im Gegensatz zum im Vordergrund liegenden Objekt bewegt. Dabei wird ein Kontrast geschaffen, der im ersten Fall nicht eintritt, wenn sich der Hintergrund mit einer so hohen Geschwindigkeit bewegt, dass er aufgrund der Belichtungszeit nur noch verschwommen dargestellt werden kann. Der Hintergrund ist unscharf; das Objekt wird scharf abgebildet. Die Abbildung 56 verdeutlicht eine Möglichkeiten zur Aufnahme einer Objektbewegung. Sobald sich das Objekt relativ zur Kamera bewegt, muss nicht zwangsweise eine Transformation des Objektes stattfinden. Häufig bleibt das Objekt in seiner ursprünglichen Form. Im Fall einer starren Kamera und eines bewegten Objektes spielt meistens die Bewegungskurve eine Rolle. In diesem Fall verhält sich das Kontrastverhältnis genau entgegengesetzt zum vorherigen Fall. Der Hintergrund ist starr und das Objekt bewegt sich unter Umständen so schnell, dass es nicht scharf im Videoclip abgebildet werden kann. Daher sollten bei diesen Aufnahmen Hintergründe verwendet werden, die sich stark vom zu beobachtenden Objekt unterscheiden. Ein einfarbiger Hintergrund ist oft ideal. Kaum angewendet wird dagegen der Fall, dass sich die Kamera bewegt und das Objekt an Ort und Stelle bleibt, wie in Abbildung 57 dargestellt. Unter Kamerabewegung werden hier lediglich die Fälle gesehen, bei denen die Kamera fährt oder schwenkt. Rotiert die Kamera um das zu beobachtende Objekt, so tritt ähnlich zum zwei- Kapitel 4 - Zeitlupen und Zeitraffer 69 ten Fall das Phänomen auf, dass sich Kamera und Objekt relativ zueinander nicht bewegen. In diesem Fall verformt sich das im Videoclip abgebildete zweidimensionale Objekt auf diese Weise, dass das dreidimensionale Objekt aus mehreren Blickwinkeln abgebildet wird. Zu den möglichen Kamerabewegungen folgen anschließend gesonderte Betrachtungen. Damit kann nun zunächst eine Regel aufgestellt werden, wie Kamera und Objekt zueinander agieren müssen, wenn der Schwerpunkt der Betrachtung auf der Transformation oder der Bewegung liegt. 4.2.2 Regeln für das Verhalten zwischen Kamera und Objekt Regel 1 – Aufnahmen mit Objekttransformation Liegt der Schwerpunkt der Betrachtung auf der Objekttransformation, ist die Kamera so zu verankern oder zu führen, dass sich der Objektmittelpunkt immer im Bildmittelpunkt befindet. Regel 2 – Aufnahmen mit Objektbewegung Liegt der Schwerpunkt der Betrachtung auf der Objektbewegung, ist die Kamera gegenüber dem Objekt in geeigneter Position, Richtung und Entfernung fest zu verankern. Dieser Sachverhalt wird in einem Schema dargestellt: Abbildung 58 Das Schema erläutert, wie sich bewegende oder sich transformierende Objekte mit einer Kamera aufzunehmen sind. Die Transformation kann neben der Verformung auch eine Skalierung und Farbänderung bedeuten. So lange die Objekttransformation von Bedeutung ist, muss der Bereich des größten Interesses immer im Bild sein. Damit ist im Allgemeinen das Filmen des Bereiches gemeint, der sich beim Prozessablauf verändern wird. Ist das Objekt ruhend, so wird auch die Kamera fest arretiert; bewegt es sich, muss die Kamera entsprechend geführt werden. Ist dagegen die Bewegungskurve zwischen der Kamera und dem Objekt von Interesse, sollte eines von beiden fest arretiert sein: entweder die Kamera oder das Objekt. Meistens ist die Kamera so befestigt, dass sie das sich bewegende Objekt aufzeichnen kann. Kapitel 4 - Zeitlupen und Zeitraffer 70 Im nächsten Schritt muss geklärt werden, wann eine Aufnahme als Zeitlupe oder als Zeitraffer zu erstellen ist. Dazu wird zuerst ein proportionaler Zusammenhang zwischen dem Detailreichtum des Bildes und der Aufnahmegeschwindigkeit des Videoclips erörtert. Im zweiten Schritt werden diese Erkenntnisse auf unterschiedliche Kameraführungen angewendet. Diese beinhalten neben der fest arretierten Kamera nicht nur stationäre Bewegungen der Kamera, wie zum Beispiel den Schwenk oder die Neigung, sondern auch verschiedene Kamerafahrten, beispielsweise die Durchfahrt oder die Rotation um ein Objekt. 4.2.3 Wann Zeitlupe und wann Zeitraffer? Von einem Video werden auf dem Anzeigegerät viele Einzelbilder hintereinander gezeigt. Aufgrund der hohen Bildfrequenz ist der Mensch nicht in der Lage die Einzelbilder als solche wahrzunehmen. Sie verschwimmen zu einem fließenden Videostrom. Videos werden aufgezeichnet, um die Veränderungen eines Bildausschnittes über die Zeit zu beobachten. Deshalb kann davon ausgegangen werden, dass in jedem Einzelbild eine Veränderung gegenüber dem vorherigen Bild vorliegt. Dauert der beobachtbare Prozess sehr lange, so sind die Unterschiede der Einzelbilder eher gering, wobei die Unterschiede sehr groß werden können, wenn die aufzunehmenden Prozesse sehr schnell ablaufen. Zwei Beispiele verdeutlichen diesen Zusammenhang. Fährt der Betrachter lange Zeit auf einer Autobahn, hat das aufgenommene Bild, wie bereits im Abschnitt 4.1 beschrieben, über längere Zeit den gleichen Bildaufbau. Das untere Feld wird durch ein betongraues Dreieck dominiert, zur rechten und zur linken Seite schließen sich zwei grüne Dreiecke an, die markant für die Landschaft sind, und in der oberen Hälfte ist ein blaues Dreieck, was den Himmel charakterisiert. Verkehrszeichen, fahrende Autos und weitere Details sind nicht von Interesse, solange nicht die Fahrtrichtung geändert wird oder die Absicht zum Verlassen der Autobahn besteht. Der Bildinhalt ändert sich also über einen längeren Zeitraum nicht, sodass in diesem Fall die Aufnahme als Zeitraffer erfolgen kann. Damit ist gleichzeitig festgestellt worden, dass während dieses Zeitraffers für eine Routenplanung keine wichtigen Details vorkommen. Ansonsten ist für diesen Wegabschnitt ein Zeitraffer unangebracht. Befindet sich der Kraftfahrer jedoch in der Innenstadt, so verändern sich der Bildaufbau und der Bildinhalt relativ schnell. Teilweise sind sehr kleine Details, wie zum Beispiel Schilder mit Straßennamen, von hoher Wichtigkeit, sodass in diesem Fall das einzelne Bild von größerer Bedeutung ist. Nun muss die Bildaufnahmefrequenz hoch sein, damit diese Details später auch wahrgenommen werden können. Abbildung 59 verdeutlicht diesen Sachverhalt. Bei einer geringen Detailveränderung, wird ein Zeitraffer erstellt. Ist die Aufnahmefrequenz größer als 25 Bilder pro Sekunde, entsteht eine Zeitlupe. Nun lässt sich die dritte Regel aufstellen, in welcher verschiedene Festlegungen zum Einsatz von Zeitlupen und Zeitraffern erfolgen. Abbildung 59 Zusammenhang zwischen Bildaufnahmefrequenz und Detailveränderungen zwischen den Einzelbildern. Daraus ergibt sich der Einsatz von Zeitraffer oder Zeitlupe. Kapitel 4 - Zeitlupen und Zeitraffer 71 Regel 3 – Wann Zeitlupe und wann Zeitraffer? Die Aufnahmefrequenz kann klein sein, wenn in den Bildern nur wenige Details und zwischen den Bildern geringe Veränderungen vorliegen. Sind die Bilder detailreicher und liegen zwischen den einzelnen Bildern größere Veränderungen vor, ist eine hohe Aufnahmefrequenz erforderlich. Die Bildaufnahmefrequenz ändert sich demzufolge proportional zum Detailreichtum in den Bildern, sowie zur Veränderung des Bildinhaltes aufeinanderfolgender Einzelbilder. Die praktische Umsetzung ist relativ einfach. Eine Aufnahme der Videoclips von einem fahrenden Fahrzeug erfolgt mit einer handelsüblichen Kamera mit 25 Bildern pro Sekunde. Die Aufnahmefrequenz ist damit konstant und klein, sobald eine längere Autobahnfahrt stattfindet. Die relative Bildfrequenz pro gefahrenen Meter wird noch kleiner, wenn das Fahrzeug auf hohe Geschwindigkeiten beschleunigt. Zusätzlich wird in der Nachproduktion für diesen Zeitraffer nur jedes n-te Bild verwendet, sodass die Zeitrafferwirkung noch verstärkt wird. Dabei gibt n das Intervall der wiederzugebenden Bilder an. Ein Fahrzeug fährt in schmalen Gassen und engen Kurven einer Innenstadt nicht die gleiche Geschwindigkeit wie auf der Autobahn. Risiken, die Unkenntnis über die Fahrtroute und nicht zuletzt die Verkehrsregeln zwingen den Fahrer zu einer langsameren Fahrt. Nun werden mehr Bilder pro gefahrenen Meter aufgezeichnet, genau wie es Abbildung 59 verlangt. Damit entspricht das Schema der menschlichen Sehweise eines Autofahrers. Fährt das Fahrzeug in der Stadt mit 36 Kilometern pro Stunde, entspricht diese Geschwindigkeit zehn Metern pro Sekunde. Nimmt die Kamera 25 Bilder pro Sekunde auf, entstehen 25 Bilder pro zehn Meter Fahrtweg. Die Kamera nimmt nach 40 Zentimetern jeweils ein Einzelbild auf. Liegt bei einer Autobahnfahrt eine Geschwindigkeit von 180 Kilometern pro Stunde vor, entspricht das 50 Metern pro Sekunde und damit 25 Bildern pro 50 Meter Fahrtweg. Nun nimmt die Kamera nach jeweils zwei Metern ein Bild auf. Um vom Ausgangsort an den Zielort zu gelangen, kann entweder ein Blick auf eine Straßenkarte weiterhelfen, oder es kann eine Routenbeschreibung angesagt werden. Die Sätze müssen die Route exakt beschreiben. Dazu gehören im Wesentlichen zwei Informationen: Wie lange und auf welcher Straße befindet sich der Fahrer, sowie die exakte Angabe der Richtungsänderung an einem Kreuzungsbereich. Daraus ergeben sich zwei Videoclipkategorien. Der ersten Kategorie gehören Videoclips an, die den längeren Straßenverlauf ohne Richtungsänderung darstellen. Der zweiten Kategorie gehören alle Clips an, bei denen ein Richtungswechsel im Kreuzungsbereich darge- Abbildung 60 Der Straßenverlauf ohne Richtungsänderung entspricht der ersten Kategorie und ist grün hervorgehoben. Ändert sich die Richtung an einer Kreuzung, gehört der dazugehörige Videoclip der zweiten Kategorie an und ist blau dargestellt. Kapitel 4 - Zeitlupen und Zeitraffer 72 stellt wird. Die Länge der Videoclips lässt sich daher wie folgt festlegen: Aufnahmen zur ersten Kategorie neigen zum Zeitraffer, wogegen Aufnahmen der zweiten Kategorie eher zu Zeitlupen tendieren. Das damit erzeugte Modell zur Wegbeschreibung lässt sich universell auf jede endliche Wegstrecke anwenden. Regel 4 – Wegbeschreibung mit Zeitlupen und Zeitraffern Zeitlupen werden in Kreuzungsbereichen eingesetzt, an denen sich die Fahrtrichtung eines Fahrzeugs ändert. Zeitraffer werden von den Fahrstrecken erstellt, bei denen über einen längeren Zeitraum keine Richtungsänderungen auftreten. Während der Untersuchungen im Praxisteil, Abschnitt 5.2 Zeitraffer und Zeitlupe bei der Wegbeschreibung, wird festgestellt, dass Regel 4 erweitert werden muss. Die erstellten Videoclips können zeitlich nicht beliebig zu einem Zeitraffer gestaucht werden. Ist der Sprung von einem Einzelbild zum nächsten zu groß, verliert der Betrachter die Orientierung und bewertet den Zeitraffer als zu schnell. Daher ist die Verkürzung des Videos auf einen Zeitraffer beschränkt. Es darf höchstens mit der x-fachen Geschwindigkeit abgespielt werden, wobei x unterschiedlich für verschiedene Anwendungsfälle ist. Der Zeitraffer muss in diesem Fall zerteilt werden, wobei in der fertigen Beschreibung der erste Teil des Zeitraffers gezeigt und schließlich in den Schlussteil dieses Zeitraffers übergeblendet wird. Daher wird bereits an dieser Stelle eine zusätzliche Regel eingeführt: Regel 5 – Abspielgeschwindigkeit von Zeitraffern Sollte ein Zeitraffer Z maximal nur mit x-facher Geschwindigkeit angezeigt werden, und übersteigt die Dauer des Zeitraffers die gewünschte Dauer t, wird der Zeitraffer mit x-facher Geschwindigkeit in drei Teile Z1, Z2 und Z3 zerlegt. Z1 dauert ½t und Z3 dauert ½t. Z2 wird nicht angezeigt. Z1 und Z3 werden wiedergegeben. Abbildung 61 Schema zum Teilen eines Zeitraffers auf die Dauer t. Kapitel 4 - Zeitlupen und Zeitraffer 73 Abbildung 61 soll das Teilen des Videos veranschaulichen. Im oberen Bereich ist zunächst der Zeitraffer dargestellt, der auf eine bestimmte Zeit t gekürzt werden soll. Da dieser Zeitraffer die Realität bereits mit x-facher Geschwindigkeit anzeigt, kann die Zeit nicht noch stärker reduziert werden. Daher wird der Clip in drei Teile zerlegt, wobei nur der erste und der letzte Teil den neuen Clip bilden. Der gesamte Clip stellt einen Zeitraffer dar, wobei dadurch auch der Teilabschnitt Z2 ein Zeitraffer ist. Regel 3 besagte, dass in Zeitraffern keine wichtigen Details vorkommen, die zur Wegbeschreibung nützlich sind. Somit kann der Ausschnitt Z2 entfernt werden, ohne dass dem Videoclip wertvolle Informationen verloren gehen. Z1 und Z3 müssen jedoch vorhanden sein, um einen fließenden Übergang zwischen zwei Kreuzungsbereichen zu schaffen, in denen eine Richtungsänderung stattfindet. Optional kann von Z1 in Z3 übergeblendet werden, damit ersichtlich wird, dass ein Teil des Clips ausgelassen wurde. 4.2.3.1 Optimierung der Videocliplänge Die Optimierung der Videocliplänge erfolgt so, dass jede Videoclipdauer der Dauer des Kommentars bei natürlicher Sprechweise entspricht. Für diesen Zweck müssen vorgefertigte Musterstimmen zur Verfügung stehen, die über Lautsprecher beispielsweise folgende Sätze anbieten können. Die in den Klammern angegebene Zeit ist eine Schätzung für das Sprechtempo des jeweiligen Satzes. (6,5 Sekunden) (7,4 Sekunden) (4,0 Sekunden) (3,3 Sekunden) Fahren sie 76 Kilometer auf der Autobahn A14 in Richtung Magdeburg, Halle, Leipzig Verlassen sie die Autobahn an der Ausfahrt Dresden-Süd und biegen sie links in die Bundesstraße B170 ein. Bleiben sie auf der B170 für 2,6 Kilometer. Biegen sie links ab in die Nöthnitzer Straße. Für die Ansage dieser Sätze ist jeweils eine gewisse Zeit erforderlich. Diese Zeiten sind zunächst Schätzungen, können aber exakt bestimmt werden, sobald die Stimme einmal aufgezeichnet wurde. Für jeden Satz ist dann eine genaue Sprechdauer bekannt. Zusätzlich zur Wegbeschreibung kann auch auf besondere Begebenheiten hingewiesen werden, wie zum Beispiel der Hinweis zu einem Verkehrsleitschild oder auf einen Blitzer. (3,0 Sekunden) (2,7 Sekunden) Ordnen sie sich in der äußerst linken Fahrspur ein! Vorsicht! Blitzer auf der rechten Seite. Da sich jede endliche Route mit endlich vielen Richtungsanweisungen darstellen lässt, hat auch die gesprochene Wegbeschreibung eine endliche Dauer. Damit zwischen den einzelnen Videoclips und zwischen den einzelnen Sätzen ein gleitender Übergang entsteht, sollte nach jedem Satz eine Pause von beispielsweise ein bis zwei Sekunden festgelegt werden. Was bisher noch nicht beachtet wurde, beschreibt der folgende Sachverhalt: Bewegt sich das Fahrzeug genügend langsam, dann hat der Fahrer auch die Möglichkeit zur Seite zu schauen. Mit einer fest arretierten, immer geradeaus gerichteten Kamera, ist das nicht möglich. Damit dieser Fall in die Betrachtung mit einbezogen werden kann, müssen zunächst Untersuchungen verschiedener Kamerabewegungen angestellt werden. Kapitel 4 - Zeitlupen und Zeitraffer 74 4.2.4 Kamerabewegungen Kamerabewegungen sind nötig, um das zu betrachtende Objekt zu verfolgen. Bei der Betrachtung der Kamerabewegungen in Bezug auf die Wegbeschreibung ist wichtig, dass sich das Orientierungsobjekt auf dem Bild in ruhiger Lage befindet, oder sich nur minimal bewegt. Durch ein Beispiel soll dieser Sachverhalt verständlicher werden: Fährt ein Kraftfahrer auf der Autobahn mit einer hohen Geschwindigkeit, wird er entsprechend den psychologischen Betrachtungen aus dem Abschnitt 3.3 konzentriert auf den Fixpunkt oder auf ein vorherfahrendes Fahrzeug blicken. Sobald sich jedoch ein richtungsweisendes Verkehrsschild nähert, und der Fahrer zum Überprüfen seiner Route das Schild lesen will, schweift der Blick vom Fixpunkt ab und wandert zum Verkehrsschild. Sind die Sichtverhältnisse schlecht, muss der Fahrer relativ lange warten, bis das Verkehrsschild in lesbarer Reichweite ist. Mit zunehmender Geschwindigkeit entfernt sich das Verkehrschild vom Fixpunkt, bis es schließlich nicht mehr im Blickfeld ist. Eine Kamera kann dieses Problem auf zweierlei Wegen umgehen. Zum Einen kann sie wie die Augen des Fahrers in Richtung Verkehrsschild schwenken und zum Anderen kann sie an dieser Stelle eine Zeitlupe erstellen, sodass selbst bei hoher Geschwindigkeit genügend Zeit zum Erkennen des Verkehrsschildes bleibt. Zusätzlich zur Durchfahrt und zum Kameraschwenk lassen sich auch Regeln für eine Rotation um ein Objekt aufstellen, durch welche die Kameraführung um beliebige Objekte bei der Wegbeschreibung möglich wird. 4.2.4.1 Kamerafahrt Während einer Kamerafahrt mit einer in Fahrtrichtung filmenden Kamera, entsteht ein Fixpunkt. Dieser muss nicht zwangsläufig identisch zum zentralen Punkt der Zentralperspektive sein. Aufgrund der Beschaffenheit von Kameralinsen liegt der zentrale Punkt immer exakt im Mittelpunkt des Bildes. Weicht die Blickrichtung der Kamera leicht von der Fahrtrichtung ab, ist der Fixpunkt außerhalb der Bildmitte. Ist die Kamera starr auf einem fahrenden Objekt montiert, ändert sich die Position des Fixpunktes bei jedem Kameraschwenk. Ebenso verändert sich die Lage des Fixpunktes mit jeder Richtungsänderung der fahrenden Kamera. Liegt der Fahrtrichtungsvektor außerhalb des Blickwinkels der Kamera, gibt es im Bild keinen Fixpunkt mehr. Fährt die Kamera genau entgegengesetzt zur Blickrichtung, entsteht wieder ein Fixpunkt im Bild. Die folgenden Grafiken sollen den Zusammenhang zwischen Fixpunkt und Fahrtrichtung verdeutlichen. In der linken Abbildung ist jeweils das Kamerabild zu sehen. Der zentrale Punkt ist durch ein grünes Fadenkreuz markiert; der Fixpunkt durch einen Knotenpunkt roter Pfeile. Gibt es keinen Knotenpunkt roter Pfeile im Bild, so existiert auch kein Fixpunkt in diesem Videoclip. Die mittlere Darstellung zeigt symbolisch die Kamera auf dem fahrbaren Untersatz von der Seite. Der rote Pfeil zeigt die Fahrtrichtung an und der grüne Pfeil die Blickrichtung der Kamera. Die rechte Abbildung verdeutlicht denselben Sachverhalt in der Draufsicht. Kapitel 4 - Zeitlupen und Zeitraffer 75 In Abbildung 62 sind Fahrtrichtung und Blickrichtung der Kamera identisch. Dabei ist egal, ob der Wagen konstant horizontal oder konstant eine geneigte Ebene hoch, beziehungsweise runter fährt. Der Fixpunkt entsteht genau in der Mitte des Videos und alle Punkte bewegen sich von ihm weg. Die Kamera ist in Abbildung 63 leicht nach unten geneigt, oder der Wagen beginnt mit einer Anfahrt auf einen Berg. Der Fixpunkt verlagert sich daraus resultierend nach oben. Der Wagen fährt geradeaus und die Kamera blickt leicht nach rechts. Der Fixpunkt liegt dadurch weiter links im Videoclip. Vorsicht: Eine leicht geschwenkte Kamera produziert nicht die gleichen Bilder, wie eine geradeaus blickende Kamera bei leichter Kurvenfahrt. In Abbildung 65 ist die Kamera so weit nach rechts geschwenkt, dass im Bild kein Fixpunkt entsteht. Der hier abgebildete Fall zeigt einen Kamerablickwinkel von 90°, wobei sich in diesem Fall alle Punkte im Bild horizontal von links nach rechts bewegen. Fahrtrichtung und Blickrichtung der Kamera sind exakt entgegengesetzt. Dabei ist egal, ob der Wagen konstant horizontal oder konstant eine geneigte Ebene hoch, beziehungsweise runterfährt. Der Fixpunkt entsteht genau in der Mitte des Videos und alle Punkte bewegen sich zum Fixpunkt. Lenkt der Wagen nach links, und blickt die Kamera geradeaus, ergibt sich ein Fixpunkt links der Bildmitte, wobei sich die Punkte nicht linear von ihm wegbewegen. Abbildungen 62-67 Fixpunkt bei Kamerafahrten. Links das Kamerabild, in der Mitte das Fahrzeug in der Seitansicht und rechts in der gedrehten Draufsicht. Fixpunkte treten auch in der Egoperspektive bei 3D-Computerspielen auf. In einigen Fällen wird der Blick des Spielers aktiv auf den Fixpunkt gelenkt, indem vom Fixpunkt weit entfernte Bereiche verschwommen dargestellt werden. Den gleichen Effekt erfahren Personen, die mit hoher Geschwindigkeit Auto fahren. Der Fixpunkt bleibt scharf, die Randbereiche dagegen nicht: Aufgrund der hohen Geschwindigkeit kann das Auge am Bildrand keine Details mehr wahrnehmen. Falls dennoch ein wichtiges Objekt außerhalb des Fixpunktes in Erscheinung tritt, zum Beispiel ein wichtiges Verkehrsschild oder ein Blitzer am Straßenrand, ist eine Kamerafahrt ungeeignet. Damit der Fahrer für diesen Moment das Verkehrsschild genau erkennen kann, muss er seinen Kopf zur Seite neigen. Äquivalent dazu muss die Kamera direkt in Richtung des wichtigen Objektes geschwenkt werden. Kapitel 4 - Zeitlupen und Zeitraffer 76 Regel 6 – Einschränkung für Zeitraffer Zeitrafferaufnahmen sind ungeeignet, wenn der Information dienende Objekte am Wegesrand vorkommen, auch wenn die Fahrtrichtung beibehalten wird. Es gibt eine Möglichkeit auf derartige Informationen gezielt hinzuweisen, indem nicht nur von einem Zeitraffer abgesehen wird, sondern indem das Objekt aktiv im Bildmittelpunkt gehalten wird. Dazu muss die Kamera das Objekt verfolgen und bei der Kamerafahrt einen Schwenk durchführen. 4.2.4.2 Kameraschwenk Bei einem Schwenk, der dem Objekt in seiner Bewegung exakt folgt, sollte der Objektmittelpunkt auch im Mittelpunkt des Videoclips liegen. Erscheint bei der Kamerafahrt ein Objekt nahe dem Fixpunkt, kann der Schwenk direkt vom Fixpunkt auf das Objekt erfolgen. Da sich nun der Fixpunkt vom Objekt wegbewegt und nicht mehr das Objekt vom Fixpunkt, liegt die Aufmerksamkeit sofort auf dem Objekt. Dieses ist nun das Einzige, welches sich im Bild nicht bewegt. Durch die Fahrt der Kamera wird das Objekt zunehmend größer. Damit die Kamera das Objekt nicht so lange verfolgt, bis es bereits hinter dem Wagen ist, muss ein maximaler Schwenkwinkel vorgegeben werden. Sinnvoll ist hier genau der Winkel, welcher sich ergibt, wenn der Fixpunkt der immer noch andauernden Fahrbewegung an den Bildrand stößt. Ab diesem Moment sollte die Kamera das Objekt verschwinden lassen und zurück in die Ausgangsstellung kehren. Diese ist erreicht, sobald die Blickrichtung der Kamera wieder mit der Fahrtrichtung des Wagens übereinstimmt. Regel 7 – Schwenk auf informative Objekte Wenn ein der Information dienendes Objekt am Wegesrand auftritt, muss ein Kameraschwenk so erfolgen, dass das betreffende Objekt im Bildmittelpunkt erscheint. Sobald das Objekt aufgrund der Bewegung den Mittelpunkt verlässt, muss die Kamera zurück in die Ausgangsstellung schwenken. Das im Folgenden abgebildete Beispiel soll diesen Sachverhalt verdeutlichen. Als Objekt wurde ein Verkehrsschild verwendet, welches Angaben über die Entfernungen zu verschiedenen Städten bereitstellt. Kapitel 4 - Zeitlupen und Zeitraffer 77 Abbildung 68 Kameraschwenk auf ein informatives Objekt: Erscheint nahe des Fixpunktes ein informatives Objekt, schwenkt die Kamera auf dieses. Verlässt das Objekt das Bild an einem Bildrand, schwenkt die Kamera zurück in Fahrtrichtung. 4.2.4.3 Kamerarotation um ein Objekt Eine besondere Form der Objektverfolgung ist die Kamerarotation um ein Objekt. Diese ist eine Mischform aus der Kamerafahrt und dem Kameraschwenk. Die Kamera fährt kreisförmig um das Objekt, wobei der Blickwinkel der Kamera zu jedem Zeitpunkt rechtwinklig zur Fahrtrichtung bleibt. Obwohl es im eigentlichen Sinne eine Kamerafahrt ist, verlässt das ruhende Objekt nie das Kamerablickfeld, solange ein Teil des Objek- Abbildungen 69, 70 Kamerarotation um ein Objekt. Obere Skizze tes im Zentrum des Kreises ist. Das Objekt von links: Kamerabild, Seitansicht und gedrehte erscheint dabei besonders ästhetisch, da es Draufsicht des Fahrzeugs. Die blauen Quadrate in sich zwar dreht, sich aber nicht fortbewegt. der unteren Skizze stellen den Hintergrund dar. Der Hintergrund bewegt sich entgegengesetzt der Rotationsrichtung des sich drehenden Objektes. Rotiert die Kamera um das Objekt rechts herum, bewegen sich alle Punkte des Objektes in der Vorderansicht nach rechts (schwarze Pfeile), die Punkte des Hintergrundes bewegen sich jedoch nach links (blaue Pfeile). Eingesetzt werden diese Aufnahmen, wenn ein Objekt besonders hervorgehoben werden soll. Es bleibt zu klären, wie bei einer Rotation um das Objekt aus einem transformierenden ein sich bewegendes Motiv wird. Die Kamera rotiert um das Objekt. Die Rotationsachse verläuft nicht durch das Objekt. Das resultierende Video zeigt, wie sich das Objekt ständig von links nach rechts und von rechts nach links bewegt. Bei dieser Aufnahme entsteht kein Ruhebereich. Abbildung 71 Kamerarotation, bei der die Rotationsachse nicht durch das Objekt verläuft. Kapitel 4 - Zeitlupen und Zeitraffer Verläuft die Rotationsachse durch das Objekt, zeigt das Video kein sich bewegendes, sondern ein transformierendes Objekt. Dabei entsteht mindestens ein Ruhepunkt. Im abgebildeten Fall sind sogar mehrere Ruhepunkte vorhanden, die durch die Begrenzung des Objektes gebildet werden. 78 Abbildung 72 Die Rotationsachse verläuft bei dieser Kamerarotation nicht durch das Objekt. Der Ruhepunkt ist vergleichbar mit dem Fixpunkt bei einer Kamerafahrt. Es gibt jedoch höchstens einen Fixpunkt, dagegen kann es mehrere Ruhepunkte geben. Ein Ruhepunkt verändert seine Position nicht und entsteht genau dort, wo während des gesamten Videoclips eine Objektbegrenzung oder markante Punkte des Objektes ihre Ausgangsposition nicht verlassen. Nach den psychologischen Untersuchungen aus dem dritten Kapitel wird ein sich bewegendes Objekt eher wahrgenommen als ein transformierendes. Ist die Transformation, beziehungsweise die auf dem Video zu erkennende Rotation des Objektes wichtiger als eine Objektbewegung, so muss die Rotationsachse durch das Objekt verlaufen. Regel 8 – Rotation um ein Objekt Rotiert die Kamera um ein festes Objekt, muss die Rotationsachse durch das zu betrachtende Objekt verlaufen. Für die navigierende Wegbeschreibung auf offener Straße ist diese Art der Aufnahme sicher selten von Nutzen. Jedoch bietet sie sich zum Beispiel bei virtuellen Museumsrundgängen an. Erscheint beispielsweise eine Skulptur oder in einer Kirche ein Taufstein, hat der Zuschauer des Videos nun die Möglichkeit, das Objekt von allen Seiten zu betrachten und kann in Gedanken um das Objekt herumgehen. 4.2.5 Zusammenfassung zur Wegbeschreibung Im Text wurden alle wichtigen Regeln zur richtigen Handhabung von Zeitlupe und Zeitraffer bei der Wegbeschreibung erläutert. Zusammenfassend lässt sich feststellen, dass sowohl die Bewegungen des Objektes und der Kamera genau dem entsprechenden Anwendungsfall angepasst werden müssen. Ist die Bewegungskurve von primärem Interesse, so gelten andere Bedingungen als für das Beobachten einer Objekttransformation. Bei den Untersuchungen zur Wegbeschreibung wurde festgestellt, dass in längeren, sich nur wenig verändernden Wegpassagen Zeitraffer zur Anwendung kommen können. In kritischen Bereichen, wie zum Beispiel in Kurven, bei richtungsweisenden Verkehrsschildern oder sonstigen wichtigen Hinweisen, werden Zeitlupen benötigt. Die entstehenden Videoclips dieser zwei Kategorien können in Bezug auf die Sprechdauer der zum Wegabschnitt gehörenden Wegbeschreibung optimiert werden. Neben der Kamerafahrt wurden auch der Kameraschwenk und die Rotation um ein Objekt ausführlich diskutiert. Im Zusammenhang mit der Kamerafahrt ließ sich der Begriff des Fixpunktes in einem Videoclip definieren, wobei dieser bei den praktischen Untersuchungen Kapitel 4 - Zeitlupen und Zeitraffer 79 in Abschnitt 5.2 von großer Bedeutung sein wird. Erscheinen wichtige Objekte, wie zum Beispiel richtungsweisende Verkehrsschilder, muss der Kameraschwenk so erfolgen, dass das wichtige Objekt stets in der Bildmitte ist. Die Grenze des Schwenkwinkels ist genau so groß, dass der nach wie vor existierende Fixpunkt nicht außerhalb des Bildes liegt. Zuletzt wurde noch kurz darauf eingegangen, warum eine Rotationsbewegung um ein Objekt besonders ästhetisch wirken kann. 4.3 Zusammenfassung des vierten Kapitels Im ersten Abschnitt wurden die Begriffe Zeitraffer und Zeitlupe definiert. Während Zeitrafferaufnahmen mit einer handelsüblichen Videokamera oder einer Digitalkamera aufgenommen werden, bedarf es zur Aufnahme von Zeitlupen einer Hochgeschwindigkeitskamera. Diese muss die Bilder schneller aufnehmen können, als sie später wiedergegeben werden. Der Aufnahmeprozess wurde für beide Spezialaufnahmen schematisch dargestellt. Dabei wurde deutlich, dass es ein ineffizientes und ein effizientes Aufnahmeverfahren gibt. Zeitlupen werden angefertigt, damit sehr schnell ablaufende Prozesse für den Menschen besser oder überhaupt sichtbar werden. Zeitraffer geben einen Überblick über sehr lange andauernde Prozesse. Bei beiden Prozessen werden Bewegungen dargestellt, wobei es eine optimale Bewegungsdauer geben muss. Mit Hilfe einer Skizze konnte gezeigt werden, wie in beiden Videoaufnahmen der Prozess zu kurz oder zu lang dargestellt wurde. Die Länge eines Prozesses ist jedoch von Fall zu Fall verschieden, weshalb eine Verallgemeinerung nicht stattfinden konnte. Bei der Visualisierung von Zeitraffern und Zeitlupen ist nicht nur das Darstellen der Bewegung wichtig. Bei einer Kamerafahrt müssen im Video Ruhepunkte oder ein Fixpunkt vorhanden sein, damit ein Betrachter Orientierungspunkte hat. Ruhepunkte können dabei durch den Objektmittelpunkt, die Objektbegrenzung, markante Punkte oder Bereiche im Objekt gegeben sein. Ein Fixpunkt entsteht bei einer Kamerafahrt, bei der sich alle Bildpunkte vom Fixpunkt in Fahrtrichtung wegbewegen und sich in entgegengesetzter Richtung alle Bildpunkte zum Fixpunkt hinbewegen. Dieser Effekt tritt nicht nur bei einer Fahrt, sondern auch bei einem Flug auf. Die Lage des Fixpunktes muss nicht mit der Position des zentralen Punktes der Zentralperspektive übereinstimmen. Besonders wichtig für die Wegbeschreibung im Straßenverkehr sind die Tiefenwahrnehmung und die Mustererkennung vertrauter Objekte. Die Bewegungsparallaxe ist der wichtigste der monokularen Tiefenhinweise, da in jedem Video Bewegungen aufgezeichnet werden. Anhand verschiedener Skizzen wurde gezeigt, dass die Bewegungsparallaxe nicht nur bei einem Blick erkennbar wird, der um 90° von der Fahrtrichtung abweicht. Im Falle einer Rotation um ein Objekt bewirkt die Bewegungsparallaxe sogar, dass sich der Hintergrund schneller bewegt als das rotierende Objekt. Im Bereich des Straßenverkehrs bewegen sich weit entfernte Objekte langsamer als nahe Objekte. Wenn ein nahes Objekt von hoher Bedeutung ist, muss die Kamera so geschwenkt werden, dass sich das Objekt für eine bestimmte Zeit im Bildmittelpunkt befindet. Dabei sollte der Fixpunkt nicht außerhalb des Videobildes liegen. Der typische Bildaufbau von Kameraaufnahmen aus dem Verkehrsbereich wurde über den Bildinhalt erörtert. Dabei stellte sich heraus, dass ein und dieselbe Kameraaufnahme aufgrund unterschiedlicher Gegebenheiten entstanden sein kann. Die wichtigste Erkenntnis Kapitel 4 - Zeitlupen und Zeitraffer 80 lag darin, dass es bei der Entwicklung des Modells für eine Wegbeschreibung irrelevant ist, ob eine Fahrt konstant bergauf oder auf horizontalem Weg stattfindet. Der Fixpunkt, der sich genau in Fahrtrichtung ergibt, ist an derselben Stelle im Bild, solange sich das Auto exakt horizontal oder stetig bergan oder bergab bewegt. Schließlich wurde noch kurz erwähnt, worauf es bei Zeitlupen und Zeitraffern im Allgemeinen ankommt. Entweder liegt der Fokus auf der Objektbewegung oder auf der Objekttransformation. In bestimmten Fällen treten beide Veränderungen kombiniert auf. Im nächsten Abschnitt wurde das Modell zur Wegbeschreibung mit Zeitraffern und Zeitlupen entwickelt. Das entworfene Schema zeigte, bei welchen Wegabschnitten Zeitraffer und in welchen Bereichen Zeitlupen zur Anwendung kommen können. Im Vordergrund stand zunächst ganz allgemein betrachtet, ob eine Objektbewegung oder einer Objekttransformation aufgezeichnet werden soll. Entsprechend dieser Kriterien muss die Kamera fest verankert werden oder sich gleichförmig zum Objekt bewegen. Nun spezialisierten sich die Argumente auf eine Wegbeschreibung im Straßenverkehr. Dazu wurden acht Regeln aufgestellt, wobei diese Regeln zusammenfassend im Anschluss noch einmal abgedruckt werden. Für den Straßenverkehr erwies es sich als vorteilhaft, lange Wegpassagen ohne Richtungsänderung als Zeitraffer darzustellen und Kreuzungsbereiche, bei denen die Fahrtrichtung geändert wird, als Zeitlupe wiederzugegeben. Damit verbunden ist auch die Objektvielfalt. Während bei langer Fahrt ohne Richtungsänderung mögliche Details nicht von Interesse sind, so muss im Kreuzungsbereich der Blick auf viele Details ermöglicht werden. Mit diesen Ergebnissen wurde eine erste Skizze erarbeitet, bei der die unterschiedlichen Aufnahmetypen, Zeitlupe oder Zeitraffer, eine Anwendung fanden. Der Stadtplanausschnitt zeigte, welche Fahrbereiche als Zeitraffer und Zeitlupe dargestellt werden können. Beim Praxiseinsatz wurde deutlich, dass die Länge von Zeitrafferaufnahmen noch nicht ausreichend gut definiert war. Durch geschicktes Teilen der Zeitrafferaufnahme wurde eine Lösung gefunden, die sogar einen weiteren Vorteil bietet. Unwichtige Details während der langen Fahrt ohne Richtungsänderung werden nun aus dem Video herausgeschnitten. Die Videocliplänge basiert nur noch auf der Länge des Tonkommentars, mit welchem die Wegbeschreibung in fest vorgegebener Satzstruktur angesagt wird. Anschließend wurden theoretische Untersuchungen zu Kamerabewegungen angestellt. Daraus ging hervor, dass eine Kamera bei einer Fahrt ein wichtiges Objekt verfolgen muss, damit der Betrachter des Videos den Fokus auf das Objekt lenkt, anstelle auf dem Fixpunkt zu verharren. Anhand mehrerer Skizzen wurde dabei verglichen, wo sich der Fixpunkt bei bestimmten Blickwinkeln der Kamera befindet. Der letzte Abschnitt befasste sich mit der theoretischen Betrachtung des Spezialfalls einer Rotation um ein Objekt. Wichtig für einen Nutzen im entwickelten Modell zur Wegbeschreibung sind vor allen Dingen zwei Kriterien: Erstens sollte die Rotationsachse durch das Objekt verlaufen und zweitens bewegt sich der Hintergrund schneller als das Objekt. Dieser Effekt ist durch die Bewegungsparallaxe begründet. Am Beispiel der Aufnahme des Taufsteins wird dies im nächsten Kapitel besonders deutlich. Die angestellten theoretischen Untersuchungen werden unter Beachtung der Regeln im nächsten Kapitel praktisch getestet. Kapitel 4 - Zeitlupen und Zeitraffer 81 4.3.1 Überblick zu den Regeln Regel 1 – Aufnahmen mit Objekttransformation Liegt der Schwerpunkt der Betrachtung auf der Objekttransformation, ist die Kamera so zu verankern oder zu führen, dass sich der Objektmittelpunkt immer im Bildmittelpunkt befindet. Regel 2 – Aufnahmen mit Objektbewegung Liegt der Schwerpunkt der Betrachtung auf der Objektbewegung, ist die Kamera gegenüber dem Objekt in geeigneter Position, Richtung und Entfernung fest zu verankern. Regel 3 – Wann Zeitlupe und wann Zeitraffer? Die Aufnahmefrequenz kann klein sein, wenn in den Bildern nur wenige Details und zwischen den Bildern geringe Veränderungen vorliegen. Sind die Bilder detailreicher und liegen zwischen den einzelnen Bildern größere Veränderungen vor, ist eine hohe Aufnahmefrequenz erforderlich. Regel 4 – Wegbeschreibung mit Zeitlupen und Zeitraffern Zeitlupen werden in Kreuzungsbereichen eingesetzt, an denen sich die Fahrtrichtung eines Fahrzeugs ändert. Zeitraffer werden von den Fahrstrecken erstellt, bei denen über einen längeren Zeitraum keine Richtungsänderungen auftreten. Regel 5 – Abspielgeschwindigkeit von Zeitraffern Sollte ein Zeitraffer Z maximal nur mit x-facher Geschwindigkeit angezeigt werden, und übersteigt die Dauer des Zeitraffers die gewünschte Dauer t, wird der Zeitraffer mit x-facher Geschwindigkeit in drei Teile Z1, Z2 und Z3 zerlegt. Z1 dauert ½t und Z3 dauert ½t. Z2 wird nicht angezeigt. Z1 und Z3 werden wiedergegeben. Regel 6 – Einschränkung für Zeitraffer Zeitrafferaufnahmen sind ungeeignet, wenn der Information dienende Objekte am Wegesrand vorkommen, auch wenn die Fahrtrichtung beibehalten wird. Regel 7 – Schwenk auf informative Objekte Wenn ein der Information dienendes Objekt am Wegesrand auftritt, muss ein Kameraschwenk so erfolgen, dass das betreffende Objekt im Bildmittelpunkt erscheint. Sobald das Objekt aufgrund der Bewegung den Mittelpunkt verlässt, muss die Kamera zurück in die Ausgangsstellung schwenken. Regel 8 – Rotation um ein Objekt Rotiert die Kamera um ein festes Objekt, muss die Rotationsachse durch das zu betrachtende Objekt verlaufen. Kapitel 5 - Praktische Untersuchungen 83 Kapitel 5 – Praktische Umsetzungen In diesem Kapitel werden praktische Einsatzgebiete für Zeitlupen und Zeitraffer erörtert. Die beschriebenen Anwendungen für Zeitlupen stammen häufig von Firmen, die sich auf die Produktion von Zeitlupen spezialisiert haben, wogegen bei Zeitraffern auch Beispiele untersucht werden, die vom Autor selbst erstellt wurden. Diese beziehen sich vorrangig auf die Wegbeschreibung mit Hilfe der beiden Spezialaufnahmen. Dabei werden die im vierten Kapitel aufgestellten Regeln angewendet und für den Praxiseinsatz modifiziert. Bei der Wegbeschreibung dauert jeder Abbiegevorgang in einem Kreuzungsbereich etwa gleich lange. Es wird zu sehen sein, dass die Länge der Zeitrafferaufnahmen für jeden Wegabschnitt dynamisch angepasst werden muss, da die Fahrtzeit bei einer Fahrt mit ungeänderter Fahrtrichtung sehr unterschiedlich sein kann. Die Praktischen Umsetzungen des Autors erfolgten mit diesen technischen Hilfsmitteln: Sony VX2000 DV-Kamera, Canon XL1 DV-Kamera, Canon Powershot A80 Digitalkamera und in Kombination zur Digitalkamera ein tragbarer Computer mit einem mobile AMD Athlon XP-M 2800+ Prozessor und einer Taktfrequenz von 1.45 Gigahertz, 512 Megabyte Arbeitsspeicher und einer Festplatte mit 60 Gigabyte Speicherkapazität. Die Videodaten wurden per Firewire auf den Computer überspielt und dort bearbeitet. Der Laptop besaß drei USB 2.0-Schnittstellen. Da die Digitalkamera jedoch nur USB 1.1 unterstützte, wurde die Übertragungsgeschwindigkeit durch den Computer nicht gebremst. Abbildungen 73-75 Der Autor erstellte die praktischen Arbeiten mit einer Sony VX2000 DV-Kamera (oben), einer Canon XL1 DV-Kamera (mitte) und einer Canon Powershot A80 Digitalkamera (unten). 5.1 Einsatzgebiete von Zeitlupen und Zeitraffern Zeitlupen sind für die Forschung von hoher Bedeutung, da durch sie sehr schnell ablaufende Bewegungen zeitlich stark verlängert werden können, sodass das menschliche Auge diese beobachten und untersuchen kann. Die Anwendung von Zeitlupenaufnahmen erfolgt jedoch nicht nur für wissenschaftliche Zwecke, sondern auch für die Werbeindustrie. Spezialaufnahmen mit wissenschaftlichem Hintergrund werden hier vorrangig untersucht und dafür in verschiedene Anwendungsgebiete unterteilt. Kapitel 5 - Praktische Untersuchungen 84 5.1.1 Zeitlupen mit wissenschaftlichem Hintergrund Die für wissenschaftliche Zwecke erstellten Zeitlupen erstrecken sich über viele Anwendungsgebiete, wie zum Beispiel: Verkehrssicherheit, Ballistik, Materialtechnik, Elektrotechnik und die Biologie. Die Zeitlupen dienen dabei vorwiegend dem Sichtbarmachen von schnell ablaufenden Prozessen, die mit bloßem Auge nicht mehr wahrgenommen werden können. 5.1.1.1 Verkehrssicherheit Das Hauptziel bei der Verkehrssicherheit besteht darin, Fahrzeuge sicherer zu bauen, sodass bei einem Unfall das Leben des Fahrers und gegebenenfalls weiterer Insassen weitestgehend geschützt wird. Zeitlupenstudien werden hierfür angefertigt, um verschiedene Unfallsituationen analysieren zu können. Dabei sind verschiedene Faktoren besonders wichtig. Als Fahrer werden Crash-Test-Dummys eingesetzt, an denen Messgeräte das Verhalten bei einem Test messen. Der Crash-TestDummy ist eine Puppe, die in ihren Ausmaßen, dem Gewicht und der Bewegungsfreiheit einem Menschen entspricht. Oft erhält er alltägliche Kleidung, damit die Versuche möglichst realitätsnah sind. Die Gelenke eines Crash-Test-Dummys können nicht anders gedreht oder gedehnt werden, als sie beim durchschnittlichen Menschen bewegt werden könnten. Die Zeitlupenaufnahme soll Aufschluss darüber geben, wie, wo und wodurch der Crash-Test-Dummy verletzt wird, beziehungsweise wie diese Verletzungen künftig vermieden werden können. Abbildung 76 Zwei Crash-Test-Dummys werden für einen Sicherheitstest in Position gebracht. Ein weiteres Augenmerk liegt auf der Verformung des Fahrzeugs. Damit sich beispielsweise bei einem Aufprall die Karosserie eines Autos vorwiegend in der Knautschzone verformt, werden die Front-, Seiten- und Heckpartien entsprechend so konstruiert, dass die Fahrgastzelle weitestgehend ihre Form beibehält. Die Analyse der Filmaufnahmen ist dabei auf das ganze Fahrzeug, beziehungsweise auf die Verformung ganz bestimmter Teile gerichtet. Ebenso kann mit Zeitlupenaufnahmen in der Verkehrstechnik überprüft werden, ob die Technik des Autos funktioniert. Wenn das Fahrzeug über Airbags verfügt, soll der Fahrerairbag bei einem frontalen Zusammenstoß den Aufprall des Fahrers auf das Lenkrad verhindern oder dämpfen. Dieser Schutz ist aber nur dann wirksam, wenn sich der Airbag bei einem Unfall schnell genug öffnet. Nach [Hug 2006] benötigt ein Airbag ungefähr 50 Millisekunden zum Entscheiden, ob er sich öffnet, zum Zünden der Sprengkapsel und schließlich zum Aufblasen. Für eine genaue Analyse dieses Vorgangs kann die Zeitlupenaufnahme von hoher Bedeutung sein. Kapitel 5 - Praktische Untersuchungen 85 Abbildungen 77-79 Diese Zeitlupenstudien sind Beispiele für Unfallanalysen zur Erhöhung der Verkehrssicherheit. Dabei werden vorrangig zwei Aspekte untersucht. Ein Schwerpunkt liegt beim Material, wie es sich verformt, oder ob es sogar bricht, und wie es zersplittert. Das Hauptziel ist, den Fahrer vor Verletzungen zu schützen. Dazu werden häufig Crash-Test-Dummys eingesetzt, die den zweiten Kern solcher Untersuchungen bilden. Anhand der Messdaten wird überprüft, ob sich ein Mensch in dieser Situation verletzt hätte. Links: Motorradunfall im Kreuzungsbereich: Durch ein [Weinberger Vision 2006] Video kann aufgeklärt werden, wodurch es in diesem Fall zum Hüftbruch kam und wie wichtig das Tragen eines Motorradschutzhelmes ist. Mitte: Gurt-Test bei einem Auffahrunfall: Im zweiten Video von [Weinberger Vision 2006] wird untersucht, wie stark der Gurt eines Autositzes nachgeben darf, damit der Kopf des Fahrers nicht auf das Lenkrad schlägt. Rechts: Frontalkollision eines Formel 1 Autos: Das [Photron 2006] Video zeigt, dass die Fahrerzelle erhalten bleibt, obwohl der Rennwagen frontal in eine Betonmauer fährt. Kapitel 5 - Praktische Untersuchungen 86 Abbildungen 80 Am 18. Januar 2005 wurde der Airbus A380 erstmals der Öffentlichkeit vorgestellt. Das Zweite Deutsche Fernsehen [ZDF 2006] berichtete über Crashund Materialtest am Airbus A380. Nach Christoph Schremp ist das Hauptanliegen bei den Crashtests die Sicherheit der Passagiere an Bord. Bei einer Bruchlandung entstehen große Kräfte, sodass die Passagiere in ihren Sitzen nach vorn geschleudert werden. Dabei dürfen die Passagiere ihr Bewusstsein nicht verlieren, damit sie sich nach dem Unfall selbst noch aus den Sitzen befreien und das Flugzeug verlassen können. Insbesondere wird mit Hilfe von Crash-Test-Dummys untersucht, wo der Kopf auf den Vordersitz aufschlägt. Untersuchungen ergaben, dass ein Aufprall auf den ausklappbaren Tisch besonders gefährlich ist, wohingegen der im Vordersitz integrierte Monitor einen guten Schutz bietet. Die Materialtests beziehen sich dabei nicht nur auf Gegenstände im Flugzeug. Peter Bösch leitete die Überprüfung der Tragflächen, bei der getestet wurde, ob diese durchschnittlichen und extremen Belastungen standhalten. Bei normalem Flugbetrieb kann die Belastung auf die Tragflächen so hoch sein, dass die Tragflächenspitze um vier Meter nach oben gebogen wird. Ein anderer extremer Härtetest bei der Firma Boeing in Toulouse (Frankreich) in den neunziger Jahren zeigte, dass der untersuchte Flügel brach, sobald die Flügelspitze etwa acht Meter nach oben gebogen wurde. Obwohl dieser Fall im späteren Flugbetrieb niemals eintreten sollte, geben Zeitlupenaufnahmen großen Aufschluss darüber, wie der Flügel bricht, und wo sich die Schwachstellen des Flügels befinden. Um diesen kritischen Punkt zu vermeiden, werden bei derartigen Tests auftretende Rissbildungen mit Kameras aufgezeichnet und genau untersucht. Abbildung 81 In einem Dokumentarfilm zur Flugsicherheit werden die Sitze und Flügel verschiedener Flugzeuge getestet. Kapitel 5 - Praktische Untersuchungen 87 5.1.1.2 Ballistik Nach Richard Emil Kutterer in [Schardin 1938] ist die Ballistik (griechisch: werfen) „Die Lehre von den geworfenen Körpern“. Es ist ein Teilbereich der Physik und beschreibt die Vorgänge, die einen sich durch den Raum bewegenden Körper betreffen. Als Vater der Ballistik gilt der Italiener Niccolò Tartaglia. Er entdeckte die Wurfparabel und erkannte die Möglichkeit, die Bewegungen von geworfenen Körpern in ihre Einzelkomponenten zu zerlegen und damit zu berechnen. Insbesondere werden in der Ballistik die Vorgänge beschrieben, die aus einer Waffe verschossene Projektile betreffen. Hierbei werden folgende Unterbereiche angesprochen: - Innenballistik: Vorgänge im Lauf einer Waffe beim Abschuss eines Projektils Abgangsballistik: Vorgänge an der Laufmündung einer Waffe beim Schuss Außenballistik: Vorgänge während des Fluges am verschossenen Projektil Zielballistik: Wirkung des Projektils im Ziel Raketenballistik: Wirkung des Projektils im Ziel Von einer ballistischen Rakete spricht man, wenn diese im Unterschied zum aerodynamischen Flug eine ballistische Kurve fliegt, welche bei gegebener Menge an Treibstoff theoretisch und praktisch die höchste Reichweite ergibt. Hierbei wird die Rakete nur in der Abschussphase beschleunigt und fliegt dann im Allgemeinen ohne Antrieb wie ein Geschoss weiter, jedoch nicht zwingend ungesteuert. Bei Versuchen, die insbesondere militärischen Zwecken dienen sollen, werden zum Beispiel Pistolen beim Abschuss eines Projektils gefilmt, um hauptsächlich Kenntnis über vier Dinge zu erhalten: Erstens wird untersucht, ob das Projektil den Lauf ordnungsgemäß verlässt und zweitens, ob die zurückbleibende Hülse effizient aus der Pistole geworfen wird. Eine Aufnahme der dritten Phase, der Flugphase, gestaltet sich häufig sehr schwierig, da die abgeschossenen Projektile große Entfernungen zurücklegen können. Von großer Bedeutung ist schließlich die vierte Phase, bei der das Projektil in das Ziel einschlägt. Hierbei wird meistens untersucht, ob das Material dem Geschoss standhält. Analysen werden beispielsweise im Bereich der Entwicklung von Sicherheitsglas, kugelsicheren Westen oder Fahrzeugen durchgeführt. Die Abbildungen auf der folgenden Seite visualisieren vier Beispiele. Das erste ist aus dem Bereich der Innenballistik und zeigt das Feuern einer Pistole. Damit der nächste Schuss schnell nach dem ersten erfolgen kann, muss unter anderem die Hülse rapide und effizient aus dem Lauf der Pistole fliegen. Die Aufnahme stammt von [Weinberger Vision 2006], ebenso wie die nächste. Bei ihr wurde der Videoclip, der das Austreten des Projektils aus der Pistole zeigt, mit 10.000 Bildern pro Sekunde aufgenommen. Die letzten beiden Beispiele wurden von Kameras der Firma [Photron 2006] aufgezeichnet. Beim dritten Beispiel wird die Zielballistik am Einschlag eines Projektils in einen Eisblock überprüft. Diese Aufnahme erfolgte bei einer Auflösung von 768 x 656 Pixel und einer Belichtungszeit von 25 Mikrosekunden mit 6.000 Einzelbildern pro Sekunde. Der vierte Clip, aus dem Bereich der Raketenballistik, zeigt den Abschuss einer Rakete vom Typ Dragon. Bereits bei 3.000 Bildern pro Sekunde, einer Belichtungszeit von 300 Mikrosekunden und der Auflösung von 1.024 x 1.024 Pixel wird gut ersichtlich, dass sich die drei Flügel unmittelbar nach dem Abfeuern korrekt ausgeklappt haben. Kapitel 5 - Praktische Untersuchungen 88 Abbildungen 82-85 Die Zeitlupenaufnahmen verdeutlichen den Auswurf einer Patronenhülse beim Abfeuern aus einer Pistole, den Abschuss eines Projektils aus einer Pistole, den Einschlag einer Kugel in einen Eisblock und den Abschuss einer ballistischen Rakete vom Typ Dragon. Kapitel 5 - Praktische Untersuchungen 89 5.1.1.3 Materialtechnik In der Materialtechnik wird vorrangig das Verhalten von Stoffen unter extremen Belastungen analysiert. Ähnlich dem Brechen des Flügels bei Untersuchungen zur Flugsicherheit ist häufig von hoher Bedeutung, wann, wo und wie das Material reißt, zerbricht oder zersplittert. Jedoch werden nicht nur Zeitlupenstudien von festen Körpern analysiert, sondern auch von Flüssigkeiten oder Gasen. Nach der Durchführung mehrerer Versuchsreihen kann ermittelt werden, welche Materialzusammensetzung die stabilste war. Nach [Krankenhagen, Laube 1983] umfasst die Werkstoffprüfung verschiedenste Prüfverfahren, mit denen das Verhalten und die Werkstoffkenngrößen von normierten Werkstoffproben oder fertigen Bauteilen unter mechanischen, thermischen oder chemischen Beanspruchungen ermittelt werden. Ein Werkstoff wird dabei hinsichtlich seiner Reinheit, Fehlerfreiheit oder Belastbarkeit überprüft. Nach der Art werden die gängigen Prüfverfahren in zwei Hauptbereiche aufgeteilt: zerstörende und zerstörungsfreie Werkstoffprüfungen. Im ersten Beispiel wird eine Werkstoffprobe aus Metall auseinandergezogen, bis das Werkstück reißt. Bei dem Experiment wurde untersucht, ob das Prüfstück gleichmäßig gefertigt wurde. In diesem Fall hat sich das Metall gedehnt und ist anschließend in der Mitte gerissen. Nach der Aufzeichnung des Experimentes mit einer Kamera von [Weinberger Vision 2006] bei einer Bildrate von 4.000 Bildern pro Sekunde lässt sich gut nachvollziehen, nach welcher Zeit sich im Werkstück an einer bestimmten Stelle eine Einschnürung ausbildet und schließlich genau an dieser Stelle reißt. [Photron 2006] wies bei einem anderen Test mit Hilfe der Kamera Fastcam X 1024 PCI 100KC nach, wie ein Schaufenster aus Sicherheitsglas einer gezündeten Sprengladung standhält. Dabei soll durch eine besondere Bauweise verhindert werden, dass das Material, hier das Glas, bricht oder zersplittert. Der Test war erfolgreich, sodass in dem Videoclip außer einer Explosion hinter der Glasscheibe nichts zu sehen ist. Daher wurde diese Aufnahme hier nicht abgedruckt. Dieser und alle anderen Videoclips befinden sich jedoch auf der zur Diplomarbeit gehörenden DVD im Anhang E. Ein anderes Beispiel zeigt einen Pfeil, der sich durch eine gewöhnliche Glasscheibe bohrt. In der Zeitlupe wird gut ersichtlich, dass die Scheibe beim Auftreffen der Pfeilspitze zunächst nur springt, jedoch noch nicht zersplittert. Erst durch die Trägheit des Geschosses kann das Glas einen Durchbruch des Pfeils nicht mehr verhindern. Der wissenschaftliche Nutzen der letzten beiden Beispiele ist eher begrenzt. Es wird ein mit Wasser gefüllter Luftballon zum Platzen gebracht. Dabei wird er mit einer Photron Fastcam Ultima APX 120 KC bei einer Bildrate von 4.000 Bildern pro Sekunde und einer Auflösung von 1.024 x 512 Pixel gefilmt. Es wird deutlich, wie schnell sich der Gummi des Luftballons zusammenzieht, verglichen mit der Zeitdauer, bis das Wasser die Form des Luftballons verliert. Das letzte Beispiel verdeutlicht das Zünden des Gases eines Feuerzeugs. Die Firma [Weinberger Vision 2006] erzielte beeindruckende Bilder, wie die Funken des Feuersteins das entweichende Gas entzünden. Erst mit Hilfe dieser Zeitlupenaufnahmen wird ersichtlich, wie sich die Flamme aufbaut, bevor sie ruhig und gleichmäßig brennt. Kapitel 5 - Praktische Untersuchungen 90 Abbildungen 86-89 Eine Werkstoffprobe zerreißt an der Stelle der Einschnürung. Das zweite Beispiel zeigt, wie sich ein Pfeil durch eine Glasscheibe bohrt. Wie ein mit Wasser gefüllter Luftballon platzt und wie sich die Flamme eines Feuerzeugs entzündet, geht aus den letzten beiden Beispielen hervor. Kapitel 5 - Praktische Untersuchungen 91 5.1.1.4 Elektrotechnik In der Elektrotechnik wird hauptsächlich im Kerngebiet des Schweißens untersucht, ob dieser Prozess ordnungsgemäß abläuft. Unter Schweißen wird gemäß DIN 1910-1 das unlösbare Verbinden von Bauteilen unter Anwendung von Wärme oder Druck, mit oder ohne Schweißzusatzwerkstoffen, verstanden. Neben sehr vielen unterschiedlichen Methoden des Schweißens konzentrieren sich die folgenden Darstellungen auf das Schutzgasschweißen (SG) nach DIN ISO 857-1:2002-11 und hier speziell auf das Wolfram-Inertgasschweißverfahren (WIG). Nach [Dilthey, Brandenburg 2001] stammt das WIG-Schweißverfahren aus den USA und wurde dort 1936 unter dem Namen Argonarc-Schweißen bekannt. Das Verfahren zeichnet sich gegenüber anderen Schmelzschweißverfahren durch eine Reihe von Vorteilen aus. Es ist zum Beispiel universell anwendbar. Wenn ein metallischer Werkstoff überhaupt schmelzschweißgeeignet ist, dann lässt er sich mit diesem Verfahren fügen. Weiterhin ist es ein sehr sauberes Verfahren, das kaum Spritzer und nur wenig Schadstoffe erzeugt und bei richtiger Anwendung eine qualitativ hochwertige Schweißverbindung gewährleistet. Ein besonderer Vorteil des WIG-Schweißens ist, dass gegenüber anderen Verfahren, die mit abschmelzender Elektrode arbeiten, die Zugabe von Schweißzusatz und die Stromstärke entkoppelt sind. Der Schweißer kann deshalb seinen Strom optimal auf die Schweißaufgabe abstimmen und nur so viel Schweißzusatz zugeben, wie gerade erforderlich ist. Dies macht das Verfahren besonders geeignet zum Schweißen von Wurzellagen und zum Schweißen in Zwangslagen. Die genannten Vorteile haben dazu geführt, dass sich das Verfahren besonders gut für Schweißungen von Luft- und Raumfahrtgeräten, Bauteile der Kerntechnik sowie für den chemischen Anlagen- und Apparatebau eignet. Bei der WIG-Schweißung wird zwischen dem Gleichstrom- und dem Wechselstromschweißen unterschieden. Das Gleichstromschweißen wird vorwiegend zum Schweißen von legierten Stählen, NE-Metallen und deren Legierungen eingesetzt. Die Wolframelektrode liegt dabei auf dem Minuspol. Die Anwendung des Wechselstromschweißens erfolgt meist beim Schweißen von Leichtmetallen. Eine Weiterentwicklung des WIG-Schweißens ist das Schweißen mit pulsierendem Strom. Dabei pulsiert der Schweißstrom zwischen einem Grund- und Impulsstrom mit variablen Frequenzen. Die fein dosierbare Wärmeeinbringung beim WIG-Impulsschweißen ermöglicht eine gute Spaltüberbrückung und eine gute Wurzelschweißung. Schweißnahtfehler am Nahtanfang und Nahtende werden vermieden. Beim Rohrschweißen ist das zum Beispiel von großer Bedeutung. Mit Hilfe der Zeitlupenstudien kann nun überprüft werden, ob eine nach diesem Verfahren erzeugte Schweißnaht gleichmäßig und ohne Störstellen hergestellt wird. [Photron 2006] erstellte die linke Aufnahme mit einer Photron Fastcam Ultima APX RS 250K und einer Auflösung von 1.024 x 512 Pixel, 3.000 Bilder pro Sekunde und einer Belichtungszeit von 100 Mikrosekunden. Die rechte Studie wurde mit einer Hochgeschwindigkeitskamera von [Weiberger Vision 2006] angefertigt. Kapitel 5 - Praktische Untersuchungen 92 Abbildungen 90, 91 Impulsschweißen Die Schweißanlage besteht aus einer Stromquelle, die in den meisten Fällen auf Gleich- oder Wechselstrom geschaltet werden kann, und einem Schweißbrenner, der mit der Stromquelle durch ein Schlauchpaket verbunden ist. Im Schlauchpaket befinden sich die Schweißstromleitung, die Schutzgaszuführung, die Steuerleitung und bei größeren Brennern der Zu- und Rücklauf des Kühlwassers. Es gibt zwei Arten, den Lichtbogen zu zünden, die Kontakt- und die Hochfrequenzzündung. Bei der hier dargestellten Hochfrequenzzündung wird mit Hilfe eines Hochfrequenzzünders, der eine extrem hohe Spannung auf die Wolframelektrode gibt, das Gas zwischen Elektrode und Werkstück ionisiert, wodurch der Lichtbogen gezündet wird. Dieser Vorgang wird je nach Bedarf wiederholt, wobei der Lichtbogen durch weitere Impulse gezündet wird. Bei dieser Methode des Schweißens können Temperaturen bis zu 4.000 °C entstehen. Kapitel 5 - Praktische Untersuchungen 93 5.1.1.5 Biologie Beispiele für Zeitlupenstudien aus dem Bereich der Biologie gibt es sehr viele. Dabei ist für den Menschen häufig nicht nur interessant, wie sich Tiere oder Pflanzen verhalten, sondern ob sie darin versteckte Prinzipien auf anderen Gebieten anwenden können. Bereits [Lilienthal 1889] erkannte, dass es für den Bau von Ornithoptern sinnvoll erscheint, Vögel beim Fliegen zu analysieren, um einen hohen Wirkungsgrad dieser Flugmaschinen zu erzielen. Ein Ornithopter (im altgriechischen: Vogelflügel) ist ein Schwingflügelflugzeug, das Auftrieb und Vortrieb durch Bewegung der Tragflächen erzeugt. Auch Abbildung 92 [Bradshaw 2006] berichtete, dass Edward Das Foto von [Bradshaw 2006] zeigt Eadward Frost aus Cambridgeshire, England, 1902 Frost in seinem Ornithopter. einen Ornithopter aus Weidegras, Seide und Vogelfedern konstruierte. Die erste Studie zur Bewegung eines Pferdes führte Eadweard Muybridge bereits im Jahr 1878 durch, vergleiche [Fröde 2005, Seite 29]. Die damit praktisch erste Zeitlupe der Welt wurde angefertigt, um zu zeigen, dass ein galoppierendes Pferd zu einem bestimmten Zeitpunkt alle Beine in der Luft hat. Das erste Beispiel zeigt eine ähnliche Aufnahme von [Science Media 2006] und dient der Optimierung der Absprungtechnik von Pferd und Reiter beim Springreiten. Jedoch werden Zeitlupenstudien nicht nur angefertigt, damit sich der Mensch schnell ablaufende Prozesse ansehen und für eigene Anwendungen zu Nutze machen kann, sondern auch um diese überhaupt zu verstehen. Um nachvollziehen zu können, wie ein Chamäleon seine Beute fängt, hilft diese zweite Aufnahmefolge von Science Media. [Dost 2007] beschrieb, dass Chamäleons über eine lange Schleuderzunge verfügen, mit der sie auch über größere Entfernungen ihre Beute erjagen können. Die Länge der Zunge entspricht meistens in etwa der Körperlänge des Tieres. Das dritte Beispiel zeigt einen Schlangenbiss. Mit Hilfe einer Aufnahme der Photron Fastcam Ultima 1024 16KC, 1.000 Bildern pro Sekunde und einer Belichtungszeit von einer Millisekunde wird der Schutzmechanismus einer Giftschlange deutlich. Nach Meyers Neuem Lexikon [MNL 1973] liegt die Schlange zunächst fast regungslos am Boden. Kommt das Opfer der Schlange zu nahe, schleudert sie ihren Körper in Richtung Gefahr, reißt ihr Maul auf und injiziert ihrem Opfer das Gift durch die hohlen Giftzähne. Das letzte Beispiel zeigt einen Spatz, der nach kurzem freien Fall von einem Dach mit dem Flügelschlag beginnt. Bemerkenswert ist hier der Einsatz der Schwanzfedern, die sich ständig spreizen und wieder schließen. Diese Zeitlupenstudie wurde von der Firma Weinberger Vision aufgezeichnet. Kapitel 5 - Praktische Untersuchungen 94 Abbildungen 93-96 Ein Pferd kann weiter und höher über eine Hürde springen, wenn sich der Reiter in seinen Bewegungen dem Pferd anpasst. Die anderen Aufnahmen zeigen ein Chamäleon beim Beutefang, einen Schlangenbiss und den Beginn der Flugphase eines Spatzes. Kapitel 5 - Praktische Untersuchungen 95 5.1.1.6 Maschinelle Verarbeitung Bei der maschinellen Verarbeitung werden mit Hilfe von Zeitlupenaufnahmen Untersuchungen angestellt, ob sehr schnell arbeitende Maschinen korrekt funktionieren. Im Laufe der Industrialisierung mussten Maschinen immer schneller arbeiten, damit bestehende Firmen konkurrenzfähig blieben. Der Mensch als Arbeitskraft wurde immer teurer, sodass zunehmend eine Automatisierung der Vorgänge stattfand. Zusätzlich sollte die Produktivität gesteigert werden. Es wurden Maschinen gebaut, die bisher von Hand ausgeübte Tätigkeiten um ein Vielfaches schneller ausführen konnten. Das [Presseportal 2006] berichtete, dass am 19.04.2005 um 11:00 Uhr in Zürich (Frauenfeld) die modernste und leistungsfähigste PET-Flaschen-Sortieranlage Europas eingeweiht wurde. Pro Stunde verarbeitet sie bis zu 140.000 Getränkeflaschen, also fast 39 Flaschen pro Sekunde. Dabei wird schnell ersichtlich, dass maschinelle Prozesse mittlerweile so schnell ablaufen, dass sie durch die menschliche Wahrnehmung nicht mehr erfasst werden können. Mit Hilfe der Zeitlupenstudien ist es möglich, fehlerhaft ablaufende Prozesse zu erkennen und zu korrigieren. Das erste Beispiel zeigt die Herstellung von Teebeuteln. Im letzten Schritt wird der Bindfaden mit dem Papier verknotet. Die Maschine schafft zirka 33 Knoten pro Sekunde. Ein Mensch erkennt bei dieser Geschwindigkeit praktisch keine Details, die jedoch gut mit Hilfe eine Zeitlupenstudie sichtbar werden. [Weinberger Vision 2006] zeichnete diesen Vorgang mit 10.000 Bildern pro Sekunde auf. Bei einer anderen Aufnahme mit Abbildung 97 Die Bindfäden an Teebeuteln werden oft mit Meeiner Photron Fastcam-X 1024 PCI 100KC tallklammern befestigt. Traditionell hält der Faden und 10.000 Bildern pro Sekunde wird deut- jedoch ohne weitere Hilfsmittel am Papierschild. lich, wie zwei Bindfäden maschinell miteinander verknotet werden. Ein Knoten wird dabei in 30 Millisekunden gezogen. Auch diese Zeitlupe dient der Kontrolle, ob die Mechanik ordnungsgemäß funktioniert. Das dritte Beispiel zeigt einen Ausschnitt der Produktionskette von Faltschachteln. Ein Saugnapf transportiert die Faltschachteln von einer Verarbeitungseinheit an eine andere. Nach [Biedermann, Cromme 2006] können Faltschachteln mit Geschwindigkeiten von fünf bis einhundert Schachteln pro Sekunde hergestellt werden. Bei den in der Luft- und Raumfahrt eingesetzten Spaceshuttles zählen der Startvorgang und der Landevorgang zu den kritischsten Phasen. Nach [Grodde 2004] steht das Shuttle mit dem Tank und den beiden Feststoffraketen mit einem Gesamtgewicht von zirka 2.000 Tonnen senkrecht auf der Startrampe. Das Flugobjekt wird von einem Greifarm gehalten, damit es nicht durch Wettererscheinungen kippen kann. Dieser muss jedoch unmittelbar beim Abheben vom Raumschiff gelöst werden, wobei dieser Vorgang aus zwei Schritten besteht. Erstens entfernt sich der Greifarm und zweitens muss sich die Luke am Raumschiff schließen, damit dieses für den Flug eine aerodynamische Form besitzt. Im letzten Beispiel ist gut zu sehen, dass beide Vorgänge erfolgreich verliefen. Zeitlupen werden jedoch nicht nur mit einem wissenschaftlichem Hintergrund und einem unmittelbarem Nutzen in der Wirtschaft erstellt. Der nächste Abschnitt zeigt zwei Beispiele aus der Werbe- und Filmindustrie, wo Zeitlupen eine bedeutende Rolle spielen. Kapitel 5 - Praktische Untersuchungen 96 Abbildungen 98-101 Der Bindfaden wird mit dem Papierschild des Teebeutels verbunden. Beispiel zwei zeigt eine maschinelle Erstellung eines Knotens. Der Transport einer Faltschachtel erfolgt durch einen Saugnapf. Bei einem Raketenstart muss der Greifarm rechtzeitig entfernt und die Luke geschlossen werden. Kapitel 5 - Praktische Untersuchungen 97 5.1.2 Zeitlupen ohne wissenschaftlichen Hintergrund Zeitlupenstudien ohne wissenschaftlichen Hintergrund sind solche, aus denen unmittelbar und direkt kein Nutzen gezogen wird. Sie werden in der Werbung und in Spielfilmen als Spezialeffekte eingesetzt, weil es in den meisten Fällen einfach gut aussieht und besonders ästhetisch wirkt. Ohne zu sehr in die Tiefe zu gehen, werden an dieser Stelle nur zwei Beispiele genannt. Beim ersten Beispiel handelt es sich um einen Werbespot für [Adidas 2005], der am 11.11.2005 veröffentlicht wurde. Die Zeitlupenaufnahmen des Werbespots zur Fußball Weltmeisterschaft 2006 sind mit einer Cine SpeedCam von Weinberger Vision mit 1.000 Bildern pro Sekunde entstanden. Der 60 Sekunden lange Werbeclip konnte im Kino und im deutschen Fernsehen betrachtet werden. Die Kampagne sollte ausdrücken, was das Individuum für das Team leisten kann, und was das Team den einzelnen Individuen bieten kann. Der Spot wurde im High Definition Format produziert. In der Nachproduktion wurden die Zeitlupenaufnahmen mit den Aufnahmen der High Definition Kamera kombiniert. Das Resultat zeigte unter anderem, wie zum Beispiel ein Spieler in Zeitlupe einen Fallrückzieher durchführt, während er in Echtzeit in die Kamera spricht. Ein anderes Beispiel kommt aus der Filmbranche von den Gebrüdern [Wachowski 1999]. Der im Film The Matrix verwendete Bullet-Time-Effect stellt eine besondere Form der Zeitlupe dar. Bisher wurden Zeitlupen häufig erstellt, indem eine Hochgeschwindigkeitskamera die Bilder schneller aufnahm, als sie danach abgespielt werden. Bei diesem Spezialeffekt werden anstelle einer Kamera mehrere Kameras eingesetzt. In dem speziell für diesen Film entwickelten runden Raum befanden sich zwei Hochgeschwindigkeitskameras und 120 Kameras, die in einer Kreisbahn angeordnet wurden. Die Hochgeschwindigkeitskameras waren zu jeder Zeit in der Lage, Zeitlupenaufnahmen zu erstellen. Die anderen 120 Kameras wurden durch einen Computer entweder zeitgleich oder nach einem äußerst kurzen Zeitintervall aktiviert. Löste der Computer die Kameras gleichzeitig aus, so entstand eine Form der extremen Zeitlupe. Für einen ganz bestimmten Zeitpunkt war es nun möglich, das gefilmte Objekt von allen Seiten zu betrachten. Beim Auslösen der Kameras musste lediglich darauf geachtet werden, dass Kamera n+1 weniger als ein Fünfundzwanzigstel Sekunden nach Kamera n ausgelöst wurde. Wird eine Zeitlupe mit den gegebenen 120 Kameras erstellt, so entsteht ein Videoclip mit 120 Einzelbildern. In der Originalversion des Filmes werden die Bilder mit einer Geschwindigkeit von 30 Bildern pro Sekunde abgespielt. Damit hat der Videoclip eine Länge von vier Sekunden. Um den Genuss der Zeitlupe noch etwas zu verlängern, wurden weitere Zwischenbilder mit einem Computer berechnet. Die aus dem Making Of von [Oreck, Matthies 1999] entnommenen Bilder visualisieren den Aufbau des Raumes und geben einen Einblick in die computertechnischen Möglichkeiten mit diesen Aufnahmen. Die ersten drei Bilder geben einen Überblick zum Aufnahmeort. Die folgenden Abbildungen zeigen den Hauptdarsteller Keanu Reeves in einer Fallbewegung im Studio, in einer Computergrafik zur Vorbereitung eines Videoclips, als Computermodell, als Schauspieler mit einem einfarbig grünem Hintergrund, eingebettet in eine computergenerierte Landschaft als Drahtgittermodell und schließlich in der Szene, wie sie im Film zu sehen ist. Kapitel 5 - Praktische Untersuchungen 98 Abbildungen 102-103 Die hier abgebildeten Zeitlupenaufnahmen sind aus der Werbeund Filmindustrie. Links: Diese Adidas Werbung wurde zur Fußball WM 2006 im deutschen Fernsehen ausgestrahlt. Während der Spieler bei einem Fallrückzieher in Zeitlupe zu sehen ist, spricht er in Echtzeit in die Kamera. Rechts: Aufbau des Bullet-TimeEffects aus dem Film The Matrix. 120 Kameras sind auf einer Kreisbahn angeordnet. Diese werden in einem Bruchteil einer Sekunde ausgelöst, sodass der Betrachter in Zeitlupe um den Hauptdarsteller fliegt. Kombiniert werden diese Aufnahmen mit einer computergenerierten Welt. Diese Technik wurde in dieser Form 1999 von den WachowskiBrüdern das erste Mal umgesetzt. Seitdem gehört dieser Spezialeffekt in Hollywood zum Standard. Kapitel 5 - Praktische Untersuchungen 99 5.1.3 Zeitraffer mit wissenschaftlichem Hintergrund Zeitraffer dienen weniger der Untersuchung, sondern vielmehr der Visualisierung von sehr langsam ablaufenden Prozessen. Ein wissenschaftlicher Nutzen ergibt sich nur dann, wenn der Forscher aufgrund der Dauer des Prozesses nicht in der Lage ist, ihn vollständig in Echtzeit zu überwachen. In einem solchen Fall wird die Aufnahme des Prozesses automatisiert. Der Wissenschaftler hat nach entsprechender Zeit oder nach Ablaufen des Prozesses die Möglichkeit, das Geschehen im Schnelldurchlauf zu betrachten. Ist im Vorfeld bereits abschätzbar, wie lange der Prozess andauern wird, so kann das Aufnahmeintervall genau bestimmt werden. Eine andere Methode besteht darin, dass ein festes Intervall vorgegeben wird, und ein Versuch mit ungewissem Ausgang aufgenommen wird. Es ist also schwierig vorherzusehen, ob die unter Umständen sehr lange andauernde Aufnahme zum gewünschten Erfolg führt. Dennoch können derartige Aufnahmen eine gute Zusammenfassung sein und geben dem Betrachter eine Übersicht über das Ganze. Einige Beispiele sollen dies verdeutlichen. [Wiesner 1881] untersuchte das Bewegungsvermögen von Pflanzen. Interessant dabei ist, wie sich die Zellen strecken, beziehungsweise wohin sie sich strecken. Da der Prozess sehr lange dauert, gewinnt ein Betrachter in Echtzeit eher den Eindruck, dass sich über mehrere Minuten nichts verändert. Erst im Zeitraffer wird deutlich, wie sich die Blüte öffnet. Bei entsprechender Dunkelheit und anschließend starker Beleuchtung kann dieser Vorgang noch relativ schnell ablaufen. Wird dagegen das Ausrichten einer Sonnenblume in natürlicher Umgebung untersucht, so müsste der Betrachter einen halben Tag die Blumen anschauen. Beim Ansehen des Zeitraffers kann innerhalb weniger SekunAbbildung 104 den deutlich werden, dass sich die meisten Die Eigenschaft, dass sich alle Sonnenblumen nach Sonnenblumen zur Sonne drehen. Diese der Sonne richten, heißt Heliotropismus. Eigenschaft nennt sich Heliotropismus. Ein anderes Beispiel dient der Erforschung des Wetters. [Spiegel Online 2005] berichtete, dass im Jahr 2005 die Hurrikansaison im Osten des Nordamerikanischen Kontinents ungewöhnlich früh und intensiv begann. Die National Aeronautics and Space Administration (NASA) erstellte ein Video, welches den Sturmlauf der Tropentiefs im Zeitraffer zeigt. Das Update dieses Videos von [Starobin, Halverson 2006] zeigt die gesamte Hurrikansaison in High-Definition-Qualität. Die Farben geben die Wasseroberflächentemperatur an. Je wärmer der Farbton, desto wärmer die Wasseroberfläche. Die schwarzen Linien verdeutlichen den Verlauf der Hurrikans. Kapitel 5 - Praktische Untersuchungen 100 Abbildung 105 Hurrikansaison 2005 Die abgebildeten Grafiken zeigen Nordamerika und den Atlantik der Nordhalbkugel aus der Satellitenperspektive. Landflächen sind grün dargestellt. Der Farbton des Meereswassers variiert mit der Wassertemperatur. Blaue Flächen bedeuten kaltes Wasser, warme Farbtöne signalisieren warmes Wasser. Damit ein Hurrikan entsteht, muss die Meereswassertemperatur entsprechend hoch sein. Konkret zeigt die obere Grafik ein Satellitenbild vom 28. August 2005, an dem der Hurrikan Katrina über dem Golf von Mexiko wütet. Auf der mittleren Grafik ist ersichtlich, dass am 22. September 2005 der Hurrikan Rita über der gleichen Region wütete. Die untere Grafik veranschaulicht den Hurrikan Wilma am 24. Oktober 2005 über Florida. Kapitel 5 - Praktische Untersuchungen 101 5.1.4 Zeitraffer ohne wissenschaftlichen Hintergrund Zeitraffer ohne wissenschaftlichen Hintergrund dienen in erster Linie als Visualisierung eines lange andauernden Vorgangs, wobei der Zeitraffer keinen unmittelbaren Nutzen hervorruft. So erscheint es dem Betrachter oft recht eindrucksvoll, wenn ein ganzes Haus in kürzester Zeit erbaut wird, oder ein Dach in Sekundenschnelle abgedeckt wird. Besonders imposant wirken auch Zeitrafferaufnahmen von vorbeifliegenden Wolken oder Nachtaufnahmen einer stark befahrenen Straße in einer Großstadt. Abbildungen 106-107 Die auf der folgenden Seite dargestellten Eine Digitalkamera Beispiele wurden vom Autor mit der Digitalmisst bei einer Punktkamera Canon Powershot A80 aufgenomlichtmessung nur die men. Häufig liegt das Bildaufnahmeintervall Helligkeit des mittleren bei acht Sekunden. Die ersten beiden BeiFeldes. Damit sind die spiele entstanden im Juli 2004 und zeigen umliegenden Felder den Blick aus dem Arbeitszimmerfenster des unter Umständen zu hell oder zu dunkel. Autors. Da es an diesem Tag beinahe windstill war, sich jedoch die Wolken sehr schnell Eine 9-Feld-Lichtmesfortbewegten, entstand ein guter Kontrast sung beachtet bei der zwischen der ruhigen Landschaft und den Helligkeitsjustierung sich schnell bewegenden Wolken. Diese das gesamte Foto. Aufnahme erfolgte mit einer 9-Feld-Lichtmessung, sodass jedes Bild im Durchschnitt die gleiche Helligkeit besitzt. Sowie eine Wolke Schatten im Garten erzeugt, erhöht sich der Kontrast zwischen Himmel und Erde. Bei einer Punktlichtmessung auf das Bildzentrum wären schattige Fotos aufgehellt worden und statt der Wolken am Himmel eine einheitlich weiße Fläche zu sehen. Das zweite Beispiel zeigt bei der Rekonstruktion eines Hauses das Abdecken des Daches. Beim Betrachten des Zeitraffers wird nicht nur deutlich, wie schnell die Bauarbeiter das Dach abdeckten, sondern auch wie lange ihre Mittagspause dauerte. Da die Kamera die Fotos in einem exakten Zeitintervall aufnahm, gibt die Anzahl der Bilder ohne Bauarbeiter Auskunft über ihre Pausenzeit. Das letzte Beispiel zeigt eine Zeitrafferaufnahme der Elbwiesen in Dresden mit Blick auf den Fernsehturm. Diese Aufnahme entstand im November 2004. Zusätzlich zur Wolkenbewegung lässt sich gut nachvollziehen, wie viele Hunde auf den Elbwiesen ausgeführt wurden und wie schnell sich ein Schiff auf der Elbe bewegte. Nachdem in diesem Abschnitt ausführlich mehrere Beispiele für Zeitlupen und Zeitraffer vorgestellt wurden, beziehen sich die Aufnahmen des nächsten Abschnittes auf die Wegbeschreibung. Es wird geklärt, wann Zeitlupen und Zeitraffer eingesetzt werden können. Außerdem erfolgen praktische Tests der in Abschnitt 4.2 aufgestellten Regeln. Dabei tritt ein Effekt auf, der bei den bisherigen Beispielen keine Anwendung fand: Die hier genannten Beispiele beziehen sich auf die Kameraaufnahmen, bei denen die Einzelbilder nach einem festen Zeitintervall aufgenommen wurden. Entweder war das Intervall sehr kurz, dass eine konstante Zeitlupe entstand, oder das Intervall wurde größer als die Abspielgeschwindigkeit gewählt, sodass ein kontinuierlicher Zeitraffer entstand. Warum und wie sich die beschriebenen Zeitlupen und Zeitraffer dynamisch verändern müssen, ist im nächsten Abschnitt beschrieben. Kapitel 5 - Praktische Untersuchungen 102 Abbildungen 108-110 Diese Zeitraffer wurden nicht mit einer Videokamera, sondern mit einem digitalen Fotoapparat erstellt. Links: Blick aus dem Arbeitszimmerfenster des Autors. Bei diesem Zeitraffer steht die Wolkenbewegung im Kontrast zur ruhigen Landschaft. Mitte: Dach abdecken. Bei diesem Zeitraffer ist gut zu erkennen, in welcher Reihenfolge die Ziegel vom Dach verschwinden. Rechts: Zeitraffer auf den Elbwiesen mit Blick auf das Blaue Wunder und den Dresdner Fernsehturm. Dabei sind nicht nur die Wolkenbewegungen interessant, sondern auch ein auf der Elbe fahrendes Schiff oder die Passanten mit ihren Haustieren. Kapitel 5 - Praktische Untersuchungen 103 5.2 Wegbeschreibung mit Zeitlupen und Zeitraffern Dieser Abschnitt beinhaltet mehrere Praxisversuche des im vierten Kapitel entwickelten Modells. Der Test wurde dabei in drei verschiedenen Szenarios durchgeführt. Praxistest eins zeigt eine Fahrt auf einer Autobahn und in der Großstadt Dresden. Die zweite Anwendung bezieht sich auf einen Fußgängerbereich auf dem Campus der Florida State University in Tallahassee, Florida, USA. Der letzte Schauplatz befindet sich in der Pirnaer Marienkirche. Hier ist ausschließlich eine Kamerarotation um ein Objekt dargestellt. 5.2.1 Autobahnfahrt und Stadtfahrt Die beiden folgenden Videos wurden speziell für diese Diplomarbeit angefertigt. Die Aufnahmen erfolgten mit einer Sony VX2000 DV-Kamera, welche auf einem Stativ in einem Fahrzeug befestigt wurde. Schmutz und Kratzer auf der Frontscheibe hätten bei einer Aufnahme von innen zu einer verminderten Bildqualität geführt. Deshalb wurde das Dachfenster ausgebaut und die Kamera oberhalb des Daches arretiert. Dadurch war ein freier Kamerablick gewährleistet. Die Kamera war fest mit dem Fahrzeug verbunden, was die Möglichkeit zum Schwenken während der Fahrtzeit verhinderte. Außerdem musste sich der Fahrer auf das Fahren konzentrieren. Damit besteht eine Einschränkung einer zuvor aufgestellten Regel insofern, dass die Kamera wichtige Objekte nicht verfolgen konnte. Erscheint während der Fahrt beispielsweise ein wichtiges, richtungweisendes Verkehrsschild, so bedurfte diese Situation einer verlangsamten Wiedergabe des Filmes, damit der Text auf dem Schild lesbar wird. Abbildung 111 Die Kamera filmte aus dem Dachfenster und wurde für diese Aufnahme mehrfach gesichert. Die Videoaufnahme erfolgte nach der in Abschnitt 4.1 beschriebenen uneffizienten Lösung. Da jedoch unter Beachtung der vorgeschriebenen Verkehrsregeln auf geraden Strecken automatisch schneller gefahren wird, entstanden Zeitraffer und Zeitlupen bereits auf natürliche Weise. Oft genügte es im späteren Videofilm eine Echtzeitaufnahme statt einer Zeitlupe zu zeigen, da diese Aufnahmen bereits bei einer sehr langsamen Fahrt erfolgten. Dagegen mussten die meisten Videoaufnahmen für Zeitraffer zeitlich stark gestaucht werden. Die vierte Regel sieht vor, dass über den gesamten Bereich ein Zeitraffer erstellt wird, in welchem keine Richtungsänderung in einem Kreuzungsbereich stattfindet. Es stellte sich heraus, dass diese Regel im Praxiseinsatz nicht funktioniert. Die Straßen sind zu uneben und die Kurvenanzahl ist nicht vorhersehbar, sodass sich der Fixpunkt in Zeitrafferaufnahmen unbestimmt häufig ändert. Personen, die sich diese Aufnahmen anschauten, waren irritiert und meinten häufig, dass es ihnen zu schnell ging. Neue Untersuchungen führten zu folgendem Ergebnis: Findet eine Kamerafahrt über lange Zeit auf einer Autobahn statt, so sollte der Zeitraffer den Videoclip höchstens mit 20-facher Geschwindigkeit anzeigen. Im Stadtbereich stellte sich heraus, dass ein Zeitraffer höchstens mit 16-facher Geschwindigkeit präsentiert werden sollte. Kapitel 5 - Praktische Untersuchungen 104 Das daraus resultierende Problem lässt sich gut an einem Beispiel erläutern. Die Autobahnfahrt auf der A17 von der Auffahrt Pirna bis zum Dreieck Dresden West dauert in Echtzeit zirka 14 Minuten. Bei einer 20-fachen Abspielgeschwindigkeit des Clips ergibt sich für den Zeitraffer eine Dauer von 42 Sekunden. Die Dauer des Tondokumentes, bleiben sie auf der Autobahn A17 für 25 Kilometer, beträgt jedoch nur 4,3 Sekunden. Der Zeitraffer dauert damit noch viel zu lange, obwohl er bereits mit 20-facher Geschwindigkeit gezeigt wird. Die Lösung ist ein Zerteilen des Zeitraffers. Er zeigt mit 20-facher Geschwindigkeit den Wegstreckenanfang. Nach der Hälfte der Tondokumentdauer wird zu dem Stück übergeblendet, welches das Wegstreckenende darstellt. Die Gesamtlänge des Zeitraffers wurde so gekürzt, dass sie synchron zum Ton die Videobilder liefert. Zusätzlich wurde damit ein anderer Nebeneffekt beseitigt. Dauert der Zeitraffer zu lange, werden zu viele Informationen gezeigt, die für den Verlauf der Fahrtroute irrelevant sind. Wird ein Großteil dieser Fahrt aus dem Zeitraffer entfernt, sieht der Betrachter nur die wichtigen Streckenabschnitte: Kreuzungsbereiche, in denen sich die Fahrtrichtung ändert und die Wegstrecken unmittelbar vor und nach Kreuzungen. Damit wird der Betrachter gar nicht erst dazu verleitet, sich Objekte oder Begebenheiten einzuprägen, die für die Fahrtroute unbedeutend sind. Ein gutes Beispiel dafür ist ein brennendes Fahrzeug am Straßenrand. Aufgrund der Rauchentwicklung und der Sorge um Verletzte, würden viele Kraftfahrer beim Vorbeifahren auf das brennende Fahrzeug schauen. Dass diese Situation jedoch an ein und derselben Stelle so häufig eintritt, dass man sich bei der Navigation auch an anderen Tagen auf das Vorhandensein des brennenden Fahrzeugs verlassen könnte, ist unwahrscheinlich. Für die Navigation spielt dieses Ereignis also keine entscheidende Rolle, sodass es entweder nur kurz in einem Zeitraffer zu sehen ist oder unter Umständen ganz aus dem Video geschnitten wird. Abbildung 112 Ein brennendes Fahrzeug am linken Straßenrand. Andere wichtige Ereignisse, wie zum BeiAbbildung 113 spiel fest installierte Blitzer, der Hinweis Ein Blitzer am rechten Straßenrand. zur Vorfahrt von rechts kommender Fahrzeuge in einer Tempo 30-Zone oder ein Fußgängerüberweg, sollten dagegen unbedingt im Video erscheinen, da sie die Fahrweise des Fahrers beeinflussen. Die erste Aufnahme beschreibt die Fahrtroute vom Grundstück Schillerstraße 22 in Pirna in Richtung Leipzig. Sie verdeutlicht vorrangig die Autobahnfahrt. Die zweite Aufnahme zeigt einen Ausschnitt einer Fahrt durch die Stadt Dresden. Der Anfang der Route liegt auf der Tolkewitzer Straße in Richtung Schillerplatz und führt über das Blaue Wunder nach Dresden Wachwitz zur Wachwitzer Bergstraße. Auf den nächsten beiden Seiten werden Ausschnitte aus der Autobahnfahrt und der Stadtfahrt gezeigt. Nimmt die Kamera 25 Bilder pro Sekunde auf, und fährt das Fahrzeug 180 Kilometer pro Stunde, so nimmt die Kamera alle zwei Meter ein Bild auf. Kapitel 5 - Praktische Untersuchungen 105 Abbildungen 114-116 Autobahnfahrt Links: Auffahrt in Pirna auf die Autobahn A17 in Richtung Dresden. Mitte: Fahrt bei 170 km/h. Aufgrund der hohen Geschwindigkeit verschwimmen die Bereiche im Rand.Das vorausfahrende Fahrzeug ist jedoch deutlich zu erkennen. Rechts: Das Autobahnkreuz Dresden-West. Die Autobahn A4 führt weiter in Richtung Chemnitz, Leipzig. Kapitel 5 - Praktische Untersuchungen 106 Abbildungen 117-119 Stadtfahrt in Dresden Links: Fahrt bei 50 Kilometern pro Stunde in Dresden auf der Tolkewitzer Straße in Richtung Schillerplatz. Im Vergleich zu den Geschwindigkeiten auf der Autobahn ist eine Stadtfahrt eher langsam. Objekte, wie zum Beispiel Bäume, bewegen sich näher am Fahrzeug vorbei. Begründet durch die Bewegungsparallaxe und durch den Zeitraffereffekt können jedoch auch hier die Bildränder stark verschwimmen. Mitte: Abbiegen von der Tolkewitzer Straße in Richtung Blaues Wunder. Wird der Videoclip zum Abbiegevorgang zu schnell abgespielt, werden verschiedene Bildbereiche schnell undeutlich. Rechts: Fahrt über die Elbe auf dem Blauen Wunder. Die Brücke wurde 1893 fertiggestellt und erhielt den Namen aufgrund ihrer blauen Farbgebung. Kapitel 5 - Praktische Untersuchungen 107 5.2.2 Campus der Florida State University Der Trailer unten links sollte den Studenten zeigen, dass es vom Court Yard (Bild 1) zum Student Life Building (Bild 6) nur ein kurzer Weg (Abbildung 121) ist. Der Court Yard ist ein markanter Platz, den nahezu jeder Student kennt. Die erste Sequenz erfolgte in rückwärtiger Sicht, damit zu Beginn der Court Yard im Bild zu sehen ist. Bild 2 zeigt, wie die Kamera den Court Yard verlässt. Die Indianerstatue in Bild 3 ist der erste wichtige Wechselpunkt, da sie im Mittelpunkt der Kreuzung steht. Das Bild verweilt einen kurzen Augenblick auf der Statue, damit sie der Betrachter besser in Erinnerung behält. Als Zeitraffer wird anschließend der Gang über den Sidewalk dargestellt, da dieser geradeaus verläuft (Bild 4). Die Videos wurden mit einer Canon XL1 Videokamera aufgenommen. Dagegen besteht der Zeitraffer aus zirka 100 Einzelfotos einer Canon Powershot A80 Digitalkamera. Die Aufnahmen erfolgten im Abstand von drei Metern. Später wurden die Bilder in der x-Achse und der y-Achse justiert und zusätzlich so gedreht, dass der Bildhorizont in jedem Bild horizontal verläuft. Der resultierende Zeitraffer spielt die Einzelbilder als Videoclip ab. Am Ende des Sidewalks wechselt die Ansicht von der rückwärtigen Sicht mit einem Schwenk auf das Student Life Building (Bilder 5, 6). Nun ist das Zielgebäude der primäre Orientierungspunkt. Die letzten beiden Fotos (Bilder 7, 8) zeigen den Autor, wie er über einen Parkplatz sprintet und eine Treppe zum Eingang des Student Life Building hinunterspringt. Hier musste ein Objekt, der Autor, als Orientierungspunkt dienen, da eine schlechte Sicht durch viele Bäume eine Kamerafahrt unmöglich machten. 1 1 5 2 6 2,3 4 5,6 3 4 7 8 7,8 Abbildungen 120-121 Links sind acht Einzelbilder des Trailers zu sehen. Sie beschreiben den Weg vom Court Yard zum Student Life Building. Rechts ist ein Kartenausschnitt vom Campus der Florida State University und den jeweiligen Kamerastandorten zu sehen. Kapitel 5 - Praktische Untersuchungen 108 5.2.3 Taufstein der Marienkirche in Pirna Diese Aufnahme diente in erster Linie der Visualisierung des Taufsteins. Die Intension lag darin, dass der Betrachter des Videos sozusagen um den Taufstein herumgeht und sich diesen dabei anschauen kann. Diese Aufnahmen wurden mit einer Canon Powershot A80, also mit einer Digitalkamera, durchgeführt. Zuerst wurde ermittelt, mit welchem Radius die Kamera zur senkrechten Achse des Taufsteins rotieren muss, damit sie diesen in voller Größe erfasst. Mit einem Toleranzbereich oben und unten ergab sich ein Radius von 2,04 Meter. Daraufhin wurde eine Sperrholzplatte für etwas mehr als ein Achtel des Kreisumfangs zugeschnitten. Da 360 Einzelfotos um den Taufstein vorgesehen waren, befand sich auf der Schablone entlang des Umfangs nach jeweils 3,56 Zentimetern eine Markierung. Für eine stabile Kameralage wurde nun ein Styroporblock hergestellt, welcher auf einer Sperrholzplatte klebte, die den gleichen Außenradius wie die Schablone besaß. In der Achse der Kamerablickrichtung wurde auf der Sperrholzplatte eine Markierung angebracht. Für die Aufnahmen konnte nun die Kamera von Markierung zu Markierung geschoben werden. Die Kamera war mit einem Laptop verbunden. Dieser löste die Kamera nach jeweils 15 Sekunden aus und speicherte die Bilder auf einer Festplatte. Während dieser 15 Sekunden wurde das jeweilige Foto zum Computer übertragen und die Kamera an der nächsten Markierung positioniert. Auf diese Weise entstanden um den Taufstein 360 Fotos. Nach jeweils 53 Bildern (45 Bilder entsprechen einem Achtel des Kreises, plus vier Bilder Toleranz auf jeder Seite für eine Überlappung zum nächsten Abschnitt) musste die Schablone neu ausgerichtet werden. Dank der Fliesen um den Taufstein und vorher erstellten Markierungen, konnte die Schablone zügig ausgerichtet werden. Damit war die Fotoaufnahme abgeschlossen. In der anschließenden Montage wurden alle Fotos in der x-Achse und der y-Achse justiert. Dazu wurde bestimmt, wo sich im Durchschnitt bei allen Bildern der Mittelpunkt des Taufsteins befindet. Nun wurde jedes einzelne Bild entsprechend seines Fehlers in die richtige Position geschoben, wobei zunächst an zwei Rändern schwarze Streifen entstanden. Die letzte Aufgabe bestand darin, das größtmögliche Rechteck zu finden, welches im 4:3 – Format war und keine schwarzen Streifen beinhaltete. Nun war der Videoclip fertig. Abbildung 122 Die ersten drei Abbildungen zeigen die Herstellung der Schablone. Die folgenden beiden Fotos zeigen den Autor bei der Aufnahme des Taufsteins in der Marienkirche in Pirna. Dieselben Rohdaten konnten zum Erstellen eines Detailausschnittes für einen Rundflug um den Taufstein verwendet werden. Anstatt einer Skalierung des gesamten Videos wurde ein Detailausschnitt herDie letzte Abbildung ausgeschnitten. Demzufolge entstand ohne großen Mehraufwand zeigt die Digitalkamera ein Rundflug um den Fuß, den Sockel und das Taufsteinbecken. im Styroporblock. Kapitel 5 - Praktische Untersuchungen 109 Abbildungen 123-124 Links sind acht Einzelbilder aus dem Rundflug um den Taufstein zu sehen. Sie zeigen den kompletten Taufstein, wobei dazu eine Skalierung nötig war. Mit diesen Bildern war es auch möglich, Videoclips einzelner Bereiche zu erstellen. Die drei Fotos rechts zeigen Ausschnitte der Dateilansichten. Dadurch lassen sich die einzelnen Objekte auf dem Taufstein besser erkennen. Kapitel 5 - Praktische Untersuchungen 110 Beim Betrachten der Rohdaten war auffällig, dass der Taufstein nicht in jedem Foto exakt an der gleichen Stelle stand. Wie sind die Fehler im Bild entstanden? Warum war es wichtig einen Toleranzbereich festzulegen? Die Fliesen um den Taufstein waren nicht absolut horizontal verlegt, wobei dieser Fehler von Fliese zu Fliese differierte. Wurde die Kamera nun entlang der Schablone geschoben, so bedeckte sie nur einen Teil der Fliesen. Sobald die Kamera auf einer neuen, unebenen Fliese stand, neigte sie sich. Auch wenn sich der Aufnahmewinkel nur minimal von den bisherigen unterschied, befindet sich der Taufstein im Foto doch an einer anderen Position. Die Kamera erzeugte Bilder in einer Größe von 2.272 x 1.704 Pixel. Der maximale horizontale Fehler lag bei 48 Pixeln, der vertikale Fehler bei –47 Pixeln. In den meisten Fällen mussten die Bilder also nach unten links verschoben werden. Entstanden ist eine Kamerarotation um den Taufstein. Der Betrachter hat die Möglichkeit, den Taufstein von allen Seiten zu betrachten. Bei Bedarf kann das Video angehalten werden, wobei dadurch eine Betrachtung einer bestimmten Ansicht für längere Zeit möglich ist. Die Aufnahme kann auch als Zeitraffer abgespielt werden. Der Ruhebereich wird von der Begrenzung des Taufsteins gebildet, da er an der Begrenzung für diese Aufnahme ausgerichtet wurde. Des Weiteren wird ein vollständiger Kreis um den Taufstein beschrieben, sodass die Aufnahme auch mehrmals hintereinander abgespielt werden kann. Auffällig ist nicht nur der Taufstein, sondern auch der Hintergrund. Je weiter die Säulen und Wände im Hintergrund entfernt sind, desto schneller bewegen sie sich von links nach rechts. Damit wird der Effekt der Bewegungsparallaxe bei der Rotation um ein Objekt deutlich. Weil sich der Taufstein im Gegensatz dazu relativ langsam bewegt, wird hier neben dem Hell-Dunkel-Kontrast ein zusätzlicher Gegensatz geschaffen. Auch durch die tiefe Kamerastellung – die Kamera blickt zu dem 98 Zentimeter hohen Taufstein hinauf, wirkt die Aufnahme besonders reizvoll. Sie könnte in einen Rundgang durch die Kirche integriert werden, wobei für den Rundgang Zeitraffer und Zeitlupen nach dem entwickeltem Modell zu erstellen wären. 5.2.4 Zusammenfassung des Einsatzes bei der Wegbeschreibung Mit diesen drei Beispielen wurde demonstriert, dass das entwickelte Modell zur Wegbeschreibung mit Zeitraffern und Zeitlupen praxistauglich ist. Beim ersten Beispiel, welches explizit zur Untersuchung der Regeln durchgeführt wurde, konnte festgestellt werden, dass die im vierten Kapitel aufgestellten Regeln noch nicht ausreichend waren. Während das erste Anwendungsbeispiel eine Wegbeschreibung als Routenplaner und Navigationshilfe für einen Kraftfahrer bei einer Autobahnfahrt und einer Fahrt durch Dresden ermöglicht, wurde im zweiten Beispiel gezeigt, dass es auch für Fußgänger von Nutzen sein kann. Der Direktor des Student Life Building, Robert B. Howard, freut sich seit der Veröffentlichung des Videos an der Florida State University über steigende Besucherzahlen. Offensichtlich finden nun mehr Studenten den Weg zum Gebäude als in vergangener Zeit. Im letzten Beispiel wurde der Spezialfall, bei dem die Kamera um ein Objekt rotiert, praktisch umgesetzt. Annemarie Träger und Thomas Albrecht vom Kirchenvorstand in Pirna berichteten über eine sehr gelungene und interessante Aufnahme des Taufsteins der evangelischen Kirche Saint Marien zu Pirna. Kapitel 5 - Praktische Untersuchungen 111 5.3 Zusammenfassung praktischer Umsetzungen Im Kapitel zu den praktischen Untersuchungen wurden im ersten Abschnitt mehrere Anwendungsgebiete für Zeitlupen und Zeitraffer dargestellt. Da insbesondere Zeitlupen einen wissenschaftlichen Nutzen erbringen, lohnte sich eine Aufteilung der Aufnahmebereiche. Die Zeitlupen bei der Verkehrssicherheit helfen den Wissenschaftlern bei der Entwicklung sicherer Verkehrsmittel. Das betrifft nicht nur Fahrzeuge sondern auch Flugzeuge. Obwohl Waffen eigentlich nicht zum Einsatz kommen sollten, werden speziell im militärischen Bereich Schusswaffen ständig weiterentwickelt, wobei nicht nur die Schussweite, sondern auch die Feuergeschwindigkeit entscheidend sind. Damit eine Waffe nach kürzester Zeit das nächste Projektil abfeuern kann, muss die zurückgebliebene Hülse schnellstmöglich ausgeworfen werden. Die Zeitlupenaufnahmen von ballistischen Vorgängen sind für eine Entwicklung in diesem Bereich von hoher Bedeutung. Im Bereich der Materialtechnik werden Stoffe vorwiegend auf ihre Festigkeit überprüft. Dabei steht nicht zwangsläufig die Frage, wann das Material reißt, schmilzt oder zersplittert, sondern ob und wie. Erst die Zeitlupenaufnahmen können darüber eine genaue Auskunft geben. Diese Untersuchungen werden nicht nur bei festen Körpern vorgenommen, sondern auch bei flüssigen oder gasförmigen. Zum Beispiel beim WIG-Impulsschweißen wird untersucht, ob die entstehenden Temperaturen ausreichen, um das Metall zu schmelzen und somit eine exakte Schweißnaht produziert werden kann. Die Aufnahmen aus dem Bereich der Biologie dienen nicht nur der Unterhaltung. Wissenschaftler untersuchen die Bewegung und das Verhalten von Tieren, um ihre Erkenntnisse bei anderen Entwicklungen nachzuahmen oder anzuwenden. Häufig geschehen Bewegungen im Tierreich so schnell, dass der Mensch sie mit bloßem Auge kaum erkennen kann. Die Zeitlupenaufnahme kann zum Beispiel verdeutlichen, wie das Gift bei einem Schlangenbiss injiziert wird. Bei der Produktion von Teebeuteln werden pro Sekunde 33 Knoten erstellt und die beiden Bindfäden mit dem Papierzettel verbunden. Ein Mensch kann bei der Geschwindigkeit dieses automatisierten Prozesses keine Details erkennen. Gerät eine Maschine ins Stocken oder lässt die Produktionsgeschwindigkeit plötzlich nach, so werden mit Zeitlupenaufnehmen mögliche Fehler aufgespürt. Die Kameraaufnahmen maschineller Prozesse helfen auch in den Fällen, bei denen eine direkte Sichtkontrolle durch eine Person zu gefährlich ist. Das Schließen der Außenklappen bei einem Spaceshuttle-Start wird durch Kameras beobachtet, wobei das Betrachten der Videos am Monitor weit weniger gefährlich ist. Schließlich wurden noch zwei Beispiele für Zeitlupen erwähnt, bei denen der wissenschaftliche Nutzen eher begrenzt ist. In dem vorgestellten Werbespot wurde vor allem eine neue Wiedergabetechnik deutlich, bei der sich die Spieler in Zeitlupe bewegen und gleichzeitig in Echtzeit in die Kamera sprechen. Das andere Beispiel zeigte die spezielle Zeitlupenproduktion in einem Kinofilm. Im Bereich der Zeitraffer wurde festgestellt, dass diese eher der Unterhaltung dienen, beziehungsweise durch Weglassen von Details einen Überblick zu sehr lange andauernden Prozessen geben. Einerseits werden Aufnahmen von Pflanzenbewegungen aufgezeichnet, um bei der Wiedergabe des Zeitraffers Kenntnis über die Bewegung zu erlangen. Betrachtet eine Person ein Sonnenblumenfeld nur kurze Zeit, so scheinen sich die Blumen nicht Kapitel 5 - Praktische Untersuchungen 112 zu bewegen. Eine Aufzeichnung über mehrere Stunden kann im Zeitraffer das Gegenteil beweisen. Die Aufzeichnung von Wetterphänomenen dient in erster Linie den Meteorologen zur Erforschung des Wetters. Das Beispiel zeigt die Hurrikansaison 2005 über Nordamerika und dem Atlantischen Ozean. Anhand der Aufnahmen lassen sich Rückschlüsse ziehen, wie es zu derartigen Verwirbelungen der Luft kommen konnte. Diese Erkenntnisse können für die Entwicklung eines Frühwarnsystems nützlich sein. Bei den Zeitraffern ohne wissenschaftlichen Hintergrund faszinieren in erster Linie die Bilder, beziehungsweise dass ein Vorgang schneller abläuft als in Echtzeit. Die drei erwähnten Beispiele wurden vom Autor aufgenommen und zeigen eine Wolkenbewegung, das Abdecken eines Daches und die Situation auf den Elbwiesen mit Blick auf das Blaue Wunder und den Fernsehturm Dresdens. Im zweiten Abschnitt wurde schließlich das entwickelte Modell zur Wegbeschreibung mit Zeitlupen und Zeitraffern praktisch erprobt. Während der ersten beiden Aufnahmen, auf der Autobahn und bei der Stadtfahrt durch Dresden, wurde deutlich, dass die bis dahin aufgestellten Regeln um eine Weitere ergänzt werden mussten. Der Prozess des Abbiegens in einem Kreuzungsbereich ist zeitlich überschaubar. Dagegen kann eine Fahrt ohne Änderung der Richtung sehr lange dauern, wobei in diesem Fall die Aufnahme stark gerafft werden müsste. Der Praxistest zeigte jedoch, dass die Abspielgeschwindigkeit nur um einen bestimmten Faktor gesteigert werden kann, da ansonsten die Betrachter des Videos die Orientierung verlieren. Zur Lösung des Problems wurde eine Regel eingeführt, die durch Weglassen bestimmter Teile den Zeitraffer auch für lange Strecken definiert. Mit dieser Änderung wurde das Modell erfolgreich erprobt. Das zweite Beispiel sollte demonstrieren, dass dieses Modell nicht nur für Kamerafahrten im Straßenverkehr konzipiert wurde, sondern allgemeingültig für jegliche Wegbeschreibungen ist. In diesem Fall sollte der Weg von einem markanten Platz zu einem bestimmten Gebäude visualisiert werden. Insbesondere die Zeitraffersequenz über den Sidewalk wurde effizient mit einer Digitalkamera aufgenommen. In den beiden bisherigen Beispielen erfolgte keine Kamerafahrt um ein Objekt herum, sodass mit dem letzten Beispiel auch für diese spezielle Situation ein Beispiel gegeben wird. Bei der Visualisierung des Taufsteins in der Marienkirche zu Pirna wurden 360 Einzelbildaufnahmen angefertigt, die den Taufstein aus 360 verschiedenen Positionen zeigen. Diese Aufnahmen wurden justiert, skaliert und konnten damit den Taufstein in einem Film von allen Ansichten in gleicher Entfernung zeigen. Zusätzlich bestand aufgrund der Aufnahmetechnik die Möglichkeit, nachträglich einen bestimmten Bildbereich herauszuschneiden, wobei nun für einen Rundflug um den Sockel die gleichen Rohdaten verwendet werden konnten. Damit wurde der Kamerarundflug um ein Objekt praktisch getestet. Diese Art der Aufnahme ist nur geringfügig für eine Wegbeschreibung im Straßenverkehr geeignet. Jedoch könnte sie bei einem Rundgang durch ein Museum von Nutzen sein, wenn in diesem dreidimensionale Objekte ausgestellt werden. Kapitel 6 - Zusammenfassung 114 Kapitel 6 – Zusammenfassung Die Zusammenfassung erfolgt nach den Gliederungspunkten der Aufgabenstellung, wobei die einzelnen Abschnitte entsprechend der Bearbeitung in der Diplomarbeit geordnet sind. Ein Überblick zur Entwicklung der Aufnahmegeräte wurde an der Geschichte der Kamerawerk Dresden GmbH gezeigt. Die seit 1919 hergestellten Fotoapparate trugen sehr bei der Entwicklung der Technik von heute bei. 1992 wurde eine Panoramakamera auf den Markt gebracht, die es bis zum damaligen Zeitpunkt noch nicht gegeben hatte. Auch die Kamerawerk Dresden GmbH konnte dem Boom zur Digitalisierung nicht entrinnen und begann 1996 mit der Entwicklung einer Hochgeschwindigkeitskamera. Im Vergleich zu anderen Firmen liegt diese Kamera im technischen Mittelfeld. Die Auflösung der Bilder ist vergleichsweise relativ hoch. Die maximale Aufnahmegeschwindigkeit für die höchste Auflösung liegt allerdings unter dem Durchschnitt. Die Entwicklung von Zeitlupenkameras tendiert nicht nur zu schnelleren Aufnahmen, sondern auch zu größeren Bildauflösungen. Ein Ende der Entwicklungen ist abzusehen, sobald die Kameras an physische Grenzen stoßen. Im Bereich der Digitalkameras, die sich in Kombination mit einem Computer hervorragend zum Erstellen von Zeitraffern eignen, tendiert die Entwicklung zu immer größer werdenden Bildauflösungen. Viele Anbieter versuchen jedoch in Bezug auf die maximale Pixelanzahl und die maximale Vergrößerung die Kunden zu täuschen. Eine Interpolation von Pixeln und der Digitalzoom führen zu unscharfen Fotos. Unbetrachtet blieb in dieser Arbeit die zugehörige Optik, welche für eine gute Bildqualität bestimmten Anforderungen genügen muss. Die Untersuchung technischer Mittel zur Erstellung von Zeitlupen und Zeitraffern hat ergeben, dass zwar bei beiden Aufnahmeverfahren eine hohe Bildauflösung angestrebt wird, die Aufnahmegeschwindigkeiten der Hochgeschwindigkeitskameras jedoch einen Kompromiss zwischen hoher Auflösung und schneller Aufnahme erfordern. Die psychologischen Betrachtungen waren insbesondere für ein Verstehen der weiteren Ausführungen von großer Bedeutung. Nach der Definition des wichtigsten Begriffes, der Wahrnehmung, wurde die Gestalt-Theorie vorgestellt. Die Gestaltisten zeigten anhand von optischen Illusionen, nach welchen Kriterien der Mensch die Dinge wahrnimmt. Die Dinge beziehen sich dabei auf Objekte, Gruppierungen von Objekten und Objektbewegungen. Diese fundamentalen Erkenntnisse konnten direkt auf die Wahrnehmung von Videoclips übertragen werden. Da bei Zeitlupen und Zeitraffern für der Wegbeschreibung Kameraaufnahmen von dreidimensionalen Szenen angefertigt werden, die Repräsentation jedoch nur zweidimensional erfolgt, waren Einblicke in die Tiefenwahrnehmung notwendig. Neben den monokularen Hinweisen, bei denen die Bildparallaxe in Videoaufnahmen eine besondere Bedeutung hat, wurden auch kurz die binokularen Tiefenhinweise vorgestellt. Besonders eindrucksvoll erschienen die Betrachtungen von [Bruno, Cutting 1988], die beide Tiefenhinweise miteinander verknüpften. In speziellen Fällen kann zum Beispiel der Tiefenhinweis zur vertrauten Größe vom Tiefenhinweis der Interposition überschrieben werden. Die vertraute Größe ist eine der visuellen Konstanten und wurde am Beispiel des AmesRaumes erläutert. Dabei sollte verdeutlicht werden, dass die vertraute Größe auch bei Objekten in Videoclips wichtig ist. Neben der Größenkonstanz war auch die Betrachtung der Farbkonstanz erforderlich, weil ein bestimmtes Objekt eindeutig identifiziert werden kann, wenn die Beleuchtung durch unterschiedliche Lichtquellen erfolgt. Beim Erörtern der Mustererkennung in Bezug auf Videoclips stellte sich heraus, dass die Ansätze zu strukturellen Beschreibungen besser als die Schablonen-Theorie und die Abstraktions-Theorie sind. Kapitel 6 - Zusammenfassung 115 Es konnte geklärt werden, wie der Wahrnehmungsprozess abläuft. Bottom-Up und TopDown sind zwei Modelle, durch die der Wahrnehmungsprozess besser verstanden werden kann. Es zeigte sich, dass Neisser‘s Zyklentheorie die Beste ist, weil sie Gibson‘s Theorie der direkten Wahrnehmung mit der konstruktivistischen Theorie verknüpft. Außerdem wurde hervorgehoben, dass es individuelle, soziale und kulturelle Unterschiede in der Wahrnehmung gibt. Jemand, der noch nie zuvor ein Video gesehen hat, wird unter Umständen nicht verstehen, was eine Zeitlupe oder ein Zeitraffer ist. Das vierte Kapitel beinhaltet theoretische Auseinandersetzungen mit Zeitlupen und Zeitraffern. Zunächst wurde der Bildinhalt und ablaufende Prozesse in derartigen Aufnahmen analysiert und abstrahiert. Dafür liesen sich verschiedene Schemata erstellen, die auch einen Bezug auf die Kameraführung nahmen. Aufgenommen wird ein Objekt, welches sich bewegt oder transformiert. Neben der Objektveränderung ist auch ein Orientierungspunkt wichtig, der sich im Film nicht oder nur kaum verändert. Ein Unterschied zwischen Zeitlupe und Zeitraffer ist der Einsatzort: Zeitlupen werden verwendet, wenn Objektveränderungen zu schnell stattfinden. Mit Hilfe der Zeitlupe ist es dem Menschen möglich, einen Einblick in solche Prozesse zu erlangen. Zeitraffer erwiesen sich nützlich, wenn über eine sehr lange andauernde Objektveränderung ein Überblick gegeben werden soll. Für die beiden Spezialaufnahmen kommen unterschiedliche Aufnahmegeräte zum Einsatz. Digitale, technische Hilfsmitteln zur Erstellung von Zeitlupen und Zeitraffern sind Videokameras und digitale Fotoapparate. Im Falle der Zeitlupenaufnahmen muss die Aufnahmefrequenz der Bilder höher sein als die Bildwiedergabefrequenz. Daher werden für Zeitlupenaufnahmen oft Hochgeschwindigkeitskameras eingesetzt. Eine Überprüfung dieser Kameras schloss Ergebnisse über die maximale Auflösung und Aufnahmefrequenz ein. Es stellte sich heraus, dass eine Digitalkamera zum Erstellen von Zeitraffern eine effiziente Lösung ist, wenn diese mit einem Computer gekoppelt wird. Daher wurden bei der Marktanalyse ausschließlich Digitalkameras untersucht, die eine Verbindungsmöglichkeit zu einem Computer besitzen und eine Kamerafernsteuerung durch den Computer möglich ist. Dass Zeitraffer und Zeitlupen einen wissenschaftlichen Nutzen besitzen können, wurde an mehreren Beispielen demonstriert. Solche Spezialaufnahmen finden jedoch auch eine Anwendung in der Werbe- und Filmeindustrie, wobei ein Erwähnen dieser Anwendungsgebiete anhand von zwei Beispielen genügte. Die praktischen Untersuchungen für diese Diplomarbeit bezogen sich speziell auf Zeitlupen und Zeitraffer bei der Wegbeschreibung. Es wurde ein Modell erstellt, welches den Einsatz von Zeitlupen und Zeitraffern bei der Wegbeschreibung ermöglicht. Der Kerngedanke ist, dass Wegabschnitte ohne Richtungsänderungen als Zeitraffer und Kreuzungsbereiche mit Richtungsänderungen als Zeitlupenaufnahme visualisiert werden können. Das Modell wird durch Regeln charakterisiert, durch die bestimmt wird, wann, wie und wo Zeitlupen und Zeitraffer zum Einsatz kommen. 6.1 Fazit Damit wurden alle Aufgabenpunkte bearbeitet und erfolgreich beantwortet. Der Leser erhielt mit dieser Diplomarbeit einen Überblick über die Entwicklung der Kameratechnik der Kamerawerk Dresden GmbH, und er konnte sich über den aktuellen Stand der Technik bei Hochgeschwindigkeitskameras und Digitalkameras informieren. Für das Betrachten der Videos ist ein technisches Verständnis jedoch nicht ausreichend. Viele psychologische 116 Theorien und Ansätze lieferten das nötige Hintergrundwissen, welches zum Verstehen der Wahrnehmung von Videos gebraucht wird. Das erarbeitete Modell für die Wegbeschreibung wurde erfolgreich mehrere Male praktisch getestet. Mit Hilfe von Zeitlupen und Zeitraffern lassen sich beliebige, endliche Routen beschreiben und visualisieren. 6.2 Ausblick Bei der Recherche zum historischen Überblick über die Kamerawerk Dresden GmbH stellte sich heraus, dass die seit 1992 entwickelte Panoramakamera nur als Filmkamera hergestellt wird. In Bezug auf die einzigartige Bauweise und dem Trend zum Digitalen sollte eine Produktion dieses Gerätes auch als Digitalkamera erfolgreich sein. Die Bauweise könnte im Gegensatz zu einer herkömmlichen Digitalkamera so angepasst werden, dass der Fotosensor das Bild zeilenweise einliest. Bei einer Filmkamera erfolgt die Weiterbewegung des Films motorisch, damit das Panoramabild vollständig auf dem Film abgelichtet wird. Die digitale Version der Noblex-Serie könnte einen Fotosensor besitzen, der ähnlich zu dem Prinzip eines Scanners arbeitet. Während der Kamerakopf mit dem Objektiv rotiert, tastet der Zeilensensor kontinuierlich die Szene ab und speichert den vom Sensor kommenden Datenstrom. Das in dieser Diplomarbeit entwickelte Modell zur Wegbeschreibung ist universell für jede endliche Route einsetzbar. Es kann nicht nur für Wege auf einer Fläche angewendet werden, sondern auch für eine Route durch den Raum. Bei dieser Erweiterung müsste jedoch untersucht werden, inwieweit die Bilder der Kamera ausreichen, um dem Betrachter genügend Orientierung in der dreidimensionalen Szene zu geben. Zunächst wäre im Falle der Navigation auf einer Ebene das Einblenden eines Kompasses nützlich, da bei einem Zeitraffer Teile herausgeschnitten werden. Dadurch kann nur schlecht nachvollzogen werden, in welchem Winkel der Weg zur bisherigen Strecke nach einer Kurve weiterführt. Zum Beispiel würde der Betrachter in diesem Szenario leicht die Orientierung verlieren: Die Kamera ist auf einem Fahrzeug montiert und nimmt eine Autofahrt ähnlich der Aufnahmen unter 5.2.1 auf. Allerdings scheint diesmal die Sonne nicht, sodass durch die Positionen der Objektschatten im Video keine Information über die Himmelsrichtung vorhanden ist. Fährt nun das Fahrzeug entlang eines Streckenabschnittes, in dem über längere Zeit kein Richtungswechsel erfolgt, wird ein Teil dieses Zeitraffers gelöscht und dadurch nicht wiedergegeben. Der gelöschte Streckenabschnitt kann jedoch zahlreiche Kurven enthalten, die dem Betrachter damit verborgen bleiben. Die Fahrtrichtung, bezogen auf die Himmelsrichtung, kann sich also zwischen zwei Kreuzungsbereichen geändert haben, ohne dass es dem Zuschauer bewusst ist. Das Einblenden eines Kompasses kann diese Orientierungslosigkeit beseitigen, da die Kompassnadel immer nach Norden zeigt. Ändert das Fahrzeug die Fahrtrichtung, so wandert die Kompassnadel entweder nach links oder nach rechts. Alternativ funktioniert auch der Einsatz eines modifizierten Kompasses, dessen Nadel zu jeder Zeit auf den Zielort zeigt. Äquivalent zu einer Wegbeschreibung im dreidimensionalen Raum müssten Geräte installiert werden, welche eine Orientierung im Raum ermöglichen. Zusätzlich zum Kompass sollten diese Geräte die Kameraneigung zu allen drei Koordinaten-Achsen angeben und im Video anzeigen. Dies Aufnahmen können zum Beispiel allgemein für eine Wegbeschreibung bei Flügen oder Unterwasserfahrten eingesetzt werden. Anhang A - Literaturverzeichnis 118 Literaturverzeichnis [Adidas 2005] adidas-Salomon AG. Hainer, H. (Vorsitzender). (2005). Adidas Football Commercial. Abgefragt am 23.10.2005, 12:09 Uhr von http://www. weinbergervision.com/adidas-commercial-l3cat51side146.html [Allport, Pettigrew 1957] Allport, G.W. und Pettigrew, T.F. (1957). Cultural influences on the perception of movement: The trapezoidal illusion among Zulus. Journal of Abnormal and Social Psychology, 55, 104-113 [Amirani 2003] Amirani, A. (2003). Concorde, el avión supersónico, 49:16 Minuten, Originalsprache: Spanisch, Spanien: Principal Films Production [Annis, Frost 1973] Annis, R.C. und Frost, B. (1973). Human visual ecology and orientation anisotropies in acuity. Science, 182, 729-741 [Ashley, Harper, Runyon 1951] Ashley, W.R., Harper, R.S. und Runyon, D.L. (1951). The perceived size of coins in normal und hypnotically induced economic states. American Journal of Psychology, 64, 564-572 [Biedermann 1987] Biedermann, I. (1987). Recognition-by-components: A theory of human image understanding. Psychological Review, 94, 115-147 [Biedermann, Cromme 2006] Biedermann, J. und Cromme, L. (2006). Echtzeit-Farbbildverarbeitung zur vollflächigen Kontrolle von Faltschachteln. Brandenburgische TU Cottbus. Abgefragt am 21.10.2006, 12:26 Uhr von http://kb-bmts.rz.tu-ilmenau.de/ gcg/html/Vortr_99_pdf/14_Biedermann.pdf [Biedermann, Glass, Stacy 1973] Biedermann, I., Glass, A.L. und Stacy, E.W. (1973). Searching for objects in real-world scenes. Journal of Experimental Psychology, 97, 22-27 [Bradshaw 2006] Bradshaw, G. (2006). http://www.centennialofflight.gov. Ornithopter. Abgefragt am 30.11.2006, 09:40 Uhr von http://www.centennialofflight. gov/essay/Dictionary/ornithopter/DI37.htm [Bruce, Green 1990] Bruce, V. und Green, P.R. (1990) Visual perception: Physiology, psychology, and ecology (2. Auflage). Hove, UK: Psychology Press [Bruce, Green, Georgeson 1996] Bruce, V., Green, P.R. und Georgeson. M.A. (1996). Visual perception: Physiology, psychology, and ecology (3. Auflage). Hove, UK: Psychology Press [Bruner, Goodman 1947] Bruner, J.S. und Goodman, C.D. (1947). Value and need as organising factors in perception. Journal of Abnormal and Social Psychology, 42, 33-44 [Bruner, Postman, Rodrigues 1951] Bruner, J.S., Postman, L. und Rodriques, J. (1951). Expectations and the perception of colour. American Journal of Psychology, 64, 216-227 [Bruno, Cutting 1988] Bruno, N. und Cutting, J.E. (1988). Mini-modularity and the perception of layout. Journal of Experimental Psychology: General, 117, 161-170 [Carmichael, Hogan, Walters 1932] Carmichael, L.C., Hogan, H.P., Walters, A.A. (1932). An experimental study of the effect of language on the reproduction of visually perceived form. Journal of Experimental Psychology, 15, 73-86 [Coren, Girgus 1972] Coren, S. und Girgus, J.S. (1972). Visual spatial illusions: Many explanations. Science, 179, 503-504 [DeLucia, Hochberg 1991] DeLucia, P.R. und Hochberg, J. (1991). Geometrical illusions in solid objects under ordinary viewing conditions. Perception & Psychophysics, 50, 547-554 [Derakshan, Eysenck 1997] Derakshan, N. und Eysenck, M.W. (1997). Interpretive biases for one's own behaviour in high-anxious individuals and repressors. Journal of Personality and Social Psychology, 73, 816-825 [Deregowski, Muldrow 1972] Deregowski, J., Muldrow, E.S. und Muldrow, W.F. (1972). Pictorial recognition in a remote Ethiopian population. Perception, 1, 417-425 Anhang A - Literaturverzeichnis 119 [Dilthey, Brandenburg 2001] Dilthey, U. und Brandenburg, A. (2001). Schweißtechnische Fertigungsverfahren. Band 3: Gestaltung und Festigkeit von Schweißkonstruktionen. Düsseldorf, Deutschland: Springer Verlag, 2. Auflage, ISBN 3-540-62661-1 [Dost 2007] Dost, U. (2007). Chamäleons. Ulmer (Eugen), ISBN: 3-8001-3544-2 [Engelmann 2004] Engelmann, L. und Weitere (2004). Formelsammlung – Formeln, Tabellen, Daten (4. Auflage). Berlin, Deutschland: PAETEC Gesellschaft für Bildung und Technik mbH, ISBN 3-89818-700-4 [Eysenck 1977] Eysenck, M.W. (1977). Human memory: Theory, research and individual differences. New York, USA: Pergamon Press [Eysenck 2000] Eysenck, M.W. (2000). Psychology: A student's handbook. East Sussex, UK: Psychology Press [Fodor, Pylyshyn 1981] Fodor, J.A. und Pylyshyn, Z.W. (1981). How direct is visual perception? Some reflections on Gibson's "ecological approach". Cognition, 9, 139-196 [Friedmann 1979] Friedmann, A. (1979). Framing pictures: The role of knowledge in automatised encoding and memory for gist. Journal of Experimental Psychology: General, 108, 316-355 [Fröde 2005] Fröde, C. (2005). Fotorealismus in der Malerei, in Fotos und in der Computergrafik. Dresden, Deutschland: Archiv der TU Dresden, Fakultät Informatik, Professur für Mediengestaltung [Fröde 2006] Fröde, C. (2006). Zeitlupen und Zeitraffer bei der Wegbeschreibung. Dresden, Deutschland: Archiv der TU Dresden, Fakultät Informatik, Professur für Mediengestaltung [Gibson 1950] Gibson, J.J. (1950). The perception of the visual world. Boston, USA: Houghton Mifflin [Gibson 1979] Gibson, J.J. (1979). The ecological approach to visual perception. Boston, USA: Houghton Mifflin [Google Maps 2006] Google Inc. Schmidt, E.E. (Vorstandsvorsitzender), TeleAtlas. Taeye A.D. (CEO) (2006). Kartendaten. Abgefragt von http://maps.google.de [Gordon 1989] Gordon, I.E. (1989). Theories of visual perception. Chichester, UK: Wiley [Gregor, McPherson 1965] Gregor, A.J. und McPherson, D.A. (1965). A study of susceptibility to Australian aborigines. Psychology in Africa, 11, 1-13 [Gregory 1970] Gregory, R.L. (1970). The intelligent eye. New York, USA: McGraw-Hill [Gregory 1972] Gregory, R.L. (1972). Seeing as thinking. Times Literary Supplement, 23 June [Gregory 1973] Gregory, R.L. (1973). The confounded eye. In R.L. Gregory & E.H. Gombrich (Eds.), Illusion in nature and art. London, UK: Duckworth [Gregory 1980] Gregory, R.L. (1980). Perceptions as hypotheses. Philosophical Transactions of the Royal Society of London, Series B, 290, 181-197 [Grodde 2004] Grodde, R. (2004). Lift Off - Der Weg ins All. Abgefragt am 23.10.2006, 10:51 Uhr von http://www.blue-cosmos.de/shuttle/start.html [Hamel 1998] Hamel, P. (1998). Mehrfachbelichtung Allee aus: Kamera Werk Dresden GmbH (Herausgeber) (1998). Noblex® rotating lens. Großenhain/Sachsen, Deutschland: Starke & Sachse GmbH [Helmholtz 1903] Helmholtz, H. (1903). Die Tatsachen in der Wahrnehmung, Vorträge und Reden, II, Braunschweig, Deutschland [Holway, Boring 1941] Holway, A.F. und Boring, E.G. (1941). Determinants of apparent visual size with distance variant. American Journal of Psychology, 54, 21-37 Anhang A - Literaturverzeichnis 120 [Hudson 1960] Hudson, W. (1960). Pictorial depth perception in subcultural groups in Africa. Journal of Social Psychology, 52, 183-208 [Hug 2006] Hug, M. (2006). www.hti.bfh.ch. Mit rund 2,7 Tonnen rein ins Lenkrad. Abgefragt am 22.09.2006, 18:03 Uhr von www.hti.bfh.ch/fileadmin/img/HTI/ KOMPR/Medien/Medienecho/ 2006_Mai/22052006_2_7Tonnen.pdf [Ittelson 1951] Ittelson, W.H. (1951). Size as a cue to distance: Static localisation. American Journal of Psychology, 64, 54-67 [Ittelson 1952] Ittelson, W.H. (1952). The Ames demonstrations in perception. New York, USA: Hafner [Johansson 1973] Johannson, G. (1973). Visual perception of biological motion and a model for its analysis. Perception & Psychophysics, 14, 201-211 [Kanizsa 1976] Kanizsa, G. (1976). Subjective contours. Scientific American, 234, 48-52 [Koffka 1935] Koffka, K. (1935). Principles of Gestalt psychology. New York, USA: Harcourt Brace [Kozlowski, Cutting 1978] Kozlowski, L.T. & Cutting, J.E. (1978). Recognising the gender of walkers from point-lights mounted on ankles: Some second thoughts. Perception & Psychophysics, 23, 459 [Krankenhagen, Laube 1983] Krankenhagen, G. und Laube, H. (1983). Werkstoffprüfung, Von Explosionen, Brüchen und Prüfungen. Reinbek bei Hamburg, Deutschland: rororo, ISBN 3-499-17710-2 [Kunnapas 1968] Kunnapas, T.M. (1968). Distance perception as a function of available visual cues. Journal of Experimental Psychology, 77, 523-529 [KWD 1998] Kamera Werk Dresden GmbH (Herausgeber) (1998). Noblex® rotating lens. Großenhain/Sachsen, Deutschland: Starke & Sachse GmbH [Land 1977] Land, E.H. (1977). The retinex theory of colour vision. Scientific American, 237, 108-128 [Leibowitz und Andere 1969] Leibowitz, H., Brislin, R., Permutter, L. und Hennessy, R. (1969). Ponzo perspective illusions as a manifestation of space perception. Science, 166, 1174-1176 [Lilienthal 1889] Lilienthal, O. (1889). Der Vogelflug als Grundlage der Fliegekunst. Berlin, Deutschland: Verlagsbuchhandlung R. Gärtner. Neudruck: 1977. München, Deutschland: Oldenbourg Verlag [LOGLUX 2006] Springer, G. (2006). http://www.kamera-werk-dresden.de. Ein Historisches Datum 31.10.1839 - Beginn der industriellen Fertigung von Kameras in Dresden. Abgefragt am 12.10.2006, 14:12 Uhr von http://www.kamera-werkdresden.de/deutsch/historie/inhalt.htm [Malott und Andere 1967] Malott, R.W., Malott, M.K. und Pokrzywinski, J. (1967). The effects of outward pointing arrowheads on the Muller-Lyer illusion in pigeons. Psychonomic Science, 9, 55-56 [Marr 1982] Marr, D. (1982). Vision: A computational investigation into the human representation and processing of visual information. San Francisco, USA: W.H. Freeman [Matlin, Foley 1997] Matlin, M.W. und Foley, H.J. (1997). Sensation and perception (4th Edition). Bostyn, Weißrussland: Allyn & Bacon [Menzel 1978] Menzel, E.W. (1978). Cognitive mapping in chimpanzees. In S.H. Hulse, F. Fowler, & W.K. Honig (Eds.), Cognitive processes in animal behaviour. Hillsdale, USA: Lawrence Erlbaum Associates Inc. [MNL 1973] Meyers Neues Lexikon (1973). Gifttiere. Band 5, Seite 466. Leipzig, DDR: VEB Bibliographisches Institut Anhang A - Literaturverzeichnis 121 [Neisser 1964] Neisser, U. (1964). Visual Search. Scientific American, 210, 94-102 [Neisser 1967] Neisser, U. (1967). Cognitive psychology. New York, USA: Appleton-CenturyCrofts [Neisser 1976] Neisser, U. (1976). Cognition and reality. San Francisco, USA: W.H. Freeman [Oreck, Matthies 1999] Oreck, J. und Matthies, E. (1999). Making "The Matrix", 25:55 Minuten, Originalsprache: Englisch, USA: Eric Matthies Productions, Inc. [Photron 2006] Walentschka, W. (2006). http://www.vkt.de/highspeedfilme.html. HighspeedSysteme. Abgefragt am 26.09.2006, 10:15 Uhr von http://www.vkt.de/ Komponenten/Filme.klein.fertig/*.wmv [Presseportal 2006] News Aktuell Schweiz. Jäggi, H. (Geschäftsführer). (2006). Leistungsfähiger, präziser und umweltschonender: Größte PET-Flaschensortieranlage Europas eingeweiht. Abgefragt am 18.10.2006, 11:10 Uhr von http://www. presseportal.ch/de/story.htx?nr=100489002 [Richards 1975] Richards, W. (1975). Visual space perception. In E.C. Carterette & M.P. Friedman (Eds.), Handbook of perception. New York, USA: Academic Press [Roth 1986] Roth, I. (1986). An introduction to object perception. In I. Roth & J.P. Frisby (Eds.), Perception and representation: A cognitive approach. Milton Keynes, UK: Open University Press [Schafer, Murphy 1943] Schafer, R. und Murphy, G. (1943). The role of autism in visual figure-ground relationship. Journal of Experimental Psychology, 32, 335-343 [Schardin 1938] Schardin, H. (1938). Beiträge zur Ballistik und technischen Physik. Leipzig, Deutschland: Leinen [Schiffman 1967] Schiffman, H.R. (1967). Size estimation of familiar objects under informative and reduced conditions of viewing. American Journal of Psychology, 80, 229235 [Schubiger 2004] Schubiger, I. (2004). Selbstdarstellung in der Videokunst – Zwischen Performance und "Self-editing", Bonn, Deutschland: Dietrich Reimer Verlag [Science Media 2006] Science Media (2006). Diesel, R. (Inhaber). http://www.science-media.de/RD_ HS_d.htm. Digital Highspeed Video - Footage. abgerufen am 08.09.2006 um 8:29 Uhr von http://www.science-media.de/HS_pics/*.wmv [Segall und Andere 1963] Segall, M.H., Campbell, D.T. und Herskovits, M.J. (1963). Cultural differences in the perception of geometrical illusions. Science, 139, 769-771 [Sekuler, Blake 1994] Sekuler, R., und Blake, R. (1994). Perception (3. Edition). New York: McGrawHill [Soegaard 2003] Soegaard, M. (2003). Interaction-Design.org Encyclopedia: Gestalt principles of form perception. Retrieved July 17, 2006 from Interaction-Design.org: http://www.interaction-design.org/encyclopedia/gestalt_principles_of_form_ perception.html [Spiegel Online 2005] Spiegel Online (2005). Tropenstürme im Zeitraffer. (20.10.2005), abgerufen am 12.06.2006 um 9:16 Uhr von http://www.spiegel.de/wissenschaft/ natur/0,1518,380634,00.html [Starobin, Halverson 2006] Starobin, M. und Halverson, J. (2006). 27 Storms – Arlene to Zeta (01.03.2006), heruntergeladen am 08.11.2006 um 10:41 Uhr von http://svs. gsfc.nasa.gov/vis/a000000/a003300/a003354/index.html [Striewisch 2006] Striewisch, T. (2006). Der grosse Humboldt Fotolehrgang (3. Auflage). Gütersloh, Deutschland: Humboldt [Tipper 2006] Tipper, B. (2006). http://tipperography.typepad.com/about.html. A380 Abgefragt am 23.09.2006, 09:43 Uhr von http://tipperography.typepad.com/ tipperography/myimages/A380.jpg Anhang B - Abbildungsverzeichnis 122 [Tresilian 1994] Tresilian, J.R. (1994). Two straw men stay silent when asked about the "direct" versus "inferential" controversy. Behavioural and Brain Sciences, 17, 335-336 [Turnbull 1961] Turnbull, C.M. (1961). The forest people. New York, USA: Simon & Schuster [Vernon 1972] Vernon, P.E. (1972). The distinctiveness of field independence. Journal of Personality, 40, 366-391 [Wachowski 1999] Wachowski, A. und Wachowski, L. (1999). The Matrix, 130:37 Minuten, Originalsprache: Englisch, USA: Warner Bros. Studios [Weinberger Vision 2006] Kunz, M. (2006). http://www.weinbergervision.com/deutsch-l1cat51.html. Hochgeschwindigkeitskamera und Anwendungsbeispiele. Abgefragt am 26.09.2006, 10:00 Uhr von http://www.weinbergervision.com/mpeg/*.mpg [Weisstein, Harris 1974] Weisstein, N. und Harris, C.S. (1974). Visual detection of line segments: An object-superiority effect. Science, 186, 752-755 [Wertheimer 1912] Wertheimer, M. (1912). Experimental studies on the seeing of motion [übersetzt von T. Shipley]. Aus Classics in perception. Princeton, NJ: Van Nostrand [Wheatstone 1838] Wheatstone, C. (1838). Contributions to the physiology of vision. Part 1: On some remarkable and hitherto unobserved phenomena of binocular vision. Philosophical Transactions of the Royal Society of London, 128, 371-394 [Wiesner 1881] Wiesner, J. (1881). Das Bewegungsvermögen der Pflanzen. Deutschland: A. Hölder [Witkin 1967] Witkin, H.A. (1967). A cognitive style approach to cross-cultural research. International Journal of Personality and Social Psychology, 33, 409-420 [Witkin und Andere 1962] Witkin, H.A., Dyke, R.B., Faterson, H.F., Goodenough, D.R. und Karp, S.A. (1962). Psychological differentiation. New York, USA: Wiley [Witkin, Berry 1975] Witkin, H.A. und Berry, J.W. (1975). Psychological differentiation in crosscultural perspective. Journal of Cross-Cultural Psychology, 6, 4-87 [Woodworth, Schlosberg 1954] Woodworth, R.S. und Schlosberg, H. (1954). Experimental psychology (2nd Edn.). New York, USA: Holt, Rinehart, & Winston [ZDF 2006] Zweites Deutsches Fernsehen, ZDF (2006). Abenteuer Wissen – Flugzeugsitze im Crashtest. Gesendet am 12.04.2006 um 22:15 Uhr. Abgefragt am 23.09.2006, 7:28 Uhr von http://www.zdf.de/ZDFde/inhalt/27/0,1872,39234 51,00.html [Zihl und Andere 1983] Zihl, J., von Cramon, D. und Mai, N. (1983). Selective disturbance of movement vision after bilateral brain damage. Brain, 106, 313-340 Abbildungsverzeichnis Nr. Seite Titel Quelle 1 16 Faksimile vom 31.10.1839 [KWD 1998, Seite 1] 2 17 Holzkastenkamera [KWD 1998, Seite 1] 3 17 Patent-Etui-Kamera [KWD 1998, Seite 2] 4 17 Pilot-Super [KWD 1998, Seite 2] 5 17 Praktiflex [KWD 1998, Seite 2] 6 18 Praktica und Praktina [KWD 1998, Seite 3] 7 18 Noblex 150 Pro [KWD 1998, Seite 3] Anhang B - Abbildungsverzeichnis 123 Nr. Seite Titel Quelle 8 18 Noblex 135 [KWD 1998, Seite 3] 9 18 LOGLUX HDRC [LOGLUX 2006, loglux_vorne.gif] 10 19 LOGLUX i5A [LOGLUX 2006, logluxi5.jpg] 11 19 LOGLUX i5 [KWD 1998, Datenblatt Loglux i5, Vorderseite] 12 19 Aufnahmespektrum der LOGLUX i5 [KWD 1998, Datenblatt Loglux i5, Rückseite] 13 27 Beispiele zur Gestalt-Theorie [Fröde 2006, Seite 27] 14 27 Das Logo von visitnorway.com [Soegaard 2003, gestalt_figure_ground_2.gif] 15 27 Das Logo von Gnome [Soegaard 2003, gestalt_figure_ground.gif] 16 27 Das Logo von Macintosh [Soegaard 2003, gestalt_figure_ground_3.gif] 17 28 Gesicht/Vase-Illusion [Fröde 2006, Seite 28] 18 29 Bewegungswahrnehmung [Fröde 2006, Seite 29], vergleiche [Eysenck 2000, Seite 267] 19 31 Kalksteingeröll an der Zugspitze [Fröde 2006, Seite 31] 20 31 Kanizsa's illusionistisches Quadrat [Fröde 2006, Seite 31] 21 32 Binokulare Disparität [Fröde 2006, Seite 32], vergleiche [Eysenck 2000, Seite 269] 22 33 Interposition (Kartenexperiment) [Fröde 2006, Seite 33], vergleiche [Eysenck 2000, Seite 270] 23 35 Der Ames-Raum [Fröde 2006, Seite 35], vergleiche [Eysenck 2000, Seite 271] 24 36 Mustererkennung [Fröde 2006, Seite 36] 25 37 Schablonen der Kategorie "Gebäude" [Fröde 2006, Seite 37] 26 37 Buchstabenblöcke [Fröde 2006, Seite 37], vergleiche [Eysenck 2000, Seite 273] 27 39 Top-Down und Bottom-Up [Fröde 2006, Seite 39], vergleiche [Eysenck 2000, Seite 276] 28 40 Flugsimulator [Fröde 2006, Seite 40] 29 43 Konstruktivistische Theorie [Fröde 2006, Seite 43], vergleiche [Eysenck 2000, Seite 279] 30 44 Die Ponzo-Illusion [Fröde 2006, Seite 44], vergleiche [Eysenck 2000, Seite 280] 31 45 Die Muller-Lyer-Illusion [Fröde 2006, Seite 45], vergleiche [Eysenck 2000, Seite 281] 32 45 Varianten der Muller-Lyer-Illusion [Fröde 2006, Seite 45], vergleiche [Eysenck 2000, Seite 281] 33 45 Die Muller-Lyer-Illusion (Buchrücken) [Fröde 2006, Seite 45], vergleiche [Eysenck 2000, Seite 281] 34 47 Hohle Gesichtsmaske [Eysenck 2000, Seite 282] 35 47 Der Wahrnehmungszyklus von Neisser [Fröde 2006, Seite 47], vergleiche [Eysenck 2000, Seite 283] 36 48 Biedermann-Experiment (beisammen) [Fröde 2006, Seite 48] 37 48 Biedermann-Experiment (verstreut) [Fröde 2006, Seite 48] 38 49 Abseitsposition [Fröde 2006, Seite 49] 39 51 Büffelherde in großer Entfernung [Fröde 2006, Seite 51] 40 53 Wahrnehmungsbeeinflussende Faktoren [Fröde 2006, Seite 53], vergleiche [Eysenck 2000, Seite 287] 41 59 Ineffiziente Aufnahme [Fröde 2006, Seite 59] 42 59 Effiziente Aufnahme [Fröde 2006, Seite 59] 43 61 Prozessablaufdauer [Fröde 2006, Seite 61] 44 62 Orientierungspunkte bei Objekten [Fröde 2006, Seite 62] 45 62 Mehrfachbelichtung einer Allee Hamel, P. (1998). Mehrfachbelichtung Allee. aus: [KWD 1998, Seite 16] 46 63 Flug mit einer Concord [Amirani 2003] 47 64 Bewegungsparallaxe [Fröde 2006, Seite 64] Anhang B - Abbildungsverzeichnis 124 Nr. Seite Titel Quelle 48 64 Abstraktion einer Verkehrssituation [Fröde 2006, Seite 64] 49 65 Landschaft geneigt, Auto eben [Fröde 2006, Seite 65] 50 65 Landschaft eben, Auto geneigt [Fröde 2006, Seite 65] 51 65 Videobild der Landschaft [Fröde 2006, Seite 65] 52 67 Kartenausschnitt Leipzig – Dresden [Google Maps 2006, 16.10.2006 um 11:28 Uhr] 53 67 Kartenausschnitt Autobahn – Campus [Google Maps 2006, 16.10.2006 um 12:18 Uhr] 54 68 Kamera starr, Objekt starr [Fröde 2006, Seite 68] 55 68 Kamera bewegt, Objekt bewegt [Fröde 2006, Seite 68] 56 68 Kamera starr, Objekt bewegt [Fröde 2006, Seite 68] 57 68 Kamera bewegt, Objekt starr [Fröde 2006, Seite 68] 58 69 Schema zur Objektaufnahme [Fröde 2006, Seite 69] 59 70 Wann Zeitraffer, wann Zeitlupe? [Fröde 2006, Seite 70] 60 71 Videoclipkategorien [Fröde 2006, Seite 69], vergleiche [Google Maps 2006] 61 72 Schema zum Teilen eines Zeitraffers [Fröde 2006, Seite 72] 62 75 Fahrt geradeaus, Blick nach vorn [Fröde 2006, Seite 75] 63 75 Fahrt geradeaus, Blick nach unten [Fröde 2006, Seite 75] 64 75 Fahrt geradeaus, Blick leicht nach rechts [Fröde 2006, Seite 75] 65 75 Fahrt geradeaus, Blick 90° nach rechts [Fröde 2006, Seite 75] 66 75 Fahrt geradeaus, Blick nach hinten [Fröde 2006, Seite 75] 67 75 Fahrt mit Linkskurve, Blick nach vorn [Fröde 2006, Seite 75] 68 77 Kameraschwenk auf informative Objekte [Fröde 2006, Seite 77] 69 77 Kamerarotation, Blick auf das Objekt [Fröde 2006, Seite 77] 70 77 Kamerarotation, Bewegungserläuterung [Fröde 2006, Seite 77] 71 77 Bewegungsachse außerhalb des Objektes [Fröde 2006, Seite 77] 72 78 Bewegungsachse verläuft durch das Objekt [Fröde 2006, Seite 78] 73 83 Sony VX2000 DV-Kamera [Fröde 2006, Seite 83] 74 83 Canon XL1 DV-Kamera [Fröde 2006, Seite 83] 75 83 Canon Powershot A80 Digitalkamera [Fröde 2006, Seite 83] 76 84 Crash-Test-Dummys [ZDF 2006] 77 85 Zeitlupe Motorradunfall [Weinberger Vision 2006, Motorrad.mpg] 78 85 Zeitlupe Gurt-Test [Weinberger Vision 2006, Schlitten.mpg] 79 85 Zeitlupe Frontalkollision [Photron 2006, crash.wmv] 80 86 Airbus A380 [Tipper 2006] 81 86 Dokumentarfilm zur Flugsicherheit [ZDF 2006] 82 88 Zeitlupe Patronenhülsenauswurf [Weinberger Vision 2006, Huelsenauswurf.mpeg] 83 88 Zeitlupe Projektilabschuss [Weinberger Vision 2006, Pistolenmuendung_10000fps.mpeg] 84 88 Zeitlupe Kugeleinschlag im Eisblock [Photron 2006, eisblock4.wmv] 85 88 Zeitlupe Start einer ballistischen Rakete [Photron 2006, dragon1.wmv] 86 90 Zeitlupe Werkstoffprobe [Weinberger Vision 2006, Werkstoffprobe_1_4000fps.mpeg] 87 90 Zeitlupe Pfeil durch Glas [Photron 2006, pfeile2.wmv] Anhang B - Abbildungsverzeichnis 125 Nr. Seite Titel Quelle 88 90 Zeitlupe Luftballon mit Wasser [Photron 2006, luftballon.wmv] 89 90 Zeitlupe Feuerzeug [Weinberger Vision 2006, Feuerzeug.mpeg] 90 92 Zeitlupe Impulsschweißen (Photron) [Photron 2006, schweissen3.wmv] 91 92 Zeitlupe Impulsschweißen (Weinberger) [Weinberger Vision 2006, Pulsschweissen.mpeg] 92 93 Ornithopter [Bradshaw 2006] 93 94 Zeitlupe Springreiten [Science Media 2006, jumping horse_17.wmv] 94 94 Zeitlupe Chamäleon [Science Media 2006, chamaeleon_1.wmv] 95 94 Zeitlupe Schlangenbiss [Photron 2006, schlange5.wmv] 96 94 Zeitlupe fliegender Spatz [Science Media 2006 97 95 Teebeutel [Weinberger Vision 2006, Vogel.mpeg] 98 96 Zeitlupe Bindfaden an Teebeutel [Weinberger Vision 2006, Teebeutel.avi] 99 96 Zeitlupe Bindfadenknoten [Photron 2006, bindfaden.wmv] 100 96 Zeitlupe Faltschachteltransport [Weinberger Vision 2006, Faltschachtel.avi] 101 96 Zeitlupe Start eines Space Shuttles [Photron 2006, rakete4.wmv] 102 98 Zeitlupe Adidas Werbefilm [Weinberger Vision 2006, adidas_fussball_komprimiert.asf] 103 98 Zeitlupe Bullet Time Effect [Oreck, Matthies 1999] 104 99 Sonnenblumenfeld [Fröde 2006, Seite 99] 105 100 Hurrikansaison 2005 [Starobin, Halverson 2006] 106 101 Punktlichtmessung [Fröde 2006, Seite 101] 107 101 9-Feld-Lichtmessung [Fröde 2006, Seite 101] 108 102 Zeitraffer Blick aus dem Fenster [Fröde 2006, Seite 102] 109 102 Zeitraffer Dach abdecken [Fröde 2006, Seite 102] 110 102 Zeitraffer Dresdner Elbwiesen [Fröde 2006, Seite 102] 111 103 Kamera auf Auto montiert [Fröde 2006, Seite 103] 112 104 Brennendes Fahrzeug [Fröde 2006, Seite 104] 113 104 Blitzer [Fröde 2006, Seite 104] 114 105 Autobahnfahrt - Auffahrt [Fröde 2006, Seite 105] 115 105 Autobahnfahrt - Fahrt [Fröde 2006, Seite 105] 116 105 Autobahnfahrt - Autobahndreieck [Fröde 2006, Seite 105] 117 106 Stadtfahrt - Fahrt [Fröde 2006, Seite 106] 118 106 Stadtfahrt - Abbiegevorgang [Fröde 2006, Seite 106] 119 106 Stadtfahrt – Fahrt über Brücke [Fröde 2006, Seite 106] 120 107 Trailer für das Student Life Building [Fröde 2006, Seite 107], vergleiche [Google Maps 2006] 121 107 Campus der Florida State University [Fröde 2006, Seite 107] 122 108 Taufstein der Marienkirche in Pirna [Fröde 2006, Seite 108] 123 109 Taufstein - Rundflug [Fröde 2006, Seite 109] 124 109 Taufstein - Dateilaufnahmen [Fröde 2006, Seite 109] Anhang C - Index 126 Index Abspielgeschwindigkeit, 72 Abstraktions-Theorien, 37 Akkomodation, 32 Ames-Raum, 34-35, 44 Aufnahmegeräte, 15-24 Aufnahmetechniken, 59-60 Autobahnfahrt, 71, 103-105 Belichtungszeit, 21 Bewegungsparallaxe, 31, 63, 110 Bewegungswahrnehmung, 28 Biedermann-Experiment, 48 Bildaufnahmefrequenz, 70 bildhafte Tiefenhinweise, 30 binokulare Disparität, 32 binokulare Tiefenhinweise, 30, 32 Blende, 21 Bottom-Up-Prozess, 39, 65 Bullet-Time-Effect, 97 charakteristisches Angstgefühl, 50 Crash-Test-Dummy, 56, 84, 85-86 Detailveränderung, 70 Echtzeit, 13, 59 Empfindung, 25 Erwartung, 38, 44 extreme Zeitlupe, 13, 20, 97 extremer Zeitraffer, 13 Falsch-Angewendeten-Größenkonstanz-Theorie, 44 Farbkonstanz, 35 Figure-Ground-Phänomen, 27 Fixpunkt, 12, 40, 62, 74 Folgeentladungstheorie, 29 gemeinsames Schicksal, 28 Geneigter-Raum-Test, 49 Gesicht/Vase-Illusion, 27, 28 Gestalt-Theorie, 26 Größe-Entfernung-Invarianz-Hypothese, 34 Größenkonstanz, 34, 44 Horizontal-Vertikal-Illusion, 51 Hurrikansaison, 99-100 Hypothese zur Prozessdauer, 61 individuelle Variationen, 49 informative Objekte, 76 Intelligenz, 49 Interposition, 31, 33 Intervall/Timer-Funktion, 23 Invarianten, 41 Kamerabewegungen, 68, 74-78 Kamerafahrt, 74-76 Kamerarotation, 77, 110 Kameraschwenk, 76 Kartenexperiment, 33 konstruktivistische Theorie, 43-46 Konvergenz, 32 kulturelle Variationen, 50 Linearperspektive, 30,56, 63 Logo, 27 monokulare Hinweise, 30 Muller-Lyer-Illusion, 44-45, 51 Mustererkennung, 36, 64 Normalisierungsprozess, 36 Objektbewegung, 65-66, 68 Objekttransformation, 65-66, 68 Objekt-Überlegenheits-Effekt, 38 Optimierung, 73 optisches Feld, 40 Ornithopter, 93 Parallelisierung, 22 Pixel, 65 Pol, 40 Ponzo-Illusion, 44 Resonanzprozess, 41 Retinex-Theorie, 35 Rotation, 66 Ruhebereich, 62, 77, 110 Ruhepunkt, 12, 78 Schablonen-Theorie, 36 Schattierung, 31, 63 scheinbare Bewegung, 28 Serienbildfunktion, 23 Skalierung, 66 soziale Variationen, 50 Speicher, 21 Spezialaufnahme, 59 Spielfilm, 97 Stadtfahrt, 103-106 Stereopsis, 32 strukturelle Beschreibung, 38, 65 Taufstein, 78, 80, 108-110 Textur, 31, 63 Texturgradient, 40 Theorie der direkten Wahrnehmung, 40-42 Tiefenwahrnehmung, 30-33, 63 Toleranzbereich, 110 Top-Down-Prozess, 39, 65 Verblauung, 31, 63 Verdeckung, 31, 63 Verformung, 66 vertraute Größe, 31, 34, 63 Verzerrung, 66 Videoclipkategorien, 71-72 visuelle Illusionen, 51 visuelle Konstanten, 33 visuelle Wahrnehmung, 30 Wahrnehmung, 25, 43 Wahrnehmungsorganisation, 26-28 Wahrnehmungstheorien, 39-48 Wahrnehmungszyklus, 47 Werbung, 97 Wirkungsfeldabhängigkeit, 49 Zeichnungen, 52 Zeitlupe, 13 Zeitraffer, 12 Zentralperspektive, 74 Zyklentheorie, 47-48 Anhang D - Tabellen 127 Tabellen Tabelle: Abgrenzung: Internet: Stand: Einführung Anzahl (Pixel) Farbe (Bit) Intervall (intern) Schreiben (B/Sek) Volllast (Bilder) Speicher (MByte) Hersteller Model Digitalkameras zum Erstellen von Zeitraffern Kameras ab Oktober 2003 mit einer PC-Verbindungsmöglichkeit und der jeweiligen maximalen Auflösung ohne Interpolation http://www.digitalkamera.de/Kameras/Schnellzugriff-de.asp 06.11.2006, 12:07 Uhr Monat der Markteinführung Anzahl der sichtbaren Pixel = Breite mal Höhe Farbtiefe des Fotos Gibt an, ob die Kamera ohne externes Zubehör über eine Intervallfunktion verfügt. Gibt in Byte pro Sekunde an, wie viele Vollbilder pro Sekunde die Kamera bei einer Serienbildfunktion aufnehmen kann. Gibt an, wie viele Bilder bei der Serienbildfunktion und der größt möglichen Auflösung maximal erstellt werden können. Bei keiner Angabe in einem grünen Feld wird die Anzahl nur durch den maximal verfügbaren Speicher begrenzt. Gibt in Megabyte an, über wieviel Speicher die Kamera (intern und Speicherkarten) originalverpackt und ohne weiteres Zubehör verfügt. Bei Speicher = 0 Mbyte ist entweder kein Speicher oder keine Angabe über den Speicher vorhanden. Einführung Breite Höhe Anzahl Farbe Anschluss Datum Pixel Pixel Pixel Bit extern Intervall Schreiben Volllast Speicher intern B/Sek Bilder MByte Acer CR-5130 Februar 05 2560 1920 4915200 24 USB1.x nein 2 3 64 Acer CR-6530 Februar 05 2816 2112 5947392 24 USB1.x nein 3 2 64 Acer CR-8530 Juli 05 3264 2448 7990272 24 USB1.x nein Acer CS-5530 Februar 05 2560 1920 4915200 24 USB2.0 nein 3 2 BenQ DC C40 Juni 04 2304 1728 3981312 k.A. USB1.x nein BenQ DC C50 November 03 2560 1920 4915200 k.A. USB1.x nein 2 3 BenQ DC C630 Juni 06 2816 2112 5947392 24 USB1.x ja BenQ DC E43 November 04 2272 1704 3871488 24 USB1.x nein 32 BenQ DC E53 November 04 2560 1920 4915200 24 USB1.x nein 32 BenQ DC E600 Februar 06 2816 2112 5947392 24 USB2.0 ja 32 BenQ DC E720 Oktober 06 3072 2304 7077888 24 USB2.0 ja 9 BenQ DC S30 April 04 2848 2136 6083328 k.A. USB1.x nein 14 BenQ DC S40 September 04 2848 2136 6083328 k.A. USB1.x nein BenQ DC X600 November 05 2816 2112 5947392 36 USB2.0 ja Canon Digital Ixus 30 Oktober 04 2048 1536 3145728 24 USB nein Canon Digital Ixus 40 Oktober 04 2272 1704 3871488 24 USB1.1 nein Canon Digital Ixus 430 März 04 2272 1704 3871488 24 USB1.x nein 2,5 Canon Digital Ixus 50 April 05 2592 1944 5038848 24 USB2.0 ja 2,1 Canon Digital Ixus 500 März 04 2592 1944 5038848 24 USB1.x nein 2,5 Canon Digital Ixus 55 September 05 2592 1944 5038848 24 USB2.0 ja 2,1 16 Canon Digital Ixus 60 März 06 2816 2112 5947392 24 USB2.0 ja 2,1 16 Canon Digital Ixus 65 April 06 2816 2112 5947392 24 USB2.0 ja 2,1 16 Canon Digital Ixus 700 April 05 3072 2304 7077888 24 USB2.0 ja 2 32 Canon Digital Ixus 750 September 05 3072 2304 7077888 24 USB2.0 ja 2 32 Canon Digital Ixus 800 IS April 06 2816 2112 5947392 24 USB2.0 ja 2,1 16 Canon Digital Ixus 850 IS Oktober 06 3072 2304 7077888 24 USB2.0 ja 1,7 16 Canon Digital Ixus 900 Ti September 06 3648 2736 9980928 24 USB2.0 ja 2,1 Canon Digital Ixus i 2272 1704 3871488 24 USB nein 1,6 Canon Digital Ixus i zoom September 05 2592 1944 5038848 24 USB ja 1,8 Canon Digital Ixus i5 November 04 2592 1944 5038848 24 USB nein 0,9 Canon Digital Ixus i7 Oktober 06 3072 2304 7077888 24 USB2.0 ja 1,6 Canon Digital Ixus IIs März 04 2048 1536 3145728 24 USB1.x nein 2,2 Canon Digital Ixus Wireless Januar 06 2592 1944 5038848 24 USB2.0, WLAN ja 2,1 Canon EOS 20D September 04 3504 2336 8185344 36 USB2.0 ja 5 Oktober 03 64 64 14 3 32 8 14 1,6 3 23 16 16 5 32 16 5 32 32 4 32 16 17 32 16 12 16 16 23 0 Anhang D - Tabellen Hersteller Model 128 Einführung Breite Höhe Anzahl Farbe Anschluss Datum Pixel Pixel Pixel Bit extern intern B/Sek Bilder MByte 8185344 36 USB2.0 ja 5 23 0 September 05 3504 2336 Intervall Schreiben Volllast Speicher Canon EOS 20Da Canon EOS 30D März 06 3504 2336 8185344 36 USB2.0 ja 5 30 0 Canon EOS 350D März 05 3456 2304 7962624 36 USB2.0 nein 3 14 0 Canon EOS 400D September 06 3888 2592 10077696 36 USB2.0 nein 3 27 0 Canon EOS 5D September 05 4368 2912 12719616 36 USB2.0 nein 3 60 0 Canon EOS-1D Mark II Canon April 04 3504 2336 8185344 36 USB1.x, Firewire ja 8,5 40 0 EOS-1D Mark II N September 05 3504 2336 8185344 36 USB1.x, Firewire ja 8,5 48 0 Canon EOS-1Ds Mark II November 04 4992 3328 16613376 36 USB1.x, Firewire ja 4 32 0 Canon PowerShot A310 März 04 2048 1536 3145728 24 USB1.x nein 2,2 12 16 Canon PowerShot A400 September 04 2048 1536 3145728 24 USB1.x nein 1,3 12 16 Canon PowerShot A410 August 05 2048 1536 3145728 24 USB2.0 ja 2,5 16 Canon PowerShot A420 März 06 2272 1704 3871488 24 USB ja 2,3 16 Canon PowerShot A430 März 06 2272 1704 3871488 24 USB ja 2,3 Canon PowerShot A510 Februar 05 2048 1536 3145728 24 USB1.x ja 2,3 12 16 Canon PowerShot A520 März 05 2272 1704 3871488 24 USB1.x ja 1,9 8 16 Canon PowerShot A530 März 06 2592 1944 5038848 24 USB2.0 ja 2,1 16 Canon PowerShot A540 März 06 2816 2112 5947392 24 USB2.0 ja 2,3 16 Canon PowerShot A610 September 05 2592 1944 5038848 24 USB2.0 ja 2,4 16 Canon PowerShot A620 September 05 3072 2304 7077888 24 USB2.0 ja 2,4 32 Canon PowerShot A630 September 06 3264 2448 7990272 24 USB2.0 ja 1,8 32 Canon PowerShot A640 September 06 3648 2736 9980928 24 USB2.0 ja 1,5 32 Canon PowerShot A700 2816 2112 5947392 24 USB2.0 ja 2 16 Canon PowerShot A710 IS September 06 3072 2304 7077888 24 USB2.0 ja 1,7 Canon PowerShot A75 März 04 2048 1536 3145728 24 USB1.x nein 2,2 Canon PowerShot A80 Oktober 03 2272 1704 3871488 24 USB1.x nein 2,4 Canon PowerShot A85 August 04 2272 1704 3871488 24 USB1.x nein 1,5 8 32 Canon PowerShot A95 September 04 2592 1944 5038848 24 USB1.x nein 1,5 17 32 Canon PowerShot G6 September 04 3072 2304 7077888 24 USB ja 1,2 23 32 Canon PowerShot G7 Canon März 06 16 32 12 32 32 Oktober 06 3648 2736 9980928 24 USB2.0 nein 2 PowerShot Pro1 März 04 3264 2448 7990272 24 USB ja 2,5 6 64 Canon PowerShot S1 IS März 04 2048 1536 3145728 24 USB ja 1,7 17 32 Canon PowerShot S2 IS Juni 05 2592 1944 5038848 24 USB2.0 ja 2,3 Canon PowerShot S3 IS Mai 06 2816 2112 5947392 24 USB2.0 ja 1,5 Canon PowerShot S60 Juli 04 2592 1944 5038848 24 USB1.x nein 2 8 32 Canon PowerShot S70 September 04 3072 2304 7077888 24 USB1.x nein 2 15 32 Canon PowerShot S80 Oktober 05 3264 2448 7990272 24 USB2.0 ja 1,8 Casio Exilim Card EX-S100 Oktober 04 2048 1536 3145728 k.A. USB nein Casio Exilim Card EX-S500 Juli 05 2560 1920 4915200 k.A. USB2.0 nein 1 8,3 Casio Exilim Card EX-S600 Januar 06 2816 2112 5947392 24 USB2.0 nein 1 8,3 Casio Exilim Card EX-S600D Juli 06 2816 2112 5947392 24 USB2.0 nein 1 8,3 Casio Exilim Card EX-S770 Januar 06 3072 2304 7077888 24 USB2.0 nein 1 6 Casio Exilim EX-Z10 September 05 2560 1920 4915200 24 USB2.0 nein 1,1 8,7 3678 2736 10063008 24 USB2.0 nein 2816 2112 5947392 24 USB2.0 nein 1,1 8,7 September 05 3072 2304 1,1 8,3 Mai 06 32 16 16 32 9,3 Casio Exilim EX-Z1000 Casio Exilim EX-Z110 Casio Exilim EX-Z120 7077888 24 USB2.0 nein Casio Exilim EX-Z30 März 04 2048 1536 3145728 k.A. USB nein Casio Exilim EX-Z4 Oktober 03 2304 1728 3981312 k.A. USB1.x nein 10 Casio Exilim EX-Z40 März 04 2304 1728 3981312 k.A. USB nein 9,7 Casio Exilim EX-Z5 Mai 06 2560 1920 4915200 24 USB2.0 nein 8,3 Casio Exilim EX-Z50 Oktober 04 2560 1920 4915200 k.A. USB nein Casio Exilim EX-Z500 August 05 2560 1920 4915200 24 USB2.0 nein Casio Exilim EX-Z55 Oktober 04 2560 1920 4915200 k.A. USB nein Casio Exilim EX-Z57 März 05 2560 1920 4915200 k.A. USB nein Casio Exilim EX-Z60 März 06 2816 2112 5947392 24 USB2.0 nein 1 8,3 Casio Exilim EX-Z600 Januar 06 2816 2112 5947392 24 USB2.0 nein 1 8,3 Casio Exilim EX-Z70 Juni 06 3072 2304 7077888 24 USB2.0 nein 1 8,3 Casio Exilim EX-Z700 August 06 3072 2304 7077888 24 USB2.0 nein 1 8,3 Casio Exilim EX-Z750 April 05 3072 2304 7077888 k.A. USB2.0 nein 1 8,3 Casio Exilim EX-Z850 März 06 3264 2448 7990272 24 USB2.0 nein 0,9 Casio Exilim Pro EX-P505 März 05 2560 1920 4915200 24 USB2.0 nein Casio Exilim Pro EX-P600 März 04 2816 2112 5947392 k.A. USB nein 3 6 9 Casio Exilim Pro EX-P700 Oktober 04 3072 2304 7077888 k.A. USB nein 3 5 8,9 Casio QV-R41 Februar 04 2304 1712 3944448 k.A. USB nein 3 3 9,7 Casio QV-R51 Januar 04 2560 1920 4915200 k.A. USB ja 3 3 9,7 Casio QV-R52 Oktober 04 2560 1920 4915200 k.A. USB ja 3 3 9,7 Casio QV-R61 Oktober 04 2816 2112 5947392 k.A. USB ja 3 3 9,7 Casio QV-R62 Januar 05 2816 2112 5947392 k.A. USB ja 3 3 9,7 Concord 1500 Februar 05 1280 1024 1310720 24 USB1.x nein Concord 3045 März 05 2048 1536 3145728 24 USB1.x nein 5 16 Concord Eye-Q 3040AF Oktober 03 2048 1536 3145728 30 USB nein 7 Concord Eye-Q 4342z November 03 2272 1704 3871488 k.A. USB nein 16 Contax i4R November 04 2272 1704 3871488 k.A. USB2.0 nein August 05 8 9,7 9,3 1,1 8,7 9,3 9,3 8 7,5 8 3 16 Anhang D - Tabellen Hersteller Model 129 Einführung Breite Höhe Anzahl Farbe Anschluss Datum Pixel Pixel Pixel Bit extern Intervall Schreiben Volllast Speicher intern B/Sek Februar 04 2048 1536 3145728 k.A. USB nein 3,5 November 04 2272 1704 3871488 k.A. USB2.0 nein 3 Oktober 03 2304 1728 3981312 k.A. USB1.x nein 16 Bilder MByte Contax SL300R T Contax U4R 16 Epson PhotoPC L-400 Epson PhotoPC L-500V November 04 2560 1920 4915200 k.A. USB2.0 nein 0 Epson R-D1 November 04 3008 2000 6016000 36 PC-Synchronbuchse nein 0 Epson R-D1s Juli 06 3008 2000 6016000 36 PC-Synchronbuchse nein 0 Fujifilm Digital Q1 November 03 1600 1200 1920000 k.A. USB nein 8 Fujifilm FinePix A120 April 04 2016 1512 3048192 k.A. USB nein 16 Fujifilm FinePix A330 April 04 2016 1512 3048192 k.A. USB nein 16 Fujifilm FinePix A340 April 04 2272 1704 3871488 k.A. USB nein Fujifilm FinePix A345 März 05 2272 1704 3871488 k.A. USB nein 1,5 3 16 Fujifilm FinePix A350 Juni 05 2592 1944 5038848 k.A. USB nein 1,5 3 16 Fujifilm FinePix A400 März 06 2304 1728 3981312 24 USB2.0 nein 12 Fujifilm FinePix A500 März 06 2592 1944 5038848 24 USB2.0 nein 12 Fujifilm FinePix A510 April 06 2592 1944 5038848 24 USB2.0 nein Fujifilm FinePix A600 Juli 06 3024 2016 6096384 24 USB2.0 nein Fujifilm FinePix A700 Oktober 06 3072 2304 7077888 24 USB2.0 nein 12 Fujifilm FinePix E500 September 04 2304 1728 3981312 k.A. USB1.x nein 16 Fujifilm FinePix E510 September 04 2592 1944 5038848 k.A. USB1.x nein 16 Fujifilm FinePix E550 September 04 2848 2136 6083328 k.A. USB nein Fujifilm FinePix E900 0 16 12 0,95 3 16 16 Oktober 05 3488 2616 9124608 k.A. USB2.0 nein 0,6 40 128 Fujifilm FinePix F10 April 05 2848 2136 6083328 k.A. USB2.0 nein 2,2 3 16 Fujifilm FinePix F11 November 05 2848 2136 6083328 k.A. USB2.0 nein 2,2 3 16 Fujifilm FinePix F20 September 06 2848 2136 6083328 24 USB2.0 nein 0,7 10 Fujifilm FinePix F30 16 Fujifilm Juli 06 2848 2136 6083328 24 USB2.0 nein 0,7 FinePix F31fd Dezember 06 2848 2136 6083328 24 USB2.0, IrDA-Infrarot nein 0,7 Fujifilm FinePix F420 März 04 2048 1536 3145728 k.A. USB nein 6 4 16 Fujifilm FinePix F440 September 04 2304 1728 3981312 k.A. USB nein 4 8 16 Fujifilm FinePix F450 September 04 2592 1944 5038848 k.A. USB1.x nein Fujifilm FinePix F455 November 04 2592 1944 5038848 k.A. USB1.x nein Fujifilm FinePix F460 November 05 2592 1944 5038848 k.A. USB1.x nein Fujifilm FinePix F470 März 06 2816 2112 5947392 24 USB2.0 nein Fujifilm FinePix F610 März 04 2848 2136 6083328 24 USB1.x Fujifilm FinePix F650 Juli 06 2816 2112 5947392 24 Fujifilm FinePix F710 April 04 2048 1536 3145728 Fujifilm FinePix F810 September 04 2848 2136 Fujifilm FinePix S20 Pro April 04 Fujifilm FinePix S3 Pro Fujifilm FinePix S3000 Fujifilm Fujifilm Fujifilm FinePix S5600 Fujifilm 26 16 16 1,9 44 nein 3,3 10 16 USB2.0 nein 0,6 2 32 k.A. USB2.0 nein 1,8 40 16 6083328 k.A. USB2.0 nein 3 40 16 2048 1536 3145728 k.A. USR2.0, Firewire nein 1 Oktober 04 3024 2016 6096384 36 USR2.0, Firewire nein Oktober 03 2048 1536 3145728 24 USB nein FinePix S3500 September 04 2272 1704 3871488 k.A. USB nein FinePix S5500 September 04 2272 1704 3871488 k.A. USB nein 2592 1944 5038848 k.A. USB2.0 nein FinePix S6500fd September 06 2848 2136 6083328 24 USB2.0 nein Fujifilm FinePix S9500 September 05 3488 2616 9124608 k.A. USB2.0 nein 128 Fujifilm FinePix S9600 Oktober 06 3488 2616 9124608 k.A. USB2.0 nein 128 Fujifilm FinePix V10 März 06 2592 1944 5038848 24 USB2.0 nein 16 Fujifilm FinePix Z1 Juni 05 2592 1944 5038848 24 USB2.0 nein 16 Fujifilm FinePix Z2 November 05 2592 1944 5038848 24 USB2.0, IrDA-Infrarot nein Fujifilm FinePix Z3 Mai 06 2592 1944 5038848 24 USB2.0, IrDA-Infrarot nein Fujitsu-Siemens CX 431 Januar 04 2272 1704 3871488 k.A. USB nein Hewlett-Packard HP Photosmart M305 August 04 2080 1544 3211520 36 USB nein Hewlett-Packard Photosmart E317 September 05 2560 1920 4915200 36 USB2.0 nein 16 Hewlett-Packard Photosmart E327 Januar 06 2560 1920 4915200 36 USB2.0 nein 16 Hewlett-Packard Photosmart M22 April 05 2320 1744 4046080 36 USB1.x, HP Dockport nein 16 Hewlett-Packard Photosmart M23 Mai 05 2320 1744 4046080 36 USB1.x, HP Dockport nein Hewlett-Packard Photosmart M307 April 04 2080 1544 3211520 36 USB nein Hewlett-Packard Photosmart M407 April 05 2272 1704 3871488 36 USB nein Hewlett-Packard Photosmart M417 April 05 2620 1984 5198080 36 USB1.x, HP Dockport Hewlett-Packard Photosmart M517 Mai 05 2690 1984 5336960 36 Hewlett-Packard Photosmart M527 April 06 2800 2128 5958400 Hewlett-Packard Photosmart R507 September 04 2320 1744 Hewlett-Packard Photosmart R607 Mai 05 Hewlett-Packard Photosmart R707 Hewlett-Packard Oktober 05 13 16 16 0 2 4 1,6 40 16 16 16 16 0,7 10 16 0,7 10 16 4 16 16 4 16 2 4 16 nein 2 3 16 USB2.0, HP Dockport nein 2 4 32 36 USB2.0, HP Dockport nein 2 3 16 4046080 36 USB2.0 nein 32 2320 1744 4046080 36 USB2.0 nein 32 Mai 04 2612 1968 5140416 36 USB nein Photosmart R717 April 05 2934 2170 6366780 36 USB1.x, HP Dockport nein 3 3 32 Hewlett-Packard Photosmart R727 April 06 2864 2160 6186240 36 USB2.0, HP Dockport nein 2 3 32 Hewlett-Packard Photosmart R817 Juni 05 2592 1935 5015520 36 USB2.0, HP Dockport nein 2 4 32 Hewlett-Packard Photosmart R827 August 06 3112 2328 7244736 36 USB2.0, HP Dockport nein Hewlett-Packard Photosmart R927 März 06 3312 2496 8266752 48 USB2.0, HP Dockport nein 1 3 Hewlett-Packard Photosmart R967 August 06 3664 2752 10083328 48 USB2.0, HP Dockport nein Jay-tech Jay-Cam i4800 Jenoptik JD 3.3z10 32 32 32 32 März 04 2272 1704 3871488 k.A. USB2.0 nein 20 3 16 November 03 2048 1536 3145728 k.A. USB1.x nein 3,3 9 16 Anhang D - Tabellen Hersteller Model 130 Einführung Breite Höhe Anzahl Farbe Anschluss Datum Pixel Pixel Pixel Bit extern Intervall Schreiben Volllast Speicher intern B/Sek Bilder MByte Jenoptik JD 4.1 xz3 April 04 2272 1704 3871488 24 USB1.x nein 16 Jenoptik JD 4100 zoom April 04 2272 1704 3871488 24 USB1.x nein 16 Jenoptik JD 5.2 z3 MPEG 4 April 04 2560 1920 4915200 24 USB1.x nein Jenoptik JD C 3.1 SL März 05 2048 1536 3145728 24 USB1.x nein Kodak C300 Mai 05 2080 1544 3211520 24 USB nein Kodak C310 August 05 2304 1728 3981312 24 USB2.0 nein Kodak C330 Juli 05 2304 1728 3981312 24 USB2.0 nein 1,8 3 16 Kodak C340 Mai 05 2576 1932 4976832 24 USB nein 3 3 16 Kodak C360 Zoom Juni 05 2576 1932 4976832 24 USB2.0 nein 2,4 5 32 Kodak C530 Juni 06 2576 1932 4976832 24 USB2.0 nein Kodak C533 Juni 06 2576 1932 4976832 24 USB2.0 nein 0,6 4 16 Kodak C643 April 06 2848 2134 6077632 24 USB2.0 nein 0,8 4 32 Kodak C663 Februar 06 2832 2128 6026496 24 USB2.0 nein 0,8 4 32 Kodak C875 September 06 3264 2448 7990272 24 USB2.0 nein 2 Kodak CX7220 März 04 1632 1232 2010624 k.A. USB1.x nein 2 3 Kodak CX7300 März 04 2080 1544 3211520 k.A. USB nein Kodak CX7330 Juni 04 2032 1524 3096768 k.A. USB1.x nein 3 3 16 Kodak CX7430 März 04 2304 1728 3981312 k.A. USB1.x nein 3 6 16 Kodak CX7525 Juli 04 2560 1920 4915200 k.A. USB1.x nein 2,4 5 16 Kodak CX7530 Juli 04 2560 1920 4915200 k.A. USB1.x nein 2,4 5 32 Kodak DCS Pro SLR c Mai 04 4536 3024 13716864 36 Firewire ja 1,7 19 512 Kodak DCS Pro SLR n März 04 4536 3024 13716864 36 Firewire ja 1,7 19 512 Kodak DX6490 Zoom Oktober 03 2304 1728 3981312 k.A. USB2.0 nein 3 6 16 Kodak DX7440 Juli 04 2304 1728 3981312 k.A. USB2.0 nein 2 6 32 Kodak DX7590 September 04 2576 1932 4976832 k.A. USB2.0 nein 2,5 5 32 Kodak DX7630 April 04 2856 2142 6117552 k.A. USB2.0 nein 2 4 32 Kodak EasyShare-One Juni 05 2408 1758 4233264 24 USB nein 2 6 256 Kodak LS743 Zoom April 04 2304 1728 3981312 k.A. USB nein 3 6 16 Kodak LS753 Zoom Juni 04 2569 1929 4955601 k.A. USB nein 3 6 32 Kodak LS755 Zoom November 04 2592 1944 5038848 24 USB2.0 nein 4 1 16 Kodak P712 Juli 06 3072 2304 7077888 k.A. USB2.0 ja 2,6 Kodak P850 September 05 2592 1944 5038848 k.A. USB2.0 ja 2,3 Kodak P880 September 05 3264 2448 7990272 k.A. USB2.0 ja 1,6 7 32 Kodak V530 Juli 05 2576 1932 4976832 24 USB2.0 nein 2,5 5 16 Kodak V550 Juni 05 2576 1932 4976832 24 USB2.0 nein 3 5 32 Kodak V570 Januar 06 2576 1932 4976832 24 USB2.0 nein 2,3 4 32 Kodak V603 Mai 06 2832 2128 6026496 24 USB2.0 nein 3 4 32 Kodak V610 Juni 06 2832 2128 6026496 24 USB2.0, Bluetooth nein 1,6 8 32 Kodak V705 September 06 3072 2304 7077888 24 USB2.0, Bluetooth nein 2 7 32 Kodak Z612 Juni 06 2832 2128 6026496 24 USB2.0 nein 2 8 32 Kodak Z650 Februar 06 2832 2128 6026496 24 USB2.0 nein 2,5 4 32 Kodak Z700 März 05 2304 1728 3981312 24 USB2.0 nein 3 6 16 Kodak Z710 September 06 3072 2304 7077888 24 USB2.0 nein 1,7 3 32 Kodak Z730 Mai 05 2576 1932 4976832 24 USB2.0 nein 2,5 5 32 Kodak Z750 März 05 2576 1932 4976832 24 USB2.0 nein 2 5 32 Kodak Z7590 Mai 05 2576 1932 4976832 24 USB2.0 nein 2 5 32 Konica KD-3300 Z Januar 04 2048 1536 3145728 k.A. USB nein Konica Revio KD-420Z November 03 2272 1704 3871488 k.A. USB nein 2,5 3 16 Konica Minolta Dimage A2 März 04 3264 2448 7990272 48 USB2.0 ja 1,8 3 0 Konica Minolta Dimage A200 November 04 3264 2448 7990272 36 USB2.0 nein 2 3 Konica Minolta Dimage E40 Januar 05 2272 1704 3871488 24 USB1.x nein Konica Minolta Dimage E50 Januar 05 2560 1920 4915200 24 USB1.x nein Konica Minolta Dimage G500 Februar 04 2593 1944 5040792 k.A. USB1.x nein 1,5 2 Konica Minolta Dimage G530 August 04 2592 1944 5038848 k.A. USB2.0 nein 0,7 16 Konica Minolta Dimage G600 April 04 2816 2112 5947392 k.A. USB nein Konica Minolta Dimage X1 September 05 3264 2448 7990272 k.A. USB2.0 nein 0,5 Konica Minolta Dimage X21 April 04 1600 1200 1920000 36 USB nein 1,5 Konica Minolta Dimage X31 Juli 04 2048 1536 3145728 36 USB nein Konica Minolta Dimage X50 August 04 2560 1920 4915200 k.A. USB2.0 nein 1,9 Konica Minolta Dimage X60 Mai 05 2560 1920 4915200 k.A. USB2.0 nein 1,6 Konica Minolta Dimage Xg März 04 2048 1536 3145728 36 USB nein 1,5 Konica Minolta Dimage Z10 August 04 2048 1536 3145728 k.A. USB2.0 nein 1,5 5 Konica Minolta Dimage Z2 April 04 2272 1704 3871488 k.A. USB nein 1,5 5 48 Konica Minolta Dimage Z20 Februar 05 2560 1920 4915200 k.A. USB2.0 nein 1 5 30,5 Konica Minolta Dimage Z3 August 04 2272 1704 3871488 k.A. USB2.0 nein 2,5 2 48 Konica Minolta Dimage Z5 Februar 05 2560 1920 4915200 k.A. USB2.0 nein 2,2 2 16 Konica Minolta Dimage Z6 September 05 2816 2112 5947392 k.A. USB2.0 nein 1,8 Konica Minolta Dynax 5D September 05 3008 2000 6016000 k.A. USB2.0 nein 3 3 Konica Minolta Dynax 7D November 04 3008 2000 6016000 k.A. USB2.0 ja 3 9 Kyocera Finecam L30 November 03 2048 1536 3145728 k.A. USB1.x nein Kyocera Finecam M400R April 04 2272 1704 3871488 24 USB2.0 nein 3,3 Kyocera Finecam M410R April 04 2272 1704 3871488 24 USB2.0 nein 3,3 0 Kyocera Finecam S3R November 03 2048 1536 3145728 k.A. USB nein 3,1 16 16 0,5 3 16 16 16 13 32 16 16 32 32 16 0 32 0 18 3 32 8 16 16 4 15 16 32 16 64 0 16 0 Anhang D - Tabellen Hersteller Model 131 Einführung Breite Höhe Anzahl Farbe Anschluss Datum Pixel Pixel Pixel Bit extern Intervall Schreiben Volllast Speicher intern B/Sek Kyocera Finecam SL400R April 04 2304 1728 3981312 k.A. USB nein 3 Bilder MByte Leica C-LUX 1 Mai 06 2816 2112 5947392 24 USB2.0 nein 3 Leica Digilux 2 Februar 04 2560 1920 4915200 36 USB2.0 nein 2,7 64 Leica Digilux 3 Oktober 06 3136 2352 7375872 k.A. USB2.0 nein 3 1 Leica D-LUX 2 November 05 3840 2160 8294400 k.A. USB2.0 nein Leica D-LUX 3 Oktober 06 4224 2376 10036224 k.A. USB2.0 nein 2 3 November 06 3916 2634 10314744 16 8 64 0 64 Leica M8 48 USB2.0 nein 2 10 0 Leica V-LUX 1 Oktober 06 3648 2736 9980928 k.A. USB2.0 nein 2 3 512 Maginon DC2100 Januar 04 1600 1200 1920000 24 USB nein 8 Maginon DC-3010 April 05 2048 1536 3145728 24 USB nein 32 Maginon DC-320 April 05 2032 1520 3088640 24 USB2.0 nein 16 Maginon DC-5000 April 05 2560 1920 4915200 24 USB nein Maginon DC-5300 Oktober 03 2560 1920 4915200 24 USB ja Maginon Slimline X4 November 04 2272 1704 3871488 24 USB1.x nein Maginon Slimline X5 Januar 05 2560 1920 4915200 24 USB2.0 nein Mamiya ZD 5328 4000 21312000 48 Firewire nein Medion MD 2998 Januar 04 2560 1920 4915200 24 USB nein Medion MD 40696 Dezember 03 2592 1944 5038848 24 USB1.x nein Medion MD 85416 Juni 06 2816 2112 5947392 24 USB2.0 ja Minolta Dimage G400 November 03 2272 1704 3871488 k.A. USB nein Minox DC 4211 September 04 2272 1704 3871488 24 USB1.x nein Minox DC 5222 Januar 05 2560 1920 4915200 24 USB2.0 nein Minox DC 6211 Dezember 05 2816 2112 5947392 24 USB2.0 nein Minox DC 6311 September 04 2816 2112 5947392 24 USB1.x ja 32 Minox DC 8111 Juli 05 3264 2448 7990272 24 USB1.x nein 64 Minox DC-5011 März 06 2560 1920 4915200 24 USB nein Minox DC5211 Dezember 03 2560 1920 4915200 24 USB1.x ja Minox DC-6011 slim März 06 2816 2112 5947392 24 USB1.x nein Mustek MDC 6500Z Oktober 04 2560 1920 4915200 24 USB2.0 nein 32 Nikon Coolpix 2200 März 04 1600 1200 1920000 k.A. USB nein 14,5 Nikon Coolpix 3200 März 04 2048 1536 3145728 k.A. USB nein Nikon Coolpix 3700 Dezember 03 2048 1536 3145728 k.A. USB1.x ja Nikon Coolpix 4100 Juni 04 2288 1712 3917056 k.A. USB nein Nikon Coolpix 4200 Juli 04 2272 1704 3871488 k.A. USB nein 1 16 Nikon Coolpix 4600 Februar 05 2288 1712 3917056 24 USB2.0 nein 1,3 3 Nikon Coolpix 4800 November 04 2288 1712 3917056 24 USB nein 1,5 Nikon Coolpix 5200 Juni 04 2592 1944 5038848 k.A. USB nein 2,5 Nikon Coolpix 5600 Februar 05 2592 1944 5038848 k.A. USB2.0 nein 1,3 3 14 Nikon Coolpix 5900 Februar 05 2592 1944 5038848 k.A. USB2.0 nein 2 5 13,5 Nikon Coolpix 7600 Juni 05 3072 2304 7077888 k.A. USB2.0 nein Nikon Coolpix 7900 März 05 3072 2304 7077888 k.A. USB2.0 nein 1,7 7 13,5 Nikon Coolpix 8400 Oktober 04 3264 2448 7990272 k.A. USB2.0 ja 2,3 5 0 Nikon Coolpix 8700 Februar 04 3264 2448 7990272 k.A. USB ja 2,5 5 0 Nikon Coolpix 8800 Oktober 04 3264 2448 7990272 k.A. USB2.0 ja 2,3 5 Nikon Coolpix L1 September 05 2816 2112 5947392 24 USB2.0 nein Nikon Coolpix L101 September 05 2816 2112 5947392 24 USB2.0 nein 0,7 10 Nikon Coolpix L2 Februar 06 2816 2112 5947392 24 USB2.0 nein 1,7 23 Nikon Coolpix L3 Februar 06 2592 1944 5038848 24 USB2.0 nein 1,7 23 Nikon Coolpix L4 März 06 2272 1704 3871488 24 USB2.0 nein Nikon Coolpix L5 September 06 3072 2304 7077888 24 USB2.0 nein 0,7 8 Nikon Coolpix L6 September 06 2816 2112 5947392 24 USB2.0 nein 1,7 23 Nikon Coolpix P1 September 05 3264 2448 7990272 24 USB2.0, WLAN ja 2 32 Nikon Coolpix P2 September 05 2592 1944 5038848 24 USB2.0, WLAN ja 2,5 16 Nikon Coolpix P3 Februar 06 3264 2448 7990272 24 USB2.0, WLAN ja 1,7 23 Nikon Coolpix P4 März 06 3264 2448 7990272 24 USB2.0 ja 1,7 23 Nikon Coolpix S1 Juli 05 2592 1944 5038848 24 USB1.x nein 1,8 Nikon Coolpix S10 September 06 2816 2112 5947392 24 USB2.0 ja 1,6 Nikon Coolpix S2 September 05 2592 1944 5038848 24 USB1.x ja 1,8 Nikon Coolpix S3 September 05 2816 2112 5947392 24 USB2.0 ja 1,6 12 Nikon Coolpix S4 September 05 2816 2112 5947392 24 USB2.0 nein 1,3 13,5 Nikon Coolpix S5 Februar 06 2816 2112 5947392 24 USB2.0 ja 2,2 21 Nikon Coolpix S6 März 06 2816 2112 5947392 24 USB2.0, WLAN ja 2,2 20 Nikon Coolpix S7c September 06 3072 2304 7077888 24 USB2.0, WLAN ja 1,4 Nikon Coolpix S9 September 06 2816 2112 5947392 24 USB2.0 ja 1,7 9 24 Nikon D200 Dezember 05 3872 2592 10036224 36 USB2.0 ja 5 37 0 Nikon D2H November 03 2464 1632 4021248 36 USB2.0 ja 8 40 0 Nikon D2Hs März 05 2464 1632 4021248 36 USB2.0 ja 8 50 0 Nikon D2X Oktober 04 4288 2848 12212224 36 USB2.0 ja 8 40 0 Nikon D2Xs Juli 06 4288 2848 12212224 36 USB2.0 ja 8 40 0 Nikon D50 Juni 05 3008 2000 6016000 36 USB2.0 nein 2,5 Nikon D70 März 04 3008 2000 6016000 36 USB ja 3 April 06 43 2 3 32 32 5 1,2 10 73 0 128 0,63 128 32 2,5 3 16 32 32 3 0 16 2 3 16 32 14,5 2,5 16 14,5 12 14 13,5 12 14,5 0 10 10 12 5 16 12 14 0 12 0 Anhang D - Tabellen Hersteller Model Nikon D70s Nikon D80 Olympus AZ-2 Zoom Olympus Olympus 132 Einführung Breite Höhe Anzahl Farbe Anschluss Datum Pixel Pixel Pixel Bit extern Intervall Schreiben Volllast Speicher intern B/Sek Bilder MByte April 05 3008 2000 6016000 36 USB2.0 ja 3 12 0 September 06 3872 2592 10036224 36 USB2.0 ja 3 100 0 1,5 8 16 Oktober 04 2288 1712 3917056 24 USB nein C-160 April 04 2048 1536 3145728 k.A. USB nein 16 C-170 Februar 05 2288 1721 3937648 24 USB nein 14 Olympus C-180 Juni 05 2592 1944 5038848 24 USB nein Olympus C-310 März 04 2048 1536 3145728 k.A. USB nein 1,5 12 16 Olympus C-315 Zoom Juli 05 2592 1944 5038848 24 USB nein 1,1 4 16 Olympus C-360 Zoom März 04 2048 1536 3145728 k.A. USB nein 1,5 10 16 Olympus C-370 Zoom Oktober 04 2048 1536 3145728 24 USB nein Olympus C-460 Zoom März 04 2288 1721 3937648 k.A. USB nein 1,3 8 16 Olympus C-460 Zoom del Sol März 04 2288 1721 3937648 k.A. USB nein 1,3 8 16 Olympus C-470 Zoom Oktober 04 2272 1704 3871488 24 USB nein 1 4 16 Olympus C-480 Zoom März 05 2288 1712 3917056 24 USB nein 1,3 7 14 Olympus C-500 Zoom März 05 2560 1920 4915200 24 USB nein 1,5 5 14 Olympus C-5000 Zoom Oktober 03 2560 1920 4915200 k.A. USB nein 1,7 5 32 Olympus C-5060 Wide Zoom November 03 2592 1944 5038848 k.A. USB nein 1,7 Olympus C-55 Zoom März 05 2592 1944 5038848 k.A. USB2.0 ja 2,7 5 16 Olympus C-60 Zoom Mai 04 2816 2112 5947392 k.A. USB nein 1,5 5 32 Olympus C-70 Zoom Oktober 04 3072 2304 7077888 k.A. USB2.0 ja 1,5 Olympus C-7070 Wide Zoom Februar 05 3072 2304 7077888 k.A. USB2.0 nein 1,4 10 32 Olympus C-725 Ultra Zoom Mai 04 1984 1488 2952192 k.A. USB1.x nein 1,2 5 16 Olympus C-760 Ultra Zoom Februar 04 2048 1536 3145728 k.A. USB2.0 nein 1,4 12 16 Olympus C-765 Ultra Zoom Mai 04 2272 1704 3871488 k.A. USB2.0 nein 2,1 2 16 Olympus C-770 Ultra Zoom Mai 04 2272 1704 3871488 k.A. USB2.0 nein 2,7 12 32 Olympus C-8080 Wide Zoom April 04 3264 2448 7990272 k.A. USB2.0 nein 1 26 32 Olympus E-300 Dezember 04 3264 2448 7990272 24 USB2.0 nein 2,5 3 0 Olympus E-330 März 06 3136 2352 7375872 24 USB2.0 nein 3 4 0 Olympus E-400 Oktober 06 3648 2736 9980928 24 USB2.0 nein 3 27 0 Olympus E-500 November 05 3264 2448 7990272 24 USB2.0 nein 2,5 Olympus FE-100 Oktober 05 2272 1704 3871488 24 USB nein 28 Olympus FE-110 Oktober 05 2560 1920 4915200 24 USB nein 44 Olympus FE-115 März 06 2560 1920 4915200 24 USB nein Olympus FE-120 Oktober 05 2816 2112 5947392 24 USB nein Olympus FE-130 März 06 2592 1944 5038848 24 USB nein 22 Olympus FE-140 März 06 2816 2112 5947392 24 USB nein 22 Olympus FE-150 August 06 2560 1920 4915200 24 USB nein 9 Olympus FE-160 August 06 2816 2112 5947392 24 USB nein 9 Olympus FE-170 August 06 2816 2112 5947392 24 USB2.0 nein 10 Olympus FE-180 September 06 2816 2112 Olympus FE-190 Olympus FE-200 Olympus FE-5500 Mai 05 Olympus Ferrari Digital 2004 Olympus 14 12 32 0 0 28 1,3 7 14 5947392 24 USB2.0 nein 22 2816 2112 5947392 24 USB nein 22 September 06 2816 2112 5947392 24 USB nein 24 2560 1920 4915200 24 USB nein Juli 04 2048 1536 3145728 k.A. USB2.0 nein 1 3 16 IR-300 März 05 2560 1920 4915200 24 USB nein 1,5 4 15 Olympus IR-500 Januar 05 2288 1712 3917056 24 USB2.0 nein 1,6 7 Olympus mju 1000 Oktober 06 3648 2736 9980928 24 USB2.0 nein Olympus mju 410 Digital März 04 2272 1704 3871488 k.A. USB1.x nein 2 4 32 Olympus mju 500 Digital Januar 05 2560 1920 4915200 24 USB nein 1,5 4 32 Olympus mju 700 Februar 06 3072 2304 7077888 24 USB2.0 nein 1,1 6 19 Olympus mju 720 SW März 06 3072 2304 7077888 24 USB2.0 nein 1,1 8 19 Olympus mju 725 SW Oktober 06 3072 2304 7077888 24 USB2.0 nein 1,1 8 19 Olympus mju 730 Oktober 06 3072 2304 7077888 24 USB2.0 nein 22 Olympus mju 740 September 06 3072 2304 7077888 24 USB2.0 nein 17 Olympus mju 750 September 06 3072 2304 7077888 24 USB2.0 nein 17 Olympus mju 810 Olympus August 06 14 0 28 März 06 3264 2448 7990272 24 USB2.0 nein mju Digital 600 August 05 2816 2112 5947392 24 USB2.0 nein 1,3 Olympus mju Digital 800 Juli 05 3264 2448 7990272 24 USB2.0 nein 1,3 4 19 Olympus mju-mini Digital Oktober 04 2272 1704 3871488 24 USB nein 1,3 7 0 Olympus mju-mini Digital S April 05 2560 1920 4915200 24 USB nein 1,5 4 0 Olympus SP-310 August 05 3072 2304 7077888 k.A. USB2.0 ja 2,4 2 25 Olympus SP-320 März 06 3072 2304 7077888 k.A. USB2.0 ja 1,4 10 25 Olympus SP-350 Januar 05 3264 2448 7990272 k.A. USB2.0 ja 2,4 2 25 Olympus SP-500UZ August 05 2816 2112 5947392 k.A. USB2.0 ja 2,5 3 10 Olympus SP-510UZ September 06 3072 2304 7077888 k.A. USB2.0 ja 1,7 3 21 Olympus SP-700 Oktober 05 2816 2112 5947392 24 USB nein 0,7 3 11 Panasonic D-Snap SV-AS10 Oktober 03 1600 1200 1920000 k.A. USB nein 3 3 16 Panasonic Lumix DMC-FX01 März 06 2816 2112 5947392 24 USB2.0 nein 3 8 16 Panasonic Lumix DMC-FX07 September 06 3072 2304 7077888 24 USB2.0 nein 3 8 16 Panasonic Lumix DMC-FX1 2048 1536 3145728 k.A. USB nein 4 5 16 Panasonic Lumix DMC-FX2 September 04 2304 1728 3981312 k.A. USB nein 4 Panasonic Lumix DMC-FX3 September 06 2816 2112 5947392 k.A. USB2.0 nein 3 6 13,5 Panasonic Lumix DMC-FX5 3981312 k.A. USB nein 4 5 16 Februar 04 März 04 2304 1728 28 8 16 Anhang D - Tabellen Hersteller Model 133 Einführung Breite Höhe Anzahl Farbe Anschluss Datum Pixel Pixel Pixel Bit extern Intervall Schreiben Volllast Speicher intern B/Sek Bilder MByte Panasonic Lumix DMC-FX50 September 06 3072 2304 7077888 24 USB2.0 nein 3 6 16 Panasonic Lumix DMC-FX7 September 04 2560 1920 4915200 k.A. USB2.0 nein 3 Panasonic Lumix DMC-FX8 2560 1920 4915200 k.A. USB2.0 nein 3 Panasonic Lumix DMC-FX9 September 05 2816 2112 5947392 k.A. USB2.0 nein 3 6 16 Panasonic Lumix DMC-FZ10 2304 1728 3981312 k.A. USB1.x nein 4 5 16 Panasonic Lumix DMC-FZ20 September 04 2560 1920 4915200 k.A. USB nein 4 4 16 Panasonic Lumix DMC-FZ3 September 04 2016 1512 3048192 k.A. USB nein 4 7 8 Panasonic Lumix DMC-FZ30 September 05 3264 2448 7990272 k.A. USB2.0 nein 3 5 32 Panasonic Lumix DMC-FZ4 März 05 2304 1728 3981312 k.A. USB nein 4 4 16 Panasonic Lumix DMC-FZ5 März 05 2560 1920 4915200 k.A. USB nein 3 4 16 Panasonic Lumix DMC-FZ50 September 06 3648 2736 9980928 k.A. USB2.0 nein 2 3 32 Panasonic Lumix DMC-FZ7 2816 2112 5947392 24 USB nein 3 7 16 Panasonic Lumix DMC-L1 September 06 3136 2352 7375872 k.A. USB2.0 nein 3 6 0 Panasonic Lumix DMC-LC1 März 04 2560 1920 4915200 36 USB2.0 nein 2,7 9 16 Panasonic Lumix DMC-LC50 März 04 2048 1536 3145728 k.A. USB nein 3,5 8 16 Panasonic Lumix DMC-LC70 April 04 2304 1728 3981312 k.A. USB nein 3,3 3 16 Panasonic Lumix DMC-LC80 September 04 2560 1920 4915200 k.A. USB nein 2,7 5 16 Panasonic Lumix DMC-LS1 März 05 2304 1728 3981312 k.A. USB nein 4 4 14 Panasonic Lumix DMC-LS3 März 06 2560 1920 4915200 24 USB nein 3 4 14 Panasonic Lumix DMC-LX1 September 05 3840 2160 8294400 k.A. USB nein 3 5 0 Panasonic Lumix DMC-LX2 September 06 4224 2376 10036224 k.A. USB nein 2 3 13 Panasonic Lumix DMC-LZ1 Juni 05 2304 1728 3981312 k.A. USB nein 4 4 14 Panasonic Lumix DMC-LZ2 März 05 2560 1920 4915200 k.A. USB nein 3 3 14 Panasonic Lumix DMC-LZ3 März 06 2560 1920 4915200 24 USB nein 3 3 14 Panasonic Lumix DMC-LZ4 Juni 06 2560 1920 4915200 24 USB2.0 nein 3 3 14 Panasonic Lumix DMC-LZ5 März 06 2816 2112 5947392 24 USB nein 3 6 14 Panasonic Lumix DMC-TZ1 April 06 2560 1920 4915200 24 USB nein 3 3 13,4 Pentax ist DL Juli 05 3008 2008 6040064 24 USB2.0 ja 2,8 5 0 Pentax ist DS Oktober 04 3008 2008 6040064 24 USB2.0 ja 2,8 8 0 Pentax K100D August 06 3008 2008 6040064 24 USB2.0 ja 2,8 5 0 Pentax K10D Oktober 06 3872 2592 10036224 36 USB2.0 ja 3 9 0 Pentax K110D August 06 3008 2008 6040064 24 USB2.0 ja 2,8 5 Pentax Optio 30 April 04 2048 1536 3145728 k.A. USB1.x ja 16 Pentax Optio 33LF Oktober 03 2048 1536 3145728 36 USB1.x nein 16 Pentax Optio 43WR April 04 2288 1712 3917056 k.A. USB1.x ja 16 Pentax Optio 50 April 05 2560 1920 4915200 36 USB nein 12 Pentax Optio 50L Dezember 05 2560 1920 4915200 36 USB nein Pentax Optio 555 Oktober 03 2592 1944 5038848 36 USB1.x ja Pentax Optio 60 August 05 2848 2136 6083328 36 USB nein 12 Pentax Optio 750Z September 04 3056 2296 7016576 36 USB ja 0 Pentax Optio A10 März 06 3264 2448 7990272 36 USB2.0 nein 0 Pentax Optio A20 Oktober 06 3648 2736 9980928 36 USB2.0 nein 24 Pentax Optio E10 Februar 06 2816 2112 5947392 36 USB nein 10 Pentax Optio E20 Oktober 06 2816 2112 5947392 36 USB nein 13 Pentax Optio L20 September 06 3072 2304 7077888 36 USB2.0 nein 23 Pentax Optio M10 2816 2112 5947392 36 USB nein 22 Pentax Optio M20 September 06 3072 2304 7077888 36 USB nein 22 Pentax Optio MX Juli 04 2048 1536 3145728 36 USB nein 16 Pentax Optio MX4 Oktober 04 2304 1728 3981312 36 USB nein 16 Pentax Optio S30 April 04 2048 1536 3145728 36 USB1.x nein 11 Pentax Optio S4 Oktober 03 2304 1728 3981312 k.A. USB1.x nein 11 Pentax Optio S40 April 04 2304 1728 3981312 36 USB1.x nein 11 Pentax Optio S45 Juni 05 2304 1728 3981312 36 USB nein 11 Pentax Optio S4i April 04 2304 1728 3981312 36 USB1.x ja 10 Pentax Optio S50 November 04 2560 1920 4915200 36 USB nein 11 Pentax Optio S55 Juni 05 2560 1920 4915200 36 USB nein 11 Pentax Optio S5i Oktober 04 2560 1920 4915200 36 USB1.x nein 10 Pentax Optio S5n April 05 2560 1920 4915200 36 USB2.0 nein 10 Pentax Optio S5z Juni 05 2560 1920 4915200 36 USB2.0 nein 9,3 Pentax Optio S6 Oktober 05 2816 2112 5947392 36 USB2.0 nein Pentax Optio S60 September 05 2816 2112 5947392 36 USB nein 11 Pentax Optio S7 September 06 3072 2304 7077888 36 USB2.0 nein 23 Pentax Optio SV November 04 2560 1920 4915200 36 USB2.0 ja 32 Pentax Optio Svi Juni 05 2560 1920 4915200 36 USB2.0 ja 32 Pentax Optio T10 April 06 2816 2112 5947392 36 USB2.0 ja 12 Pentax Optio T20 Oktober 06 3072 2304 7077888 36 USB2.0 ja 12 Pentax Optio W10 März 06 2816 2112 5947392 36 USB nein 10,5 Pentax Optio W20 September 06 3072 2304 7077888 36 USB ja Pentax Optio WP April 05 2560 1920 4915200 k.A. USB nein Pentax Optio Wpi Oktober 05 2816 2112 5947392 k.A. USB nein 10,5 Pentax Optio X November 04 2560 1920 4915200 k.A. USB1.x ja 14 Practica DCZ 5.1 Dezember 03 2560 1920 4915200 24 USB nein 32 Juli 05 Januar 04 März 06 März 06 16 16 0 12 1,25 16 1,6 23 21,9 3 3 10,5 Anhang D - Tabellen Hersteller Model 134 Einführung Breite Höhe Anzahl Farbe Anschluss Datum Pixel Pixel Pixel Bit extern Intervall Schreiben Volllast Speicher intern B/Sek Bilder MByte Practica Luxmedia 4008 Juni 04 2272 1704 3871488 k.A. USB2.0 nein 20 3 16 Practica Luxmedia 5203 November 05 2560 1920 4915200 24 USB nein 4 32 Practica Luxmedia 8003 November 05 3264 2448 7990272 24 USB nein 4 32 Revue DC8000 Juli 05 3264 2448 7990272 24 USB1.x nein Ricoh Caplio 300G Oktober 03 2048 1536 3145728 k.A. USB1.x ja 7,6 15 Ricoh Caplio 400G Wide April 04 2048 1536 3145728 k.A. USB1.x ja 7,6 15 Ricoh Caplio 500G Wide August 06 3264 2448 7990272 k.A. USB2.0 ja Ricoh Caplio GX Mai 04 2592 1944 5038848 k.A. USB1.x ja Ricoh Caplio GX8 Mai 05 3264 2448 7990272 k.A. USB2.0 ja Ricoh Caplio R1 September 04 2304 1728 3981312 k.A. USB1.x ja 12 Ricoh Caplio R1V Ricoh Caplio R2 Ricoh Caplio R3 Ricoh Caplio R30 Januar 06 Ricoh Caplio R4 Ricoh Caplio R40 Ricoh Caplio R5 Ricoh Caplio RR330 März 04 Ricoh Caplio RR530 Ricoh 64 8 8 26 16 0,6 26 Januar 05 2560 1920 4915200 k.A. USB1.x ja 12 März 05 2560 1920 4915200 24 USB1.x ja 28 September 05 2592 1944 5038848 24 USB1.x ja 26 2592 1944 5038848 24 USB1.x ja 28 März 06 2816 2112 5947392 24 USB1.x ja 26 Juni 06 2816 2112 5947392 24 USB1.x ja 28 September 06 3072 2304 7077888 24 USB2.0 ja 26 2048 1536 3145728 k.A. USB1.x nein 16 Oktober 05 2560 1920 4915200 36 USB1.x nein 12 Caplio RR630 März 06 2848 2136 6083328 24 USB1.x nein 16 Ricoh Caplio RR660 Juli 06 2816 2112 5947392 24 USB1.x nein 16 Ricoh Caplio RX April 04 2048 1536 3145728 k.A. USB1.x ja 8 Ricoh Caplio RZ1 September 04 2304 1728 3981312 k.A. USB1.x ja 12 Ricoh GR Digital November 05 3264 2448 7990272 k.A. USB2.0 ja 26 Rollei db60 Februar 06 2816 2112 5947392 24 USB2.0 ja Rollei dk4010 November 04 2272 1704 3871488 24 USB2.0 nein 3,3 Rollei dp3210 Dezember 03 2048 1536 3145728 k.A. USB1.x nein 1,25 Rollei dp8300 Juli 05 3264 2448 7990272 24 USB1.x nein 64 Rollei dr4 März 05 2304 1728 3981312 k.A. USB1.x nein 12 Rollei dr5 März 05 2560 1920 4915200 k.A. USB1.x ja 12 Rollei dr5100 November 04 2592 1944 5038848 k.A. USB1.x ja 16 Rollei Prego dp5200 November 04 2560 1920 4915200 24 USB1.x nein Rollei Prego dp6300 September 04 2816 2112 5947392 24 USB1.x ja 5 32 5 32 24 0 16 16 0 Samsung Digimax 530 Juli 04 2592 1944 5038848 k.A. USB1.x nein Samsung Digimax A4 März 05 2272 1704 3871488 24 USB1.x nein Samsung Digimax A40 September 05 2272 1704 3871488 24 USB2.0 nein 11 Samsung Digimax A400 Samsung Digimax A402 Samsung Digimax A5 Samsung 16 Oktober 04 2272 1704 3871488 24 USB1.x nein 16 Mai 05 2272 1704 3871488 24 USB1.x nein 16 November 04 2592 1944 5038848 24 USB1.x nein 16 Digimax A50 September 05 2592 1944 5038848 24 USB2.0 nein 16 Samsung Digimax A55W September 05 2592 1944 5038848 24 USB2.0 nein 32 Samsung Digimax A6 Oktober 04 2816 2112 5947392 24 USB1.x nein 32 Samsung Digimax A7 März 05 3072 2304 7077888 24 USB1.x nein 32 Samsung Digimax i5 Juni 05 2592 1944 5038848 24 USB2.0 nein 50 Samsung Digimax i50 MP3 September 05 2592 1944 5038848 24 USB2.0 nein 48 Samsung Digimax i6 45 Samsung Digimax L50 Samsung Digimax L55W Samsung Digimax L60 Samsung Digimax L70 Samsung Digimax L85 Samsung März 06 2816 2112 5947392 24 USB2.0 nein August 05 2592 1944 5038848 24 USB2.0 nein September 05 2592 1944 5038848 24 USB2.0 nein 2 0 2816 2112 5947392 24 USB2.0 nein 2 32 September 06 3072 2304 März 06 32 7077888 24 USB2.0 ja 3264 2448 7990272 24 USB2.0 nein 2 32 Digimax Pro815 September 05 3264 2448 7990272 24 USB2.0 ja 1 64 Samsung Digimax S1000 September 06 3672 2760 10134720 24 USB2.0 nein 45 Samsung Digimax S500 Februar 06 2592 1944 5038848 24 USB2.0 nein 20 Samsung Digimax S600 Februar 06 2816 2112 5947392 24 USB2.0 nein 20 Samsung Digimax S700 September 06 3072 2304 7077888 24 USB2.0 nein 20 Samsung Digimax S800 Samsung März 06 32 März 06 3264 2448 7990272 24 USB2.0 nein 20 Digimax U-CA 3 Dezember 03 2048 1536 3145728 k.A. USB1.x nein 32 Samsung Digimax U-CA 4 Oktober 04 2272 1704 3871488 k.A. USB1.x nein 32 Samsung Digimax U-CA 401 Juli 04 2272 1704 3871488 k.A. USB nein 16 Samsung Digimax U-CA 5 Juni 05 2592 1944 5038848 24 USB2.0 nein 32 Samsung Digimax U-CA 505 November 04 2560 1920 4915200 k.A. USB1.x nein 16 Samsung Digimax V40 August 04 2272 1704 3871488 k.A. USB nein 32 Samsung Digimax V5 Juni 04 2560 1920 4915200 k.A. USB1.x nein Samsung Digimax V50 Juni 04 2592 1944 5038848 24 USB2.0 nein Samsung Digimax V6 Oktober 04 2816 2112 5947392 k.A. USB1.x nein Samsung Digimax V70 November 04 3072 2304 7077888 k.A. USB2.0 nein 0 Samsung Digimax V700 März 05 3072 2304 7077888 24 USB1.x nein 32 Samsung Digimax V800 Oktober 05 3264 2448 Samsung GX-10 November 06 Samsung GX-1L Samsung GX-1S Samsung Samsung 32 3 0 32 7990272 24 USB2.0 nein 3872 2592 10036224 36 USB2.0 ja 3 9 32 0 April 06 3008 2008 6040064 24 USB2.0 ja 2,8 5 0 April 06 3008 2008 6040064 24 USB2.0 ja 2,8 8 NV10 September 06 3648 2736 9980928 24 USB2.0 nein 19 NV3 September 06 3072 2304 7077888 24 USB2.0 nein 15 0 Anhang D - Tabellen Hersteller Model 135 Einführung Breite Höhe Anzahl Farbe Anschluss Datum Pixel Pixel Pixel Bit extern intern 7077888 24 USB2.0 nein 19 16 September 06 3072 2304 Intervall Schreiben Volllast Speicher B/Sek Bilder MByte Samsung NV7 OPS Sanyo VPC-J2 EX Oktober 03 2880 2160 6220800 k.A. USB1.x nein Sanyo VPC-J4 EX April 04 2288 1712 3917056 k.A. USB nein 0 Sanyo VPC-S3 EX Mai 04 2048 1536 3145728 k.A. USB2.0 nein 16 Sanyo VPC-S4 Juli 04 2288 2448 5601024 k.A. USB2.0 nein Sanyo Xacti VPC-A5 Oktober 04 2560 1920 4915200 k.A. USB2.0 nein Sanyo Xacti VPC-C4 Oktober 04 2288 2448 5601024 k.A. USB2.0 nein 0 Sanyo Xacti VPC-C40 November 05 2288 2448 5601024 24 USB2.0 nein 0 Sanyo Xacti VPC-C5 März 05 2592 1944 5038848 k.A. USB2.0 nein 0 Sanyo Xacti VPC-C6 November 05 2816 2112 5947392 24 USB2.0 nein 0 Sanyo Xacti VPC-CA6 Active September 06 2816 2112 5947392 24 USB2.0 nein 0 Sanyo Xacti VPC-E6 September 05 2816 2112 5947392 24 USB2.0 nein 16 Sanyo Xacti VPC-E60 2816 2112 5947392 24 USB2.0 nein Sanyo Xacti VPC-E7 September 06 3072 2760 8478720 24 USB2.0 nein 2,3 23 Sanyo Xacti VPC-HD1A September 06 2592 1944 5038848 24 USB2.0 nein 5 0 Sanyo Xacti VPC-HD1EX März 06 2592 1944 5038848 24 USB2.0 nein Sanyo Xacti VPC-S5 März 05 2592 1944 5038848 24 USB2.0 nein Sanyo Xacti VPC-S50 Oktober 06 2560 1920 4915200 24 USB2.0 nein Sanyo Xacti VPC-S6 Oktober 05 2816 2112 5947392 24 USB2.0 nein Sanyo Xacti VPC-S60 März 06 2816 2112 5947392 24 USB2.0 nein Sanyo Xacti VPC-S7 September 06 3072 2760 8478720 24 USB2.0 nein 2,3 Sigma SD10 November 03 2268 1512 3429216 36 USB1.x, Firewire nein 1,9 6 Sigma Sigma SD14 November 06 2652 1768 4688736 36 USB2.0 nein 3 6 Skanhex SX-626z3 November 04 2848 2136 6083328 24 USB1.x nein Sony Alpha 100 Juli 06 k.A. USB2.0 nein 3 Sony DSC-F828 Dezember 03 3264 2448 7990272 24 USB2.0 nein 2,4 Sony DSC-F88 Juli 04 2592 1944 5038848 k.A. USB2.0 nein Sony DSC-H1 Juni 05 2592 1944 5038848 24 USB2.0 nein Sony DSC-H2 April 06 2816 2112 5947392 24 USB2.0 nein 1,3 Sony DSC-H5 März 06 3072 2304 7077888 24 USB2.0 nein Sony DSC-L1 Oktober 04 2304 1728 3981312 24 USB2.0 Sony DSC-M2 November 05 2592 1944 5038848 24 Sony DSC-N1 November 05 3264 2448 7990272 Sony DSC-N2 Oktober 06 3648 2736 Sony DSC-P100 Mai 04 Sony DSC-P120 Mai 04 Sony DSC-P150 Sony DSC-P200 Februar 05 Sony DSC-P43 Sony März 06 3880 2600 10088000 16 1,9 16 32 0 1,3 3 16 6 23 4 15 21,9 22 0 0 128 0 7 0 9 32 9 32 7 32 1,1 5 32 nein 0,9 5 16 USB2.0 nein 3 4 64 24 USB2.0 nein 9980928 24 USB2.0 nein 0,9 3 2592 1944 5038848 36 USB2.0 nein 2592 1944 5038848 36 USB2.0 nein 5 32 September 04 3072 2304 7077888 36 USB2.0 nein 5 32 3072 2304 7077888 24 USB2.0 nein 1 32 Mai 04 2304 1728 3981312 k.A. USB2.0 nein 16 DSC-P73 Mai 04 2304 1728 3981312 k.A. USB2.0 nein 16 Sony DSC-P93 Mai 04 2592 1944 5038848 36 USB2.0 nein 32 Sony DSC-R1 November 05 k.A. USB2.0, ACC nein Sony DSC-S40 April 05 2304 1728 3981312 24 USB2.0 nein Sony DSC-S500 August 06 2816 2112 5947392 36 USB2.0 nein Sony DSC-S60 April 05 2304 1728 3981312 24 USB2.0 Sony DSC-S600 Januar 06 2816 2112 5947392 36 Sony DSC-S80 April 05 2304 1728 3981312 Sony DSC-S90 April 05 2304 1728 Sony DSC-T1 Januar 04 Sony DSC-T10 Sony DSC-T3 Oktober 04 Sony DSC-T30 Sony DSC-T33 Sony DSC-T5 Sony DSC-T50 Oktober 06 Sony DSC-T7 Sony 3882 2592 10062144 26 26 32 5 0 1,4 4 32 nein 1,4 4 32 USB2.0 nein 1,25 7 32 24 USB2.0 nein 1,4 4 32 3981312 24 USB2.0 nein 1,4 4 32 2592 1944 5038848 k.A. USB2.0 nein 4 32 September 06 3072 2304 7077888 24 USB2.0 nein 0,7 5 56 2592 1944 5038848 24 USB2.0 nein 1,2 9 32 Mai 06 3072 2304 7077888 24 USB2.0 nein 1,1 5 58 Februar 05 2592 1944 5038848 24 USB2.0 nein 1,2 9 32 September 05 2592 1944 5038848 24 USB2.0 nein 1,4 9 32 3072 2304 7077888 24 USB2.0 nein 0,7 5 56 Mai 05 2592 1944 5038848 24 USB2.0 nein 1,2 9 32 DSC-T9 Februar 06 2816 2112 5947392 24 USB2.0 nein 1,4 7 58 Sony DSC-U40 Januar 04 1632 1224 1997568 24 USB nein 2 8 Sony DSC-U50 Oktober 03 1632 1224 1997568 24 USB nein 2 8 Sony DSC-V3 Oktober 04 3072 2304 7077888 24 USB2.0 nein 0,9 15 0 Sony DSC-W1 Juni 04 2592 1944 5038848 36 USB2.0 nein 1,2 9 32 Sony DSC-W100 April 06 3264 2448 7990272 24 USB2.0 nein 3 64 Sony DSC-W12 Juni 04 2592 1944 5038848 36 USB2.0 nein 1,2 9 32 Sony DSC-W30 März 06 2816 2112 5947392 24 USB2.0 nein 1,4 3 32 Sony DSC-W5 Februar 05 2592 1944 5038848 36 USB2.0 nein 1,6 9 64 Sony DSC-W50 März 06 2816 2112 5947392 24 USB2.0 nein 1,4 3 32 Sony DSC-W7 März 05 3072 2304 7077888 36 USB2.0 nein 1,1 5 64 Sony DSC-W70 April 06 3072 2304 7077888 24 USB2.0 nein 3 58 Traveler DC-4000 Juni 04 2304 1728 3981312 24 USB nein Traveler DC-5300 Oktober 03 2560 1920 4915200 24 USB ja Traveler DC-8300 Juni 05 3264 2448 7990272 24 USB1.x nein 64 Traveler DC-8600 Juni 06 3264 2448 7990272 24 USB nein 256 Traveler Slimline X5 Mai 05 2560 1920 4915200 24 USB2.0 nein 5 265 Traveler Slimline X6 Dezember 05 2816 2112 5947392 24 USB1.x nein 3 272 Trust 1490Z PowerCam Optical Zoom April 04 2560 1920 4915200 24 USB nein 25 32 2 3 64 14 Anhang D - Tabellen Hersteller 136 Model Einführung Breite Höhe Anzahl Farbe Anschluss Datum Pixel Pixel Pixel Bit extern Intervall Schreiben Volllast Speicher intern Januar 04 2048 1536 3145728 k.A. USB2.0 nein B/Sek Bilder MByte 3 16 Trust 922Z PowerCam Optical Zoom Voigtländer Virtus D4 November 04 2272 1704 3871488 24 USB1.x nein 32 Voigtländer Virtus D500 September 05 2560 1920 4915200 24 USB1.x nein 9 Voigtländer Virtus D6 September 05 2816 2112 5947392 24 USB2.0 nein 0 Voigtländer Virtus D8 September 05 3264 2448 7990272 24 USB1.x ja Voigtländer Virtus S6 Yakumo April 06 2816 2112 5947392 24 USB1.x nein Mega-Image 410 Februar 05 2304 1728 3981312 24 USB1.x nein Yakumo Mega-Image 47SL August 04 2304 1728 3981312 24 USB2.0 nein 0 2 5 0 3 16 0 Yakumo Mega-Image 47sx Juli 04 2272 1704 3871488 24 USB nein Yakumo Mega-Image 55cx März 05 2592 1944 5038848 24 USB1.x nein Yakumo Mega-Image 57 Mai 04 2560 1920 4915200 24 USB nein Yakumo Mega-Image 57x Juli 04 2560 1920 4915200 k.A. USB nein Yakumo Mega-Image 610x April 05 2816 2112 5947392 24 USB1.x nein Yakumo Mega-Image 67x Juli 04 2816 2112 5947392 k.A. USB nein Yakumo Mega-Image 811x März 06 3296 2472 8147712 24 USB1.x nein Yakumo Mega-Image 84D September 04 2272 1704 3871488 k.A. USB2.0 nein Yakumo Mega-Image 85D September 05 2560 1920 4915200 24 USB2.0 nein Yakumo Mega-Image VI Oktober 03 2048 1536 3145728 24 USB nein Yakumo Mega-Image VII Oktober 04 2880 2160 6220800 24 USB2.0 nein Yakumo Mega-Image X Juni 05 2592 1944 5038848 24 USB nein 16 Yakumo Mega-Image XL Oktober 05 2592 1944 5038848 24 USB nein 32 Yakumo Mega-Image XS Mai 06 2048 1536 3145728 24 USB nein 16 Tabelle: Abgrenzung: Internet: 0 0,63 0 11 2 16 2 16 0 32 16 20 3 16 16 3 16 Hochgeschwindigkeitskameras zum Erstellen von Zeitlupen maximale Aufnahmefrequenz bei höchster Auflösung und maximale Aufnahmefrequenz überhaupt, nur Kameras, die sichtbares Licht aufnehmen (Infrarot, Ultraviolett und andere Strahlungen nicht) die jeweiligen Internetseiten der Firmen Stand: 20.11.2006; 12:35 Uhr Aufnahme (Bilder/Sek): Gibt in Bildern pro Sekunde die maximale Aufnahmefrequenz bei dem gewählten Videoformat an. Aufnahmedauer Gibt in Sekunden an, wie lange die Kamera ohne Speicher(Sekunden): erweiterungen filmen kann. Wenn der Wert 0,00 ist, dann wird die Aufnahme nur durch den externen, physischen Speicher begrenzt. Speicher (GBbyte): Gibt in Gigabyte an, wie groß der interne Kameraspeicher ist. Farbe (Bit): Gibt in Bit die Farbtiefe der Zeitlupe an. Schreiben (MByte/Sek): Gibt in Megabyte pro Sekunde an, wie schnell der Speicher beschrieben werden kann. Hersteller Model Aufnahme Breite Höhe Aufnahmedauer Speicher Farbe Schreiben Bilder/Sek Pixel Pixel Kamera Werk Dresden GmbH (D)LogLux i5 CameraLink 34 Kamera Werk Dresden GmbH (D) LogLux i5 CameraLink 1750 Sekunden GByte Bit 1280 1024 10 100 MByte/Sek 100 10 Kamera Werk Dresden GmbH (D) LogLux i5 FireWire 25 1280 1024 10 Kamera Werk Dresden GmbH (D) LogLux i5 FireWire 417 100 100 L.O.T. Oriel AG (D) Citus Imaging C10 99 640 480 70,90 2 8 L.O.T. Oriel AG (D) Citus Imaging C10 10652 40 20 252,00 2 8 8,13 L.O.T. Oriel AG (D) Model 212-4 10 parallel L.O.T. Oriel AG (D) Model 212-4 10 parallel L.O.T. Oriel AG (D) Model 222-16 10 parallel L.O.T. Oriel AG (D) Model 222-16 10 parallel L.O.T. Oriel AG (D) 10 parallel 20000000 1000 1000 166 1000 1000 100000000 1000 1000 90 1000 1000 Model 530 200000 1000 1000 L.O.T. Oriel AG (D) Model 530 - L.O.T. Oriel AG (D) Model 535 1000000 - - 1000 1000 10 4 Einzelbilder 8 Einzelbilder 16 Einzelbilder 16 Einzelbilder - 28,89 10 parallel Anhang D - Tabellen Hersteller 137 Model Aufnahme Breite Höhe Aufnahmedauer Speicher Farbe Schreiben Bilder/Sek Pixel Pixel L.O.T. Oriel AG (D) Model 535 - - - Sekunden GByte Bit - - - MByte/Sek L.O.T. Oriel AG (D) Model 550 4000000 L.O.T. Oriel AG (D) Model 550 - - - - - - Olympus (USA) i-SPEED 2 1000 800 600 4,47 2 24 458,17 Olympus (USA) i-SPEED 3 33000 96 72 9,41 2 24 217,64 Optronis (D) CamRecord 1000 1000 Optronis (D) CamRecord 1000 200000 Optronis (D) CamRecord 600 500 Optronis (D) CamRecord 600 100000 Optronis (D) CamRecord 800 1000 Optronis (D) CamRecord 800 120000 PCO.imaging (D, USA) hsfc pro 8000000 PCO.imaging (D, USA) hsfc pro PCO.imaging (D, USA) pco.1200 hs 636 PCO.imaging (D, USA) pco.1200 hs 40720 PCO.imaging (D, USA) pco.1200 s 500 PCO.imaging (D, USA) pco.1200 s 32023 PCO.imaging (D, USA) pco.inspector high speed 636 PCO.imaging (D, USA) pco.inspector high speed 40720 1280 16 Photron (D) Fastcam PCI R2 250 512 480 0,00 Photron (D) Fastcam PCI R2 10000 128 34 0,00 Photron (D) Fastcam Super 10K 250 512 480 2,20 0,128 24 Photron (D) Fastcam Super 10K 10000 128 34 2,20 0,128 24 59,58 Photron (D) Fastcam Ultima 512 2000 512 512 1,00 0,67 30 686,08 Photron (D) Fastcam Ultima 512 32000 512 32 1,00 0,67 30 686,08 Photron (D) Fastcam Ultima 512 Multi 4 2000 512 512 2,00 2 30 1024,00 Photron (D) Fastcam Ultima 512 Multi 4 10000 512 100 2,00 2 30 1024,00 Photron (D) Fastcam Ultima APX 2000 1024 1024 1,00 2,6 30 2662,40 Photron (D) Fastcam Ultima APX 120000 128 10,91 2,6 30 244,03 Photron (D) Fastcam Ultima APX-RS 3000 1024 1024 0,68 2,6 30 3915,29 Photron (D) Fastcam Ultima APX-RS 250000 128 Photron (D) Fastcam-X 1024 PCI 1000 Photron (D) Fastcam-X 1024 PCI 109500 Redlake (USA) Lightning RDT 500 Redlake (USA) Lightning RDT 16000 Redlake (USA) MotionPro X-3 1040 Redlake (USA) MotionPro X-3 64000 Redlake (USA) MotionPro X-4 50000 Redlake (USA) MotionPro X-4 140000 Redlake (USA) MotionScope M-1 Redlake (USA) MotionScope M-1 - Redlake (USA) MotionScope M-2 500 Redlake (USA) MotionScope M-2 16000 Redlake (USA) MotionScope M-3 500 Redlake (USA) MotionScope M-3 32000 Redlake (USA) MotionXtra HG-100K 1000 Redlake (USA) MotionXtra HG-100K 100000 Redlake (USA) MotionXtra HG-LE 1000 Redlake (USA) MotionXtra HG-LE 100000 Redlake (USA) MotionXtra HG-SE 500 Redlake (USA) MotionXtra HG-SE 32000 Redlake (USA) MotionXtra HG-TH 1000 Redlake (USA) MotionXtra HG-TH 100000 Redlake (USA) MotionXtra HG-XR 1000 Redlake (USA) MotionXtra HG-XR 100000 Redlake (USA) Ranger 1000 Redlake (USA) Ranger 1000 Redlake (USA) Ranger HR 500 1000 1000 154 Einzelbilder 1280 1024 parallel 4 4 1280 1024 8 8 800 600 1280 1024 8 Einzelbilder 500000000 1280 1024 4 Einzelbilder 1000 10 1280 1024 1 1280 1 16 1280 1024 1 1280 1 16 1280 1024 16 16 1 1 24 24 59,58 5,24 2,6 30 508,09 1024 1024 1,54 2 30 1329,87 128 7,66 2 30 267,36 4 10 4 10 4 10 4 10 16 1280 1024 1280 1024 512 512 640 512 - - 1,3 - 1280 1024 - - 1,3 2,6 1280 1024 2,6 2,6 1504 1128 752 1128 2,40 4 1706,67 2,40 4 1706,67 2,40 2 853,33 2,40 2 853,33 1280 1024 2,6 2,6 752 564 1504 1128 640 480 1280 1024 19,20 8 19,20 8 426,67 426,67 20,00 32 1638,40 20,00 32 1638,40 Anhang D - Tabellen Hersteller 138 Model Aufnahme Breite Höhe Aufnahmedauer Speicher Farbe Schreiben Bilder/Sek Pixel Pixel Redlake (USA) Ranger HR 16000 Redlake (USA) TroubleShooter 1000 Redlake (USA) TroubleShooter 1000 Redlake (USA) TroubleShooter HR 500 Redlake (USA) TroubleShooter HR 16000 Redlake (USA) X-EMA (MIL Spec) 500 Redlake (USA) X-EMA (MIL Spec) 32000 Vision Research (USA) phantom 65 125 Vision Research (USA) phantom 65 - Vision Research (USA) phantom HD 1000 Vision Research (USA) phantom HD - 640 Sekunden GByte Bit MByte/Sek 2,61 8 11 3138,70 - - - 0,90 4 11 - - - 0,36 1,5 14 1,5 14 480 1280 1024 1280 1024 4096 2440 - - 1920 1080 - - Vision Research (USA) phantom v10 480 Vision Research (USA) phantom v10 153846 2400 1800 96 8 4551,11 4266,67 Vision Research (USA) phantom v4.2 2100 512 512 0,48 0,256 10 Vision Research (USA) phantom v4.2 90000 32 32 2,84 0,256 10 92,30 Vision Research (USA) phantom v4.3 1000 800 600 0,55 0,256 10 476,63 32 32 2,84 0,256 10 92,30 1 10 Vision Research (USA) phantom v4.3 90000 Vision Research (USA) phantom v5.1 1200 Vision Research (USA) phantom v5.1 95000 64 32 1 10 Vision Research (USA) phantom v6.2e 1400 512 512 1 10 Vision Research (USA) phantom v6.2e 115385 32 32 1 10 Vision Research (USA) phantom v7.3 6688 800 600 2 14 Vision Research (USA) phantom v7.3 190476 32 32 2 14 Vision Research (USA) phantom v9.1 1016 1,5 14 Vision Research (USA) phantom v9.1 153846 1,5 14 1024 1024 1632 1200 96 0,30 0,38 8 Weinberger (CH, D, USA) SpeedCam MiniVis 500 1280 1024 3,00 Weinberger (CH, D, USA) SpeedCam MiniVis 32000 160 128 3,00 Weinberger (CH, D, USA) SpeedCam MiniVis e2 2500 512 512 3,00 Weinberger (CH, D, USA) SpeedCam MiniVis e2 120000 64 64 4,00 Weinberger (CH, D, USA) SpeedCam MiniVis ECO-1 1000 640 512 3,00 Weinberger (CH, D, USA) SpeedCam MiniVis ECO-1 - - - Weinberger (CH, D, USA) SpeedCam MiniVis ECO-2 500 Weinberger (CH, D, USA) SpeedCam MiniVis ECO-2 32000 Weinberger (CH, D, USA) SpeedCam MotionBLITZ® XP 500 Weinberger (CH, D, USA) SpeedCam MotionBLITZ® XP 16000 320 Weinberger (CH, D, USA) SpeedCam Visario 1500 1000 1536 1024 1,00 30 Weinberger (CH, D, USA) SpeedCam Visario 1500 10000 512 192 1,00 30 Weinberger (CH, D, USA) SpeedCam Visario g2 1000 1536 1024 1,00 30 Weinberger (CH, D, USA) SpeedCam Visario g2 10000 512 192 1,00 30 Weinberger (CH, D, USA) SpeedCam Visario g2 LT 400 4000 768 512 1,00 Weinberger (CH, D, USA) SpeedCam Visario g2 LT 400 - - - - - 1280 1024 3,00 160 3,00 128 1280 1024 - 1 128 1 30 - 30 546,13 6826,67 4042,11 Anhang E - DVD 139 DVD Die DVD befindet sich in der Hülle der hinteren Umschlagseite. Zum Betrachten des Inhaltes ist ein Computer mit Windows XP oder einem kompatiblen Betriebssystem notwendig. Zum Öffnen der PDF-Dateien wird mindestens der Adobe Acrobat Reader 1.3 gebraucht. Die Diplomarbeit ist ein Adobe InDesign CS 3.0.1-Dokument und die Word-Dateien wurden mit Word 2000 verfasst. Die Videos können mit dem VLC-Player betrachtet werden, welcher sich auf der DVD befindet. Um ein Durchsuchen der DVD zu erleichtern, ist an dieser Stelle ein dokumentiertes Inhaltsverzeichnis abgedruckt. Diplomarbeit.pdf Diplomarbeit in digitaler Form \Arbeit Enthält die Aufgabenstellung, eine Inhaltsbeschreibung und das Adobe InDesign-Dokument, in welchem die Diplomarbeit in nachträglich veränderbarer Form gespeichert ist. \Informationen Beinhaltet verschiedene Hinweise vom Leerstuhl zur Bearbeitung einer Diplomarbeit, verwendete Schriftarten und Büchertips als Internetdokumente. \Texte Enhält die Texte abschnittweise als Worddokumente, wobei der aktuelle Stand nur in der Adobe Indesign Datei im Ordner \Arbeit gespeichert ist. Jeder Unterordner steht entweder für ein ganzes Kapitel oder einen bestimmten Abschnitt. Ein Unterordner enthält den Textabschnitt als Word-Dokument und alle Bild-Dateien und Internetquellen, die für den Text dieses Abschnittes notwendig waren. Oft liegen die Grafiken in zwei oder sogar drei Versionen vor: komprimiert (für das Word-Dokument), ohne Qualitätsverlusst (für das Indesign-Dokument) und die skalierbare Grafik im Flash-5-Format als FLA-Datei. Internetquellen liegen als HTM-Dateien vor, wobei für die Internetseiten notwenige Dateien in weiteren Unterodnern gespeichert sind. Zusätzlich zu den im Buch beschriebenen Videos befinden sich weitere Zeitlupen und Zeitraffer in den jeweiligen Ordner. Die Zeitlupen wurden zwei Mal abgespeichert. Einmal inhaltlich sortiert und einmal nach den Produktionsfirmennamen der Hochgeschwindikeitskameras. \Versionen Enthält Zwischenschritte der Diplomarbeit und die Zwischenpräsentation als Flash-5-Dokument und Shockwave-Datei. \VLC Videoplayer Der Videoplayer vlc.exe läuft auch direkt von DVD. Es empfiehlt sich jedoch das Kopieren des Players auf eine Festplatte, bevor er zum Einsatz gebracht wird. Zeitlupen und Zeitraffer bei der Wegbeschreibung Te c h n i s c h e U n i ve r s i t ä t D r e s d e n, Fa kul t ät I nfo r mat ik Diplomthema im Studiengang Medieninformatik H o c h s c h u l l e h r e r : P r o f. D r. - I n g . h a b i l . R a i n e r G r o h B etreu er: M . S c. I ngmar S . Franke B e a r b e i tu n g s ze i t : 15.0 6 . 20 0 6 – 14 .12. 20 0 6 Diplomand: Christian Fröde M a t r i ke l # : 2 8 4 4 24 0