Allgemein - BA Mannheim, BA Gera

Transcription

Allgemein - BA Mannheim, BA Gera
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
Prozessor
ROM-Bausteine
RAM-Bausteine
Motherboard
Schnittstellen
Festplatte
Tastatur
Maus
Grafikkarte
CRT-Monitor
LCD-Monitor
TFT-Monitor
Soundkarte
Diskettenlaufwerk
CDROM-Drive
DVD-Drive
Streamer / Tape
MO-Drive
Thermodrucker
Nadeldrucker
Tintenstrahldrucker
Laserdrucker
Scanner
Glossar
Praktische DV
Ein HTML-Tutorial
Anton Flegar
BA-Gruppe TIT02AGR
5.12.2002
Geschichte der Prozessoren
1971
INTEL: bringt den 4004 auf den Markt
●
●
●
Der Prozessor ist der "erste Computer auf einem einzigen Chip"
Taktrate von 108 kHz
2300 Transistoren
1974
INTEL: Nachfolger des 4004 ist der 8080
●
8-Bit-Prozessor mit 6000 Transistoren und 2 MHz Taktfrequenz
MOTOROLA: präsentiert mit dem 6808 ihren ersten 8-Bit- Mikroprozessor
1975
AMD: stellt den 8080A vor
ZILOG: Firmengründung (zwei ehemalige Intel-Mitarbeiter)
●
●
Z80 (8-Bit-Prozessor) verarbeitet mehr Befehle und ist schneller als der 8080
Zeitweise verkauft er sich sogar besser als der Intel-Prozessor
1977
APPLE: bringt den Apple II auf den Markt
●
6502-Prozessor (entwickelt von einem ehemaligen Motorola-Mitarbeiter)
1978
INTEL: 8086 (16-Bit Prozessor)
●
●
●
●
Beginn der Erfolgsgeschichte von Intels 80x86-Familie
Alle Folge-Prozessoren sind abwärtskompatibel zum 8086
29.000 Transistoren und eine Taktfrequenz von 5 (später 10) MHz
330.000 Befehle pro Sekunde
NEC: Nachbau des 8086 von Intel (NEC V20)
●
einige Verbesserungen in der Architektur (etwas leistungsfähiger)
1979
INTEL: 8088 (günstigere 8086 Version)
●
●
behält intern seinen 16-Bit-Datenbus, arbeitet extern jedoch nur mit einem 8 Bit breiten
Datenpfad
Intel vergibt Second-Source-Lizenzen (Nachbau der Prozessoren 8088, 8086) an andere
Chip-Hersteller (AMD, IBM, SGS Thomson, Siemens)
NEC: Nachbau heißt V30
MOTOROLA: 68000
●
16-Bit-Prozessor mit 68.000 Transistoren
1980
Siemens: erste x86-CPUs (SAB 8086 / SAB 8088)
1981
IBM: beschließt seine PCs mit Intels 8088 auszustatten
●
●
Freigabe der IBM-PC-Architektur für den Nachbau
Der IBM-PC-kompatible Rechner tritt seinen Siegeszug an (mit jeder Entwicklungsstufe steigt die Anzahl der Transistoren, die Leistung
nimmt stets zu)
MOTOROLA: beweist mit Benchmarks, dass der 68000 leistungsfähiger ist als der 8086
●
68000 steuert auch Apples Lisa, einen der Vorläufer des legendären Macintosh
AMD: präsentiert einen eigenen 8086
INTEL: 16-Bit-Prozessor 80286
●
130.000 Transistoren
1982
INTEL: wird zum bevorzugten Prozessor-Lieferanten für nahezu alle Hersteller von IBM-PC-kompatiblen Rechnern
AMD und Siemens erhalten eine erweiterte Fertigungslizenz für die Intel-x86-Familie, die bis zum Jahr 1995 gültig ist
SIEMENS: präsentiert den 286-Clone SAB 80286
AMD: stellt den 8088 vor
1984
MOTOROLA: stellt die 32-Bit-CPUs 68010 und 68020 vor
AMD: präsentiert seinen ersten 286er, den Am286
●
Taktfrequenz 16 MHz
INTEL: 80386 (erste 32-Bit-CPU)
●
●
taktet anfangs mit 16 MHz. (keine Nachbaurechte an Zweithersteller)
275.000 Transistoren
1985
INTEL: 80386 in den folgenden Jahren mit 20, 25 und schließlich mit 33 MHz
●
multitaskingfähig
NEC: präsentiert V60 (32-Bit- Prozessor)
1986
NEXGEN: Firmengründung
●
beginnt x86-Prozessoren der fünften Generation zu entwickeln
MOTOROLA: präsentiert den 68030
●
300.000 Transistoren
INTEL: bekommt Copyright auf den Microcode seiner Prozessoren. Keine Lizenzen mehr an Zweithersteller (Hersteller sind damit von Intel
abhängig).
1987
ZILOG: präsentiert den Z280 (16-Bit-Version des Z80)
1988
CYRIX: Firmengründung
●
Das Unternehmen fertigt zunächst mathematische Coprozessoren
AMD: entwickelt den 286 weiter
●
CPU in CMOS-Technik taktet mit 20/25 MHz und erreicht fast das Niveau eines 386-Prozessors
INTEL: kostengünstiger 80386SX mit 16 statt 32 Bit Bandbreite
●
●
Auslieferung ohne FPU; Nachrüstung optional möglich
das Logo "intel inside" wird eingeführt
NEC: V70
●
laut Hersteller 15 Mips
1989
INTEL: 80486
●
●
●
●
●
●
●
über 1,2 Millionen Transistoren
mathematische Coprozessor ist ab sofort im Hauptprozessor integriert
ein 8 KB großer Cache für Daten und Instruktionen sowie ein Cache-Controller sind
erstmals auf dem 486er integriert
Prozessor taktet anfangs mit 25 MHz
80486SX Low-Cost-Version ohne FPU und mit 16 MHz Takt
ab dem 486DX2 eine neue Technik: Die CPUs takten intern höher als extern
(Taktfrequenz).
Wärmeprobleme bei der 486er Reihe; Fertigung später mit 3 Volt anstatt mit 5 Volt
AMD: 286-Prozessoren werden immer höher getaktet
MOTOROLA: präsentiert den 68030
●
●
●
mit 50 MHz Takt und externer FPU
darauf folgt der 68040
wie der 80486: integrierte FPU sowie internen Cache
1990
AMD: eigener 386-Prozessor "Am386"
●
arbeitet mit Intels Microcode
1991
AMD: erster Clone von Intels 80386DX
●
●
Am386DX taktet anfangs mit 20, später mit 40 MHz
später 386SX-Clone Am386SX mit 25 MHz Takt´
1992
CYRIX: erster Mikroprozessor Cx486
●
●
386SX-Clone kommt als Cx486SLC mit 25 MHz Takt (intern und extern)
danach Cx486DLC mit 33 MHz (nur 1 KB Cache und keine FPU)
AMD: Entwicklung von 486-kompatible Nachbauten (Am486), die auf einem eigenen Microcode basieren
(wegen Rechtsstreit mit Intel)
●
Am486SX (5 Volt), Am486SXLV (3,3 Volt) so wie den Am486SX2 in 3,3- und 5-Volt-Technik
1993
INTEL: fünfte Generation - Der "Pentium" (anstatt 80586)
●
schafft zwei Befehle pro Taktzyklus
●
Er wird anfangs in 5-Volt-Technik gefertigt und taktet mit 60 MHz oder 66 MHz
●
einer Strukturbreite von anfangs 0,8 später 0,35 Mikron
●
3,1 Millionen Transistoren
●
Der Datenzugriffsbeschleunigung durch zwei interne 8 KB große Caches
●
externer Datenbus zum Hauptspeicher ist jetzt 64 Bit breit
●
Verbesserung in der Fließkommaberechung (3x so schnell wie ein 486er)
AMD: weitere 486DX-Clones
●
den Am486DX/40 (40 MHz Takt), den Am486DX2/50 (50/25 MHz) und den Am486DX2/66
(66/33 MHz)
CYRIX: neue 80486-CPU
●
●
Cx486S mit 33 und 40 MHz Takt
Cx486SLC2 mit 40/20 und 50/25 MHz (intern/extern)
AMD: entwickelt einen x86-Prozessor der fünften Generation
1994
Januar
CYRIX: weitere 486-Kopien
●
Cx486DX und Cx486DX2 mit gleichen Eckdaten wie die Intel-Originale
Februar
INTEL: Pentium mit 3,3-Volt-Technik
●
●
Taktfrequenzen von 90/60 und 100/66
preiswerte Einstiegsversion mit 75/50 MHz
März
CYRIX: Upgrade Prozessor Cx486DRx2
●
●
●
40 bis 50 Prozent mehr Leistung für 386-PCs
CPU besitzt einen von Cyrix selbst entwickelten 486-Befehlssatz
taktet mit 32/16, 40/20 und 50/25 MHz
NEXGEN: Prozessor der fünften Generation (superskalare CPU)
●
●
●
●
●
●
mit 60 und 66 MHz interner wie externer Taktrate
Sie verfügt über einen segmentierten Cache
zwei getrennte Daten- und Befehls Caches mit je 16 KB
ein 64 Bit breiter Datenbus
beim Nx586 ist die FPU nicht integriert
der Cache-Controller befindet sich in der CPU
●
spezieller Cache-Bus erlaubt es, den Second-Level-Cache mit voller CPU-Geschwindigkeit zu betreiben
April
Die Zusammenarbeit zwischen Intel und IBM geht in die Brüche IBM: arbeitet von nun an mit Cyrix
●
5 Jahres-Vertrag: Entwicklung des CPU-Designs durch Cyrix und Produktion der Prozessoren durch IBM
Juni
CYRIX/IBM präsentieren den Cx486DX2
●
●
●
mit 66/33 sowie mit 80/40 MHz erhältlich
besitzt 8 KB internen Cache
später mit 3,3-Volt-Technik als Cx4S6DX2-V66 und C486DX2-V80
August
AMD: Am486DX2 gibt es jetzt auch mit 80/40 MHz
NEXGEN: schließt mit IBM ein Produktionsabkommen
September
NEXGEN: präsentiert neue Versionen seines Nx586
●
●
●
●
mit Taktraten von 70, 75, 84 und später 93 MHz
64-Bit-Datenpfad
32 KB großer Cache
immer noch keine FPU
Oktober
CYRIX: Cx486DX2 mit 100 MHz interner Taktrate
November
INTEL: Fehler in der 4:3 Fließkomma-Einheit des Pentium-Prozessors
Dezember
AMD: präsentiert den Am486DX4
●
●
3,3-Volt Prozessor mit 8 KB internem Cache
mit einer internen Taktrate von 100 MHz und einem Systemtakt von 33 oder 50 MHz
1995
März
INTEL: Vorstellung der 120-MHz-Version des Pentium
Juni
CYRIX: präsentiert den 32-Bit-Prozessor 5x86/100
●
●
einen 486er mit 100 MHz internem Takt (kurz darauf auch mit 120 und 133 MHz) und 16 KB Cache
der Systemtakt beträgt 33 MHz
INTEL: Pentium taktet nun mit 133 MHz
AMD: bringt eine 120-MHz- Version seines 486DX4 auf den Markt
Juli
Texas Instruments will mit einem 486SX-ähnlichen Chip in das 486-Geschäft einsteigen
Oktober
NEXGEN: liefert erste Modelle des Nx586 mit 120 MHz aus
●
●
●
neuen Chip: Der Nx686 kommt mit 48 KB internem Cache (32 KB Daten/ 16 KB Befehle)
internen Takt von 180 MHz
weitere Besonderheit sind die Multimedia-Befehle, die auf einer speziellen Einheit integriert
sind
AMD: Übernahme von Nexgen (kommt mit der Entwicklung eines eigenen Microcodes nicht weiter)
November
INTEL: Pentium Pro gibt es mit 150, 166, 180 und 200 MHz interner Taktrate
●
●
●
●
5,5 Millionen Transistoren
Hohe Datentransferraten erzielt der Pentium Pro aufgrund seiner DIB-Architektur (erstmals
bei Nexgens Nx586 eingesetzt)
Erstmals ist in einem Intel-Prozessor der Second-Level-Cache gleich in die CPU integriert
Optimierung auf 32 Bit Operationen
Dezember
CYRIX: stellt zusammen mit IBM und SGS Thomson seine sechste Prozessorengeneration vor: 6x86
(Codename M1)
●
●
●
●
●
6x86 PR12O taktet intern mit 100 MHz (extern mit 50 MHz)
16 KB interner Cache
3,3-Volt
Unter bestimmten Bedingungen zum Teil schneller als der Pentium 133 und der Pentium Pro
benötigt ein angepasstes Bios, um seine volle Leistung zu entfalten
1996
Januar
INTEL: Pentium taktet jetzt mit 150 und 166 MHz AMD: ab sofort darf AMD für seine 586-CPU und nachfolgende Chip-Serien
lediglich den Intel-Befehlssatz verwenden - die Microcode-Technik muss AMD selbst entwickeln.
Februar
AMD: präsentiert den Am5x86
●
März
Der 486DX-Prozessor taktet intern mit 133 MHz (extern: 33 MHz)
IBM/CYRIX: bringen den 6x86 (M1) auf den Markt
●
erhältlich als PR133+ (100/50MHz), PR15O+ (120/60 MHz) und als PR166+ (133/66 MHz)
AMD: präsentiert den K5 PR75 (75MHz); später folgt der K5 PR1OO mit 100 MHz internem Takt
●
●
●
Er besitzt 16 KB internen Cache
ist bei Integer- Berechnungen schneller als ein Pentium mit 75 MHz
Sockel-7-kompatible Prozessor
Juni
INTEL: Der Pentium 200 kommt auf den Markt
●
Die neue Intel-CPU taktet mit 200 MHz
August
INTEL: eine 150-MHz-Variante des Pentium kommt auf den Markt
●
unwesentlich schneller als die 133-MHz-Variante, da ihr Systemtakt 60 MHz (statt 66) beträgt
September
lBM/CYRIX: neue 6x86-Version, der 6x86 PR2OO+ (bei IBM heißt er P200)
●
●
mit 150 MHz taktet, aber leistungsfähiger als der Pentium 200
jedoch extern mit 75 MHz getaktet (benötigt eine spezielle Hauptplatine)
Dezember
AMD: präsentiert den K5 PR133
●
●
taktet intern mit 100 MHz (laut P-Rating genauso viel Leistung wie ein Pentium 133)
66 MHz Systemtakt
INTEL: neuer Prozessor mit Multimedia-Erweiterung
●
Pentium MMX
●
57 neue Befehle, die vor allem im Grafik- und Audio-Bereich vorkommen
●
Bei herkömmlichen Anwendungen sind MMX-Prozessoren um 10 bis 15 Prozent schneller
●
speziell für MMX entwickelten Multimedia-Programmen bringen laut Intel einen
Leistungszuwachs bis zu 87%
1997
Januar
AMD: Erste K5 PR166 werden ausgeliefert
●
taktet intern mit 115,5 und extern mit 66 MHz (seine Leistung entspricht einem 166-MHz-Pentium)
INTEL: Pentium-MMX-CPU
●
●
●
●
●
taktet zunächst intern mit 166 oder 200, extern jeweils mit 66 MHz
4,5 Millionen Transistoren
32 KB Cache (beim herkömmlichen Pentium sind es 16 KB)
Split Voltage (Prozessorkern 2,8 Volt, alles weitere 3,3 Volt)
für Notebooks gibt es spezielle MMX-Prozessoren mit 150 oder 166 MHz
Februar
IBM/CYRIX: Media GX
●
●
●
●
Taktraten von 120 und 133, später auch mit 150 und 180 MHz
interner Cache von 16 KB
Grafik- und Audio- Funktionen sowie ein Speicher-Controller sind direkt in die Prozessoreinheit
integriert
CPU übernimmt Chipsatzfunktionen wie PCI-Anbindung und Speicher-steuerung
April
AMD: Antwort auf MMX-Prozessor: K6
●
●
●
●
●
●
K6/PR2-166 taktet intern mit 166 MHz
K6/PR2-200 und K6/PR2-233
MMX-Erweiterung (Technik von Intel in Lizenz erhalten)
basiert auf dem Nexgen-Chip Nx686
64 KB internen Cache (Intels MMX arbeitet nur mit 32 KB)
0,35-Mikron-Technik
Mai
INTEL: Pentium II (Codename Klamath)
●
●
●
●
●
●
mit internen Taktfrequenzen von 233, 266 und 300 MHz
vereint die Vorzüge von Pentium Pro und MMX
taktet extern mit 66 MHz
7,5 Millionen Transistoren
0,35-Mikron-Technik
32 KB internen Cache
●
●
●
●
●
in einem SEC-Gehäuse aus Metall und Plastik untergebracht
mit dem Second-Level-Cache (512 KB) auf einer kleinen Platine montiert
diese Lösung erfordert einen neuen Steckplatz, den Slot 1
Dual-Independent-Bus-Architektur
Second-Level-Cache arbeitet mit dem halben internen CPU-Takt
Juni
INTEL: Pentium MMX mit 233 MHz
IBM/CYRIX: eigener MMX-Prozessor
●
●
●
●
●
6x86MX (Codename M2)
PR166 (133/66 oder 150/60 MHz), PR2OO (150/75 oder 160/66 MHz) sowie
als PR233 (188/75 MHz)
MMX-Technik von Cyrix/lBM selbst entwickelt (soll absolut kompatibel zum
Intel-Original sein)
zweifache Spannungsversorgung (2,8/3,3 Volt)
64 KB First-Level-Cache
August
INTEL: Tillamook, eine Pentium-MMX-Variante mit geringem Spannungsbedarf (für Notebooks)
●
●
●
0,28 Mikron
weniger Strom und Spannung (1,8 Volt)
stellt die Produktion von Prozessoren ohne MMX-Erweiterung ein
NATSEMI (National Semiconductor): übernimmt Cyrix
IDT: C6
●
preisgünstiger Prozessor
soll es mit dem Pentium MMX aufnehmen
●
arbeitet aufgrund seiner geringen Größe so stromsparend, dass er sich auch für Notebooks eignet
●
Dezember
INTEL: Pentium-Pro-CPUs für Desktop-Systeme laufen zum Jahresende aus
●
Speziell für Server konzipierte Pentium-Pro-CPUs noch bis Ende März 1998
AMD: neue Spezifikation für die nächste K6-Generation
●
●
●
●
PR266- und als PR300-Version
mit 100 MHz externem Takt
integrierten Second-Level-Cache
0,25-Mikron-Technik
1998
Januar
INTEL: Pentium II-Prozessor ohne Second-Level-Cache (L2-Cache)
●
●
●
●
"Celeron"
Taktfrequenz von 266 MHz
fehlender Level-2-Cache
langsamer als K6-233, Pentium 233 MMX, Pentium 200 MMX
IBM: durchbricht die 1000-MHz-Schallmauer
●
●
●
●
●
●
erster experimenteller Prozessor im 1-GigaHertz-Takt
Prototyp "versteht" grundlegende Power-PC-Befehle
hat eine völlig neue Architektur
eine Million Transistoren (entspricht einem 486-Prozessor)
in "herkömmlicher" 0,25-Mikron-Technik
noch deutliche Steigerungen bei Umstieg auf 0,18-Mikron-Technik und dem angekündigten Kupferprozeß
Februar
INTEL: 333-MHz-Pentium II
●
●
●
●
weiterhin 66 MHz Bustakt (Codename "Deschutes")
unterscheidet sich von seinem Vorgänger vorrangig im Stromverbrauch
der "alte" Pentium II 300 MHz 32 Watt verbraucht, der neue bei 333 MHz 15 Watt
+ 6%-7% mehr Leistungrozent mehr
AMD: Namensänderung des K6-Prozessors
●
●
●
●
K6 3D wird nun K6-2 bezeichnet
ein erweiterter Befehlssatz (3D Now!), der mit 21 neuen FPU-Funktionen vor allem 3D-Spiele
drastisch beschleunigen soll
300 MHz / 350 MHz Taktfrequenz
100-MHz-FSB
CYRIX: 6x86MX heißt nun M II
IDT: Winchip C6 heißt nun Winchip 2
●
●
●
240 oder 266 MHz
unterstützt neuen 3D-Funktionen
100 MHz FSB
Juni
INTEL: Xeon
●
●
●
High-End-Prozessor für Workstations und Server
400-MHz Taktfrequenz
512 KB, 1 MB oder 2 MB Second-Level-Cache
NEC: will Zwei-CPU-Server auf den Markt bringen
IBM: arbeiten an Modellen mit vier Prozessoren
GATEWAY: will sechs CPUs in einem Geräte anbieten
August
INTEL: Pentium-II mit 450 MHz
INTEL: Celeron (Codename Mendocino)
●
●
●
●
●
●
300 und 333 MHz Taktfrequenz
128 KByte L2-Cache
L2-Cache direkt auf dem Prozessor
mit 300 MHz mit L2 Cache = Celeron 300A
mit 300 MHz ohne L2 Cache = Celeron 300
mit 333 MHz = Celeron 333
1999
Januar
INTEL: Pentium III (Codename "Katmai")
●
●
●
●
●
alter Pentium-II-Kern
zusätzlich 70 Befehle, die speziell bei Multimedia-Anwendungen, Videodaten, Spracherkennung und Spielen Anwendung finden
interne Seriennummer (Abwicklung von Geschäften über das Internet sicherer machen)
Taktfrequenzen von 450 und 500 MHz arbeiten
bis zum Jahresende 1999 soll die Taktfrequenz auf über 600 MHz gesteigert werden
Februar
AMD: neuen Mikroprozessor K6-III
●
verfügt über einen erweiterten Multimedia- Befehlssatz ("3DNow" ist nicht mit dem INTELBefehlssatz kompatibel)
Oktober
AMD: "Athlon"-Chip
●
mit 700 MHz
AMD:
●
K8
●
●
64-Bit-Chip K8
INTEL: Servern und Workstations mit dem neuesten Intel-Chip-Codename "Coppermine"
●
●
●
●
●
Taktraten von 700 und 733 MHz
mobile Coppermine-Variante mit 500 MHz
256-KByte-Second-Level-Cache (in der CPU t Leistungssteigerung von 13% bis 23%)
133-MHz-Systembus
Rambus-Speichertechnik 0,18-Mikron-Technik Frontside-Bus mit 133-MHz-Takt
INTEL: mehrere tausend Prototypen des ersten 64-Bit-Prozessor mit Codenamen Itanium (ehemals "Merced") an Entwickler
ausgeliefert
●
kann bis zu sechs Aufträge parallel bearbeiten
●
drei Memory-Ebenen (zwei integrierte und eine weitere externe mit vier MByte Kapazität)
●
High-Speed-Bus soll dafür sorgen, dass der externe "Level-3-Cache" mit der vollen CPU-Geschwindigkeit arbeitet
APPLE: G4
●
●
●
speziell für leistungsintensive Anwendungen wie Multimedia oder mathematische Formeln entwickelt
kleiner und stromsparender als sein Vorgänger
10,5 Millionen Transistoren
September
APPLE: Power Mac G4 mit "Velocity Engine" vorgestellt
●
erreicht als erster PC überhaupt den Leistungsbereich eines sog. "Supercomputers"
●
mehr als einer Milliarde Fließkomma-Operationen pro Sekunde ("Gigaflop")
●
für anspruchvollste Video- und Grafikanwendungen qualifizieren
2000
März
AMD: Athlon-Prozessors mit 1GHz Takt bekannt gegeben
●
●
Austin (Texas) in 0,18-Mikron-Technik und Aluminium gefertigt
im April sollen die ersten GHz-Athlons in Deutschland verfügbar sein
INTEL: präsentiert seinen 1-GHz-Prozessor
●
1-GHz-Pentium-III nur in begrenzten Stückzahlen (für Dell) verfügbar (Massenproduktion erst im September)
September
INTEL: 1-GHz-Prozessor geht in die Massenproduktion
●
verspätet aufgrund der großen Nachfrage an der 800-MHz-Version des Chips
November
INTEL: erste PCs mit dem Pentium 4 auf den Markt
●
●
Kritik an der Leistung des neuen Flagschiffs von Intel
Zu wenig Leistung für das Geld, lautet das einhellige Credo der Kritiker
Liste ausgewählter Hersteller
Hersteller
Gründung
bekannte Produkte
01.05.1969
8080A
8088
Am286
Am386
Am486
Am5x86
K5
K6
Duron
Athlon
Athlon XP
01.04.1976
6502
weitere Prozessoren in Zusammenarbeit mit IBM
1988
Cx486
5x86
6x86
Media GX
6x86MX
15.06.1911
G4 - G6
Power - Power4
PowerPC 601 - PowerPC 620
Advanced Micro Devices
International Business Machines
1995
Winchip C6
Winchip 2
18.07.1968
4004
8080
8086
8088
80286
80386
80486
Pentium
Pentium Pro
Pentium MMX
Pentium II
Tillamook
Deschutes
Katmai
Willamette
Merced
1928
6808
68000
68010
68020
68030
01.04.1983
V20
V30
V60
V70
1988
Nx586
Nx686
1847
SAB 8086
SAB 8088
1987
C3
1974
Z80
Z280
Nippon Electric Company
Typische Merkmale einer CPU
Grundsätzlicher Aufbau einer CPU nach dem Von-Neumann Prinzip
●
●
●
Rechenwerk
Steuerwerk
weiteres Siehe Blockschaltbild
Prozessoren sind gekennzeichnet durch
●
●
●
●
●
Taktfrequenz (interne Frequenz der CPU)
Größe des Caches (Zwischenspeicher auf der CPU)
verwendete Befehlssatz (Sammlung aller direkt ausführbaren Befehle der CPU - Bsp: MMX, SSE, 3Dnow!)
Front-Side-Bus (Systemtakt für die Kommunikation der CPU mit anderen Systemkomponenten - Bsp.: RAM; aktuell 133MHz-400MHz)
Strukturgröße (Gibt die Größe der Transitoren an - Bsp.: aktuell 0,13µm)
Leistungsbestimmenden Faktoren eines Prozessors
●
●
●
die Zahl der auf dem Chip befindlichen Transistoren
die Taktfrequenz
Grundaufbau
Grundfunktions-Prinzipien bei Prozessoren
●
●
CISC-Technologie (Complex Instruction Set Computer)
RISC-Technologie (Reduced Instruction Set Computer)
CISC-Technik
●
●
●
Prozessor stellt sehr viele Befehle zur Verfügung
viele Programmbestandteile haben "ihren" Prozessorbefehl
Programme bestehen dadurch aus sehr vielen Befehlen
●
●
●
CISC-Prozessoren eher "träge"
Gruppe der CISC-Prozessoren zählen alle Chips von Intel und dazu kompatible
CISC-CPUs sind sehr verbreitet
RISC-Technik
●
●
●
●
Prozessoren kommen mit wesentlich weniger Befehlen aus
sind dadurch einfacher strukturiert
kann mit ihnen theoretisch eine höhere Leistung als mit CISC-Prozessoren erreichen
Zu RISC-CPUs zählen viele neue Rechner von Apple sowie leistungsfähige Server
Eigentlich sollten auf Grund der Fakten weit mehr RISC als CISC-Prozessoren verwendet werden
●
Da diese Technik aber erst in den letzten Jahren "entdeckt" wurde, haben sich mittlerweile Intel-kompatible CPUs etabliert
●
Wechsel der Prozessortechnik hat einen Wechsel der Hardware-Komponenten und Austausch sämtlicher Software zur Folge
●
daher sind RISC-Rechner nur im High-End-Bereich zu finden
●
Intel und AMD unterstützen durch Einführung neuer Prozessorbefehle wie MMX und 3D-Now die CISC-Technologie (dies sogar sehr
erfolgreich)
Leistung
●
Leistung und Taktfrequenz eines Prozessor sind direkt proportional zueinander
●
wenn man die Taktfrequenz verdoppelt, verdoppelt sich auch die Leistung
●
gilt nicht für ein Komplettsystem (auch noch von der Größe des Arbeitsspeichers, der Geschwindigkeit der Festplatte und vielen anderen
Faktoren abhängt)
●
erste CPUs liefen mit wenigen Kilohertz
●
heute ist man schon in Bereichen über 2000 Megahertz angelangt
●
Auch die Anzahl der Transistoren auf einem Chip beeinflusst die Leistung
es kommt auch auf die Anordnung und Verknüpfung der Schaltkreise an
Leitungsoptimierung
●
Intel, später aber auch AMD, führten eigene Erweiterungen des Prozessorbefehlssatzes ein
●
Die erste dieser Erweiterungen: MMX (Multi Media eXtension) wurde ab 1997 von Intel in die Pentium-CPUs integriert
●
AMD unterstützte im K6 und allen darauf folgenden CPUs diese Technik
●
K6-III von AMD kam mit der 3Dnow!-Technologie, die ebenfalls Multimedia-Anwendungen und Spiele beschleunigen sollte
●
●
Im Pentium-III kam SSE (s.. streaming extension) dazu, was besonders Internet-Anwendungen beschleunigen sollte
AMD hingegen hat für den Athlon 3Dnow! erweitert
Chip-Herstellung
●
Prozessoren bestehen heutzutage zum größten Teil aus Silizium
●
Silizium ist ein Halbleiter, deshalb kann man daraus elektrische Bauteile wie Transistoren herstellen
●
Silizium existiert als natürlicher Rohstoff auf der Erde, allerdings nicht in reiner Form, sondern als Siliziumdioxid (SiO2 /Sand)
●
●
●
●
●
In einem extrem zeit- und energieaufwändigen Prozess wird reinstes Silizium gewonnen
Schon kleinste Verunreinigungen machen einen Chip unbrauchbar
Rohstoff liegt nun in Silizium-Walzen mit 15 bis 35 cm Durchmesser vor
Mithilfe hochpräziser Sägen werden die Walzen in Scheiben geschnitten
Diese Scheiben werden Wafer genannt
Der Produktionsprozess
1. Oxidation
Bei einer Temperatur von etwa 1200°C bildet sich an der Oberfläche der Siliziumscheibe eine dünne Schicht Siliziumoxid, das als Isolator
dient und das Eindringen von Fremdatomen verhindern soll.
2. Fotolackbeschichtung
Auf die Siliziumscheibe wird eine Mikrometer dicke, UV-empfindliche Lackschicht aufgetragen.
3. Belichtung durch Maske
Die Si-Scheibe wird durch eine Maske mit UV-Licht beleuchtet, wodurch die Konstruktionszeichnung auf die Si-Scheibe übertragen wird.
4. Entwicklung
Beim Entwickeln des Fotolacks wird die Oxidschicht an den von der Maske ungeschützten Stellen freigelegt.
5. Diffusion
An den Oxidfreien Stellen diffundieren Dotieratome (z.B.:Bor) und erzeugen P-leitende Zonen. Der Rest (Oxidgeschützt) bleibt N-leitend.
6. Fotolackentfernung
Der Fotolack wird mit Lösungsmitteln entfernt.
7. Bedampfung
Die komplette Oberfläche wird mit einer Isolierschicht (Oxid) aufgedampft
8. weitere Fotolackbeschichtung
Auf die Siliziumscheibe wird eine zweite UV-empfindliche Lackschicht aufgetragen
9. weitere Belichtung
Die Oberfläche wird wieder durch eine Maske mit UV-Licht beleuchtet
10. weitere Fotolackentfernung
Der Fotolack wird ein weiteres mal mit Lösungsmitteln entfernt
11. Oxidschichtentfernung
Die durch Fotolack ungeschützte Isolierschicht wird entfernt
12. Aufbringen der Metallschicht
Auf die komplette Oberfläche wird mit eine Metallschicht aufgedampft
13. Weitere Beschichtung
Eine weitere UV-empfindliche Lackschicht wird aufgetragen und mit einer Maske beleuchtet
14. weitere Fotolackentfernung
Der Fotolack wird ein weiteres mal mit Lösungsmitteln entfernt
15. Ätzung
Nicht geschütztes Metall wird weggeätzt. Der Transistor ist funktionstüchtig
Prinzipielles Blockschaltbild einer CPU
●
arbeitet nach dem Von-Neumann Prinzip (von 1949)
●
4 Funktionseinheiten (siehe Bild)
●
Struktur des Rechners unabhängig vom Problem
●
Programm, Daten und Zwischenergebnisse werden im gleichen Speicher abgelegt
●
●
zur Lösung eines Problems muss eine Befehlsfolge von außen in Speicher geladen
werden
aufeinander folgende Befehle werden in aufeinander folgen- den Speicherzellen
abgelegt
●
Speicher in gleichgroße, fortlaufend nummerierte Speicher-zellen unterteilt
●
alle Daten werden binär codiert
●
nächster Befehl wird ausgeführt, wenn Steuerwerk Befehlsadresse um 1 erhöht
(Sprungbefehle ermöglichen Abweichung von dieser Reihenfolge)
Befehlsvorrat umfasst mindestens
●
arithmetische Befehle (Addition, Multiplikation, ..)
●
logische Befehle (Vergleich, NICHT, UND, ODER, ..)
●
●
Transportbefehle (Übernahme des Inhalts einer Speicher-zelle/ Register in andere
Speicherzelle/Register)
bedingte Sprünge (nächster Befehl hängt davon ab, ob eine Bedingung zutrifft oder
nicht)
Rechenwerk (ALU; Arithmetical and Logical Unit)
"Funktionsblock des Prozessors, der arithmetische und logische Funktionen ausführt."
1. Zwei Operanden werden über den Datenbus geliefert
2. Eine Operand wird im Register (Akkumulator) abgelegt, der
Zweite gelangt direkt in die Rechenlogik
3. Ablaufsteuerung übergibt der Rechenlogik die benötigte
Operation (Arithmetisch/ Logisch)
4. Rechenlogik führt den Befehl aus
5. Ergebnis wird für weitere Operationen im Akkumulator
gespeichert, oder bei Rechen-ende an den Datenbus geschickt
6. Ablaufsteuerung erhält eine Statusinfor-mation (<0; >0; =0;
Error) über die Berechung und erzeugt daraus die Flags
7. Flags werden an das Steuerwerk zurück gegeben
Speicherwerk
●
Aus einer bestimmten Anzahl von Registern zusammen-gesetzt.
●
Nur einen gemeinsamen Ein- und Ausgang für die Daten.
●
Weitere Leitungen, die die einzelnen Register ansteuern und die Datenrichtung
bestimmen.
●
Hat die Fähigkeit, den Ein-/Ausgang nur auf Anfrage zu benutzen .
1. Steuerwerk aktiviert über eine Steuerleitung den Speicher
2. Festlegung ob Lesen oder Schreiben
3. Angabe des Registers im Speicher
4. Senden der Daten über den Datenbus oder Empfang der Daten und Schreiben in den
Register
5. Freigabe der Datenleitung zwischen Speicher zur Bus-schnittstelle
Busschnittstelle (BIU, Bus Interface Unit)
Die Busschnittstelle verbindet die internen Busse des Prozessors mit der Außenwelt. Sie enthält Puffer zur Zwischenspeicherung von
Adressen, Daten und Steuersignalen."
●
●
●
Arbeitet weitgehend selbstständig vom Rest der CPU
Ist für die Kommunikation mit der Außenwelt
verantwortlich
Außenwelt = PCI Bus, SCSI/IDE Bus, Grafikkarte,
Tastatur, Maus, Schnittstellen (COM/LPT) ...
Quellenverzeichnis
●
●
●
●
●
●
http://www.num.math.uni-goettingen.de/Lehre/Lehrmaterial/Vorlesungen/Informatik/2001/doc/vonNeumann.html
http://www.seitzweb.de/Interessen/Computer/Geschichte/CPUs.htm
http://www.glossar.de
http://www.e-online.de/sites/com/0309161.htm
http://www.tecchannel.de/hardware/375/
http://tech-www.informatik.uni-hamburg.de/applets/baukasten/DA/VNR_Einleitung.html
●
●
http://www.computer-tutorial.de/process/cpu6.html
http://wb.rus.uni-stuttgart.de/pc/cpu.asp
ROM-Speicher
Rom Speicher dienen oft zum Speichern des BIOS (Basic Input Output System). Informationen werden in Masken mit Hilfe einer Dioden Matrix
abgespeichert. Früher wurde ein Speicher von 16kbyte genutzt, die heutigen Rechner benötigen ca. 2Mbyte.
ROM (read only memory - nur lese Speicher) steht als Oberbegriff für den Festwertspeicher, in dem fixe Daten zur sicheren Archivierung abgelegt
werden. Das ROM ist ein Bestandteil des Hauptspeichers, bei dem der Inhalt jedoch nach dem Wegfall der Betriebsspannung, im Gegensatz zum
RAM, erhalten bleibt. Ein weiteres wichtiges Merkmal dieses Speicherbausteins ist, dass er nur gelesen werden kann, dass heißt, er enthält bei der
Rechneranschaffung schon gewisse Informationen oder Programme und ist vom Nutzer per Software nicht mehr zu verändern.
Bei diesen Informationen handelt es sich z. B. um das Betriebssystem, Startprogramme und Betriebssystemroutinen. So besaß der Ur-PC von IBM
ein dreiteiliges ROM, welches die Dienstprogramme, BASIC und einen freien Bereich für weitere Programme besaß. Um Änderungen
vorzunehmen oder andere Informationen hinzuzufügen, war dieser PC noch mit einem freien ROM Steckplatz versehen.
Da der Inhalt eines Chips schon vor der Produktion feststehen muss, ist die Herstellung teuer und aufwändig. Ein ROM - Speicherbaustein wird mit
einer Maske programmiert, bei der die 0 und 1 Pegel über die Unterbrechung von Brücken zwischen Zeilen und Spalten realisiert wird. Diese
Zeilen bestehen aus Siliciumbahnen, die als stromführende Leitungen, auf einer Trägerschicht über der sich ein Isolator und weitere Leitungen (den
Spalten) befinden, verlaufen. Die Kreuzungspunkte sind die Speicherpositionen. Eine 1 steht, wenn die Isolierschicht entfernt und somit ein
Kontakt hergestellt wurde.
Das Verbinden und Nichtverbinden der Bahnen ist Teil des Herstellungsprozesses. Beim Einsatz kann die Logik des Bausteines feststellen, ob nach
Anlegen einer Spannung auch die kreuzenden Bahnen unter Strom stehen.
Technologische und ökonomische Gründe haben vielfältige Zwittervarianten zwischen RAM und ROM entstehen lassen.
gespeichert:
1
0
1
0
1
1
1
0
0
Die Dioden stellen das High-Bit dar. Dort wo
keine Dioden sind ist das Low-Bit.
Beispiele für Nutzen:
●
●
Bios
Chipkarten
PROM-Speicher
Programmable ROM (programmierbarer nur Lese Speicher)
Eigenschaften:
●
●
●
nur einmal programmierbar
Die Programmierung erfolgt über ein spezielles PROM-Programmiergerät in das der ROM-Chip eingesetzt wird
es gibt verschiedene PROM-Bauarten (je nach Herstellungsverfahren)
Möglichkeit 1: Programmierung mit Ausbrennwiderständen
Jede Bit-Zelle besteht aus einem npn-Transistor
und einer Schwachstelle z.B. einem Ausbrennwiderstand. Diese kann vom Anwender
durch ein Pro-grammiergerät zerstört werden.
Der daraus erfolgte Zustand dieses Bausteins
bleibt nun für immer bestehen.
Programmierzeit ca. 1 ms/Bit.
Möglichkeit 2:
Das Koppelelement ist ein npn-Transistor
mit nicht ange-schlossener Basis. Durch anlegen einer hohen Spannung erfolgt eine
Veränderung des Transistors - es bleibt eine
Diodenstrecke übrig.
Programmierzeit ca. 0.2ms/Bit
EEPROM-Speicher
Verbesserter EPROM der im eingebauten Zustand schaltungselektrisch löschbar ist. Somit ist debuggen und updaten wesentlich einfacher und
nicht mehr so umständlich, da man wesentlich einfacher eine neue Konfiguration brennen kann.
Ein Problem von EEPROMs ist die begrenzte Anzahl von Schreibzyklen (10.000 - 100.000 mal).
Man kann es auch als Mittelstück zwischen RAM und ROM bezeichnen. Langsamer als RAM-Bausteine. (Lösch- und Programmierzeit ca. 5 ms/
Bit)
EAPROM
Die Bezeichnung EAROM steht für Electrically Alterable ROM, was so viel wie elektrisch veränderbares ROM bedeutet.
Auch diese Form des Speichers ist eine Zwischenform von RAM und ROM, aus der wie gewohnt gelesen, aber auch hineingeschrieben werden
kann. Da der Schreibvorgang aber viel Zeit in Anspruch nimmt, die Speicherdichte relativ gering und die Herstellung teuer ist, wird diese Art nur
selten eingesetzt.
FLASHROM
In den letzten Jahren hat sich die Produktion auf die Flash-ROMs (auch Flash RAM) verlagert. Diese Variante des EEPROMs ist bevorzugt
sektorweise oder vollständig löschbar, und stellt wahrscheinlich die zukünftig am häufigsten genutzte Form dar.
Eigenschaften:
●
●
●
●
●
Beim Flash-EPROM ist die Speicherung von Daten funktionell identisch wie beim EEPROM.
Die Speichermatrix wird in mehrere Sektoren aufgeteilt (zum Beispiel 8 * 16 KByte-Blöcke), die unabhängig voneinander gelöscht und
programmiert werden können.
Der Speicher kann bei laufendem Betrieb manipuliert werden.
Außerdem kann jedes Bit auch noch einzeln programmiert werden.
Lösch- und Programmierzeit ca. 300 ms pro Sektor.
Übersicht
Speicherart
Löschen
Programmieren
ROM
Read Only Memory
Nur Lese Speicher
nicht möglich
bei Herstellung
PROM
Programmable ROM,
Programmierbarer Festspeicher
nicht möglich
elektrisch
EPROM
Erasable PROM,
Löschbarer Programmierbarer Festspeicher
durch UV-Licht
elektrisch
EEPROM
Electrically Erasable PROM,
Elektrisch löschbarer Programmierbarer Festspeicher
elektrisch
elektrisch
EAPROM
Electrically Erasable PROM,
Elektrisch löschbarer Programmierbarer Festspeicher
elektrisch
elektrisch
FLASHPROM
Electrically Erasable PROM,
Elektrisch löschbarer Programmierbarer Festspeicher
elektrisch
elektrisch
Prinzipieller Aufbau des ROM
Festwertspeicher werden in der Regel als ICs
hergestellt.
Durch das Anlegen einer Adresse an den
Adresseingängen erhält man an den Ausgängen
den Wert der an der angelegten Adresse
gespeichert ist.
Die angelegte Adresse wird im Adressenregister
in Spalten- und Zeilenadresse aufgeteilt und
danach an den Zeilen- und Spaltendekoder
geschickt. Dort wird dann die Adresse dekodiert,
so dass die Adresse genau einer Speicherzelle in
der Speicher-matrix zugewiesen werden kann.
Speicherelement ist jeder Kreu-zungspunkt
zwischen Zeilen- und Spaltenleitung der
Speichermatrix. Der jeweils gespeicherte
Binärwert wird durch das Vorhandensein oder
Fehlen einer Leitenden Verbindung zwischen
Zeilen- und Spaltenleitung bestimmt.
Herstellung
Entwurf einer monolithischen Schaltung:
Die Aufgabe, eine monolithische Schaltung zu entwerfen, erfordert die Umsetzung des Logikplans in eine Verbindung geeignet dimensionierter
Schaltungselemente. Zu dieser komplexen, Millionen von Einzeloperationen erfordernden Tätigkeit, werden Computerprogramme eingesetzt.
Durch eine funktionelle Simulation wird die Korrektheit des Schaltungsentwurfs überprüft. Die günstigste Anordnung aller Schaltungselemente
wird am Bildschirm eines Arbeitsplatzrechners erstellt. Die Form und Lage aller Elemente und Leiterbahnen wird als Lageplan digital
abgespeichert. Dabei erfolgt eine Aufteilung in eine Vielzahl von Ebenen. Durch eingehende Kontrollen des Lageplans wird überprüft, ob alle
Verbindungen richtig hergestellt wurden und alle durch die Technologie geforderten Regeln für Abmessungen und Abstände eingehalten wurden.
Die Kenndaten des Lageplans bilden die Grundlage einer abschließenden Simulation der elektrischen Eigenschaften der Schaltung mit einem
Computerprogramm.
Maskenherstellung:
Auf der Grundlage der Koordinatendaten des Lageplans werden optisch oder mit einem
Elektronenstrahl Masken für die Chipherstellung erzeugt. Jede Maske besteht aus einer Glasoder Quarzplatte mit einer Metallschicht (Silber oder Chrom), in die die feinen
Schaltungsstrukturen eingeätzt sind.
Zur Übertragung der Strukturen von der Maske auf die Kristallscheibe gibt es zwei
Methoden: ganzflächige Belichtung mit Masken, welche die Strukturen für alle Chips einer
Scheibe enthalten, oder aufeinander folgende Einzelbelichtung durch Masken, welche die
Strukturen für nur einen Chip enthalten. Da jede Schaltungsstruktur auf der Kristallscheibe
aus mehreren Schichten aufgebaut ist, benötigt man zu ihrer Herstellung auch mehrere
Masken, einen ganzen Maskensatz.
Schneidetisch zur Maskenjustierung
Chip-Herstellung und Montage:
Die Herstellung der Chips auf einer Halbleiter Kristallscheibe erfordert einige hundert auf einander folgende Prozessschritte. Viele dieser Schritte
erfolgen bei Temperaturen von etwa 1000° C im Vakuum oder in einer bestimmten Gasatmosphäre.
Die wichtigsten Prozessschritte sind: Maskieren der Kristalloberfläche durch photolithographische Verfahren, Dotieren und Metallisieren. Alle
verwendeten Substanzen müssen ungewöhnlich hohe Reinheit aufweisen. Automaten besorgen den Transport der Kristallscheiben. Die
Präzisionsbearbeitung der Scheiben kann sich insgesamt über Wochen hinziehen. Jede Störung im Prozessablauf senkt die Ausbeute drastisch,
selbst einzelne Staubpartikel können zum Ausfall führen. Daher muss in Reinsträumen gearbeitet werden.
Strukturierung mit Hilfe von Masken:
Bei der Herstellung der Chips wird zunächst in einem Rohofen die ganze Kristallscheibe
mit einer Oxidschicht überzogen. Auf diese wird ein extrem dünner Überzug von
Photolack aufgebracht, der durch die Maske hindurch belichtet wird. An den belichteten
Stellen härtet der Lack aus und schützt die darunter liegende Oxidschicht. An den
unbelichteten Stellen wird der Photolack weggelöst und die darunter liegende Oxidschicht
durch einen nachfolgenden Ätzvorgang entfernt. Durch geeignete Masken legt man so die
zur weiteren Bearbeitung vorgesehenen Bereiche der Kristalloberfläche frei.
Im Wechselspiel von Maskierung und Ätzung mit Dotierung, Oxidation, Metallisierung
werden an der Oberfläche der Kristallscheibe die Strukturen in dünnen Schichten
aufgebaut. Für die Herstellung hochintegrierter Chips sind bis zu zwanzig verschiedenen
Masken erforderlich. Silicium ist von anderen Halbleitermaterialien dadurch
ausgezeichnet, dass sein Oxid sehr dicht und porenfrei ist. Es schützt damit hervorragend
die Kristalloberfläche.
Maskenjustier- und Belichtungsgerät
Zur Übertragung der Maskenstruktur auf die Siliciumscheibe belichtet man mit
kurzwelligem UV-Licht mit einer Wellenlänge von 0,4 µm. Die damit erzielbaren
kleinsten Strukturen liegen im Bereich von 1 µm. Noch feinere Auflösung erreicht man
mit einem Elektronenstrahl. Bei einem Strahldurchmesser von 0,07 µm werden Strichbreiten von 0,3 bis 0,5 µm erzielt. Eine noch bessere
Auflösung ist mit Röntgenlicht erreichbar.
Gezielte Dotierung:
Auf der oxidierten Kristallscheibe werden durch Maskierung Bereiche freigelegt, in denen durch Dotierung die Leitfähigkeit verändert wird.
Dadurch kann man Dioden und Transistoren, Widerstände und sogar Leiterbahnen herstellen. Es gibt zwei Dotierverfahren: Diffusion und
Ionenimplantation.
Bei der Diffusion dringen bei hoher Temperatur Fremdatome in den freigelegten Bereich der Kristalloberfläche ein. Dies geschieht in Rohöfen. Bei
der Ionenimplantation werden ionisierte Fremdatome in den freigelegten Teil des Kristalls eingeschossen. Die Beschleunigung der Ionen erfolgt
durch elektrische Felder.
Metallisierung:
Zur Verbindung der einzelnen Bauelemente einer integrierten Schaltung sind Leiterbahnen erforderlich. Als Leiterbahnmaterial wird vornehmlich
Aluminium verwendet. Das Aluminium wird ganzflächig aufgedampft und nachfolgend mit Hilfe von Masken photolithographisch strukturiert. Bei
besonders komplexen Schaltungen werden zur Verkürzung der Signalwege mehrere, voneinander isolierte Verdrahtungsebenen benötigt
(Mehrlagenverdrahtung). Diese werden durch Löcher in der Isolierschicht metallisch miteinander verbunden. Die Leiterbahnen enden am Rand des
Chips in größeren Kontaktflächen, an die später dünne Golddrähtchen angeschweißt werden.
Prüfung, Trennung und Montage der Chips:
Nach Herstellung der Schaltungen auf der Kristallscheibe wird jeder Chip mit Hilfe eines Prüfprogramms auf seine Funktion überprüft. Dünne
Metallnadeln verbinden den Chip mit der Messeinrichtung. Fehlerhafte Schaltungen werden markiert und registriert. Die Scheibe wird auf eine
Folie geklebt und mit einer Diamantsäge in die rechteckigen Chips zertrennt. Die Chips bleiben auf der unzertrennten Folie haften.
Aus einer Scheibe mit 15 cm Durchmesser kann man 400 und mehr Chips erhalten. Die einwandfreien Chips werden mit einer Saugpinzette von
der Folie aufgenommen und auf einen Träger geklebt oder gelötet. Ein Automat verbindet durch haarfeine Drähte die Kontaktpunkte mit den
Anschlüssen des Gehäuses (bonden). Es gibt eine Vielzahl von Gehäusebauformen:
●
●
●
Plastikgehäuse für Einzelchips
Keramikgehäuse für Einzelchips
Filmstreifen mit aufgelöteten Chips
Nach dem Einbau der Chips im Gehäuse erfolgt eine nochmalige Funktionsprüfung am Testautomaten.
Röntgenstrahl-Beleuchtungsbild einer Halbleiterscheibe, Gitterstörungen
Baugruppen auf Leiterplatten:
Eine genormte Aufbautechnik ist eine wichtige Voraussetzung für die wirtschaftliche Fertigung elektronischer Baugruppen. Die Bauelemente
werden meist auf Platinen, d.h. auf Leiterplatten mit geätzten Kupferleitungen, aufgelötet. Die so bestückten Platinen nennt man Flachbaugruppen.
Platinen können einseitig oder beidseitig mit Leiterbahnen versehen sein. Für umfangreiche Schaltungen gibt es Platinen mit mehreren
Verdrahtungsebenen, die miteinander an einzelnen Punkten verbunden sind. Die Bauelemente werden entweder mit ihren Anschlussdrähten in
Kontaktlöcher eingesteckt oder verlötet, oder, wenn drahtlos, auf die Platinen geklebt und verlötet (Oberflächenmontage).
Keramik-Baugruppen:
Die Packungsdichte integrierter Schaltungen in Baugruppen kann durch die Montage der Chips auf Vielschicht-Keramikträger gesteigert werden.
Diese Keramikträger werden aus vielen Schichten eines papierdünnen Keramikmaterials aufgebaut, das mit dünnen Verbindungsleitungen aus
einer Molybdänpaste bedruckt wurde. Durch Löcher in den einzelnen Lagen werden die Leitungen zu einem Netzwerk verbunden. Nach dem
Zusammenpressen der einzelnen Lagen entsteht durch Sintern eine feste Keramikplatte. Sie wird mit Kontaktstiften zur Verbindung mit anderen
Baugruppen versehen. Die Chips werden anschließend mit winzigen Blei-Zinn-Kügelchen drahtlos durch Löten direkt mit der Keramikplatte
verbunden. Ein Kühlkörper führt die beim Betrieb entstehende Wärme an die Luft oder durch Kühlwasser ab.
Anfang Aufbau RAM Arten und Installation Benötigter RAM Glossar Referenzen
RAM (Random Access Memory)
Einführung
Random Access Memory bedeutet übersetzt "Speicher mit wahlfreiem Zugriff". Der Name rührt daher, dass auf jede Speicherstelle des
Arbeitsspeichers gleich schnell zugegriffen werden kann. Dies ist z.B. bei der Festplatte oder der CD-ROM nicht möglich, da der Schreib/Lesekopf
erst an die entsprechende Position gebracht werden muss.
Der RAM kann als "Kurzzeitgedächtnis" des Computers bezeichnet werden. Er bestimmt, wieviele Programme gleichzeitig laufen können. Die
Daten die zum Ausführen eines Programmes notwendig sind, bzw. bearbeitet werden sollen werden temporär im RAM gespeichert. Möchte mann z.
B. ein Bild mit einem Bildverarbeitungsprogramm bearbeiten, so ist ein großer RAM von Vorteil, damit die Daten nicht ständig von einem anderen
Speichermedium mit wesentlich längerer Zugriffszeit gelesen werden müssen. Der RAM wird daher auch als Arbeits- oder Hauptspeicher
bezeichnet.
Da die Datenspeicherung im RAM durch Spannungen erfolgt, werden die Daten nur so lange gespeichert, wie der RAM mit Strom versorgt wird
und erlischen nach dem Ausschalten des Rechners. Dies ist der zweite wesentliche Unterschied zu anderen Speichermedien.
Prinzipiell gibt es zwei Basis-RAM-Typen: den SRAM (static RAM) und den DRAM (dynamic RAM). Die folgende Tabelle fasst die
wesentlichen Merkmale dieser beiden RAM-Typen zusammen.
SRAM
DRAM
Speichern durch Transistoren
Zugriffszeit: 6-12ns
6 Transistoren pro Bit
kein Refreshzyklus notwendig
schneller als DRAM
1-Bit Speicherung
Speichern durch Kondensatoren
Zugriffszeit: 50-70ns
1 Transistor + 1 Kondensator pro Bit
größere Packungsdichte
preiswerter als SRAM
1-Wort Speicherung
Anfang Aufbau RAM Arten und Installation Benötigter RAM Glossar Referenzen
Aufbau eines RAM Bausteins
Anordnung der Zellen als Matrix
Die Speicherzellen eines RAM Bausteins sind matrixförmig angeordnet. Die Adressierung erfolgt über die Zeilen- und Spaltenadresse. Zur
Adressierung eines Bausteins mit 4 Zellen werden 2-Bit Adressierungsdaten benötigt, für 8 Zellen 3-Bit Adressierungsdaten usw. Die folgende
Graphik soll die Adressierung einer Speicherzelle visualisieren:
Bild1: Matrixanordnung eines 4-Bit RAM Bausteins
Zur Adressierung einer Speicherstelle den entsprechenden Button drücken:
00
01
10
11
keine
Außerdem werden folgende Signale benötigt:
1. Das R/W (read/write)-Signal legt fest, ob das Speicherelement gelesen oder beschrieben werden soll
2. Das CS (chip select)-Signal wählt den gesamten Baustein aus.
3. Das Din-Signal schreibt die Information in die Speicherzelle.
Nur wenn die Speicherzelle mittels Spalten- und Zeilenadresse adressiert ist und das CS-Signal gesetzt ist, ist die Speicherstelle vollständig
selektiert. Ist das R/W-Signal nicht gesetzt, so wird die Information Din an die Speicherstelle geschrieben, ist es gesetzt, so wird die gespeicherte
Information gelesen und das Din ignoriert.
Aufbau einer Speicherzelle
Grundsätzlich gibt es zwei verschiedene Arten Speicherzellen in RAM Bausteinen: im S-RAM wird ein Bit mittels eines Flip-Flops und im DRAM mittels eines Kondensators gespeichert:
DRAM
Ist der Kondensator geladen (30-50 Femtofarad), so ist eine '1' gespeichert, sonst eine
'0'.
Bild 2: Speicherprinzip eines DRAM
SRAM
D=Datensignal, T=Taktsignal
ist das Taktsignal=0, so wird der vorherige Zustand gespeichert.
Bild 3: Funktionsprinzip eins SRAM
Anfang Aufbau RAM Arten und Installation Benötigter RAM Glossar Referenzen
RAM Arten und das Motherboard
RAM Arten
Es gibt zahlreiche unterschiedliche Arten RAM, von denen ich die gängigsten zusammengestellt habe. Beginnend mit den Basisvarianten SRAM
und DRAM bis hin zu dem zur Zeit (2002) in den meisten neuen PC's eingebautem DDR-RAM.
SRAM
DRAM
FPM-RAM
EDO-RAM
SD-RAM
DDR-RAM
RD-RAM
(Static RAM) Speichern durch Flip-Flops, schnell, da kein Refresh Zyklus not-wendig.
(Dynamic RAM) Speichern durch Kondensatoren, Refresh Zyklus notwendig.
(Fast Page Mode RAM) schneller durch effizientere Adressierung.
(Extended Data Output DRAM) wie FPM-RAM, nur dass Adressieren und Lesen gleichzeitig erfolgt.
(Synchronous DRAM) arbeitet synchron zum Prozessortakt und hat zwei Speicher-bänke von denen abwechselnd gelesen
wird, sodass die Erholungszeit ausgeglichen wird. Außerdem können Daten durch das Pipeline Verfahren gleichzeitig gelesen
und geschrieben werden.
(Double Data Rate RAM) doppelte Übertragung, wie SDRAM, da auf- und absteigende Taktflanken genutzt werden.
(RAMBUS-DRAM) "neuere" Technik, die höhere Taktfrequenzen erlauben soll. Wird z.B. in der Nintendo64 Konsole
verwendet.
Installation auf dem Motherboard
RAM Bausteine werden auf Platinen gelötet, die dann auf das Mainboard aufgesteckt werden. Hier gibt es verschiedene Arten:
SIMM: single in-line memory module, als:
●
●
30 PIN SIMM
72 PIN SIMM (Bild 4)
DIMM: double in-line memory module:
●
168 PIN DIMM (Bild 5)
●
184 Pin DIMM (Bild 6)
RIMM: rambus in-line memory modules, als:
●
184 PIN RIMM (Bild 7)
Anfang Aufbau RAM Arten und Installation Benötigter RAM Glossar Referenzen
Wieviel RAM wird benötigt?
Die folgenden vier Tabellen geben eine kurze Übersicht, wieviel RAM wofür benötigt wird:
Betriebssysteme
Windows 95
Windows NT
Linux
Mac OS2
8 MB RAM
16 MB RAM
8 MB RAM
4 MB RAM
Anwendungen
MS Word
24 MB RAM (Windows 98)
32 MB RAM (Windows NT, 2000)
64 MB RAM (Windows 200 Professionell)
Mathematica
Adobe Photo Shop
Netscape
Internet Explorer
64 MB RAM
128 MB RAM
64 MB RAM
16 MB RAM
Spiele
Sim City 3000
Half Life
Anno 1503
32 MB RAM
24 MB RAM
64 MB RAM
Zum Vergleich
NES
N64
Playstation 2
TI 89
2kB RAM + 2kB Video RAM
4,5 MB R-DRAM
32 MB RAM
188kB RAM
640 KB (Arbeitsspeicher) ist alles, was irgendeine Applikation jemals benötigen sollte. (Bill Gates, 1981)
Anfang Aufbau RAM Arten und Installation Benötigter RAM Glossar Referenzen
Referenzen
Informationen im Internet
http:\\www.computerlexikon.com
http:\\www.karbosguide.com
http:\\www.e-online.de
http:\\www.fundus.org
Literatur
●
Kories, Schimdt-Walter, Taschenbuch der Elektrotechnik, ISBN 3-8171-1626-8
Motherboard
Funktion
Übersicht
Dual-Prozessorboard
Motherboard
Zwischen Baugruppen müssen im Betrieb ständig Daten ausgetauscht werden:
Der Prozessor liest Daten zur Bearbeitung von der Eingabeeinheit (z. B. der Tastatur) ein, bei Bedarf legt er Daten im Arbeitsspeicher ab und kann
sie auch wieder zurück holen. Das Ergebnis der Verarbeitung sendet der Prozessor an eine Ausgabeeinheit (z. B. Monitor).
Aus diesem Grunde müssen diese Einheiten elektrisch so verbunden werden, dass die Daten von jeder angeschlossenen Baugruppe zu einer
beliebigen anderen Einheit der Anlage übertragen werden können. Außerdem muss sichergestellt werden, dass alle Einheiten richtig angesteuert
werden. Um diese Anforderungen zu erfüllen werden die Baugruppen eines PCs über Bussysteme miteinander verbunden.
Unter einem Bussystem oder kurz unter einem Bus versteht man bei einem PC ein Bündel elektrischer Leitungen, an dem alle Baugruppen parallel
angeschlossen sind. Die Anzahl der Leitungen des Busses wird als Busbreite bezeichnet.
Da innerhalb eines PCs nicht nur Daten, sondern auch steuernde Signale zwischen den angeschlossenen Baugruppen ausgetauscht werden müssen,
gibt es in einer DV-Anlage drei verschiedene Bussysteme:
Über den Datenbus (Data Bus) können zu verarbeitende Daten von einer beliebigen Baugruppe zum Prozessor gelangen oder umgekehrt vom
Prozessor zu jeder gewünschten Baugruppe gesendet werden.
Da alle Baugruppen parallel an den Datenbus angeschlossen sind, aber immer nur eine Einheit Daten empfangen oder senden darf (um "DatenKollisionen" zu verhindern), muss jede Baugruppe eine "Hausnummer" (Adresse) erhalten, mit der sie vom Prozessor angesprochen ("adressiert")
werden kann. Um die Adressen an die Baugruppen zu übermitteln, werden wiederum alle Einheiten des PCs parallel an Adressleitungen
angeschlossen. Nur wenn eine Baugruppe die ihr zugewiesene Adresse auf dem Adressbus (Address Bus) empfängt, darf sie Daten auf dem
Datenbus senden oder empfangen.
Wird über den Adressbus eine Baugruppe (z. B. Arbeitsspeicher) angesprochen, so muss dieser auch mitgeteilt werden, ob eine Information
hineingeschrieben oder ausgegeben werden soll. Mithilfe des Steuerbusses (Control Bus) gibt der Prozessor einer angesprochenen Baugruppe
bekannt, ob er von ihr Daten empfangen oder zu ihr senden will.
Prozessoren
Socket A
Slot1
Socket 370
Die erste Riege der PC-Prozessoren (8086 und 8088) hatte noch Sockel wie übliche Microchips. Zu den Zeiten von 286, 386 und einigen 486ern
waren dann auch viele fest aufgelötete CPUs anzutreffen, dann aber kamen die ZIF-Sockel (ZeroInsertionForce, zu deutsch: Null-Kraft Sockel)
auf. Diese erlauben das Einsetzen und Herausnehmen der CPU praktisch ohne Kraft und ermöglichen so ein problemloses Wechseln. Die ZIFSockel entwickelten sich bis zum Sockel-8 (PentiumPro), als Nachfolger definierte Intel dann den Slot1 für den Pentium-II. Und bald gab es auch
einen Slot2 für die dritte Generation Pentium-II (Xeon). Allerdings gibt es mittlerweile wieder die Entwicklung hin zum Sockel. Der aktuellste
Vertreter ist der Socket 370.
Die Slots erinnern in ihrer Beschaffenheit übrigens an EISA Steckplätze (zwei Kontakt-Etagen), und aufgrund der Größe der von der Platine
abstehenden Pentium-II CPU sind sie nur auf ATX Motherboards wirklich praktikabel.
Bussysteme
ISA
PCI
AGP
Auch bei den Bussystemen hat sich einiges getan. Bei den ersten PC war noch der ISA-Bus primäre Erweiterungsschnittstelle, er wurde später
zwar noch von 8 auf 16 Bit-Breite erweitert, aber er blieb doch auf 8 MHz beschränkt. Mehrere Hersteller und Hersteller-Vereinigungen
versuchten in der Folgezeit dann neue Bussysteme einzuführen, so u.a. EISA, Microchannel oder Vesa-Local Bus. Im Endeffekt aber dominiert
heutzutage der erheblich offener gestaltete PCI-Bus. Die neueste Entwicklung nun ist der AGP-Bus, dieser bietet der Grafikkarte eine schnellere
Anbindung an den Hauptspeicher.
Mit der Zeit wurden auch ganz neue Erweiterungsbussysteme eingeführt, in erster Linie seien hier PS/2 Schnittstellen für Maus und Tastatur, IrDA
zur drahtlosen Übertragung von Daten zwischen zwei PCs mittels Infrarot, BlueTooth, der USB (Universal Serial Bus) und FireWire als
zukunftsweisende Anschlussmöglichkeit für Hardware mit kleinem bis mittlerem Datenaufkommen (Tastatur, Maus, Scanner, Drucker, externe
2
Festplatten und Laufwerke etc.) sowie der in den neuesten Chipsätzen integrierte I C-Bus (von Intel SMBus, System Management Bus genannt)
der computerinterne Management-Hardware wie Temperaturfühler anbindet.
Der AGP (Accelerated Graphics Port) verfügt über zusätzliche Signale für Pipelining: Während beim PCI-Bus ein Datentransfer erst erfolgen kann,
wenn der vorangegangene Datentransfer abgeschlossen ist, können sich beim AGP die Datentransfers überlappen.
Im Pipelining-Verfahren des 2x-Modus erreicht AGP einer Übertragungsrate von 595 MB/sec, das ist die vierfache Geschwindigkeit des PCI-Bus.
Die Grafikkarte kann über das AGP direkt auf den Speicher des Mainboards zugreifen, ohne über eine Bridge zu gehen. Die Grafikkarte nutzt die
gesamte Bandbreite des AGP.
Der PCI-Bus (Peripheral Component Interconnect Bus) arbeitet mit einer Taktfrequenz von bis zu 66 Megahertz und kann bis zu 133 Megabyte pro
Sekunde über den Bus bewegen. Die Datenbusbreite sind auf moderne 32-Bit-Architekturen ausgelegt.
Die im ursprünglichen IBM-PC eingeführten ISA-Steckplätze (Industrie Standard Architecture) sind veraltet. Die maximale Übertragungsrate von
rund 16 Megabyte pro Sekunde ist für viele Anwendungen zu langsam.
Boardtypen
AT-Board
BAT-Board
ATX-Board
ATX-Slot
Unter einem Typ versteht man einen Standard, der die Größe des Boards, sowie die Lage der Bauteile auf dem Motherboard bestimmt. Auch
Bohrlöcher und Stromanschluss sind darin definiert.
Vom vergleichsweise riesigem AT-Board (etwa 30 x 35 cm) ging die PC-Industrie spätestens beim 486er weitgehend auf Baby-AT (BAT) über
(etwa 22 x 33 cm). Jedoch wuchsen gleichzeitig CPU (und der Kühlturm auf der CPU), es wurden zunehmend Schnittstellen (parallel, seriell,
Floppy, Festplatte, etc.) auf dem Motherboard mit integriert, so dass der Platz knapp wurde.
Daher definierte Intel 1995 den neuen Typ ATX. Wichtigster Inhalt: Das Motherboard wird um 90° gedreht, die Steckplätze behalten aber ihre alte
Lage. Auf diese Weise wird die CPU von den Steckplätzen wegbewegt und kann diese nicht mehr blockieren. Auch wird ein neuer Stecker für die
Stromversorgung eingeführt, dieser ist im Gegensatz zum alten BAT-Stecker verpolungssicher. Des weiteren wird ein Bereich auf dem Board
bestimmt, an dem sich die Anschlüsse für Tastatur, parallele und serielle Schnittstelle, usw. sammeln sollen.
Beispiele:
Schnittstellen
Was ist eine Schnittstelle?
Der allgemeine Begriff Schnittstelle (engl. Interface, Port) stammt aus der Nachrichtentechnik. Mit ihm bezeichnet man
im Prinzip den Punkt, an dem zwei unterschiedliche Kommunikationseinheiten miteinander verbunden sind. Im engeren
Sinn bezieht sich dieser Begriff auf den Bereich Computertechnik.
Schnittstellen sind in zwei unterschiedliche Hauptgruppen einzuordnen:
1. Maschinen-Maschinen-Schnittstellen:
1. Hardward-Hardware-Schnittstellen: Sie dient dazu Hardwarekomponenten untereinander zu
verbinden.
2. Software-Software-Schnittstellen: Sie ermöglichen die Kommunikation zwischen unterschiedlichen
Software-Bestandteilen/ Produkten.
3. Software-Hardware-Schnittstellen: Dies sind Schnittstellen, die es Software ermöglicht auf
Hardware zuzugreifen.
2. Mensch-Maschinen-Schnittstellen: Auch Benutzerschnittstellen genannt. Sie ermöglichen es dem
Benutzer mit dem Computer in Interaktion zu treten
1. Befehlszeilen-Schnittstelle (z.B. DOS-Eingabeaufforderung, UNIX-Shell)
2. Menüschnittstelle (menügesteuerte Schnittstelle; wird von vielen Anwendungsprogrammen benutzt,
es werden Befehlswörter ausgewählt)
3. Graphische Benutzungsoberfläche (z.B. Mac OS, KDE: gibt dem Anwender nicht nur die
Möglichkeit Objekte zu wählen. Diese kann er z.B. auch in Größe und Aussehen manipulieren. Der
Anwender arbeitet auf einem Desktop)
Maschinen-Maschinen-Schnittstellen
1 Hardware-Hardware-Schnittstellen:
In diesem Referat werden wir uns ausschließlich mit den Hardware-Hardware-Schnittstellen befassen. Um Ihnen einen
kleinen Ausblick in das durchaus sehr komplexe Thema zu geben haben wir die Gliederung vorangestellt.
Diese Gruppe kann noch weiter zerlegt werden: Man unterschiedet zwischen paralleler Übertragung und serieller
Übertragung.
Im Laufe der Jahre haben sich einige Schnittstellenstandards etabliert.
1.1 Serielle Schnittstellen
1.1.1 Serielle Schnittstelle (RS-232)
Die RS-232-Schnittstelle ist eine der ältesten Schnittstellen in den heutigen PCs, sie basiert auf der
V.24-Schnittstelle, die im Jahre 1968 entwickelt wurde. Der Standard wurde von der EIA (Electronics Industries
Association) spezifiziert. Mit diesem Standard kann (fast) jedes Terminal mit (fast) jedem Computer benutzt werden. Für
die Kommunikation zwischen Terminal und Computer wird auf jeder Seite ein so genannter UART (Universal
Asynchronous Receiver Transmitter) und eine Logikschaltung für den Buszugriff benötigt. Ihren Ursprung hat sie bei der
Datenübertragung über das Telefonnetz. Zur Steuerung von Modems (Modulator/Demodulator) verfügt sie über
besondere Signale. In anderen Bereichen werden die Signale nicht benötigt und man beschränkt sich auf die BasisSignale. Die RS-232 wird z.B. für den Com-Port, Game-Port und die serielle Maus verwendet.
Der Standard schreibt vor, dass pro Datenbyte 10 Bit gesendet werden. Die 2 Bit Overhead werden für den Anfang
(Startbit) und das Ende (Stoppbit) benötigt, die Pegel des Start- und Stoppbits sind definiert und dienen zur Erkennung
der Nutzdaten. Die Nutzdaten werden nach ASCII (American Standard Code of Information Interchange) kodiert um sie
unabhängig vom Typ des Datenendgeräts zu halten. Im RS-232 Standard sind 25 Signale definiert, wobei in der Realität
wesentlich weniger Signale genutzt werden.
1.1.1.1 Begriffserklärung zur RS-232 Verbindung:
●
●
●
DCE: (Data Communications Equipment) oder DÜE (Datenübertragungseinrichtung). Diese Einrichtung,
z.B. ein Modem allgemeiner ein Pegelwandler, setzt die Signale um, so dass sie über eine Telefonleitung
(Datenfernleitung) übertragen werden können.
DTE: (Data Terminal Equipment) oder DEE (Datenendeinrichtung). Daten-End-Einrichtungen sind
Geräte, die Signale senden und/oder empfangen ohne sie weiterzuleiten. Dies kann ein Computerterminal
eines Mainframes, ein Drucker, Plotter oder PC sein.
Null Modem: Es ist eine RS-232 Kabel, das zwei Geräte direkt verbindet ohne Modems zwischen zu
schalten. Die Kabellänge ist hierbei in der Regel auf 10 Meter begrenzt. Dabei wird den Schnittstellen ein
Modembetrieb vorgetäuscht.
1.1.2 USB (Universal Serial Bus)
USB wurde Mitte der neunziger Jahre von einem Firmenkonsortium entwickelt, darunter waren Compaq, DEC, IBM,
Intel, Microsoft, NEC und Northern Telecom. Schon nach kurzer Zeit hat sich die Entwicklergemeinschaft stark
vergrößert. Ihr Ziel war es ein Bus zu entwickeln um langsame Peripherie anzuschließen. Diese Idee entstand daraus,
dass es zuvor keine einfache Möglichkeit gab um Peripherie an einen PC anzuschließen. Vor USB musste der Anwender
wenn er z.B. einen Scanner gekauft hat den PC öffnen um eine Schnittstellenkarte einzubauen. Danach musste er meist
noch Jumper setzen und Konflikte im System beheben. Ein weiteres Problem war die begrenzte Zahl von Steckplätzen
und Ressourcen im PC.
Auf diesem Hintergrund entwickelte das Konsortium folgende neun Ziele:
●
●
●
●
●
●
●
●
●
Das System soll Plug and Play fähig sein.
Das Gehäuse soll nicht mehr geöffnet werden müssen.
Ein standardisiertes Kabel soll verwendet werden.
Die E/A-Geräte sollen über das Kabel mit Strom versorgt werden.
An einen einzigen Computer sollen sich bis zu 127 Geräte anschließen lassen.
Das System soll Echtzeitgeräte (z.B. Sound, Telefon) unterstützen.
Der Bus soll Hot-Plugging unterstützen.
Nach der Installation eines neuen Gerätes soll kein Neustart nötig sein.
Die Herstellungskosten sollen niedrig gehalten werden.
All diese Anforderungen wurden in die Tat umgesetzt. Die Version 1 unterstützt eine Geschwindigkeit von 1,5 Mbyte/s.
Es kann für Peripherie wie: Tastatur, Maus, Monitor, Drucker, Joystick, Modem, Scanner genutzt werden. Mittlerweile
ist die Version 2 auf dem Markt die selbst Videodaten in Echtzeit ohne Probleme übertragen kann. USB 2 überträgt die
40-fache Geschwindigkeit über die selben Kabel und Stecker wie USB 1, es übertrifft sogar im Augenblick FireWire
(dazu später mehr).
Zur Architektur von USB:
Ein USB-System besteht aus einem Root-Hub der mit dem Hauptbus (PCI-Bus) des Systemes verbunden ist. Der USBBus hat einen sternförmige Struktur. An den Root-Hub können entweder noch weitere Hubs, oder die Peripheriegeräte
angeschlossen werden. Die Kabel haben am Anfang und Ende unterschiedliche Stecker (Connectors) die ein
Falschanschließen verhindern.
Das Kabel besteht aus vier Drähten, zwei für Daten, einen für die Spannungsversorgung (+5 Volt) und einen für Masse.
Das Signalisierungssystem überträgt eine 0 als Spannungsimpuls und eine 1 in Abwesenheit eines Spannungsüberganges,
so dass lange Folgen von Nullen einen regelmäßigen Impulsstrom erzeugen.
Struktur für ein USB-Netzwerk
Struktur für ein USB 2-Netzwerk
Wenn jetzt der Benutzer ein neues Gerät an das System anschließt, erkennt dies der Root-Hub und sendet einen Interrupt-
Signal an das Betriebssystem. Diese wiederum fragt dann die Informationen aus der neuen Hardware ab (nicht
initialisierte Karten beginnen mit der Adresse 0), insbesondere die Art des Gerätes und dessen Bandbreitenbedarf. Nun
prüft das System ob genügend Bandbreite vorhanden ist; wenn ja, bekommt das Gerät eine Adresse (zwischen 1-127)
zugewiesen. Diese Daten werden dann in ein Register im Inneren des Gerätes in Verbindung mit anderen Daten
gespeichert. Nun ist das Gerät betriebsbereit.
Die Datenübertragung kann man sich logisch durch Bit-Pipes erklären. Für jedes Gerät gibt es eine eigene Pipe. Diese
verbindet den Root-Hub mit den angeschlossenen Geräten. Die eigene Pipe kann jedes Gerät in maximal 16 Teil-Pipes
splitten, die zur Übertragung unterschiedlicher Daten (z.B. Audio und Video) genutzt werden können. Die PeripherieGeräte können untereinander nicht kommunizieren. Der Datenfluss ist nur zwischen Root-Hub und Endgerät bzw.
umgekehrt möglich.
1.1.3 IEEE 1394 (FireWire, i.LINK)
Die IEEE 1394-Technologie wurde von Apple entwickelt und erhielt den Namen "FireWire".
Dieser Begriff bezeichnet eine verhältnismäßig neue serielle Schnittstellentechnologie für
Computer- und Videogeräte zur Übertragung digitaler Daten mit bis zu 400 MBit/sec. FireWire ist von der IEEE
([sprich: Eye-triple-E] Institute of Electrical and Electronics Engineers, Inc ) und ist standardisiert unter der Bezeichnung
IEEE 1394. In den Jahren 1997/98 nennt die Firma Sony im Bezug auf ihre Produkte FireWire in i.LINK um. Als
Begründung gaben die Japaner an: mit "FireWire" assoziiere der Kunde "Gefahr" und "brennende Computer". Um den
drei unterschiedlichen Namen noch die Krone aufzusetzen gibt es einen vierten; dieser wurde von TI (Texas Instruments)
geprägt und lautet "Lynx", dieser wird aber sehr selten benutzt. Allen Namen ist gleich, das sie die Schnittstelle nach der
Norm 1394 meinen.
Im Bereich Digitale Bild-/Tonübertragung hat sich FireWire zum quasi Standard entwickelt. Sehr schnell gab es aber
auch erste externe Festplatten mit dem FireWire-Interface, weitere Produkte folgten bald.
Zur Architektur von FireWire:
Es gibt sie in zwei verschiedenen Ausführungen, einmal als Backplane (Rückwand modularer Netzwerkgeräte: Auf der
Backplane sind ein oder mehrere Hochgeschwindigkeitsbussysteme -z.B. FireWire- untergebracht. Über sie können die
einzelnen Module untereinander verbunden werden.) und als Kabelvariante. Die erstere wird eigentlich nur in der
Industrie verwendet. Der Standard sieht zur Zeit drei verschiedene Übertragungsraten (100, 200 und 400MBit/s) vor,
wobei das Ende der Leistungsfähigkeit bei weitem noch nicht erreicht ist, in näherer Zukunft sollen es 1,2 GBit/s (150
Mbyte/s) werden. Dabei gilt im Moment das Minimalprinzip bei der Datenübertragung, d.h. das langsamste aktive Gerät
am Bus bestimmt die maximale Geschwindigkeit. Die Entwickler versuchen dies zu ändern, so dass jedes Gerät optimal
versorgt werden kann.
Der Adressbus bei FireWire ist 64 Bit breit, er basiert auf dem Standard IEEE-1291 (Control- und Status Register
Management für Mikrocomputer-Busse). Dabei werden die ersten 16 Bit für die Adressierung der Geräte verwendet, die
restlichen 48 Bit für die Register- und Speicherimplementierung. Bei der Adressierung muss man zwischen 6-Bit-Node
(63 Geräte adressierbar) und 10-Bit-Node (1023 Geräte adressierbar) unterscheiden.
Einer der größten Vorteile außer der Geschwindigkeit im Vergleich zu USB (hinsichtlich dessen was FireWire
in Zukunft zu leisten vermag) ist die absolute Flexibilität bei der Verkabelung der Geräte untereinander. Hierbei
ist keine Sternform wie bei USB nötig oder eine Ringform wie beim Token Ring. Zur absoluten Flexibilität
trägt auch das Kabel bei; es ist wesentlich formbarer als RJ45-Kabel oder BNC-Kabel. Das Kabel heißt P1394;
in ihm befinden sich zwei Twisted-Pair Leitungen, welche gesondert abgeschirmt sind. Dazu kommen laut
Standard noch zwei Leitungen für die Spannungsversorgung (8-40V bei max. 1,5A), die jedoch die Firma Sony
aus ihrem Layout entfernt hat. Um alles zusammen kommt noch eine zweite Abschirmung.
Firewire bietet die Möglichkeit mehrere Stränge (Ports) anzulegen. Jeder Strang kann bis zu 16 Geräte
verwalten. Insgesamt können wie oben erwähnt 63 bzw. 1023 Geräte angeschlossen werden. Dabei gilt es einige
Regeln im Bezug auf die Kabellänge zu beachten: Ein Strang darf höchstens 72m lang sein, der Abstand
zwischen den Konten soll 4,5 m nicht überschreiten.
FireWire ist voll hot plug fähig. Wenn ein Gerät angeschlossen wird, bekommt es eine physikalische Adresse
zugewiesen, diese behält es selbst wenn das Gerät vom Bus getrennt wurde. Diese ändert sich erst nach einem
Bus-Reset.
Ein wesentlicher Nachteil von FireWire sind die hohen Kosten für die Schnittstellen und die Kabel. FireWire
dient nicht für den Low- Cost-Markt, es ist ein High-Tech-Produkt für die flexible Übertragung von großen
multimedialen Datenmengen.
1.1.4 Serial-ATA
Die Standardfestplattentypen sind heute EIDE Festplatten mit ATA/66, ATA/100 oder ATA/133. Im professionellen
Einsatz ist SCSI der Standard. Im Februar 2000 stellte Intel in San Jose auf dem IDF (Intel Developer Forum) den neuen
Bustyp Serial-ATA (AT Attachment) vor, dieser soll die EIDE Festplatten ablösen. An diesem Standard sind insgesamt
sieben Firmen beteiligt: APT Technologies, Dell, IBM, Intel, Maxtor, Seagate und Quantum. Schon damals war dieser
Bus sehr Erfolg versprechend, da er 92 % mehr Leistung bringt als parallele ATA, die Datenübertragungsrate liegt bei
150 MByte/s. Und in der weiteren Entwicklung sollen diese Werte auf ca. 600 MByte/s angehoben werden. Parallel-ATA
basiert auf einer Bus-Struktur mit einem Master-Laufwerk und einem Slave-Laufwerk. Heutige Chipsätze bieten meist
zwei ATA-Busse für die Verwaltung von vier Geräten. Eins der Hauptproblem der parallelen Technik ist die
unterschiedliche Laufzeit der Signale über die verschiedenen Leitungen sowie die unterschiedlichen Ausgangspegel, die
bei hohen Geschwindigkeiten auftreten können. Daher muss ab einer bestimmten Geschwindigkeit die Länge der Kabel
reduziert werden, bzw. darf der Takt nicht erhöht werden.
Vorteile von Serial-ATA gegenüber Parallel-ATA:
●
●
●
●
●
●
●
●
●
Deutlich höhere Übertragungsraten (150 MByte/s zu 100 MByte/s)
4-polige Kabel anstelle 40-poliger Kabel
weniger Leistungsverbrauch
kleinere (preisgünstigere) Steckverbinder sowie dünnere und längere Kabel (bis 1 Meter)
Besserer Luftdurchsatz und bessere Kühlung durch die schmalen Kabel
Kaum Laufzeitprobleme durch ein Kabel je Gerät, dadurch entfällt eine Terminierung
Wegfall der alten Master/Slave Regelung durch Sternverkabelung
Wegfall der alten 4 Platten Regelung
Softwarekompatibilität zu alten Systemen
Die Gesamtheit der versprochenen Vorteile von Serial-ATA hat dazu geführt, dass sich weitere 60 Firmen der "Serial
ATA Working Group" angeschlossen haben, damit sie frühzeitig auf die Spezifikationen Zugriff haben. Für die
Spezifikation sind weiterhin nur die sieben Gründungsmitglieder verantwortlich.
Stern-Topologie bei Serial-ATA
Serial-ATA Festplattenanschluß
Zur Architektur von Serial-ATA:
Serial-ATA basiert nicht auf einem Master-Slave-Konzept. An einem Strang ist nur ein Laufwerk angeschlossen, also
eine direkte Punkt-zu-Punkt-Verbindungen zwischen dem Interface-Chipsatz auf dem Mainboard/ Steckkarte und dem
angeschlossen Laufwerk. Es müssen keine Jumper gesetzt werden und es muss keine gesonderte Bus-Terminierung
stattfinden, da immer die Leitung im Chip terminiert. Daraus ergibt sich ein weiterer Vorteil: Defekte Geräte können
keine anderen Geräte beeinflussen. Für die Datenübertragung wird die NRZ-Kodierung (Non-Return-to-Zero.
Digitalcode, bei dem sich die Polarität bei einem 0 / 1-Wechsel positiv und bei einem 1 / 0-Wechsel negativ ändert)
eingesetzt, wobei der Spannungshub zwischen +250 mV und -250 mV um eine gemeinsame Mitte gewählt wurde. Das
entspricht der weit verbreiteten LVDS-Technik (Low Voltage Differential Signaling. Übertragungsverfahren von
digitalen Bilddaten, dass mit einer Parallel/Seriell-Wandlung arbeitet. Wird vornehmlich bei Notebooks verwendet). Die
LVDS-Technik zählt zum Standard-Verfahren bei der Hochgeschwindigkeits-Datenübertragung. Durch diese Technik
werden EMV-Probleme (ElektroMagetische-Vertäglichkeit) sehr gering gehalten.
Serial-ATA ist als interner Bus ausgelegt zum Anschluss von Massenspeichern. Er ist nicht dafür gedacht Scanner oder
Drucker anzuschließen. Im Bus ist ein Powermanagement integriert für den mobilen Einsatz, so kann die Leistung
verringert, bzw. in Stufen abgeschaltet werden. Selbst an den Anschluß von parallelen Geräten ist gedacht. Dies geschieht
mittels Adaptern. Sie können auf der Seite des Mainboards oder der Seite des Laufwerkes eingesetzt werden. Der
Lebenszyklus ist auf ca. 10 Jahre ausgelegt. Dabei sind zwei Leistungssprünge eingeplant. Dies hängt von der
Geschwindigkeitsentwicklung der Laufwerke ab. So ist nur ein kleiner, kostengünstiger Pufferspeicher für die
Geschwindigkeitsanpassung erforderlich.
In der Diskussion um eine zukünftige Erweiterung steht die Hot-Plug-Fähigkeit, Zugriffsmöglichkeiten auf Platten größer
137 GByte und 1st-Party-DMA.
1.1.4.1 Vor- und Nachteile von Serial-ATA im Vergleich zu anderen Techniken:
JA
JA
JA
Parallel
(Standard)
JA
JA
NEIN
JA
Serial-ATA
Preisgünstig herzustellen
einfaches Übertragungsprotokoll
Kabellänge über 60 cm Länge möglich
Hot Plug fähig (auch vom Betriebssystem
abhängig)
Plug and Play (auch vom Betriebssystem
abhängig)
dünnes, flexibles Kabel möglich
geringe Spannung (Volt)
einfacher Stecker
SCSI
FireWire
NEIN
NEIN
JA
NEIN
NEIN
JA
NEIN
JA
JA
JA
NEIN
NEIN
JA
JA
JA
JA
NEIN
NEIN
NEIN
NEIN
JA
NEIN
JA
JA
JA
Bandbreite ausbaufähig
Terminierung erforderlich
empfindlich gegenüber Störstrahlung
JA
NEIN
NEIN
NEIN
NEIN
JA
NEIN
JA
NEIN
JA
NEIN
NEIN
(Quelle: http://www.hardwaregrundlagen.de)
1.2 Parallele Schnittstellen
1.2.1 Parallele Drucker Schnittstelle (Centronics)
Die parallele Schnittstelle wird auch als Centronics-Schnittstelle bezeichnet. Ihr Haupteinsatzgebiet ist der Datentransfer
zwischen PC Peripherie, z.B. Drucker, Scanner und Zip-Laufwerke. Oder allgemeiner gesagt zu jeder Peripherie die
Charakteristik Centronics hat. Ihr Signalpegel liegt bei +5V(High) und 0V(Low).
Über die parallele Schnittstelle können 8 Bits gleichzeitig übertragen werden. Dazu kommen noch einige
Übertragungsleitungen für Steuersignale, erst diese können eine korrekte Datenübertragung gewährleisten. Die
Schnittstelle ist bidirektional ausgelegt, das bedeutet sie kann Daten senden und empfangen. Das Interface hat 12
gepufferte Ausgabeleitungen (8 Datenleitungen, Strobe, Printer Initialize, Auto Feed, Select Input) und 5
Eingabeleitungen (Acknowlegde, Busy, Paper End, Error, Select), die vom Drucker beschrieben werden. Die CentronicsSchnittstelle gibt es in verschieden Ausführungen mit 14, 16, 24, 32 oder 36 Leitungen. Von diesen sind aber nur elf für
die Datenübertragung unbedingt notwendig, die anderen sind wie oben aufgelistete zur Signalisierung von besonderen
Zuständen gedacht.
Für parallele Schnittstellen verwendet man die Bezeichnung LPT1 oder LPT2.
D-Sub-Stecker (25polig)
Centronics-Stecker (36polig)
Weitere Anwendungsbereiche:
●
●
25pol. D-Sub Loopback Stecker: Dies ist ein Testadapter, mit ihm kann die Funktion einer parallelen
Schnittstelle z.B. eines PCs überprüfen werden.
Paralleles Interlink-Kabel: Dieses Kabel kann zum Datenaustausch zwischen zwei PCs genutzt werden
1.2.2 PCI Bus (Peripheral Component Interconnect)
●
●
●
●
●
●
●
●
Von der Firma Intel entwickeltes Bussystem
Alternative zum VESA Local Bus, vor allem seit Markteinführung der Pentium Prozessoren
Unabhängig vom Prozessor, somit auch in anderen Systemen einsetzbar (z.B. Apple Macintosh)
Übertragungsrate maximal 132 MByte/s bei 32 Bit Datenbreite
Version 2.1 sogar 264 MByte/s bei 64 Bit Datenbreite
Am Bus anliegende Taktfrequenz: 25-33MHz
PCI-Bus erlaubt in Verbindung mit passendem BIOS automatische Konfiguration (Plug & Play)
Hauptbedeutung für Erweiterungskarten mit hohem Datendurchsatz (Grafikkarten oder FestplattenController)
1.2.3 AGP Bus (Accelerated Graphics Port)
Ebenfalls von Intel entwickelter Hochgeschwindigkeitsbus für die Grafikausgabe am PC. AGP ist eine Art Erweiterung
des PCI-Busses zur Darstellung von realistischen 3D Grafiken. Diese sind durch die Texturen sehr speicherintensiv, die
Bandbreite des PCI-Busses ist aber zu klein die großen Datenmengen zwischen Hauptspeicher und Grafikkarte
auszutauschen. AGP arbeitet ähnlich wie der PCI-Bus, hat allerdings einige Vorteile:
●
●
●
●
●
AGP arbeitet mit 66 MHz Taktung (PCI mit 33 MHz)
AGP kann Datenpakete nicht nur an den steigenden Signalflanken (wie PCI), sondern auch an den
fallenden Flanken übertragen
Verschiedene Modi:
❍ X1 Modus: 264 MByte/s ( = doppelte Taktung gegenüber PCI)
❍ X2 Modus: 528 MByte/s
❍ X4 Modus: 1056 MByte/s
AGP ist direkt an den Arbeitsspeicher des PCs angebunden -> Geschwindigkeitsvorteil bei 3D
Programmen (Rendering, Raytracing)
AGP erhöht die Frame-Rate (Anzahl der dargestellten Bilder pro Sekunde)
AGP bietet keinerlei Geschwindigkeitsvorteil im täglichen Gebrauch des PCs, nur bei 3D Programmen und spielen.
Der AGP-Slot (Steckplatz) ist kleiner als ein PCI-Slot Außerdem verrutschen Grafikkarten im AGP-Slot leicht beim
Transport und arbeiten dann nicht oder nur fehlerhaft.
1.2.4 SCSI-Bus (Small Computer Systems Interface)
Der große Vorteil von SCSI: alle angeschlossenen Geräte werden vom Hostadapter verwaltet t CPU wird nicht belastet!
Der Hostadapter ist die Schnittstelle zwischen SCSI-Geräten und der CPU
Die meisten SCSI-Adapter haben Anschlussstecker sowohl für interne als auch für externe Geräte
SCSI-1 Standard stellt das
Grundgerüst dar. Es wurde
zwar erweitert, aber nie verändert t Abwärtskompatibilität
Arbeitsweise:
●
●
●
●
●
SCSI-Geräte kommunizieren asynchron (d.h. ohne festen Takt) um die Übertragungsparameter zu
vereinbaren
Eigentliche Datenübertragung: Ab SCSI-2 in einem schnelleren, synchronen Übertragungs-Modus
SCSI-Bus muss immer eine Kette von aneinander gehängten SCSI-Geräten sein
Jeweils das letzte Gerät der Kette muss terminiert sein
Nachteil: Durch die Abwärtskompatibilität arbeitet der Bus nach Standart des langsamsten Gerätes
d.h. wenn ein SCSI-1 Gerät am Strang hängt, kann die schnellste Festplatte nicht über 5MB Daten pro
Sekunde schicken
Die drei Übertragungsmodi von SCSI:
1. Single Ended (SE)
■ Bereits bei den ersten Geräten wurde SE benutzt
■ Se ist relativ störanfällig, Kabellänge bei höheren Geschwindigkeiten daher stark begrenzt
■ Zwischen den Geräten muss ein Mindestabstand von 30 cm Kabellänge bestehen
■ Die Daten werden über die Drähte im Kabel übertragen: jeweils eine Strom durchflossene
Datenleitung wird mit einer Masse-Leitung in Verbindung gesetzt
■ Wegen hoher Störanfälligkeit SE-SCSI nur bis zum Ultra-Wide-Standart
2. Low Voltage Differential (LVD)
■ Entwicklung von LVD für schnellere Übertragungen
■ Kabellänge bis 12 m
■ Datenübertragung sowohl auf Daten- als auch auf Masse-Leitung, die Differenz der beiden Signale
stellt die verschickten Daten dar (0 oder 1)
■ Da Signalverzerrungen sowohl auf Daten- als auch auf Masse-Leitung wirken, bleibt die Differenz
gleich -> Störsicherheit
■ Abwärtskompatibel bis SCSI-1
3. High Voltage Differential (HVD)
■ Ähnlich wie LVD, allerdings wird mit wesentlich höheren Spannungen gearbeitet
■ durch höhere Spannungen teuer
■ Buslänge bis 25m (reichte für den Durchbruch von HVD nicht aus)
1.2.5 E-IDE Bus (Enhanced Integrated Drive Electronics)
●
●
●
Schnittstelle für Massenspeicher (Festplatte, CD, DVD,...)
IDE-Standard erweiternde, abwärtskompatible Schnittstelle
Datentransferraten von 33 bis 66 MB/s
●
●
E-IDE-Festplatten benötigen keine kostspieligen Controller-Karten
Nachteil von IDE bzw. E-IDE ist die Begrenzung der Anzahl an Peripheriegeräten auf maximal zwei pro
Kanal
Quellen:
Duden Informatik, Mannheim 1993 Computerarchetektur, Andrew S. Tanenbaum, James Goodman, Prentice Hall,
München² 2000
Microsoft® Encarta® Professional 2002
http://www.elektroniklager.de/pc-sup/
http://www.wdrcc.de
http://www.hardwaregrundlagen.de
http://www.serialata.com
Die Tastatur
Allgemeines:
Um einen Rechner bedienen zu können braucht man ein Gerät, welches das Eingreifen des Menschen ermöglicht. In der Regel ist das am PC
(Personal Computer) die Tastatur. Die Tastatur ist das primäre Eingabegerät des Computers und damit die wichtigste Peripherie, weil sich fast alle
Funktionen über die Tastatur durchführen lassen. Daher sind fast alle Computer mit einer Tastatur ausgestattet.
Die Anordnung der Buchstaben und Ziffern wurde von der Schreibmaschine übernommen. Hier wurde die heute noch aktuelle Verteilung aus
folgendem Grund gewählt: Bei der Schreibmaschine wurden die mechanischen Hebel, die die Buchstaben durch drücken auf das Farbband zu
Papier brachten so angeordnet, wie die Tasten selbst. Wenn nun zwei Tasten deren mechanische Hebel dicht nebeneinander waren schnell
aufeinander folgend gedrückt wurden, "verhakten" diese oft. Daher versuchte man die Buchstaben die in ihrer Kombination am häufigsten
hintereinander getippt wurden, möglichst weit weg von einander zu positionieren.
Es gibt verschieden Arten von Tastaturen z.B. Mechanische Tastaturen, Folien-Membran Tastaturen, Kapazitive Tastaturen und im entferntesten
Sinne auch Touchscreens.
Mechanischen Tastatur: Hier wird ein Kontakt über einen mechanischen Schalter geschlossen. Auf die Funktionsweise wird später noch näher
eingehen.
Folien - Membran Tastaturen: Hier werden Kontakte direkt auf einer Folie geschlossen, was einen deutlich kürzeren Tastenhub zur Folge hat.
Kapazitive Tasten: Hier bilden Flächen auf der Taste und der Platine einen Kondensator dessen Kapazität sich bei der Betätigung verändert.
Des weiteren gibt es auch verschiedene Arten um die physikalische Verbindung zum Mainboard herzustellen z.B. den
USB-Stecker
oder den üblichen
PS2-Stecker.
Heutzutage hat sich die MF/II Tastatur mit den Windowstasten als Standard etabliert. Sie verfügt in der deutschen Version mit den Windowstasten
über 105 Tasten, und ist zusätzlich mit drei Leuchtdioden ausgestattet, die den Status bestimmter Tastaturfunktionen anzeigen.
Die Verschiedenen Bereiche der Tastatur:
Aufgeteilt ist sie in mehrere Bereiche (hauptsächlich in die ersten vier rot, blau, grün und gelb. Zur Verdeutlichung des Aufbaus sind in Abb.1 alle
Funktionsbereiche farblich von einander abgegrenzt):
Bild 1: Ansicht einer Standard-Tastatur
●
●
●
●
●
●
●
Rot: Alphanumerischer Block (Schreibmaschine)
Blau: Nummernblock (kann auch den Steuerungsblock ersetzen)
Grün: Steuerungsblock (bewegt den Cursor)
Gelb: Funktionstasten (verschiedene Bedeutung je nach Anwendung)
Violett: Escape-Taste (Flucht: Bricht im Allgemeinen den gerade laufenden Vorgang ab)
Dunkelbraun: Spezielle Funktionstasten, selten benötigt
Hellbraun: Steuerungstasten Strg, Alt, Alt-Gr, aktivieren zusammen mit der Umschalttaste die Mehrfachbelegungen der Tasten
Der alphanumerische Block:
Der sog. Schreibmaschinenblock dient zur Text- und Zahleneingabe. Die Tasten sind mehrfach belegt. Die Belegung kann mithilfe so genannter
Stummtasten variiert werden. Stummtasten werden so genannt, weil sie nur in Verbindung mit anderen Tasten gelten, das Drücken einer
Stummtaste allein also keine Reaktion auslöst. Bei Verwendung von Stummtasten werden diese zuerst gedrückt und festgehalten, dann wird die
gewünschte Taste gedrückt.
Zu den Stummtasten gehören:
●
●
●
●
●
Shift-Taste < > zum Abruf der Zweitbelegung
Shift-Lock-Taste < >, auch als Feststell-/Caps-Lock-Taste oder Dauershift bezeichnet
Alt-Taste <Alt>
Alt-Gr-Taste <Alt Gr> zum Abruf der Drittbelegung
Strg-Taste <Strg> oder <Ctrl>
Die Mehrfachbelegung der Tasten des Schreibmaschinenblocks funktioniert wie folgt:
1. Im einfachen Modus (ohne Drücken von Stummtasten) erhält man die Tasten-Erstbelegung: Kleinbuchstaben und Ziffern.
2. In Verbindung mit der Shift-Taste <n> ruft man die Zweitbelegung ab, das sind Großbuchstaben und bestimmte Sonderzeichen (!, ?, §, $, %
usw.). Sollen z.B. nur Großbuchstaben geschrieben werden, kann man diesen Modus durchgängig erreichen, wenn die Shift-Lock-Taste <p>
einmal gedrückt wird. Auf der Tastatur rechts oben (in der Mitte) leuchtet dann eine Diode auf, woran man den Modus der Zweitbelegung
erkennen kann. Ein einmaliges Drücken von <n> schaltet die Zweitbelegung wieder aus.
3. Manche Tasten sind mit einer Drittbelegung versehen. Diese Zeichen (eckige und geschweifte Klammern, @ usw.) sind mit der gedrückten
<Alt Gr>-Taste abrufbar.
Folgende Sondertasten sind von Bedeutung:
Tabulatortaste <l> = Sprung zum nächsten Tabulator-Stopp
Enter-/Return-Taste <Enter> oder <i > = Eingabebestätigung
Rück-Taste <r> = Löschen des Zeichens oder markierten Bereichs vor dem Cursor
Der Nummernblock:
Er dient insbesondere der Eingabe von Zahlen und Rechenzeichen. Mit < > wird der Block ein- bzw. ausgeschaltet. Den aktivierten Modus
erkennt man an der Leuchtdiode auf der Tastatur rechts oben (linke Diode).
Gibt man den Dezimalwert für ein ASCII-Zeichen auf dem Ziffernblock der Tastatur bei gedrückter <Alt>-Taste ein, erhält man das gewünschte
ASCII-Zeichen.
Der Steuerungsblock
Mit den Cursor-Tasten < >< >< >< > erreicht man eine entsprechende Bewegung des Cursors (der Eingabemarke) auf dem Bildschirm
nach oben/unten/links/rechts. Über dem Cursor-Block findet man folgende Sondertasten:
●
●
●
●
●
●
<Entf> oder <Del> = Entfernen-Taste (Löschen des Zeichens oder markierten Bereichs nach dem Cursor)
<Einfg> oder <Ins> = Umschalten zwischen Einfüge- und Überschreibemodus (DOS-Ebene)
<Pos1> oder <Home> = Bildlauf zum Zeilenanfang
<Ende> oder <End> = Bildlauf zum Zeilenende
<Bild > oder <PgUp> = Bildlauf nach oben (oft seitenweise)
<Bild > oder <PgDn> = Bildlauf nach unten (oft seitenweise)
Die Funktionstasten:
Er besteht im Wesentlichen aus Funktionstasten (<F1>, <F2>, ..., <F12>), die dem Aufruf von Befehlen dienen. Die Tasten sind in den
verschiedenen Programmen unterschiedlich belegt, <F1> ruft meist eine Hilfe auf. Zum Steuerblock gehören u.a. folgende Sondertasten:
<Esc> = Escape, Fluchttaste (Abbruch eines Kommandos)
<Druck> = Bildschirmausdruck (DOS-Ebene)
Shortcuts:
Als Shortcuts werden so genannte Tastaturcodes oder Tastaturkürzel bezeichnet. Das sind Tastaturbefehle, die durch gleichzeitiges Drücken
(Kombinieren) mehrerer Tasten ausgelöst werden. Die meisten Anwendungsprogramme bieten eine Vielzahl solcher Shortcuts zur
Arbeitserleichterung an, denn viele Aktionen lassen sich dadurch schneller abrufen als mit der Maus. Dabei werden vor allem die <Strg>- und die
<Alt>-Taste genutzt. So lässt sich z.B. bei allen Windows-Anwendungen mit der Tastenkombination <Strg> + <X> ein markierter Bereich
herausschneiden, mit <Strg> + <C> in die Zwischenablage kopieren und mit <Strg> + <V> an anderer Stelle einfügen. Mit der Maus wären hier
zwei Klicks nötig (z.B. BEARBEITEN > EINFÜGEN).
Die Funktionsweise der Tastatur:
-Kurzform:
Sobald eine Taste gedrückt oder losgelassen wird, wird dies vom Tastaturprozessor erkannt. Er berechnet daraus einen Scan-Code, der mit dem
ASCII-Code des Zeichens nichts zu tun hat. Vielmehr besteht der Scan-Code aus der Nummer der gedrückten Taste und der Information, ob sie
gedrückt (man spricht von einem Make-Code) oder losgelassen (Break-Code) wurde. Dieser Code wird an den Tastaturcontroller übermittelt, der
über den IRQ 1 den Tastaturtreiber aktiviert und den Scancode übergibt. Falls es sich hierbei um das Drücken eines auszugebenden Zeichen
handelt wir dieses als ASCII-Zeichen in den Tastaturpuffer (einem kleinen Bereich zum Zwischenspeichern der Zeichen bis zu ihrem Gebrauch)
abgelegt. Je nachdem welches Programm gerade aktiv ist, wird das Zeichen z.B. einfach auf dem Bildschirm ausgegeben.
-Ausführlicher:
Auf der Tastaturseite befindet sich ein Tastaturprozessor, in der Regel ein 8048 von INTEL, und kommuniziert mit dem PC. Über fünf Leitungen
ist die Tastatur mit dem PC verbunden. Leitung 5 führt stets 5 Volt und versorgt die Tastatur mit Spannung. Leitung 4 wird auf Masse gelegt.
Leitung 3 wird/wurde nur bei Geräten der XT-Klasse verwendet und bewirkt ein Rücksetzen der Tastatur beim booten. Auf Leitung 2 findet der
Datenaustausch statt und auf Leitung 1 wird von der Tastatur aus ein Taktsignal gesendet.
Ablauf einer Eingabeaktion
Die Tasten der Tastatur sind als Matrix mit Leitungen verbunden, welche der
Tastaturprozessor überwacht. Wird eine Taste betätigt, so entsteht ein
elektrischer Kontakt zwischen einer Reihe und einer Spalte der Matrix. Der
Tastaturprozessor legt kurzzeitig eine Spannung an die Reihen und tastet
danach die Spalten ab. Wird bei einer Reihe Spannung festgestellt, so muss die
Taste am Kreuzungspunkt zwischen Reihe und Spalte gedrückt worden sein.
Der Prozessor beobachtet einige Millisekunden lang diese Taste, bevor er
davon ausgeht, dass die Taste tatsächlich gedrückt wurde. Diese Wartezeit ist
erforderlich, weil beim Betätigen der Taste der Kontakt mehrmals hergestellt
wird, bevor dieser Zustand endgültig stabil wird. Bleibt der Kontakt so lange
bestehen, sendet der Prozessor eine Zahl, den so genannten "Scan-Code" an den
Computer, der die gedrückte Taste eindeutig identifiziert. Dieser Code steht in
keinem Zusammenhang mit dem Zeichen, das auf der jeweiligen Tastatur
aufgedruckt ist, er stellt tatsächlich nur die Nummer der Taste dar, aus der
später das Zeichen gewonnen werden muss. So können auch die beiden SHIFTTasten getrennt betrachtet werden, denn sie besitzen unterschiedliche ScanCodes. Falls mehrere Tasten gleichzeitig gedrückt wurden, speichert der
Tastaturprozessor die Tasten zunächst in einem internen Puffer ab, der in der
Regel zehn Zeichen Platz bietet. Voll wird er jedoch nie, denn die Übertragung
geht so schnell, dass der Anwender nicht hinterherkommt. Scan-Codes erzeugt
der Prozessor jedoch nicht nur beim Niederdrücken, sondern auch beim
Loslassen der Taste. Erst dadurch kann das gleichzeitige Drücken mehrerer
Tasten richtig erkannt werden. Unterschieden werden die Scan-Codes
deswegen in Make-Codes (für das Niederdrücken) und Break-Codes (für das
Loslassen). Break-Codes sind immer größer als 128, also nur das 8. Bit ist zusätzlich gesetzt, während Break-Codes immer kleiner als 128 sind
(dort ist das 8. Bit LOW). Somit kann eine Tastatur maximal 128 Tasten umfassen. Die Übertragung der Codes erfolgt synchron über die
Datenleitung 2. Eine synchrone Übertragung bedeutet, dass von einer Seite (in diesem Falle von der Tastatur auf Leitung 1) ein Takt ausgegeben
wird. Die Daten werden als eine Reihe von Bits übertragen, wobei jedes Bit genau einen Takt lang auf der Leitung bleibt. Zunächst wird zwei
Takte lang ein HIGH auf der Datenleitung gesendet, um zu signalisieren, dass ein Zeichen folgt. Anschließend werden MAKE oder BREAK Code
gesendet, das niederwertigste Bit zuerst.
Die PC-Maus : Arten und Funktion
1. DieMaus
Die Maus gehört zu den besonders auffälligen Entwicklungen im Laufe der PC-Zeit (Personal Computer).
Anfangs wurde die Maus von Anwendern und Programmierern eher kritisch betrachtet. Aber heutige
Benutzeroberflächen lassen sich mit der Maus viel einfacher bedienen als nur mit der Tastatur.
Bild 1: Dreitastenmaus
Viele Programme, insbesondere die, die mit einer graphischen Oberfläche arbeiten, lassen sich mit einer Maus bedienen. Eine Maus erlaubt
schnelle Bewegungen auf dem Bildschirm und übernimmt insofern die Funktion der Cursortasten, so dass man sehr schnell von einer Stelle im
Text zu einer anderen gelangt. Durch zusätzliche Tasten auf der Maus lassen sich verschiedene Programmfunktionen steuern. Mittlerweile sind
fast alle Anwendungsprogramme und auch schon eine Vielzahl an Betriebssystemen für den Einsatz einer Maus ausgelegt.
Die Maus überträgt zweidimensionale Bewegungen und funktionsauslösende Tastendrücke des Benutzers an den Computer. Zur Erfassung der
Bewegungen können mechanische oder optische Sensoren eingesetzt werden (siehe Abschnitt 2. und 3.). Als funktionsauslösende Mechanismen
werden eine verschiedene Anzahl an Tasten eingesetzt, meist zwischen zwei und fünf.
Im Zusammenhang mit der Betätigung der Maustasten wird meist vom Klicken gesprochen. Ein einfaches Betätigen wird als "Klick" bezeichnet.
Das schnelle, zweimalige Betätigen als "Doppelklick". Während mit der linken Maustaste meistens Programme aktiviert werden, dient die rechte
Maustaste dazu, Menüfelder aufzurufen. Diese Menüfelder stehen im Zusammenhang mit dem Objekt, das man mit dem Mauszeiger auswählt.
Deshalb bezeichnet man diese Menüs als Kontextmenüs. Sie sind für das schnelle und routinierte Arbeiten sehr hilfreich.
Zum Standard ist mittlerweile das Mausrad (auch: Scrollrad) geworden, mit dem man zum Beispiel bei
größeren Textdokumenten schneller von einer Stelle am Anfang des Textes zu einer anderen am Ende
scrollen kann. Mittlerweile gibt es auch schon Mäuse mit 2 Mausrädern, mit denen man vertikal und
horizontal scrollen kann.
Die PC-Maus wird, wie die Tastatur, über ein Kabel (seriell, PS2, USB) oder auch kabellos (Infrarot, Funk)
an den Computer angeschlossen (siehe Abschnitt 5.).
Bild 2: Maus mit 2 Scrollrädern
2. Die mechanische Maus
Am Boden mechanischer Mäuse ist eine Stahlkugel, überzogen mit Gummi, eingebaut. Diese dreht sich durch die
Bewegung der Maus auf einer Unterlage. Die Rollbewegung wird im Innern der Maus durch zwei senkrecht zueinander
angeordnete Walzen abgenommen. Eine zusätzliche Stützrolle verleiht der Konstruktion die nötige Stabilität. Jede Walze
ist für eine Bewegungsrichtung zuständig (senkrecht oder waagerecht). Diagonale Bewegungen kommen also durch die
Bewegung beider Walzen zustande. Die Walzen setzen die mechanische Bewegung in Computersignale um.
Bild 3: Zweitastenmaus
Am Ende der Walzen befinden sich zwei Lochscheiben, die über so genannte
Lichtschranken abgetastet werden. Abhängig vom zurückgelegten Weg der Kugel
werden so für den Computer zählbare Impulse erzeugt und der Mauszeiger auf dem
Bildschirm bewegt. Das Abfragen und Auswerten der Daten erledigt der so genannte
Maustreiber.
Bild 4: Abtastung der Bewegung
Eine solche Lichtschranke kann man sich wie ein kleines Rad eines Fahrrades, mit mehreren
dünnen "Speichen", vorstellen. Durch diesen Kreis fällt ein Lichtstrahl, der wiederum durch einen
optischen Sensor abgetastet wird. Dieser Lichtstrahl wird durch die Speichen unterbrochen.
Bild 5: Lichtschranke
Im Computer werden die Signale berechnet. Diese sehen etwa so aus wie auf dem Bild 5.
Hierbei kann man erkennen, dass es sich um eine Grafik für nur eine Bewegungsrichtung
der Maus handelt, also senkrecht oder waagerecht. Die Linie 1 kennzeichnet das Signal des
Abtastpunktes 1 (siehe Bild 6). Linie 2 kennzeichnet das Signal des Abtastpunktes 2.
Anfangs stehen beide Signale auf "aus", das heißt es fällt kein Lichtstrahl auf beide
Abtastpunkte. Bekommt nun der Abtastpunkt 1 zuerst das Signal "an", etwas später der
Punkt 2, dann dreht sich das Rad im Uhrzeigersinn. Je nachdem wie viel Verzögerung
zwischen beiden Signalen liegt, kann der Computer die Geschwindigkeit des Rads
berechnen.
Bild 6: Signale der Lichtschranke
So werden für beide Bewegungsrichtungen (senkrecht und waagerecht) die Signale berechnet. Dadurch können auch diagonale Bewegungen der
Maus auf dem Bildschirm aufgezeigt werden.
3. Die optische Maus
Bei einer reinen optischen Maus wird die Rollkugel-Mechanik weggelassen und die Unterlage mittels fotoelektrische
Sensoren abgetastet. Je nach Bewegungsrichtung liefern die Sensoren unterschiedliche Impulsformen.
Bild 7: Optische Maus von Microsoft
Für die beiden Richtungen (senkrecht und waagerecht) werden meist Sensoren verschiedener Farbempfindlichkeit benutzt.
Die Auswertung und Übertragung der Signale erfolgt wie bei der mechanischen Maus über einen eingebauten
Microcontroller.
Bild 8: Auflage einer optischen Maus
Der Vorteil einer solchen optischen Maus besteht darin, dass sie aufgrund der fehlenden Mechanik
sehr zuverlässig sind. Außerdem ist die optische Maus fast unabhängig von der Unterlage, sie muss
nur die Signale reflektieren. So kommen zum Beispiel Glasplatten oder gar Spiegel als Unterlage
nicht in Frage. Aber Holz, Metall oder auch Zeitung können als Unterlage für die Maus dienen.
Bild 9: Optische Maus von Typhoon
4. Der Trackball
Ein Trackball ist vom Funktionsprinzip mit einer umgedrehten
Maus vergleichbar. Die Abnahme der Bewegung der Kugel
erfolgt entweder über Räder wie bei der mechanischen Maus
oder aber wie bei der optischen Maus über fotoelektrische
Sensoren.
Bild 10: Trackball für Zeigefinger
Bild 11: Trackball für Daumen
Der Benutzer bewegt die Kugel direkt mit dem Zeigefinger oder dem Daumen. Der größte Vorteil eines Trackballs ist die ortsfeste Verwendung
der Maus, so dass die Funktion vollkommen unabhängig von der zur Verfügung stehenden Arbeitsoberfläche ist.
5. Die Anschlüsse verschiedener PC-Mäuse
Die PC-Mäuse hatten im Laufe ihrer Geschichte verschiedene Anschlüsse an den PC. Wurde früher
die Maus an den seriellen Port angeschlossen, so erfolgt dies heute zumeist über die Anschlüsse
PS/2 oder USB (Universal Serial Bus).
Bild 12: Anschlüsse der Maus
Es gibt am PC zwei verschiedenfarbige
PS/2-Anschlüsse, einen für die Tastatur
und einen für die Maus. Die Anschlüsse
der Maus beziehungsweise der Tastatur
sind heutzutage in der gleichen Farbe
gekennzeichnet. Das macht das
Anschließen an den PC einfacher.
Bild 13: Anschlüsse
Bild 14: PS/2-Anschlüsse
Im Bild 13 erkennt man, von oben nach unten gesehen, zuerst die zwei PS/2-Anschlüsse wie sie auch im Bild 14 zu sehen sind. Darunter sieht
man zwei USB-Anschlüsse, für die die Stecker im Hintergrund dieser Seite abgebildet sind. Außerdem sind zwei serielle Anschlüsse (z. B. für die
Maus) und ein pinker Parallelanschluss für den Drucker zu sehen. Im unteren Teil kann man noch die Anschlüsse der Grafikkarte und ganz unten
die der Soundkarte erkennen. Egal ob nun PS/2- oder USB-Anschluss, eine Maus kann man entweder über ein Kabel mit dem PC verbinden, oder
man benutzt eine Funk- beziehungsweise Infrarotmaus (wie in Bild 15 abgebildet). Diese Mäuse besitzen
kein störendes Kabel. Man stellt einfach einen Empfänger auf den Tisch. Dieser empfängt, wie der Name
schon sagt, Funk- beziehungsweise Infrarotsignale.
Bild 15: Funkmaus
6. Die Pflege der Maus
Während die optischen Mäuse nahezu wartungsfrei sind, sollte man bei den mechanischen Mäusen hin und wieder zum
Putzen schreiten. Denn es kann vorkommen, dass die innere Mechanik verdreckt und und die Maus nur noch ruckweise
reagiert.
Bei allen derartigen Mäusen befindet sich auf der Unterseite eine Art Ring, den man drehen muss, um an die Kugel zu kommen. Wenn die Maus
dann offen ist, sollte man die Kugel herausnehmen und mit Wasser und Seife oder Wattestäbchen und Alkohol reinigen. Es sollte aber darauf
geachtet werden, die Kugel nur im trockenen Zustand wieder einzubauen. Danach sollte man zumindest versuchen (bei einigen Modellen ist das
recht kompliziert), die Walzen von Schmutz zu befreien, und zwar ohne die Walzen zu beschädigen. Wenn das alles geschehen ist, kann die Maus
wieder zusammen gebaut werden.
8. Quellenangaben
www.dascomputerlexikon.de
www.de.tomshardware.com/consumer/02q1/020112/index.html
www.wissenschaft-online.de/spektrum/index.php?action=rubrik_detail&artikel_id=5952
www.jubi.de/der.htm
www.beepworld.de/members7/daniel21/maus.htm
www.bs-soft.ch/klugscheisser/Persoenlich/Informatik/Maus/PSMauTechnisches.htm
www.tu-chemnitz.de/informatik/RA/kompendium/vortraege_97/einausgabe/maus.html
Die Grafikkarte
Gliederung:
1. Allgemeines
2. Entwicklung
3. Funktion
4. Aufbau
5. Typen
6. Hinweise
7. Quellen
1. Allgemeines
Alle Computersysteme sind mit einer Anzeige verbunden. Diese ist der Monitor. Computermonitore sind in vielen verschiedenen Typen und
Größen erhältlich. Sie sind ein Teil des Grafiksystems des Rechners. Um ein gutes Bild zu erhalten, sind also zwei Bestandteile verantwortlich:
●
●
Die Grafikkarte - Sie ist ein integraler Bestandteil jedes Rechners
Der Monitor - Er ist das Schlusslicht einer langen Kette von Komponenten die für den Benutzer arbeiten
Diese zwei Elemente müssen zusammenpassen und sich ergänzen, um letztendlich ein gutes Bild auf den Monitor zu bekommen. Auch der beste
Monitor wird nur ein mittelmäßiges Bild liefern, wenn er an eine schlechte Grafikkarte angeschlossen ist. Andererseits hat man sein Geld zum
Fenster hinausgeworfen, wenn man eine Spitzen-Grafikkarte im Rechner hat, die leider vom Monitor nicht ausgenutzt werden kann.
2. Die historische Entwicklung der Grafikkarte
1981
Die ersten IBM-PC's waren mit einem Monochrom Display Adapter (MDA) ausgestattet. Diese konnten nur Text darstellen.
1982
Die bekannteste Weiterentwicklung waren die HGC-Adapter der Firma Hercules (Hercules Graphic Card). Neben der Textdarstellung
wurde noch ein Grafikmodus mit einer Auflösung von 720x348 Pixeln beherrscht (2 Farben: Text je nach Monitor grün, bernstein oder bei ganz
edlen Modellen papierweiß. Hintergrund schwarz). Dieser Standard wurde schnell uninteressant als die nächste Generation aufkam.
1983
Der PC wird zum ersten Mal farbig mit dem Color Graphics Adapter (CGA). Die Karte beherrschte einen 4-Farben Modus mit 320x200
Pixeln oder den 2-Farben Modus (Schwarzweiß) bei 640x350 Pixeln. Einige CGA-Karten konnten den Hercules Monochrom-Modus ebenfalls
noch darstellen.
Die Karte konnte auch einen 160x100 Modus mit 16 Farben darstellen, davon wurde jedoch so gut wie nie Gebrauch gemacht. Die Auflösung war
dafür viel zu niedrig und viele Monitore hatten Probleme das darzustellen, da sie das Intensity-Bit nicht auswerten konnten.
Bild 1: CGA-Karte
1985
Der Enhanced Graphics Adapter (EGA) konnte immerhin schon volle 16 Farben darstellen, bei 320x200 oder bei 640x350 Pixeln. Die Karte
war abwärtskompatibel zum CGA-Standard. Unterstützung für den Hercules Modus wurde immer seltener und war später nicht mehr vorhanden.
Auf der EGA-Karte wurde auch erstmals ein eigenes Grafikkarten-BIOS eingesetzt. Die Vorgänger wurden noch vom PC-BIOS gesteuert.
Die Übertragung der Farben erfolgte im Format R-G-B+Intensity. Durch Aus- und Einschalten der Farben Rot, Grün und Blau konnten 23=8
Farben kombiniert werden. Diese konnten noch per Intensity auf Hell geschaltet werden, wodurch sich 16 Farben ergaben.
Bislang übertrugen alle Karten die Bilder rein digital.
Bild 2: EGA-Karte
1987
Mit der Einführung der Rechnergeneration PS/2 brachte IBM auch eine neue Grafikkarte heraus. Die VGA-Karte (Video Graphics Array)
arbeitete erstmalig mit einem analogen Signal. Bei 320x200 Pixeln konnte eine Farbtiefe von 256 beliebig definierbaren Farben aus einer
Palette von 262.144 Farben dargestellt werden.
Im hochauflösenden Modus bei 640x480 Pixeln waren nur die üblichen 16 EGA-Farben möglich.
Die S(uper)-VGA-Karten sind erweiterte VGA-Karten mit mehr Speicher (256kB, bisher waren es 64kB). Sie konnten Auflösungen bis
800x600 Pixel darstellen, die Möglichkeit 256 Farben anzuzeigen, rückte auf 640x480 Pixel hoch. VGA und alle Nachfolger sind EGA und CGA
kompatibel.
Noch besser waren die E(xtended)-VGA-Karten. Sie hatten 512kB Speicher oder mehr und eine Auflösung von mindestens 1024x768 Pixeln.
Neben dem 256 Farben-Modus wurde auch der High Color Modus mit 16 Bit (64.000 Farben) und der True Color Modus mit 24 Bit (16 Mio.
Farben) eingeführt.
1989
Das VESA-Komitee bringt mit dem VBE (VESA BIOS Extensions) einen Standard in den durch das Wettrüsten entstandenen Wildwuchs. Der
übliche Weg war über das BIOS statt über direkte Chip-Programmierung.
1992
Durch Windows-Beschleuniger-Chips wird der Bildaufbau erstmals beschleunigt.
1993
Zwei neue Bussysteme, der VESA Local Bus (VLB) und Intels PCI (Peripheral Component Interconnect), machen Grafikkarten massiv
schneller.
1995
nVidia stellt mit dem NV1 den ersten 3D-Beschleuniger-Chip vor. Eine PCI-Karte mit dem NV1 wie die Diamond Edge 3D beherbergte neben
einem VGA-Modul mit Windows- und 3D-Beschleunigung noch einen TV Ein- und Ausgang und eine Soundkarte, komplett mit Wavetable.
Durchsetzen konnte sich das nicht, da erstens nichts davon richtig funktionierte und zweitens die Programmierer mit der Art der 3DBechleunigung des NV1, Curved Surfaces, damals nicht viel anfangen konnten.
1996
3dfx stellt mit dem Voodoo Graphics den ersten wirklich brauchbaren 3D-Beschleuniger vor. Diese steckte man als Zusatzkarte hinzu (z.B.
die Diamond Monster), die dann 3D-Grafiken ausrechnete.
1997
Intel definiert den AGP-Bus und stellt somit mehr Bandbreite speziell für den 3D-Bereich zur Verfügung.
1999
nVidia bringt mit der GeForce die erste Grafikkarte mit Transform & Lighting Engine hervor.
Danach folgen kontinuierlich Änderungen und Neuerungen, so dass es zu viel wäre diese auch hier aufzuführen. Im Internet gibt es aber noch
weit aus mehr Informationen (siehe auch Quellen).
3. Funktion der Grafikkarte
Ursprünglich war die Grafikkarte nur dazu gedacht, die digitalen Bildinformationen des Computers in analoge Signale für den Bildschirm
umzuwandeln. Mittlerweile übernimmt die Grafikkarte jedoch (besonders bei Spielen) Aufgaben, die früher die CPU zu erledigen hatte.
Während der Prozessor früher Befehle wie "mach das Pixel mit den Koordinaten 300 und 423 blau" für jeden Bildpunkt einzeln zur Grafikkarte
schickte, reicht heute "mach ein Dreieck in blau mit folgenden Koordinaten: ...". Das bedeutet eine enorme Arbeitsersparnis für den Prozessor, da
nicht die Eigenschaften von jedem einzelnen Pixel zur Grafikkarte übertragen werden müssen, sondern nur noch die "Bauanleitung" für
geometrische Figuren.
Die Grafikkarte erhält ihre Anweisungen über einen Bus (AGP oder PCI, früher auch ISA), die Aufgaben werden im Grafikprozessor abgearbeitet
und im Bildspeicher abgelegt. Der Bildspeicher wird mit der eingestellten Bildwiederholfrequenz von RAMDAC ausgelesen (das hat nichts mit
der Taktfrequenz der Speicherbausteine zu tun) und dann in analoge Signale für den Monitor umgewandelt.
4. Der generelle Aufbau
Wesentliche Bestandteile einer Grafikkarte
(Bsp.: ELSA Winner II):
1. Grafikchip, hier durch Kühlkörper verdeckt
2. Bildspeicher
3. Schnittstellen für Monitor
4. RAMDAC: wandelt digitale in analoge Signale um
5. AGP-Interface
Entscheidende Kenngrößen einer Grafikkarte sind Größe und Art des Bildspeichers, die Leistungsfähigkeit des Grafikchips und des RAMDACs
sowie das Interface. Der AGP-Bus ist wesentlich leistungsfähiger als der PCI-Bus, allerdings macht sich der Geschwindigkeitsvorteil nur bei
einigen Spielen (3D) bemerkbar, da auch der PCI-Bus eine relativ hohe Übertragungsrate bietet. Zum Bildspeicher lässt sich sagen, dass jede
heutige Grafikkarte die Anforderungen für normale Anwendungen wie Office-Pakete und Bildverarbeitung (im normalen Rahmen) erfüllt. Bei
Spielen und komplexer 3D-Konstruktionssoftware sollte der Speicher möglichst groß und schnell sein.
Auf Grund der enormen Vielfalt und der extrem schnellen Entwicklung im Segment der Speicherbausteine, will ich hier nur die wichtigsten Arten
erwähnen. Bis vor etwa 3-5 Jahren gab es nur zwei Sorten Speicher für Grafikkarten, den DRAM und den VRAM. Der Unterschied zwischen
beiden besteht darin, dass man VRAM gleichzeitig beschreiben und auslesen kann, was zu einer Geschwindigkeitsverdopplung führt, bei DRAM
hingegen ist das nicht möglich. In den letzten Jahren werden auf Grafikkarten vor allem SDRAM und SGRAM verwendet, wobei SGRAM der
schnellere ist (100MHz und mehr). Heutzutage ist DDR-RAM gängig.
Bei den Grafikchips gilt das gleiche wie bei CPUs: je teurer, je mehr Transistoren und je höher die Taktfrequenz, desto besser der Chip. Moderne
Grafikchips haben auf Grund der rasanten Entwicklung teilweise mehr Transistoren als eine CPU.
Beim RAMDAC ist entscheidend, wie groß der Pixeltakt ist, d.h. wie viel Pixel pro Sekunde zum Monitor geschickt werden können. Davon
hängen Zeilenfrequenz (Anzahl der Zeilen, die der Monitor pro Sekunde erzeugt) und die Bildwiederholfrequenz (Anzahl der pro Sekunde
komplett aufgebauten Bilder) ab. Damit das Bild nicht flimmert, sollte eine Bildwiederholfrequenz von mindestens 75 Hz in der gewünschten
Auflösung erreichbar sein.
Ein Beispiel: Ein Monitor soll bei einer Auflösung von 1024x768 Punkten und 100 Hz betrieben werden. Man multipliziert die Anzahl der
Bildpunkte (1024*768 = 786432) mit der Anzahl der Bilder pro Sekunde (hier 100). Man erhält ein Ergebnis von etwa 78 Mio. Pixel/sek. Dazu
muss man noch etwa 10% dazuaddieren (Verwaltungsaufwand). Daraus folgt ein minimaler Pixeltakt von 87 MHz. Dieser Wert wird von allen
modernen Grafikkarten erreicht.
5. Verschiedenen Typen
ATI 8500
ATI 9700 pro
Voodoo 5500
GeForce 2 MX
GeForce 4 TI
6. Hinweise
3D-Grafikchip:
Der 3D-Grafikchip ist das Herzstück einer jeden Grafikkarte. Er ist es, der die Berechnungen für das vollzieht, was wir als dreidimensionales Bild
wahrnehmen. Bis es jedoch soweit ist, bevor ein einziges fertiges Bild berechnet ist, müssen erst Millionen über Millionen einzelne mathematische
Anweisen vollzogen werden. Durch die heutige Technik geht dies schnell genug, um mehrere von diesen Bildern in einer Sekunde auf den
Bildschirm zu bringen. Dies ermöglicht es uns frei in diesen virtuellen Welten zu bewegen.
An dieser Stelle folgen grob die Funktionseinheiten des Grafikchips:
* Pixel-Pipeline
Die Pixel-Pipeline ist ein wichtiger Teil eines jeden Grafikchips. In ihr werden die nötigen Berechnungen vollzogen, damit aus den ihr gegebenen
Daten ein Bildpunkt berechnet werden kann. Sie teilt auch dem Texture Combiner die eventuelle Farbe der Dreiecke eines Objektes mit.
* Texture Combiner
Der Texture Combiner ist eine Arithmetik-Einheit. Sie kann mit verschiedenen Textur-Formaten umgehen und beherrscht über 20 verschiedenen
Operationen. Ihre Aufgabe ist es zwei Texturen logisch miteinander zu verknüpfen. Wenn im Grafikchip, zum Beispiel eine Pixel Pipeline mit
zwei Textur-Units arbeitet, so kann sie in einem Durchgang ein Pixel aus 2 kombinierten Texturen berechnen.
* Lokaler Speicher
Der lokale Grafikspeicher ist von essentieller Bedeutung. Ohne ihn könnte der auch noch so schnellste Grafikprozessor nur mäßige Leistung
bringen. Er wird in verschiedene Bereiche, die Buffer und den lokalen Texture Cache, aufgeteilt. Je nach Art der Bufferverwaltung gibt es drei,
nämlich den Front-, Back- und Z-Buffer, oder vier bei Triple-Buffering, bei dem noch ein zweiter Back-Buffer hinzu kommt. Der Rest verbleibt
für lokal gespeicherte Texturen und 3D-Daten wie Vertex-Cache oder Mauszeiger, etc. übrig.
Bump Mapping:
Durch Modulation der Beleuchtung lässt sich der Eindruck von zusätzlichen räumlichen Details erwecken. Die Modulationswerte entnimmt der
Pixel-Prozessor der zweiten Textur.
Curved Surfaces:
Um Rundungen darzustellen, muss man sie mit vielen kleinen Dreiecken modellieren. Durch einige Verfahren (Bezier, NURBS,..) ist es auch
möglich, Kurven anhand einiger Punkte zu beschreiben. Man kann dann mit Hilfe spezieller Berechnungen die Kurve in Dreiecke zerlegen. Mit
geeigneter Hardware würde es nun möglich, diese Berechnungen auf der Grafikkarte auszuführen. Die Anzahl der für die Kurven verwendeten
Dreiecke könnte somit individuell an die vorhandene Hardwareausstattung angeglichen werden. Außerdem verringert sich die Buslast für die
Übertragung der Dreiecksdaten. Für die sinnvolle Verwendung von Curved Surfaces in Hardware wird jedoch auch eine Hardware-LightingEinheit benötigt.
Dithering:
Bei Farbtiefen unter 24 Bit pro Pixel gehen beim Rendern Farbinformationen verloren. Beim Dithern wird versucht diesen Farbfehler über
mehrere Pixel zu verteilen, um so mit den Farben benachbarter Pixel Zwischenfarben zu simulieren. Die beiden gängigen Verfahren addieren
entweder die fehlenden Farbanteile auf einen benachbarten Pixel (relativ genau), oder sie runden die Farbwerte je nach Position des Pixels
unterschiedlich (schnell).
Fogging:
Die Pixel eines Objektes werden dabei mit einer festen Farbe vermischt, deren Intensität mit wachsender Entfernung zunimmt. Sorgt bei Mischung
mit Weiß zum Beispiel für atmosphärische Nebeleffekte. Fogging spart außerdem Rechenzeit, da Körper erst ab einer bestimmten Distanz
gezeichnet werden müssen.
Hardware Transform & Lighting (T&L):
* Transformation
Die Objekte der 3D-Szene sind in einem globalen Koordinatensystem (World-Space) definiert. Wenn nun der Betrachter seinen Standort oder
Blickpunkt ändert, muss die gesamte sichtbare Szene in ein anderes Koordinatensystem transformiert werden, das den Betrachter als Referenz hat.
Dafür müssen verschiedene Aufgaben von der Transformationseinheit erledigt werden. Dreiecke werden so zum Beispiel gedreht, skaliert oder
verschoben. Die Berechnungen die dabei durchgeführt werden, sind 4x4 Matrix-Multiplikationen. Je nach verwendetem Algorithmus benötigen
diese 16 Multiplikationen und 12 Additionen oder 12 Multiplikationen und 9 Additionen. Aufgrund der Menge an Objekten und Transformationen
entsteht ein enormer Rechenaufwand, der die Komplexität und Anzahl der Objekte in einer 3D-Szene limitiert. Ein speziell darauf angepasster
Chip führt diese Operationen wesentlich schneller aus als eine CPU, die sich außerdem noch um weitere Berechnungen der virtuellen Welt
kümmern muss (Physikberechnungen, Kollisionsabfragen, künstliche Intelligenz,...). Dadurch ist es möglich, 3D-Szenen mit einer höheren
Detailfülle zu erzeugen.
Modell eines Porsche Boxster bestehend aus über 100.000 Dreiecken
Die Transformationseinheit ist weiterhin auch für die perspektivische Projektion zuständig.
* Lighting
Unter Lighting versteht man die Beleuchtung der 3D-Szene. Dies geschieht mit unterschiedlichen Beleuchtungsmodellen. Das einfachste Modell
ist ambient Lighting. Dabei wird von einer Lichtquelle ausgegangen, die alle Objekte mit der gleichen Intensität beleuchtet. Die Lichtstrahlen
wurden also schon so oft und von so vielen Objekten reflektiert, dass der Ursprung und die Richtung keine Rolle mehr spielen. Allen
Dreieckseckpunkten (Vertices, einz. Vertex) kann also der gleiche Lichtwert zugewiesen werden. Diese Beleuchtungsmethode erfordert keine
speziellen Berechnungen und kann auch von der CPU ohne Zeitverlust durchgeführt werden.
Ein etwas komplexeres Modell liegt diffuse Lighting zugrunde. Das Licht hat dabei eine bekannte Position oder Richtung, wird jedoch in alle
Richtungen gleichstark reflektiert, so dass die Position des Betrachters keine Rolle spielt. Dadurch kann die Beleuchtung auch vorberechnet
werden.
Auf dem komplexesten Modell basiert specular Lighting. Die Position der Lichtquelle sowie die Richtung des Lichtes ist hierbei bekannt. Das
einfallende Licht wird dabei an der Normalen eines Dreiecks gespiegelt (Einfallswinkel = Ausfallwinkel). Je nach Betrachterposition bewegt sich
ein Glanzlicht auf dem reflektierenden Objekt. Die Helligkeit, die einem Vertex letztendlich zugewiesen wird, setzt sich aus der Summe der
verschiedenen Beleuchtungsmodelle zusammen.
3D Winbench Space Station (Quelle: nVidia)
Die Lightingeinheit muss aufgrund der nötigen Berechnungen von Vektorprodukten und Längen Divisionen, Wurzelberechnungen,
Multiplikationen und Additionen ausführen. Durch den hohen Aufwand sind aktuelle T&L-Grafikkarten auf maximal 8 Lichtquellen beschränkt.
Weiterhin werden die Vorteile von Vertex-Lighting nur bei sehr detaillierten Objekten deutlich, da wie der Name schon sagt, nur den
Dreieckseckpunkten ein bestimmter Lichtwert zugewiesen wird. Die Lichtwerte der einzelnen Pixel werden im Allgemeinen durch GouraudShading ermittelt. Dadurch kommt es bei großen Dreiecken vor allem bei specular Lights zu Darstellungsfehlern. In den meisten heutigen
Anwendungen werden vorberechnete Lightmaps anstatt Echtzeitlighting verwendet, da diese auf allen Grafikkarten die gleichen Ergebnisse liefern
und die Geschwindigkeit nicht so stark beeinflussen. Die Lightingeinheit kann allerdings auch für weitere entfernungsabhängige Berechnungen,
wie zum Beispiel range-based Fog eingesetzt werden.
Hidden Surface Removal:
Es wird überprüft, welche Oberflächen der Polygone für den Benutzer im Endeffekt sichtbar sein werden. Nur diese werden dann gerendert, um
Rechenzeit zu sparen.
Rendern:
Der für die Darstellung oder Visualisierung eines 3D-Objektes oder einer 3D-Szenerie erforderliche Rechenprozess.
Schnittstellen:
Die Leistung der Grafikkarte kann nur genutzt werden, wenn die Hardware von der Software angesprochen wird. Damit nicht für jede neue
Grafikkarte ein Programm umgeschrieben werden muss, wurden verschiedene Schnittstellen entwickelt. Die Grafikkarte muss also ein bestimmtes
Format verstehen können, um die Befehle der Software interpretieren zu können. Unterstützt die Hardware die verwendete Software nicht, ist sie
nicht lauffähig oder muß vom Hauptprozessor zeitraubend übersetzt werden. Schnittstellen zwischen Hard- und Software werden API's genannt
(Application Programming Interface). Das Programm kommuniziert also nicht direkt mit der Hardware, sondern mit dem API.
- Beispiele für 3D-Formate: Microsoft Direkt3D (Spiele), Open GL (Profi-Schnittstelle), GLIDE (Voodoo...), Heidi (nur bei 3D-StudioMax),
VRML (Internet)
- Beispiele für Videostandards: AVI (Audio Video Interleave), MPEG-I (Motion Picture Expert Group), MPEG-II, JPEG (Joint Photographic
Expert Group)
Shading:
Shading wird verwendet, um ein Objekt schattiert, also beleuchtet, darzustellen. Es ist aber nicht die Beleuchtung selbst, sondern wird in
Verbindung mit einem Lighting Model benutzt. Die wichtigste Komponente, um ein Polygon zu beleuchten, ist dabei dessen Normalenvektor. Der
Winkel zwischen diesem und den Lichtstrahlen (Vektor aus Richtung der Lichtquelle) bestimmt die Intensität des reflektierten Lichtes. Bei der
Beleuchtung wird dabei zwischen ambient Light (Umgebungslicht mit unbekanntem Ursprung und unbekannter Richtung), diffuse Light (Licht mit
bekanntem Ursprung) und specular Light (gerichtetes spiegelndes Licht, bekannter Ursprung und bekannte Richtung) unterschieden.
* Flat Shading
Beim Flat Shading wird nur ein Normalenvektor pro Polygon benötigt. Mit dessen Hilfe berechnet man einen Farb- bzw. Beleuchtungswert, der
dann für alle Punkte des Polygons benutzt wird. Dies ist sehr schnell und sehr unschön, da es an den Polygonkanten zu sprunghaften Übergängen
der Helligkeit kommt.
* Gouraud Shading
Gouraud Shading ermöglicht es mit Hilfe eines Verfahrens des Mathematikers Henri Gouraud innerhalb eines Dreieckes einen feinen Farbverlauf
herzustellen. Dazu muss man einen Beleuchtungswert für jeden Eckpunkt berechnen, also auch dessen Normale. Um diese zu erhalten, nimmt man
den Mittelwert der Normalen aller angrenzenden Polygone. Sobald man die Beleuchtungswerte für alle Eckpunkte hat, kann man durch
Interpolation die Werte aller Pixel des Polygons errechnen.
Gouraud Shading kann dadurch Objekte rund oder gekrümmt darstellen, obwohl sie aus vielen Polygonen zusammengesetzt sind. Specular Light
lässt sich allerdings nicht mit Gouraud Shading darstellen.
(Quelle: Proseminar 1997)
Während beim Flat Shading ein Dreieck einheitlich gefärbt ist, besitzt beim Gouraud Shading jede Ecke eine eigene Farbinformation. Aus der
Zwischenberechnung dieser Eck - Farbwerte ergibt sich ein sehr weicher Verlauf, der sogar mit weniger Dreiecken für deutlich bessere Ergebnisse
sorgt als das Flat Shading.
* Phong Shading
Beim Phong Shading werden die Normalen von allen Punkten ausgerechnet. Die Berechnungen zur Beleuchtung werden dann für jedes Pixel
ausgeführt. Somit ist es möglich, auch specular Light darzustellen. Phong Shading bedeutet jedoch einen enormen Rechenaufwand und hat sich
bis jetzt noch nicht durchgesetzt.
Texturing:
Muster wie Tapeten, Ziegelwände oder Zebras, die 3D-Beschleuniger auf beliebig geformte 3D-Körper projizieren können. Ohne geeignete
Wand-, Boden-, Deckenverzierungen wäre ein Spiel äußerst kahl. Um dies zu ändern setzt man Texturen ein, die dann u.a. auf Polygone "geklebt"
werden.
Texture Mapping:
Überlagerung eines Polygons mit einem perspektivisch korrekt dargestellten Textur.
Trilineares Filtering:
Um zwischen zwei Maps weichere Übergänge zu schaffen, fließen in die Berechnungen eines Bildpunktes noch die Farbwerte der beiden Maps
mit ein, d.h. es wird zwischen den beiden Maps interpoliert, was die nötigen Speicherzugriffe verdoppelt. Das ergibt die besten Resultate
hinsichtlich der Bildqualität, ist aber auch sehr rechenaufwendig.
VESA:
Video Electronics Standards Association. Sie wurde 1989 durch ATI, Chips & Technologies, Everex, Genoa, Intel, Phoenix Technologies, Orchid,
Paradise, Video 7 und anderen Firmen eingeführt. Das Ziel war die Entwicklung einer BIOS-Erweiterung, die Hardware-unabhängigen Zugriff auf
S-VGA-Karten verschiedener Anbieter möglich machen sollte.
Video Mapping:
Variante des Texture Mappings, bei der die Polygone mit einer animierten Textur (z.B. einer AVI - oder MPEG - Datei) beklebt werden.
Z-Buffer:
Der so genannte Z-Buffer speichert die Positionierung eines Pixels auf der z-Achse ( also in der Tiefe des Raumes). Bei gleicher
Bildschirmposition mehrerer Pixel wird aufgrund der Tiefeninformation entschieden, ob der jeweilige Bildpunkt für den Betrachter sichtbar wäre
und deshalb zu zeichnen ist oder nicht. Auf Hochleistungs-3D-Grafikhardware ist der Z-Buffer meist als separates EDO-DRAM (Error Checking
& Correcting) ausgeführt (Local Buffer). Bei komplexen Objekten sollte der Grafikchip z-Werte mit einer Genauigkeit von 24 oder 32 Bit
verarbeiten, um Darstellungsfehler bei feinen Details zu vermeiden. Die für Spiele entwickelte Windows 95-Schnittstelle DirectX arbeitet nur mit
16 Bit.
7. Quellen
www.3dcenter.de
www.cs.uni-magdeburg.de
www.gamestar.de
www.hwo.cidsnet.de
www.iwi.uni-sb.de
www.szut.uni-bremen.de
www.tu-chemnitz.de
www.kmelektronik.de
CRT-MONITORE
Der Monitor ist ein Gerät im Computersystem, welches weder an der Eingabe, noch an der Verarbeitung
von Daten beteiligt ist. Seine Aufgabe besteht lediglich darin, die verarbeiteten Daten visualisiert
darzustellen, was einem Benutzer erst ein sinnvolles Arbeiten mit dem Computer ermöglicht. Man kann
den Monitor deshalb auch im Zusammenspiel mit der Grafikkarte als visuelle Schnittstelle zwischen
Computer und Mensch bezeichnen.
Funktion
CRT steht für "Cathod Ray Tube" (Kathodenstrahlröhre). Damit ist schon der
wichtigste Bestandteil eines CRT-Monitors beim Namen genannt.
CRT-Monitore arbeiten wie Fernsehgeräte nach dem Prinzip der
Kathodenstrahlröhre, die auch unter Braunsche Röhre bekannt ist. Die
Kathodenstrahlröhre ist eine hochevakuierte Glasröhre, hat eine trichterartige Form
und wird in die Bereiche Röhrenhals und Bildschirmfläche aufgeteilt.
An der Rückseite der Röhre befinden sich Heizdrähte, welche die Kathode erhitzen,
damit diese dann durch thermische Emission ständig Elektronen aussendet. Die
Ringanode, an der eine Spannung (Beschleunigungsspannung) von mehreren 10.000
Volt anliegt, sorgt dafür, dass die Elektronen von der Kathode abgesaugt und durch
den Röhrenhals in Richtung Bildschirmfläche auf eine sehr hohe Geschwindigkeit
beschleunigt werden. Die Trägheit der Elektronen ist dafür verantwortlich, dass sie
bei dieser hohen Geschwindigkeit nicht auf die Anode treffen, sondern durch das
Loch in der Mitte "durchfliegen".
Da nur ein gebündelter Strahl für den Bildaufbau von Nutzen ist (Bildpunkt erforderlich), müssen die Elektronen, die im Moment noch eher einer
Elektronenwolke entsprechen, durch den Wehnelt-Zylinder, bevor sie die Anode passieren können. Dieser sorgt mit seiner feinen, blendartigen
Öffnung für eine Bündelung der Elektronen. Doch auch dieser Elektronenstrahl ist noch zu diffus, so dass er nach der Anode die Fokussiereinheit
durchläuft, die wiederum aus einer Blende mit angelegtem Potential besteht.
Der nun scharf gebündelte Strahl hat jetzt den gesamten Röhrenhals passiert und würde genau in der Mitte des Bildschirms auftreffen. Da dies
aber nicht zu einem Bildaufbau führen würde, befindet sich genau dort, wo der Röhrenhals in die Bildschirmfläche übergeht, die Ablenkeinheit.
Diese besteht aus einem horizontalem und einem vertikalem elektromagnetischem Spulenpaar, die nach Anweisungen der Grafikkarte arbeiten.
Durch die vertikale und horizontale Anordnung ist es möglich, den Strahl in jede beliebige Richtung abzulenken. Es wird nun der Elektronenstrahl
Zeile für Zeile und Spalte für Spalte abgelenkt. Damit der Strahl beim Rücklauf von einem Zeilenende zum nächsten Zeilenanfang nicht sichtbar
ist und somit das Bild nicht verfälscht, wird seine Intensität auf Null verringert. Ist der Strahl am Ende der letzten Zeile angekommen, so wandert
er diagonal über den Bildschirm zurück zur ersten Zeile.
Die Energie des bisher nicht sichtbaren Elektronenstrahls wird beim Auftreffen auf der Mattscheibe durch deren spezielle Phosphorbeschichtung
in sichtbares Licht umgewandelt. Um ein farbiges Bild zu erhalten, müssen drei Elektronenstrahlen auf die Mattscheibe treffen, wobei jeder für
eine der Grundfarben Rot, Grün und Blau "zuständig" ist. Man spricht in diesem Zusammenhang auch von Farbkanonen, die die drei
Elektronenstrahlen abgeben. Jeder Elektronenstrahl trifft dabei auf eine eigene, der Grundfarbe entsprechenden Leuchtschicht, wobei für die
Realisierung dieses Auftreffens eine so genannte Maske sorgt.
Nach dem Modell der additiven Farbmischung lässt sich aus den drei Grundfarben das gesamte sichtbare Farbspektrum darstellen.
Die Masken
Bei Farbmonitoren wird das Bild von drei verschiedenfarbigen Elektronenstrahlen aufgebaut. Da aber
nun jeder Strahl nur auf sein Feld des Farbtripels treffen soll und man auch nicht jedes Mal die Strahlen
ausschalten kann, wenn sie nicht auf ihren Farbpunkt treffen, hat man eine Art Blendsystem entwickelt die so genannten Masken. Hier unterscheidet man prinzipiell zwischen zwei verschiedenen Arten, wobei
aus dessen Vereinigung noch eine weitere entstand.
Die Lochmaske
Die Lochmaske besteht aus einem dünnen Eisenblech. Sie weist eine gleichmäßig verteilte Anzahl
von Löchern auf, wobei die Anzahl genau der Anzahl der Farbtripel auf dem Schirm entspricht.
Die Löcher stehen mit den Leuchtpunkten so in Beziehung, dass der Strahl einer jeden
Farbkanone auch nur genau den Leuchtpunkt "seiner" Farbe trifft. Das ist in Bild 1 sehr gut
nachvollziehbar. Die drei Elektronenstrahlen werden immer zu dritt abgelenkt. Das bedeutet, dass
sie über den gesamten Bildschirm stets gemeinsam durch das selbe Loch der Maske auf das
zugehörige Leuchttripel treffen. Doch insgesamt treffen nur ca. 17% der Elektronen tatsächlich
auf ihre Leuchtpunkte. Die Energie der restlichen Elektronen wird in Wärmeenergie
umgewandelt. Dadurch kommt es zu einer Ausdehnung der Maske, was einen Ungenauigkeit in
der Farbauflösung nach sich ziehen würde. Damit dies nicht vorkommt, hängt man entweder die
Maske in Bimetallfedern auf oder wölbt sie stark.
Bild 4: Lochmaske
Vorteile:
●
●
preisgünstig herstellbar
durch dreieckige Pixel Treppeneffekt vermieden
Nachteile:
●
●
●
Wölbung der Bildröhre (wegen Wölbung der Maske)
etwas blass wirkendes Bild (nur 17% der Elektronen erzeugen das Bild)
horizontale und vertikale Linien wirken nicht ganz so scharf (Punkte nicht versetzt angebracht)
Die Streifenmaske
Die Streifenmaske (Trinitron) besteht aus feinen, gespannten Drähten, die von ein bis zwei
waagerechten Stützdrähten stabilisiert werden. Durch die dadurch entstanden Schlitze werden dann
die Elektronen geschossen. Diesmal sind die drei Grundfarben nicht als Bildpunkte angeordnet,
sondern als vertikale Streifen.
Vorteile:
●
●
kontrastreicheres, helleres Bild (mehr als 17% der Elektronen erzeugen das Bild)
nur zylindrische Wölbung der Bildröhre
Nachteile:
●
●
durch viereckige Pixel Treppeneffekt
zwei schmale, dünne, vertikal verlaufende Linien, die vor weißem Hintergrund sichtbar werden
Der Versuch, die Vorteile von Loch- und Streifenmaske zu vereinen, brachte die Schlitzmaske hervor. Hier werden die Streifen einfach verkürzt in
ein Stahlblech gestanzt. Dies vermeidet die oft störenden Stützdrähte der Streifenmaske, bietet aber gleichzeitig genügend Raum für die
Elektronen, was das Bild u.a. heller werden lässt.
Lochmaske
Streifenmaske
Schlitzmaske
Auflösung
Unter der Auflösung versteht man die Anzahl der Pixel (Bildpunkte), aus denen sich das Bild eines Monitors zusammensetzt. Diese wird immer
als Produkt zweier Zahlen angegeben, wobei die erste Zahl für die Anzahl der Pixel in waagerechter Richtung und die zweite für die Anzahl der
Pixel in horizontaler Richtung steht.
Bsp: 1024 x 768
Bildwiederholfrequenz (Vertikalfrequenz oder Refresh)
Unter Bildwiederholfrequenz versteht man die Anzahl der Bilder, die pro Sekunde aufgebaut werden. Je mehr Bilder in der Sekunde aufgebaut
werden, also je höher die Bildwiederholfrequenz ist, desto ruhiger wirkt das Bild für den Benutzer. Man sagt, dass ab 72 Bildwiederholungen pro
Sekunde (also ab einer Bildwiederholfrequenz von 72 Hz) das menschliche Auge kein Flimmern mehr wahrnehmen kann. Generell gilt aber, je
höher die Bildwiederholfrequenz, desto besser ist es für den Benutzer, da ansonsten mit Augen- und Kopfschmerzen gerechnet werden muss.
Zeilenfrequenz (Horizontalfrequenz)
Unter der Zeilenwiederholfrequenz versteht man die Anzahl der Zeilen, die pro Sekunde vom Elektronenstrahl geschrieben werden.
Diese drei Monitorparameter stehen in einem direkten Zusammenhang zueinander. Aus zwei bekannten Parametern ergibt sich zwangsläufig
immer der dritte. Wenn zum Beispiel bei einer Auflösung von 1024 x 768 eine Zeilenfrequenz von 64 kHz hat (64000 Zeilen pro Sekunde werden
geschrieben), so können zwangsläufig
64000 : 768 = 83,3 Bilder pro Sekunde aufgebaut werden (Bildwiederholfrequenz von 83,3 Hz).
Videobandbreite
Die Videobandbreite beschreibt die Frequenzbandbreite mit der ein Bildschirm betrieben werden kann. Sie gibt an, wie viele Bildpunkte pro
Sekunde abgebildet werden können. Je höher die Bildwiederholfrequenz und Bildauflösung, desto höher muss auch die erreichbare
Videobandbreite sein.
Lochmaskenabstand (Dot-Pitch)
Unter Lochmaskenabstand versteht man die Distanz zwischen den Öffnungen der Lochmaske (normalerweise zwischen 0,31 und 0,25 mm). Je
geringer dieser ist, desto höher ist die bestmöglichste Auflösung. Hat ein Monitor zum Beispiel einen Bildschirmbereich von 317 x 238 mm und
einen Dot-Pitch von 0,30 mm, so ist eine maximale Auflösung von 1024 x 768 möglich, da horizontal 317 : 0,30 = 1056 Bildpunkte und vertikal
dementsprechend 793 Bildpunkte abgebildet werden können.
Zwei Darstellungsmodi des Monitors (interlaced und non-interlaced)
Interlaced beschreibt eine Art der Bildwiedergabe, bei dem immer nur jede zweite Zeile geschrieben wird, wobei beim darauf folgenden
Bildaufbau immer genau die davor fehlenden Zeilen ergänzt werden. Man spricht auch von einem Aufbau von zwei Halbbildern. Doch bei diesem
Modus kommt es zu dem negativen Nebeneffekt des Flimmerns, was bei non-interlaced nicht der Fall ist, bei dem das Bild auf einmal Zeile für
Zeile aufgebaut wird.
LCD-Monitor
LCD steht für Liquid Cristal Display, was übersetzt Flüssigkristallbildschirm heißt. Diese Art von Anzeige nutzen wir im alltäglichen Leben,
ohne uns ihrer Anwesenheit bewusst zu sein. So befinden sie sich beispielsweise in allen Handys, Taschenrechnern, Digitaluhren oder neueren
Projektoren. Im PC Bereich wird diese Technik ebenfalls eingesetzt, vornehmlich als Monitor, wobei wir zwei Arten unterscheiden. Einmal das
LCD selbst und dessen modernere Erweiterung als TFT (Thin Film Transistor). Fortführend wollen wir uns primär mit dem LCD Monitor und
dessen Technik an sich beschäftigen.
LCD Technologie
1. Was sind Flüssigkristalle
Jeder kennt die drei Zustandsformen in denen Substanzen vorliegen können. Die feste Phase, in der die Moleküle einen fest definierten Platz
im Raster besitzt und die einzelnen Atome sich nur in einem sehr geringen Rahmen durch Schwingungen bewegen. In der flüssigen Phase
besitzen die Moleküle keine Fernordnung mehr und können sich durch Translation bewegen. In der Gasphase sind schließlich die letzten
Wechselwirkungen aufgehoben und die Moleküle dehnen sich komplett im Raum aus, bis sie die maximale Entropie besitzen.
Der Botaniker Reinitzer hat 1888 am Cholesterinbezoat festgestellt, dass die Probe bei 145,5 °C schmilzt aber milchig trüb bleibt. Erst bei einer
Temperatur von 178,5 °C wurde die Probe klar. Beim Abkühlen wiederholte sich der Vorgang in umgekehrter Reihenfolge. Zwischen 145,5 °C
und 178,5 °C besaß die Probe die viskosen/fließenden Eigenschaften von Flüssigkeiten und zusätzlich die optischen/lichtbrechenden
Eigenschaften von Kristallen. Aus diesem Grund mussten die Verbindung im flüssigen Zustand eine gewisse Ordnung ausbilden und da sie
sowohl die Eigenschaften von Flüssigkeiten und Kristallen besitzen, bezeichnete man sie als Flüssigkristalle.
2. Das Funktionsprinzip
Während herkömmliche Bildschirme Licht aus Phosphor mit unterschiedlichen Emissionsspektren (Rot/Grün/Blau) aufgrund der Anregung
eines Elektronenstrahls emittieren, wird bei LCD das Licht einer Hintergrundbeleuchtung durch die LCD-Zelle geschaltet. Das heißt, die LCDZelle ist bezüglich der Lichtemission als passiv anzusehen. Licht wird in unpolarisierter Form auf den so genannten hinteren Polarisator
(Polarizer) gegeben, dort wird das Licht polarisiert (in eine bestimmte Richtung ausgerichtet).
Flüssigkristalle lassen sich in der nematischen Phase aufgrund ihrer Molekülstruktur an geeignet beschaffenen Oberflächen (Ausrichtungslagen
[Alignment Layer], z.B. in einer Richtung gebürstete Folien) ausrichten und aufgrund ihrer mechanischen Eigenschaften spiralförmig
verdrehen, wenn sie zwischen 2 um 90° verdrehte Ausrichtungslagen eingebracht werden. Diese Anordnung nennt man Twisted Nematic (TN)
bei einem Verdrehwinkel von 90°, bei 270° Super Twisted Nematic (STN). Wird zwischen den beiden Lagen ein elektrisches Feld angelegt, so
richten sich die stabförmigen Moleküle entlang der Feldrichtung aus.
Trifft nun vom hinteren Polarisator polarisiertes Licht auf die spiralförmig angeordneten Flüssigkristalle, so wird dieses Licht entsprechend
dem Verdrehwinkel der Moleküle in seiner Polarisationsrichtung gedreht. So trifft es auf den vorderen Polarisator (Analyzer), der um 90° zum
hinteren verdreht ist. Das Licht kann somit zum Betrachter durchdringen. Das Licht folgt auch dann der Orientierung der Flüssigkristalle, wenn
diese aufgrund eines elektrischen Feldes senkrecht zur hinteren und vorderen Lage der LCD-Zelle stehen. Damit steht es am vorderen
Polarisator 90° zu diesem und kann somit nicht zum Betrachter durchdringen.
3. Woher kommt die Farbe?
Da für die Hintergrundbeleuchtung normalerweise weißes Licht verwendet wird, muss zur Darstellung von Farbbildern dieses noch mit
geeigneten Farbfiltern gefiltert werden. Hierzu erhält jeder darzustellende Pixel (Bildpunkt) drei sog. Sub-Pixel mit den Farben Rot, Grün und
Blau ('Farbe aus Weiß' Prinzip). Heute wird bei LCD üblicherweise die so genannte Streifenstruktur (RGB-Stripe) verwendet.
4. Ansteuerung der einzelnen LCD-Zellen
Bei Passivmatrix-LCD werden die einzelnen LCD-Zellen durch eine matrixförmige Anordnung von Zeilen- und Spalten-Elektroden
angesteuert. Man kann somit an jedem Knotenpunkt ein elektrisches Feld erzeugen, welches dann die Flüssigkristalle beeinflusst.
Prinzipiell bedingt ist dabei, dass jede einzelne Zelle nur mit 1/(Auflösung) der gesamten Zeit der Bilddarstellung angesteuert wird. Da für den
Rest der Zeit die Zellen im spannungslosen Zustand sind, müssen die Flüssigkristalle entsprechend träge eingestellt werden, um ein
Rückkippen während der restlichen Zeit und damit Kontrastverluste und Flimmereffekte zu vermeiden. Eine Maßnahme zur Vermeidung von
solchen Effekten ist die Unterteilung des Display in 2 horizontal geteilte Hälften (so genannte Dual Scan Display), um die Bilddauer zu
halbieren bzw. die Frequenz mit der eine Zelle angesteuert wird zu verdoppeln. Ein weiterer Effekt vor allem bei Passivmatrix-LCD ist das so
genannte Übersprechen zwischen den einzelnen Zellen, was sich als 'Fahnenziehen' bemerkbar macht. Aufgrund der Matrixstruktur der
Ansteuerung und der Kapazität der LCD-Zellen sind solche Effekte zwar durch verbesserte Elektrodenmaterialien und Ansteuermethoden
optimierbar, jedoch nicht vermeidbar. Die Zeilen- und Spalten-Elektroden sind aus transparentem Material (ITO Indium Zinn Oxid) um
maximale Lichttransmission zu gewährleisten.
Auflösung
Es gibt unterschiedlich große LCD Monitore, von 12" bis 18" Diagonale. Die Grafikkarten liefern unterschiedlich hohe Auflösungen von
640x480 bis 1600x1024 Bildpunkten. Welche Auflösung ist nun für welche Monitordiagonale das Optimum?
Die Auflösung wird in dpi (dots per inch) angegeben. Diese Einheit gibt an, wieviele Bildpunkte auf einer Länge von einem Zoll (25,4mm)
dargestellt werden. Zum Beispiel, hat ein Monitor die sichtbare Fläche von 280 x 210mm (15") und stellt eine Auflösung von 1024x768
Bildpunkten dar, dann hat er eine Auflösung von 1024 : 280 x 25,4 = 93dpi.
So kann man auch die Kantenlänge der einzelnen Bildpunkte herausfinden: 280/1024 = 0,27mm.
Windows arbeitet intern mit einer Auflösung von 96dpi, d.h. Windows geht von einer Pixelgröße (Pixel = Bildpunkt) von 25,4mm : 96 =
0,265mm aus. Damit der Windowsdesktop nun nicht zu klein oder zu groß dargestellt wird, sollte die Pixelgröße zwischen 0,23mm und
0,30mm (= 0,265mm ± 0,035mm) liegen, perfekt sind natürlich 0,265mm bei 96dpi.
Monitor
12,1" LCD
sichtbare Fläche
246x184mm
mögliche Auflösung
800 x 600 bei 0,30mm
1024 x 768 bei 0,24mm
dpi
85dpi
105dpi
Bewertung
zu wenig Bildpunkte
gut
13,3" LCD
270x202mm
1024 x 768 bei 0,265mm
96dpi
perfekt
14,1" LCD
286x215mm
1024 x 768 bei 0,28mm
90dpi
sehr gut
15" LCD
305x229mm
1024 x 768 bei 0,30mm
1400 x 1050 bei 0,21mm
1600 x 1200 bei 0,19mm
85dpi
117dpi
133dpi
große, leicht lesbare Darstellung
viel zu kleine Darstellung
nicht mehr lesbar
15,7" LCD
307x246mm
1280 x 1024 bei 0,24mm
105dpi
sehr gut, trotz hoher Auflösung
17" LCD
340x271mm
1280 x 1024 bei 0,265mm
96dpi
perfekt, aber nur sehr wenige
17" LCDs sind für Video gut
geeignet
17,3" LCD
370x236mm (16:10)
1600 x 1024 bei 0,23mm
110dpi
sehr gut, trotz hoher Auflösung
perfekt für Video
18,1" LCD
359x287mm
1280 x 1024 bei 0,28mm
90dpi
sehr gut
Vor- und Nachteile
Nachfolgend sollen kurz die wichtigsten Vor- und Nachteile eines LCD Monitors im Vergleich zu einem normalen Röhrenmonitor (CRT)
aufgelistet werden.
Positiv
Negativ
●
●
●
●
●
●
●
●
●
●
●
sehr platzsparend, insbesondere große LCDs
geringers Gewicht
hohe Leuchtdichte
keine Geometrie- und Konvergenzfehler
scharfes, glasklares Bild
niedriger Stromverbrauch
geringe Wärmeabgabe
flimmerfrei trotz niedriger Bildwiederholfrequenz
unempfindlich gegen Störeinflüsse
lange Kabel möglich bei digitalen LCDs
Strahlenemission praktisch nicht vorhanden
Quellen:
www.bananapage.de/frame.htm
www.guenthoer.de/lcd/lcd.htm
●
●
●
●
●
Winkelabhängigkeit von Kontrast und Farben
passive LCD teilweise leistungsschwach bei graphischen
Anwendungen
mäßige Bildqualität unterhalb der Standardauflösung
geringere Schaltgeschwindigkeit von hell zu dunkel
Steckverbindungswirrwarr bei digitalen LCDs
TFT-Monitor
Allgemeines
LCD-Monitore gibt es seit 1973, als Unterarten gibt es die STN-Monitore (später DSTN) und die hier behandelten TFT-Monitore.
Zuerst wurden TFT´s nur in der Laptoptechnik verwendet, da sie leistungsstärker als die bisherigen LC-Displays waren und einen Gewichts- und
Dimensionsvorteil gegenüber den CRT-Monitoren hatten und immer noch haben. Neuere TFT-Monitore können es in jeder Hinsicht mit den
bekannten CRT-Monitoren aufnehmen.
TFT - Technik
Die Thin Film Transistor Technik beruht auf der LCD Technik, bei der eine Schicht aus Flüssigkristallen lichtdurchlässig wird, wenn eine
Spannung angelegt wird.
Ein TFT-Monitor hat für jedes Pixel drei Subpixel (rot, blau, grün), die
über eigene Transistoren angesprochen werden (auch aktive Matrix
genannt). Die Anzahl der Pixel ist eine fixe Zahl die der Hersteller
bestimmt und dem derzeitigen Standart nach 1024x768 beträgt. Für einen
solchen Monitor benötigt man 2,4 Millionen Transistoren.
Durch das separate Ansteuern einzelner Transistoren, kann ein Pixel ein/
aus geschaltet werden, daher kann ein "Flimmern" nicht auftreten.
Die hohe Leuchtdichte kommt daher, dass ein Pixel und sein
benachbartes Pixel komplett andere Farben haben können, ohne dabei
ineinander "überzulaufen", dies zeigt sich auch in der Schärfe der TFTDarstellung. Aufgrund des Hintergrundleuchtens (Bild) haben TFTMonitore eine Helligkeit, die das doppelte von normalen Monitoren
überschreitet (CRT 100cd/m 2 - TFT >200cd/m2).
Der Kontrast steht in einem ähnlich gutem Verhältnis, wie die Helligkeit,
hierbei beträgt der Unterschied zwischen dem hellsten und dunkelsten
Punkt auf dem Bildschirm 100:1 bei CRT´s und 200:1 bei TFTMonitoren.
Ein eingeschränkter Blickwinkel galt lange als die große Schwäche der
LCD´s aber neue Techniken (MVA und IPS) ermöglichen dem Benutzer auch an einem TFT-Monitor Blickwinkel von 140° horizontal und
vertikal, was das Arbeiten mehrerer Personen an einem Schirm gestattet.
Um aus der vorgegebenen Auflösung auszubrechen bieten einige Hersteller einen Expand Modus an, der das Bild aufzieht (so wie an einer
Bildecke einer Grafik die Größe verändert werden kann), somit aber auch die Qualität einschränkt. TFT-Monitore sind im Vergleich zu den
älteren LCD´s schnell im Aufbau kommen aber noch nicht an den der CRT´s heran. Bei TFT-Monitoren sind die Ghoststrips oder Crosstalks
(Streifenbildung, durch langsames Ansprechen der Transistoren) so gering, dass Videos bearbeitet und geschaut werden können.
Größenvergleich: TFT 15" ~ CRT 17" ~ 40cm sichtbare Bildschirmdiagonale
Vorteile / Nachteile
Vorteile
●
●
●
●
●
●
●
●
●
Abmessungen
Gewicht
Wärmeentwicklung
Schärfe
Kontrast
Leuchtdichte
keine Röntgen-/ magnetische Strahlung
flimmerfrei
keine Konvergenzfehler
Nachteile
●
●
●
●
●
"Kinderkrankheiten"
Farbsättigung
durch Hersteller vorgegebene Auflösung
bei Ausfall eines Transistors entsteht ein Fehler der Darstellung
Farbechtheit, nur neuere Modelle verkraften True Color
TFT - Resümee
Die TFT-Monitore sind auf dem Vormarsch und werden aufgrund der voranschreitenden Technik in immer mehr Bereichen eingesetzt. Zu diesen
Bereichen gehört noch nicht die Videotechnik, weil die Bildaufbauzeiten nicht denen der Standart CRT´s entsprechen.
Die Nutzung ist auch eingeschränkt, wenn mit unterschiedlichen Auflösungen gearbeitet werden muss, da die Güte des "Expand Modus" von dem
Interpolationschip abhängt.
Da die Betrachtungsdiagonale eines TFT - Monitors (in cm) größer ist als die in einem CRT - Monitor, relativiert sich die Kostenfrage
dahingehend, dass man ein besseres Bild und 'mehr' zu sehen bekommt.
Quellennachweis:
www.tft-displays.com
www.prad.de
www.schutzbach.com
Guido Lohmann; Flat is beautiful; Grundlagen der TFT-Technik (PC-Direkt)
Soundkarte
1. Vorwort
2. Soundkarte
2.1 Verfahren
2.1.1 Frequenzmodulation (FM)
2.1.2 Sampling
2.1.3 Wavetable
1. Vorwort
Die Soundkarte ist ein unersetzlicher Teil eines Computers. Ihre Hauptaufgabe ist die Erzeugung und
Wiedergabe von Klängen. Diese Aufgabe wurde früher von einem im PC integrierten Lautsprecher erfüllt.
Dieser konnte aber nur piepsende Geräusche und synthetische Musikstücke von sich geben. Erst mit der
Möglichkeit, Sprache und Musik wiederzugeben, ist heute jeder Computer multimedial (Verbindung
verschiedener Medien).
Zu einem vollständigen Soundsystem gehört allerdings neben der Soundkarte auch ein Mikrofon und
Lautsprecher als Schnittstelle zum Benutzer.
Da Soundkarten mit akustischen Schwingungen nichts anfangen können müssen diese erst durch ein Mikrofon
in elektrische Schwingungen umgewandelt werden. Diese analogen Schwingungen können von der
Soundkarte digitalisiert werden. Zur Ausgabe der Signale müssen sie wieder in analoge Signale
zurückverwandelt werden. Durch einen Lautsprecher werden diese elektrischen Schwingungen dann wieder in
Luftschwingungen umgewandelt, die dann wieder vom Menschen gehört werden können. Diese
Schwingungen müssen in einem Bereich von 30-20.000 Hz liegen.
2. Soundkarten
Die ersten Soundkarten wurden 1987 entwickelt. Die erste war der Gameblaster von der Firma Creative Labs.
Kurz darauf erschien von AdLib die gleichnamige Soundkarte. 1989 entwickelte Creative Labs dann den
Soundblaster, der nach der AdLib Karte zum Quasi - Standard bei Soundkarten wurde.
In der AdLib Karte war ein Soundchip der Firma Yamaha eingebaut. Die Karte benutzte das Prinzip der
Frequenzmodulation (siehe 3.1.1) und konnte nur zur Tonwiedergabe benutzt werden. Sie war aber trotzdem
dem Gameblaster, der auf dem Verfahren der Amplitudenmodulation arbeitet, klanglich deutlich überlegen.
Der Soundblaster arbeitet nach dem Verfahren des Sampling (siehe3.1.2). Er verfügte über einen integrierten
Mikrofoneingang, so dass sich zum erstem Mal Geräusche aufzeichnen ließen, sowie über einen Verstärker
für Kopfhörer und Lautsprecher. Dafür war zum erstem Mal ein AD- und ein DA- Wandler eingebaut.
Außerdem fanden sich auf dem Soundblaster ein GamePort bzw. Joystick Anschluss.
Bei neueren Karten, wie zum Beispiel dem Soundblaster Pro, befinden sich die AD- und DAWandler auf
einem Chip, der CODEC (COder/DECoder) genannt wird. Darüber hinaus enthalten sie Schnittstellen für
Musikinstrumente (MIDI) und CD-ROMs.
2.1 Verfahren
2.1.1 Frequenzmodulation (FM):
Bei der Frequenzmodulation werden Oszillatoren eingesetzt, die durch den Computer gesteuert werden. Einem
Oszillator wird eine bestimmte Tonvorgabe zugewiesen, die von einem anderen über die Frequenzmodulation verändert
wird. Das Klangergebnis ähnelt sehr dem eines Synthesizers, da das Verfahren aus diesem Bereich übernommen
wurde. Je mehr Modulatoren eingesetzt werden, desto besser ist die Klangqualität. Allerdings ist die Anzahl der
möglichen eingesetzten Modulatoren sehr begrenzt.
3.1.2 Sampling
Beim Sampling werden analoge Signale, die von der Soundkarte in Zahlenwerte umgesetzt werden, später in
einer Datei gespeichert, die die Grundlage für die spätere Ausgabe bildet. Die Zahlenwerte werden wieder in
analoge elektrische Spannung zurückverwandelt, die dann über einen Lautsprecher ausgegeben werden
können. Der Vorgang der Digitalisierung vollzieht sich in der Sekunde mehrere Tausend Mal. Die Qualität
wird über die Samplingrate und die Samplingtiefe beurteilt. Die Samplingrate beschreibt die Häufigkeit, mit
der die analogen Signale in digitale umgesetzt werden - die Samplingtiefe die Genauigkeit, mit der dies
geschieht. Die Samplingrate sollte bei mindestens 44,1 kHz und die Samplingtiefe bei mindestens 16 Bit
liegen.
3.1.3 Wavetable
Bei diesem Verfahren werden in einem EPROM Baustein Muster für Klänge von Instrumenten in einer „Wellenform –
Tabelle“ gespeichert. Dadurch, dass die Klangmuster für Einzeltöne vorliegen, wird weniger Speicherplatz verbraucht.
Die verschiedenen Tonhöhen werden dann errechnet. Auf diese Weise kann dann vom Soundprozessor auf die
einzelnen Töne zurückgegriffen werden, ohne dass z.B. ein Musikstück in seiner vollen Länge gesampelt werden muss.
Außerdem wird bei diesem Verfahren ein fast originalgetreuer Sound erreicht.
Quellen:
www.e-online.de Computer Fahrschule (Buch)
Das Diskettenlaufwerk
(Floppy Disk Drive, "FDD")
Funktion
Das Diskettenlaufwerk dient zum Beschreiben und zum Lesen von sog. "Disketten".
Eine Diskette ist ein nichtflüchtiger wieder beschreibbarer magnetischer Datenspeicher. Sie besteht aus einer flexiblen Kunststoffplatte mit
einer beidseitigen Magnetschicht, die je nach Ausführung in einem starren Kunststoffgehäuse oder in einer flexiblen Hülle steckt, um sie vor
mechanischen Beschädigungen zu schützen.
Disketten können mit Hilfe des Laufwerkes gelesen und beschrieben werden und sind transportabel. Sie eignen sich deshalb für den
Datentransport kleiner Datenmengen zwischen Computern an verschiedenen Standorten, die nicht miteinander vernetzt sind.
Geschichtlicher Hintergrund...
Das Diskettenlaufwerk wurde Ende der 60er-, Anfang der 70er-Jahre des 20. Jahrhunderts konstruiert, um einen Massenspeicher für Daten zu
erhalten, der auch nach dem Ausschalten des Rechners die Daten erhält. Bis zu diesem Zeitpunkt wurde das von Datenbändern verschiedener
Formate realisiert, die aber den Nachteil hatten, dass die Daten nur sequentiell, d. h. in der auf dem Band physikalisch vorhandenen
Reihenfolge wieder eingelesen werden konnten. Welche Bedeutung die Diskettenlaufwerke zu dieser Zeit hatten, kann man heute noch daran
erkennen, dass selbst "moderne" MS-Betriebssysteme für diese Laufwerke die ersten beiden Buchstaben des Alphabets reservieren.
Als "Erfinder" der Floppy gilt Alan Shugart, der in den späten 60er Jahren für IBM arbeitete.
Heute...
Lange Zeit konnte sich das Diskettenlaufwerk am Leben halten durch die Möglichkeit, die Medien einfach zu wechseln, zu transportieren
oder getrennt vom Rechner aufzubewahren. (Die Eigenschaft als Massenspeicher hatte das Diskettenlaufwerk schon Jahre vorher verloren, als
Festplatten zur Standardausstattung eines jeden Rechners zu gehören begannen.)
Erst die Verbreitung der CD-Recorder und der Preisverfall für CD-Rohlinge hat (in Verbindung mit der Verbreitung des Internet und der
Möglichkeit, Daten ohne eigenen physikalischen Datenträger zu transportieren) der praktischen tagtäglichen Nutzung von
Diskettenlaufwerken ein Ende bereitet.
Mittlerweile hat vor allem die beschränkte Kapazität dazu geführt, dass die Nutzung des Diskettenlaufwerkes auf einen einzigen
Anwendungsbereich beschränkt ist: als Bootdiskette für Betriebssysteme und/oder Computerkonfigurationen, die ein Booten von CD-ROModer DVD-Laufwerk nicht zulassen oder individuell gespeicherte Informationen benötigen (z.B. Rettungsdisketten oder Virenscanner).
Die hin und wieder aufgestellte Behauptung, Disketten hätten gegenüber CD-ROMs den Vorteil größerer Lebensdauer durch geringere
Anfälligkeit für äußere Einflüsse ist nicht stichhaltig, weshalb dieses Referat nicht darauf eingeht.
"Rettungsversuche" zur Lebenserhaltung des magnetischen mobilen Datenträgers wurden im letzten Jahrzehnt unternommen -- eine Zeit lang
erfreute sich das dem Diskettenlaufwerk entfernt verwandte "ZIP-Laufwerk" einer gewissen Beliebtheit -- das "O. R. Technology LS120Laufwerk" mit einer Kapazität von 120 MByte (es gab auch ein paar Versionen mit 240 MByte) und Abwärtskompatibilität zur 1,44 MByteVersion konnte bestenfalls als "Exot" gelten ohne jegliche relevante Verbreitung.
Ausblick...
Das Diskettenlaufwerk hat kaum Aussichten, die nächsten Jahre zu überleben. Heutige Laptops werden ohne ein solches geliefert und in
diesem Jahr sind sogar die ersten Massencomputer einer großen deutschen Supermarktkette ohne Diskettenlaufwerk geliefert worden, was
bezeichnend ist, wenn man bedenkt, dass diese Rechner traditionell jegliche nur erdenkbare Ein- und Ausgabe-Komponenten beinhalten.
In der Computergeschichte gebührt dem Diskettenlaufwerk dennoch ein besonderer Platz, weil es mit diesem Gerät zum ersten mal möglich
war, einen externen Massenspeicher praktisch direkt wie eine Erweiterung des Hauptspeichers zu nutzen, was letztlich die rasante Steigerung
der Komplexität von Computerprogrammen ermöglichte. Für jeden, der zuvor mit Bändern oder ähnlichen aus heutiger Sicht extrem
schwerfälligen Speichermedien gearbeitet hatte, war das Diskettenlaufwerk ein so großer Technologie-Sprung, wie es ihn in der
Datenverarbeitung kaum vergleichbar gegeben hat.
Laufwerke
Diskettenlaufwerke können nach der Art des Datentransfers und des Bussystems unterschieden werden (IDE/SCSI mit paralleler
Datenübertragung) oder danach, ob sie im Rechner integriert werden oder nicht (interne Laufwerke mit halber oder voller Bauhöhe, externe
Laufwerke).
Externe Diskettenlaufwerke werden oder wurden auch für den Anschluss am parallelen Port oder über USB hergestellt.
Funktionsschema:
Datenträger
Die ersten kommerziellen Disketten waren vom Format 8 Zoll (ca. 20 cm), dieses später wurde nahezu ohne wesentliche Änderungen einfach
auf 5,25 Zoll (ca. 13,5 cm) verkleinert.
Diese Disketten bestanden aus einer magnetischen Scheibe, die in einem biegsamen Kunststoff-"Umschlag" gelagert waren. (Hieraus entstand
auch der Name "schlappe Scheibe" -- "Floppy Disk").
Ob die Diskette vom Rechner als "schreibgeschützt" erkannt wurde, bestimmte sich danach, ob sie am Rand der Hülle eine rechteckige
Einkerbung besaß oder nicht. Diese Einkerbung wurde mit einem kleinen Pin vom Diskettenlaufwerk erkannt. Mit Einkerbung war sie
beschreibbar, ohne war sie schreibgeschützt. Um eine Diskette, die man beschrieben hatte, schreibgeschützt zu machen, bediente man sich
kleiner Aufkleber, die man über die Einkerbung klebte.
Später (etwa ab Mitte der 80er-Jahre) entstanden die 3,5 Zoll (ca. 9 cm) Disketten, die zum einen eine Hülle aus nicht mehr biegsamem
Kunststoff erhielten und die man mittels eines kleinen Schiebers vom Zustand "schreibgeschützt" auf "beschreibbar" ändern konnte. Bei den
3,5-Zoll Disketten bedeutete jedoch im Gegensatz zu den Vorläufern die Schieberstellung "offen", dass die Diskette schreibgeschützt war.
Kapazität
Wie alle Computerbauteile, die über eine so lange Zeit existierten wie das Diskettenlaufwerk, wurden über die Jahre viele verschiedene
Formate zur Marktreife gebracht.
Gebräuchliche Formate (das zur Zeit überwiegend genutzte Format in roter Schrift):
Kapazität
formatiert
Spuren pro
Seite
Seiten pro
Disk
Bez. der
Dichte
horiz.
Dichte
(TPI)
Diskgröße
Kapazität
unformatiert
Sektoren pro Spurbreite
Spur (DOS) (mm)
5,25"
500KB
360KB
40
2 (DS)
DD
48
9
0,33
5,25"
1,5MB
1,2MB
80
2 (DS)
HD
98
15
0,16
3,5"
1,0MB
720KB
80
2 (DS)
DD
135
9
0,115
3,5"
2,0MB
1,44MB
80
2 (DS)
HD
135
18
0,115
3,5"
4,0MB
2,88MB
80
2 (DS)
ED
135
36
0,115
Darüber hinaus gibt es eine Unzahl weiterer Formate, die zum größten Teil an einzelne, nicht mehr aktuelle Computertypen gebunden sind.
Bsp.:
Commodore 64 mit der seriellen Floppy 1571 (einseitig lesbar, 5,25" Zoll, 170 KByte, hergestellt ab 1982), Apple II Serie (einseitig lesbar,
5,25" Zoll, 143 KByte, hergestellt ab 1980)
Aufzeichnungsverfahren
Um eine Diskette nutzen zu können, muss diese zuerst formatiert werden, d. h. mit einem vom Betriebssystem abhängigen Muster in
adressierbare Segmente eingeteilt werden.
Die Spuren (Tracks) der Diskette sind konzentrisch angelegt. Um Informationen schnell finden zu können, sind diese Spuren außerdem in
Sektoren unterteilt. Zwei oder mehr Sektoren sind ein Block (Cluster).
Spur, Sektor und Diskettenseite sind jeweils nummeriert und damit adressierbar. Welche Datei sich wo auf der Diskette befindet, wird in
einer Datenzuordnungstabelle hinterlegt.
Hauptbauteile des Laufwerkes sind die Mechanik für den Antrieb der Diskette und für die Schreib-Lese-Köpfe, die Schreib-Lese-Köpfe selbst
und eine Kontrollelektronik.
Die SLK sind kleine Elektromagnete. Ihr Magnetismus richtet die Eisenteilchen der Magnetschicht auf der Diskette aus. Durch den
Antriebsmotor wird die Diskette in Drehbewegung versetzt. Dabei wird Geschwindigkeit konstant bei 300 Umdrehungen pro Minute
gehalten. Über die Bewegung einer Spindel, die mit der Halterung für den SLK verbunden ist, wird dieser nach vorn oder hinten geführt.
Angetrieben wird die Spindel durch einen Schrittmotor.
Annex: "kleine Datenmengen"
Die Entwicklung der Datenverarbeitung geht mit einem explosionsartigen Anstieg der Speicherkapazität einher. Jeweils in Beziehung auf
eine "Standard-Diskette" mit 1,44MB Speicherkapazität kommt man daher auf folgende Mengen:
●
●
●
Sichern des Hauptspeichers mit der derzeitigen Durchschnittsgröße von 256 MByte: 180 Disketten
Sichern einer "kleineren" Festplatte, so wie sie derzeit erhältlich ist (60 GByte): 40.000 Disketten oder gestapelt ein Turm von 120 m
Höhe
Anschauen eines Spielfilms (120 Minuten) auf Diskette anstelle von DVD: 7.000 Disketten
und nicht zu vergessen: ein Diskettenwechsel alle 2 Sekunden Film!
[zurück]
Streamer die gigantischen
Bandlaufwerke
Bild Bild
Gliederung:
❍
❍
❍
❍
❍
Was ist ein Streamer-Tape Laufband (Definition)
Funktionsweise
Kapazität
Aufzeichnungsverfahren ( Längs- und Schrägspur)
Herstellung eines Bandes
Definition:
Das Wort "Streamer" kommt aus dem Englischen und bedeutet schlicht und einfach „Band“
Ein Streamer ist ein Bandlaufwerk, mit dessen Hilfe Dat
Anwendungsgebiete:
●
●
●
●
Sicherungskopien von Servern oder Workstations
Archivierung von Altdaten
Datensicherung ( Backup)
Datenaustausch und Transport
Funktionsweiser Aufbau von Streamer-Tapes
Streamer sind in etwa genauso schnell wie ein Diskettenlaufwerk, können aber im Gegensatz zu diesen wesentlich mehr Daten speichern .
Der prinzipielle Aufbau eines Streamers ist vergleichbar mit anderen magnetischen Aufzeichnungsgerät wie zum Beispiel einem
Stereokassettenrekorder . Ein Motor bewegt das beschichtete Magnetband innerhalb einer Datenkassette ("Cartridge ") an einen Schreib und Lesekopf vorbei - vorwärts, wobei die Daten in digitaler Form (bits) als positive oder negative Ladungen gespeichert oder gelesen
werden. Entscheidender Unterschied zu anderen Aufzeichnungsgeräten ist, dass der Kopf nicht starr installiert ist, sonder mehrerer
parallel verlaufende Spulen ( " Tracks") nebeneinander mit den seriell aufgezeichneten Daten beschrieben werden. Im Gegensatz zu
großen Computerbändern und anderen Datenträgern wird der mechanische Antriebsmechanismus bei Datenkassetten durch einen
speziellen Antriebsriemen realisiert , der sich im Inneren der Kassette befindet ( z.B. T- förmig um die Rollen gespannt). Dieser wird
wiederum in der Kassette über mehrere Rollen geführt , dass an den Spulen auf das Magnetband drückt und es dadurch weiter
transportiert . Durch eine solche Technik werden Bandschäden und so die Möglichkeit eine Bandriss erheblich verringert , da
mechanische Einwirkungen durch den elastischen Riemen weitgehend abgefangen werden.
Nachteil:
Aufgrund der Länge des Bandes und der Les- bzw. Schreibart können die Daten nur seriell gelesen werden und sind somit im
durchschnittlichen Zugriff auf einen Datenblock langsam ( zumindest im Vergleich mit einer Festplatte):
Kapazität
Bänder bzw. die Laufwerke gibt es in unterschiedlichen Varianten, diese Liste erhebt keinesfalls den Anspruch auf Vollständigkeit, sie
soll nur die am häufigsten verwendeten Arten aufzeigen:
●
QUI (Quarter Inch Cartridge) :
Ein Format , das sich sehr schnell verbreitet hat, da sowohl die Laufwerke als auch die Bänder sehr billig sind. Deshalb haben sie
vor allem im Home und SmallOffice - Bereich durchgesetzt. Es gibt Bänder mit unterschiedlicher Kapazität, wobei die Faustregel
gilt, dass die neuren Laufwerke meist abwärtskompatible sind d.h. sie die älteren Bänder lesen können (Kapazität 425 MB - 4
Gigabyte).
●
DAT ( Digital Audio Tape):
Wie der Name bereits schon besagt, wurde dieses Band zunächst im Audio- Bereich verwendet. Da das Aufzeichnungsverfahren
aber bereits digital war, hat sich die Computerbranche dieses Medium " einverleibt". Mit Kapazität von ca. 2- 12 Gigabyte finden
sie vor allem in kleineren Netzwerken in Servern ihre Anwendung.
Weiterentwicklung des DAT- Streamer
●
Jahr
1989
1993
1995
1998
2000
Kapazität
1,3 GB
2 GB
12 GB
24 GB
48 GB
Transferrate
183 KB/
s
360KB/S- 720 KB/
s
750 -KB/s- 1,5 MB/
s
1-3 MB/
s
3-6MB/
S
DLT ( Digital Linear Tape):
schneller , robuster, zuverlässiger und mehr Kapazität ( 30 - 80 Gigabyte) als alle bisher genannten Medien zeichnen diese Art aus.
Deshalb finden sich diese Form meist in Unternehmen mit großen Datenvolumen. Allerdings schlagen sich die Fähigkeiten der
DLT- Technik auch im Preis nieder ( ab 2500 Euro aufwärts für ein Laufwerk).
Aufzeichnungverfahren
Allgemeiner Aufbau des Datenträgers (Tape)
Die Bänder sind unabhängig von der Schräg oder Längsspur in Sektoren unterteilt . Der Aufbau der Sektoren orientiert sich hierbei an
dem von Disketten. Bei Straemer ist jedoch die Anzahl der Datenbits doppelt so hoch , so daß ein Sektor 1024 Datenbits enthält. 32 dieser
Sektoren werden zu einem Segment zusammengefaßt, das Gegenstück zur Spur bei der Diskette . Drei der Sektoren eines Segments
dienen der Fehlererkennung - und korrektur.
Längsspuraufzeichnungsverfahren
Bei der Längsspuraufzeichnungsverfahren werden die einzelnen Bits mit dem MFM-Verfahen in Magnetisierungsmuster kodiert : für eine
`1`wird in der Mitte der Bitzellen die Magnetisierung umgekippt, für eine `0`nach einer `0`zu Beginn der Bitzelle ; bei einer `0`nach einer
`1´ passiert nichts. 1024 Datenbits werden mit Syncronisationsmarken, Adressangaben und einer CRC -Prüfsumme zu einem 1319 Bit
langen Sektor zusammengefasst . Ein solcher Sektor ist bis auf die doppelte Anzahl der Datenbits exakt so aufgebaut wie ein Sektor einer
Diskette. 32 solcher Sektoren bilden ein Segment, das Gegenstück zu einer Spur einer Diskette . Im Gegensatz zur üblichen Formatierung
von Disketten werden bei der Längsspuraufzeichnung drei dieser 32 Sektoren für die Fehlererkennung und korrektur (ECC) reserviert.
Vor der Benutzung müssen die Medien formatiert werden , da der Controller nach dem Schreiben eines Sektors kurzzeitig auf Lesen
schaltet und dann Syncronisationsmarken finden will, an den er sich orientieren kann.
Zum Beispiel:
Bei QIC läuft das Band abwechselnd nach links oder rechts am Schreib / Lesekopf vorbei. Ein Spindelantrieb bringt den Kopf dabei auf
die Höhe der gewünschten Spur. In das Band gestanzte Löscher markieren Anfang und Ende.
Bild
Schrägspuraufzeichnung ( Helical Scan)
Um auf engsten Raum die Unmengen digitaler Audiodaten aufzuzeichnen , laufen bei Helical Scan, die Spuren nicht mehr vom Anfang
des Bandes bis zum Ende durch. Vielmehr liegen Milliarden von kurzen Spuren in einem flachen Winkel geneigt nebeneinander auf dem
Band .Zum schreiben und Lesen wird das Band schräg um eine sich schnell rotierende Trommel herumgeführt. Schreib und Lesekopf sind
in dieser Trommel eingelassen und fahren dadurch mit einer sehr hohen Geschwindigkeit über das Band .Aufgrund dieser
Geschwindigkeit, mit der sich die Trommel bewegt , können die Bits auf Platz sparender Weise in Magnetisierungsmuster umgesetzt
werden und das erlaubt eine hohe Frequenzen um die Datenmengen abspeichern zu können. Üblicher weise wird das NRZI- Verfahren
verwendet :
Bei jeder `1`wird die Magnetisierung geändert, bei jeder `0`bleibt sie gleich.
Bild
Vorteil dieses Aufzeichnungsverfahren
❍
❍
die Daten können viel schneller gespeichert werden
man hat schneller Zugriff auf einzelne Daten
❍
man kann Dateien mit 200 facher Geschwindigkeit suchen
Medienherstellung eines Bandes
Am Anfang der magnetischen Speicherung gab es zwei verschiedene Verfahren um ein Magnetband herzustellen. Mit Hilfe von
Umformtechniken ( walzen) wurden massiv eiserne Magnetbänder oder Drähte hergestellt . Die Massebänder bekamen ihr magnetisches
Material in ihre Kunststoffunterlage eingebracht. Die Speicherdichte und der Platzbedarf ließ natürlich sehr zu Wünschen übrig. Einige
Formen der Magnetpartikel sind in dem Bild rechts zu sehen. Die heutigen Fertigungsprozesse setzen meist eine fertige Unterlage vorrau.
Mit Hilfe von Lackiertechniken werden die Pigmente auf die Unterlage aufgebracht und dann mit dem Lack getrocknet. Dabei werden die
gewonnenen Erfahrungen aus der Photofilmtechnik benutzt. Bei der Aufdampfen / Sputtertechnik wird das magnetische Material durch
Erhitzen , Elektronen - oder Ionenbeschuß aufgedampft. Das Material schlägt sich dabei auf der kälteren Unterlage nieder. Die dritten
Möglichkeiten besteht darin, daß man durch elektrolytisches Abschneiden der Pigmente aus einer Lösung, in der die magnetischen Ionen
als Komplexsalze enthalten sind, das Material magnetisierbar macht. Das Material der Unterlage besteht heute zumeist aus
Kunststofffolien. Früher wurde dazu auch PVC verwendet. Die beiden wichtigsten Eigenschaften bei einem Magnetband sind, die schon
vorher erwähnet Koerzitivfeldstärke und die remanente magnetische Induktion. Diese Merkmale werden auf verschiedenster Weise je
nach Anwendungsart abgestimmt. Eine hohe Koerzitivfeldstärke bewirkt eine bessere Wiedergabequalität der höherfrequenten Pegel und
eine gesteigerte Stabilität der Aufzeichnung . Die magnetische Induktion soll immer möglichst hoch sein, da von ihr die
Wiedergabespannung und damit der Störabstand abhängen.
Magnetooptische Laufwerke
Allgemeines
Technik
Aufzeichnung
Lesevorgang
Bauformen
Vor- und Nachteile
Quellenangaben
Allgemein
Bild 1: altes Sony MO-Laufwerk und Verbatim Diskette
Die Vorteile von Festplatten (große Kapazität) und herkömmlichen Disketten (Austauschbarkeit, günstiger Preis) vereinen
magnetooptische Speichermedien (Magnetooptische Disks). Sie nutzen den physikalischen Effekt, dass in bestimmten Legierungen bei
höheren Temperaturen eine Änderung der magnetischen Orientierung mit relativ geringer Magnetfeldstärke erreicht werden kann.
Die einzelnen Bits können magnetisch geschrieben werden, wenn gleichzeitig ein etwas stärkerer Laser die Punkte über den CuriePunkt (180 Grad Celsius) erhitzt (deshalb werden MO-Laufwerke beim Beschreiben recht warm). Bei Zimmertemperatur bleiben die
Bits fest gespeichert. Der Lesevorgang wird mit einem schwachen Laser ausgeführt, der keine gefährliche Erhitzung bewirkt. Dieses
Prinzip funktioniert, weil - je nach Magnetisierung - polarisiertes Laserlicht bei der Reflexion in verschiedene Richtungen gedreht wird
(Kerr-Effekt).
In der Geschwindigkeit der Datenaufzeichnung liegen MO-Disketten zwar weit hinter modernen Festplatten zurück, dafür werden sie
wie CDs völlig verschleisslos gelesen. MO-Disketten gibt es im Format 3,5 Zoll und 5,25 Zoll. Die Disketten der wichtigsten
Hersteller können untereinander ausgetauscht werden, weil einheitliche Aufzeichnungsformate verwendet werden.
Trotz der scheinbar sehr aggressiven Schreibtechnik bei 200 Grad Celsius (etwas höher als der Curie-Punkt) sind MO-Disketten viele
Millionen mal wiederbeschreibbar und haben eine ähnliche Langlebigkeit wie CDs.
Während die MO-Disketten bereits für einen sehr günstigen Preis zu haben sind, sind die Laufwerke noch etwas zu teuer, um wirklich
den großen Durchbruch zu schaffen. Die MO-Technik ist in weiten Teilen von der CompactDisc und deren Nachfolger, der DVD
(Digital Versatile Disc), überholt und verdrängt worden. MO-Laufwerke sind, wie Streamer häufig im professionellen Umfeld zu
finden. Den Massenmarkt werden sie wohl nie erobern.
Bild 2: Laufwerk von DynaMO
Technik
Die MO-Disk besteht aus mehreren Schichten, die in einem
Plastikgehäuse vor Kratzern und Schmutz geschützt sind. Wie
im oberen Schaubild zu sehen ist, ist die magnetooptische
Schicht, auf der die Daten aufgezeichnet werden, zwischen
zwei dielektrische Schichten gepackt. Diese dienen dazu, die
Datenschicht zu schützen und den Kerr-Effekt zu verstärken.
Auf der Oberseite befindet sich eine Reflektionsschicht, die
das Auslesen der Daten erleichtert. Das ganze ist auf einer
Trägerscheibe aus Polycarbonat aufgebracht und von UVSchutzfilmen umschlossen.
Bild 3: Die Schichten einer MO-Disk
Aufzeichnung
Beim Schreibvorgang erhitzt ein Laser die Stelle, an der die Daten geschrieben werden sollen, auf ca. 200°C. Somit ist der CuriePunkt, bei dem viele Metalle ihre magnetische Ausrichtung verlieren, überschritten. Um das Metall während des Abkühlens
magnetisch auszurichten, ist nur ein verhältnismäßig schwaches Magnetfeld erforderlich. Bei Zimmertemperatur können die Daten
auch durch ein sehr starkes Magnetfeld nicht geändert werden. Auch wenn die Diskette stark erhitzt wird, bleiben die Daten erhalten.
Somit ist die Speicherung auf MO-Diskette sehr sicher.
Lesevorgang
Die Daten auf einer MO-Diskette werden optisch, mit Hilfe eines Lasers, ausgelesen. Dabei macht man sich den Kerr-Effekt zunutze.
Der Lese-Laser ist wesentlich schwächer, als der Laser, der beim Schreiben das Material erhitzt. Dadurch besteht keine Gefahr für die
Daten. Da das Auslesen der Daten, ähnlich wie bei einer CD-ROM, ohne mechanischen Kontakt geschieht, wird die Lebensdauer der
Medien durch das Lesen nicht beeinträchtigt.
Anders als bei einer CD-Rom ist die Information nicht in Pits und Lands codiert, sondern verbirgt sich in der magnetischen Eigenschaft
der Datenschicht. Die Informationen sind nur unter Anwendung des Kerr-Effektes auszulesen.
31 Jahre nachdem Michael Faraday 1845 entdeckte, dass Licht seinen Polarisationszustand beim Durchgang durch ein
ferromagnetisches Medium ändert, fand John Kerr (1824-1907) heraus, dass linear polarisiertes Licht, das an den Polschuhen eines
Magneten reflektiert wird, seinen Polarisationszustand in Abhängigkeit von der Stärke des vom Magneten erzeugten Feldes ebenfalls
ändert. Er hatte damit das Analogon zum Faraday-Effekt in Reflexion entdeckt. Wenn man also die Diskette mit polarisiertem Licht
aus einer Laserdiode bestrahlt, wird die Richtung der Wellen, je nach Zustand der aktuellen Position, um einen bestimmten Wert
gedreht. Typische Werte für die Kerr-Drehung liegen zwischen 0° und 10°, bei sichtbarem Licht aber meistens um die 0,3°-0,5°.
Bild 4 zeigt die schematische Anordnung der Elemente in einem MOLaufwerk. Die Laserdiode sendet monochromatisches Licht aus. Dieses
fällt durch den Polarisator auf die Diskette. Von da wird es reflektiert.
Wenn die beleuchtete Stelle zuvor magnetisiert wurde, ist das Licht nun
um die Kerr-Drehung gedreht. Ein Strahlenteiler lenkt es je nach Zustand
(gedreht oder nicht) in unterschiedliche Photodioden.
Bild 4:
Schematischer Aufbau eines MO-Laufwerks
Bauformen
Bild 5: MO-Laufwerk
MO-Laufwerke gibt es in unterschiedlichen Ausführungen. Angefangen bei 3,5" mit einer Kapazität von 230MB bis hin zu zweiseitig
beschriebenen Disks mit bis zu 1,3 GB. Laufwerke, die im 5,25"-Format gebaut sind, haben eine Kapazität von 640MB bis 5,2GB.
Das zur Zeit schnellste MO-Laufwerk hat eine Datentransferrate von bis zu 5,9 MB/s beim Lesen. Die Laufwerke waren früher
ausschließlich mit SCSI-Schnittstelle erhältlich weil sie nur im professionellen Bereich eingesetzt wurden. Heute findet man auch
günstige Laufwerke mit USB oder IDE-Schnittstelle.
Eine weitere Modifikation der MO-Technologie ist die MiniDisc, die Anfang der 90er Jahre des vorigen Jahrhunderts von der
japanischen Firma Sony entwickelt wurde. Die 2,5" Disks sind nicht kompatibel zu Computerlaufwerken und speichern nur
Musikdaten.
Um die 74min Musik, die eine CD enthält, auf die wesentlich kleinere MiniDisk zu bringen, entwickelte Sony ein
Datenreduktionsverfahren, bei dem Signale, die das menschliche Ohr nicht hören kann, nicht auf die MiniDisc geschrieben werden.
Mittlerweile hat man nachgebessert und kann heute mit bloßem Ohr keinen Unterschied mehr zur CompactDisk feststellen.
Aber auch auf diesem Gebiet konnte sich die magnetooptische Technologie nicht durchsetzen. Anfangs als Nachfolger der
MagneticCasette gepriesen, wurde sie schnell von CD-R und CD-RW verdrängt. Auch die MP3 Technologie ist ein sehr erfolgreicher
Konkurrent zur MiniDisc. Die fehlende schnelle Schnittstelle zum Computer lässt die MiniDisc heute ein Schattendasein führen.
Bild 6: Tragbarer MD-Player von Sony
Vor- und Nachteile
Der wichtigste Vorteil der MO-Technologie ist meines Erachtens nach die Sicherheit der gespeicherten Daten. Die MO-Diskette
besteht aus einer stabilen Hülle, die die Scheibe vor mechanischen Beschädigungen und Schmutz schützt. Auch vor magnetischen
Einflüssen sind die Daten sicher, da die TbFeCo-Schicht nicht leicht umzumagnetisieren ist. Aus dem gleichen Grund ist die Disk auch
gegen Erschütterungen resistent und selbst Temperaturen bis 180°C überstehen die Daten ohne Probleme. Des weiteren besteht nicht
die Gefahr eines Headcrashes, der bei magnetischen Systemen wie Festplatten auftreten kann, weil die Daten optisch ausgelesen
werden.
Nachteile sind vor allem der hohe Preis für Gerät und Medium. Die CompactDisk ist wesentlich billiger und in den meisten Systemen
schon vorhanden. Des weiteren ist die Performance der meisten MO-Laufwerke um einiges geringer, als die konkurrierender
Technologien. Man denke hier an den Datendurchsatz von Bandlaufwerken oder die Geschwindigkeit moderner CD-Brenner. Ein
weiteres Handicap der MO-Technologie besteht in der geringen Popularität dieser Technik.
Privatanwender sollten deshalb die bestehenden CD-Brenner, ZIP-Laufwerke etc. weiterbenutzen. Für Firmen und Institutionen, die
wichtige Daten zu sichern und zu archivieren haben, ist ein MO-Laufwerk eine gute Wahl. MO-Disks sind wesentlich langlebiger, als
Magnetbänder. Auch kouml;nnen sie bis zu 1 Millionen mal beschrieben werden, wo hingegen Magnetbänder maximal 1000
Schreibzyklen aushalten.
Quellenangaben
Fujitsu MO Information
Diplomarbeit von Daniel Wegner Thema:Lineare und nichtlineare optische Rasternahfeldmikroskopie an magnetischen Filmen an der
Freien Universität Berlin 1999
StcArchiv.deAlternate
Computerversand, Linden
Thermodrucker
Die Thermodrucker gehören zur Gruppe der Matrix- und den Non-Impact Druckern. Sie haben ein sehr weit gestreutes
Anwendungsgebiet, welches sich vom Foliendruck im Büro über Bon- und Strichcodedruck im Handel bis hin zum
Faxausdruck in Faxgeräten erstreckt.
Das Druckprinzip beruht auf der blitzartigen Erhitzung einzelner Heizelemente, die die Farbpunkte auf dem Papier
erzeugen. Durch Anlegen einer Spannung werden die Heizelemente bei Bedarf auf ca.96 Grad Celsius erhitzt und
kühlen durch ihre Materialeigenschaft nach der Bestromung sehr rasch wieder ab. Integriert sind die einzeln
ansteuerbaren Heizelemente ein- oder zweireihig entweder in einer Heizleiste oder in einem Heizkopf, der auf einem
beweglichen Schlitten montiert ist. Der Heizkopf wird ähnlich wie bei Nadel- oder Tintenstrahldruckern horizontal
über das Papier bewegt, wobei er ein Zeichen nach dem anderen erzeugt. Bei der Heizleiste ist es etwas anders, da diese
fest montiert ist wird hier das Papier bewegt und bedruckt, deshalb ist die Heizleiste meist so lang, wie die maximale
Papierbreite.
Generell kann man die Thermodrucker anhand der Druckverfahren in 2 verschiedene Gruppen unterteilen. Die erste
Gruppe wäre das Thermoreaktionsverfahren, oder auch Thermodirektverfahren genannt. Die zweite Gruppe ist das
Thermotransferverfahren. Beide Verfahren wurden mit einem Heizkopf oder einer Heizleiste realisiert. Zu dem
Thermotransferverfahren gehört auch das Thermosublimationsverfahren. Hier wird aber nur mit Heizköpfen gearbeitet.
Thermoreaktionsverfahren
Bei dieser Drucktechnik wird kein Farbband benutzt, sondern auf zwei unterschiedliche Arten von Spezialpapier
gedruckt. Bei der einen ist die Oberfläche mit zwei unterschiedlichen, farblosen Molekülen und Wachspartikeln
versehen. Bei Hitze reagieren diese Moleküle miteinander und erzeugen die schwarze Farbe. Diese Technik wird sehr
häufig in Faxgeräten genutzt.
Die andere Papierart besteht aus einer getrennten Farb- und andockenden Wachsschicht. Wird lokal Wärme zugeführt,
so schmilzt die Wachsschicht und macht die darunter liegende Farbschicht in Form von Punkten sichtbar.
Vorgang des Thermoreaktionsdrucks
Unabhängig von der Papierart übertragen die Thermoelemente bei Stromzuführung und der daraus resultierenden
Erhitzung Wärme auf das Papier und erzeugen somit die gewünschten Farbpunkte. Mit dieser Methode können nur
schwarz/weiß- Ausdrucke erzeugt werden.
Thermotransferverfahren
Bei diesem Druckverfahren wird kein Spezialpapier benötigt. Hier kann man Normalpapier verwenden. Wenn man
allerdings ein optimales Druckbild erzielen will, sollte man auf eine relativ glatte Oberfläche des Papiers achten. Die
Farbübertragung erfolgt bei diesem Verfahren durch eine spezielle Farbfolie (Farbband), auf der die Farbpartikel in
einer Wachsschicht eingeschmolzen sind. Diese Farbbandfolie wird zwischen Heizleiste und Papier entlang
transportiert und überträgt beim Erwärmen durch die Heizelemente die einzelnen Farbpunkte auf das Papier. Dort kühlt
die Schmelze ab und bleibt haften. Der Ablösevorgang der Farbschmelze wird noch verstärkt, indem die Farbfolie an
der Stelle wo sie erhitzt wird direkt von der Heizleiste weggeführt wird. Die Farbfolie befindet sich auf Rollen und ist
in einer separaten Box im Drucker untergebracht.
Für den Ausdruck einer DIN A 4-Seite wird die entsprechende Länge an Folie benötigt. Die Folie ist zudem auch nur
einmal benutzbar, so dass für jeden weiteren Ausdruck eine neue Folie benötigt wird.
Druckprinzip des Thermotransferdrucks
Beim Mehrfarbendruck wird jede Papierseite viermal bedruckt. Dabei befinden sich die Farben Gelb, Magenta, Cyan
und Schwarz nacheinander auf der Folie. Am Ende der vier Farben sowie zwischen diesen ist auf der Folie eine
Markierungslinie angebracht, die der Drucker zur Synchronisation benötigt. Dies ist deswegen nötig, da das Papier die
Druckstation mehrmals durchläuft, bis jede dieser unterschiedlich gefärbten Folien nacheinander zur Übertragung der
benötigten Farbpunkte über das Papier geführt worden ist. Am Ende des Druckvorgangs ist die verbrauchte Folie
wertlos.
Thermosublimationsverfahren
Im Unterschied zum herkömmlichen Thermotransferverfahren lassen sich hier die Heizelemente in einem Bereich von
2 Grad Celsius in 256 Stufen beheizen. Damit muss ein Farbpunkt nicht vollständig von der Folie abgelöst werden.
Unterschiedlich viele Farbpigmente der Folie werden abhängig von der Temperatur abgelöst und auf das hier benötigte
Spezialpapier übertragen. Dabei werden die einzelnen Farbpigmente übereinander gedruckt.
Der technische Prozess dieses Verfahrens hat seinen Namen auf der Sublimation beruhenden Übertragung der
einzelnen Moleküle von der Folie auf das Papier. Mit Sublimation bezeichnet man den unmittelbaren Übergang vom
festen in den gasförmigen Zustand. Die Farbmoleküle werden durch die Beheizung der Heizelemente sublimiert und
auf das Papier "gedampft". Dadurch werden echte Halbtöne im gesamten Farbspektrum erzeugt.
Die Generierung von Farbbildern in Fotoqualität ist mit diesem Verfahren Realität geworden. Eine Firma die auf dieser
Basis arbeitet ist z.B. Kodak. Die typische Ausdruckgeschwindigkeit für eine DIN A 4 Farbdruck sind ca.20 Minuten.
Quellen:
Das große PC-Drucker
Buch Seite im Internet (Referat)
Nadeldrucker
Geschichte
Allgemeines und Anwendungen
Funktionsweise
Auflösung
Hersteller
Quellen
Geschichte
Es nahm seine Anfänge bereits 1964: Im Rahmen der olympischen Spiele in Tokio wurde der japanische Hersteller von Präzisionsuhren, bekannt unter dem
Markennamen Seiko, als offizieller Zeitnehmer beauftragt. Damit an allen Wettkampfstätten die erfassten Zeiten auch schnell und sauber aufgelistet werden
konnten, entwickelte SEIKO den ersten miniaturisierten Nadeldrucker der Welt, der über ein völlig neues Drucksystem verfügte und damit weltweit für
Aufsehen sorgte. Der Drucker ging 1968 in Serie und wurde ein Welterfolg. Und auch der 1975 eingeführte und inzwischen weltweit bekannte Markenname
"EPSON". (Son of Electronic Printer = EP SON)
Seit 1968 wurde die Drucktechnik kontinuierlich weiterentwickelt und verbessert neben der Geschwindigkeit, der Durchschlagskraft, dem Geräuschpegel und
dem Verbrauch unter anderem auch die Haltbarkeit der Drucker.
Allgemeines und Anwendungen
1999 wurden in Deutschland über 230.000 Nadeldrucker verkauft. Kontinuierliche Weiterentwicklungen machen sie schneller, flexibler, sparsamer, langlebiger
und leiser als jemals zuvor. Die Nadeldrucker werden den neuesten Tintenstrahl- und Laser-Technologien vorgezogen, wenn mehrere Durchschläge oder
meterlange Listen, zum Beispiel in Logistikzentren benötigt werden.
Es sind die einzigen Drucker, die unter widrigsten Bedingungen, wie in einer staubigen oder feuchten Umgebung sowie bei starker Hitze oder Kälte, arbeiten
können. Diese Eigenschaften wird gebraucht wo gleich mehrere Kopien erforderlich sind, denn gerade auf Lieferscheinen, Versand- und Zollpapieren muss auch
der letzte Durchschlag noch lesbar sein.
Nadeldrucker im Alltag allgegenwärtig: Im Dauereinsatz drucken sie in Arztpraxen Rezepte, in Banken Kontoauszüge und Belege, in Reisebüros Tickets, in
Parkhäusern Parkscheine und an Supermarktkassen Bons.
Funktionsweise
Ein Nadeldrucker verfügt über einen auf einer Schlittenhalterung
befestigten Druckkopf. Während des Drucks bewegt sich die
Halterung auf Schlittenführungen hin und her. Zwischen dem
Druckkopf, in dem sich die Nadeln befinden und dem Papier ist
ein Farbband gespannt. Während sich der Druckkopf horizontal
über das Papier bewegt, schlagen einzelne Nadeln mit enormer
Geschwindigkeit gegen das Farbband.
Dies geschieht durch einen Elektromagneten, der die einzelne Stahlnadeln auf ein Farbband presst und mit
einem Hammer vergleichbaren ist. Die Nadel funktioniert dabei wie ein Meißel.
Die dadurch auf dem Papier entstehenden einzelnen Punkte setzen sich durch diese ständig
wiederkehrende Aktion innerhalb einer durch den Zeichengenerator vorgegebenen Matrix zu einem
Zeichen zusammen (MATRIXMUSTER, daher auch die Bezeichnung Martixdrucker).
Die Punktdichte und somit die Druckqualität kann verbessert
werden, indem jeder Anschlag einer Nadel zweimal
ausgeführt wird, aber um ca. 0,14mm daneben. So
verschwimmen die Punkte in einander und das Schriftbild
wird stärker hervorgehoben.
Der für einen Nadeldrucker typische kreischende Ton beim
Drucken kommt durch die hohe Geschwindigkeit der Nadeln
zustande.
Der Einzelblatteinzug
Beim Einzelblatteinzug steuert ein Motor den Zeilen- und Seitenvorschub. Vereinfacht dargestellt wird das einzelne Blatt zunächst zwischen der Druckwalze und
Papierandruckrollen in den Drucker geführt und verlässt nach dem Druck das Gerät über einen zweiten Rollensatz, exakt aufeinander abgestimmten
Antriebsrädern stellen sicher, dass das Papier gerade eingezogen und bedruckt wird.
Die Endlospapiereinzüge
Für Endlospapier verfügen Nadeldrucker vorne, oben, hinten und unten über verschiedene Zuführungswege. In der Regel sind die Geräte mit einem oder zwei
Zug-/Schubtraktoren ausgerüstet. Der Schubtraktor befindet sich an der hinteren oder vorderen Papierzuführung und schiebt das Papier in den Drucker. Ein
Zugtraktor hingegen, der an allen vier Zuführungswege einsetzbar ist, zieht das Papier gleichmäßig aus dem Gerät heraus.
Auflösung
Der Einsatzzweck bestimmt die Anzahl der Nadeln. Der Druckkopf ist eine qualitätsentscheidende Komponente. Zur Auswahl stehen Drucker mit 9, 18, 24 und
48 Nadeln. Die Anzahl der Nadeln bestimmt die Auflösung, die in Punkte pro Zoll, oder kurz dpi gemessen wird. Ihre Auflösung beträgt meist 300 dpi (dots per
inch).
9 Nadeln:
In Druckköpfen mit 9 Nadeln sind diese in einer geraden Linie untereinander, leicht abgewinkelt angeordnet. Durch den Winkel können die Punkte enger und
somit Kurven und Kanten exakter gedruckt werden. 9 Nadeldrucker kommen beispielsweise im industriellen Fertigungsbereich, bei der Verarbeitung von
Formularsätzen mit bis zu 6 Durchschlägen oder dem Bedrucken von besonders hartem bzw. dickem Papier zum Einsatz. Sie sind jedoch auch in der Lage, fast
ebenso gute Ausdrucke wie 24-Nadeldrucker zu liefern (so genannte "Near Letter Quality", NLQ), sind jedoch langsamer als diese, da hierzu zwei bis drei
Druckvorgänge pro Stelle nötig sind.
18 Nadeln:
In einem Druckkopf werden zwei parallel angeordnete Reihen mit jeweils neun Nadeln eingesetzt. Durch versetztes „Abfeuern“ der Nadelreihen wird eine
besonders hohe Druckgeschwindigkeit erreicht.
24 Nadeln:
In einem 24-Nadel-Druckkopf befinden sich nebeneinander zwei vertikale Reihen mit jeweils 12 Nadeln, die wie bei den 9 und 18 Nadel Druckköpfen leicht
abgewinkelt angeordnet sind. Durch einen zusätzlichen vertikalen Versatz werden auch Zwischenräume zwischen den einzelnen Nadeln gefüllt, was zu einem
besonders schönen Schriftbild führt. 24-Nadeldrucker kommen zum Einsatz, wenn der Druck von Geschäftskorrespondenz im Vordergrund steht.
Für die Frage nach der optimalen Anzahl der Nadeln gilt als Faustregel: Viele Durchschläge = wenig Nadeln und hochwertiges Schriftbild = viele Nadeln.
Der Farbdruck:
Ist ein Nadeldrucker mit einer Kartusche für farbige Bänder sowie einem Hebemotor für das Farbband ausgestattet,
sind Ausdrucke in Farbe möglich. Das etwa 2,5 cm breite Band verfügt über 4 Streifen in den Farben Schwarz,
Blaugrün, Purpur und Gelb (CMYK). Je nachdem, welche Farbe gedruckt werden soll, hebt der Motor das Band in
die richtige Position. Obwohl das Farbband selbst nur 4-farbig ist, können die Geräte bis zu 7 Farben darstellen. Dies
geschieht durch die zweimalige Aktivierung der gleichen Nadel, mit einer anderen Farbe. Orange beispielsweise
entsteht, indem zunächst ein Punkt in Gelb und auf diesen Punkt ein zweiter in Purpur gedruckt wird.
Der Draftmodus:
●
●
draft = engl. = Entwurf
Im Draftmodus stehen vielen Druckern nur eine Schriftart zur Verfügung.
Der Draftmodus ist der schnellste Druckmodus. Die hohe Druckgeschwindigkeit wird dadurch erreicht, dass jeder
Punkt nur ein einziges Mal gedruckt wird. Die Zeilen werden somit vom Druckkopf nur überflogen, da nur wenige
Anschläge gemacht werden.
9-Nadel-Drucker führen in diesem Modus normalerweise 9 Anschläge aus.
24-Nadel-Ducker hingegen führen 12 Anschläge aus
●
●
●
Der NLQ- oder LQ-Modus:
●
●
(N)LQ = (Near) Letter Qualität = nahezu Briefqualität
Zur Darstellung von Zeichen werden in diesem Modus homogene Linien erzeugt. Diese homogenen Linien werden erreicht, indem die einzelnen Punkte
mehrmals, leicht versetzt gedruckt werden.
●
Die Druckgeschwindigkeit ist geringer als im Draftmodus.
●
9-Nadel-Drucker arbeitet in diesem Modus jede Zeile zweimal ab, jeweils mit leicht verschobenen Anschlägen.
●
●
24-Nadel-Drucker führen in diesem Modus für jedes Zeichen 3 getrennte Arbeitsschritte aus, was viel Zeit kostet.
Im NLQ-Modus sind mehr Schriftarten verfügbar als im Draftmodus.
Der Grafikmodus
●
●
●
●
●
●
●
Im Gegensatz zu den schon im Drucker fest installierten Zeichensätzen, die beim Druck von Texten benutzt werden, kennt der Drucker im Grafikmodus
nur die Darstellung von einzelnen Bildpunkten (Pixel).
Grafiken können nur erstellt werden, wenn ein entsprechendes Programm vorhanden ist, welches Textzeichen des ASCII-Codes in Grafikzeichen
umwandelt.
In diesem Modus werden alle Nadeln des Druckkopfes einzeln gesteuert.
Die Qualität des ausgedruckten Bildes steht im Grafikmodus im Vordergrund. Diese hängt wiederum von der Anzahl der abgebildeten Punkte pro Zoll ab.
9-Nadel-Drucker können eine Punktdichte bis zu 240 Punkte pro Zoll erreichen.
24-Nadel-Drucker können Punktdichten von 180, 240 und 360 dpi erreichen.
Der Grafikmodus ist von allen der langsamste.
Hersteller
Commodore
Quellen:
www.Nadeldrucker.com
www.stickybit.de
www.weihenstephan.de
www.computermuseum-muenchen.de
Tintenstrahldrucker (Ink Jet Printer)
"Tintenstrahldrucker arbeiten ähnlich wie Nadeldrucker, nur dass der Druckkopf keine Nadeln abschießt, sondern kleine Tintentropfen
auf das Papier überträgt. Da verschiedene Tintenfarben verwendet werden können, gibt es auch mehrfarbig druckende Geräte dieses
Typs. Tintenstrahldrucker erzeugen Ausdrucke hoher Qualität bei geringer Geräuschentwicklung."1 "Deswegen werden
Tintenstrahldrucker vor allem dort eingesetzt, wo mehrere Drucker in einem Büro benötigt werden (Ergonomie)."2 "Bei hohem
Druckaufkommen ist Laserdruckern jedoch im allgemeinen der Vorzug zu geben."1
Der Tintenstrahldrucker ist eine, zu "den anschlagfreien Druckern und zu den Zeilendruckern gehörige Druckerart. Tintenstrahldrucker
besitzen einen mit einer Reihe von Drüsen bestückten Druckkopf, der auf einer Schiene befestigt ist."3 "Tintenstrahldrucker sind
ebenfalls Matrixdrucker, nur dass hier anstelle der Nadeln, die die Farbe über ein Farbband auf das Papier übertragen, feine Tintendrüsen
verwendet werden, die die Tinte auf das Papier 'schießen'."1 Das "gedruckte Zeichen [wird] aus einzelnen Punkten eines festen Rasters
[zusammengesetzt]. Dabei werden einzelne Tintendrüsen "entsprechend kombiniert betätigt."1 "Wegen der Auflösung der Zeichen in
einzelne Punkte ist der Tintenstrahldrucker voll graphikfähig. Es ist ferner möglich, den Tintenstrahldrucker mit mehreren Düsenköpfen
für unterschiedliche Farben auszustatten, was allerdings nur wenig angewendet wird. Volle Farbfähigkeit ist damit nicht erreichbar, da
nur jeweils die Farben der unterschiedlichen Düsenköpfe in ungemischter Form gedruckt werden können."2
Bei diesem "[digitalen] Druckverfahren, das spezielle Tinte oder Tusche in Mikrotropfen [auflöst], gezielt und präzise auf den
Druckträger sprüht"4, beträgt die Auflösung "bereits 400 dpi (Dots Per Inch), durch Verkleinerung der Tröpfchen sind weitere
Verbesserungen möglich. [...] Beim Tintenstrahl unterscheidet man zwischen continuous flow* (ständige Tropfenerzeugung und
auffangen der nicht gebrauchten Tinte) und Drop-on-demand*. Hier wird nur dann ein Tropfen erzeugt, wenn er benötigt wird. Für den
Qualitätsdruck werden heute meist zwei unterschiedliche Techniken verwendet, ein thermisches (Bubblejet) und ein mechanisches
Verfahren (Piezo- Technologie)."4
"Beim Bubble-Jet-Verfahren befindet sich vor jeder Düse ein Heizelement, wobei durch Erhitzen der Tinte ein Teil verdampft und der
andere in Tropfenform auf das Papier geschleudert wird.
Bild 1: Bubble Jet-Verfahren
Beim Drop-on-Demand-Verfahren (dt. etwa "Tropfen auf Anforderung") bestehen die Düsen aus einem verformbaren Material und sind
von einem Stückchen Piezo- Keramik (Piezoelektrischer Kristall) umgeben. Durch Anlegen einer elektrischen Spannung verbiegt sich
das keramische Material schlagartig. Dadurch wird die Düse zusammen gepresst und ein Tintentropfen gegen das Papier geschleudert.
Unmittelbar danach weitet sich die Düse wieder, und es wird neue Tinte aus der Patrone angesaugt.
Bild 2: Piezo-Verfahren
Die Druckqualität von Tintenstrahldruckern ist der von Nadeldruckern weit überlegen. Die Flächen werden besser geschwärzt, diagonale
Linien verlaufen weniger gezackt und das typische Punktmuster ist nicht sichtbar. Dies ist hauptsächlich darauf zurückzuführen, dass die
Tinte etwas verschwimmt, wodurch Freiräume zwischen den Punkten geschlossen werden. Einen wesentlichen Einfluss auf die
Druckqualität hat das Papier. Empfohlen wird saugfähiges, grobfaseriges Papier. Es gibt auch spezielles Papier für Tintenstrahldrucker,
das mit Talkum behandelt ist. Die Druckqualität von Laserdruckern wird jedoch nicht erreicht.
"Tintenstrahldrucker sind preisgünstig, sehr leise (ca. 45 db(a) (Dezibel)) und schnell. Die Druckgeschwindigkeit liegt bei bis zu 600 cps
(Characters Per Second), die jedoch nicht an die Geschwindigkeit eines Laserdruckers heranreicht. [...] Die heute angebotenen
Tintenstrahldrucker reinigen die Düsen i.d.R. automatisch. Es besteht damit keine Gefahr mehr - wie es bei älteren Geräten der Fall war -,
dass die Düsen verstopfen. Insbesondere die Farb-Tintenstrahldrucker stellen eine Alternative zu anderen Druckerarten dar, da sie im
Vergleich zu anderen qualitativ hochwertigen Farbdruckern sehr preisgünstig angeboten werden."3
Bild 3: Tintenstrahldrucker mit Piezo-Verfahren
Bild 4: Tintenstrahldrucker
Funktionsbeschreibung
Drop-on-Demand
Beim Drop-on-Demand-Verfahren wird nur dann ein Tintentropfen erzeugt, wenn er zum Drucken erforderlich ist. In den Röhrchen herrscht im
Ruhezustand ein statischer Unterdruck, der die Tinte durch Kapillarwirkung in der Düse hält. Um die Tinte austreten zu lassen, werden zwei
Techniken verwendet. Das piezoelektrische Verfahren macht sich die Eigenschaften so genannter Piezokristalle zunutze. Diese ziehen sich beim
Anlegen von Spannung zusammen und dehnen sich bei Entfernung der Spannung wieder. Der Druckkopf trägt eine Reihe von Röhrchen aus
Piezokeramik, die alle einzeln anzusteuern sind. Beim Anlegen einer Spannung werden die Röhrchen sehr schnell zusammen gepresst, wodurch ein
Tröpfchen mit hohem Druck aus der Düse auf das Papier geschleudert wird. Nach Abnahme der Spannung vergrößert sich der Querschnitt des
Röhrchens auf seine ursprüngliche Form, neue Tinte wird aus dem Reservoir nachgezogen. Drucker mit Köpfen, die nach dieser Methode arbeiten,
werden als Piezojet bezeichnet.
Bubblejet-Verfahren
Dampfblasendruckköpfe (engl. Bubblejets) verwenden Hitze, um einen Tropfen zu erzeugen. An jeder einzelnen, ansteuerbaren Düse des Kopfes
befindet sich ein Heizelement. Die Tinte wird von diesem bis zum Verdampfen erhitzt, es entsteht eine Dampfblase. Durch ihre Ausdehnung treibt
die Blase die Tinte zwischen Düse und Heizelement aus der Düse tropfenförmig heraus. Nach einem Zeitraum im Bereich von Mikrosekunden
5
kondensiert die Blase, der Tintenaustritt wird gestoppt."
Quellenangabe
1
(vgl.) Gerhard Franken: PC & EDV Einsteigerlexikon, bhv-Verlag, 2. Auflage, Korchenbroich 1993, Seite 137; 209,
ISBN 3-89360-634-3
2
Hans Herbert Schulze: Computer Enzyklopädie-Lexikon und Fachwörterbuch für Datenverarbeitung und Telekommunikation,
Computer rororo-Verlag, Hamburg 1990, Seite 2650, ISBN 3-499-18141-X
3
Franz Grieser, Thomas Irlbeck: Computer Lexikon - Das Nachschlagewerk zum Thema EDV,
Deutscher Taschenbuch Verlag (dtv), München 1993, Seite 683; 684, ISBN 3423-503023
4
Prof. Dr. Hans Jochen Schneider (Hrsg.): Lexikon Informatik und Datenverarbeitung, Oldenbourg-Verlag, Version 4.0, München; Wien
1997, Seite 879, ISBN 3-486-22875-7
5
Lexikon-Institut Bertelsmann (Hrsg.): Informatik - EDV - Computertechnik, Bertelsmann Lexikon Verlag, Gütersloh 1994, Seite 373;
374, ISBN 3-570-01611-0
Der Laserdrucker weisst eine hohe Druckqualität als auch eine hohe Druckgeschwindigkeit
auf.
●
●
Laserdrucker arbeiten seitenorientiert, das heißt,vor dem Ausdruck wird
die ganze Seite berechnet und im Arbeitsspeicher des Druckers abgelegt.
Eine A4-Seite mit den Maßen 21 x 30 cm (~9 Mio. Pixel) benötigt Beispielsweise ca. 1,2
Megabyte.
Hätte der jeweilige Laserdrucker nur 512 Kilobyte Speicher,
würde der Druck nach einer halben Seite abgebrechen.
●
●
Zur Seitenbeschreibung haben sich zwei Standards durchgesetzt:
PostScript von Adobe und HP PCL (PCL = Printer Control Language).
●
PCL Printer Control Language
Die von der Firma Hewlett Packard für ihre Laser- und Tintenstrahldrucker entwickelte
Seitenbeschreibungssprache PDL. Aufgrund der weiten Verbreitung von Laserdruckern wurde
diese Befehlssprache für viele Drucker als Standardsprache übernommen.
●
Ein Verwandter des Laserdruckers ist der LED-Drucker.
Genauso wie beim LCS/LCD-Drucker gibt es nicht nur eine Lichtquelle,
die durch einen Polygon-Spiegel gesteuert wird, sondern eine ganze Diodenleiste,
die so breit ist wie eine Seite und 2400 LED-Elemente enthält.
Es ist jedoch Vorsicht geboten, denn Laser-/LED-Drucker produzieren
gesundheitsschädliches Ozon.
Außerdem können im Betrieb gesundheitsschädliche Stoffe wie Benzol und Styrol entstehen.
Bei Styrol gelten Konzentrationen unter 30 Mikrogramm als unbedenklich.
Benzol kann in geringsten Mengen die Entstehung von Krebs fördern.
●
●
Auflösung:
Die Auflösung eines Pixelbildes wird angegeben in ppi = pixel per inch
oder in ppc = pixel pro cm.
Je höher die Auflösung eines Bildes ist, desto mehr Details werden abgebildet.
●
Farbtiefe und Dateigröße:
Dateigröße für ein Bild von 6x4 Inch (15,24x10,16cm) bei einer Auflösung von 300 ppi.
(300)"x(6x4) = 2160000 Pixel
1-bit Modus
8-bit Modus
24-bit Modus
:
:
:
2160000x( 1:8) =
270000 Byte = 264 KByte
2160000x( 8:8) = 2160000 Byte = 2,06 MByte
2160000x(24:8) = 6480000 Byte = 6,18 MByte
●
Rasterweite:
Wird bezeichnet in Linien pro cm oder inch (Ipi = lines per inch)
Die Druckindustrie bezieht sich auf Linien pro cm
Beispiel :
60er Raster = 60 Linien pro cm
●
Jedes Pixel des Halbtonbildes wird durh jeweils einen Rasterpunkt abgebildet.
=> Auflösung des Bildes = Rasterweite
Beispiel:
Druck im 60er Raster = 150 Ipi
Bildauflösung mindestens 150 ppi
In der Praxis is die Bildauflösung = 2xRasterweite
●
Realisierbare Graustufen:
Die Anzahl der realisierbaren Graustufen hängt von der Auflösung des Aufgabegerätes
und der geforderten Rasterweite ab:
((Auflösung Ausgabegerät in dpi)/(Rasterweite in Ipi))" = Anzahl Graustufen
Beispiel:
Laserdrucker 600 dpi
Für eine vernünftige Bildqualität benötigtman mindestens 65 Graustufen.
- optimale Rasterweite 75 Ipi
- Bildauflösung 75 bis maximal 150 ppi
Funktionsablauf:
Hier schreibt ein Laserstrahl über ein aufwendiges Spiegelsystem auf eine Fotoleitertrommel(Selentrommel).
● Darauf wird ein Spannungsfeld erzeugt, das die Tonerteilchen anzieht.
● Das nun gleichmäßig an der Trommel vorbeigeführte Papier übernimmt diese Tonerteilchen, ein Hitzeelement schmilzt
anschließend den Toner auf dem Papier ein.
● Bei farblichen Darstellungen muss dieser Vorgang mehrfach wiederholt werden.
●
Produkteigenschaften: Produktbeschreibung: Brother HL 3450CN - Drucker - Farb - Laser Druckersprache: HP PCL 5C, Adobe
PostScript 3, EPSON FX, HP PCL 6, HP GL Max. Mediengröße: (Standard) Super B (330 x 483 mm), A3 plus (329 x 423 mm) Gesamte
Medienkapazität: 250 Blätter Druckausgabe: 24 Seiten/Min. - s/w - A4 (210 x 297 mm) 6 Seiten/Min. - Farb - A4 (210 x 297 mm) RAM
installiert (Max) 64 MB (384 MB) - SDRAM DIMM 100-PIN Max Auflösung Farbe 600 x 600 dpi oder S&W 600 x 600 dpi
Abmessungen (Breite x Tiefe x Höhe) 61.5 cm x 54 cm x 42 cm
● Sonstiges: Enthaltene Verbrauchsmaterialien: 1 x Tonerkassette (Schwarz) - 14000 Seiten 1 x Tonerkassette (Cyan) - 8500 Seiten 1 x
Tonerkassette (Magenta) - 8500 Seiten 1 x Tonerkassette (Gelb) - 8500 Seiten
●
Allgemeines
Der Laserdrucker weisst eine hohe Druckqualität als auch eine hohe Druckgeschwindigkeit
auf.
●
●
Laserdrucker arbeiten seitenorientiert, das heißt,vor dem Ausdruck wird
die ganze Seite berechnet und im Arbeitsspeicher des Druckers abgelegt.
Eine A4-Seite mit den Maßen 21 x 30 cm (~9 Mio. Pixel) benötigt Beispielsweise ca. 1,2
Megabyte.
Hätte der jeweilige Laserdrucker nur 512 Kilobyte Speicher,
würde der Druck nach einer halben Seite abbrechen.
●
●
Zur Seitenbeschreibung haben sich zwei Standards durchgesetzt:
PostScript von Adobe und HP PCL (PCL = Printer Control Language).
Es ist jedoch Vorsicht geboten, denn Laser-/LED-Drucker produzieren
gesundheitsschädliches Ozon.
Außerdem können im Betrieb gesundheitsschädliche Stoffe wie Benzol und Styrol entstehen.
Bei Styrol gelten Konzentrationen unter 30 Mikrogramm als unbedenklich.
Benzol kann in geringsten Mengen die Entstehung von Krebs fördern.
●
●
Auflösung:
Die Auflösung eines Pixelbildes wird angegeben in ppi = pixel per inch
oder in ppc = pixel pro cm.
Je höher die Auflösung eines Bildes ist, desto mehr Details werden abgebildet.
●
Farbtiefe und Dateigröße:
Dateigröße für ein Bild von 6x4 Inch (15,24x10,16cm) bei einer Auflösung von 300 ppi.
(300)"x(6x4) = 2160000 Pixel
1-bit Modus
8-bit Modus
24-bit Modus
●
:
:
:
2160000x( 1:8) =
270000 Byte = 264 KByte
2160000x( 8:8) = 2160000 Byte = 2,06 MByte
2160000x(24:8) = 6480000 Byte = 6,18 MByte
Rasterweite:
Wird bezeichnet in Linien pro cm oder inch (Ipi = lines per inch)
Die Druckindustrie bezieht sich auf Linien pro cm
Beispiel :
60er Raster = 60 Linien pro cm
●
Jedes Pixel des Halbtonbildes wird durch jeweils einen Rasterpunkt abgebildet.
=> Auflösung des Bildes = Rasterweite
Beispiel:
Druck im 60er Raster = 150 Ipi
Bildauflösung mindestens 150 ppi
In der Praxis is die Bildauflösung = 2xRasterweite
●
Realisierbare Graustufen:
Die Anzahl der realisierbaren Graustufen hängt von der Auflösung des Aufgabegerätes
und der geforderten Rasterweite ab:
((Auflösung Ausgabegerät in dpi)/(Rasterweite in Ipi))" = Anzahl Graustufen
Beispiel:
Laserdrucker 600 dpi
Für eine vernünftige Bildqualität benötigt man mindestens 65 Graustufen.
- optimale Rasterweite 75 Ipi
- Bildauflösung 75 bis maximal 150 ppi
Zur Übersicht
Funktionsweise
●
Hier schreibt ein Laserstrahl über ein aufwendiges Spiegelsystem
auf eine Fotoleitertrommel(Selentrommel).
●
Darauf wird ein Spannungsfeld erzeugt, das die Tonerteilchen anzieht.
Das nun gleichmäßig an der Trommel vorbeigeführte Papier übernimmt diese
Tonerteilchen,
●
ein Hitzeelement schmilzt anschließend den Toner auf dem Papier ein.
●
Bei farblichen Darstellungen muss dieser Vorgang mehrfach wiederholt werden.
Zur Übersicht
Laserdrucker Heute
●
Produkteigenschaften:
Produktbeschreibung: Brother HL 3450CN - Drucker - Farb - Laser
Druckersprache: HP PCL 5C, Adobe PostScript 3, EPSON FX, HP PCL 6, HP GL
Max. Mediengröße: (Standard) Super B (330 x 483 mm), A3 plus (329 x 423 mm)
Gesamte Medienkapazität: 250 Blätter
Druckausgabe: 24 Seiten/Min. - s/w - A4 (210 x 297 mm)
6 Seiten/Min. - Farb - A4 (210 x 297 mm)
RAM installiert (Max) 64 MB (384 MB) - SDRAM DIMM 100-PIN
Max Auflösung Farbe 600 x 600 dpi
oder
S&W 600 x 600 dpi
Abmessungen (Breite x Tiefe x Höhe) 61.5 cm x 54 cm x 42 cm
●
Sonstiges:
Enthaltene Verbrauchsmaterialien:
1 x Tonerkassette (Schwarz) - 14000 Seiten
1 x Tonerkassette (Cyan) - 8500 Seiten
1 x Tonerkassette (Magenta) - 8500 Seiten
1 x Tonerkassette (Gelb) - 8500 Seiten
Zur Übersicht
Quellen
quelle 1
quelle 2
quelle 3
Scanner
Definition:
Der Scanner ist ein Gerät zur Digitalisierung von Text- und Bildinformationen. Er erzeugt ein Pixelbild der analogen Vorlage.
Aufbau und Funktionsweise
Der generelle Aufbau und die Funktionsweise soll hier anhand des Flachbettscanners erläutert werden. Da diese die am weitesten verbreitete Form
von Scannern ist.
schematischer Aufbau und die wichtigsten Teile:
●
●
●
●
●
●
●
●
●
●
●
●
A/D-Wandler: hier ein CCD-Chip
Linsen
Filter (für die 3 Farbbereiche rot, grün, blau)
Spiegel und Linse
Scannerkopf mit Lichtquelle (Leuchtstoff- lampe), Spiegel, Filter und
dem CCD-Array
Schlitten mit Scannerkopf
Schrittmotorriemen für Verbindung des Schlit-tens mit Schrittmotor
Stabilisierungsschiene für Schlitten
Auflageplatte und Deckel
Stromversorgung
Schnittstelle zum Rechner (SCSI , Parallel Port, USB)
Kontrolleinheit zur Steuerung der Mechanik
Scantechniken
Trotz der Vielzahl an Scannern arbeiten fast alle nach dem gleichem Prinzip
●
●
●
●
Beleuchten der Bildvorlage
einfallendes Licht wird mehr oder weniger stark reflektiert
"dunkle" Stellen saugen den Lichtstrahl auf "helle" Stellen reflektieren ihn
Die Reflexion wird dann an lichtempfindliche elektronische Bauteile geleitet
Scanprinzip: Graustufenscanner (Flachbettscanner)
●
●
●
●
●
●
●
●
●
●
●
●
●
Beim Scanvorgang wird das Dokument in eine Matrix aus Bildpunkten zerlegt welche dann einzeln erfasst werden.
Nun fährt der Schlitten mit dem Scankopf zur ersten Zeile.
Jetzt wird jeder einzelne Zeilenvektor über das Spiegelsystem und die Linse erfasst.
Für jeden Zeilenvektor wird das einfallende Licht von der Linse auf den Zeilensensor gerichtet und jeweils ein Streifen der Vorlage
angeleuchtet.
Das reflektierte Licht , bzw. durchgelassene Licht wird dann über die Spiegel auf die CCD-Zeile übertragen.
Dort werden die Photonen durch Siliziumatomen absorbiert. Im Durchschnitt entsteht ein Elektron bei 2 auftreffenden Photonen.
Die auftreffenden Elektronen werden eine zeitlang in "Potentialwällen" oder anders gesagt Pixeln (äquivalent zu Bildpunkten des
Fernsehers) auf der CCD -Leiste gespeichert
Diese kann man sich als Kapazitäten vorstellen.
Durch unterschiedliche Lichtintensitäten werden nun auch sehr unterschiedliche Ladungen angesammelt .
Somit wird aus dem optischen Bild was auf der CCD abgebildet wird ein elektronisches Gegenstück erzeugt.
Als nächstes wird das elektronische Bild ausgelesen indem die einzelnen Pixelreihen an ein Ausgaberegister überführt werden.
Dort wird jedes Pixel (Ladung) in digitale Signale umgewandelt. Hierbei ergeben unterschiedliche Ladungen unterschiedliche Zahlenwerte
die dann von der Software verarbeitet werden und die Helligkeit des jeweiligen Bildpunktes angeben.
Zum Schluss fährt der Schrittmotor über den Riemen den Schlitten einen Zeilenvektor weiter und selbiges beginnt von vorn
Nun muss das Bild noch Farbe bekommen :
●
dafür brauchen wir nach dem >RGB-Modell für jede Grundfarbe (Rot, Grün, Blau) einen Messwert suma-sumarum sind das 3 Messwerte
Die 3 Farbtechniken
Filtertechniken
SinglePass :
●
●
●
●
3 CCD Zeilen mit jeweils einem Filter für jede Grundfarbe
die Farben werden dann von der Software nach den anteiligen Verhältnissen gemischt
nur ein Scanlauf pro Zeilenvektor
wird am häufigsten verwendet da schneller als ThreePass
ThreePass :
●
●
●
Vorlage wird 3 mal abgetastet für jede Grundfarbe einmal
bei jedem Durchgang ein anderer Filter so das nur die entsprechenden Farbinformationen erfasst werden
sehr langsam und daher seltener verwendet
Prismentechnik
●
●
●
hier wird das Licht einer weißen Lampe durch ein Prisma in die Rot,Grün,Blauanteile zerlegt
3 CCD Zeilen verarbeiten auch hier wieder gleichzeitig die jeweiligen Farbinformationen
nur ein Scanlauf pro Zeilenvektor
Fluoreszenslampen
●
anstatt 3 Filter wie beim ThreePass werden 3 farbige Fluoreszenz-Lampen eingesetzt
Auflösung
physikalische Auflösung
●
●
●
●
●
sie gibt an wie viele Bildpunkte pro Zoll in der Lange und Breite tatsächlich
eingelesen werden
in der Scanrichtung ist die Genauigkeit des Schrittmotors für die Auflösung
verantwortlich
in der ScanZeile ist entscheidend wie viele CCD-Elemente auf dem
Scankopf sind
kann in beide Richtungen unterschiedlich sein zum Beispiel 300 dpi * 600
dpi
wird in DPI ( Dotch per Inch angegeben )
Riemen und Schrittmotor
interpolierte Auflösung
●
●
●
●
●
●
meist Marketingtrick
Interpolation gibt an wie hoch die erreichbare Auflösung ist die durch die Scannersoftware in Verbindung mit dem Drucker erreicht wird
durch ein mathematisches Verfahren wird der dpi Wert künstlich verbessert
dabei werden zwischen den tatsächlich gescannten Bildpunkten zusätzliche Punkte eingefügt
die Pixeldichte wird größer aber mehr Details kommen nicht dazu
feine Strukturen fließen dadurch zusammen und wirken runder und klobiger
Scanner-Typen
Es gibt eine Vielzahl verschiedener Scanner welche sich im Aufbau der Funktion sowie in den jeweiligen Anwendungsbereichen unterscheiden.
Das generelle Verfahren der Digitalisierung ist im Grundprinzip bei jedem Scanner gleich.
Die wichtigsten sollen hier kurz vorgestellt werden :
Trommelscanner
●
●
●
●
●
ist der älteste Scannertyp
liefert die exaktesten Ergebnisse mit einer Auf-lösung bis zu 12000
dpi
bis heute unerreichtes Tempo und Qualität
Vorlage wird um eine Trommel gewickelt und bewegt sich
schraubenförmig unter dem Be-leuchtungs- und Abtastsystem
das lichtempfindliche Element ist ein Photo-multiplexer an dem die
Vorlage sowohl horizontal als auch vertikal vorbei wandert
Handscanner
●
●
●
●
●
wie der Name sagt muss er von Hand über die Vorlage gezogen werden
einzelne Modelle hatten eingebauten Motor und sind von selbst über die Vorlage
gelaufen
sehr ungenau
waren zu klein für ein A4 Blatt
ganz von der Bildfläche verschwunden
Einzugsscanner
●
●
●
●
gleiche Aufbau wie Faxgerät
die CCD-Leisten sind fest verbaut und die Vorlage wird daran entlang geführt
nur Einzeldokumente verarbeitbar
optimal für größere Mengen
Overheadscanner
●
●
●
●
gleiten über die einzulesende Fläche hinweg
es gibt Modelle die ohne Lichtquelle nur mit Tageslicht arbeiten
gibt es in unterschiedlichen Größen vom Tischgerät bis hin zum
fest installierten Hallengerät
finden zum Beispiel Einsatz in der Automobilbranche zum
Katalogisieren und Archivieren von Objekten
Es gibt noch eine Vielzahl weiterer Scanner welche uns im alltäglichen Leben begegnen z.B. Kassenscanner zum Lesen von Barcodes.
Einzelteile eines Scanners
CCD-Zeile
Spiegel mit Linse
Scankopf mit Lampe
Stabilisierungsschiene
Anschlüsse, Schnittstellen
Auflageplatte
RGB-Modell
EimerSchema einer CCD
Glossar
Abwärtskompatibel: Programme, die Daten einer "alten" Programmversion mit einer "neuen" Programmversion verarbeiten können,
sind abwärtskompatibel.
ADC: Analog-Digital-Converter, wandelt analoge Signale in digitale Signale um
AGP Bus: Accelerated Graphics Port
Architektur: Aufbau und grundsätzliche Struktur ganzer Systeme. Beinhaltet das Konzept der internen Steuerung oder die Art der
internen Speicherung.
ASCII: American Standard Code of Information Interchange
ATA: Advanced Technology Attachments
ATX: AT Extended
Bandbreite: Bezeichnet die Übertragungsleistung eines Leitungssystems und wird in Bit/s, bzw. in MBit/s angegeben.
BAT: Baby-AT
Befehlssatz: Alle Befehle, die von einem Programm, dem Prozessor oder einer Programmiersprachen unterstützt werden.
Benchmark: Maßstab für einen Leistungsvergleich. Sei es für Hard- und Software.
BIOS: Basic Input Output System
Bit: Binary Digit. Die kleinste Informationseinheit im binäre Zahlensystem, die einer Speicherzelle entspricht. Ein Bit kann entweder den
Wert 0 oder 1 annehmen.
Cache: (First-Level, Second-Level) Ein schneller Puffer, der Daten zwischenspeichert und diese immer wieder sehr schnell zur
Verfügung stellen kann.
CCD: Charge-Coupled-Device, CCD-Sensoren sind elektrooptische Bauteile die den ankommenden Lichtstrom in Form einer Ladung in
einem Kondensator festhalten
cd: candela - Leuchtkraft angegeben in cd/m2
CD-R: CompactDisc Recordable
CD-RW: CompactDisc Rewriteable
CHS: Zylinder (Cylinder), Kopf (Head) und Sektor (Sector)
CMOS: Complementary Metal Oxide Semiconductor. Die CMOS-Technik ist ein Fertigungsverfahren, durch das die CPU besonders
stromsparend arbeitet und weniger Hitze erzeugt.
Coprozessor (FPU): Zusätzlicher Prozessor, der für komplexe Berechnungen zuständig ist. Steigert die Performance des GesamtComputer-Systems bei der Nutzung rechenintensiver Programmen (z.B. Grafik-Programme).
cps: Character Per Second (Buchstaben pro Sekunde)
CPU: Central Processor Unit
CRC: Cyclical Redundancy Check - Prüfsummenverfahren
CRT: Cathode Ray Tube
Cursortasten: Cursortasten heißen die vier Pfeiltasten im rechten Tastaturfeld. Mit ihnen kann man Einfüge-Marken (englisch "cursor")
in alle vier Richtungen verschieben.
DAC: Digital-Analog-Converter, wandelt digitale Signale in analoge Signale um
DAT: Digital Audio Tape
db(a): Dezibel
DCE: Data Communications Equipment, DÜE (Datenübertragungseinrichtung)
DDR-RAM: Double Data Rate RAM
Decoder: Gerät zur Entschlüsselung von binären Signalen.
DIB: Dual Independent Bus. Pentium-Pro- und die Pentium Il-CPUs sind in DIB-Architektur gefertigt. Diese besteht aus zwei
voneinander unabhängigen Bus-Systemen. Ein Datenbus geht zum Cache, der andere zum Speicher.
DIMM: Dual In-line Memory Module
DLT: Digital Linear Tape
DMA: Direct Memory Access
DPI: dots per inch (Punkte pro Zoll)
DRAM: Dynamic RAM
DSTN: Double Super Twisted Nematic
DTE: Data Terminal Equipment, DEE (Datenendeinrichtung)
E/A-Geräte: Eingabe/Ausgabe Geräte
ECC: deutsch: Fehlerkorrektur
EDO-RAM: Extended Data Output RAM
ED-RAM: Enhanced DRAM
EIA: Electronics Industries Association
E-IDE Bus: Enhanced Integrated Drive Electronics
EISA: Extended Industrie Standard Architechture
Environment Mapping: Ein Objekt wird mit einer metallischen Oberfläche überzogen, in der sich die Umgebung
scheinbar spiegelt.
EXT2FS: extended filesystem 2
FAT: File Allocation Table
FPM-RAM: Fast Page Mode RAM
FPU: Mathematischer Coprozessor
HDD: Hard Disk Drive
HFS: Hirachical File System
HPFS: High Performance File System
HVD: High Voltage Differential
IDE: Integrated Drive Electronics
IEEE 1394, FireWire, i.LINK: Die IEEE 1394-Technologie wurde von Apple entwickelt und erhielt den Namen "FireWire". Dieser
Begriff bezeichnet eine verhältnismäßig neue serielle Schnittstellentechnologie für Computer- und Videogeräte zur Übertragung digitaler
Daten mit bis zu 400 MBit/sec.
IPS: Inplane Switching Technologie
IrDA: Infrared Data Access
ISA: Industrie Standard Architechture
LCD: Liquid Cristal Display (Flüssigkristallbildschirm)
LVD: Low Voltage Differential
MFT: Master File Table
Microcode: Summe der Mikroprogramme (Programme zur Steuerung der Kontrolleinheit eines Prozessors), die dem Prozessor die
Anweisungen zum Abarbeiten der Befehle übermitteln.
MIPS: Mega Instructions Per Second. Millionen Anweisungen pro Sekunde. Leistungsbemessung für Prozessoren.
MMX: Multi-Media eXtension
MO: magnetooptisch
Modem: Modulator/Demodulator
Multitasking: Gleichzeitiges Ausführen von mehr als einem Programm.
MVA: Multi Domain Vertical Alignment
Non-Impact Drucker: anschlagfreie Drucker
NTFS: New Technology File System
Null Modem: Ein RS-232 Kabel, das zwei Geräte direkt verbindet ohne Modems zwischen zu schalten.
P-Rating: Pentium Rating. Ein Art Prozessoren zu klassifizieren. Der Wert gibt nicht die Taktfrequenz der CPU an, sondern die Leistung
eines gleichwertigen Intel Pentium Prozessors an.
PC: Personal Computer
PCI Bus: Peripheral Component Interconnect
Pixel: So werden die einzelnen Bildpunkte genannt. Mit der Auflösung ist die Pixelmenge bzw. deren Flächenangabe gemeint, die der
Monitor darstellt (Pixel in der Breite x Pixel in der Höhe).
Port: Anschluss, Schnittstelle
QUI: Quarter Inch Cartridge
PS/2: PersonalSystem 2
RAM: Random Access Memory
RAMDAC: Random Access Memory Digital/Analog Converter. Ausgangsstufe auf Grafikkarten. Wird heute fast ausschließlich in den
Grafikchip integriert.
RAID: Redundant Array of Inexpensive Disks
RDRAM: Rambus DRAM
Register: Speicherbereich eines Prozessors.
RGB-Modell: ist ein additives Farbmodell. Die Farben werden anteilig aus den Grundfarben Rot Grün Blau zusammengesetzt. Dabei gibt
ein 100%iger Anteil jeder Grundfarbe die Farbe weiss.
RIMM: Rambus In-line Memory Module
ROM: Read Only Memory
Sampling: Das Sampling ist das Digitalisieren von analogen Audiosignalen.
Samplingrate(Abtastrate): Die Abtastrate bestimmt, wie oft der Originalton pro Sekunde abgetastet wird. Je öfter ein Ton abgetastet
wird, desto besser ist die Aufnahme-Qualität, desto höher ist aber auch der Speicherbedarf.
Samplingtiefe(Abtasttiefe): Die Abtasttiefe legt die Genauigkeit des Sampling fest.
SCSI: Small Computers System Interface
SDRAM: Synchronous Dynamic RAM
SE: Single Ended
Serial-ATA: Serial AT Attachment
SGRAM: Synchronous Graphics Random Access Memory
SIMM: Single In-line Memory
Slot: Steckplatz
SMBus: System Management Bus
Split Voltage: Die Split-Voltage-Technik dient dazu, Energie zu sparen und die Abwärme im PC zu reduzieren. Der MMX-Prozessor von
INTEL arbeitet nach außen mit einer Spannung von 3,3 Volt, die Spannung im Prozessorkern beträgt dagegen nur 2,8 Volt.
SRAM: Static RAM
STN: Super Twisted Nematic (super verdreht nematisch)
Superskalar: Ein superskalarer Prozessor besitzt zahlreiche Ausführungseinheiten für Befehle (Pipelines), so dass sie mehrere Befehle
gleichzeitig abarbeiten kann.
Sublimation: Wechsel des Aggregatzustandes von fest zu gasförmig
Taktrate: Die interne Taktrate, auch CPU-Takt genannt, bezeichnet das Tempo, mit dem die CPU intern die Befehle abarbeitet. Die
externe Taktrate, auch "Systemtakt" oder "Front Side Bus (FSB)" genannt, legt fest, mit welcher Geschwindigkeit der Prozessor auf den
Arbeitsspeicher zugreift. Den Systemtakt gibt das Motherboard vor.
TFT: Thin Film Transistor (Dünnfilmtransistor)
TN: Twisted Nematic (verdreht nematisch)
UART: Universal Asynchronous Receiver Transmitter
USB: Universal Serial Bus
VRAM: Video Random Access Memory
VRML: Virtual Reality Modelling Language
ZIF: Zero Insertion Force
3DNow!: Erweiterung der x86-Prozessorarchitektur von AMD (ähnlich wie MMX), die deutlich gesteigerte Gleitkomma-Rechenleistung
für die 3D Grafik- und Multimedia-Anwendungen auf gängigen PC-Konfigurationen unter MS Windows bietet. Vorteile der 3DNow!Technologie sind verbesserte 3D-Leistung, erstklassige Ton- und Videowiedergabequalität sowie eine höhere Internet-Performance.
3DNow! muss durch die Software unterstützt werden.