Allgemein - BA Mannheim, BA Gera
Transcription
Allgemein - BA Mannheim, BA Gera
● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● Prozessor ROM-Bausteine RAM-Bausteine Motherboard Schnittstellen Festplatte Tastatur Maus Grafikkarte CRT-Monitor LCD-Monitor TFT-Monitor Soundkarte Diskettenlaufwerk CDROM-Drive DVD-Drive Streamer / Tape MO-Drive Thermodrucker Nadeldrucker Tintenstrahldrucker Laserdrucker Scanner Glossar Praktische DV Ein HTML-Tutorial Anton Flegar BA-Gruppe TIT02AGR 5.12.2002 Geschichte der Prozessoren 1971 INTEL: bringt den 4004 auf den Markt ● ● ● Der Prozessor ist der "erste Computer auf einem einzigen Chip" Taktrate von 108 kHz 2300 Transistoren 1974 INTEL: Nachfolger des 4004 ist der 8080 ● 8-Bit-Prozessor mit 6000 Transistoren und 2 MHz Taktfrequenz MOTOROLA: präsentiert mit dem 6808 ihren ersten 8-Bit- Mikroprozessor 1975 AMD: stellt den 8080A vor ZILOG: Firmengründung (zwei ehemalige Intel-Mitarbeiter) ● ● Z80 (8-Bit-Prozessor) verarbeitet mehr Befehle und ist schneller als der 8080 Zeitweise verkauft er sich sogar besser als der Intel-Prozessor 1977 APPLE: bringt den Apple II auf den Markt ● 6502-Prozessor (entwickelt von einem ehemaligen Motorola-Mitarbeiter) 1978 INTEL: 8086 (16-Bit Prozessor) ● ● ● ● Beginn der Erfolgsgeschichte von Intels 80x86-Familie Alle Folge-Prozessoren sind abwärtskompatibel zum 8086 29.000 Transistoren und eine Taktfrequenz von 5 (später 10) MHz 330.000 Befehle pro Sekunde NEC: Nachbau des 8086 von Intel (NEC V20) ● einige Verbesserungen in der Architektur (etwas leistungsfähiger) 1979 INTEL: 8088 (günstigere 8086 Version) ● ● behält intern seinen 16-Bit-Datenbus, arbeitet extern jedoch nur mit einem 8 Bit breiten Datenpfad Intel vergibt Second-Source-Lizenzen (Nachbau der Prozessoren 8088, 8086) an andere Chip-Hersteller (AMD, IBM, SGS Thomson, Siemens) NEC: Nachbau heißt V30 MOTOROLA: 68000 ● 16-Bit-Prozessor mit 68.000 Transistoren 1980 Siemens: erste x86-CPUs (SAB 8086 / SAB 8088) 1981 IBM: beschließt seine PCs mit Intels 8088 auszustatten ● ● Freigabe der IBM-PC-Architektur für den Nachbau Der IBM-PC-kompatible Rechner tritt seinen Siegeszug an (mit jeder Entwicklungsstufe steigt die Anzahl der Transistoren, die Leistung nimmt stets zu) MOTOROLA: beweist mit Benchmarks, dass der 68000 leistungsfähiger ist als der 8086 ● 68000 steuert auch Apples Lisa, einen der Vorläufer des legendären Macintosh AMD: präsentiert einen eigenen 8086 INTEL: 16-Bit-Prozessor 80286 ● 130.000 Transistoren 1982 INTEL: wird zum bevorzugten Prozessor-Lieferanten für nahezu alle Hersteller von IBM-PC-kompatiblen Rechnern AMD und Siemens erhalten eine erweiterte Fertigungslizenz für die Intel-x86-Familie, die bis zum Jahr 1995 gültig ist SIEMENS: präsentiert den 286-Clone SAB 80286 AMD: stellt den 8088 vor 1984 MOTOROLA: stellt die 32-Bit-CPUs 68010 und 68020 vor AMD: präsentiert seinen ersten 286er, den Am286 ● Taktfrequenz 16 MHz INTEL: 80386 (erste 32-Bit-CPU) ● ● taktet anfangs mit 16 MHz. (keine Nachbaurechte an Zweithersteller) 275.000 Transistoren 1985 INTEL: 80386 in den folgenden Jahren mit 20, 25 und schließlich mit 33 MHz ● multitaskingfähig NEC: präsentiert V60 (32-Bit- Prozessor) 1986 NEXGEN: Firmengründung ● beginnt x86-Prozessoren der fünften Generation zu entwickeln MOTOROLA: präsentiert den 68030 ● 300.000 Transistoren INTEL: bekommt Copyright auf den Microcode seiner Prozessoren. Keine Lizenzen mehr an Zweithersteller (Hersteller sind damit von Intel abhängig). 1987 ZILOG: präsentiert den Z280 (16-Bit-Version des Z80) 1988 CYRIX: Firmengründung ● Das Unternehmen fertigt zunächst mathematische Coprozessoren AMD: entwickelt den 286 weiter ● CPU in CMOS-Technik taktet mit 20/25 MHz und erreicht fast das Niveau eines 386-Prozessors INTEL: kostengünstiger 80386SX mit 16 statt 32 Bit Bandbreite ● ● Auslieferung ohne FPU; Nachrüstung optional möglich das Logo "intel inside" wird eingeführt NEC: V70 ● laut Hersteller 15 Mips 1989 INTEL: 80486 ● ● ● ● ● ● ● über 1,2 Millionen Transistoren mathematische Coprozessor ist ab sofort im Hauptprozessor integriert ein 8 KB großer Cache für Daten und Instruktionen sowie ein Cache-Controller sind erstmals auf dem 486er integriert Prozessor taktet anfangs mit 25 MHz 80486SX Low-Cost-Version ohne FPU und mit 16 MHz Takt ab dem 486DX2 eine neue Technik: Die CPUs takten intern höher als extern (Taktfrequenz). Wärmeprobleme bei der 486er Reihe; Fertigung später mit 3 Volt anstatt mit 5 Volt AMD: 286-Prozessoren werden immer höher getaktet MOTOROLA: präsentiert den 68030 ● ● ● mit 50 MHz Takt und externer FPU darauf folgt der 68040 wie der 80486: integrierte FPU sowie internen Cache 1990 AMD: eigener 386-Prozessor "Am386" ● arbeitet mit Intels Microcode 1991 AMD: erster Clone von Intels 80386DX ● ● Am386DX taktet anfangs mit 20, später mit 40 MHz später 386SX-Clone Am386SX mit 25 MHz Takt´ 1992 CYRIX: erster Mikroprozessor Cx486 ● ● 386SX-Clone kommt als Cx486SLC mit 25 MHz Takt (intern und extern) danach Cx486DLC mit 33 MHz (nur 1 KB Cache und keine FPU) AMD: Entwicklung von 486-kompatible Nachbauten (Am486), die auf einem eigenen Microcode basieren (wegen Rechtsstreit mit Intel) ● Am486SX (5 Volt), Am486SXLV (3,3 Volt) so wie den Am486SX2 in 3,3- und 5-Volt-Technik 1993 INTEL: fünfte Generation - Der "Pentium" (anstatt 80586) ● schafft zwei Befehle pro Taktzyklus ● Er wird anfangs in 5-Volt-Technik gefertigt und taktet mit 60 MHz oder 66 MHz ● einer Strukturbreite von anfangs 0,8 später 0,35 Mikron ● 3,1 Millionen Transistoren ● Der Datenzugriffsbeschleunigung durch zwei interne 8 KB große Caches ● externer Datenbus zum Hauptspeicher ist jetzt 64 Bit breit ● Verbesserung in der Fließkommaberechung (3x so schnell wie ein 486er) AMD: weitere 486DX-Clones ● den Am486DX/40 (40 MHz Takt), den Am486DX2/50 (50/25 MHz) und den Am486DX2/66 (66/33 MHz) CYRIX: neue 80486-CPU ● ● Cx486S mit 33 und 40 MHz Takt Cx486SLC2 mit 40/20 und 50/25 MHz (intern/extern) AMD: entwickelt einen x86-Prozessor der fünften Generation 1994 Januar CYRIX: weitere 486-Kopien ● Cx486DX und Cx486DX2 mit gleichen Eckdaten wie die Intel-Originale Februar INTEL: Pentium mit 3,3-Volt-Technik ● ● Taktfrequenzen von 90/60 und 100/66 preiswerte Einstiegsversion mit 75/50 MHz März CYRIX: Upgrade Prozessor Cx486DRx2 ● ● ● 40 bis 50 Prozent mehr Leistung für 386-PCs CPU besitzt einen von Cyrix selbst entwickelten 486-Befehlssatz taktet mit 32/16, 40/20 und 50/25 MHz NEXGEN: Prozessor der fünften Generation (superskalare CPU) ● ● ● ● ● ● mit 60 und 66 MHz interner wie externer Taktrate Sie verfügt über einen segmentierten Cache zwei getrennte Daten- und Befehls Caches mit je 16 KB ein 64 Bit breiter Datenbus beim Nx586 ist die FPU nicht integriert der Cache-Controller befindet sich in der CPU ● spezieller Cache-Bus erlaubt es, den Second-Level-Cache mit voller CPU-Geschwindigkeit zu betreiben April Die Zusammenarbeit zwischen Intel und IBM geht in die Brüche IBM: arbeitet von nun an mit Cyrix ● 5 Jahres-Vertrag: Entwicklung des CPU-Designs durch Cyrix und Produktion der Prozessoren durch IBM Juni CYRIX/IBM präsentieren den Cx486DX2 ● ● ● mit 66/33 sowie mit 80/40 MHz erhältlich besitzt 8 KB internen Cache später mit 3,3-Volt-Technik als Cx4S6DX2-V66 und C486DX2-V80 August AMD: Am486DX2 gibt es jetzt auch mit 80/40 MHz NEXGEN: schließt mit IBM ein Produktionsabkommen September NEXGEN: präsentiert neue Versionen seines Nx586 ● ● ● ● mit Taktraten von 70, 75, 84 und später 93 MHz 64-Bit-Datenpfad 32 KB großer Cache immer noch keine FPU Oktober CYRIX: Cx486DX2 mit 100 MHz interner Taktrate November INTEL: Fehler in der 4:3 Fließkomma-Einheit des Pentium-Prozessors Dezember AMD: präsentiert den Am486DX4 ● ● 3,3-Volt Prozessor mit 8 KB internem Cache mit einer internen Taktrate von 100 MHz und einem Systemtakt von 33 oder 50 MHz 1995 März INTEL: Vorstellung der 120-MHz-Version des Pentium Juni CYRIX: präsentiert den 32-Bit-Prozessor 5x86/100 ● ● einen 486er mit 100 MHz internem Takt (kurz darauf auch mit 120 und 133 MHz) und 16 KB Cache der Systemtakt beträgt 33 MHz INTEL: Pentium taktet nun mit 133 MHz AMD: bringt eine 120-MHz- Version seines 486DX4 auf den Markt Juli Texas Instruments will mit einem 486SX-ähnlichen Chip in das 486-Geschäft einsteigen Oktober NEXGEN: liefert erste Modelle des Nx586 mit 120 MHz aus ● ● ● neuen Chip: Der Nx686 kommt mit 48 KB internem Cache (32 KB Daten/ 16 KB Befehle) internen Takt von 180 MHz weitere Besonderheit sind die Multimedia-Befehle, die auf einer speziellen Einheit integriert sind AMD: Übernahme von Nexgen (kommt mit der Entwicklung eines eigenen Microcodes nicht weiter) November INTEL: Pentium Pro gibt es mit 150, 166, 180 und 200 MHz interner Taktrate ● ● ● ● 5,5 Millionen Transistoren Hohe Datentransferraten erzielt der Pentium Pro aufgrund seiner DIB-Architektur (erstmals bei Nexgens Nx586 eingesetzt) Erstmals ist in einem Intel-Prozessor der Second-Level-Cache gleich in die CPU integriert Optimierung auf 32 Bit Operationen Dezember CYRIX: stellt zusammen mit IBM und SGS Thomson seine sechste Prozessorengeneration vor: 6x86 (Codename M1) ● ● ● ● ● 6x86 PR12O taktet intern mit 100 MHz (extern mit 50 MHz) 16 KB interner Cache 3,3-Volt Unter bestimmten Bedingungen zum Teil schneller als der Pentium 133 und der Pentium Pro benötigt ein angepasstes Bios, um seine volle Leistung zu entfalten 1996 Januar INTEL: Pentium taktet jetzt mit 150 und 166 MHz AMD: ab sofort darf AMD für seine 586-CPU und nachfolgende Chip-Serien lediglich den Intel-Befehlssatz verwenden - die Microcode-Technik muss AMD selbst entwickeln. Februar AMD: präsentiert den Am5x86 ● März Der 486DX-Prozessor taktet intern mit 133 MHz (extern: 33 MHz) IBM/CYRIX: bringen den 6x86 (M1) auf den Markt ● erhältlich als PR133+ (100/50MHz), PR15O+ (120/60 MHz) und als PR166+ (133/66 MHz) AMD: präsentiert den K5 PR75 (75MHz); später folgt der K5 PR1OO mit 100 MHz internem Takt ● ● ● Er besitzt 16 KB internen Cache ist bei Integer- Berechnungen schneller als ein Pentium mit 75 MHz Sockel-7-kompatible Prozessor Juni INTEL: Der Pentium 200 kommt auf den Markt ● Die neue Intel-CPU taktet mit 200 MHz August INTEL: eine 150-MHz-Variante des Pentium kommt auf den Markt ● unwesentlich schneller als die 133-MHz-Variante, da ihr Systemtakt 60 MHz (statt 66) beträgt September lBM/CYRIX: neue 6x86-Version, der 6x86 PR2OO+ (bei IBM heißt er P200) ● ● mit 150 MHz taktet, aber leistungsfähiger als der Pentium 200 jedoch extern mit 75 MHz getaktet (benötigt eine spezielle Hauptplatine) Dezember AMD: präsentiert den K5 PR133 ● ● taktet intern mit 100 MHz (laut P-Rating genauso viel Leistung wie ein Pentium 133) 66 MHz Systemtakt INTEL: neuer Prozessor mit Multimedia-Erweiterung ● Pentium MMX ● 57 neue Befehle, die vor allem im Grafik- und Audio-Bereich vorkommen ● Bei herkömmlichen Anwendungen sind MMX-Prozessoren um 10 bis 15 Prozent schneller ● speziell für MMX entwickelten Multimedia-Programmen bringen laut Intel einen Leistungszuwachs bis zu 87% 1997 Januar AMD: Erste K5 PR166 werden ausgeliefert ● taktet intern mit 115,5 und extern mit 66 MHz (seine Leistung entspricht einem 166-MHz-Pentium) INTEL: Pentium-MMX-CPU ● ● ● ● ● taktet zunächst intern mit 166 oder 200, extern jeweils mit 66 MHz 4,5 Millionen Transistoren 32 KB Cache (beim herkömmlichen Pentium sind es 16 KB) Split Voltage (Prozessorkern 2,8 Volt, alles weitere 3,3 Volt) für Notebooks gibt es spezielle MMX-Prozessoren mit 150 oder 166 MHz Februar IBM/CYRIX: Media GX ● ● ● ● Taktraten von 120 und 133, später auch mit 150 und 180 MHz interner Cache von 16 KB Grafik- und Audio- Funktionen sowie ein Speicher-Controller sind direkt in die Prozessoreinheit integriert CPU übernimmt Chipsatzfunktionen wie PCI-Anbindung und Speicher-steuerung April AMD: Antwort auf MMX-Prozessor: K6 ● ● ● ● ● ● K6/PR2-166 taktet intern mit 166 MHz K6/PR2-200 und K6/PR2-233 MMX-Erweiterung (Technik von Intel in Lizenz erhalten) basiert auf dem Nexgen-Chip Nx686 64 KB internen Cache (Intels MMX arbeitet nur mit 32 KB) 0,35-Mikron-Technik Mai INTEL: Pentium II (Codename Klamath) ● ● ● ● ● ● mit internen Taktfrequenzen von 233, 266 und 300 MHz vereint die Vorzüge von Pentium Pro und MMX taktet extern mit 66 MHz 7,5 Millionen Transistoren 0,35-Mikron-Technik 32 KB internen Cache ● ● ● ● ● in einem SEC-Gehäuse aus Metall und Plastik untergebracht mit dem Second-Level-Cache (512 KB) auf einer kleinen Platine montiert diese Lösung erfordert einen neuen Steckplatz, den Slot 1 Dual-Independent-Bus-Architektur Second-Level-Cache arbeitet mit dem halben internen CPU-Takt Juni INTEL: Pentium MMX mit 233 MHz IBM/CYRIX: eigener MMX-Prozessor ● ● ● ● ● 6x86MX (Codename M2) PR166 (133/66 oder 150/60 MHz), PR2OO (150/75 oder 160/66 MHz) sowie als PR233 (188/75 MHz) MMX-Technik von Cyrix/lBM selbst entwickelt (soll absolut kompatibel zum Intel-Original sein) zweifache Spannungsversorgung (2,8/3,3 Volt) 64 KB First-Level-Cache August INTEL: Tillamook, eine Pentium-MMX-Variante mit geringem Spannungsbedarf (für Notebooks) ● ● ● 0,28 Mikron weniger Strom und Spannung (1,8 Volt) stellt die Produktion von Prozessoren ohne MMX-Erweiterung ein NATSEMI (National Semiconductor): übernimmt Cyrix IDT: C6 ● preisgünstiger Prozessor soll es mit dem Pentium MMX aufnehmen ● arbeitet aufgrund seiner geringen Größe so stromsparend, dass er sich auch für Notebooks eignet ● Dezember INTEL: Pentium-Pro-CPUs für Desktop-Systeme laufen zum Jahresende aus ● Speziell für Server konzipierte Pentium-Pro-CPUs noch bis Ende März 1998 AMD: neue Spezifikation für die nächste K6-Generation ● ● ● ● PR266- und als PR300-Version mit 100 MHz externem Takt integrierten Second-Level-Cache 0,25-Mikron-Technik 1998 Januar INTEL: Pentium II-Prozessor ohne Second-Level-Cache (L2-Cache) ● ● ● ● "Celeron" Taktfrequenz von 266 MHz fehlender Level-2-Cache langsamer als K6-233, Pentium 233 MMX, Pentium 200 MMX IBM: durchbricht die 1000-MHz-Schallmauer ● ● ● ● ● ● erster experimenteller Prozessor im 1-GigaHertz-Takt Prototyp "versteht" grundlegende Power-PC-Befehle hat eine völlig neue Architektur eine Million Transistoren (entspricht einem 486-Prozessor) in "herkömmlicher" 0,25-Mikron-Technik noch deutliche Steigerungen bei Umstieg auf 0,18-Mikron-Technik und dem angekündigten Kupferprozeß Februar INTEL: 333-MHz-Pentium II ● ● ● ● weiterhin 66 MHz Bustakt (Codename "Deschutes") unterscheidet sich von seinem Vorgänger vorrangig im Stromverbrauch der "alte" Pentium II 300 MHz 32 Watt verbraucht, der neue bei 333 MHz 15 Watt + 6%-7% mehr Leistungrozent mehr AMD: Namensänderung des K6-Prozessors ● ● ● ● K6 3D wird nun K6-2 bezeichnet ein erweiterter Befehlssatz (3D Now!), der mit 21 neuen FPU-Funktionen vor allem 3D-Spiele drastisch beschleunigen soll 300 MHz / 350 MHz Taktfrequenz 100-MHz-FSB CYRIX: 6x86MX heißt nun M II IDT: Winchip C6 heißt nun Winchip 2 ● ● ● 240 oder 266 MHz unterstützt neuen 3D-Funktionen 100 MHz FSB Juni INTEL: Xeon ● ● ● High-End-Prozessor für Workstations und Server 400-MHz Taktfrequenz 512 KB, 1 MB oder 2 MB Second-Level-Cache NEC: will Zwei-CPU-Server auf den Markt bringen IBM: arbeiten an Modellen mit vier Prozessoren GATEWAY: will sechs CPUs in einem Geräte anbieten August INTEL: Pentium-II mit 450 MHz INTEL: Celeron (Codename Mendocino) ● ● ● ● ● ● 300 und 333 MHz Taktfrequenz 128 KByte L2-Cache L2-Cache direkt auf dem Prozessor mit 300 MHz mit L2 Cache = Celeron 300A mit 300 MHz ohne L2 Cache = Celeron 300 mit 333 MHz = Celeron 333 1999 Januar INTEL: Pentium III (Codename "Katmai") ● ● ● ● ● alter Pentium-II-Kern zusätzlich 70 Befehle, die speziell bei Multimedia-Anwendungen, Videodaten, Spracherkennung und Spielen Anwendung finden interne Seriennummer (Abwicklung von Geschäften über das Internet sicherer machen) Taktfrequenzen von 450 und 500 MHz arbeiten bis zum Jahresende 1999 soll die Taktfrequenz auf über 600 MHz gesteigert werden Februar AMD: neuen Mikroprozessor K6-III ● verfügt über einen erweiterten Multimedia- Befehlssatz ("3DNow" ist nicht mit dem INTELBefehlssatz kompatibel) Oktober AMD: "Athlon"-Chip ● mit 700 MHz AMD: ● K8 ● ● 64-Bit-Chip K8 INTEL: Servern und Workstations mit dem neuesten Intel-Chip-Codename "Coppermine" ● ● ● ● ● Taktraten von 700 und 733 MHz mobile Coppermine-Variante mit 500 MHz 256-KByte-Second-Level-Cache (in der CPU t Leistungssteigerung von 13% bis 23%) 133-MHz-Systembus Rambus-Speichertechnik 0,18-Mikron-Technik Frontside-Bus mit 133-MHz-Takt INTEL: mehrere tausend Prototypen des ersten 64-Bit-Prozessor mit Codenamen Itanium (ehemals "Merced") an Entwickler ausgeliefert ● kann bis zu sechs Aufträge parallel bearbeiten ● drei Memory-Ebenen (zwei integrierte und eine weitere externe mit vier MByte Kapazität) ● High-Speed-Bus soll dafür sorgen, dass der externe "Level-3-Cache" mit der vollen CPU-Geschwindigkeit arbeitet APPLE: G4 ● ● ● speziell für leistungsintensive Anwendungen wie Multimedia oder mathematische Formeln entwickelt kleiner und stromsparender als sein Vorgänger 10,5 Millionen Transistoren September APPLE: Power Mac G4 mit "Velocity Engine" vorgestellt ● erreicht als erster PC überhaupt den Leistungsbereich eines sog. "Supercomputers" ● mehr als einer Milliarde Fließkomma-Operationen pro Sekunde ("Gigaflop") ● für anspruchvollste Video- und Grafikanwendungen qualifizieren 2000 März AMD: Athlon-Prozessors mit 1GHz Takt bekannt gegeben ● ● Austin (Texas) in 0,18-Mikron-Technik und Aluminium gefertigt im April sollen die ersten GHz-Athlons in Deutschland verfügbar sein INTEL: präsentiert seinen 1-GHz-Prozessor ● 1-GHz-Pentium-III nur in begrenzten Stückzahlen (für Dell) verfügbar (Massenproduktion erst im September) September INTEL: 1-GHz-Prozessor geht in die Massenproduktion ● verspätet aufgrund der großen Nachfrage an der 800-MHz-Version des Chips November INTEL: erste PCs mit dem Pentium 4 auf den Markt ● ● Kritik an der Leistung des neuen Flagschiffs von Intel Zu wenig Leistung für das Geld, lautet das einhellige Credo der Kritiker Liste ausgewählter Hersteller Hersteller Gründung bekannte Produkte 01.05.1969 8080A 8088 Am286 Am386 Am486 Am5x86 K5 K6 Duron Athlon Athlon XP 01.04.1976 6502 weitere Prozessoren in Zusammenarbeit mit IBM 1988 Cx486 5x86 6x86 Media GX 6x86MX 15.06.1911 G4 - G6 Power - Power4 PowerPC 601 - PowerPC 620 Advanced Micro Devices International Business Machines 1995 Winchip C6 Winchip 2 18.07.1968 4004 8080 8086 8088 80286 80386 80486 Pentium Pentium Pro Pentium MMX Pentium II Tillamook Deschutes Katmai Willamette Merced 1928 6808 68000 68010 68020 68030 01.04.1983 V20 V30 V60 V70 1988 Nx586 Nx686 1847 SAB 8086 SAB 8088 1987 C3 1974 Z80 Z280 Nippon Electric Company Typische Merkmale einer CPU Grundsätzlicher Aufbau einer CPU nach dem Von-Neumann Prinzip ● ● ● Rechenwerk Steuerwerk weiteres Siehe Blockschaltbild Prozessoren sind gekennzeichnet durch ● ● ● ● ● Taktfrequenz (interne Frequenz der CPU) Größe des Caches (Zwischenspeicher auf der CPU) verwendete Befehlssatz (Sammlung aller direkt ausführbaren Befehle der CPU - Bsp: MMX, SSE, 3Dnow!) Front-Side-Bus (Systemtakt für die Kommunikation der CPU mit anderen Systemkomponenten - Bsp.: RAM; aktuell 133MHz-400MHz) Strukturgröße (Gibt die Größe der Transitoren an - Bsp.: aktuell 0,13µm) Leistungsbestimmenden Faktoren eines Prozessors ● ● ● die Zahl der auf dem Chip befindlichen Transistoren die Taktfrequenz Grundaufbau Grundfunktions-Prinzipien bei Prozessoren ● ● CISC-Technologie (Complex Instruction Set Computer) RISC-Technologie (Reduced Instruction Set Computer) CISC-Technik ● ● ● Prozessor stellt sehr viele Befehle zur Verfügung viele Programmbestandteile haben "ihren" Prozessorbefehl Programme bestehen dadurch aus sehr vielen Befehlen ● ● ● CISC-Prozessoren eher "träge" Gruppe der CISC-Prozessoren zählen alle Chips von Intel und dazu kompatible CISC-CPUs sind sehr verbreitet RISC-Technik ● ● ● ● Prozessoren kommen mit wesentlich weniger Befehlen aus sind dadurch einfacher strukturiert kann mit ihnen theoretisch eine höhere Leistung als mit CISC-Prozessoren erreichen Zu RISC-CPUs zählen viele neue Rechner von Apple sowie leistungsfähige Server Eigentlich sollten auf Grund der Fakten weit mehr RISC als CISC-Prozessoren verwendet werden ● Da diese Technik aber erst in den letzten Jahren "entdeckt" wurde, haben sich mittlerweile Intel-kompatible CPUs etabliert ● Wechsel der Prozessortechnik hat einen Wechsel der Hardware-Komponenten und Austausch sämtlicher Software zur Folge ● daher sind RISC-Rechner nur im High-End-Bereich zu finden ● Intel und AMD unterstützen durch Einführung neuer Prozessorbefehle wie MMX und 3D-Now die CISC-Technologie (dies sogar sehr erfolgreich) Leistung ● Leistung und Taktfrequenz eines Prozessor sind direkt proportional zueinander ● wenn man die Taktfrequenz verdoppelt, verdoppelt sich auch die Leistung ● gilt nicht für ein Komplettsystem (auch noch von der Größe des Arbeitsspeichers, der Geschwindigkeit der Festplatte und vielen anderen Faktoren abhängt) ● erste CPUs liefen mit wenigen Kilohertz ● heute ist man schon in Bereichen über 2000 Megahertz angelangt ● Auch die Anzahl der Transistoren auf einem Chip beeinflusst die Leistung es kommt auch auf die Anordnung und Verknüpfung der Schaltkreise an Leitungsoptimierung ● Intel, später aber auch AMD, führten eigene Erweiterungen des Prozessorbefehlssatzes ein ● Die erste dieser Erweiterungen: MMX (Multi Media eXtension) wurde ab 1997 von Intel in die Pentium-CPUs integriert ● AMD unterstützte im K6 und allen darauf folgenden CPUs diese Technik ● K6-III von AMD kam mit der 3Dnow!-Technologie, die ebenfalls Multimedia-Anwendungen und Spiele beschleunigen sollte ● ● Im Pentium-III kam SSE (s.. streaming extension) dazu, was besonders Internet-Anwendungen beschleunigen sollte AMD hingegen hat für den Athlon 3Dnow! erweitert Chip-Herstellung ● Prozessoren bestehen heutzutage zum größten Teil aus Silizium ● Silizium ist ein Halbleiter, deshalb kann man daraus elektrische Bauteile wie Transistoren herstellen ● Silizium existiert als natürlicher Rohstoff auf der Erde, allerdings nicht in reiner Form, sondern als Siliziumdioxid (SiO2 /Sand) ● ● ● ● ● In einem extrem zeit- und energieaufwändigen Prozess wird reinstes Silizium gewonnen Schon kleinste Verunreinigungen machen einen Chip unbrauchbar Rohstoff liegt nun in Silizium-Walzen mit 15 bis 35 cm Durchmesser vor Mithilfe hochpräziser Sägen werden die Walzen in Scheiben geschnitten Diese Scheiben werden Wafer genannt Der Produktionsprozess 1. Oxidation Bei einer Temperatur von etwa 1200°C bildet sich an der Oberfläche der Siliziumscheibe eine dünne Schicht Siliziumoxid, das als Isolator dient und das Eindringen von Fremdatomen verhindern soll. 2. Fotolackbeschichtung Auf die Siliziumscheibe wird eine Mikrometer dicke, UV-empfindliche Lackschicht aufgetragen. 3. Belichtung durch Maske Die Si-Scheibe wird durch eine Maske mit UV-Licht beleuchtet, wodurch die Konstruktionszeichnung auf die Si-Scheibe übertragen wird. 4. Entwicklung Beim Entwickeln des Fotolacks wird die Oxidschicht an den von der Maske ungeschützten Stellen freigelegt. 5. Diffusion An den Oxidfreien Stellen diffundieren Dotieratome (z.B.:Bor) und erzeugen P-leitende Zonen. Der Rest (Oxidgeschützt) bleibt N-leitend. 6. Fotolackentfernung Der Fotolack wird mit Lösungsmitteln entfernt. 7. Bedampfung Die komplette Oberfläche wird mit einer Isolierschicht (Oxid) aufgedampft 8. weitere Fotolackbeschichtung Auf die Siliziumscheibe wird eine zweite UV-empfindliche Lackschicht aufgetragen 9. weitere Belichtung Die Oberfläche wird wieder durch eine Maske mit UV-Licht beleuchtet 10. weitere Fotolackentfernung Der Fotolack wird ein weiteres mal mit Lösungsmitteln entfernt 11. Oxidschichtentfernung Die durch Fotolack ungeschützte Isolierschicht wird entfernt 12. Aufbringen der Metallschicht Auf die komplette Oberfläche wird mit eine Metallschicht aufgedampft 13. Weitere Beschichtung Eine weitere UV-empfindliche Lackschicht wird aufgetragen und mit einer Maske beleuchtet 14. weitere Fotolackentfernung Der Fotolack wird ein weiteres mal mit Lösungsmitteln entfernt 15. Ätzung Nicht geschütztes Metall wird weggeätzt. Der Transistor ist funktionstüchtig Prinzipielles Blockschaltbild einer CPU ● arbeitet nach dem Von-Neumann Prinzip (von 1949) ● 4 Funktionseinheiten (siehe Bild) ● Struktur des Rechners unabhängig vom Problem ● Programm, Daten und Zwischenergebnisse werden im gleichen Speicher abgelegt ● ● zur Lösung eines Problems muss eine Befehlsfolge von außen in Speicher geladen werden aufeinander folgende Befehle werden in aufeinander folgen- den Speicherzellen abgelegt ● Speicher in gleichgroße, fortlaufend nummerierte Speicher-zellen unterteilt ● alle Daten werden binär codiert ● nächster Befehl wird ausgeführt, wenn Steuerwerk Befehlsadresse um 1 erhöht (Sprungbefehle ermöglichen Abweichung von dieser Reihenfolge) Befehlsvorrat umfasst mindestens ● arithmetische Befehle (Addition, Multiplikation, ..) ● logische Befehle (Vergleich, NICHT, UND, ODER, ..) ● ● Transportbefehle (Übernahme des Inhalts einer Speicher-zelle/ Register in andere Speicherzelle/Register) bedingte Sprünge (nächster Befehl hängt davon ab, ob eine Bedingung zutrifft oder nicht) Rechenwerk (ALU; Arithmetical and Logical Unit) "Funktionsblock des Prozessors, der arithmetische und logische Funktionen ausführt." 1. Zwei Operanden werden über den Datenbus geliefert 2. Eine Operand wird im Register (Akkumulator) abgelegt, der Zweite gelangt direkt in die Rechenlogik 3. Ablaufsteuerung übergibt der Rechenlogik die benötigte Operation (Arithmetisch/ Logisch) 4. Rechenlogik führt den Befehl aus 5. Ergebnis wird für weitere Operationen im Akkumulator gespeichert, oder bei Rechen-ende an den Datenbus geschickt 6. Ablaufsteuerung erhält eine Statusinfor-mation (<0; >0; =0; Error) über die Berechung und erzeugt daraus die Flags 7. Flags werden an das Steuerwerk zurück gegeben Speicherwerk ● Aus einer bestimmten Anzahl von Registern zusammen-gesetzt. ● Nur einen gemeinsamen Ein- und Ausgang für die Daten. ● Weitere Leitungen, die die einzelnen Register ansteuern und die Datenrichtung bestimmen. ● Hat die Fähigkeit, den Ein-/Ausgang nur auf Anfrage zu benutzen . 1. Steuerwerk aktiviert über eine Steuerleitung den Speicher 2. Festlegung ob Lesen oder Schreiben 3. Angabe des Registers im Speicher 4. Senden der Daten über den Datenbus oder Empfang der Daten und Schreiben in den Register 5. Freigabe der Datenleitung zwischen Speicher zur Bus-schnittstelle Busschnittstelle (BIU, Bus Interface Unit) Die Busschnittstelle verbindet die internen Busse des Prozessors mit der Außenwelt. Sie enthält Puffer zur Zwischenspeicherung von Adressen, Daten und Steuersignalen." ● ● ● Arbeitet weitgehend selbstständig vom Rest der CPU Ist für die Kommunikation mit der Außenwelt verantwortlich Außenwelt = PCI Bus, SCSI/IDE Bus, Grafikkarte, Tastatur, Maus, Schnittstellen (COM/LPT) ... Quellenverzeichnis ● ● ● ● ● ● http://www.num.math.uni-goettingen.de/Lehre/Lehrmaterial/Vorlesungen/Informatik/2001/doc/vonNeumann.html http://www.seitzweb.de/Interessen/Computer/Geschichte/CPUs.htm http://www.glossar.de http://www.e-online.de/sites/com/0309161.htm http://www.tecchannel.de/hardware/375/ http://tech-www.informatik.uni-hamburg.de/applets/baukasten/DA/VNR_Einleitung.html ● ● http://www.computer-tutorial.de/process/cpu6.html http://wb.rus.uni-stuttgart.de/pc/cpu.asp ROM-Speicher Rom Speicher dienen oft zum Speichern des BIOS (Basic Input Output System). Informationen werden in Masken mit Hilfe einer Dioden Matrix abgespeichert. Früher wurde ein Speicher von 16kbyte genutzt, die heutigen Rechner benötigen ca. 2Mbyte. ROM (read only memory - nur lese Speicher) steht als Oberbegriff für den Festwertspeicher, in dem fixe Daten zur sicheren Archivierung abgelegt werden. Das ROM ist ein Bestandteil des Hauptspeichers, bei dem der Inhalt jedoch nach dem Wegfall der Betriebsspannung, im Gegensatz zum RAM, erhalten bleibt. Ein weiteres wichtiges Merkmal dieses Speicherbausteins ist, dass er nur gelesen werden kann, dass heißt, er enthält bei der Rechneranschaffung schon gewisse Informationen oder Programme und ist vom Nutzer per Software nicht mehr zu verändern. Bei diesen Informationen handelt es sich z. B. um das Betriebssystem, Startprogramme und Betriebssystemroutinen. So besaß der Ur-PC von IBM ein dreiteiliges ROM, welches die Dienstprogramme, BASIC und einen freien Bereich für weitere Programme besaß. Um Änderungen vorzunehmen oder andere Informationen hinzuzufügen, war dieser PC noch mit einem freien ROM Steckplatz versehen. Da der Inhalt eines Chips schon vor der Produktion feststehen muss, ist die Herstellung teuer und aufwändig. Ein ROM - Speicherbaustein wird mit einer Maske programmiert, bei der die 0 und 1 Pegel über die Unterbrechung von Brücken zwischen Zeilen und Spalten realisiert wird. Diese Zeilen bestehen aus Siliciumbahnen, die als stromführende Leitungen, auf einer Trägerschicht über der sich ein Isolator und weitere Leitungen (den Spalten) befinden, verlaufen. Die Kreuzungspunkte sind die Speicherpositionen. Eine 1 steht, wenn die Isolierschicht entfernt und somit ein Kontakt hergestellt wurde. Das Verbinden und Nichtverbinden der Bahnen ist Teil des Herstellungsprozesses. Beim Einsatz kann die Logik des Bausteines feststellen, ob nach Anlegen einer Spannung auch die kreuzenden Bahnen unter Strom stehen. Technologische und ökonomische Gründe haben vielfältige Zwittervarianten zwischen RAM und ROM entstehen lassen. gespeichert: 1 0 1 0 1 1 1 0 0 Die Dioden stellen das High-Bit dar. Dort wo keine Dioden sind ist das Low-Bit. Beispiele für Nutzen: ● ● Bios Chipkarten PROM-Speicher Programmable ROM (programmierbarer nur Lese Speicher) Eigenschaften: ● ● ● nur einmal programmierbar Die Programmierung erfolgt über ein spezielles PROM-Programmiergerät in das der ROM-Chip eingesetzt wird es gibt verschiedene PROM-Bauarten (je nach Herstellungsverfahren) Möglichkeit 1: Programmierung mit Ausbrennwiderständen Jede Bit-Zelle besteht aus einem npn-Transistor und einer Schwachstelle z.B. einem Ausbrennwiderstand. Diese kann vom Anwender durch ein Pro-grammiergerät zerstört werden. Der daraus erfolgte Zustand dieses Bausteins bleibt nun für immer bestehen. Programmierzeit ca. 1 ms/Bit. Möglichkeit 2: Das Koppelelement ist ein npn-Transistor mit nicht ange-schlossener Basis. Durch anlegen einer hohen Spannung erfolgt eine Veränderung des Transistors - es bleibt eine Diodenstrecke übrig. Programmierzeit ca. 0.2ms/Bit EEPROM-Speicher Verbesserter EPROM der im eingebauten Zustand schaltungselektrisch löschbar ist. Somit ist debuggen und updaten wesentlich einfacher und nicht mehr so umständlich, da man wesentlich einfacher eine neue Konfiguration brennen kann. Ein Problem von EEPROMs ist die begrenzte Anzahl von Schreibzyklen (10.000 - 100.000 mal). Man kann es auch als Mittelstück zwischen RAM und ROM bezeichnen. Langsamer als RAM-Bausteine. (Lösch- und Programmierzeit ca. 5 ms/ Bit) EAPROM Die Bezeichnung EAROM steht für Electrically Alterable ROM, was so viel wie elektrisch veränderbares ROM bedeutet. Auch diese Form des Speichers ist eine Zwischenform von RAM und ROM, aus der wie gewohnt gelesen, aber auch hineingeschrieben werden kann. Da der Schreibvorgang aber viel Zeit in Anspruch nimmt, die Speicherdichte relativ gering und die Herstellung teuer ist, wird diese Art nur selten eingesetzt. FLASHROM In den letzten Jahren hat sich die Produktion auf die Flash-ROMs (auch Flash RAM) verlagert. Diese Variante des EEPROMs ist bevorzugt sektorweise oder vollständig löschbar, und stellt wahrscheinlich die zukünftig am häufigsten genutzte Form dar. Eigenschaften: ● ● ● ● ● Beim Flash-EPROM ist die Speicherung von Daten funktionell identisch wie beim EEPROM. Die Speichermatrix wird in mehrere Sektoren aufgeteilt (zum Beispiel 8 * 16 KByte-Blöcke), die unabhängig voneinander gelöscht und programmiert werden können. Der Speicher kann bei laufendem Betrieb manipuliert werden. Außerdem kann jedes Bit auch noch einzeln programmiert werden. Lösch- und Programmierzeit ca. 300 ms pro Sektor. Übersicht Speicherart Löschen Programmieren ROM Read Only Memory Nur Lese Speicher nicht möglich bei Herstellung PROM Programmable ROM, Programmierbarer Festspeicher nicht möglich elektrisch EPROM Erasable PROM, Löschbarer Programmierbarer Festspeicher durch UV-Licht elektrisch EEPROM Electrically Erasable PROM, Elektrisch löschbarer Programmierbarer Festspeicher elektrisch elektrisch EAPROM Electrically Erasable PROM, Elektrisch löschbarer Programmierbarer Festspeicher elektrisch elektrisch FLASHPROM Electrically Erasable PROM, Elektrisch löschbarer Programmierbarer Festspeicher elektrisch elektrisch Prinzipieller Aufbau des ROM Festwertspeicher werden in der Regel als ICs hergestellt. Durch das Anlegen einer Adresse an den Adresseingängen erhält man an den Ausgängen den Wert der an der angelegten Adresse gespeichert ist. Die angelegte Adresse wird im Adressenregister in Spalten- und Zeilenadresse aufgeteilt und danach an den Zeilen- und Spaltendekoder geschickt. Dort wird dann die Adresse dekodiert, so dass die Adresse genau einer Speicherzelle in der Speicher-matrix zugewiesen werden kann. Speicherelement ist jeder Kreu-zungspunkt zwischen Zeilen- und Spaltenleitung der Speichermatrix. Der jeweils gespeicherte Binärwert wird durch das Vorhandensein oder Fehlen einer Leitenden Verbindung zwischen Zeilen- und Spaltenleitung bestimmt. Herstellung Entwurf einer monolithischen Schaltung: Die Aufgabe, eine monolithische Schaltung zu entwerfen, erfordert die Umsetzung des Logikplans in eine Verbindung geeignet dimensionierter Schaltungselemente. Zu dieser komplexen, Millionen von Einzeloperationen erfordernden Tätigkeit, werden Computerprogramme eingesetzt. Durch eine funktionelle Simulation wird die Korrektheit des Schaltungsentwurfs überprüft. Die günstigste Anordnung aller Schaltungselemente wird am Bildschirm eines Arbeitsplatzrechners erstellt. Die Form und Lage aller Elemente und Leiterbahnen wird als Lageplan digital abgespeichert. Dabei erfolgt eine Aufteilung in eine Vielzahl von Ebenen. Durch eingehende Kontrollen des Lageplans wird überprüft, ob alle Verbindungen richtig hergestellt wurden und alle durch die Technologie geforderten Regeln für Abmessungen und Abstände eingehalten wurden. Die Kenndaten des Lageplans bilden die Grundlage einer abschließenden Simulation der elektrischen Eigenschaften der Schaltung mit einem Computerprogramm. Maskenherstellung: Auf der Grundlage der Koordinatendaten des Lageplans werden optisch oder mit einem Elektronenstrahl Masken für die Chipherstellung erzeugt. Jede Maske besteht aus einer Glasoder Quarzplatte mit einer Metallschicht (Silber oder Chrom), in die die feinen Schaltungsstrukturen eingeätzt sind. Zur Übertragung der Strukturen von der Maske auf die Kristallscheibe gibt es zwei Methoden: ganzflächige Belichtung mit Masken, welche die Strukturen für alle Chips einer Scheibe enthalten, oder aufeinander folgende Einzelbelichtung durch Masken, welche die Strukturen für nur einen Chip enthalten. Da jede Schaltungsstruktur auf der Kristallscheibe aus mehreren Schichten aufgebaut ist, benötigt man zu ihrer Herstellung auch mehrere Masken, einen ganzen Maskensatz. Schneidetisch zur Maskenjustierung Chip-Herstellung und Montage: Die Herstellung der Chips auf einer Halbleiter Kristallscheibe erfordert einige hundert auf einander folgende Prozessschritte. Viele dieser Schritte erfolgen bei Temperaturen von etwa 1000° C im Vakuum oder in einer bestimmten Gasatmosphäre. Die wichtigsten Prozessschritte sind: Maskieren der Kristalloberfläche durch photolithographische Verfahren, Dotieren und Metallisieren. Alle verwendeten Substanzen müssen ungewöhnlich hohe Reinheit aufweisen. Automaten besorgen den Transport der Kristallscheiben. Die Präzisionsbearbeitung der Scheiben kann sich insgesamt über Wochen hinziehen. Jede Störung im Prozessablauf senkt die Ausbeute drastisch, selbst einzelne Staubpartikel können zum Ausfall führen. Daher muss in Reinsträumen gearbeitet werden. Strukturierung mit Hilfe von Masken: Bei der Herstellung der Chips wird zunächst in einem Rohofen die ganze Kristallscheibe mit einer Oxidschicht überzogen. Auf diese wird ein extrem dünner Überzug von Photolack aufgebracht, der durch die Maske hindurch belichtet wird. An den belichteten Stellen härtet der Lack aus und schützt die darunter liegende Oxidschicht. An den unbelichteten Stellen wird der Photolack weggelöst und die darunter liegende Oxidschicht durch einen nachfolgenden Ätzvorgang entfernt. Durch geeignete Masken legt man so die zur weiteren Bearbeitung vorgesehenen Bereiche der Kristalloberfläche frei. Im Wechselspiel von Maskierung und Ätzung mit Dotierung, Oxidation, Metallisierung werden an der Oberfläche der Kristallscheibe die Strukturen in dünnen Schichten aufgebaut. Für die Herstellung hochintegrierter Chips sind bis zu zwanzig verschiedenen Masken erforderlich. Silicium ist von anderen Halbleitermaterialien dadurch ausgezeichnet, dass sein Oxid sehr dicht und porenfrei ist. Es schützt damit hervorragend die Kristalloberfläche. Maskenjustier- und Belichtungsgerät Zur Übertragung der Maskenstruktur auf die Siliciumscheibe belichtet man mit kurzwelligem UV-Licht mit einer Wellenlänge von 0,4 µm. Die damit erzielbaren kleinsten Strukturen liegen im Bereich von 1 µm. Noch feinere Auflösung erreicht man mit einem Elektronenstrahl. Bei einem Strahldurchmesser von 0,07 µm werden Strichbreiten von 0,3 bis 0,5 µm erzielt. Eine noch bessere Auflösung ist mit Röntgenlicht erreichbar. Gezielte Dotierung: Auf der oxidierten Kristallscheibe werden durch Maskierung Bereiche freigelegt, in denen durch Dotierung die Leitfähigkeit verändert wird. Dadurch kann man Dioden und Transistoren, Widerstände und sogar Leiterbahnen herstellen. Es gibt zwei Dotierverfahren: Diffusion und Ionenimplantation. Bei der Diffusion dringen bei hoher Temperatur Fremdatome in den freigelegten Bereich der Kristalloberfläche ein. Dies geschieht in Rohöfen. Bei der Ionenimplantation werden ionisierte Fremdatome in den freigelegten Teil des Kristalls eingeschossen. Die Beschleunigung der Ionen erfolgt durch elektrische Felder. Metallisierung: Zur Verbindung der einzelnen Bauelemente einer integrierten Schaltung sind Leiterbahnen erforderlich. Als Leiterbahnmaterial wird vornehmlich Aluminium verwendet. Das Aluminium wird ganzflächig aufgedampft und nachfolgend mit Hilfe von Masken photolithographisch strukturiert. Bei besonders komplexen Schaltungen werden zur Verkürzung der Signalwege mehrere, voneinander isolierte Verdrahtungsebenen benötigt (Mehrlagenverdrahtung). Diese werden durch Löcher in der Isolierschicht metallisch miteinander verbunden. Die Leiterbahnen enden am Rand des Chips in größeren Kontaktflächen, an die später dünne Golddrähtchen angeschweißt werden. Prüfung, Trennung und Montage der Chips: Nach Herstellung der Schaltungen auf der Kristallscheibe wird jeder Chip mit Hilfe eines Prüfprogramms auf seine Funktion überprüft. Dünne Metallnadeln verbinden den Chip mit der Messeinrichtung. Fehlerhafte Schaltungen werden markiert und registriert. Die Scheibe wird auf eine Folie geklebt und mit einer Diamantsäge in die rechteckigen Chips zertrennt. Die Chips bleiben auf der unzertrennten Folie haften. Aus einer Scheibe mit 15 cm Durchmesser kann man 400 und mehr Chips erhalten. Die einwandfreien Chips werden mit einer Saugpinzette von der Folie aufgenommen und auf einen Träger geklebt oder gelötet. Ein Automat verbindet durch haarfeine Drähte die Kontaktpunkte mit den Anschlüssen des Gehäuses (bonden). Es gibt eine Vielzahl von Gehäusebauformen: ● ● ● Plastikgehäuse für Einzelchips Keramikgehäuse für Einzelchips Filmstreifen mit aufgelöteten Chips Nach dem Einbau der Chips im Gehäuse erfolgt eine nochmalige Funktionsprüfung am Testautomaten. Röntgenstrahl-Beleuchtungsbild einer Halbleiterscheibe, Gitterstörungen Baugruppen auf Leiterplatten: Eine genormte Aufbautechnik ist eine wichtige Voraussetzung für die wirtschaftliche Fertigung elektronischer Baugruppen. Die Bauelemente werden meist auf Platinen, d.h. auf Leiterplatten mit geätzten Kupferleitungen, aufgelötet. Die so bestückten Platinen nennt man Flachbaugruppen. Platinen können einseitig oder beidseitig mit Leiterbahnen versehen sein. Für umfangreiche Schaltungen gibt es Platinen mit mehreren Verdrahtungsebenen, die miteinander an einzelnen Punkten verbunden sind. Die Bauelemente werden entweder mit ihren Anschlussdrähten in Kontaktlöcher eingesteckt oder verlötet, oder, wenn drahtlos, auf die Platinen geklebt und verlötet (Oberflächenmontage). Keramik-Baugruppen: Die Packungsdichte integrierter Schaltungen in Baugruppen kann durch die Montage der Chips auf Vielschicht-Keramikträger gesteigert werden. Diese Keramikträger werden aus vielen Schichten eines papierdünnen Keramikmaterials aufgebaut, das mit dünnen Verbindungsleitungen aus einer Molybdänpaste bedruckt wurde. Durch Löcher in den einzelnen Lagen werden die Leitungen zu einem Netzwerk verbunden. Nach dem Zusammenpressen der einzelnen Lagen entsteht durch Sintern eine feste Keramikplatte. Sie wird mit Kontaktstiften zur Verbindung mit anderen Baugruppen versehen. Die Chips werden anschließend mit winzigen Blei-Zinn-Kügelchen drahtlos durch Löten direkt mit der Keramikplatte verbunden. Ein Kühlkörper führt die beim Betrieb entstehende Wärme an die Luft oder durch Kühlwasser ab. Anfang Aufbau RAM Arten und Installation Benötigter RAM Glossar Referenzen RAM (Random Access Memory) Einführung Random Access Memory bedeutet übersetzt "Speicher mit wahlfreiem Zugriff". Der Name rührt daher, dass auf jede Speicherstelle des Arbeitsspeichers gleich schnell zugegriffen werden kann. Dies ist z.B. bei der Festplatte oder der CD-ROM nicht möglich, da der Schreib/Lesekopf erst an die entsprechende Position gebracht werden muss. Der RAM kann als "Kurzzeitgedächtnis" des Computers bezeichnet werden. Er bestimmt, wieviele Programme gleichzeitig laufen können. Die Daten die zum Ausführen eines Programmes notwendig sind, bzw. bearbeitet werden sollen werden temporär im RAM gespeichert. Möchte mann z. B. ein Bild mit einem Bildverarbeitungsprogramm bearbeiten, so ist ein großer RAM von Vorteil, damit die Daten nicht ständig von einem anderen Speichermedium mit wesentlich längerer Zugriffszeit gelesen werden müssen. Der RAM wird daher auch als Arbeits- oder Hauptspeicher bezeichnet. Da die Datenspeicherung im RAM durch Spannungen erfolgt, werden die Daten nur so lange gespeichert, wie der RAM mit Strom versorgt wird und erlischen nach dem Ausschalten des Rechners. Dies ist der zweite wesentliche Unterschied zu anderen Speichermedien. Prinzipiell gibt es zwei Basis-RAM-Typen: den SRAM (static RAM) und den DRAM (dynamic RAM). Die folgende Tabelle fasst die wesentlichen Merkmale dieser beiden RAM-Typen zusammen. SRAM DRAM Speichern durch Transistoren Zugriffszeit: 6-12ns 6 Transistoren pro Bit kein Refreshzyklus notwendig schneller als DRAM 1-Bit Speicherung Speichern durch Kondensatoren Zugriffszeit: 50-70ns 1 Transistor + 1 Kondensator pro Bit größere Packungsdichte preiswerter als SRAM 1-Wort Speicherung Anfang Aufbau RAM Arten und Installation Benötigter RAM Glossar Referenzen Aufbau eines RAM Bausteins Anordnung der Zellen als Matrix Die Speicherzellen eines RAM Bausteins sind matrixförmig angeordnet. Die Adressierung erfolgt über die Zeilen- und Spaltenadresse. Zur Adressierung eines Bausteins mit 4 Zellen werden 2-Bit Adressierungsdaten benötigt, für 8 Zellen 3-Bit Adressierungsdaten usw. Die folgende Graphik soll die Adressierung einer Speicherzelle visualisieren: Bild1: Matrixanordnung eines 4-Bit RAM Bausteins Zur Adressierung einer Speicherstelle den entsprechenden Button drücken: 00 01 10 11 keine Außerdem werden folgende Signale benötigt: 1. Das R/W (read/write)-Signal legt fest, ob das Speicherelement gelesen oder beschrieben werden soll 2. Das CS (chip select)-Signal wählt den gesamten Baustein aus. 3. Das Din-Signal schreibt die Information in die Speicherzelle. Nur wenn die Speicherzelle mittels Spalten- und Zeilenadresse adressiert ist und das CS-Signal gesetzt ist, ist die Speicherstelle vollständig selektiert. Ist das R/W-Signal nicht gesetzt, so wird die Information Din an die Speicherstelle geschrieben, ist es gesetzt, so wird die gespeicherte Information gelesen und das Din ignoriert. Aufbau einer Speicherzelle Grundsätzlich gibt es zwei verschiedene Arten Speicherzellen in RAM Bausteinen: im S-RAM wird ein Bit mittels eines Flip-Flops und im DRAM mittels eines Kondensators gespeichert: DRAM Ist der Kondensator geladen (30-50 Femtofarad), so ist eine '1' gespeichert, sonst eine '0'. Bild 2: Speicherprinzip eines DRAM SRAM D=Datensignal, T=Taktsignal ist das Taktsignal=0, so wird der vorherige Zustand gespeichert. Bild 3: Funktionsprinzip eins SRAM Anfang Aufbau RAM Arten und Installation Benötigter RAM Glossar Referenzen RAM Arten und das Motherboard RAM Arten Es gibt zahlreiche unterschiedliche Arten RAM, von denen ich die gängigsten zusammengestellt habe. Beginnend mit den Basisvarianten SRAM und DRAM bis hin zu dem zur Zeit (2002) in den meisten neuen PC's eingebautem DDR-RAM. SRAM DRAM FPM-RAM EDO-RAM SD-RAM DDR-RAM RD-RAM (Static RAM) Speichern durch Flip-Flops, schnell, da kein Refresh Zyklus not-wendig. (Dynamic RAM) Speichern durch Kondensatoren, Refresh Zyklus notwendig. (Fast Page Mode RAM) schneller durch effizientere Adressierung. (Extended Data Output DRAM) wie FPM-RAM, nur dass Adressieren und Lesen gleichzeitig erfolgt. (Synchronous DRAM) arbeitet synchron zum Prozessortakt und hat zwei Speicher-bänke von denen abwechselnd gelesen wird, sodass die Erholungszeit ausgeglichen wird. Außerdem können Daten durch das Pipeline Verfahren gleichzeitig gelesen und geschrieben werden. (Double Data Rate RAM) doppelte Übertragung, wie SDRAM, da auf- und absteigende Taktflanken genutzt werden. (RAMBUS-DRAM) "neuere" Technik, die höhere Taktfrequenzen erlauben soll. Wird z.B. in der Nintendo64 Konsole verwendet. Installation auf dem Motherboard RAM Bausteine werden auf Platinen gelötet, die dann auf das Mainboard aufgesteckt werden. Hier gibt es verschiedene Arten: SIMM: single in-line memory module, als: ● ● 30 PIN SIMM 72 PIN SIMM (Bild 4) DIMM: double in-line memory module: ● 168 PIN DIMM (Bild 5) ● 184 Pin DIMM (Bild 6) RIMM: rambus in-line memory modules, als: ● 184 PIN RIMM (Bild 7) Anfang Aufbau RAM Arten und Installation Benötigter RAM Glossar Referenzen Wieviel RAM wird benötigt? Die folgenden vier Tabellen geben eine kurze Übersicht, wieviel RAM wofür benötigt wird: Betriebssysteme Windows 95 Windows NT Linux Mac OS2 8 MB RAM 16 MB RAM 8 MB RAM 4 MB RAM Anwendungen MS Word 24 MB RAM (Windows 98) 32 MB RAM (Windows NT, 2000) 64 MB RAM (Windows 200 Professionell) Mathematica Adobe Photo Shop Netscape Internet Explorer 64 MB RAM 128 MB RAM 64 MB RAM 16 MB RAM Spiele Sim City 3000 Half Life Anno 1503 32 MB RAM 24 MB RAM 64 MB RAM Zum Vergleich NES N64 Playstation 2 TI 89 2kB RAM + 2kB Video RAM 4,5 MB R-DRAM 32 MB RAM 188kB RAM 640 KB (Arbeitsspeicher) ist alles, was irgendeine Applikation jemals benötigen sollte. (Bill Gates, 1981) Anfang Aufbau RAM Arten und Installation Benötigter RAM Glossar Referenzen Referenzen Informationen im Internet http:\\www.computerlexikon.com http:\\www.karbosguide.com http:\\www.e-online.de http:\\www.fundus.org Literatur ● Kories, Schimdt-Walter, Taschenbuch der Elektrotechnik, ISBN 3-8171-1626-8 Motherboard Funktion Übersicht Dual-Prozessorboard Motherboard Zwischen Baugruppen müssen im Betrieb ständig Daten ausgetauscht werden: Der Prozessor liest Daten zur Bearbeitung von der Eingabeeinheit (z. B. der Tastatur) ein, bei Bedarf legt er Daten im Arbeitsspeicher ab und kann sie auch wieder zurück holen. Das Ergebnis der Verarbeitung sendet der Prozessor an eine Ausgabeeinheit (z. B. Monitor). Aus diesem Grunde müssen diese Einheiten elektrisch so verbunden werden, dass die Daten von jeder angeschlossenen Baugruppe zu einer beliebigen anderen Einheit der Anlage übertragen werden können. Außerdem muss sichergestellt werden, dass alle Einheiten richtig angesteuert werden. Um diese Anforderungen zu erfüllen werden die Baugruppen eines PCs über Bussysteme miteinander verbunden. Unter einem Bussystem oder kurz unter einem Bus versteht man bei einem PC ein Bündel elektrischer Leitungen, an dem alle Baugruppen parallel angeschlossen sind. Die Anzahl der Leitungen des Busses wird als Busbreite bezeichnet. Da innerhalb eines PCs nicht nur Daten, sondern auch steuernde Signale zwischen den angeschlossenen Baugruppen ausgetauscht werden müssen, gibt es in einer DV-Anlage drei verschiedene Bussysteme: Über den Datenbus (Data Bus) können zu verarbeitende Daten von einer beliebigen Baugruppe zum Prozessor gelangen oder umgekehrt vom Prozessor zu jeder gewünschten Baugruppe gesendet werden. Da alle Baugruppen parallel an den Datenbus angeschlossen sind, aber immer nur eine Einheit Daten empfangen oder senden darf (um "DatenKollisionen" zu verhindern), muss jede Baugruppe eine "Hausnummer" (Adresse) erhalten, mit der sie vom Prozessor angesprochen ("adressiert") werden kann. Um die Adressen an die Baugruppen zu übermitteln, werden wiederum alle Einheiten des PCs parallel an Adressleitungen angeschlossen. Nur wenn eine Baugruppe die ihr zugewiesene Adresse auf dem Adressbus (Address Bus) empfängt, darf sie Daten auf dem Datenbus senden oder empfangen. Wird über den Adressbus eine Baugruppe (z. B. Arbeitsspeicher) angesprochen, so muss dieser auch mitgeteilt werden, ob eine Information hineingeschrieben oder ausgegeben werden soll. Mithilfe des Steuerbusses (Control Bus) gibt der Prozessor einer angesprochenen Baugruppe bekannt, ob er von ihr Daten empfangen oder zu ihr senden will. Prozessoren Socket A Slot1 Socket 370 Die erste Riege der PC-Prozessoren (8086 und 8088) hatte noch Sockel wie übliche Microchips. Zu den Zeiten von 286, 386 und einigen 486ern waren dann auch viele fest aufgelötete CPUs anzutreffen, dann aber kamen die ZIF-Sockel (ZeroInsertionForce, zu deutsch: Null-Kraft Sockel) auf. Diese erlauben das Einsetzen und Herausnehmen der CPU praktisch ohne Kraft und ermöglichen so ein problemloses Wechseln. Die ZIFSockel entwickelten sich bis zum Sockel-8 (PentiumPro), als Nachfolger definierte Intel dann den Slot1 für den Pentium-II. Und bald gab es auch einen Slot2 für die dritte Generation Pentium-II (Xeon). Allerdings gibt es mittlerweile wieder die Entwicklung hin zum Sockel. Der aktuellste Vertreter ist der Socket 370. Die Slots erinnern in ihrer Beschaffenheit übrigens an EISA Steckplätze (zwei Kontakt-Etagen), und aufgrund der Größe der von der Platine abstehenden Pentium-II CPU sind sie nur auf ATX Motherboards wirklich praktikabel. Bussysteme ISA PCI AGP Auch bei den Bussystemen hat sich einiges getan. Bei den ersten PC war noch der ISA-Bus primäre Erweiterungsschnittstelle, er wurde später zwar noch von 8 auf 16 Bit-Breite erweitert, aber er blieb doch auf 8 MHz beschränkt. Mehrere Hersteller und Hersteller-Vereinigungen versuchten in der Folgezeit dann neue Bussysteme einzuführen, so u.a. EISA, Microchannel oder Vesa-Local Bus. Im Endeffekt aber dominiert heutzutage der erheblich offener gestaltete PCI-Bus. Die neueste Entwicklung nun ist der AGP-Bus, dieser bietet der Grafikkarte eine schnellere Anbindung an den Hauptspeicher. Mit der Zeit wurden auch ganz neue Erweiterungsbussysteme eingeführt, in erster Linie seien hier PS/2 Schnittstellen für Maus und Tastatur, IrDA zur drahtlosen Übertragung von Daten zwischen zwei PCs mittels Infrarot, BlueTooth, der USB (Universal Serial Bus) und FireWire als zukunftsweisende Anschlussmöglichkeit für Hardware mit kleinem bis mittlerem Datenaufkommen (Tastatur, Maus, Scanner, Drucker, externe 2 Festplatten und Laufwerke etc.) sowie der in den neuesten Chipsätzen integrierte I C-Bus (von Intel SMBus, System Management Bus genannt) der computerinterne Management-Hardware wie Temperaturfühler anbindet. Der AGP (Accelerated Graphics Port) verfügt über zusätzliche Signale für Pipelining: Während beim PCI-Bus ein Datentransfer erst erfolgen kann, wenn der vorangegangene Datentransfer abgeschlossen ist, können sich beim AGP die Datentransfers überlappen. Im Pipelining-Verfahren des 2x-Modus erreicht AGP einer Übertragungsrate von 595 MB/sec, das ist die vierfache Geschwindigkeit des PCI-Bus. Die Grafikkarte kann über das AGP direkt auf den Speicher des Mainboards zugreifen, ohne über eine Bridge zu gehen. Die Grafikkarte nutzt die gesamte Bandbreite des AGP. Der PCI-Bus (Peripheral Component Interconnect Bus) arbeitet mit einer Taktfrequenz von bis zu 66 Megahertz und kann bis zu 133 Megabyte pro Sekunde über den Bus bewegen. Die Datenbusbreite sind auf moderne 32-Bit-Architekturen ausgelegt. Die im ursprünglichen IBM-PC eingeführten ISA-Steckplätze (Industrie Standard Architecture) sind veraltet. Die maximale Übertragungsrate von rund 16 Megabyte pro Sekunde ist für viele Anwendungen zu langsam. Boardtypen AT-Board BAT-Board ATX-Board ATX-Slot Unter einem Typ versteht man einen Standard, der die Größe des Boards, sowie die Lage der Bauteile auf dem Motherboard bestimmt. Auch Bohrlöcher und Stromanschluss sind darin definiert. Vom vergleichsweise riesigem AT-Board (etwa 30 x 35 cm) ging die PC-Industrie spätestens beim 486er weitgehend auf Baby-AT (BAT) über (etwa 22 x 33 cm). Jedoch wuchsen gleichzeitig CPU (und der Kühlturm auf der CPU), es wurden zunehmend Schnittstellen (parallel, seriell, Floppy, Festplatte, etc.) auf dem Motherboard mit integriert, so dass der Platz knapp wurde. Daher definierte Intel 1995 den neuen Typ ATX. Wichtigster Inhalt: Das Motherboard wird um 90° gedreht, die Steckplätze behalten aber ihre alte Lage. Auf diese Weise wird die CPU von den Steckplätzen wegbewegt und kann diese nicht mehr blockieren. Auch wird ein neuer Stecker für die Stromversorgung eingeführt, dieser ist im Gegensatz zum alten BAT-Stecker verpolungssicher. Des weiteren wird ein Bereich auf dem Board bestimmt, an dem sich die Anschlüsse für Tastatur, parallele und serielle Schnittstelle, usw. sammeln sollen. Beispiele: Schnittstellen Was ist eine Schnittstelle? Der allgemeine Begriff Schnittstelle (engl. Interface, Port) stammt aus der Nachrichtentechnik. Mit ihm bezeichnet man im Prinzip den Punkt, an dem zwei unterschiedliche Kommunikationseinheiten miteinander verbunden sind. Im engeren Sinn bezieht sich dieser Begriff auf den Bereich Computertechnik. Schnittstellen sind in zwei unterschiedliche Hauptgruppen einzuordnen: 1. Maschinen-Maschinen-Schnittstellen: 1. Hardward-Hardware-Schnittstellen: Sie dient dazu Hardwarekomponenten untereinander zu verbinden. 2. Software-Software-Schnittstellen: Sie ermöglichen die Kommunikation zwischen unterschiedlichen Software-Bestandteilen/ Produkten. 3. Software-Hardware-Schnittstellen: Dies sind Schnittstellen, die es Software ermöglicht auf Hardware zuzugreifen. 2. Mensch-Maschinen-Schnittstellen: Auch Benutzerschnittstellen genannt. Sie ermöglichen es dem Benutzer mit dem Computer in Interaktion zu treten 1. Befehlszeilen-Schnittstelle (z.B. DOS-Eingabeaufforderung, UNIX-Shell) 2. Menüschnittstelle (menügesteuerte Schnittstelle; wird von vielen Anwendungsprogrammen benutzt, es werden Befehlswörter ausgewählt) 3. Graphische Benutzungsoberfläche (z.B. Mac OS, KDE: gibt dem Anwender nicht nur die Möglichkeit Objekte zu wählen. Diese kann er z.B. auch in Größe und Aussehen manipulieren. Der Anwender arbeitet auf einem Desktop) Maschinen-Maschinen-Schnittstellen 1 Hardware-Hardware-Schnittstellen: In diesem Referat werden wir uns ausschließlich mit den Hardware-Hardware-Schnittstellen befassen. Um Ihnen einen kleinen Ausblick in das durchaus sehr komplexe Thema zu geben haben wir die Gliederung vorangestellt. Diese Gruppe kann noch weiter zerlegt werden: Man unterschiedet zwischen paralleler Übertragung und serieller Übertragung. Im Laufe der Jahre haben sich einige Schnittstellenstandards etabliert. 1.1 Serielle Schnittstellen 1.1.1 Serielle Schnittstelle (RS-232) Die RS-232-Schnittstelle ist eine der ältesten Schnittstellen in den heutigen PCs, sie basiert auf der V.24-Schnittstelle, die im Jahre 1968 entwickelt wurde. Der Standard wurde von der EIA (Electronics Industries Association) spezifiziert. Mit diesem Standard kann (fast) jedes Terminal mit (fast) jedem Computer benutzt werden. Für die Kommunikation zwischen Terminal und Computer wird auf jeder Seite ein so genannter UART (Universal Asynchronous Receiver Transmitter) und eine Logikschaltung für den Buszugriff benötigt. Ihren Ursprung hat sie bei der Datenübertragung über das Telefonnetz. Zur Steuerung von Modems (Modulator/Demodulator) verfügt sie über besondere Signale. In anderen Bereichen werden die Signale nicht benötigt und man beschränkt sich auf die BasisSignale. Die RS-232 wird z.B. für den Com-Port, Game-Port und die serielle Maus verwendet. Der Standard schreibt vor, dass pro Datenbyte 10 Bit gesendet werden. Die 2 Bit Overhead werden für den Anfang (Startbit) und das Ende (Stoppbit) benötigt, die Pegel des Start- und Stoppbits sind definiert und dienen zur Erkennung der Nutzdaten. Die Nutzdaten werden nach ASCII (American Standard Code of Information Interchange) kodiert um sie unabhängig vom Typ des Datenendgeräts zu halten. Im RS-232 Standard sind 25 Signale definiert, wobei in der Realität wesentlich weniger Signale genutzt werden. 1.1.1.1 Begriffserklärung zur RS-232 Verbindung: ● ● ● DCE: (Data Communications Equipment) oder DÜE (Datenübertragungseinrichtung). Diese Einrichtung, z.B. ein Modem allgemeiner ein Pegelwandler, setzt die Signale um, so dass sie über eine Telefonleitung (Datenfernleitung) übertragen werden können. DTE: (Data Terminal Equipment) oder DEE (Datenendeinrichtung). Daten-End-Einrichtungen sind Geräte, die Signale senden und/oder empfangen ohne sie weiterzuleiten. Dies kann ein Computerterminal eines Mainframes, ein Drucker, Plotter oder PC sein. Null Modem: Es ist eine RS-232 Kabel, das zwei Geräte direkt verbindet ohne Modems zwischen zu schalten. Die Kabellänge ist hierbei in der Regel auf 10 Meter begrenzt. Dabei wird den Schnittstellen ein Modembetrieb vorgetäuscht. 1.1.2 USB (Universal Serial Bus) USB wurde Mitte der neunziger Jahre von einem Firmenkonsortium entwickelt, darunter waren Compaq, DEC, IBM, Intel, Microsoft, NEC und Northern Telecom. Schon nach kurzer Zeit hat sich die Entwicklergemeinschaft stark vergrößert. Ihr Ziel war es ein Bus zu entwickeln um langsame Peripherie anzuschließen. Diese Idee entstand daraus, dass es zuvor keine einfache Möglichkeit gab um Peripherie an einen PC anzuschließen. Vor USB musste der Anwender wenn er z.B. einen Scanner gekauft hat den PC öffnen um eine Schnittstellenkarte einzubauen. Danach musste er meist noch Jumper setzen und Konflikte im System beheben. Ein weiteres Problem war die begrenzte Zahl von Steckplätzen und Ressourcen im PC. Auf diesem Hintergrund entwickelte das Konsortium folgende neun Ziele: ● ● ● ● ● ● ● ● ● Das System soll Plug and Play fähig sein. Das Gehäuse soll nicht mehr geöffnet werden müssen. Ein standardisiertes Kabel soll verwendet werden. Die E/A-Geräte sollen über das Kabel mit Strom versorgt werden. An einen einzigen Computer sollen sich bis zu 127 Geräte anschließen lassen. Das System soll Echtzeitgeräte (z.B. Sound, Telefon) unterstützen. Der Bus soll Hot-Plugging unterstützen. Nach der Installation eines neuen Gerätes soll kein Neustart nötig sein. Die Herstellungskosten sollen niedrig gehalten werden. All diese Anforderungen wurden in die Tat umgesetzt. Die Version 1 unterstützt eine Geschwindigkeit von 1,5 Mbyte/s. Es kann für Peripherie wie: Tastatur, Maus, Monitor, Drucker, Joystick, Modem, Scanner genutzt werden. Mittlerweile ist die Version 2 auf dem Markt die selbst Videodaten in Echtzeit ohne Probleme übertragen kann. USB 2 überträgt die 40-fache Geschwindigkeit über die selben Kabel und Stecker wie USB 1, es übertrifft sogar im Augenblick FireWire (dazu später mehr). Zur Architektur von USB: Ein USB-System besteht aus einem Root-Hub der mit dem Hauptbus (PCI-Bus) des Systemes verbunden ist. Der USBBus hat einen sternförmige Struktur. An den Root-Hub können entweder noch weitere Hubs, oder die Peripheriegeräte angeschlossen werden. Die Kabel haben am Anfang und Ende unterschiedliche Stecker (Connectors) die ein Falschanschließen verhindern. Das Kabel besteht aus vier Drähten, zwei für Daten, einen für die Spannungsversorgung (+5 Volt) und einen für Masse. Das Signalisierungssystem überträgt eine 0 als Spannungsimpuls und eine 1 in Abwesenheit eines Spannungsüberganges, so dass lange Folgen von Nullen einen regelmäßigen Impulsstrom erzeugen. Struktur für ein USB-Netzwerk Struktur für ein USB 2-Netzwerk Wenn jetzt der Benutzer ein neues Gerät an das System anschließt, erkennt dies der Root-Hub und sendet einen Interrupt- Signal an das Betriebssystem. Diese wiederum fragt dann die Informationen aus der neuen Hardware ab (nicht initialisierte Karten beginnen mit der Adresse 0), insbesondere die Art des Gerätes und dessen Bandbreitenbedarf. Nun prüft das System ob genügend Bandbreite vorhanden ist; wenn ja, bekommt das Gerät eine Adresse (zwischen 1-127) zugewiesen. Diese Daten werden dann in ein Register im Inneren des Gerätes in Verbindung mit anderen Daten gespeichert. Nun ist das Gerät betriebsbereit. Die Datenübertragung kann man sich logisch durch Bit-Pipes erklären. Für jedes Gerät gibt es eine eigene Pipe. Diese verbindet den Root-Hub mit den angeschlossenen Geräten. Die eigene Pipe kann jedes Gerät in maximal 16 Teil-Pipes splitten, die zur Übertragung unterschiedlicher Daten (z.B. Audio und Video) genutzt werden können. Die PeripherieGeräte können untereinander nicht kommunizieren. Der Datenfluss ist nur zwischen Root-Hub und Endgerät bzw. umgekehrt möglich. 1.1.3 IEEE 1394 (FireWire, i.LINK) Die IEEE 1394-Technologie wurde von Apple entwickelt und erhielt den Namen "FireWire". Dieser Begriff bezeichnet eine verhältnismäßig neue serielle Schnittstellentechnologie für Computer- und Videogeräte zur Übertragung digitaler Daten mit bis zu 400 MBit/sec. FireWire ist von der IEEE ([sprich: Eye-triple-E] Institute of Electrical and Electronics Engineers, Inc ) und ist standardisiert unter der Bezeichnung IEEE 1394. In den Jahren 1997/98 nennt die Firma Sony im Bezug auf ihre Produkte FireWire in i.LINK um. Als Begründung gaben die Japaner an: mit "FireWire" assoziiere der Kunde "Gefahr" und "brennende Computer". Um den drei unterschiedlichen Namen noch die Krone aufzusetzen gibt es einen vierten; dieser wurde von TI (Texas Instruments) geprägt und lautet "Lynx", dieser wird aber sehr selten benutzt. Allen Namen ist gleich, das sie die Schnittstelle nach der Norm 1394 meinen. Im Bereich Digitale Bild-/Tonübertragung hat sich FireWire zum quasi Standard entwickelt. Sehr schnell gab es aber auch erste externe Festplatten mit dem FireWire-Interface, weitere Produkte folgten bald. Zur Architektur von FireWire: Es gibt sie in zwei verschiedenen Ausführungen, einmal als Backplane (Rückwand modularer Netzwerkgeräte: Auf der Backplane sind ein oder mehrere Hochgeschwindigkeitsbussysteme -z.B. FireWire- untergebracht. Über sie können die einzelnen Module untereinander verbunden werden.) und als Kabelvariante. Die erstere wird eigentlich nur in der Industrie verwendet. Der Standard sieht zur Zeit drei verschiedene Übertragungsraten (100, 200 und 400MBit/s) vor, wobei das Ende der Leistungsfähigkeit bei weitem noch nicht erreicht ist, in näherer Zukunft sollen es 1,2 GBit/s (150 Mbyte/s) werden. Dabei gilt im Moment das Minimalprinzip bei der Datenübertragung, d.h. das langsamste aktive Gerät am Bus bestimmt die maximale Geschwindigkeit. Die Entwickler versuchen dies zu ändern, so dass jedes Gerät optimal versorgt werden kann. Der Adressbus bei FireWire ist 64 Bit breit, er basiert auf dem Standard IEEE-1291 (Control- und Status Register Management für Mikrocomputer-Busse). Dabei werden die ersten 16 Bit für die Adressierung der Geräte verwendet, die restlichen 48 Bit für die Register- und Speicherimplementierung. Bei der Adressierung muss man zwischen 6-Bit-Node (63 Geräte adressierbar) und 10-Bit-Node (1023 Geräte adressierbar) unterscheiden. Einer der größten Vorteile außer der Geschwindigkeit im Vergleich zu USB (hinsichtlich dessen was FireWire in Zukunft zu leisten vermag) ist die absolute Flexibilität bei der Verkabelung der Geräte untereinander. Hierbei ist keine Sternform wie bei USB nötig oder eine Ringform wie beim Token Ring. Zur absoluten Flexibilität trägt auch das Kabel bei; es ist wesentlich formbarer als RJ45-Kabel oder BNC-Kabel. Das Kabel heißt P1394; in ihm befinden sich zwei Twisted-Pair Leitungen, welche gesondert abgeschirmt sind. Dazu kommen laut Standard noch zwei Leitungen für die Spannungsversorgung (8-40V bei max. 1,5A), die jedoch die Firma Sony aus ihrem Layout entfernt hat. Um alles zusammen kommt noch eine zweite Abschirmung. Firewire bietet die Möglichkeit mehrere Stränge (Ports) anzulegen. Jeder Strang kann bis zu 16 Geräte verwalten. Insgesamt können wie oben erwähnt 63 bzw. 1023 Geräte angeschlossen werden. Dabei gilt es einige Regeln im Bezug auf die Kabellänge zu beachten: Ein Strang darf höchstens 72m lang sein, der Abstand zwischen den Konten soll 4,5 m nicht überschreiten. FireWire ist voll hot plug fähig. Wenn ein Gerät angeschlossen wird, bekommt es eine physikalische Adresse zugewiesen, diese behält es selbst wenn das Gerät vom Bus getrennt wurde. Diese ändert sich erst nach einem Bus-Reset. Ein wesentlicher Nachteil von FireWire sind die hohen Kosten für die Schnittstellen und die Kabel. FireWire dient nicht für den Low- Cost-Markt, es ist ein High-Tech-Produkt für die flexible Übertragung von großen multimedialen Datenmengen. 1.1.4 Serial-ATA Die Standardfestplattentypen sind heute EIDE Festplatten mit ATA/66, ATA/100 oder ATA/133. Im professionellen Einsatz ist SCSI der Standard. Im Februar 2000 stellte Intel in San Jose auf dem IDF (Intel Developer Forum) den neuen Bustyp Serial-ATA (AT Attachment) vor, dieser soll die EIDE Festplatten ablösen. An diesem Standard sind insgesamt sieben Firmen beteiligt: APT Technologies, Dell, IBM, Intel, Maxtor, Seagate und Quantum. Schon damals war dieser Bus sehr Erfolg versprechend, da er 92 % mehr Leistung bringt als parallele ATA, die Datenübertragungsrate liegt bei 150 MByte/s. Und in der weiteren Entwicklung sollen diese Werte auf ca. 600 MByte/s angehoben werden. Parallel-ATA basiert auf einer Bus-Struktur mit einem Master-Laufwerk und einem Slave-Laufwerk. Heutige Chipsätze bieten meist zwei ATA-Busse für die Verwaltung von vier Geräten. Eins der Hauptproblem der parallelen Technik ist die unterschiedliche Laufzeit der Signale über die verschiedenen Leitungen sowie die unterschiedlichen Ausgangspegel, die bei hohen Geschwindigkeiten auftreten können. Daher muss ab einer bestimmten Geschwindigkeit die Länge der Kabel reduziert werden, bzw. darf der Takt nicht erhöht werden. Vorteile von Serial-ATA gegenüber Parallel-ATA: ● ● ● ● ● ● ● ● ● Deutlich höhere Übertragungsraten (150 MByte/s zu 100 MByte/s) 4-polige Kabel anstelle 40-poliger Kabel weniger Leistungsverbrauch kleinere (preisgünstigere) Steckverbinder sowie dünnere und längere Kabel (bis 1 Meter) Besserer Luftdurchsatz und bessere Kühlung durch die schmalen Kabel Kaum Laufzeitprobleme durch ein Kabel je Gerät, dadurch entfällt eine Terminierung Wegfall der alten Master/Slave Regelung durch Sternverkabelung Wegfall der alten 4 Platten Regelung Softwarekompatibilität zu alten Systemen Die Gesamtheit der versprochenen Vorteile von Serial-ATA hat dazu geführt, dass sich weitere 60 Firmen der "Serial ATA Working Group" angeschlossen haben, damit sie frühzeitig auf die Spezifikationen Zugriff haben. Für die Spezifikation sind weiterhin nur die sieben Gründungsmitglieder verantwortlich. Stern-Topologie bei Serial-ATA Serial-ATA Festplattenanschluß Zur Architektur von Serial-ATA: Serial-ATA basiert nicht auf einem Master-Slave-Konzept. An einem Strang ist nur ein Laufwerk angeschlossen, also eine direkte Punkt-zu-Punkt-Verbindungen zwischen dem Interface-Chipsatz auf dem Mainboard/ Steckkarte und dem angeschlossen Laufwerk. Es müssen keine Jumper gesetzt werden und es muss keine gesonderte Bus-Terminierung stattfinden, da immer die Leitung im Chip terminiert. Daraus ergibt sich ein weiterer Vorteil: Defekte Geräte können keine anderen Geräte beeinflussen. Für die Datenübertragung wird die NRZ-Kodierung (Non-Return-to-Zero. Digitalcode, bei dem sich die Polarität bei einem 0 / 1-Wechsel positiv und bei einem 1 / 0-Wechsel negativ ändert) eingesetzt, wobei der Spannungshub zwischen +250 mV und -250 mV um eine gemeinsame Mitte gewählt wurde. Das entspricht der weit verbreiteten LVDS-Technik (Low Voltage Differential Signaling. Übertragungsverfahren von digitalen Bilddaten, dass mit einer Parallel/Seriell-Wandlung arbeitet. Wird vornehmlich bei Notebooks verwendet). Die LVDS-Technik zählt zum Standard-Verfahren bei der Hochgeschwindigkeits-Datenübertragung. Durch diese Technik werden EMV-Probleme (ElektroMagetische-Vertäglichkeit) sehr gering gehalten. Serial-ATA ist als interner Bus ausgelegt zum Anschluss von Massenspeichern. Er ist nicht dafür gedacht Scanner oder Drucker anzuschließen. Im Bus ist ein Powermanagement integriert für den mobilen Einsatz, so kann die Leistung verringert, bzw. in Stufen abgeschaltet werden. Selbst an den Anschluß von parallelen Geräten ist gedacht. Dies geschieht mittels Adaptern. Sie können auf der Seite des Mainboards oder der Seite des Laufwerkes eingesetzt werden. Der Lebenszyklus ist auf ca. 10 Jahre ausgelegt. Dabei sind zwei Leistungssprünge eingeplant. Dies hängt von der Geschwindigkeitsentwicklung der Laufwerke ab. So ist nur ein kleiner, kostengünstiger Pufferspeicher für die Geschwindigkeitsanpassung erforderlich. In der Diskussion um eine zukünftige Erweiterung steht die Hot-Plug-Fähigkeit, Zugriffsmöglichkeiten auf Platten größer 137 GByte und 1st-Party-DMA. 1.1.4.1 Vor- und Nachteile von Serial-ATA im Vergleich zu anderen Techniken: JA JA JA Parallel (Standard) JA JA NEIN JA Serial-ATA Preisgünstig herzustellen einfaches Übertragungsprotokoll Kabellänge über 60 cm Länge möglich Hot Plug fähig (auch vom Betriebssystem abhängig) Plug and Play (auch vom Betriebssystem abhängig) dünnes, flexibles Kabel möglich geringe Spannung (Volt) einfacher Stecker SCSI FireWire NEIN NEIN JA NEIN NEIN JA NEIN JA JA JA NEIN NEIN JA JA JA JA NEIN NEIN NEIN NEIN JA NEIN JA JA JA Bandbreite ausbaufähig Terminierung erforderlich empfindlich gegenüber Störstrahlung JA NEIN NEIN NEIN NEIN JA NEIN JA NEIN JA NEIN NEIN (Quelle: http://www.hardwaregrundlagen.de) 1.2 Parallele Schnittstellen 1.2.1 Parallele Drucker Schnittstelle (Centronics) Die parallele Schnittstelle wird auch als Centronics-Schnittstelle bezeichnet. Ihr Haupteinsatzgebiet ist der Datentransfer zwischen PC Peripherie, z.B. Drucker, Scanner und Zip-Laufwerke. Oder allgemeiner gesagt zu jeder Peripherie die Charakteristik Centronics hat. Ihr Signalpegel liegt bei +5V(High) und 0V(Low). Über die parallele Schnittstelle können 8 Bits gleichzeitig übertragen werden. Dazu kommen noch einige Übertragungsleitungen für Steuersignale, erst diese können eine korrekte Datenübertragung gewährleisten. Die Schnittstelle ist bidirektional ausgelegt, das bedeutet sie kann Daten senden und empfangen. Das Interface hat 12 gepufferte Ausgabeleitungen (8 Datenleitungen, Strobe, Printer Initialize, Auto Feed, Select Input) und 5 Eingabeleitungen (Acknowlegde, Busy, Paper End, Error, Select), die vom Drucker beschrieben werden. Die CentronicsSchnittstelle gibt es in verschieden Ausführungen mit 14, 16, 24, 32 oder 36 Leitungen. Von diesen sind aber nur elf für die Datenübertragung unbedingt notwendig, die anderen sind wie oben aufgelistete zur Signalisierung von besonderen Zuständen gedacht. Für parallele Schnittstellen verwendet man die Bezeichnung LPT1 oder LPT2. D-Sub-Stecker (25polig) Centronics-Stecker (36polig) Weitere Anwendungsbereiche: ● ● 25pol. D-Sub Loopback Stecker: Dies ist ein Testadapter, mit ihm kann die Funktion einer parallelen Schnittstelle z.B. eines PCs überprüfen werden. Paralleles Interlink-Kabel: Dieses Kabel kann zum Datenaustausch zwischen zwei PCs genutzt werden 1.2.2 PCI Bus (Peripheral Component Interconnect) ● ● ● ● ● ● ● ● Von der Firma Intel entwickeltes Bussystem Alternative zum VESA Local Bus, vor allem seit Markteinführung der Pentium Prozessoren Unabhängig vom Prozessor, somit auch in anderen Systemen einsetzbar (z.B. Apple Macintosh) Übertragungsrate maximal 132 MByte/s bei 32 Bit Datenbreite Version 2.1 sogar 264 MByte/s bei 64 Bit Datenbreite Am Bus anliegende Taktfrequenz: 25-33MHz PCI-Bus erlaubt in Verbindung mit passendem BIOS automatische Konfiguration (Plug & Play) Hauptbedeutung für Erweiterungskarten mit hohem Datendurchsatz (Grafikkarten oder FestplattenController) 1.2.3 AGP Bus (Accelerated Graphics Port) Ebenfalls von Intel entwickelter Hochgeschwindigkeitsbus für die Grafikausgabe am PC. AGP ist eine Art Erweiterung des PCI-Busses zur Darstellung von realistischen 3D Grafiken. Diese sind durch die Texturen sehr speicherintensiv, die Bandbreite des PCI-Busses ist aber zu klein die großen Datenmengen zwischen Hauptspeicher und Grafikkarte auszutauschen. AGP arbeitet ähnlich wie der PCI-Bus, hat allerdings einige Vorteile: ● ● ● ● ● AGP arbeitet mit 66 MHz Taktung (PCI mit 33 MHz) AGP kann Datenpakete nicht nur an den steigenden Signalflanken (wie PCI), sondern auch an den fallenden Flanken übertragen Verschiedene Modi: ❍ X1 Modus: 264 MByte/s ( = doppelte Taktung gegenüber PCI) ❍ X2 Modus: 528 MByte/s ❍ X4 Modus: 1056 MByte/s AGP ist direkt an den Arbeitsspeicher des PCs angebunden -> Geschwindigkeitsvorteil bei 3D Programmen (Rendering, Raytracing) AGP erhöht die Frame-Rate (Anzahl der dargestellten Bilder pro Sekunde) AGP bietet keinerlei Geschwindigkeitsvorteil im täglichen Gebrauch des PCs, nur bei 3D Programmen und spielen. Der AGP-Slot (Steckplatz) ist kleiner als ein PCI-Slot Außerdem verrutschen Grafikkarten im AGP-Slot leicht beim Transport und arbeiten dann nicht oder nur fehlerhaft. 1.2.4 SCSI-Bus (Small Computer Systems Interface) Der große Vorteil von SCSI: alle angeschlossenen Geräte werden vom Hostadapter verwaltet t CPU wird nicht belastet! Der Hostadapter ist die Schnittstelle zwischen SCSI-Geräten und der CPU Die meisten SCSI-Adapter haben Anschlussstecker sowohl für interne als auch für externe Geräte SCSI-1 Standard stellt das Grundgerüst dar. Es wurde zwar erweitert, aber nie verändert t Abwärtskompatibilität Arbeitsweise: ● ● ● ● ● SCSI-Geräte kommunizieren asynchron (d.h. ohne festen Takt) um die Übertragungsparameter zu vereinbaren Eigentliche Datenübertragung: Ab SCSI-2 in einem schnelleren, synchronen Übertragungs-Modus SCSI-Bus muss immer eine Kette von aneinander gehängten SCSI-Geräten sein Jeweils das letzte Gerät der Kette muss terminiert sein Nachteil: Durch die Abwärtskompatibilität arbeitet der Bus nach Standart des langsamsten Gerätes d.h. wenn ein SCSI-1 Gerät am Strang hängt, kann die schnellste Festplatte nicht über 5MB Daten pro Sekunde schicken Die drei Übertragungsmodi von SCSI: 1. Single Ended (SE) ■ Bereits bei den ersten Geräten wurde SE benutzt ■ Se ist relativ störanfällig, Kabellänge bei höheren Geschwindigkeiten daher stark begrenzt ■ Zwischen den Geräten muss ein Mindestabstand von 30 cm Kabellänge bestehen ■ Die Daten werden über die Drähte im Kabel übertragen: jeweils eine Strom durchflossene Datenleitung wird mit einer Masse-Leitung in Verbindung gesetzt ■ Wegen hoher Störanfälligkeit SE-SCSI nur bis zum Ultra-Wide-Standart 2. Low Voltage Differential (LVD) ■ Entwicklung von LVD für schnellere Übertragungen ■ Kabellänge bis 12 m ■ Datenübertragung sowohl auf Daten- als auch auf Masse-Leitung, die Differenz der beiden Signale stellt die verschickten Daten dar (0 oder 1) ■ Da Signalverzerrungen sowohl auf Daten- als auch auf Masse-Leitung wirken, bleibt die Differenz gleich -> Störsicherheit ■ Abwärtskompatibel bis SCSI-1 3. High Voltage Differential (HVD) ■ Ähnlich wie LVD, allerdings wird mit wesentlich höheren Spannungen gearbeitet ■ durch höhere Spannungen teuer ■ Buslänge bis 25m (reichte für den Durchbruch von HVD nicht aus) 1.2.5 E-IDE Bus (Enhanced Integrated Drive Electronics) ● ● ● Schnittstelle für Massenspeicher (Festplatte, CD, DVD,...) IDE-Standard erweiternde, abwärtskompatible Schnittstelle Datentransferraten von 33 bis 66 MB/s ● ● E-IDE-Festplatten benötigen keine kostspieligen Controller-Karten Nachteil von IDE bzw. E-IDE ist die Begrenzung der Anzahl an Peripheriegeräten auf maximal zwei pro Kanal Quellen: Duden Informatik, Mannheim 1993 Computerarchetektur, Andrew S. Tanenbaum, James Goodman, Prentice Hall, München² 2000 Microsoft® Encarta® Professional 2002 http://www.elektroniklager.de/pc-sup/ http://www.wdrcc.de http://www.hardwaregrundlagen.de http://www.serialata.com Die Tastatur Allgemeines: Um einen Rechner bedienen zu können braucht man ein Gerät, welches das Eingreifen des Menschen ermöglicht. In der Regel ist das am PC (Personal Computer) die Tastatur. Die Tastatur ist das primäre Eingabegerät des Computers und damit die wichtigste Peripherie, weil sich fast alle Funktionen über die Tastatur durchführen lassen. Daher sind fast alle Computer mit einer Tastatur ausgestattet. Die Anordnung der Buchstaben und Ziffern wurde von der Schreibmaschine übernommen. Hier wurde die heute noch aktuelle Verteilung aus folgendem Grund gewählt: Bei der Schreibmaschine wurden die mechanischen Hebel, die die Buchstaben durch drücken auf das Farbband zu Papier brachten so angeordnet, wie die Tasten selbst. Wenn nun zwei Tasten deren mechanische Hebel dicht nebeneinander waren schnell aufeinander folgend gedrückt wurden, "verhakten" diese oft. Daher versuchte man die Buchstaben die in ihrer Kombination am häufigsten hintereinander getippt wurden, möglichst weit weg von einander zu positionieren. Es gibt verschieden Arten von Tastaturen z.B. Mechanische Tastaturen, Folien-Membran Tastaturen, Kapazitive Tastaturen und im entferntesten Sinne auch Touchscreens. Mechanischen Tastatur: Hier wird ein Kontakt über einen mechanischen Schalter geschlossen. Auf die Funktionsweise wird später noch näher eingehen. Folien - Membran Tastaturen: Hier werden Kontakte direkt auf einer Folie geschlossen, was einen deutlich kürzeren Tastenhub zur Folge hat. Kapazitive Tasten: Hier bilden Flächen auf der Taste und der Platine einen Kondensator dessen Kapazität sich bei der Betätigung verändert. Des weiteren gibt es auch verschiedene Arten um die physikalische Verbindung zum Mainboard herzustellen z.B. den USB-Stecker oder den üblichen PS2-Stecker. Heutzutage hat sich die MF/II Tastatur mit den Windowstasten als Standard etabliert. Sie verfügt in der deutschen Version mit den Windowstasten über 105 Tasten, und ist zusätzlich mit drei Leuchtdioden ausgestattet, die den Status bestimmter Tastaturfunktionen anzeigen. Die Verschiedenen Bereiche der Tastatur: Aufgeteilt ist sie in mehrere Bereiche (hauptsächlich in die ersten vier rot, blau, grün und gelb. Zur Verdeutlichung des Aufbaus sind in Abb.1 alle Funktionsbereiche farblich von einander abgegrenzt): Bild 1: Ansicht einer Standard-Tastatur ● ● ● ● ● ● ● Rot: Alphanumerischer Block (Schreibmaschine) Blau: Nummernblock (kann auch den Steuerungsblock ersetzen) Grün: Steuerungsblock (bewegt den Cursor) Gelb: Funktionstasten (verschiedene Bedeutung je nach Anwendung) Violett: Escape-Taste (Flucht: Bricht im Allgemeinen den gerade laufenden Vorgang ab) Dunkelbraun: Spezielle Funktionstasten, selten benötigt Hellbraun: Steuerungstasten Strg, Alt, Alt-Gr, aktivieren zusammen mit der Umschalttaste die Mehrfachbelegungen der Tasten Der alphanumerische Block: Der sog. Schreibmaschinenblock dient zur Text- und Zahleneingabe. Die Tasten sind mehrfach belegt. Die Belegung kann mithilfe so genannter Stummtasten variiert werden. Stummtasten werden so genannt, weil sie nur in Verbindung mit anderen Tasten gelten, das Drücken einer Stummtaste allein also keine Reaktion auslöst. Bei Verwendung von Stummtasten werden diese zuerst gedrückt und festgehalten, dann wird die gewünschte Taste gedrückt. Zu den Stummtasten gehören: ● ● ● ● ● Shift-Taste < > zum Abruf der Zweitbelegung Shift-Lock-Taste < >, auch als Feststell-/Caps-Lock-Taste oder Dauershift bezeichnet Alt-Taste <Alt> Alt-Gr-Taste <Alt Gr> zum Abruf der Drittbelegung Strg-Taste <Strg> oder <Ctrl> Die Mehrfachbelegung der Tasten des Schreibmaschinenblocks funktioniert wie folgt: 1. Im einfachen Modus (ohne Drücken von Stummtasten) erhält man die Tasten-Erstbelegung: Kleinbuchstaben und Ziffern. 2. In Verbindung mit der Shift-Taste <n> ruft man die Zweitbelegung ab, das sind Großbuchstaben und bestimmte Sonderzeichen (!, ?, §, $, % usw.). Sollen z.B. nur Großbuchstaben geschrieben werden, kann man diesen Modus durchgängig erreichen, wenn die Shift-Lock-Taste <p> einmal gedrückt wird. Auf der Tastatur rechts oben (in der Mitte) leuchtet dann eine Diode auf, woran man den Modus der Zweitbelegung erkennen kann. Ein einmaliges Drücken von <n> schaltet die Zweitbelegung wieder aus. 3. Manche Tasten sind mit einer Drittbelegung versehen. Diese Zeichen (eckige und geschweifte Klammern, @ usw.) sind mit der gedrückten <Alt Gr>-Taste abrufbar. Folgende Sondertasten sind von Bedeutung: Tabulatortaste <l> = Sprung zum nächsten Tabulator-Stopp Enter-/Return-Taste <Enter> oder <i > = Eingabebestätigung Rück-Taste <r> = Löschen des Zeichens oder markierten Bereichs vor dem Cursor Der Nummernblock: Er dient insbesondere der Eingabe von Zahlen und Rechenzeichen. Mit < > wird der Block ein- bzw. ausgeschaltet. Den aktivierten Modus erkennt man an der Leuchtdiode auf der Tastatur rechts oben (linke Diode). Gibt man den Dezimalwert für ein ASCII-Zeichen auf dem Ziffernblock der Tastatur bei gedrückter <Alt>-Taste ein, erhält man das gewünschte ASCII-Zeichen. Der Steuerungsblock Mit den Cursor-Tasten < >< >< >< > erreicht man eine entsprechende Bewegung des Cursors (der Eingabemarke) auf dem Bildschirm nach oben/unten/links/rechts. Über dem Cursor-Block findet man folgende Sondertasten: ● ● ● ● ● ● <Entf> oder <Del> = Entfernen-Taste (Löschen des Zeichens oder markierten Bereichs nach dem Cursor) <Einfg> oder <Ins> = Umschalten zwischen Einfüge- und Überschreibemodus (DOS-Ebene) <Pos1> oder <Home> = Bildlauf zum Zeilenanfang <Ende> oder <End> = Bildlauf zum Zeilenende <Bild > oder <PgUp> = Bildlauf nach oben (oft seitenweise) <Bild > oder <PgDn> = Bildlauf nach unten (oft seitenweise) Die Funktionstasten: Er besteht im Wesentlichen aus Funktionstasten (<F1>, <F2>, ..., <F12>), die dem Aufruf von Befehlen dienen. Die Tasten sind in den verschiedenen Programmen unterschiedlich belegt, <F1> ruft meist eine Hilfe auf. Zum Steuerblock gehören u.a. folgende Sondertasten: <Esc> = Escape, Fluchttaste (Abbruch eines Kommandos) <Druck> = Bildschirmausdruck (DOS-Ebene) Shortcuts: Als Shortcuts werden so genannte Tastaturcodes oder Tastaturkürzel bezeichnet. Das sind Tastaturbefehle, die durch gleichzeitiges Drücken (Kombinieren) mehrerer Tasten ausgelöst werden. Die meisten Anwendungsprogramme bieten eine Vielzahl solcher Shortcuts zur Arbeitserleichterung an, denn viele Aktionen lassen sich dadurch schneller abrufen als mit der Maus. Dabei werden vor allem die <Strg>- und die <Alt>-Taste genutzt. So lässt sich z.B. bei allen Windows-Anwendungen mit der Tastenkombination <Strg> + <X> ein markierter Bereich herausschneiden, mit <Strg> + <C> in die Zwischenablage kopieren und mit <Strg> + <V> an anderer Stelle einfügen. Mit der Maus wären hier zwei Klicks nötig (z.B. BEARBEITEN > EINFÜGEN). Die Funktionsweise der Tastatur: -Kurzform: Sobald eine Taste gedrückt oder losgelassen wird, wird dies vom Tastaturprozessor erkannt. Er berechnet daraus einen Scan-Code, der mit dem ASCII-Code des Zeichens nichts zu tun hat. Vielmehr besteht der Scan-Code aus der Nummer der gedrückten Taste und der Information, ob sie gedrückt (man spricht von einem Make-Code) oder losgelassen (Break-Code) wurde. Dieser Code wird an den Tastaturcontroller übermittelt, der über den IRQ 1 den Tastaturtreiber aktiviert und den Scancode übergibt. Falls es sich hierbei um das Drücken eines auszugebenden Zeichen handelt wir dieses als ASCII-Zeichen in den Tastaturpuffer (einem kleinen Bereich zum Zwischenspeichern der Zeichen bis zu ihrem Gebrauch) abgelegt. Je nachdem welches Programm gerade aktiv ist, wird das Zeichen z.B. einfach auf dem Bildschirm ausgegeben. -Ausführlicher: Auf der Tastaturseite befindet sich ein Tastaturprozessor, in der Regel ein 8048 von INTEL, und kommuniziert mit dem PC. Über fünf Leitungen ist die Tastatur mit dem PC verbunden. Leitung 5 führt stets 5 Volt und versorgt die Tastatur mit Spannung. Leitung 4 wird auf Masse gelegt. Leitung 3 wird/wurde nur bei Geräten der XT-Klasse verwendet und bewirkt ein Rücksetzen der Tastatur beim booten. Auf Leitung 2 findet der Datenaustausch statt und auf Leitung 1 wird von der Tastatur aus ein Taktsignal gesendet. Ablauf einer Eingabeaktion Die Tasten der Tastatur sind als Matrix mit Leitungen verbunden, welche der Tastaturprozessor überwacht. Wird eine Taste betätigt, so entsteht ein elektrischer Kontakt zwischen einer Reihe und einer Spalte der Matrix. Der Tastaturprozessor legt kurzzeitig eine Spannung an die Reihen und tastet danach die Spalten ab. Wird bei einer Reihe Spannung festgestellt, so muss die Taste am Kreuzungspunkt zwischen Reihe und Spalte gedrückt worden sein. Der Prozessor beobachtet einige Millisekunden lang diese Taste, bevor er davon ausgeht, dass die Taste tatsächlich gedrückt wurde. Diese Wartezeit ist erforderlich, weil beim Betätigen der Taste der Kontakt mehrmals hergestellt wird, bevor dieser Zustand endgültig stabil wird. Bleibt der Kontakt so lange bestehen, sendet der Prozessor eine Zahl, den so genannten "Scan-Code" an den Computer, der die gedrückte Taste eindeutig identifiziert. Dieser Code steht in keinem Zusammenhang mit dem Zeichen, das auf der jeweiligen Tastatur aufgedruckt ist, er stellt tatsächlich nur die Nummer der Taste dar, aus der später das Zeichen gewonnen werden muss. So können auch die beiden SHIFTTasten getrennt betrachtet werden, denn sie besitzen unterschiedliche ScanCodes. Falls mehrere Tasten gleichzeitig gedrückt wurden, speichert der Tastaturprozessor die Tasten zunächst in einem internen Puffer ab, der in der Regel zehn Zeichen Platz bietet. Voll wird er jedoch nie, denn die Übertragung geht so schnell, dass der Anwender nicht hinterherkommt. Scan-Codes erzeugt der Prozessor jedoch nicht nur beim Niederdrücken, sondern auch beim Loslassen der Taste. Erst dadurch kann das gleichzeitige Drücken mehrerer Tasten richtig erkannt werden. Unterschieden werden die Scan-Codes deswegen in Make-Codes (für das Niederdrücken) und Break-Codes (für das Loslassen). Break-Codes sind immer größer als 128, also nur das 8. Bit ist zusätzlich gesetzt, während Break-Codes immer kleiner als 128 sind (dort ist das 8. Bit LOW). Somit kann eine Tastatur maximal 128 Tasten umfassen. Die Übertragung der Codes erfolgt synchron über die Datenleitung 2. Eine synchrone Übertragung bedeutet, dass von einer Seite (in diesem Falle von der Tastatur auf Leitung 1) ein Takt ausgegeben wird. Die Daten werden als eine Reihe von Bits übertragen, wobei jedes Bit genau einen Takt lang auf der Leitung bleibt. Zunächst wird zwei Takte lang ein HIGH auf der Datenleitung gesendet, um zu signalisieren, dass ein Zeichen folgt. Anschließend werden MAKE oder BREAK Code gesendet, das niederwertigste Bit zuerst. Die PC-Maus : Arten und Funktion 1. DieMaus Die Maus gehört zu den besonders auffälligen Entwicklungen im Laufe der PC-Zeit (Personal Computer). Anfangs wurde die Maus von Anwendern und Programmierern eher kritisch betrachtet. Aber heutige Benutzeroberflächen lassen sich mit der Maus viel einfacher bedienen als nur mit der Tastatur. Bild 1: Dreitastenmaus Viele Programme, insbesondere die, die mit einer graphischen Oberfläche arbeiten, lassen sich mit einer Maus bedienen. Eine Maus erlaubt schnelle Bewegungen auf dem Bildschirm und übernimmt insofern die Funktion der Cursortasten, so dass man sehr schnell von einer Stelle im Text zu einer anderen gelangt. Durch zusätzliche Tasten auf der Maus lassen sich verschiedene Programmfunktionen steuern. Mittlerweile sind fast alle Anwendungsprogramme und auch schon eine Vielzahl an Betriebssystemen für den Einsatz einer Maus ausgelegt. Die Maus überträgt zweidimensionale Bewegungen und funktionsauslösende Tastendrücke des Benutzers an den Computer. Zur Erfassung der Bewegungen können mechanische oder optische Sensoren eingesetzt werden (siehe Abschnitt 2. und 3.). Als funktionsauslösende Mechanismen werden eine verschiedene Anzahl an Tasten eingesetzt, meist zwischen zwei und fünf. Im Zusammenhang mit der Betätigung der Maustasten wird meist vom Klicken gesprochen. Ein einfaches Betätigen wird als "Klick" bezeichnet. Das schnelle, zweimalige Betätigen als "Doppelklick". Während mit der linken Maustaste meistens Programme aktiviert werden, dient die rechte Maustaste dazu, Menüfelder aufzurufen. Diese Menüfelder stehen im Zusammenhang mit dem Objekt, das man mit dem Mauszeiger auswählt. Deshalb bezeichnet man diese Menüs als Kontextmenüs. Sie sind für das schnelle und routinierte Arbeiten sehr hilfreich. Zum Standard ist mittlerweile das Mausrad (auch: Scrollrad) geworden, mit dem man zum Beispiel bei größeren Textdokumenten schneller von einer Stelle am Anfang des Textes zu einer anderen am Ende scrollen kann. Mittlerweile gibt es auch schon Mäuse mit 2 Mausrädern, mit denen man vertikal und horizontal scrollen kann. Die PC-Maus wird, wie die Tastatur, über ein Kabel (seriell, PS2, USB) oder auch kabellos (Infrarot, Funk) an den Computer angeschlossen (siehe Abschnitt 5.). Bild 2: Maus mit 2 Scrollrädern 2. Die mechanische Maus Am Boden mechanischer Mäuse ist eine Stahlkugel, überzogen mit Gummi, eingebaut. Diese dreht sich durch die Bewegung der Maus auf einer Unterlage. Die Rollbewegung wird im Innern der Maus durch zwei senkrecht zueinander angeordnete Walzen abgenommen. Eine zusätzliche Stützrolle verleiht der Konstruktion die nötige Stabilität. Jede Walze ist für eine Bewegungsrichtung zuständig (senkrecht oder waagerecht). Diagonale Bewegungen kommen also durch die Bewegung beider Walzen zustande. Die Walzen setzen die mechanische Bewegung in Computersignale um. Bild 3: Zweitastenmaus Am Ende der Walzen befinden sich zwei Lochscheiben, die über so genannte Lichtschranken abgetastet werden. Abhängig vom zurückgelegten Weg der Kugel werden so für den Computer zählbare Impulse erzeugt und der Mauszeiger auf dem Bildschirm bewegt. Das Abfragen und Auswerten der Daten erledigt der so genannte Maustreiber. Bild 4: Abtastung der Bewegung Eine solche Lichtschranke kann man sich wie ein kleines Rad eines Fahrrades, mit mehreren dünnen "Speichen", vorstellen. Durch diesen Kreis fällt ein Lichtstrahl, der wiederum durch einen optischen Sensor abgetastet wird. Dieser Lichtstrahl wird durch die Speichen unterbrochen. Bild 5: Lichtschranke Im Computer werden die Signale berechnet. Diese sehen etwa so aus wie auf dem Bild 5. Hierbei kann man erkennen, dass es sich um eine Grafik für nur eine Bewegungsrichtung der Maus handelt, also senkrecht oder waagerecht. Die Linie 1 kennzeichnet das Signal des Abtastpunktes 1 (siehe Bild 6). Linie 2 kennzeichnet das Signal des Abtastpunktes 2. Anfangs stehen beide Signale auf "aus", das heißt es fällt kein Lichtstrahl auf beide Abtastpunkte. Bekommt nun der Abtastpunkt 1 zuerst das Signal "an", etwas später der Punkt 2, dann dreht sich das Rad im Uhrzeigersinn. Je nachdem wie viel Verzögerung zwischen beiden Signalen liegt, kann der Computer die Geschwindigkeit des Rads berechnen. Bild 6: Signale der Lichtschranke So werden für beide Bewegungsrichtungen (senkrecht und waagerecht) die Signale berechnet. Dadurch können auch diagonale Bewegungen der Maus auf dem Bildschirm aufgezeigt werden. 3. Die optische Maus Bei einer reinen optischen Maus wird die Rollkugel-Mechanik weggelassen und die Unterlage mittels fotoelektrische Sensoren abgetastet. Je nach Bewegungsrichtung liefern die Sensoren unterschiedliche Impulsformen. Bild 7: Optische Maus von Microsoft Für die beiden Richtungen (senkrecht und waagerecht) werden meist Sensoren verschiedener Farbempfindlichkeit benutzt. Die Auswertung und Übertragung der Signale erfolgt wie bei der mechanischen Maus über einen eingebauten Microcontroller. Bild 8: Auflage einer optischen Maus Der Vorteil einer solchen optischen Maus besteht darin, dass sie aufgrund der fehlenden Mechanik sehr zuverlässig sind. Außerdem ist die optische Maus fast unabhängig von der Unterlage, sie muss nur die Signale reflektieren. So kommen zum Beispiel Glasplatten oder gar Spiegel als Unterlage nicht in Frage. Aber Holz, Metall oder auch Zeitung können als Unterlage für die Maus dienen. Bild 9: Optische Maus von Typhoon 4. Der Trackball Ein Trackball ist vom Funktionsprinzip mit einer umgedrehten Maus vergleichbar. Die Abnahme der Bewegung der Kugel erfolgt entweder über Räder wie bei der mechanischen Maus oder aber wie bei der optischen Maus über fotoelektrische Sensoren. Bild 10: Trackball für Zeigefinger Bild 11: Trackball für Daumen Der Benutzer bewegt die Kugel direkt mit dem Zeigefinger oder dem Daumen. Der größte Vorteil eines Trackballs ist die ortsfeste Verwendung der Maus, so dass die Funktion vollkommen unabhängig von der zur Verfügung stehenden Arbeitsoberfläche ist. 5. Die Anschlüsse verschiedener PC-Mäuse Die PC-Mäuse hatten im Laufe ihrer Geschichte verschiedene Anschlüsse an den PC. Wurde früher die Maus an den seriellen Port angeschlossen, so erfolgt dies heute zumeist über die Anschlüsse PS/2 oder USB (Universal Serial Bus). Bild 12: Anschlüsse der Maus Es gibt am PC zwei verschiedenfarbige PS/2-Anschlüsse, einen für die Tastatur und einen für die Maus. Die Anschlüsse der Maus beziehungsweise der Tastatur sind heutzutage in der gleichen Farbe gekennzeichnet. Das macht das Anschließen an den PC einfacher. Bild 13: Anschlüsse Bild 14: PS/2-Anschlüsse Im Bild 13 erkennt man, von oben nach unten gesehen, zuerst die zwei PS/2-Anschlüsse wie sie auch im Bild 14 zu sehen sind. Darunter sieht man zwei USB-Anschlüsse, für die die Stecker im Hintergrund dieser Seite abgebildet sind. Außerdem sind zwei serielle Anschlüsse (z. B. für die Maus) und ein pinker Parallelanschluss für den Drucker zu sehen. Im unteren Teil kann man noch die Anschlüsse der Grafikkarte und ganz unten die der Soundkarte erkennen. Egal ob nun PS/2- oder USB-Anschluss, eine Maus kann man entweder über ein Kabel mit dem PC verbinden, oder man benutzt eine Funk- beziehungsweise Infrarotmaus (wie in Bild 15 abgebildet). Diese Mäuse besitzen kein störendes Kabel. Man stellt einfach einen Empfänger auf den Tisch. Dieser empfängt, wie der Name schon sagt, Funk- beziehungsweise Infrarotsignale. Bild 15: Funkmaus 6. Die Pflege der Maus Während die optischen Mäuse nahezu wartungsfrei sind, sollte man bei den mechanischen Mäusen hin und wieder zum Putzen schreiten. Denn es kann vorkommen, dass die innere Mechanik verdreckt und und die Maus nur noch ruckweise reagiert. Bei allen derartigen Mäusen befindet sich auf der Unterseite eine Art Ring, den man drehen muss, um an die Kugel zu kommen. Wenn die Maus dann offen ist, sollte man die Kugel herausnehmen und mit Wasser und Seife oder Wattestäbchen und Alkohol reinigen. Es sollte aber darauf geachtet werden, die Kugel nur im trockenen Zustand wieder einzubauen. Danach sollte man zumindest versuchen (bei einigen Modellen ist das recht kompliziert), die Walzen von Schmutz zu befreien, und zwar ohne die Walzen zu beschädigen. Wenn das alles geschehen ist, kann die Maus wieder zusammen gebaut werden. 8. Quellenangaben www.dascomputerlexikon.de www.de.tomshardware.com/consumer/02q1/020112/index.html www.wissenschaft-online.de/spektrum/index.php?action=rubrik_detail&artikel_id=5952 www.jubi.de/der.htm www.beepworld.de/members7/daniel21/maus.htm www.bs-soft.ch/klugscheisser/Persoenlich/Informatik/Maus/PSMauTechnisches.htm www.tu-chemnitz.de/informatik/RA/kompendium/vortraege_97/einausgabe/maus.html Die Grafikkarte Gliederung: 1. Allgemeines 2. Entwicklung 3. Funktion 4. Aufbau 5. Typen 6. Hinweise 7. Quellen 1. Allgemeines Alle Computersysteme sind mit einer Anzeige verbunden. Diese ist der Monitor. Computermonitore sind in vielen verschiedenen Typen und Größen erhältlich. Sie sind ein Teil des Grafiksystems des Rechners. Um ein gutes Bild zu erhalten, sind also zwei Bestandteile verantwortlich: ● ● Die Grafikkarte - Sie ist ein integraler Bestandteil jedes Rechners Der Monitor - Er ist das Schlusslicht einer langen Kette von Komponenten die für den Benutzer arbeiten Diese zwei Elemente müssen zusammenpassen und sich ergänzen, um letztendlich ein gutes Bild auf den Monitor zu bekommen. Auch der beste Monitor wird nur ein mittelmäßiges Bild liefern, wenn er an eine schlechte Grafikkarte angeschlossen ist. Andererseits hat man sein Geld zum Fenster hinausgeworfen, wenn man eine Spitzen-Grafikkarte im Rechner hat, die leider vom Monitor nicht ausgenutzt werden kann. 2. Die historische Entwicklung der Grafikkarte 1981 Die ersten IBM-PC's waren mit einem Monochrom Display Adapter (MDA) ausgestattet. Diese konnten nur Text darstellen. 1982 Die bekannteste Weiterentwicklung waren die HGC-Adapter der Firma Hercules (Hercules Graphic Card). Neben der Textdarstellung wurde noch ein Grafikmodus mit einer Auflösung von 720x348 Pixeln beherrscht (2 Farben: Text je nach Monitor grün, bernstein oder bei ganz edlen Modellen papierweiß. Hintergrund schwarz). Dieser Standard wurde schnell uninteressant als die nächste Generation aufkam. 1983 Der PC wird zum ersten Mal farbig mit dem Color Graphics Adapter (CGA). Die Karte beherrschte einen 4-Farben Modus mit 320x200 Pixeln oder den 2-Farben Modus (Schwarzweiß) bei 640x350 Pixeln. Einige CGA-Karten konnten den Hercules Monochrom-Modus ebenfalls noch darstellen. Die Karte konnte auch einen 160x100 Modus mit 16 Farben darstellen, davon wurde jedoch so gut wie nie Gebrauch gemacht. Die Auflösung war dafür viel zu niedrig und viele Monitore hatten Probleme das darzustellen, da sie das Intensity-Bit nicht auswerten konnten. Bild 1: CGA-Karte 1985 Der Enhanced Graphics Adapter (EGA) konnte immerhin schon volle 16 Farben darstellen, bei 320x200 oder bei 640x350 Pixeln. Die Karte war abwärtskompatibel zum CGA-Standard. Unterstützung für den Hercules Modus wurde immer seltener und war später nicht mehr vorhanden. Auf der EGA-Karte wurde auch erstmals ein eigenes Grafikkarten-BIOS eingesetzt. Die Vorgänger wurden noch vom PC-BIOS gesteuert. Die Übertragung der Farben erfolgte im Format R-G-B+Intensity. Durch Aus- und Einschalten der Farben Rot, Grün und Blau konnten 23=8 Farben kombiniert werden. Diese konnten noch per Intensity auf Hell geschaltet werden, wodurch sich 16 Farben ergaben. Bislang übertrugen alle Karten die Bilder rein digital. Bild 2: EGA-Karte 1987 Mit der Einführung der Rechnergeneration PS/2 brachte IBM auch eine neue Grafikkarte heraus. Die VGA-Karte (Video Graphics Array) arbeitete erstmalig mit einem analogen Signal. Bei 320x200 Pixeln konnte eine Farbtiefe von 256 beliebig definierbaren Farben aus einer Palette von 262.144 Farben dargestellt werden. Im hochauflösenden Modus bei 640x480 Pixeln waren nur die üblichen 16 EGA-Farben möglich. Die S(uper)-VGA-Karten sind erweiterte VGA-Karten mit mehr Speicher (256kB, bisher waren es 64kB). Sie konnten Auflösungen bis 800x600 Pixel darstellen, die Möglichkeit 256 Farben anzuzeigen, rückte auf 640x480 Pixel hoch. VGA und alle Nachfolger sind EGA und CGA kompatibel. Noch besser waren die E(xtended)-VGA-Karten. Sie hatten 512kB Speicher oder mehr und eine Auflösung von mindestens 1024x768 Pixeln. Neben dem 256 Farben-Modus wurde auch der High Color Modus mit 16 Bit (64.000 Farben) und der True Color Modus mit 24 Bit (16 Mio. Farben) eingeführt. 1989 Das VESA-Komitee bringt mit dem VBE (VESA BIOS Extensions) einen Standard in den durch das Wettrüsten entstandenen Wildwuchs. Der übliche Weg war über das BIOS statt über direkte Chip-Programmierung. 1992 Durch Windows-Beschleuniger-Chips wird der Bildaufbau erstmals beschleunigt. 1993 Zwei neue Bussysteme, der VESA Local Bus (VLB) und Intels PCI (Peripheral Component Interconnect), machen Grafikkarten massiv schneller. 1995 nVidia stellt mit dem NV1 den ersten 3D-Beschleuniger-Chip vor. Eine PCI-Karte mit dem NV1 wie die Diamond Edge 3D beherbergte neben einem VGA-Modul mit Windows- und 3D-Beschleunigung noch einen TV Ein- und Ausgang und eine Soundkarte, komplett mit Wavetable. Durchsetzen konnte sich das nicht, da erstens nichts davon richtig funktionierte und zweitens die Programmierer mit der Art der 3DBechleunigung des NV1, Curved Surfaces, damals nicht viel anfangen konnten. 1996 3dfx stellt mit dem Voodoo Graphics den ersten wirklich brauchbaren 3D-Beschleuniger vor. Diese steckte man als Zusatzkarte hinzu (z.B. die Diamond Monster), die dann 3D-Grafiken ausrechnete. 1997 Intel definiert den AGP-Bus und stellt somit mehr Bandbreite speziell für den 3D-Bereich zur Verfügung. 1999 nVidia bringt mit der GeForce die erste Grafikkarte mit Transform & Lighting Engine hervor. Danach folgen kontinuierlich Änderungen und Neuerungen, so dass es zu viel wäre diese auch hier aufzuführen. Im Internet gibt es aber noch weit aus mehr Informationen (siehe auch Quellen). 3. Funktion der Grafikkarte Ursprünglich war die Grafikkarte nur dazu gedacht, die digitalen Bildinformationen des Computers in analoge Signale für den Bildschirm umzuwandeln. Mittlerweile übernimmt die Grafikkarte jedoch (besonders bei Spielen) Aufgaben, die früher die CPU zu erledigen hatte. Während der Prozessor früher Befehle wie "mach das Pixel mit den Koordinaten 300 und 423 blau" für jeden Bildpunkt einzeln zur Grafikkarte schickte, reicht heute "mach ein Dreieck in blau mit folgenden Koordinaten: ...". Das bedeutet eine enorme Arbeitsersparnis für den Prozessor, da nicht die Eigenschaften von jedem einzelnen Pixel zur Grafikkarte übertragen werden müssen, sondern nur noch die "Bauanleitung" für geometrische Figuren. Die Grafikkarte erhält ihre Anweisungen über einen Bus (AGP oder PCI, früher auch ISA), die Aufgaben werden im Grafikprozessor abgearbeitet und im Bildspeicher abgelegt. Der Bildspeicher wird mit der eingestellten Bildwiederholfrequenz von RAMDAC ausgelesen (das hat nichts mit der Taktfrequenz der Speicherbausteine zu tun) und dann in analoge Signale für den Monitor umgewandelt. 4. Der generelle Aufbau Wesentliche Bestandteile einer Grafikkarte (Bsp.: ELSA Winner II): 1. Grafikchip, hier durch Kühlkörper verdeckt 2. Bildspeicher 3. Schnittstellen für Monitor 4. RAMDAC: wandelt digitale in analoge Signale um 5. AGP-Interface Entscheidende Kenngrößen einer Grafikkarte sind Größe und Art des Bildspeichers, die Leistungsfähigkeit des Grafikchips und des RAMDACs sowie das Interface. Der AGP-Bus ist wesentlich leistungsfähiger als der PCI-Bus, allerdings macht sich der Geschwindigkeitsvorteil nur bei einigen Spielen (3D) bemerkbar, da auch der PCI-Bus eine relativ hohe Übertragungsrate bietet. Zum Bildspeicher lässt sich sagen, dass jede heutige Grafikkarte die Anforderungen für normale Anwendungen wie Office-Pakete und Bildverarbeitung (im normalen Rahmen) erfüllt. Bei Spielen und komplexer 3D-Konstruktionssoftware sollte der Speicher möglichst groß und schnell sein. Auf Grund der enormen Vielfalt und der extrem schnellen Entwicklung im Segment der Speicherbausteine, will ich hier nur die wichtigsten Arten erwähnen. Bis vor etwa 3-5 Jahren gab es nur zwei Sorten Speicher für Grafikkarten, den DRAM und den VRAM. Der Unterschied zwischen beiden besteht darin, dass man VRAM gleichzeitig beschreiben und auslesen kann, was zu einer Geschwindigkeitsverdopplung führt, bei DRAM hingegen ist das nicht möglich. In den letzten Jahren werden auf Grafikkarten vor allem SDRAM und SGRAM verwendet, wobei SGRAM der schnellere ist (100MHz und mehr). Heutzutage ist DDR-RAM gängig. Bei den Grafikchips gilt das gleiche wie bei CPUs: je teurer, je mehr Transistoren und je höher die Taktfrequenz, desto besser der Chip. Moderne Grafikchips haben auf Grund der rasanten Entwicklung teilweise mehr Transistoren als eine CPU. Beim RAMDAC ist entscheidend, wie groß der Pixeltakt ist, d.h. wie viel Pixel pro Sekunde zum Monitor geschickt werden können. Davon hängen Zeilenfrequenz (Anzahl der Zeilen, die der Monitor pro Sekunde erzeugt) und die Bildwiederholfrequenz (Anzahl der pro Sekunde komplett aufgebauten Bilder) ab. Damit das Bild nicht flimmert, sollte eine Bildwiederholfrequenz von mindestens 75 Hz in der gewünschten Auflösung erreichbar sein. Ein Beispiel: Ein Monitor soll bei einer Auflösung von 1024x768 Punkten und 100 Hz betrieben werden. Man multipliziert die Anzahl der Bildpunkte (1024*768 = 786432) mit der Anzahl der Bilder pro Sekunde (hier 100). Man erhält ein Ergebnis von etwa 78 Mio. Pixel/sek. Dazu muss man noch etwa 10% dazuaddieren (Verwaltungsaufwand). Daraus folgt ein minimaler Pixeltakt von 87 MHz. Dieser Wert wird von allen modernen Grafikkarten erreicht. 5. Verschiedenen Typen ATI 8500 ATI 9700 pro Voodoo 5500 GeForce 2 MX GeForce 4 TI 6. Hinweise 3D-Grafikchip: Der 3D-Grafikchip ist das Herzstück einer jeden Grafikkarte. Er ist es, der die Berechnungen für das vollzieht, was wir als dreidimensionales Bild wahrnehmen. Bis es jedoch soweit ist, bevor ein einziges fertiges Bild berechnet ist, müssen erst Millionen über Millionen einzelne mathematische Anweisen vollzogen werden. Durch die heutige Technik geht dies schnell genug, um mehrere von diesen Bildern in einer Sekunde auf den Bildschirm zu bringen. Dies ermöglicht es uns frei in diesen virtuellen Welten zu bewegen. An dieser Stelle folgen grob die Funktionseinheiten des Grafikchips: * Pixel-Pipeline Die Pixel-Pipeline ist ein wichtiger Teil eines jeden Grafikchips. In ihr werden die nötigen Berechnungen vollzogen, damit aus den ihr gegebenen Daten ein Bildpunkt berechnet werden kann. Sie teilt auch dem Texture Combiner die eventuelle Farbe der Dreiecke eines Objektes mit. * Texture Combiner Der Texture Combiner ist eine Arithmetik-Einheit. Sie kann mit verschiedenen Textur-Formaten umgehen und beherrscht über 20 verschiedenen Operationen. Ihre Aufgabe ist es zwei Texturen logisch miteinander zu verknüpfen. Wenn im Grafikchip, zum Beispiel eine Pixel Pipeline mit zwei Textur-Units arbeitet, so kann sie in einem Durchgang ein Pixel aus 2 kombinierten Texturen berechnen. * Lokaler Speicher Der lokale Grafikspeicher ist von essentieller Bedeutung. Ohne ihn könnte der auch noch so schnellste Grafikprozessor nur mäßige Leistung bringen. Er wird in verschiedene Bereiche, die Buffer und den lokalen Texture Cache, aufgeteilt. Je nach Art der Bufferverwaltung gibt es drei, nämlich den Front-, Back- und Z-Buffer, oder vier bei Triple-Buffering, bei dem noch ein zweiter Back-Buffer hinzu kommt. Der Rest verbleibt für lokal gespeicherte Texturen und 3D-Daten wie Vertex-Cache oder Mauszeiger, etc. übrig. Bump Mapping: Durch Modulation der Beleuchtung lässt sich der Eindruck von zusätzlichen räumlichen Details erwecken. Die Modulationswerte entnimmt der Pixel-Prozessor der zweiten Textur. Curved Surfaces: Um Rundungen darzustellen, muss man sie mit vielen kleinen Dreiecken modellieren. Durch einige Verfahren (Bezier, NURBS,..) ist es auch möglich, Kurven anhand einiger Punkte zu beschreiben. Man kann dann mit Hilfe spezieller Berechnungen die Kurve in Dreiecke zerlegen. Mit geeigneter Hardware würde es nun möglich, diese Berechnungen auf der Grafikkarte auszuführen. Die Anzahl der für die Kurven verwendeten Dreiecke könnte somit individuell an die vorhandene Hardwareausstattung angeglichen werden. Außerdem verringert sich die Buslast für die Übertragung der Dreiecksdaten. Für die sinnvolle Verwendung von Curved Surfaces in Hardware wird jedoch auch eine Hardware-LightingEinheit benötigt. Dithering: Bei Farbtiefen unter 24 Bit pro Pixel gehen beim Rendern Farbinformationen verloren. Beim Dithern wird versucht diesen Farbfehler über mehrere Pixel zu verteilen, um so mit den Farben benachbarter Pixel Zwischenfarben zu simulieren. Die beiden gängigen Verfahren addieren entweder die fehlenden Farbanteile auf einen benachbarten Pixel (relativ genau), oder sie runden die Farbwerte je nach Position des Pixels unterschiedlich (schnell). Fogging: Die Pixel eines Objektes werden dabei mit einer festen Farbe vermischt, deren Intensität mit wachsender Entfernung zunimmt. Sorgt bei Mischung mit Weiß zum Beispiel für atmosphärische Nebeleffekte. Fogging spart außerdem Rechenzeit, da Körper erst ab einer bestimmten Distanz gezeichnet werden müssen. Hardware Transform & Lighting (T&L): * Transformation Die Objekte der 3D-Szene sind in einem globalen Koordinatensystem (World-Space) definiert. Wenn nun der Betrachter seinen Standort oder Blickpunkt ändert, muss die gesamte sichtbare Szene in ein anderes Koordinatensystem transformiert werden, das den Betrachter als Referenz hat. Dafür müssen verschiedene Aufgaben von der Transformationseinheit erledigt werden. Dreiecke werden so zum Beispiel gedreht, skaliert oder verschoben. Die Berechnungen die dabei durchgeführt werden, sind 4x4 Matrix-Multiplikationen. Je nach verwendetem Algorithmus benötigen diese 16 Multiplikationen und 12 Additionen oder 12 Multiplikationen und 9 Additionen. Aufgrund der Menge an Objekten und Transformationen entsteht ein enormer Rechenaufwand, der die Komplexität und Anzahl der Objekte in einer 3D-Szene limitiert. Ein speziell darauf angepasster Chip führt diese Operationen wesentlich schneller aus als eine CPU, die sich außerdem noch um weitere Berechnungen der virtuellen Welt kümmern muss (Physikberechnungen, Kollisionsabfragen, künstliche Intelligenz,...). Dadurch ist es möglich, 3D-Szenen mit einer höheren Detailfülle zu erzeugen. Modell eines Porsche Boxster bestehend aus über 100.000 Dreiecken Die Transformationseinheit ist weiterhin auch für die perspektivische Projektion zuständig. * Lighting Unter Lighting versteht man die Beleuchtung der 3D-Szene. Dies geschieht mit unterschiedlichen Beleuchtungsmodellen. Das einfachste Modell ist ambient Lighting. Dabei wird von einer Lichtquelle ausgegangen, die alle Objekte mit der gleichen Intensität beleuchtet. Die Lichtstrahlen wurden also schon so oft und von so vielen Objekten reflektiert, dass der Ursprung und die Richtung keine Rolle mehr spielen. Allen Dreieckseckpunkten (Vertices, einz. Vertex) kann also der gleiche Lichtwert zugewiesen werden. Diese Beleuchtungsmethode erfordert keine speziellen Berechnungen und kann auch von der CPU ohne Zeitverlust durchgeführt werden. Ein etwas komplexeres Modell liegt diffuse Lighting zugrunde. Das Licht hat dabei eine bekannte Position oder Richtung, wird jedoch in alle Richtungen gleichstark reflektiert, so dass die Position des Betrachters keine Rolle spielt. Dadurch kann die Beleuchtung auch vorberechnet werden. Auf dem komplexesten Modell basiert specular Lighting. Die Position der Lichtquelle sowie die Richtung des Lichtes ist hierbei bekannt. Das einfallende Licht wird dabei an der Normalen eines Dreiecks gespiegelt (Einfallswinkel = Ausfallwinkel). Je nach Betrachterposition bewegt sich ein Glanzlicht auf dem reflektierenden Objekt. Die Helligkeit, die einem Vertex letztendlich zugewiesen wird, setzt sich aus der Summe der verschiedenen Beleuchtungsmodelle zusammen. 3D Winbench Space Station (Quelle: nVidia) Die Lightingeinheit muss aufgrund der nötigen Berechnungen von Vektorprodukten und Längen Divisionen, Wurzelberechnungen, Multiplikationen und Additionen ausführen. Durch den hohen Aufwand sind aktuelle T&L-Grafikkarten auf maximal 8 Lichtquellen beschränkt. Weiterhin werden die Vorteile von Vertex-Lighting nur bei sehr detaillierten Objekten deutlich, da wie der Name schon sagt, nur den Dreieckseckpunkten ein bestimmter Lichtwert zugewiesen wird. Die Lichtwerte der einzelnen Pixel werden im Allgemeinen durch GouraudShading ermittelt. Dadurch kommt es bei großen Dreiecken vor allem bei specular Lights zu Darstellungsfehlern. In den meisten heutigen Anwendungen werden vorberechnete Lightmaps anstatt Echtzeitlighting verwendet, da diese auf allen Grafikkarten die gleichen Ergebnisse liefern und die Geschwindigkeit nicht so stark beeinflussen. Die Lightingeinheit kann allerdings auch für weitere entfernungsabhängige Berechnungen, wie zum Beispiel range-based Fog eingesetzt werden. Hidden Surface Removal: Es wird überprüft, welche Oberflächen der Polygone für den Benutzer im Endeffekt sichtbar sein werden. Nur diese werden dann gerendert, um Rechenzeit zu sparen. Rendern: Der für die Darstellung oder Visualisierung eines 3D-Objektes oder einer 3D-Szenerie erforderliche Rechenprozess. Schnittstellen: Die Leistung der Grafikkarte kann nur genutzt werden, wenn die Hardware von der Software angesprochen wird. Damit nicht für jede neue Grafikkarte ein Programm umgeschrieben werden muss, wurden verschiedene Schnittstellen entwickelt. Die Grafikkarte muss also ein bestimmtes Format verstehen können, um die Befehle der Software interpretieren zu können. Unterstützt die Hardware die verwendete Software nicht, ist sie nicht lauffähig oder muß vom Hauptprozessor zeitraubend übersetzt werden. Schnittstellen zwischen Hard- und Software werden API's genannt (Application Programming Interface). Das Programm kommuniziert also nicht direkt mit der Hardware, sondern mit dem API. - Beispiele für 3D-Formate: Microsoft Direkt3D (Spiele), Open GL (Profi-Schnittstelle), GLIDE (Voodoo...), Heidi (nur bei 3D-StudioMax), VRML (Internet) - Beispiele für Videostandards: AVI (Audio Video Interleave), MPEG-I (Motion Picture Expert Group), MPEG-II, JPEG (Joint Photographic Expert Group) Shading: Shading wird verwendet, um ein Objekt schattiert, also beleuchtet, darzustellen. Es ist aber nicht die Beleuchtung selbst, sondern wird in Verbindung mit einem Lighting Model benutzt. Die wichtigste Komponente, um ein Polygon zu beleuchten, ist dabei dessen Normalenvektor. Der Winkel zwischen diesem und den Lichtstrahlen (Vektor aus Richtung der Lichtquelle) bestimmt die Intensität des reflektierten Lichtes. Bei der Beleuchtung wird dabei zwischen ambient Light (Umgebungslicht mit unbekanntem Ursprung und unbekannter Richtung), diffuse Light (Licht mit bekanntem Ursprung) und specular Light (gerichtetes spiegelndes Licht, bekannter Ursprung und bekannte Richtung) unterschieden. * Flat Shading Beim Flat Shading wird nur ein Normalenvektor pro Polygon benötigt. Mit dessen Hilfe berechnet man einen Farb- bzw. Beleuchtungswert, der dann für alle Punkte des Polygons benutzt wird. Dies ist sehr schnell und sehr unschön, da es an den Polygonkanten zu sprunghaften Übergängen der Helligkeit kommt. * Gouraud Shading Gouraud Shading ermöglicht es mit Hilfe eines Verfahrens des Mathematikers Henri Gouraud innerhalb eines Dreieckes einen feinen Farbverlauf herzustellen. Dazu muss man einen Beleuchtungswert für jeden Eckpunkt berechnen, also auch dessen Normale. Um diese zu erhalten, nimmt man den Mittelwert der Normalen aller angrenzenden Polygone. Sobald man die Beleuchtungswerte für alle Eckpunkte hat, kann man durch Interpolation die Werte aller Pixel des Polygons errechnen. Gouraud Shading kann dadurch Objekte rund oder gekrümmt darstellen, obwohl sie aus vielen Polygonen zusammengesetzt sind. Specular Light lässt sich allerdings nicht mit Gouraud Shading darstellen. (Quelle: Proseminar 1997) Während beim Flat Shading ein Dreieck einheitlich gefärbt ist, besitzt beim Gouraud Shading jede Ecke eine eigene Farbinformation. Aus der Zwischenberechnung dieser Eck - Farbwerte ergibt sich ein sehr weicher Verlauf, der sogar mit weniger Dreiecken für deutlich bessere Ergebnisse sorgt als das Flat Shading. * Phong Shading Beim Phong Shading werden die Normalen von allen Punkten ausgerechnet. Die Berechnungen zur Beleuchtung werden dann für jedes Pixel ausgeführt. Somit ist es möglich, auch specular Light darzustellen. Phong Shading bedeutet jedoch einen enormen Rechenaufwand und hat sich bis jetzt noch nicht durchgesetzt. Texturing: Muster wie Tapeten, Ziegelwände oder Zebras, die 3D-Beschleuniger auf beliebig geformte 3D-Körper projizieren können. Ohne geeignete Wand-, Boden-, Deckenverzierungen wäre ein Spiel äußerst kahl. Um dies zu ändern setzt man Texturen ein, die dann u.a. auf Polygone "geklebt" werden. Texture Mapping: Überlagerung eines Polygons mit einem perspektivisch korrekt dargestellten Textur. Trilineares Filtering: Um zwischen zwei Maps weichere Übergänge zu schaffen, fließen in die Berechnungen eines Bildpunktes noch die Farbwerte der beiden Maps mit ein, d.h. es wird zwischen den beiden Maps interpoliert, was die nötigen Speicherzugriffe verdoppelt. Das ergibt die besten Resultate hinsichtlich der Bildqualität, ist aber auch sehr rechenaufwendig. VESA: Video Electronics Standards Association. Sie wurde 1989 durch ATI, Chips & Technologies, Everex, Genoa, Intel, Phoenix Technologies, Orchid, Paradise, Video 7 und anderen Firmen eingeführt. Das Ziel war die Entwicklung einer BIOS-Erweiterung, die Hardware-unabhängigen Zugriff auf S-VGA-Karten verschiedener Anbieter möglich machen sollte. Video Mapping: Variante des Texture Mappings, bei der die Polygone mit einer animierten Textur (z.B. einer AVI - oder MPEG - Datei) beklebt werden. Z-Buffer: Der so genannte Z-Buffer speichert die Positionierung eines Pixels auf der z-Achse ( also in der Tiefe des Raumes). Bei gleicher Bildschirmposition mehrerer Pixel wird aufgrund der Tiefeninformation entschieden, ob der jeweilige Bildpunkt für den Betrachter sichtbar wäre und deshalb zu zeichnen ist oder nicht. Auf Hochleistungs-3D-Grafikhardware ist der Z-Buffer meist als separates EDO-DRAM (Error Checking & Correcting) ausgeführt (Local Buffer). Bei komplexen Objekten sollte der Grafikchip z-Werte mit einer Genauigkeit von 24 oder 32 Bit verarbeiten, um Darstellungsfehler bei feinen Details zu vermeiden. Die für Spiele entwickelte Windows 95-Schnittstelle DirectX arbeitet nur mit 16 Bit. 7. Quellen www.3dcenter.de www.cs.uni-magdeburg.de www.gamestar.de www.hwo.cidsnet.de www.iwi.uni-sb.de www.szut.uni-bremen.de www.tu-chemnitz.de www.kmelektronik.de CRT-MONITORE Der Monitor ist ein Gerät im Computersystem, welches weder an der Eingabe, noch an der Verarbeitung von Daten beteiligt ist. Seine Aufgabe besteht lediglich darin, die verarbeiteten Daten visualisiert darzustellen, was einem Benutzer erst ein sinnvolles Arbeiten mit dem Computer ermöglicht. Man kann den Monitor deshalb auch im Zusammenspiel mit der Grafikkarte als visuelle Schnittstelle zwischen Computer und Mensch bezeichnen. Funktion CRT steht für "Cathod Ray Tube" (Kathodenstrahlröhre). Damit ist schon der wichtigste Bestandteil eines CRT-Monitors beim Namen genannt. CRT-Monitore arbeiten wie Fernsehgeräte nach dem Prinzip der Kathodenstrahlröhre, die auch unter Braunsche Röhre bekannt ist. Die Kathodenstrahlröhre ist eine hochevakuierte Glasröhre, hat eine trichterartige Form und wird in die Bereiche Röhrenhals und Bildschirmfläche aufgeteilt. An der Rückseite der Röhre befinden sich Heizdrähte, welche die Kathode erhitzen, damit diese dann durch thermische Emission ständig Elektronen aussendet. Die Ringanode, an der eine Spannung (Beschleunigungsspannung) von mehreren 10.000 Volt anliegt, sorgt dafür, dass die Elektronen von der Kathode abgesaugt und durch den Röhrenhals in Richtung Bildschirmfläche auf eine sehr hohe Geschwindigkeit beschleunigt werden. Die Trägheit der Elektronen ist dafür verantwortlich, dass sie bei dieser hohen Geschwindigkeit nicht auf die Anode treffen, sondern durch das Loch in der Mitte "durchfliegen". Da nur ein gebündelter Strahl für den Bildaufbau von Nutzen ist (Bildpunkt erforderlich), müssen die Elektronen, die im Moment noch eher einer Elektronenwolke entsprechen, durch den Wehnelt-Zylinder, bevor sie die Anode passieren können. Dieser sorgt mit seiner feinen, blendartigen Öffnung für eine Bündelung der Elektronen. Doch auch dieser Elektronenstrahl ist noch zu diffus, so dass er nach der Anode die Fokussiereinheit durchläuft, die wiederum aus einer Blende mit angelegtem Potential besteht. Der nun scharf gebündelte Strahl hat jetzt den gesamten Röhrenhals passiert und würde genau in der Mitte des Bildschirms auftreffen. Da dies aber nicht zu einem Bildaufbau führen würde, befindet sich genau dort, wo der Röhrenhals in die Bildschirmfläche übergeht, die Ablenkeinheit. Diese besteht aus einem horizontalem und einem vertikalem elektromagnetischem Spulenpaar, die nach Anweisungen der Grafikkarte arbeiten. Durch die vertikale und horizontale Anordnung ist es möglich, den Strahl in jede beliebige Richtung abzulenken. Es wird nun der Elektronenstrahl Zeile für Zeile und Spalte für Spalte abgelenkt. Damit der Strahl beim Rücklauf von einem Zeilenende zum nächsten Zeilenanfang nicht sichtbar ist und somit das Bild nicht verfälscht, wird seine Intensität auf Null verringert. Ist der Strahl am Ende der letzten Zeile angekommen, so wandert er diagonal über den Bildschirm zurück zur ersten Zeile. Die Energie des bisher nicht sichtbaren Elektronenstrahls wird beim Auftreffen auf der Mattscheibe durch deren spezielle Phosphorbeschichtung in sichtbares Licht umgewandelt. Um ein farbiges Bild zu erhalten, müssen drei Elektronenstrahlen auf die Mattscheibe treffen, wobei jeder für eine der Grundfarben Rot, Grün und Blau "zuständig" ist. Man spricht in diesem Zusammenhang auch von Farbkanonen, die die drei Elektronenstrahlen abgeben. Jeder Elektronenstrahl trifft dabei auf eine eigene, der Grundfarbe entsprechenden Leuchtschicht, wobei für die Realisierung dieses Auftreffens eine so genannte Maske sorgt. Nach dem Modell der additiven Farbmischung lässt sich aus den drei Grundfarben das gesamte sichtbare Farbspektrum darstellen. Die Masken Bei Farbmonitoren wird das Bild von drei verschiedenfarbigen Elektronenstrahlen aufgebaut. Da aber nun jeder Strahl nur auf sein Feld des Farbtripels treffen soll und man auch nicht jedes Mal die Strahlen ausschalten kann, wenn sie nicht auf ihren Farbpunkt treffen, hat man eine Art Blendsystem entwickelt die so genannten Masken. Hier unterscheidet man prinzipiell zwischen zwei verschiedenen Arten, wobei aus dessen Vereinigung noch eine weitere entstand. Die Lochmaske Die Lochmaske besteht aus einem dünnen Eisenblech. Sie weist eine gleichmäßig verteilte Anzahl von Löchern auf, wobei die Anzahl genau der Anzahl der Farbtripel auf dem Schirm entspricht. Die Löcher stehen mit den Leuchtpunkten so in Beziehung, dass der Strahl einer jeden Farbkanone auch nur genau den Leuchtpunkt "seiner" Farbe trifft. Das ist in Bild 1 sehr gut nachvollziehbar. Die drei Elektronenstrahlen werden immer zu dritt abgelenkt. Das bedeutet, dass sie über den gesamten Bildschirm stets gemeinsam durch das selbe Loch der Maske auf das zugehörige Leuchttripel treffen. Doch insgesamt treffen nur ca. 17% der Elektronen tatsächlich auf ihre Leuchtpunkte. Die Energie der restlichen Elektronen wird in Wärmeenergie umgewandelt. Dadurch kommt es zu einer Ausdehnung der Maske, was einen Ungenauigkeit in der Farbauflösung nach sich ziehen würde. Damit dies nicht vorkommt, hängt man entweder die Maske in Bimetallfedern auf oder wölbt sie stark. Bild 4: Lochmaske Vorteile: ● ● preisgünstig herstellbar durch dreieckige Pixel Treppeneffekt vermieden Nachteile: ● ● ● Wölbung der Bildröhre (wegen Wölbung der Maske) etwas blass wirkendes Bild (nur 17% der Elektronen erzeugen das Bild) horizontale und vertikale Linien wirken nicht ganz so scharf (Punkte nicht versetzt angebracht) Die Streifenmaske Die Streifenmaske (Trinitron) besteht aus feinen, gespannten Drähten, die von ein bis zwei waagerechten Stützdrähten stabilisiert werden. Durch die dadurch entstanden Schlitze werden dann die Elektronen geschossen. Diesmal sind die drei Grundfarben nicht als Bildpunkte angeordnet, sondern als vertikale Streifen. Vorteile: ● ● kontrastreicheres, helleres Bild (mehr als 17% der Elektronen erzeugen das Bild) nur zylindrische Wölbung der Bildröhre Nachteile: ● ● durch viereckige Pixel Treppeneffekt zwei schmale, dünne, vertikal verlaufende Linien, die vor weißem Hintergrund sichtbar werden Der Versuch, die Vorteile von Loch- und Streifenmaske zu vereinen, brachte die Schlitzmaske hervor. Hier werden die Streifen einfach verkürzt in ein Stahlblech gestanzt. Dies vermeidet die oft störenden Stützdrähte der Streifenmaske, bietet aber gleichzeitig genügend Raum für die Elektronen, was das Bild u.a. heller werden lässt. Lochmaske Streifenmaske Schlitzmaske Auflösung Unter der Auflösung versteht man die Anzahl der Pixel (Bildpunkte), aus denen sich das Bild eines Monitors zusammensetzt. Diese wird immer als Produkt zweier Zahlen angegeben, wobei die erste Zahl für die Anzahl der Pixel in waagerechter Richtung und die zweite für die Anzahl der Pixel in horizontaler Richtung steht. Bsp: 1024 x 768 Bildwiederholfrequenz (Vertikalfrequenz oder Refresh) Unter Bildwiederholfrequenz versteht man die Anzahl der Bilder, die pro Sekunde aufgebaut werden. Je mehr Bilder in der Sekunde aufgebaut werden, also je höher die Bildwiederholfrequenz ist, desto ruhiger wirkt das Bild für den Benutzer. Man sagt, dass ab 72 Bildwiederholungen pro Sekunde (also ab einer Bildwiederholfrequenz von 72 Hz) das menschliche Auge kein Flimmern mehr wahrnehmen kann. Generell gilt aber, je höher die Bildwiederholfrequenz, desto besser ist es für den Benutzer, da ansonsten mit Augen- und Kopfschmerzen gerechnet werden muss. Zeilenfrequenz (Horizontalfrequenz) Unter der Zeilenwiederholfrequenz versteht man die Anzahl der Zeilen, die pro Sekunde vom Elektronenstrahl geschrieben werden. Diese drei Monitorparameter stehen in einem direkten Zusammenhang zueinander. Aus zwei bekannten Parametern ergibt sich zwangsläufig immer der dritte. Wenn zum Beispiel bei einer Auflösung von 1024 x 768 eine Zeilenfrequenz von 64 kHz hat (64000 Zeilen pro Sekunde werden geschrieben), so können zwangsläufig 64000 : 768 = 83,3 Bilder pro Sekunde aufgebaut werden (Bildwiederholfrequenz von 83,3 Hz). Videobandbreite Die Videobandbreite beschreibt die Frequenzbandbreite mit der ein Bildschirm betrieben werden kann. Sie gibt an, wie viele Bildpunkte pro Sekunde abgebildet werden können. Je höher die Bildwiederholfrequenz und Bildauflösung, desto höher muss auch die erreichbare Videobandbreite sein. Lochmaskenabstand (Dot-Pitch) Unter Lochmaskenabstand versteht man die Distanz zwischen den Öffnungen der Lochmaske (normalerweise zwischen 0,31 und 0,25 mm). Je geringer dieser ist, desto höher ist die bestmöglichste Auflösung. Hat ein Monitor zum Beispiel einen Bildschirmbereich von 317 x 238 mm und einen Dot-Pitch von 0,30 mm, so ist eine maximale Auflösung von 1024 x 768 möglich, da horizontal 317 : 0,30 = 1056 Bildpunkte und vertikal dementsprechend 793 Bildpunkte abgebildet werden können. Zwei Darstellungsmodi des Monitors (interlaced und non-interlaced) Interlaced beschreibt eine Art der Bildwiedergabe, bei dem immer nur jede zweite Zeile geschrieben wird, wobei beim darauf folgenden Bildaufbau immer genau die davor fehlenden Zeilen ergänzt werden. Man spricht auch von einem Aufbau von zwei Halbbildern. Doch bei diesem Modus kommt es zu dem negativen Nebeneffekt des Flimmerns, was bei non-interlaced nicht der Fall ist, bei dem das Bild auf einmal Zeile für Zeile aufgebaut wird. LCD-Monitor LCD steht für Liquid Cristal Display, was übersetzt Flüssigkristallbildschirm heißt. Diese Art von Anzeige nutzen wir im alltäglichen Leben, ohne uns ihrer Anwesenheit bewusst zu sein. So befinden sie sich beispielsweise in allen Handys, Taschenrechnern, Digitaluhren oder neueren Projektoren. Im PC Bereich wird diese Technik ebenfalls eingesetzt, vornehmlich als Monitor, wobei wir zwei Arten unterscheiden. Einmal das LCD selbst und dessen modernere Erweiterung als TFT (Thin Film Transistor). Fortführend wollen wir uns primär mit dem LCD Monitor und dessen Technik an sich beschäftigen. LCD Technologie 1. Was sind Flüssigkristalle Jeder kennt die drei Zustandsformen in denen Substanzen vorliegen können. Die feste Phase, in der die Moleküle einen fest definierten Platz im Raster besitzt und die einzelnen Atome sich nur in einem sehr geringen Rahmen durch Schwingungen bewegen. In der flüssigen Phase besitzen die Moleküle keine Fernordnung mehr und können sich durch Translation bewegen. In der Gasphase sind schließlich die letzten Wechselwirkungen aufgehoben und die Moleküle dehnen sich komplett im Raum aus, bis sie die maximale Entropie besitzen. Der Botaniker Reinitzer hat 1888 am Cholesterinbezoat festgestellt, dass die Probe bei 145,5 °C schmilzt aber milchig trüb bleibt. Erst bei einer Temperatur von 178,5 °C wurde die Probe klar. Beim Abkühlen wiederholte sich der Vorgang in umgekehrter Reihenfolge. Zwischen 145,5 °C und 178,5 °C besaß die Probe die viskosen/fließenden Eigenschaften von Flüssigkeiten und zusätzlich die optischen/lichtbrechenden Eigenschaften von Kristallen. Aus diesem Grund mussten die Verbindung im flüssigen Zustand eine gewisse Ordnung ausbilden und da sie sowohl die Eigenschaften von Flüssigkeiten und Kristallen besitzen, bezeichnete man sie als Flüssigkristalle. 2. Das Funktionsprinzip Während herkömmliche Bildschirme Licht aus Phosphor mit unterschiedlichen Emissionsspektren (Rot/Grün/Blau) aufgrund der Anregung eines Elektronenstrahls emittieren, wird bei LCD das Licht einer Hintergrundbeleuchtung durch die LCD-Zelle geschaltet. Das heißt, die LCDZelle ist bezüglich der Lichtemission als passiv anzusehen. Licht wird in unpolarisierter Form auf den so genannten hinteren Polarisator (Polarizer) gegeben, dort wird das Licht polarisiert (in eine bestimmte Richtung ausgerichtet). Flüssigkristalle lassen sich in der nematischen Phase aufgrund ihrer Molekülstruktur an geeignet beschaffenen Oberflächen (Ausrichtungslagen [Alignment Layer], z.B. in einer Richtung gebürstete Folien) ausrichten und aufgrund ihrer mechanischen Eigenschaften spiralförmig verdrehen, wenn sie zwischen 2 um 90° verdrehte Ausrichtungslagen eingebracht werden. Diese Anordnung nennt man Twisted Nematic (TN) bei einem Verdrehwinkel von 90°, bei 270° Super Twisted Nematic (STN). Wird zwischen den beiden Lagen ein elektrisches Feld angelegt, so richten sich die stabförmigen Moleküle entlang der Feldrichtung aus. Trifft nun vom hinteren Polarisator polarisiertes Licht auf die spiralförmig angeordneten Flüssigkristalle, so wird dieses Licht entsprechend dem Verdrehwinkel der Moleküle in seiner Polarisationsrichtung gedreht. So trifft es auf den vorderen Polarisator (Analyzer), der um 90° zum hinteren verdreht ist. Das Licht kann somit zum Betrachter durchdringen. Das Licht folgt auch dann der Orientierung der Flüssigkristalle, wenn diese aufgrund eines elektrischen Feldes senkrecht zur hinteren und vorderen Lage der LCD-Zelle stehen. Damit steht es am vorderen Polarisator 90° zu diesem und kann somit nicht zum Betrachter durchdringen. 3. Woher kommt die Farbe? Da für die Hintergrundbeleuchtung normalerweise weißes Licht verwendet wird, muss zur Darstellung von Farbbildern dieses noch mit geeigneten Farbfiltern gefiltert werden. Hierzu erhält jeder darzustellende Pixel (Bildpunkt) drei sog. Sub-Pixel mit den Farben Rot, Grün und Blau ('Farbe aus Weiß' Prinzip). Heute wird bei LCD üblicherweise die so genannte Streifenstruktur (RGB-Stripe) verwendet. 4. Ansteuerung der einzelnen LCD-Zellen Bei Passivmatrix-LCD werden die einzelnen LCD-Zellen durch eine matrixförmige Anordnung von Zeilen- und Spalten-Elektroden angesteuert. Man kann somit an jedem Knotenpunkt ein elektrisches Feld erzeugen, welches dann die Flüssigkristalle beeinflusst. Prinzipiell bedingt ist dabei, dass jede einzelne Zelle nur mit 1/(Auflösung) der gesamten Zeit der Bilddarstellung angesteuert wird. Da für den Rest der Zeit die Zellen im spannungslosen Zustand sind, müssen die Flüssigkristalle entsprechend träge eingestellt werden, um ein Rückkippen während der restlichen Zeit und damit Kontrastverluste und Flimmereffekte zu vermeiden. Eine Maßnahme zur Vermeidung von solchen Effekten ist die Unterteilung des Display in 2 horizontal geteilte Hälften (so genannte Dual Scan Display), um die Bilddauer zu halbieren bzw. die Frequenz mit der eine Zelle angesteuert wird zu verdoppeln. Ein weiterer Effekt vor allem bei Passivmatrix-LCD ist das so genannte Übersprechen zwischen den einzelnen Zellen, was sich als 'Fahnenziehen' bemerkbar macht. Aufgrund der Matrixstruktur der Ansteuerung und der Kapazität der LCD-Zellen sind solche Effekte zwar durch verbesserte Elektrodenmaterialien und Ansteuermethoden optimierbar, jedoch nicht vermeidbar. Die Zeilen- und Spalten-Elektroden sind aus transparentem Material (ITO Indium Zinn Oxid) um maximale Lichttransmission zu gewährleisten. Auflösung Es gibt unterschiedlich große LCD Monitore, von 12" bis 18" Diagonale. Die Grafikkarten liefern unterschiedlich hohe Auflösungen von 640x480 bis 1600x1024 Bildpunkten. Welche Auflösung ist nun für welche Monitordiagonale das Optimum? Die Auflösung wird in dpi (dots per inch) angegeben. Diese Einheit gibt an, wieviele Bildpunkte auf einer Länge von einem Zoll (25,4mm) dargestellt werden. Zum Beispiel, hat ein Monitor die sichtbare Fläche von 280 x 210mm (15") und stellt eine Auflösung von 1024x768 Bildpunkten dar, dann hat er eine Auflösung von 1024 : 280 x 25,4 = 93dpi. So kann man auch die Kantenlänge der einzelnen Bildpunkte herausfinden: 280/1024 = 0,27mm. Windows arbeitet intern mit einer Auflösung von 96dpi, d.h. Windows geht von einer Pixelgröße (Pixel = Bildpunkt) von 25,4mm : 96 = 0,265mm aus. Damit der Windowsdesktop nun nicht zu klein oder zu groß dargestellt wird, sollte die Pixelgröße zwischen 0,23mm und 0,30mm (= 0,265mm ± 0,035mm) liegen, perfekt sind natürlich 0,265mm bei 96dpi. Monitor 12,1" LCD sichtbare Fläche 246x184mm mögliche Auflösung 800 x 600 bei 0,30mm 1024 x 768 bei 0,24mm dpi 85dpi 105dpi Bewertung zu wenig Bildpunkte gut 13,3" LCD 270x202mm 1024 x 768 bei 0,265mm 96dpi perfekt 14,1" LCD 286x215mm 1024 x 768 bei 0,28mm 90dpi sehr gut 15" LCD 305x229mm 1024 x 768 bei 0,30mm 1400 x 1050 bei 0,21mm 1600 x 1200 bei 0,19mm 85dpi 117dpi 133dpi große, leicht lesbare Darstellung viel zu kleine Darstellung nicht mehr lesbar 15,7" LCD 307x246mm 1280 x 1024 bei 0,24mm 105dpi sehr gut, trotz hoher Auflösung 17" LCD 340x271mm 1280 x 1024 bei 0,265mm 96dpi perfekt, aber nur sehr wenige 17" LCDs sind für Video gut geeignet 17,3" LCD 370x236mm (16:10) 1600 x 1024 bei 0,23mm 110dpi sehr gut, trotz hoher Auflösung perfekt für Video 18,1" LCD 359x287mm 1280 x 1024 bei 0,28mm 90dpi sehr gut Vor- und Nachteile Nachfolgend sollen kurz die wichtigsten Vor- und Nachteile eines LCD Monitors im Vergleich zu einem normalen Röhrenmonitor (CRT) aufgelistet werden. Positiv Negativ ● ● ● ● ● ● ● ● ● ● ● sehr platzsparend, insbesondere große LCDs geringers Gewicht hohe Leuchtdichte keine Geometrie- und Konvergenzfehler scharfes, glasklares Bild niedriger Stromverbrauch geringe Wärmeabgabe flimmerfrei trotz niedriger Bildwiederholfrequenz unempfindlich gegen Störeinflüsse lange Kabel möglich bei digitalen LCDs Strahlenemission praktisch nicht vorhanden Quellen: www.bananapage.de/frame.htm www.guenthoer.de/lcd/lcd.htm ● ● ● ● ● Winkelabhängigkeit von Kontrast und Farben passive LCD teilweise leistungsschwach bei graphischen Anwendungen mäßige Bildqualität unterhalb der Standardauflösung geringere Schaltgeschwindigkeit von hell zu dunkel Steckverbindungswirrwarr bei digitalen LCDs TFT-Monitor Allgemeines LCD-Monitore gibt es seit 1973, als Unterarten gibt es die STN-Monitore (später DSTN) und die hier behandelten TFT-Monitore. Zuerst wurden TFT´s nur in der Laptoptechnik verwendet, da sie leistungsstärker als die bisherigen LC-Displays waren und einen Gewichts- und Dimensionsvorteil gegenüber den CRT-Monitoren hatten und immer noch haben. Neuere TFT-Monitore können es in jeder Hinsicht mit den bekannten CRT-Monitoren aufnehmen. TFT - Technik Die Thin Film Transistor Technik beruht auf der LCD Technik, bei der eine Schicht aus Flüssigkristallen lichtdurchlässig wird, wenn eine Spannung angelegt wird. Ein TFT-Monitor hat für jedes Pixel drei Subpixel (rot, blau, grün), die über eigene Transistoren angesprochen werden (auch aktive Matrix genannt). Die Anzahl der Pixel ist eine fixe Zahl die der Hersteller bestimmt und dem derzeitigen Standart nach 1024x768 beträgt. Für einen solchen Monitor benötigt man 2,4 Millionen Transistoren. Durch das separate Ansteuern einzelner Transistoren, kann ein Pixel ein/ aus geschaltet werden, daher kann ein "Flimmern" nicht auftreten. Die hohe Leuchtdichte kommt daher, dass ein Pixel und sein benachbartes Pixel komplett andere Farben haben können, ohne dabei ineinander "überzulaufen", dies zeigt sich auch in der Schärfe der TFTDarstellung. Aufgrund des Hintergrundleuchtens (Bild) haben TFTMonitore eine Helligkeit, die das doppelte von normalen Monitoren überschreitet (CRT 100cd/m 2 - TFT >200cd/m2). Der Kontrast steht in einem ähnlich gutem Verhältnis, wie die Helligkeit, hierbei beträgt der Unterschied zwischen dem hellsten und dunkelsten Punkt auf dem Bildschirm 100:1 bei CRT´s und 200:1 bei TFTMonitoren. Ein eingeschränkter Blickwinkel galt lange als die große Schwäche der LCD´s aber neue Techniken (MVA und IPS) ermöglichen dem Benutzer auch an einem TFT-Monitor Blickwinkel von 140° horizontal und vertikal, was das Arbeiten mehrerer Personen an einem Schirm gestattet. Um aus der vorgegebenen Auflösung auszubrechen bieten einige Hersteller einen Expand Modus an, der das Bild aufzieht (so wie an einer Bildecke einer Grafik die Größe verändert werden kann), somit aber auch die Qualität einschränkt. TFT-Monitore sind im Vergleich zu den älteren LCD´s schnell im Aufbau kommen aber noch nicht an den der CRT´s heran. Bei TFT-Monitoren sind die Ghoststrips oder Crosstalks (Streifenbildung, durch langsames Ansprechen der Transistoren) so gering, dass Videos bearbeitet und geschaut werden können. Größenvergleich: TFT 15" ~ CRT 17" ~ 40cm sichtbare Bildschirmdiagonale Vorteile / Nachteile Vorteile ● ● ● ● ● ● ● ● ● Abmessungen Gewicht Wärmeentwicklung Schärfe Kontrast Leuchtdichte keine Röntgen-/ magnetische Strahlung flimmerfrei keine Konvergenzfehler Nachteile ● ● ● ● ● "Kinderkrankheiten" Farbsättigung durch Hersteller vorgegebene Auflösung bei Ausfall eines Transistors entsteht ein Fehler der Darstellung Farbechtheit, nur neuere Modelle verkraften True Color TFT - Resümee Die TFT-Monitore sind auf dem Vormarsch und werden aufgrund der voranschreitenden Technik in immer mehr Bereichen eingesetzt. Zu diesen Bereichen gehört noch nicht die Videotechnik, weil die Bildaufbauzeiten nicht denen der Standart CRT´s entsprechen. Die Nutzung ist auch eingeschränkt, wenn mit unterschiedlichen Auflösungen gearbeitet werden muss, da die Güte des "Expand Modus" von dem Interpolationschip abhängt. Da die Betrachtungsdiagonale eines TFT - Monitors (in cm) größer ist als die in einem CRT - Monitor, relativiert sich die Kostenfrage dahingehend, dass man ein besseres Bild und 'mehr' zu sehen bekommt. Quellennachweis: www.tft-displays.com www.prad.de www.schutzbach.com Guido Lohmann; Flat is beautiful; Grundlagen der TFT-Technik (PC-Direkt) Soundkarte 1. Vorwort 2. Soundkarte 2.1 Verfahren 2.1.1 Frequenzmodulation (FM) 2.1.2 Sampling 2.1.3 Wavetable 1. Vorwort Die Soundkarte ist ein unersetzlicher Teil eines Computers. Ihre Hauptaufgabe ist die Erzeugung und Wiedergabe von Klängen. Diese Aufgabe wurde früher von einem im PC integrierten Lautsprecher erfüllt. Dieser konnte aber nur piepsende Geräusche und synthetische Musikstücke von sich geben. Erst mit der Möglichkeit, Sprache und Musik wiederzugeben, ist heute jeder Computer multimedial (Verbindung verschiedener Medien). Zu einem vollständigen Soundsystem gehört allerdings neben der Soundkarte auch ein Mikrofon und Lautsprecher als Schnittstelle zum Benutzer. Da Soundkarten mit akustischen Schwingungen nichts anfangen können müssen diese erst durch ein Mikrofon in elektrische Schwingungen umgewandelt werden. Diese analogen Schwingungen können von der Soundkarte digitalisiert werden. Zur Ausgabe der Signale müssen sie wieder in analoge Signale zurückverwandelt werden. Durch einen Lautsprecher werden diese elektrischen Schwingungen dann wieder in Luftschwingungen umgewandelt, die dann wieder vom Menschen gehört werden können. Diese Schwingungen müssen in einem Bereich von 30-20.000 Hz liegen. 2. Soundkarten Die ersten Soundkarten wurden 1987 entwickelt. Die erste war der Gameblaster von der Firma Creative Labs. Kurz darauf erschien von AdLib die gleichnamige Soundkarte. 1989 entwickelte Creative Labs dann den Soundblaster, der nach der AdLib Karte zum Quasi - Standard bei Soundkarten wurde. In der AdLib Karte war ein Soundchip der Firma Yamaha eingebaut. Die Karte benutzte das Prinzip der Frequenzmodulation (siehe 3.1.1) und konnte nur zur Tonwiedergabe benutzt werden. Sie war aber trotzdem dem Gameblaster, der auf dem Verfahren der Amplitudenmodulation arbeitet, klanglich deutlich überlegen. Der Soundblaster arbeitet nach dem Verfahren des Sampling (siehe3.1.2). Er verfügte über einen integrierten Mikrofoneingang, so dass sich zum erstem Mal Geräusche aufzeichnen ließen, sowie über einen Verstärker für Kopfhörer und Lautsprecher. Dafür war zum erstem Mal ein AD- und ein DA- Wandler eingebaut. Außerdem fanden sich auf dem Soundblaster ein GamePort bzw. Joystick Anschluss. Bei neueren Karten, wie zum Beispiel dem Soundblaster Pro, befinden sich die AD- und DAWandler auf einem Chip, der CODEC (COder/DECoder) genannt wird. Darüber hinaus enthalten sie Schnittstellen für Musikinstrumente (MIDI) und CD-ROMs. 2.1 Verfahren 2.1.1 Frequenzmodulation (FM): Bei der Frequenzmodulation werden Oszillatoren eingesetzt, die durch den Computer gesteuert werden. Einem Oszillator wird eine bestimmte Tonvorgabe zugewiesen, die von einem anderen über die Frequenzmodulation verändert wird. Das Klangergebnis ähnelt sehr dem eines Synthesizers, da das Verfahren aus diesem Bereich übernommen wurde. Je mehr Modulatoren eingesetzt werden, desto besser ist die Klangqualität. Allerdings ist die Anzahl der möglichen eingesetzten Modulatoren sehr begrenzt. 3.1.2 Sampling Beim Sampling werden analoge Signale, die von der Soundkarte in Zahlenwerte umgesetzt werden, später in einer Datei gespeichert, die die Grundlage für die spätere Ausgabe bildet. Die Zahlenwerte werden wieder in analoge elektrische Spannung zurückverwandelt, die dann über einen Lautsprecher ausgegeben werden können. Der Vorgang der Digitalisierung vollzieht sich in der Sekunde mehrere Tausend Mal. Die Qualität wird über die Samplingrate und die Samplingtiefe beurteilt. Die Samplingrate beschreibt die Häufigkeit, mit der die analogen Signale in digitale umgesetzt werden - die Samplingtiefe die Genauigkeit, mit der dies geschieht. Die Samplingrate sollte bei mindestens 44,1 kHz und die Samplingtiefe bei mindestens 16 Bit liegen. 3.1.3 Wavetable Bei diesem Verfahren werden in einem EPROM Baustein Muster für Klänge von Instrumenten in einer „Wellenform – Tabelle“ gespeichert. Dadurch, dass die Klangmuster für Einzeltöne vorliegen, wird weniger Speicherplatz verbraucht. Die verschiedenen Tonhöhen werden dann errechnet. Auf diese Weise kann dann vom Soundprozessor auf die einzelnen Töne zurückgegriffen werden, ohne dass z.B. ein Musikstück in seiner vollen Länge gesampelt werden muss. Außerdem wird bei diesem Verfahren ein fast originalgetreuer Sound erreicht. Quellen: www.e-online.de Computer Fahrschule (Buch) Das Diskettenlaufwerk (Floppy Disk Drive, "FDD") Funktion Das Diskettenlaufwerk dient zum Beschreiben und zum Lesen von sog. "Disketten". Eine Diskette ist ein nichtflüchtiger wieder beschreibbarer magnetischer Datenspeicher. Sie besteht aus einer flexiblen Kunststoffplatte mit einer beidseitigen Magnetschicht, die je nach Ausführung in einem starren Kunststoffgehäuse oder in einer flexiblen Hülle steckt, um sie vor mechanischen Beschädigungen zu schützen. Disketten können mit Hilfe des Laufwerkes gelesen und beschrieben werden und sind transportabel. Sie eignen sich deshalb für den Datentransport kleiner Datenmengen zwischen Computern an verschiedenen Standorten, die nicht miteinander vernetzt sind. Geschichtlicher Hintergrund... Das Diskettenlaufwerk wurde Ende der 60er-, Anfang der 70er-Jahre des 20. Jahrhunderts konstruiert, um einen Massenspeicher für Daten zu erhalten, der auch nach dem Ausschalten des Rechners die Daten erhält. Bis zu diesem Zeitpunkt wurde das von Datenbändern verschiedener Formate realisiert, die aber den Nachteil hatten, dass die Daten nur sequentiell, d. h. in der auf dem Band physikalisch vorhandenen Reihenfolge wieder eingelesen werden konnten. Welche Bedeutung die Diskettenlaufwerke zu dieser Zeit hatten, kann man heute noch daran erkennen, dass selbst "moderne" MS-Betriebssysteme für diese Laufwerke die ersten beiden Buchstaben des Alphabets reservieren. Als "Erfinder" der Floppy gilt Alan Shugart, der in den späten 60er Jahren für IBM arbeitete. Heute... Lange Zeit konnte sich das Diskettenlaufwerk am Leben halten durch die Möglichkeit, die Medien einfach zu wechseln, zu transportieren oder getrennt vom Rechner aufzubewahren. (Die Eigenschaft als Massenspeicher hatte das Diskettenlaufwerk schon Jahre vorher verloren, als Festplatten zur Standardausstattung eines jeden Rechners zu gehören begannen.) Erst die Verbreitung der CD-Recorder und der Preisverfall für CD-Rohlinge hat (in Verbindung mit der Verbreitung des Internet und der Möglichkeit, Daten ohne eigenen physikalischen Datenträger zu transportieren) der praktischen tagtäglichen Nutzung von Diskettenlaufwerken ein Ende bereitet. Mittlerweile hat vor allem die beschränkte Kapazität dazu geführt, dass die Nutzung des Diskettenlaufwerkes auf einen einzigen Anwendungsbereich beschränkt ist: als Bootdiskette für Betriebssysteme und/oder Computerkonfigurationen, die ein Booten von CD-ROModer DVD-Laufwerk nicht zulassen oder individuell gespeicherte Informationen benötigen (z.B. Rettungsdisketten oder Virenscanner). Die hin und wieder aufgestellte Behauptung, Disketten hätten gegenüber CD-ROMs den Vorteil größerer Lebensdauer durch geringere Anfälligkeit für äußere Einflüsse ist nicht stichhaltig, weshalb dieses Referat nicht darauf eingeht. "Rettungsversuche" zur Lebenserhaltung des magnetischen mobilen Datenträgers wurden im letzten Jahrzehnt unternommen -- eine Zeit lang erfreute sich das dem Diskettenlaufwerk entfernt verwandte "ZIP-Laufwerk" einer gewissen Beliebtheit -- das "O. R. Technology LS120Laufwerk" mit einer Kapazität von 120 MByte (es gab auch ein paar Versionen mit 240 MByte) und Abwärtskompatibilität zur 1,44 MByteVersion konnte bestenfalls als "Exot" gelten ohne jegliche relevante Verbreitung. Ausblick... Das Diskettenlaufwerk hat kaum Aussichten, die nächsten Jahre zu überleben. Heutige Laptops werden ohne ein solches geliefert und in diesem Jahr sind sogar die ersten Massencomputer einer großen deutschen Supermarktkette ohne Diskettenlaufwerk geliefert worden, was bezeichnend ist, wenn man bedenkt, dass diese Rechner traditionell jegliche nur erdenkbare Ein- und Ausgabe-Komponenten beinhalten. In der Computergeschichte gebührt dem Diskettenlaufwerk dennoch ein besonderer Platz, weil es mit diesem Gerät zum ersten mal möglich war, einen externen Massenspeicher praktisch direkt wie eine Erweiterung des Hauptspeichers zu nutzen, was letztlich die rasante Steigerung der Komplexität von Computerprogrammen ermöglichte. Für jeden, der zuvor mit Bändern oder ähnlichen aus heutiger Sicht extrem schwerfälligen Speichermedien gearbeitet hatte, war das Diskettenlaufwerk ein so großer Technologie-Sprung, wie es ihn in der Datenverarbeitung kaum vergleichbar gegeben hat. Laufwerke Diskettenlaufwerke können nach der Art des Datentransfers und des Bussystems unterschieden werden (IDE/SCSI mit paralleler Datenübertragung) oder danach, ob sie im Rechner integriert werden oder nicht (interne Laufwerke mit halber oder voller Bauhöhe, externe Laufwerke). Externe Diskettenlaufwerke werden oder wurden auch für den Anschluss am parallelen Port oder über USB hergestellt. Funktionsschema: Datenträger Die ersten kommerziellen Disketten waren vom Format 8 Zoll (ca. 20 cm), dieses später wurde nahezu ohne wesentliche Änderungen einfach auf 5,25 Zoll (ca. 13,5 cm) verkleinert. Diese Disketten bestanden aus einer magnetischen Scheibe, die in einem biegsamen Kunststoff-"Umschlag" gelagert waren. (Hieraus entstand auch der Name "schlappe Scheibe" -- "Floppy Disk"). Ob die Diskette vom Rechner als "schreibgeschützt" erkannt wurde, bestimmte sich danach, ob sie am Rand der Hülle eine rechteckige Einkerbung besaß oder nicht. Diese Einkerbung wurde mit einem kleinen Pin vom Diskettenlaufwerk erkannt. Mit Einkerbung war sie beschreibbar, ohne war sie schreibgeschützt. Um eine Diskette, die man beschrieben hatte, schreibgeschützt zu machen, bediente man sich kleiner Aufkleber, die man über die Einkerbung klebte. Später (etwa ab Mitte der 80er-Jahre) entstanden die 3,5 Zoll (ca. 9 cm) Disketten, die zum einen eine Hülle aus nicht mehr biegsamem Kunststoff erhielten und die man mittels eines kleinen Schiebers vom Zustand "schreibgeschützt" auf "beschreibbar" ändern konnte. Bei den 3,5-Zoll Disketten bedeutete jedoch im Gegensatz zu den Vorläufern die Schieberstellung "offen", dass die Diskette schreibgeschützt war. Kapazität Wie alle Computerbauteile, die über eine so lange Zeit existierten wie das Diskettenlaufwerk, wurden über die Jahre viele verschiedene Formate zur Marktreife gebracht. Gebräuchliche Formate (das zur Zeit überwiegend genutzte Format in roter Schrift): Kapazität formatiert Spuren pro Seite Seiten pro Disk Bez. der Dichte horiz. Dichte (TPI) Diskgröße Kapazität unformatiert Sektoren pro Spurbreite Spur (DOS) (mm) 5,25" 500KB 360KB 40 2 (DS) DD 48 9 0,33 5,25" 1,5MB 1,2MB 80 2 (DS) HD 98 15 0,16 3,5" 1,0MB 720KB 80 2 (DS) DD 135 9 0,115 3,5" 2,0MB 1,44MB 80 2 (DS) HD 135 18 0,115 3,5" 4,0MB 2,88MB 80 2 (DS) ED 135 36 0,115 Darüber hinaus gibt es eine Unzahl weiterer Formate, die zum größten Teil an einzelne, nicht mehr aktuelle Computertypen gebunden sind. Bsp.: Commodore 64 mit der seriellen Floppy 1571 (einseitig lesbar, 5,25" Zoll, 170 KByte, hergestellt ab 1982), Apple II Serie (einseitig lesbar, 5,25" Zoll, 143 KByte, hergestellt ab 1980) Aufzeichnungsverfahren Um eine Diskette nutzen zu können, muss diese zuerst formatiert werden, d. h. mit einem vom Betriebssystem abhängigen Muster in adressierbare Segmente eingeteilt werden. Die Spuren (Tracks) der Diskette sind konzentrisch angelegt. Um Informationen schnell finden zu können, sind diese Spuren außerdem in Sektoren unterteilt. Zwei oder mehr Sektoren sind ein Block (Cluster). Spur, Sektor und Diskettenseite sind jeweils nummeriert und damit adressierbar. Welche Datei sich wo auf der Diskette befindet, wird in einer Datenzuordnungstabelle hinterlegt. Hauptbauteile des Laufwerkes sind die Mechanik für den Antrieb der Diskette und für die Schreib-Lese-Köpfe, die Schreib-Lese-Köpfe selbst und eine Kontrollelektronik. Die SLK sind kleine Elektromagnete. Ihr Magnetismus richtet die Eisenteilchen der Magnetschicht auf der Diskette aus. Durch den Antriebsmotor wird die Diskette in Drehbewegung versetzt. Dabei wird Geschwindigkeit konstant bei 300 Umdrehungen pro Minute gehalten. Über die Bewegung einer Spindel, die mit der Halterung für den SLK verbunden ist, wird dieser nach vorn oder hinten geführt. Angetrieben wird die Spindel durch einen Schrittmotor. Annex: "kleine Datenmengen" Die Entwicklung der Datenverarbeitung geht mit einem explosionsartigen Anstieg der Speicherkapazität einher. Jeweils in Beziehung auf eine "Standard-Diskette" mit 1,44MB Speicherkapazität kommt man daher auf folgende Mengen: ● ● ● Sichern des Hauptspeichers mit der derzeitigen Durchschnittsgröße von 256 MByte: 180 Disketten Sichern einer "kleineren" Festplatte, so wie sie derzeit erhältlich ist (60 GByte): 40.000 Disketten oder gestapelt ein Turm von 120 m Höhe Anschauen eines Spielfilms (120 Minuten) auf Diskette anstelle von DVD: 7.000 Disketten und nicht zu vergessen: ein Diskettenwechsel alle 2 Sekunden Film! [zurück] Streamer die gigantischen Bandlaufwerke Bild Bild Gliederung: ❍ ❍ ❍ ❍ ❍ Was ist ein Streamer-Tape Laufband (Definition) Funktionsweise Kapazität Aufzeichnungsverfahren ( Längs- und Schrägspur) Herstellung eines Bandes Definition: Das Wort "Streamer" kommt aus dem Englischen und bedeutet schlicht und einfach „Band“ Ein Streamer ist ein Bandlaufwerk, mit dessen Hilfe Dat Anwendungsgebiete: ● ● ● ● Sicherungskopien von Servern oder Workstations Archivierung von Altdaten Datensicherung ( Backup) Datenaustausch und Transport Funktionsweiser Aufbau von Streamer-Tapes Streamer sind in etwa genauso schnell wie ein Diskettenlaufwerk, können aber im Gegensatz zu diesen wesentlich mehr Daten speichern . Der prinzipielle Aufbau eines Streamers ist vergleichbar mit anderen magnetischen Aufzeichnungsgerät wie zum Beispiel einem Stereokassettenrekorder . Ein Motor bewegt das beschichtete Magnetband innerhalb einer Datenkassette ("Cartridge ") an einen Schreib und Lesekopf vorbei - vorwärts, wobei die Daten in digitaler Form (bits) als positive oder negative Ladungen gespeichert oder gelesen werden. Entscheidender Unterschied zu anderen Aufzeichnungsgeräten ist, dass der Kopf nicht starr installiert ist, sonder mehrerer parallel verlaufende Spulen ( " Tracks") nebeneinander mit den seriell aufgezeichneten Daten beschrieben werden. Im Gegensatz zu großen Computerbändern und anderen Datenträgern wird der mechanische Antriebsmechanismus bei Datenkassetten durch einen speziellen Antriebsriemen realisiert , der sich im Inneren der Kassette befindet ( z.B. T- förmig um die Rollen gespannt). Dieser wird wiederum in der Kassette über mehrere Rollen geführt , dass an den Spulen auf das Magnetband drückt und es dadurch weiter transportiert . Durch eine solche Technik werden Bandschäden und so die Möglichkeit eine Bandriss erheblich verringert , da mechanische Einwirkungen durch den elastischen Riemen weitgehend abgefangen werden. Nachteil: Aufgrund der Länge des Bandes und der Les- bzw. Schreibart können die Daten nur seriell gelesen werden und sind somit im durchschnittlichen Zugriff auf einen Datenblock langsam ( zumindest im Vergleich mit einer Festplatte): Kapazität Bänder bzw. die Laufwerke gibt es in unterschiedlichen Varianten, diese Liste erhebt keinesfalls den Anspruch auf Vollständigkeit, sie soll nur die am häufigsten verwendeten Arten aufzeigen: ● QUI (Quarter Inch Cartridge) : Ein Format , das sich sehr schnell verbreitet hat, da sowohl die Laufwerke als auch die Bänder sehr billig sind. Deshalb haben sie vor allem im Home und SmallOffice - Bereich durchgesetzt. Es gibt Bänder mit unterschiedlicher Kapazität, wobei die Faustregel gilt, dass die neuren Laufwerke meist abwärtskompatible sind d.h. sie die älteren Bänder lesen können (Kapazität 425 MB - 4 Gigabyte). ● DAT ( Digital Audio Tape): Wie der Name bereits schon besagt, wurde dieses Band zunächst im Audio- Bereich verwendet. Da das Aufzeichnungsverfahren aber bereits digital war, hat sich die Computerbranche dieses Medium " einverleibt". Mit Kapazität von ca. 2- 12 Gigabyte finden sie vor allem in kleineren Netzwerken in Servern ihre Anwendung. Weiterentwicklung des DAT- Streamer ● Jahr 1989 1993 1995 1998 2000 Kapazität 1,3 GB 2 GB 12 GB 24 GB 48 GB Transferrate 183 KB/ s 360KB/S- 720 KB/ s 750 -KB/s- 1,5 MB/ s 1-3 MB/ s 3-6MB/ S DLT ( Digital Linear Tape): schneller , robuster, zuverlässiger und mehr Kapazität ( 30 - 80 Gigabyte) als alle bisher genannten Medien zeichnen diese Art aus. Deshalb finden sich diese Form meist in Unternehmen mit großen Datenvolumen. Allerdings schlagen sich die Fähigkeiten der DLT- Technik auch im Preis nieder ( ab 2500 Euro aufwärts für ein Laufwerk). Aufzeichnungverfahren Allgemeiner Aufbau des Datenträgers (Tape) Die Bänder sind unabhängig von der Schräg oder Längsspur in Sektoren unterteilt . Der Aufbau der Sektoren orientiert sich hierbei an dem von Disketten. Bei Straemer ist jedoch die Anzahl der Datenbits doppelt so hoch , so daß ein Sektor 1024 Datenbits enthält. 32 dieser Sektoren werden zu einem Segment zusammengefaßt, das Gegenstück zur Spur bei der Diskette . Drei der Sektoren eines Segments dienen der Fehlererkennung - und korrektur. Längsspuraufzeichnungsverfahren Bei der Längsspuraufzeichnungsverfahren werden die einzelnen Bits mit dem MFM-Verfahen in Magnetisierungsmuster kodiert : für eine `1`wird in der Mitte der Bitzellen die Magnetisierung umgekippt, für eine `0`nach einer `0`zu Beginn der Bitzelle ; bei einer `0`nach einer `1´ passiert nichts. 1024 Datenbits werden mit Syncronisationsmarken, Adressangaben und einer CRC -Prüfsumme zu einem 1319 Bit langen Sektor zusammengefasst . Ein solcher Sektor ist bis auf die doppelte Anzahl der Datenbits exakt so aufgebaut wie ein Sektor einer Diskette. 32 solcher Sektoren bilden ein Segment, das Gegenstück zu einer Spur einer Diskette . Im Gegensatz zur üblichen Formatierung von Disketten werden bei der Längsspuraufzeichnung drei dieser 32 Sektoren für die Fehlererkennung und korrektur (ECC) reserviert. Vor der Benutzung müssen die Medien formatiert werden , da der Controller nach dem Schreiben eines Sektors kurzzeitig auf Lesen schaltet und dann Syncronisationsmarken finden will, an den er sich orientieren kann. Zum Beispiel: Bei QIC läuft das Band abwechselnd nach links oder rechts am Schreib / Lesekopf vorbei. Ein Spindelantrieb bringt den Kopf dabei auf die Höhe der gewünschten Spur. In das Band gestanzte Löscher markieren Anfang und Ende. Bild Schrägspuraufzeichnung ( Helical Scan) Um auf engsten Raum die Unmengen digitaler Audiodaten aufzuzeichnen , laufen bei Helical Scan, die Spuren nicht mehr vom Anfang des Bandes bis zum Ende durch. Vielmehr liegen Milliarden von kurzen Spuren in einem flachen Winkel geneigt nebeneinander auf dem Band .Zum schreiben und Lesen wird das Band schräg um eine sich schnell rotierende Trommel herumgeführt. Schreib und Lesekopf sind in dieser Trommel eingelassen und fahren dadurch mit einer sehr hohen Geschwindigkeit über das Band .Aufgrund dieser Geschwindigkeit, mit der sich die Trommel bewegt , können die Bits auf Platz sparender Weise in Magnetisierungsmuster umgesetzt werden und das erlaubt eine hohe Frequenzen um die Datenmengen abspeichern zu können. Üblicher weise wird das NRZI- Verfahren verwendet : Bei jeder `1`wird die Magnetisierung geändert, bei jeder `0`bleibt sie gleich. Bild Vorteil dieses Aufzeichnungsverfahren ❍ ❍ die Daten können viel schneller gespeichert werden man hat schneller Zugriff auf einzelne Daten ❍ man kann Dateien mit 200 facher Geschwindigkeit suchen Medienherstellung eines Bandes Am Anfang der magnetischen Speicherung gab es zwei verschiedene Verfahren um ein Magnetband herzustellen. Mit Hilfe von Umformtechniken ( walzen) wurden massiv eiserne Magnetbänder oder Drähte hergestellt . Die Massebänder bekamen ihr magnetisches Material in ihre Kunststoffunterlage eingebracht. Die Speicherdichte und der Platzbedarf ließ natürlich sehr zu Wünschen übrig. Einige Formen der Magnetpartikel sind in dem Bild rechts zu sehen. Die heutigen Fertigungsprozesse setzen meist eine fertige Unterlage vorrau. Mit Hilfe von Lackiertechniken werden die Pigmente auf die Unterlage aufgebracht und dann mit dem Lack getrocknet. Dabei werden die gewonnenen Erfahrungen aus der Photofilmtechnik benutzt. Bei der Aufdampfen / Sputtertechnik wird das magnetische Material durch Erhitzen , Elektronen - oder Ionenbeschuß aufgedampft. Das Material schlägt sich dabei auf der kälteren Unterlage nieder. Die dritten Möglichkeiten besteht darin, daß man durch elektrolytisches Abschneiden der Pigmente aus einer Lösung, in der die magnetischen Ionen als Komplexsalze enthalten sind, das Material magnetisierbar macht. Das Material der Unterlage besteht heute zumeist aus Kunststofffolien. Früher wurde dazu auch PVC verwendet. Die beiden wichtigsten Eigenschaften bei einem Magnetband sind, die schon vorher erwähnet Koerzitivfeldstärke und die remanente magnetische Induktion. Diese Merkmale werden auf verschiedenster Weise je nach Anwendungsart abgestimmt. Eine hohe Koerzitivfeldstärke bewirkt eine bessere Wiedergabequalität der höherfrequenten Pegel und eine gesteigerte Stabilität der Aufzeichnung . Die magnetische Induktion soll immer möglichst hoch sein, da von ihr die Wiedergabespannung und damit der Störabstand abhängen. Magnetooptische Laufwerke Allgemeines Technik Aufzeichnung Lesevorgang Bauformen Vor- und Nachteile Quellenangaben Allgemein Bild 1: altes Sony MO-Laufwerk und Verbatim Diskette Die Vorteile von Festplatten (große Kapazität) und herkömmlichen Disketten (Austauschbarkeit, günstiger Preis) vereinen magnetooptische Speichermedien (Magnetooptische Disks). Sie nutzen den physikalischen Effekt, dass in bestimmten Legierungen bei höheren Temperaturen eine Änderung der magnetischen Orientierung mit relativ geringer Magnetfeldstärke erreicht werden kann. Die einzelnen Bits können magnetisch geschrieben werden, wenn gleichzeitig ein etwas stärkerer Laser die Punkte über den CuriePunkt (180 Grad Celsius) erhitzt (deshalb werden MO-Laufwerke beim Beschreiben recht warm). Bei Zimmertemperatur bleiben die Bits fest gespeichert. Der Lesevorgang wird mit einem schwachen Laser ausgeführt, der keine gefährliche Erhitzung bewirkt. Dieses Prinzip funktioniert, weil - je nach Magnetisierung - polarisiertes Laserlicht bei der Reflexion in verschiedene Richtungen gedreht wird (Kerr-Effekt). In der Geschwindigkeit der Datenaufzeichnung liegen MO-Disketten zwar weit hinter modernen Festplatten zurück, dafür werden sie wie CDs völlig verschleisslos gelesen. MO-Disketten gibt es im Format 3,5 Zoll und 5,25 Zoll. Die Disketten der wichtigsten Hersteller können untereinander ausgetauscht werden, weil einheitliche Aufzeichnungsformate verwendet werden. Trotz der scheinbar sehr aggressiven Schreibtechnik bei 200 Grad Celsius (etwas höher als der Curie-Punkt) sind MO-Disketten viele Millionen mal wiederbeschreibbar und haben eine ähnliche Langlebigkeit wie CDs. Während die MO-Disketten bereits für einen sehr günstigen Preis zu haben sind, sind die Laufwerke noch etwas zu teuer, um wirklich den großen Durchbruch zu schaffen. Die MO-Technik ist in weiten Teilen von der CompactDisc und deren Nachfolger, der DVD (Digital Versatile Disc), überholt und verdrängt worden. MO-Laufwerke sind, wie Streamer häufig im professionellen Umfeld zu finden. Den Massenmarkt werden sie wohl nie erobern. Bild 2: Laufwerk von DynaMO Technik Die MO-Disk besteht aus mehreren Schichten, die in einem Plastikgehäuse vor Kratzern und Schmutz geschützt sind. Wie im oberen Schaubild zu sehen ist, ist die magnetooptische Schicht, auf der die Daten aufgezeichnet werden, zwischen zwei dielektrische Schichten gepackt. Diese dienen dazu, die Datenschicht zu schützen und den Kerr-Effekt zu verstärken. Auf der Oberseite befindet sich eine Reflektionsschicht, die das Auslesen der Daten erleichtert. Das ganze ist auf einer Trägerscheibe aus Polycarbonat aufgebracht und von UVSchutzfilmen umschlossen. Bild 3: Die Schichten einer MO-Disk Aufzeichnung Beim Schreibvorgang erhitzt ein Laser die Stelle, an der die Daten geschrieben werden sollen, auf ca. 200°C. Somit ist der CuriePunkt, bei dem viele Metalle ihre magnetische Ausrichtung verlieren, überschritten. Um das Metall während des Abkühlens magnetisch auszurichten, ist nur ein verhältnismäßig schwaches Magnetfeld erforderlich. Bei Zimmertemperatur können die Daten auch durch ein sehr starkes Magnetfeld nicht geändert werden. Auch wenn die Diskette stark erhitzt wird, bleiben die Daten erhalten. Somit ist die Speicherung auf MO-Diskette sehr sicher. Lesevorgang Die Daten auf einer MO-Diskette werden optisch, mit Hilfe eines Lasers, ausgelesen. Dabei macht man sich den Kerr-Effekt zunutze. Der Lese-Laser ist wesentlich schwächer, als der Laser, der beim Schreiben das Material erhitzt. Dadurch besteht keine Gefahr für die Daten. Da das Auslesen der Daten, ähnlich wie bei einer CD-ROM, ohne mechanischen Kontakt geschieht, wird die Lebensdauer der Medien durch das Lesen nicht beeinträchtigt. Anders als bei einer CD-Rom ist die Information nicht in Pits und Lands codiert, sondern verbirgt sich in der magnetischen Eigenschaft der Datenschicht. Die Informationen sind nur unter Anwendung des Kerr-Effektes auszulesen. 31 Jahre nachdem Michael Faraday 1845 entdeckte, dass Licht seinen Polarisationszustand beim Durchgang durch ein ferromagnetisches Medium ändert, fand John Kerr (1824-1907) heraus, dass linear polarisiertes Licht, das an den Polschuhen eines Magneten reflektiert wird, seinen Polarisationszustand in Abhängigkeit von der Stärke des vom Magneten erzeugten Feldes ebenfalls ändert. Er hatte damit das Analogon zum Faraday-Effekt in Reflexion entdeckt. Wenn man also die Diskette mit polarisiertem Licht aus einer Laserdiode bestrahlt, wird die Richtung der Wellen, je nach Zustand der aktuellen Position, um einen bestimmten Wert gedreht. Typische Werte für die Kerr-Drehung liegen zwischen 0° und 10°, bei sichtbarem Licht aber meistens um die 0,3°-0,5°. Bild 4 zeigt die schematische Anordnung der Elemente in einem MOLaufwerk. Die Laserdiode sendet monochromatisches Licht aus. Dieses fällt durch den Polarisator auf die Diskette. Von da wird es reflektiert. Wenn die beleuchtete Stelle zuvor magnetisiert wurde, ist das Licht nun um die Kerr-Drehung gedreht. Ein Strahlenteiler lenkt es je nach Zustand (gedreht oder nicht) in unterschiedliche Photodioden. Bild 4: Schematischer Aufbau eines MO-Laufwerks Bauformen Bild 5: MO-Laufwerk MO-Laufwerke gibt es in unterschiedlichen Ausführungen. Angefangen bei 3,5" mit einer Kapazität von 230MB bis hin zu zweiseitig beschriebenen Disks mit bis zu 1,3 GB. Laufwerke, die im 5,25"-Format gebaut sind, haben eine Kapazität von 640MB bis 5,2GB. Das zur Zeit schnellste MO-Laufwerk hat eine Datentransferrate von bis zu 5,9 MB/s beim Lesen. Die Laufwerke waren früher ausschließlich mit SCSI-Schnittstelle erhältlich weil sie nur im professionellen Bereich eingesetzt wurden. Heute findet man auch günstige Laufwerke mit USB oder IDE-Schnittstelle. Eine weitere Modifikation der MO-Technologie ist die MiniDisc, die Anfang der 90er Jahre des vorigen Jahrhunderts von der japanischen Firma Sony entwickelt wurde. Die 2,5" Disks sind nicht kompatibel zu Computerlaufwerken und speichern nur Musikdaten. Um die 74min Musik, die eine CD enthält, auf die wesentlich kleinere MiniDisk zu bringen, entwickelte Sony ein Datenreduktionsverfahren, bei dem Signale, die das menschliche Ohr nicht hören kann, nicht auf die MiniDisc geschrieben werden. Mittlerweile hat man nachgebessert und kann heute mit bloßem Ohr keinen Unterschied mehr zur CompactDisk feststellen. Aber auch auf diesem Gebiet konnte sich die magnetooptische Technologie nicht durchsetzen. Anfangs als Nachfolger der MagneticCasette gepriesen, wurde sie schnell von CD-R und CD-RW verdrängt. Auch die MP3 Technologie ist ein sehr erfolgreicher Konkurrent zur MiniDisc. Die fehlende schnelle Schnittstelle zum Computer lässt die MiniDisc heute ein Schattendasein führen. Bild 6: Tragbarer MD-Player von Sony Vor- und Nachteile Der wichtigste Vorteil der MO-Technologie ist meines Erachtens nach die Sicherheit der gespeicherten Daten. Die MO-Diskette besteht aus einer stabilen Hülle, die die Scheibe vor mechanischen Beschädigungen und Schmutz schützt. Auch vor magnetischen Einflüssen sind die Daten sicher, da die TbFeCo-Schicht nicht leicht umzumagnetisieren ist. Aus dem gleichen Grund ist die Disk auch gegen Erschütterungen resistent und selbst Temperaturen bis 180°C überstehen die Daten ohne Probleme. Des weiteren besteht nicht die Gefahr eines Headcrashes, der bei magnetischen Systemen wie Festplatten auftreten kann, weil die Daten optisch ausgelesen werden. Nachteile sind vor allem der hohe Preis für Gerät und Medium. Die CompactDisk ist wesentlich billiger und in den meisten Systemen schon vorhanden. Des weiteren ist die Performance der meisten MO-Laufwerke um einiges geringer, als die konkurrierender Technologien. Man denke hier an den Datendurchsatz von Bandlaufwerken oder die Geschwindigkeit moderner CD-Brenner. Ein weiteres Handicap der MO-Technologie besteht in der geringen Popularität dieser Technik. Privatanwender sollten deshalb die bestehenden CD-Brenner, ZIP-Laufwerke etc. weiterbenutzen. Für Firmen und Institutionen, die wichtige Daten zu sichern und zu archivieren haben, ist ein MO-Laufwerk eine gute Wahl. MO-Disks sind wesentlich langlebiger, als Magnetbänder. Auch kouml;nnen sie bis zu 1 Millionen mal beschrieben werden, wo hingegen Magnetbänder maximal 1000 Schreibzyklen aushalten. Quellenangaben Fujitsu MO Information Diplomarbeit von Daniel Wegner Thema:Lineare und nichtlineare optische Rasternahfeldmikroskopie an magnetischen Filmen an der Freien Universität Berlin 1999 StcArchiv.deAlternate Computerversand, Linden Thermodrucker Die Thermodrucker gehören zur Gruppe der Matrix- und den Non-Impact Druckern. Sie haben ein sehr weit gestreutes Anwendungsgebiet, welches sich vom Foliendruck im Büro über Bon- und Strichcodedruck im Handel bis hin zum Faxausdruck in Faxgeräten erstreckt. Das Druckprinzip beruht auf der blitzartigen Erhitzung einzelner Heizelemente, die die Farbpunkte auf dem Papier erzeugen. Durch Anlegen einer Spannung werden die Heizelemente bei Bedarf auf ca.96 Grad Celsius erhitzt und kühlen durch ihre Materialeigenschaft nach der Bestromung sehr rasch wieder ab. Integriert sind die einzeln ansteuerbaren Heizelemente ein- oder zweireihig entweder in einer Heizleiste oder in einem Heizkopf, der auf einem beweglichen Schlitten montiert ist. Der Heizkopf wird ähnlich wie bei Nadel- oder Tintenstrahldruckern horizontal über das Papier bewegt, wobei er ein Zeichen nach dem anderen erzeugt. Bei der Heizleiste ist es etwas anders, da diese fest montiert ist wird hier das Papier bewegt und bedruckt, deshalb ist die Heizleiste meist so lang, wie die maximale Papierbreite. Generell kann man die Thermodrucker anhand der Druckverfahren in 2 verschiedene Gruppen unterteilen. Die erste Gruppe wäre das Thermoreaktionsverfahren, oder auch Thermodirektverfahren genannt. Die zweite Gruppe ist das Thermotransferverfahren. Beide Verfahren wurden mit einem Heizkopf oder einer Heizleiste realisiert. Zu dem Thermotransferverfahren gehört auch das Thermosublimationsverfahren. Hier wird aber nur mit Heizköpfen gearbeitet. Thermoreaktionsverfahren Bei dieser Drucktechnik wird kein Farbband benutzt, sondern auf zwei unterschiedliche Arten von Spezialpapier gedruckt. Bei der einen ist die Oberfläche mit zwei unterschiedlichen, farblosen Molekülen und Wachspartikeln versehen. Bei Hitze reagieren diese Moleküle miteinander und erzeugen die schwarze Farbe. Diese Technik wird sehr häufig in Faxgeräten genutzt. Die andere Papierart besteht aus einer getrennten Farb- und andockenden Wachsschicht. Wird lokal Wärme zugeführt, so schmilzt die Wachsschicht und macht die darunter liegende Farbschicht in Form von Punkten sichtbar. Vorgang des Thermoreaktionsdrucks Unabhängig von der Papierart übertragen die Thermoelemente bei Stromzuführung und der daraus resultierenden Erhitzung Wärme auf das Papier und erzeugen somit die gewünschten Farbpunkte. Mit dieser Methode können nur schwarz/weiß- Ausdrucke erzeugt werden. Thermotransferverfahren Bei diesem Druckverfahren wird kein Spezialpapier benötigt. Hier kann man Normalpapier verwenden. Wenn man allerdings ein optimales Druckbild erzielen will, sollte man auf eine relativ glatte Oberfläche des Papiers achten. Die Farbübertragung erfolgt bei diesem Verfahren durch eine spezielle Farbfolie (Farbband), auf der die Farbpartikel in einer Wachsschicht eingeschmolzen sind. Diese Farbbandfolie wird zwischen Heizleiste und Papier entlang transportiert und überträgt beim Erwärmen durch die Heizelemente die einzelnen Farbpunkte auf das Papier. Dort kühlt die Schmelze ab und bleibt haften. Der Ablösevorgang der Farbschmelze wird noch verstärkt, indem die Farbfolie an der Stelle wo sie erhitzt wird direkt von der Heizleiste weggeführt wird. Die Farbfolie befindet sich auf Rollen und ist in einer separaten Box im Drucker untergebracht. Für den Ausdruck einer DIN A 4-Seite wird die entsprechende Länge an Folie benötigt. Die Folie ist zudem auch nur einmal benutzbar, so dass für jeden weiteren Ausdruck eine neue Folie benötigt wird. Druckprinzip des Thermotransferdrucks Beim Mehrfarbendruck wird jede Papierseite viermal bedruckt. Dabei befinden sich die Farben Gelb, Magenta, Cyan und Schwarz nacheinander auf der Folie. Am Ende der vier Farben sowie zwischen diesen ist auf der Folie eine Markierungslinie angebracht, die der Drucker zur Synchronisation benötigt. Dies ist deswegen nötig, da das Papier die Druckstation mehrmals durchläuft, bis jede dieser unterschiedlich gefärbten Folien nacheinander zur Übertragung der benötigten Farbpunkte über das Papier geführt worden ist. Am Ende des Druckvorgangs ist die verbrauchte Folie wertlos. Thermosublimationsverfahren Im Unterschied zum herkömmlichen Thermotransferverfahren lassen sich hier die Heizelemente in einem Bereich von 2 Grad Celsius in 256 Stufen beheizen. Damit muss ein Farbpunkt nicht vollständig von der Folie abgelöst werden. Unterschiedlich viele Farbpigmente der Folie werden abhängig von der Temperatur abgelöst und auf das hier benötigte Spezialpapier übertragen. Dabei werden die einzelnen Farbpigmente übereinander gedruckt. Der technische Prozess dieses Verfahrens hat seinen Namen auf der Sublimation beruhenden Übertragung der einzelnen Moleküle von der Folie auf das Papier. Mit Sublimation bezeichnet man den unmittelbaren Übergang vom festen in den gasförmigen Zustand. Die Farbmoleküle werden durch die Beheizung der Heizelemente sublimiert und auf das Papier "gedampft". Dadurch werden echte Halbtöne im gesamten Farbspektrum erzeugt. Die Generierung von Farbbildern in Fotoqualität ist mit diesem Verfahren Realität geworden. Eine Firma die auf dieser Basis arbeitet ist z.B. Kodak. Die typische Ausdruckgeschwindigkeit für eine DIN A 4 Farbdruck sind ca.20 Minuten. Quellen: Das große PC-Drucker Buch Seite im Internet (Referat) Nadeldrucker Geschichte Allgemeines und Anwendungen Funktionsweise Auflösung Hersteller Quellen Geschichte Es nahm seine Anfänge bereits 1964: Im Rahmen der olympischen Spiele in Tokio wurde der japanische Hersteller von Präzisionsuhren, bekannt unter dem Markennamen Seiko, als offizieller Zeitnehmer beauftragt. Damit an allen Wettkampfstätten die erfassten Zeiten auch schnell und sauber aufgelistet werden konnten, entwickelte SEIKO den ersten miniaturisierten Nadeldrucker der Welt, der über ein völlig neues Drucksystem verfügte und damit weltweit für Aufsehen sorgte. Der Drucker ging 1968 in Serie und wurde ein Welterfolg. Und auch der 1975 eingeführte und inzwischen weltweit bekannte Markenname "EPSON". (Son of Electronic Printer = EP SON) Seit 1968 wurde die Drucktechnik kontinuierlich weiterentwickelt und verbessert neben der Geschwindigkeit, der Durchschlagskraft, dem Geräuschpegel und dem Verbrauch unter anderem auch die Haltbarkeit der Drucker. Allgemeines und Anwendungen 1999 wurden in Deutschland über 230.000 Nadeldrucker verkauft. Kontinuierliche Weiterentwicklungen machen sie schneller, flexibler, sparsamer, langlebiger und leiser als jemals zuvor. Die Nadeldrucker werden den neuesten Tintenstrahl- und Laser-Technologien vorgezogen, wenn mehrere Durchschläge oder meterlange Listen, zum Beispiel in Logistikzentren benötigt werden. Es sind die einzigen Drucker, die unter widrigsten Bedingungen, wie in einer staubigen oder feuchten Umgebung sowie bei starker Hitze oder Kälte, arbeiten können. Diese Eigenschaften wird gebraucht wo gleich mehrere Kopien erforderlich sind, denn gerade auf Lieferscheinen, Versand- und Zollpapieren muss auch der letzte Durchschlag noch lesbar sein. Nadeldrucker im Alltag allgegenwärtig: Im Dauereinsatz drucken sie in Arztpraxen Rezepte, in Banken Kontoauszüge und Belege, in Reisebüros Tickets, in Parkhäusern Parkscheine und an Supermarktkassen Bons. Funktionsweise Ein Nadeldrucker verfügt über einen auf einer Schlittenhalterung befestigten Druckkopf. Während des Drucks bewegt sich die Halterung auf Schlittenführungen hin und her. Zwischen dem Druckkopf, in dem sich die Nadeln befinden und dem Papier ist ein Farbband gespannt. Während sich der Druckkopf horizontal über das Papier bewegt, schlagen einzelne Nadeln mit enormer Geschwindigkeit gegen das Farbband. Dies geschieht durch einen Elektromagneten, der die einzelne Stahlnadeln auf ein Farbband presst und mit einem Hammer vergleichbaren ist. Die Nadel funktioniert dabei wie ein Meißel. Die dadurch auf dem Papier entstehenden einzelnen Punkte setzen sich durch diese ständig wiederkehrende Aktion innerhalb einer durch den Zeichengenerator vorgegebenen Matrix zu einem Zeichen zusammen (MATRIXMUSTER, daher auch die Bezeichnung Martixdrucker). Die Punktdichte und somit die Druckqualität kann verbessert werden, indem jeder Anschlag einer Nadel zweimal ausgeführt wird, aber um ca. 0,14mm daneben. So verschwimmen die Punkte in einander und das Schriftbild wird stärker hervorgehoben. Der für einen Nadeldrucker typische kreischende Ton beim Drucken kommt durch die hohe Geschwindigkeit der Nadeln zustande. Der Einzelblatteinzug Beim Einzelblatteinzug steuert ein Motor den Zeilen- und Seitenvorschub. Vereinfacht dargestellt wird das einzelne Blatt zunächst zwischen der Druckwalze und Papierandruckrollen in den Drucker geführt und verlässt nach dem Druck das Gerät über einen zweiten Rollensatz, exakt aufeinander abgestimmten Antriebsrädern stellen sicher, dass das Papier gerade eingezogen und bedruckt wird. Die Endlospapiereinzüge Für Endlospapier verfügen Nadeldrucker vorne, oben, hinten und unten über verschiedene Zuführungswege. In der Regel sind die Geräte mit einem oder zwei Zug-/Schubtraktoren ausgerüstet. Der Schubtraktor befindet sich an der hinteren oder vorderen Papierzuführung und schiebt das Papier in den Drucker. Ein Zugtraktor hingegen, der an allen vier Zuführungswege einsetzbar ist, zieht das Papier gleichmäßig aus dem Gerät heraus. Auflösung Der Einsatzzweck bestimmt die Anzahl der Nadeln. Der Druckkopf ist eine qualitätsentscheidende Komponente. Zur Auswahl stehen Drucker mit 9, 18, 24 und 48 Nadeln. Die Anzahl der Nadeln bestimmt die Auflösung, die in Punkte pro Zoll, oder kurz dpi gemessen wird. Ihre Auflösung beträgt meist 300 dpi (dots per inch). 9 Nadeln: In Druckköpfen mit 9 Nadeln sind diese in einer geraden Linie untereinander, leicht abgewinkelt angeordnet. Durch den Winkel können die Punkte enger und somit Kurven und Kanten exakter gedruckt werden. 9 Nadeldrucker kommen beispielsweise im industriellen Fertigungsbereich, bei der Verarbeitung von Formularsätzen mit bis zu 6 Durchschlägen oder dem Bedrucken von besonders hartem bzw. dickem Papier zum Einsatz. Sie sind jedoch auch in der Lage, fast ebenso gute Ausdrucke wie 24-Nadeldrucker zu liefern (so genannte "Near Letter Quality", NLQ), sind jedoch langsamer als diese, da hierzu zwei bis drei Druckvorgänge pro Stelle nötig sind. 18 Nadeln: In einem Druckkopf werden zwei parallel angeordnete Reihen mit jeweils neun Nadeln eingesetzt. Durch versetztes „Abfeuern“ der Nadelreihen wird eine besonders hohe Druckgeschwindigkeit erreicht. 24 Nadeln: In einem 24-Nadel-Druckkopf befinden sich nebeneinander zwei vertikale Reihen mit jeweils 12 Nadeln, die wie bei den 9 und 18 Nadel Druckköpfen leicht abgewinkelt angeordnet sind. Durch einen zusätzlichen vertikalen Versatz werden auch Zwischenräume zwischen den einzelnen Nadeln gefüllt, was zu einem besonders schönen Schriftbild führt. 24-Nadeldrucker kommen zum Einsatz, wenn der Druck von Geschäftskorrespondenz im Vordergrund steht. Für die Frage nach der optimalen Anzahl der Nadeln gilt als Faustregel: Viele Durchschläge = wenig Nadeln und hochwertiges Schriftbild = viele Nadeln. Der Farbdruck: Ist ein Nadeldrucker mit einer Kartusche für farbige Bänder sowie einem Hebemotor für das Farbband ausgestattet, sind Ausdrucke in Farbe möglich. Das etwa 2,5 cm breite Band verfügt über 4 Streifen in den Farben Schwarz, Blaugrün, Purpur und Gelb (CMYK). Je nachdem, welche Farbe gedruckt werden soll, hebt der Motor das Band in die richtige Position. Obwohl das Farbband selbst nur 4-farbig ist, können die Geräte bis zu 7 Farben darstellen. Dies geschieht durch die zweimalige Aktivierung der gleichen Nadel, mit einer anderen Farbe. Orange beispielsweise entsteht, indem zunächst ein Punkt in Gelb und auf diesen Punkt ein zweiter in Purpur gedruckt wird. Der Draftmodus: ● ● draft = engl. = Entwurf Im Draftmodus stehen vielen Druckern nur eine Schriftart zur Verfügung. Der Draftmodus ist der schnellste Druckmodus. Die hohe Druckgeschwindigkeit wird dadurch erreicht, dass jeder Punkt nur ein einziges Mal gedruckt wird. Die Zeilen werden somit vom Druckkopf nur überflogen, da nur wenige Anschläge gemacht werden. 9-Nadel-Drucker führen in diesem Modus normalerweise 9 Anschläge aus. 24-Nadel-Ducker hingegen führen 12 Anschläge aus ● ● ● Der NLQ- oder LQ-Modus: ● ● (N)LQ = (Near) Letter Qualität = nahezu Briefqualität Zur Darstellung von Zeichen werden in diesem Modus homogene Linien erzeugt. Diese homogenen Linien werden erreicht, indem die einzelnen Punkte mehrmals, leicht versetzt gedruckt werden. ● Die Druckgeschwindigkeit ist geringer als im Draftmodus. ● 9-Nadel-Drucker arbeitet in diesem Modus jede Zeile zweimal ab, jeweils mit leicht verschobenen Anschlägen. ● ● 24-Nadel-Drucker führen in diesem Modus für jedes Zeichen 3 getrennte Arbeitsschritte aus, was viel Zeit kostet. Im NLQ-Modus sind mehr Schriftarten verfügbar als im Draftmodus. Der Grafikmodus ● ● ● ● ● ● ● Im Gegensatz zu den schon im Drucker fest installierten Zeichensätzen, die beim Druck von Texten benutzt werden, kennt der Drucker im Grafikmodus nur die Darstellung von einzelnen Bildpunkten (Pixel). Grafiken können nur erstellt werden, wenn ein entsprechendes Programm vorhanden ist, welches Textzeichen des ASCII-Codes in Grafikzeichen umwandelt. In diesem Modus werden alle Nadeln des Druckkopfes einzeln gesteuert. Die Qualität des ausgedruckten Bildes steht im Grafikmodus im Vordergrund. Diese hängt wiederum von der Anzahl der abgebildeten Punkte pro Zoll ab. 9-Nadel-Drucker können eine Punktdichte bis zu 240 Punkte pro Zoll erreichen. 24-Nadel-Drucker können Punktdichten von 180, 240 und 360 dpi erreichen. Der Grafikmodus ist von allen der langsamste. Hersteller Commodore Quellen: www.Nadeldrucker.com www.stickybit.de www.weihenstephan.de www.computermuseum-muenchen.de Tintenstrahldrucker (Ink Jet Printer) "Tintenstrahldrucker arbeiten ähnlich wie Nadeldrucker, nur dass der Druckkopf keine Nadeln abschießt, sondern kleine Tintentropfen auf das Papier überträgt. Da verschiedene Tintenfarben verwendet werden können, gibt es auch mehrfarbig druckende Geräte dieses Typs. Tintenstrahldrucker erzeugen Ausdrucke hoher Qualität bei geringer Geräuschentwicklung."1 "Deswegen werden Tintenstrahldrucker vor allem dort eingesetzt, wo mehrere Drucker in einem Büro benötigt werden (Ergonomie)."2 "Bei hohem Druckaufkommen ist Laserdruckern jedoch im allgemeinen der Vorzug zu geben."1 Der Tintenstrahldrucker ist eine, zu "den anschlagfreien Druckern und zu den Zeilendruckern gehörige Druckerart. Tintenstrahldrucker besitzen einen mit einer Reihe von Drüsen bestückten Druckkopf, der auf einer Schiene befestigt ist."3 "Tintenstrahldrucker sind ebenfalls Matrixdrucker, nur dass hier anstelle der Nadeln, die die Farbe über ein Farbband auf das Papier übertragen, feine Tintendrüsen verwendet werden, die die Tinte auf das Papier 'schießen'."1 Das "gedruckte Zeichen [wird] aus einzelnen Punkten eines festen Rasters [zusammengesetzt]. Dabei werden einzelne Tintendrüsen "entsprechend kombiniert betätigt."1 "Wegen der Auflösung der Zeichen in einzelne Punkte ist der Tintenstrahldrucker voll graphikfähig. Es ist ferner möglich, den Tintenstrahldrucker mit mehreren Düsenköpfen für unterschiedliche Farben auszustatten, was allerdings nur wenig angewendet wird. Volle Farbfähigkeit ist damit nicht erreichbar, da nur jeweils die Farben der unterschiedlichen Düsenköpfe in ungemischter Form gedruckt werden können."2 Bei diesem "[digitalen] Druckverfahren, das spezielle Tinte oder Tusche in Mikrotropfen [auflöst], gezielt und präzise auf den Druckträger sprüht"4, beträgt die Auflösung "bereits 400 dpi (Dots Per Inch), durch Verkleinerung der Tröpfchen sind weitere Verbesserungen möglich. [...] Beim Tintenstrahl unterscheidet man zwischen continuous flow* (ständige Tropfenerzeugung und auffangen der nicht gebrauchten Tinte) und Drop-on-demand*. Hier wird nur dann ein Tropfen erzeugt, wenn er benötigt wird. Für den Qualitätsdruck werden heute meist zwei unterschiedliche Techniken verwendet, ein thermisches (Bubblejet) und ein mechanisches Verfahren (Piezo- Technologie)."4 "Beim Bubble-Jet-Verfahren befindet sich vor jeder Düse ein Heizelement, wobei durch Erhitzen der Tinte ein Teil verdampft und der andere in Tropfenform auf das Papier geschleudert wird. Bild 1: Bubble Jet-Verfahren Beim Drop-on-Demand-Verfahren (dt. etwa "Tropfen auf Anforderung") bestehen die Düsen aus einem verformbaren Material und sind von einem Stückchen Piezo- Keramik (Piezoelektrischer Kristall) umgeben. Durch Anlegen einer elektrischen Spannung verbiegt sich das keramische Material schlagartig. Dadurch wird die Düse zusammen gepresst und ein Tintentropfen gegen das Papier geschleudert. Unmittelbar danach weitet sich die Düse wieder, und es wird neue Tinte aus der Patrone angesaugt. Bild 2: Piezo-Verfahren Die Druckqualität von Tintenstrahldruckern ist der von Nadeldruckern weit überlegen. Die Flächen werden besser geschwärzt, diagonale Linien verlaufen weniger gezackt und das typische Punktmuster ist nicht sichtbar. Dies ist hauptsächlich darauf zurückzuführen, dass die Tinte etwas verschwimmt, wodurch Freiräume zwischen den Punkten geschlossen werden. Einen wesentlichen Einfluss auf die Druckqualität hat das Papier. Empfohlen wird saugfähiges, grobfaseriges Papier. Es gibt auch spezielles Papier für Tintenstrahldrucker, das mit Talkum behandelt ist. Die Druckqualität von Laserdruckern wird jedoch nicht erreicht. "Tintenstrahldrucker sind preisgünstig, sehr leise (ca. 45 db(a) (Dezibel)) und schnell. Die Druckgeschwindigkeit liegt bei bis zu 600 cps (Characters Per Second), die jedoch nicht an die Geschwindigkeit eines Laserdruckers heranreicht. [...] Die heute angebotenen Tintenstrahldrucker reinigen die Düsen i.d.R. automatisch. Es besteht damit keine Gefahr mehr - wie es bei älteren Geräten der Fall war -, dass die Düsen verstopfen. Insbesondere die Farb-Tintenstrahldrucker stellen eine Alternative zu anderen Druckerarten dar, da sie im Vergleich zu anderen qualitativ hochwertigen Farbdruckern sehr preisgünstig angeboten werden."3 Bild 3: Tintenstrahldrucker mit Piezo-Verfahren Bild 4: Tintenstrahldrucker Funktionsbeschreibung Drop-on-Demand Beim Drop-on-Demand-Verfahren wird nur dann ein Tintentropfen erzeugt, wenn er zum Drucken erforderlich ist. In den Röhrchen herrscht im Ruhezustand ein statischer Unterdruck, der die Tinte durch Kapillarwirkung in der Düse hält. Um die Tinte austreten zu lassen, werden zwei Techniken verwendet. Das piezoelektrische Verfahren macht sich die Eigenschaften so genannter Piezokristalle zunutze. Diese ziehen sich beim Anlegen von Spannung zusammen und dehnen sich bei Entfernung der Spannung wieder. Der Druckkopf trägt eine Reihe von Röhrchen aus Piezokeramik, die alle einzeln anzusteuern sind. Beim Anlegen einer Spannung werden die Röhrchen sehr schnell zusammen gepresst, wodurch ein Tröpfchen mit hohem Druck aus der Düse auf das Papier geschleudert wird. Nach Abnahme der Spannung vergrößert sich der Querschnitt des Röhrchens auf seine ursprüngliche Form, neue Tinte wird aus dem Reservoir nachgezogen. Drucker mit Köpfen, die nach dieser Methode arbeiten, werden als Piezojet bezeichnet. Bubblejet-Verfahren Dampfblasendruckköpfe (engl. Bubblejets) verwenden Hitze, um einen Tropfen zu erzeugen. An jeder einzelnen, ansteuerbaren Düse des Kopfes befindet sich ein Heizelement. Die Tinte wird von diesem bis zum Verdampfen erhitzt, es entsteht eine Dampfblase. Durch ihre Ausdehnung treibt die Blase die Tinte zwischen Düse und Heizelement aus der Düse tropfenförmig heraus. Nach einem Zeitraum im Bereich von Mikrosekunden 5 kondensiert die Blase, der Tintenaustritt wird gestoppt." Quellenangabe 1 (vgl.) Gerhard Franken: PC & EDV Einsteigerlexikon, bhv-Verlag, 2. Auflage, Korchenbroich 1993, Seite 137; 209, ISBN 3-89360-634-3 2 Hans Herbert Schulze: Computer Enzyklopädie-Lexikon und Fachwörterbuch für Datenverarbeitung und Telekommunikation, Computer rororo-Verlag, Hamburg 1990, Seite 2650, ISBN 3-499-18141-X 3 Franz Grieser, Thomas Irlbeck: Computer Lexikon - Das Nachschlagewerk zum Thema EDV, Deutscher Taschenbuch Verlag (dtv), München 1993, Seite 683; 684, ISBN 3423-503023 4 Prof. Dr. Hans Jochen Schneider (Hrsg.): Lexikon Informatik und Datenverarbeitung, Oldenbourg-Verlag, Version 4.0, München; Wien 1997, Seite 879, ISBN 3-486-22875-7 5 Lexikon-Institut Bertelsmann (Hrsg.): Informatik - EDV - Computertechnik, Bertelsmann Lexikon Verlag, Gütersloh 1994, Seite 373; 374, ISBN 3-570-01611-0 Der Laserdrucker weisst eine hohe Druckqualität als auch eine hohe Druckgeschwindigkeit auf. ● ● Laserdrucker arbeiten seitenorientiert, das heißt,vor dem Ausdruck wird die ganze Seite berechnet und im Arbeitsspeicher des Druckers abgelegt. Eine A4-Seite mit den Maßen 21 x 30 cm (~9 Mio. Pixel) benötigt Beispielsweise ca. 1,2 Megabyte. Hätte der jeweilige Laserdrucker nur 512 Kilobyte Speicher, würde der Druck nach einer halben Seite abgebrechen. ● ● Zur Seitenbeschreibung haben sich zwei Standards durchgesetzt: PostScript von Adobe und HP PCL (PCL = Printer Control Language). ● PCL Printer Control Language Die von der Firma Hewlett Packard für ihre Laser- und Tintenstrahldrucker entwickelte Seitenbeschreibungssprache PDL. Aufgrund der weiten Verbreitung von Laserdruckern wurde diese Befehlssprache für viele Drucker als Standardsprache übernommen. ● Ein Verwandter des Laserdruckers ist der LED-Drucker. Genauso wie beim LCS/LCD-Drucker gibt es nicht nur eine Lichtquelle, die durch einen Polygon-Spiegel gesteuert wird, sondern eine ganze Diodenleiste, die so breit ist wie eine Seite und 2400 LED-Elemente enthält. Es ist jedoch Vorsicht geboten, denn Laser-/LED-Drucker produzieren gesundheitsschädliches Ozon. Außerdem können im Betrieb gesundheitsschädliche Stoffe wie Benzol und Styrol entstehen. Bei Styrol gelten Konzentrationen unter 30 Mikrogramm als unbedenklich. Benzol kann in geringsten Mengen die Entstehung von Krebs fördern. ● ● Auflösung: Die Auflösung eines Pixelbildes wird angegeben in ppi = pixel per inch oder in ppc = pixel pro cm. Je höher die Auflösung eines Bildes ist, desto mehr Details werden abgebildet. ● Farbtiefe und Dateigröße: Dateigröße für ein Bild von 6x4 Inch (15,24x10,16cm) bei einer Auflösung von 300 ppi. (300)"x(6x4) = 2160000 Pixel 1-bit Modus 8-bit Modus 24-bit Modus : : : 2160000x( 1:8) = 270000 Byte = 264 KByte 2160000x( 8:8) = 2160000 Byte = 2,06 MByte 2160000x(24:8) = 6480000 Byte = 6,18 MByte ● Rasterweite: Wird bezeichnet in Linien pro cm oder inch (Ipi = lines per inch) Die Druckindustrie bezieht sich auf Linien pro cm Beispiel : 60er Raster = 60 Linien pro cm ● Jedes Pixel des Halbtonbildes wird durh jeweils einen Rasterpunkt abgebildet. => Auflösung des Bildes = Rasterweite Beispiel: Druck im 60er Raster = 150 Ipi Bildauflösung mindestens 150 ppi In der Praxis is die Bildauflösung = 2xRasterweite ● Realisierbare Graustufen: Die Anzahl der realisierbaren Graustufen hängt von der Auflösung des Aufgabegerätes und der geforderten Rasterweite ab: ((Auflösung Ausgabegerät in dpi)/(Rasterweite in Ipi))" = Anzahl Graustufen Beispiel: Laserdrucker 600 dpi Für eine vernünftige Bildqualität benötigtman mindestens 65 Graustufen. - optimale Rasterweite 75 Ipi - Bildauflösung 75 bis maximal 150 ppi Funktionsablauf: Hier schreibt ein Laserstrahl über ein aufwendiges Spiegelsystem auf eine Fotoleitertrommel(Selentrommel). ● Darauf wird ein Spannungsfeld erzeugt, das die Tonerteilchen anzieht. ● Das nun gleichmäßig an der Trommel vorbeigeführte Papier übernimmt diese Tonerteilchen, ein Hitzeelement schmilzt anschließend den Toner auf dem Papier ein. ● Bei farblichen Darstellungen muss dieser Vorgang mehrfach wiederholt werden. ● Produkteigenschaften: Produktbeschreibung: Brother HL 3450CN - Drucker - Farb - Laser Druckersprache: HP PCL 5C, Adobe PostScript 3, EPSON FX, HP PCL 6, HP GL Max. Mediengröße: (Standard) Super B (330 x 483 mm), A3 plus (329 x 423 mm) Gesamte Medienkapazität: 250 Blätter Druckausgabe: 24 Seiten/Min. - s/w - A4 (210 x 297 mm) 6 Seiten/Min. - Farb - A4 (210 x 297 mm) RAM installiert (Max) 64 MB (384 MB) - SDRAM DIMM 100-PIN Max Auflösung Farbe 600 x 600 dpi oder S&W 600 x 600 dpi Abmessungen (Breite x Tiefe x Höhe) 61.5 cm x 54 cm x 42 cm ● Sonstiges: Enthaltene Verbrauchsmaterialien: 1 x Tonerkassette (Schwarz) - 14000 Seiten 1 x Tonerkassette (Cyan) - 8500 Seiten 1 x Tonerkassette (Magenta) - 8500 Seiten 1 x Tonerkassette (Gelb) - 8500 Seiten ● Allgemeines Der Laserdrucker weisst eine hohe Druckqualität als auch eine hohe Druckgeschwindigkeit auf. ● ● Laserdrucker arbeiten seitenorientiert, das heißt,vor dem Ausdruck wird die ganze Seite berechnet und im Arbeitsspeicher des Druckers abgelegt. Eine A4-Seite mit den Maßen 21 x 30 cm (~9 Mio. Pixel) benötigt Beispielsweise ca. 1,2 Megabyte. Hätte der jeweilige Laserdrucker nur 512 Kilobyte Speicher, würde der Druck nach einer halben Seite abbrechen. ● ● Zur Seitenbeschreibung haben sich zwei Standards durchgesetzt: PostScript von Adobe und HP PCL (PCL = Printer Control Language). Es ist jedoch Vorsicht geboten, denn Laser-/LED-Drucker produzieren gesundheitsschädliches Ozon. Außerdem können im Betrieb gesundheitsschädliche Stoffe wie Benzol und Styrol entstehen. Bei Styrol gelten Konzentrationen unter 30 Mikrogramm als unbedenklich. Benzol kann in geringsten Mengen die Entstehung von Krebs fördern. ● ● Auflösung: Die Auflösung eines Pixelbildes wird angegeben in ppi = pixel per inch oder in ppc = pixel pro cm. Je höher die Auflösung eines Bildes ist, desto mehr Details werden abgebildet. ● Farbtiefe und Dateigröße: Dateigröße für ein Bild von 6x4 Inch (15,24x10,16cm) bei einer Auflösung von 300 ppi. (300)"x(6x4) = 2160000 Pixel 1-bit Modus 8-bit Modus 24-bit Modus ● : : : 2160000x( 1:8) = 270000 Byte = 264 KByte 2160000x( 8:8) = 2160000 Byte = 2,06 MByte 2160000x(24:8) = 6480000 Byte = 6,18 MByte Rasterweite: Wird bezeichnet in Linien pro cm oder inch (Ipi = lines per inch) Die Druckindustrie bezieht sich auf Linien pro cm Beispiel : 60er Raster = 60 Linien pro cm ● Jedes Pixel des Halbtonbildes wird durch jeweils einen Rasterpunkt abgebildet. => Auflösung des Bildes = Rasterweite Beispiel: Druck im 60er Raster = 150 Ipi Bildauflösung mindestens 150 ppi In der Praxis is die Bildauflösung = 2xRasterweite ● Realisierbare Graustufen: Die Anzahl der realisierbaren Graustufen hängt von der Auflösung des Aufgabegerätes und der geforderten Rasterweite ab: ((Auflösung Ausgabegerät in dpi)/(Rasterweite in Ipi))" = Anzahl Graustufen Beispiel: Laserdrucker 600 dpi Für eine vernünftige Bildqualität benötigt man mindestens 65 Graustufen. - optimale Rasterweite 75 Ipi - Bildauflösung 75 bis maximal 150 ppi Zur Übersicht Funktionsweise ● Hier schreibt ein Laserstrahl über ein aufwendiges Spiegelsystem auf eine Fotoleitertrommel(Selentrommel). ● Darauf wird ein Spannungsfeld erzeugt, das die Tonerteilchen anzieht. Das nun gleichmäßig an der Trommel vorbeigeführte Papier übernimmt diese Tonerteilchen, ● ein Hitzeelement schmilzt anschließend den Toner auf dem Papier ein. ● Bei farblichen Darstellungen muss dieser Vorgang mehrfach wiederholt werden. Zur Übersicht Laserdrucker Heute ● Produkteigenschaften: Produktbeschreibung: Brother HL 3450CN - Drucker - Farb - Laser Druckersprache: HP PCL 5C, Adobe PostScript 3, EPSON FX, HP PCL 6, HP GL Max. Mediengröße: (Standard) Super B (330 x 483 mm), A3 plus (329 x 423 mm) Gesamte Medienkapazität: 250 Blätter Druckausgabe: 24 Seiten/Min. - s/w - A4 (210 x 297 mm) 6 Seiten/Min. - Farb - A4 (210 x 297 mm) RAM installiert (Max) 64 MB (384 MB) - SDRAM DIMM 100-PIN Max Auflösung Farbe 600 x 600 dpi oder S&W 600 x 600 dpi Abmessungen (Breite x Tiefe x Höhe) 61.5 cm x 54 cm x 42 cm ● Sonstiges: Enthaltene Verbrauchsmaterialien: 1 x Tonerkassette (Schwarz) - 14000 Seiten 1 x Tonerkassette (Cyan) - 8500 Seiten 1 x Tonerkassette (Magenta) - 8500 Seiten 1 x Tonerkassette (Gelb) - 8500 Seiten Zur Übersicht Quellen quelle 1 quelle 2 quelle 3 Scanner Definition: Der Scanner ist ein Gerät zur Digitalisierung von Text- und Bildinformationen. Er erzeugt ein Pixelbild der analogen Vorlage. Aufbau und Funktionsweise Der generelle Aufbau und die Funktionsweise soll hier anhand des Flachbettscanners erläutert werden. Da diese die am weitesten verbreitete Form von Scannern ist. schematischer Aufbau und die wichtigsten Teile: ● ● ● ● ● ● ● ● ● ● ● ● A/D-Wandler: hier ein CCD-Chip Linsen Filter (für die 3 Farbbereiche rot, grün, blau) Spiegel und Linse Scannerkopf mit Lichtquelle (Leuchtstoff- lampe), Spiegel, Filter und dem CCD-Array Schlitten mit Scannerkopf Schrittmotorriemen für Verbindung des Schlit-tens mit Schrittmotor Stabilisierungsschiene für Schlitten Auflageplatte und Deckel Stromversorgung Schnittstelle zum Rechner (SCSI , Parallel Port, USB) Kontrolleinheit zur Steuerung der Mechanik Scantechniken Trotz der Vielzahl an Scannern arbeiten fast alle nach dem gleichem Prinzip ● ● ● ● Beleuchten der Bildvorlage einfallendes Licht wird mehr oder weniger stark reflektiert "dunkle" Stellen saugen den Lichtstrahl auf "helle" Stellen reflektieren ihn Die Reflexion wird dann an lichtempfindliche elektronische Bauteile geleitet Scanprinzip: Graustufenscanner (Flachbettscanner) ● ● ● ● ● ● ● ● ● ● ● ● ● Beim Scanvorgang wird das Dokument in eine Matrix aus Bildpunkten zerlegt welche dann einzeln erfasst werden. Nun fährt der Schlitten mit dem Scankopf zur ersten Zeile. Jetzt wird jeder einzelne Zeilenvektor über das Spiegelsystem und die Linse erfasst. Für jeden Zeilenvektor wird das einfallende Licht von der Linse auf den Zeilensensor gerichtet und jeweils ein Streifen der Vorlage angeleuchtet. Das reflektierte Licht , bzw. durchgelassene Licht wird dann über die Spiegel auf die CCD-Zeile übertragen. Dort werden die Photonen durch Siliziumatomen absorbiert. Im Durchschnitt entsteht ein Elektron bei 2 auftreffenden Photonen. Die auftreffenden Elektronen werden eine zeitlang in "Potentialwällen" oder anders gesagt Pixeln (äquivalent zu Bildpunkten des Fernsehers) auf der CCD -Leiste gespeichert Diese kann man sich als Kapazitäten vorstellen. Durch unterschiedliche Lichtintensitäten werden nun auch sehr unterschiedliche Ladungen angesammelt . Somit wird aus dem optischen Bild was auf der CCD abgebildet wird ein elektronisches Gegenstück erzeugt. Als nächstes wird das elektronische Bild ausgelesen indem die einzelnen Pixelreihen an ein Ausgaberegister überführt werden. Dort wird jedes Pixel (Ladung) in digitale Signale umgewandelt. Hierbei ergeben unterschiedliche Ladungen unterschiedliche Zahlenwerte die dann von der Software verarbeitet werden und die Helligkeit des jeweiligen Bildpunktes angeben. Zum Schluss fährt der Schrittmotor über den Riemen den Schlitten einen Zeilenvektor weiter und selbiges beginnt von vorn Nun muss das Bild noch Farbe bekommen : ● dafür brauchen wir nach dem >RGB-Modell für jede Grundfarbe (Rot, Grün, Blau) einen Messwert suma-sumarum sind das 3 Messwerte Die 3 Farbtechniken Filtertechniken SinglePass : ● ● ● ● 3 CCD Zeilen mit jeweils einem Filter für jede Grundfarbe die Farben werden dann von der Software nach den anteiligen Verhältnissen gemischt nur ein Scanlauf pro Zeilenvektor wird am häufigsten verwendet da schneller als ThreePass ThreePass : ● ● ● Vorlage wird 3 mal abgetastet für jede Grundfarbe einmal bei jedem Durchgang ein anderer Filter so das nur die entsprechenden Farbinformationen erfasst werden sehr langsam und daher seltener verwendet Prismentechnik ● ● ● hier wird das Licht einer weißen Lampe durch ein Prisma in die Rot,Grün,Blauanteile zerlegt 3 CCD Zeilen verarbeiten auch hier wieder gleichzeitig die jeweiligen Farbinformationen nur ein Scanlauf pro Zeilenvektor Fluoreszenslampen ● anstatt 3 Filter wie beim ThreePass werden 3 farbige Fluoreszenz-Lampen eingesetzt Auflösung physikalische Auflösung ● ● ● ● ● sie gibt an wie viele Bildpunkte pro Zoll in der Lange und Breite tatsächlich eingelesen werden in der Scanrichtung ist die Genauigkeit des Schrittmotors für die Auflösung verantwortlich in der ScanZeile ist entscheidend wie viele CCD-Elemente auf dem Scankopf sind kann in beide Richtungen unterschiedlich sein zum Beispiel 300 dpi * 600 dpi wird in DPI ( Dotch per Inch angegeben ) Riemen und Schrittmotor interpolierte Auflösung ● ● ● ● ● ● meist Marketingtrick Interpolation gibt an wie hoch die erreichbare Auflösung ist die durch die Scannersoftware in Verbindung mit dem Drucker erreicht wird durch ein mathematisches Verfahren wird der dpi Wert künstlich verbessert dabei werden zwischen den tatsächlich gescannten Bildpunkten zusätzliche Punkte eingefügt die Pixeldichte wird größer aber mehr Details kommen nicht dazu feine Strukturen fließen dadurch zusammen und wirken runder und klobiger Scanner-Typen Es gibt eine Vielzahl verschiedener Scanner welche sich im Aufbau der Funktion sowie in den jeweiligen Anwendungsbereichen unterscheiden. Das generelle Verfahren der Digitalisierung ist im Grundprinzip bei jedem Scanner gleich. Die wichtigsten sollen hier kurz vorgestellt werden : Trommelscanner ● ● ● ● ● ist der älteste Scannertyp liefert die exaktesten Ergebnisse mit einer Auf-lösung bis zu 12000 dpi bis heute unerreichtes Tempo und Qualität Vorlage wird um eine Trommel gewickelt und bewegt sich schraubenförmig unter dem Be-leuchtungs- und Abtastsystem das lichtempfindliche Element ist ein Photo-multiplexer an dem die Vorlage sowohl horizontal als auch vertikal vorbei wandert Handscanner ● ● ● ● ● wie der Name sagt muss er von Hand über die Vorlage gezogen werden einzelne Modelle hatten eingebauten Motor und sind von selbst über die Vorlage gelaufen sehr ungenau waren zu klein für ein A4 Blatt ganz von der Bildfläche verschwunden Einzugsscanner ● ● ● ● gleiche Aufbau wie Faxgerät die CCD-Leisten sind fest verbaut und die Vorlage wird daran entlang geführt nur Einzeldokumente verarbeitbar optimal für größere Mengen Overheadscanner ● ● ● ● gleiten über die einzulesende Fläche hinweg es gibt Modelle die ohne Lichtquelle nur mit Tageslicht arbeiten gibt es in unterschiedlichen Größen vom Tischgerät bis hin zum fest installierten Hallengerät finden zum Beispiel Einsatz in der Automobilbranche zum Katalogisieren und Archivieren von Objekten Es gibt noch eine Vielzahl weiterer Scanner welche uns im alltäglichen Leben begegnen z.B. Kassenscanner zum Lesen von Barcodes. Einzelteile eines Scanners CCD-Zeile Spiegel mit Linse Scankopf mit Lampe Stabilisierungsschiene Anschlüsse, Schnittstellen Auflageplatte RGB-Modell EimerSchema einer CCD Glossar Abwärtskompatibel: Programme, die Daten einer "alten" Programmversion mit einer "neuen" Programmversion verarbeiten können, sind abwärtskompatibel. ADC: Analog-Digital-Converter, wandelt analoge Signale in digitale Signale um AGP Bus: Accelerated Graphics Port Architektur: Aufbau und grundsätzliche Struktur ganzer Systeme. Beinhaltet das Konzept der internen Steuerung oder die Art der internen Speicherung. ASCII: American Standard Code of Information Interchange ATA: Advanced Technology Attachments ATX: AT Extended Bandbreite: Bezeichnet die Übertragungsleistung eines Leitungssystems und wird in Bit/s, bzw. in MBit/s angegeben. BAT: Baby-AT Befehlssatz: Alle Befehle, die von einem Programm, dem Prozessor oder einer Programmiersprachen unterstützt werden. Benchmark: Maßstab für einen Leistungsvergleich. Sei es für Hard- und Software. BIOS: Basic Input Output System Bit: Binary Digit. Die kleinste Informationseinheit im binäre Zahlensystem, die einer Speicherzelle entspricht. Ein Bit kann entweder den Wert 0 oder 1 annehmen. Cache: (First-Level, Second-Level) Ein schneller Puffer, der Daten zwischenspeichert und diese immer wieder sehr schnell zur Verfügung stellen kann. CCD: Charge-Coupled-Device, CCD-Sensoren sind elektrooptische Bauteile die den ankommenden Lichtstrom in Form einer Ladung in einem Kondensator festhalten cd: candela - Leuchtkraft angegeben in cd/m2 CD-R: CompactDisc Recordable CD-RW: CompactDisc Rewriteable CHS: Zylinder (Cylinder), Kopf (Head) und Sektor (Sector) CMOS: Complementary Metal Oxide Semiconductor. Die CMOS-Technik ist ein Fertigungsverfahren, durch das die CPU besonders stromsparend arbeitet und weniger Hitze erzeugt. Coprozessor (FPU): Zusätzlicher Prozessor, der für komplexe Berechnungen zuständig ist. Steigert die Performance des GesamtComputer-Systems bei der Nutzung rechenintensiver Programmen (z.B. Grafik-Programme). cps: Character Per Second (Buchstaben pro Sekunde) CPU: Central Processor Unit CRC: Cyclical Redundancy Check - Prüfsummenverfahren CRT: Cathode Ray Tube Cursortasten: Cursortasten heißen die vier Pfeiltasten im rechten Tastaturfeld. Mit ihnen kann man Einfüge-Marken (englisch "cursor") in alle vier Richtungen verschieben. DAC: Digital-Analog-Converter, wandelt digitale Signale in analoge Signale um DAT: Digital Audio Tape db(a): Dezibel DCE: Data Communications Equipment, DÜE (Datenübertragungseinrichtung) DDR-RAM: Double Data Rate RAM Decoder: Gerät zur Entschlüsselung von binären Signalen. DIB: Dual Independent Bus. Pentium-Pro- und die Pentium Il-CPUs sind in DIB-Architektur gefertigt. Diese besteht aus zwei voneinander unabhängigen Bus-Systemen. Ein Datenbus geht zum Cache, der andere zum Speicher. DIMM: Dual In-line Memory Module DLT: Digital Linear Tape DMA: Direct Memory Access DPI: dots per inch (Punkte pro Zoll) DRAM: Dynamic RAM DSTN: Double Super Twisted Nematic DTE: Data Terminal Equipment, DEE (Datenendeinrichtung) E/A-Geräte: Eingabe/Ausgabe Geräte ECC: deutsch: Fehlerkorrektur EDO-RAM: Extended Data Output RAM ED-RAM: Enhanced DRAM EIA: Electronics Industries Association E-IDE Bus: Enhanced Integrated Drive Electronics EISA: Extended Industrie Standard Architechture Environment Mapping: Ein Objekt wird mit einer metallischen Oberfläche überzogen, in der sich die Umgebung scheinbar spiegelt. EXT2FS: extended filesystem 2 FAT: File Allocation Table FPM-RAM: Fast Page Mode RAM FPU: Mathematischer Coprozessor HDD: Hard Disk Drive HFS: Hirachical File System HPFS: High Performance File System HVD: High Voltage Differential IDE: Integrated Drive Electronics IEEE 1394, FireWire, i.LINK: Die IEEE 1394-Technologie wurde von Apple entwickelt und erhielt den Namen "FireWire". Dieser Begriff bezeichnet eine verhältnismäßig neue serielle Schnittstellentechnologie für Computer- und Videogeräte zur Übertragung digitaler Daten mit bis zu 400 MBit/sec. IPS: Inplane Switching Technologie IrDA: Infrared Data Access ISA: Industrie Standard Architechture LCD: Liquid Cristal Display (Flüssigkristallbildschirm) LVD: Low Voltage Differential MFT: Master File Table Microcode: Summe der Mikroprogramme (Programme zur Steuerung der Kontrolleinheit eines Prozessors), die dem Prozessor die Anweisungen zum Abarbeiten der Befehle übermitteln. MIPS: Mega Instructions Per Second. Millionen Anweisungen pro Sekunde. Leistungsbemessung für Prozessoren. MMX: Multi-Media eXtension MO: magnetooptisch Modem: Modulator/Demodulator Multitasking: Gleichzeitiges Ausführen von mehr als einem Programm. MVA: Multi Domain Vertical Alignment Non-Impact Drucker: anschlagfreie Drucker NTFS: New Technology File System Null Modem: Ein RS-232 Kabel, das zwei Geräte direkt verbindet ohne Modems zwischen zu schalten. P-Rating: Pentium Rating. Ein Art Prozessoren zu klassifizieren. Der Wert gibt nicht die Taktfrequenz der CPU an, sondern die Leistung eines gleichwertigen Intel Pentium Prozessors an. PC: Personal Computer PCI Bus: Peripheral Component Interconnect Pixel: So werden die einzelnen Bildpunkte genannt. Mit der Auflösung ist die Pixelmenge bzw. deren Flächenangabe gemeint, die der Monitor darstellt (Pixel in der Breite x Pixel in der Höhe). Port: Anschluss, Schnittstelle QUI: Quarter Inch Cartridge PS/2: PersonalSystem 2 RAM: Random Access Memory RAMDAC: Random Access Memory Digital/Analog Converter. Ausgangsstufe auf Grafikkarten. Wird heute fast ausschließlich in den Grafikchip integriert. RAID: Redundant Array of Inexpensive Disks RDRAM: Rambus DRAM Register: Speicherbereich eines Prozessors. RGB-Modell: ist ein additives Farbmodell. Die Farben werden anteilig aus den Grundfarben Rot Grün Blau zusammengesetzt. Dabei gibt ein 100%iger Anteil jeder Grundfarbe die Farbe weiss. RIMM: Rambus In-line Memory Module ROM: Read Only Memory Sampling: Das Sampling ist das Digitalisieren von analogen Audiosignalen. Samplingrate(Abtastrate): Die Abtastrate bestimmt, wie oft der Originalton pro Sekunde abgetastet wird. Je öfter ein Ton abgetastet wird, desto besser ist die Aufnahme-Qualität, desto höher ist aber auch der Speicherbedarf. Samplingtiefe(Abtasttiefe): Die Abtasttiefe legt die Genauigkeit des Sampling fest. SCSI: Small Computers System Interface SDRAM: Synchronous Dynamic RAM SE: Single Ended Serial-ATA: Serial AT Attachment SGRAM: Synchronous Graphics Random Access Memory SIMM: Single In-line Memory Slot: Steckplatz SMBus: System Management Bus Split Voltage: Die Split-Voltage-Technik dient dazu, Energie zu sparen und die Abwärme im PC zu reduzieren. Der MMX-Prozessor von INTEL arbeitet nach außen mit einer Spannung von 3,3 Volt, die Spannung im Prozessorkern beträgt dagegen nur 2,8 Volt. SRAM: Static RAM STN: Super Twisted Nematic (super verdreht nematisch) Superskalar: Ein superskalarer Prozessor besitzt zahlreiche Ausführungseinheiten für Befehle (Pipelines), so dass sie mehrere Befehle gleichzeitig abarbeiten kann. Sublimation: Wechsel des Aggregatzustandes von fest zu gasförmig Taktrate: Die interne Taktrate, auch CPU-Takt genannt, bezeichnet das Tempo, mit dem die CPU intern die Befehle abarbeitet. Die externe Taktrate, auch "Systemtakt" oder "Front Side Bus (FSB)" genannt, legt fest, mit welcher Geschwindigkeit der Prozessor auf den Arbeitsspeicher zugreift. Den Systemtakt gibt das Motherboard vor. TFT: Thin Film Transistor (Dünnfilmtransistor) TN: Twisted Nematic (verdreht nematisch) UART: Universal Asynchronous Receiver Transmitter USB: Universal Serial Bus VRAM: Video Random Access Memory VRML: Virtual Reality Modelling Language ZIF: Zero Insertion Force 3DNow!: Erweiterung der x86-Prozessorarchitektur von AMD (ähnlich wie MMX), die deutlich gesteigerte Gleitkomma-Rechenleistung für die 3D Grafik- und Multimedia-Anwendungen auf gängigen PC-Konfigurationen unter MS Windows bietet. Vorteile der 3DNow!Technologie sind verbesserte 3D-Leistung, erstklassige Ton- und Videowiedergabequalität sowie eine höhere Internet-Performance. 3DNow! muss durch die Software unterstützt werden.