Das Arbeitsbuch - Arbeitsbuch Patrick Urfer

Transcription

Das Arbeitsbuch - Arbeitsbuch Patrick Urfer
Das Arbeitsbuch
Ausbildung
Informatik
Ük Modul 304
Modulbezeichnung: Ük Modul 304
Kompetenzfeld: Einzelplatz-Computer in Betrieb nehmen, Computer-Aufbau kennen und
verstehen, Betriebssystem und Office Suite installieren, Gerät mit dem Netzwerk verbinden und
System Testen.
Komponenten des Computers
Ein Computer besteht wie der Menschliche Körper aus einer Vielzahl von verschiedenen Komponenten, die
in der Informatik als Hardware bekannt sind.
Jeder dieser Komponente bewältigt verschiedene Zentrale Teilaufgaben welche letzten Endes im Gehirn des
Computers zusammen kommen und verarbeitet werden.
Diese 3 Komponenten welche wir uns anschauen sind das Gehirn, die Erinnerung und der Körper des
Computers.
CPU
Die CPU auch bekannt als Central Processing Unit ist das Gehirn des Computers hier kommen alle zu
verarbeitenden Abläufe zusammen und werden dementsprechend Abgearbeitet.
Eine CPU setzt sich auch wie ein Gehirn aus mehreren Teilbereich zusammen, welche nur im Verbund richtig
funktionieren, diese werden wir nun näher anschauen.
Sockel:
Der Prozessorsockel ist eine Steckplatzvorrichtung für die Computerprozessoren,
umso Prozessoren austauschbar auf einem Motherboard oder einer Slot-CPU
anzubringen.
Es wird heute zwischen einigen verschiedenen Sockeltypen und Sockel
unterschieden.
PGA:
Unter dem Namen Pin Grid Array(Kontaktstift-Rasterfeld) bekannt versteht man
ein Chipgehäuse für Integrierte Schaltkreise welches vor allem bei Prozessoren
rege Anwendung fand.
Der Schaltkreis in Form eines Siliziumchips wurde auf einer keramischen,
organischen oder kunststoffbasierten Leiterplatte angebracht, die auf einer Seite
mit Pins versehen war, über die Pins wurden Daten, Steuer und
Versorgungsleitungen des Schaltkreises nach außen geführt.
Diese Pins konnten entweder direkt in eine Leiterplatte eingelötet werden oder über
einen Sockel eingebaut werden.
Hier ein Bild eines PGA.
LIF:
Ük Modul 304
Ausgeschrieben unter dem Namen Low Insertion Force bekannt, ist ein
Fassungstyp für elektronische Bauteile.
Patrick Urfer 11.12.2014
Seite 1 von 26
Das Arbeitsbuch
Ausbildung
Informatik
Die LIF-Fassung wurde als preisewerte Alternative realisiert, für einfache
Programmier- und Testgeräte.
Im Vergleich zu anderen Fassungen haben sie eine deutlich geringere Federkraft der
Kontakte was das Einsetzen und Entfernen eines Bauteils vereinfachen sollte.
Einer der Nachteile war aber das durch die geringere Kontaktkraft auch ein
deutlich schlechterer Kontakt zustande kam und es in einigen Fällen zu
Oxidbildung zwischen Kontakt und Anschlussbeinen kam.
Dieses System wurde von Intel eingeführt um dem häufigen Prozessorwechsel ein
geeignetes Sockelsystem zu bieten, dieses wurde dann jedoch später durch das
ZIF-System ersetzt.
ZIF:
Auch bekannt als Zero Insertion Force ist der Name einer Fassung für
elektronische Bauteile, bei welcher man beim Einsetzen und Entfernen des
Elements keinerlei Druck oder Zug benötigte.
Bei den meisten anderen Fassungen werden die Pins in die Kontaktfedern
eingeführt und festgeklemmt daher musste immer eine gewisse Kraft aufgewendet
werden, um die Pins in die davor vorgesehenen Kontakte zu drücken oder auch aus
Ihnen zu entfernen.
Dies beherbergte immer eine gewisse Gefahr für die Komponenten man konnte
unbeabsichtigt Pins oder auch Leiterplatten relativ schnell beschädigen oder
Unbrauchbar kaputt machen.
Beim ZIF-System jedoch war Kraftaufwand komplett unnötig weil die
Kontaktfeder vor dem Einsetzen geöffnet werden konnte und dadurch die Pins ohne
Kraftaufwand in den Sockel eingeführt werden konnten.
Beim Schließen der Kontaktfedern werden die Pins dagegen gepresst und sorgen
so für elektrischen Kontakt und mechanischen Halt.
LGA:
Bekannt unter dem Namen Land Grid Array ist es ein System zur Verbindung
von Integrierten Schaltungen, bei diesem System werden die Anschlüsse des
Integrierten Schaltkreises auf die Unterseite eines
Feldes (Grid Array) welches mit Kontaktflächen(land) übersäht ist angebracht,
dieses Feld sieht einem Schachbrett sehr ähnlich.
Die Ähnlichkeiten in Name und Aussehen des PGA sowie LGA kommt nicht von
ungefähr, das PGA hatte anstatt der Kontaktflächen so genannte
Beinchen(Pins) ansonsten sehen sich das LGA und auch PGA sehr ähnlich.
Die LGA-Prozessoren werden meistens auf den Sockel gesetzt, welche
federnde Kontakte enthalten was geringere mechanische Beanspruchung der
Kontakte verursacht.
Für die x86 Prozessoren brachte Intel das Land Grid Array im Juni 2004 als
LGA775 das erste Mal für die Pentium 4-Reihe auf den Markt.
Dies ist ein LGA-Sockel 1150 der aktuellen Generation
Ük Modul 304
Patrick Urfer 11.12.2014
Seite 2 von 26
Das Arbeitsbuch
Ausbildung
Informatik
Nach der Abarbeitung der Sockel als Thema gehen wir nun ein wenig tiefer auf die einzelnen Bereiche der CPU
ein und veranschaulichen uns den Aufbau und die Funktionsweise einer CPU.
CISC:
Steht für Complex Instruction Set Computer, also einen Computer mit
komplexem Befehlssatz.
CISC ist eine Designphilosophie für Computerprozessoren, die bekanntesten
Benutzer dieses Konzept sind Intel mit der x86-Prozessorfamilie.
CISC zeichnet sich vor allem durch viele mächtige Einzelbefehle aus, hat jedoch im
Vergleich zu RISC auch einen dementsprechend hohen Decodierungs-Aufwand zu
bewältigen.
RISC:
Steht für Reduced Instruction Set Computer, also einen Computer mit
reduziertem Befehlssatz.
RISC ist eine Designphilosophie für Computerprozessoren, diese Philosophie sah
vor auf komplexen Befehlssatz zu verzichten.
Es wurde ein für die Assemblerprogrammierung komfortabler Befehlssatz der
einfach zu dekodieren und extrem schnell Ausführbar war entwickelt um eine hohe
Taktfrequenz zu ermöglichen.
Register:
Als Register bezeichnet man in der Computertechnik Bereiche innerhalb des
Prozessorkerns für die Speicherung welche direkt mit der Recheneinheit
verbunden sind und Operanden und Ergebnisse von Berechnungen direkt
Speichern.
Register sind normalerweise maximal so gross wie die Wortgrösse des
Prozessorkerns sprich 8,16,32 oder 64 Bit.
Alle solchen Register zusammengefasst nennt man Registersatz, diese beinhalten auch
spezielle Register welche für die Wahl der Betriebsmodi eines Prozessorkerns
verwendet werden.
Die Register stehen an der Spitze der Speicherhierarchie innerhalb eines
Prozessorkerns, daher ist es die schnellste Möglichkeit Daten zu manipulieren, da der
Zugriff unabhängig von Daten oder Adressbus möglich ist.
ALU:
Ist ein elektronisches Rechenwerk auch bekannt als arithmetisch-logische
Einheit das in Prozessoren benutzt wird.
Sie berechnet arithmetische und logische Funktionen, sie kann immer einige
Minimaloperationen durchführen im Arithmetischen die Addition und in der Logik
die Negation sowie Konjunktion.
Weitere Operationen können auf Kosten von Rechenzeit in mehreren Takten mit den
oberen 3 Operationen durchgeführt werden.
FPU:
Ist ein spezieller Prozessor auch bekannt als Floating Point Unit der Operationen mit
Gleitkommazahlen verarbeitet und ausführt.
Neben den Grundoperationen wurden sie vor allem für erweiterte Operationen wie
transzendente Funktionen in Form von Exponentialfunktion und trigonometrische
Funktionen benutzt daher nennt man Floating Point Units auch mathematische
Koprozessoren.
Ük Modul 304
Patrick Urfer 11.12.2014
Seite 3 von 26
Das Arbeitsbuch
Ausbildung
Informatik
Floating Point Units können auch als externe Chips in eigenen Gehäusen
verbaut sein oder in bestimmten Bereichen einer CPU integriert sein.
MIPS:
Ausgeschrieben million instructions per second wird auch IPS genannt was
instructions per second bedeutet, damit wird eine Masseinheit bezeichnet für die
Rechenleistung von Computern und damit wird vor allem die Leistungsfähigkeit der
CPU mittels Computer-Benchmark ermittelt.
Diese Einheit gibt vor allem an wie viele Befehle der Prozessor verarbeitet,
1 MIPS bedeutet also er verarbeitet 1 Million Befehle pro Sekunde.
MMU:
Der Begriff steht auch für Memory Management Unit und ist eine
Hardwarekomponente im Computer welche die Speicherverwaltung des
Arbeitsspeichers verwaltet.
Jede virtuelle Adresse welche durch Prozesse angefordert werden, wird durch die
MMU in eine physische Adresse umgewandelt, bevor sie auf den Adressbus
geschrieben werden.
MMUs verfügen über schnelle und spezielle Register für Basisadressen um die
Adressierung so effizient wie möglich zu berechnen.
Heutzutage existieren sogenannte Selbstnachladende MMUs diese haben einen
speziellen integrierten Cache-Speicher, bekannt als Transition Lookaside Buffer,
dieser speichert jeweils die letzten Adressübersetzungen in Tabellen-Form.
Taktgeber:
Ein Taktgeber ist eine Hardware-Komponente welches Impulse in einer
bestimmten Frequenz abgibt, diese sind vor allem für die Verarbeitung von Daten
und für Synchronisierungen notwendig.
In Prozessoren sind Taktgeber nahezu immer mit einem Steuerwerk kombiniert,
diese können die Taktzahl angeben mit der man die Geschwindigkeit von
Prozessoren angibt.
Ük Modul 304
Patrick Urfer 11.12.2014
Seite 4 von 26
Das Arbeitsbuch
CPU-Upgrade:
Ausbildung
Informatik
Ein CPU-Upgrade ist eine oft gemiedene jedoch sehr effektive Art einem in die Jahre
gekommenen Rechner neue Kraft zu verleihen, jedoch was ist wichtig bei einem
CPU-Upgrade und wie findet man raus welcher CPU der richtige ist, dies werde ich
nun erläutern.
Der erste und wichtigste Schritt ist es sicherlich erstmal zu wissen was für eine
aktuelle CPU vorhanden ist von welchem Hersteller und welches Modell, dafür nutzen
wir ein Prozessor-Diagnose Tool welches uns die genauen Daten unserer CPU
anzeigt(Weiter unten sehen Sie ein Bild von CPU-Z).
Als nächstes sofern wir das Motherboard nicht mit ersetzen möchten, müssen wir
schauen welche neueren CPU-Modelle unser Motherboard unterstützt. Dies finden wir
dank der Revisionsnummer des Motherboards heraus, in dem wir bei den
Prozessor-Herstellern in der CPU-Kompatibilitäts-Liste nachschauen, welche CPUs
unterstützt werden und welche Bios-Version benötigt wird.
Als nächstes suchen Sie den geeigneten Prozessor für sich aus der
Kompatibilitäts-Liste raus beachten sie allerdings dass das Upgrade mindestens
doppelt so viele Kerne besitzt, mindestens 1 GHz mehr besitzt oder das Modell eine
komplette Generation aktueller ist, als letztes müssen Sie sofern sie ein geeignetes
Modell gefunden haben die alte CPU ausbauen und das neue einbauen oder einbauen
lassen, das Bios auf die verlange Version setzen und schon haben sie Ihr
CPU-Upgrade abgeschlossen.
Ük Modul 304
Patrick Urfer 11.12.2014
Seite 5 von 26
Das Arbeitsbuch
Ausbildung
Informatik
Motherboard
Als nächste Komponente erläutern wir das Motherboard welches dem Computer als Nervensystem dient in
unserem Vergleich von Mensch zu Computer.
Ein Motherboard hat wie ein Nervensystem eine Verbindung zu allen wichtigen Komponenten und dient als
Werkzeug für das Hirn oder in diesem Fall der CPU.
Formfaktor:
Motherboards gibt es in sehr vielen Formfaktoren(Standarisierte Grössen) ein
Grund mehr warum ich das Motherboard mit dem Menschlichen Körper
vergleiche, die verschiedenen Formfaktoren werden wir ein wenig genauer anschauen.
•
Das AT-Format ist der Vorgänger des aktuellen ATX und der Nachfolger
des XT-Formats, es wurde bekannt durch den
80286-Prozessor von Intel und durch die 16-Bit-ISA-Slots für
Erweiterungskarten, dieser Slot wurde auch oft AT-Bus genannt.
•
Das ATX-Format ist der Nachfolger des AT-Formats es wurde 1996 von
Intel eingeführt, trotzt des späteren Versuchs das BTX-Format zu
standardisieren blieb das ATX-Format, das kleinere Micro-ATX und das
grössere E-ATX bis heute der vorherrschende Formfaktor.
•
Das BTX-Format war als Nachfolger des ATX-Formats geplant, dieser neue
Standard wurde erstmalig von Intel 2003 vorgestellt. Das BTX-Format
wurde in mehreren Grössen veröffentlicht ohne Erfolg. Es konnte sich wegen
fehlender Akzeptanz nie gegenüber dem
ATX-Format durchsetzen, im Jahr 2007 wurde es dann von Intel komplett
vom Markt genommen.
Formfaktor
Produktbezeichnung
Grösse in mm
AT
AT-Mainboard
305 x 279 bis 330
Baby-AT-Mainboard
216 x 204 bis 330
ATX-Mainboard
305 x 244
Micro-ATX
244 x 244
E-ATX
305 x 330
BTX-Mainboard
325,12 x 266,70
microBTX
264,16 x 266,70
ATX
BTX
Ük Modul 304
Patrick Urfer 11.12.2014
Seite 6 von 26
Das Arbeitsbuch
Chipsätze:
Ük Modul 304
Ausbildung
Informatik
Sind das zentrale Element auf dem Motherboard Sie haben sich im Laufe der
technischen Entwicklung von vielen einzelnen Bausteinen zu hochtechnisch
integrierten Schaltungen entwickelt.
Der Chipsatz ist das Bindeglied zwischen allen einzelnen Komponenten eines
Computers, man kann sagen bei allen Abläufen im Computer ist er involviert und
sorgt dafür dass alle Komponenten über ihre Schnittstellen kommunizieren können.
Er ist wie das Herz beim Menschen während das Herz alles mit Blut welches
Sauerstoff enthält versorgt, berücksichtigt der Chipsatz alle unterschiedlichen
Spannungspegel, Taktfrequenzen und Protokolle und lässt sie zwischen den
Schnittstellen umwandeln.
Die immer steigende Integrationsdichte bei Chipsätzen liess die Aufteilung in zwei
Chips entstehen, dies war die Geburt der North- und Southbridge.
In der North- und Southbridge Technologie verschachtelte man den Chipsatz wie
eine Art Landkarte Norden und Süden sind über einen Bus verbunden, im
Norden wurde der Datenfluss von Prozessor, Arbeitsspeicher, Grafikkarte und dem
Peripherie-Bus gesteuert, im Süden wurden Peripherie-Schnittstellen gesteuert sowie
das Bios wurde hier eingebunden.
Die North- und Southbridge wurde dann von der Hub-Architektur abgelöst, welche
von Intel entwickelt wurde um eine neue PC-Generation einzuführen.
Der Grund für die neue Architektur war die langsame Anbindung zwischen
North- und Southbridge, die immer schneller arbeitenden Prozessoren wurden durch
die Anbindung der Peripherie immer mehr ausgebremst.
Die Daten konnten nicht mehr schnell genug im Computersystem übertragen
werden, zur Lösung des Problems wollte Intel als Chipsatz-Hersteller
Einfluss auf den Markt nehmen, um eigene Prozessoren besser zu unterstützen mit
einer eigenen und besseren Arbeitsumgebung.
Die Hub-Architektur ist im Grund ähnlich wie die Bridge-Architektur jedoch
haben sich einige Dinge geändert, anstatt der Northbridge übernimmt diese
Aufgaben nun der Memory-Controller-Hub(MCH), anstatt des MCH gibt es nun
auch einen Graphic Memory Controller Hub(GMCH), hier ist die Funktion der
Grafikkarte nun im Chipsatz integriert.
Als Verbindung zwischen North- und Southbridge dient nicht mehr der
langsame PCI-Bus sondern ein Hub-Interface, dabei handelt es sich um eine
Punkt-zu-Punkt-Verbindung welches auch weiteren Controller-Hubs zulässt die
sich miteinander verbinden, z.B. lässt sich ein PCI-Hub an den MCH anbinden
welcher so Steckplätze für den PCI-Bus zur Verfügung stellt.
Die neueren MCHs verfügen über direkte Verbindungen zu
PCI-Express-Steckplätzen, in dieser Hub-Architektur ist die Southbridge nur
eine Verlängerung der Northbridge umso alle internen und externen Schnittstellen
sowie Bussysteme schneller an die Northbridge anzubinden.
Auch nach dieser Entwicklung des Hubs war nicht Schluss es folgte die
Erweiterte Hub-Architektur in dieser verliert der Chipsatz immer mehr an
Bedeutung, die Anbindung von Arbeitsspeicher sowie Grafikkarte war immer
eine der Hauptaufgaben des Chipsatzes, jedoch verlor er diese Aufgabe durch das
Integrieren des Speicher-Controllers(MMU) in die CPU, durch dies spart er den
Umweg über den Chipsatz wenn er auf den Speicherzugreift. Dasselbe wurde mit der
Grafikkarte gemacht, diese wurde länger je mehr an den Prozessor direkt
angebunden, oder durch einen integrierten Grafikchip in der CPU ersetzt, diese Teile
wanderten alle vom Chipsatz in die CPU: Grafikkarten, Speicher-Controller sowie
Direktanbindungen von Erweiterungskarten, nur noch einfach Schnittstellen
werden über den I/O-Chip bereitgestellt.
Patrick Urfer 11.12.2014
Seite 7 von 26
Das Arbeitsbuch
Ausbildung
Informatik
Hier haben Sie eine Abbildung einer
Bridge-Architektur, welche alle einzelnen
Komponenten auf dem Motherboard an der
richtigen Position darstellt.
Hier haben Sie eine Abbildung einer
Hub-Architektur, welche alle einzelnen Komponenten auf
dem Motherboard an der richtigen Position darstellt.
Hier haben Sie eine Abbildung einer
Erweiterten Hub-Architektur, welche alle
einzelnen Komponenten auf dem Motherboard
an der richtigen Position darstellt.
Ük Modul 304
Patrick Urfer 11.12.2014
Seite 8 von 26
Das Arbeitsbuch
Ausbildung
Informatik
Integrierte Funktionen: Motherboards haben oftmals ein grosses Spektrum an Integrierten Multimediaund Netz-Peripheriegeräten am meisten trifft man Motherboards an welche
Netzwerkkarte(LAN) und Audiokarte integriert habe n, sowie die meisten verfügen
über Videoeingänge und andere Controller.
WLAN ist auch immer öfters je nach Preisklasse des Motherboards integriert, jedoch
meist erst bei den etwas kostspieligeren Modellen.
Bussysteme:
Der Prozessor braucht Daten um sie zu bearbeiten, die Daten werden aus dem
Datenspeicher geholt, die Daten werden bearbeitet, die Daten werden gespeichert…
Die elektrische Leitung welche die Daten transportiert nennt man bei einem PC
Bussystem, kurz Bus.
Dieses Bussystem verbindet jede angeschlossene Komponente mit jeder anderen
Komponente und überwacht das die Daten an der richtigen Adresse ankommen.
Da innerhalb eines Computers nicht nur Daten sondern auch Steuersignale
ausgetauscht werden, unterscheidet man 3 Bussysteme:
Datenbus:
Der Datenbus sendet die zu verarbeitenden Daten von einer Komponente zum
Prozessor und umgekehrt.
Adressbus:
Da alle Komponenten parallel am Datenbus angeschlossen sind, aber immer nur eine
Komponente Daten senden oder empfangen darf, da sonst eine Datenkollision
entsteht.
Es muss jede Komponente eine Adresse erhalten, mit der sie von der CPU adressiert
werden kann.
Alle Komponenten des PCs werden parallel an den Datenbus angeschlossen, um die
Adressen an die Komponenten zu übermitteln.
Daten auf dem Datenbus dürfen nur gesendet oder empfangen werden, wenn eine
Komponente die ihr zugewiesene Adresse auf dem Adressbus empfängt.
Steuerbus:
Wird über den Adressbus eine Komponente (z. B. Arbeitsspeicher) adressiert, so
muss dieser auch mitgeteilt werden, ob Informationen hineingeschrieben oder
ausgegeben werden sollen.
Mithilfe des Steuerbusses gibt der Prozessor einer Komponente die Befehle die
ausgeführt werden sollen.
ROM:
Auch bekannt als Read-only-Memory ist ein Nur-Lese-Speicher das bedeutet auf Ihn
kann im normalen Betrieb nur lesend zugegriffen werden, nicht schreibend und das er
ist nicht flüchtig. Er wird bei PCs z.B. für das BIOS verwendet.
NVRAM:
Ist ein nichtflüchtiger Datenspeicher welcher auf Arbeitsspeichern basiert und
dessen Dateninhalt ohne externe Stromzufuhr gespeichert erhält.
Normale Arbeitsspeicher wie DRAM und SRAM sind ohne zusätzliche
Vorkehrungen flüchtig und verlieren bei Stromverlust den Dateninhalt.
Das Meistverwendete NVRAM befindet sich in der CMOS-Technologie in der ein
SRAM-Speicher mit einer Lithiumbatterie versehen wird und in einem Chipgehäuse
zu einem CMOS-RAM wird, in diesem werden die BIOS-Parameter gespeichert.
BIOS:
Das BIOS auch bekannt als basic input/output system ist die Firmware bei x86-PCs,
es wird in einem CMOS-RAM gespeichert und auf dem Motherboard angebracht,
direkt nach dem Starten eines PCs wird das BIOS ausgeführt, es macht den PC
funktionstüchtig und startet im Anschluss das Betriebssystem.
Im BIOS hat man einige Einstellungsmöglichkeiten in dem man nach dem
Einschalten des PCs eine bestimmte Taste oder Tastenkombination gedrückt wird,
gelangt man zu diesen, diese Einstellungen werden durchgehend im CMOS-RAM
gespeichert, sollten mal Probleme auftreten, wenn man versucht ins Setup-Programm
zu gelangen, lassen sich die meisten Einstellungen über einen Jumper am Mainboard
zurücksetzen.
Ük Modul 304
Patrick Urfer 11.12.2014
Seite 9 von 26
Das Arbeitsbuch
Ausbildung
Informatik
Sollte dies mal nicht möglich sein so kann dies auch Erreicht werden, in dem man
beim CMOS-RAM die Batterie entfernt, jedoch benötigt es einige Zeit da man auf das
Entladen der Kondensatoren warten muss.
Beepcodes:
Sind Meldungen in Form von Geräuschen welche den Status des BIOS-Vorgangs im
POST(Power-on self-test) kommentieren.
Hier eine Auflistung der Original IBM POST beep Codes.
Beeps
Meaning
1 short beep
Normal POST – system is OK
2 short beeps
POST error – error code shown on screen
No beep
Power supply, system board problem, disconnected CPU, or
disconnected speaker
Continuous
Power supply, system board, or maybe RAM problem, keyboard
beep
problem
Repeating short http://en.wikipedia.org/wiki/Power_supplyPower Suppy or system
beeps
1 long, 1 short
beep
1 long, 2 short
beeps
1 long, 3 short
beeps
3 long beeps
Ük Modul 304
board problem or keyboard
http://en.wikipedia.org/wiki/System_boardSystem board problem
Display adapter problem (MDA, CGA)
Enhanced Graphics Adapter (EGA)
3270 keyboard card
Patrick Urfer 11.12.2014
Seite 10 von 26
Das Arbeitsbuch
Ausbildung
Informatik
Speicher
Als nächstes kommt der Speicher in unserem Beispiel das Gedächtnis im Mensch zu Computer Vergleich an
die Reihe, das Gedächtnis besteht beim Computer auch aus mehreren Ebenen wie beim Menschen welche
wofür zuständig sind werden wir uns nun anschauen.
Cache:
Als Cache bezeichnet man in der Informatik einen sehr schnellen Speziellen
Speicher-Mechanismus welcher sich aus static RAM(SRAM) zusammensetzt, es
speichert oft wiederholte Zugriffe ab, so dass sie bei späteren Bedarf erneut ohne
aufwändige Neuberechnung aufgerufen werden können.
In unserem Mensch zu Computer Vergleich wäre der Cache das Kurzzeitgedächtnis.
Cache existiert in vielen Variationen: Prozessor-Cache, Festplatten-Caches, und
Software-Cache welcher wofür ist und was bewirkt schauen wir uns nun an.
Prozessor-Cache:
Heute in der Moderne besitzt nahezu jeder neuere Prozessor einen Prozessor-Cache
diese setzen sich aus verschiedenen Ebenen zusammen, welche aufeinander aufbauen.
Der Level 1-Cache auch bekannt als L1-Cache ist der schnellste und somit auch
Teuerste Prozessor-Cache er befindet sich fast immer im Prozessor selbst integriert
und arbeitet dadurch mit der vollen Taktgeschwindigkeit des Prozessors also in der
heutigen Zeit mit mehreren GHz.
Die Aktuellen Prozessoren verfügen fast allesamt über 3 Cache-Level, L1, L2 und L3
diese 3 Level verfügen alle über eine gängige Grösse:
L1: 4 bis 256 KiB pro Prozessorkern
L2: 64 bis 512 KiB pro Prozessorkern
L3: 2 bis 32 MiB meistens für alle Prozessorkerne zusammen.
Aktuelle Prozessoren haben auch eine so genannte Harvard-Cachearchitektur, das
bedeutet Sie haben L1-Caches für Programme und Daten getrennt, was schnellere
und synchrone Zugriffe zwischen Daten und Programmen ermöglicht.
Festplatten-Cache:
Bei Festplatten befindet sich der Cache auf der Steuerplatine, oder auf einem
Festplattenkontroller, die Grösse der aktuellen Festplatten-Caches ist je nach
Hersteller zwischen 8 MB und 64 MB.
Software-Cache:
Caches können auch bei Software genutzt werden, dabei gilt dasselbe Prinzip wie bei
jedem Cache die Daten werden auf ein schnelleres Speichermedium gespeichert umso
die Zugriffsgeschwindigkeit zu erhöhen.
Beispiele für Software-Caches sind Browser-Cache welche bewirken das Webseiten
und Inhalte von diesen schneller geladen werden beim erneuten Besuch.
RAM:
Auch bekannt als Random-Access Memory wird auch als Schreib-/Lesespeicher
bezeichnet, RAM sind alles Halbleiter-Speicher.
Die Zugriffszeit ist für alle Speicherzellen beim Lesen sowie Schreiben gleich lang,
daher bezeichnet man Ihn als einen
Random-Access Memory(Speicher mit wahlfreiem Zugriff).
Ük Modul 304
Patrick Urfer 11.12.2014
Seite 11 von 26
Das Arbeitsbuch
Ausbildung
Informatik
DRAM:
Auch bekannt als Dynamic Random Access Memory hier werden die Informationen
in Kondensatoren gespeichert, deren Ladung temporär aufgefrischt werden muss,
beim Wiederaufladen hat der Prozessor keinen Zugriff auf das DRAM weswegen
Computer mit DRAM langsamer als Computer mit SRAM arbeiten.
SRAM:
Auch bekannt als Static Random Access Memory hier werden die Informationen in
rückwärtsgekoppelten Schaltkreisen sogenannten Flipflops gespeichert, wodurch die
Zugriffsgeschwindigkeit deutlich höher ausfällt und auch die Wartezeiten ist deutlich
geringer. Weil keine Auffrischungen wie bei Kondensatoren notwendig sind.
Speicherbausteine:
Im Englischen als Chip bekannt ist ein Integrierter Schaltkreis, welcher aus einer
Vielzahl von Speicherzellen besteht, diese werden auf einer Leiterplatte angeboten
und aus mehreren dieser RAM werden Speichermodule zusammengebaut.
Parität:
Ist ein Verfahren um Fehler in einem Speichermodul auszumachen, dieses wird vor
allem von der Memory Management Unit(MMU) verwendet, es prüft damit die BitAnzahl in dem es ein 9tes Bit zu jeweils 8 Datenbits hinzufügt, der Wert des Parität
Bits zeigt dann die Fehler an und eine Fehlermeldung wie
z.B. Parity Error at xxxx: yyyy wird ausgegeben.
Refresh Zyklus:
Da sich Kondensatoren, bedingt durch unvermeidliche Ruheströme, nach einer
bestimmten Zeit selbst entladen, wird eine "Auffrischung" der Kondensatorladung
notwendig. Diesen Vorgang nennt man Refresh-Zyklus, da er ständig wiederholt
werden muss, um den Speicherinhalt der DRAMs nicht zu verlieren.
Dual Channel:
Ist eine Technik um von Memory Management Unit(MMU) in PCs mit welchen
RAM-Module parallel betrieben werden können, hierfür werden abgetrennte
Datenbusse vom Memory Management Unit(MMU) zu den einzelnen Modulen
eingesetzt, durch gleichzeitiges übertragen über mehrere Busse können mehrere
Daten in der gleichen Zeit gesendet werden.
ECC / non ECC:
ECC heisst Error control and correction und non ECC heisst
no Error control and correction das ist Speicher welcher Fehler kontrollieren und
korrigieren kann und eben welcher der es nicht kann der non ECC kann allerdings
trotzdem die Paritätsprüfungen vornehmen jedoch die Fehler dann nicht beheben.
Ük Modul 304
Patrick Urfer 11.12.2014
Seite 12 von 26
Das Arbeitsbuch
Ausbildung
Informatik
Eingabegeräte des Computers
Das ist eine Zusammenfassung über die Wichtigsten Eingabegeräte des Computers in unserer
Zusammenfassung bearbeiten wir die Eingabegeräte: Tastatur, Maus und Scanner und schauen uns Ihre
Funktionsweise etwas genauer an.
Tastatur
Eine Tastatur besteht aus mehreren Teilen und benutzt verschiedene Techniken um Ihre Aufgaben erfolgreich
zu bewältigen diese schauen wir uns nun etwas genauer an.
Scan-Code:
Die Kommunikation einer Tastatur erfolgt über den so genannten
Scan-Code auch bekannt als Make- und Break-Code, dieser bewirkt dass
per Tastendruck eine Nummer an den Computer gesendet wird.
Die ersten Tastaturen sendet direkt den ASCII oder andere Codes an den
Rechner, um jedoch Computer in allen Ländern vertreiben zu können ohne
den Code wieder und wieder anpassen zu müssen, hat man jeder Taste eine
Nummer zugeordnet der sogenannte Scan-Code dieser ist eine 7-Bit Zahl.
Der Make-Code ist eine zusätzliche Information welche beim Halten oder
drücken einer Taste vom Tastaturcontroller gesendet wird, als nächstes
erfolgt der Break-Code dieser löst sich aus wenn eine Taste losgelassen
wird, der Tastaturcontroller sendet da dann den Scan-Code + 7-Bit Zahl an
den Treiber welcher nun noch die Landesspezifische Zuordnung des
ASCII vornimmt.
Der Tastatur mussten Technisch nur noch passende unterschiedliche
bedruckte Tastenkappen eingebaut werden.
ASCII:
Der ASCII-Code auch bekannt als American Standard Code for
Information Interchange ist eine 7-Bit-Zeichencodierung welche als USVariante des ISO 646 gesehen werden kann und diente später als
Grundlage für weitere aus mehr Bits bestehende Codierungen.
Er besteht aus 128 Zeichen wovon 95 druckbare Zeichen und 33 nichtdruckbare Zeichen sind, welche die Steuerzeichen enthalten.
Jedem dieser Zeichen wird ein Bit-Muster aus 7 Bit zugeordnet, Da jedes
Bit zwei Werte annehmen kann gibt es 27 = 128 verschiedene Bit-Muster
die man auch als die ganzen Zahlen 0-127 oder als Hexadezimal 00-7F
Interpretieren kann.
Unicode:
Der Unicode ist die heute am weitesten Verbreitete und auch meist
Genutzte Zeichenkodierung, sie besteht aus 16-Bit, im Vergleich der
ASCII-Standard war auf 7-Bit ausgelegt und nachfolgende Kodierungen
auf 8-Bits daher war der Unicode auch so ein Gewaltiger Sprung das er bis
heute Bestand hält.
Im Jahr 1991 nach mehrjähriger Entwicklung wurde die erste Version
veröffentlicht, die damals nur die Europäischen-, Indischen- und
Nahöstlichen-Zeichen kodieren konnte.
Ük Modul 304
Patrick Urfer 11.12.2014
Seite 13 von 26
Das Arbeitsbuch
Ausbildung
Informatik
Der Standard wuchs allerdings sehr schnell schon mit Unicode 2.0 im
Juli 1996 wurde der Standard von ursprünglichen 65.536 UnicodeZeichen auf die heutigen 1.114.112 Unicode-Zeichen von
U+0000 bis U+10FFFF erweitert.
Der Umfang von Unicode ist also 17 Ebenen die jeweils 65.536 Zeichen
umfassen anders ausgedrückt 216, davon werden 6 Ebenen bereits verwendet
und der Rest wurde für spätere Nutzung erschaffen. Tastatur-Aufbau:
Aktuelle Professionelle Tastaturen benutzen heutzutage ein so genanntes
MF2-System, diese arbeitet mit einer Leiterplatte auf dieser ist eine
gedruckter Schaltung angebracht.
Der Untere Teil der Taste ist dabei metallisiert und bildet mit der
Tastaturplatine einen kleinen Kondensator, durch das Niederhalten einer
Taste wird dessen Kapazität geändert und übergibt so die Information das
die Taste betätigt wurde.
Die Tastatur verarbeitet dann die Information mit einem Mikroprozessor
der die Informationen auswertet, und mit einem Kabel mit DIN-Stecker
welches eine Spannungsleitung(+5V), eine Massenleitung und zwei
Signalleitungen besitzt welche die Informationen an den PC übertragen.
Funktionsweise-Tastatur:
Alle Tasten sind sogenannte Kreuzungspunkte auf der Leitermatrix alle
Spalten und Zeilen sind mit Dioden verbunden welche eine Eindeutige
Zuordnung der betätigten Tasten auch beim Betätigen mehrer Tasten
bestimmen können.
Dieses Ergebnis wandelt der Prozessor mit dem Tastaturcode beim
Betätigen(Make-Code) und beim Loslassen(Break-Code) dementsprechend
um. Dieser von dem Tastaturprozessor an den PC übertragene Code wird
als 16-Bit Wert dargestellt, dabei sind die ersten 8-Bit der ASCII-Code und
das oberste Bit der Scan-Code.
Tastaturanschlüsse:
Früher wurde noch der DIN-41524-Anschluss verwendet, welcher aber für
heute Irrelevant ist dieser wurde durch den Nachfolger dem PS/2-Stecker
verdrängt, der PS/2 Standard war lange aktuell bis zur Einführung der
USB-Stecker für Tastaturen.
Der Hauptunterschied zwischen PS/2 und USB liegt vor allem daran dass
die USB-Tastatur keine Make- und Break-Codes mehr sendet, sondern
über einen Datenblock mit Statusinformationen für die ganzen Tasten
besitzt und darüber den aktuellen Status der Tastatur überträgt.
Ergonomische-Aspekte:
Tastaturen sind die Werkzeuge, die wir täglich für die Produktivität,
soziale Interaktion, Unterhaltung und Selbstdarstellung nutzen. Sämtliche
Erlebnisse, die wir mit Technologie haben, basieren auf der Grundlage des
physischen Komforts. Deswegen befassen wir uns damit um die beste
Grundlage zu schaffen.
Ük Modul 304
Patrick Urfer 11.12.2014
Seite 14 von 26
Das Arbeitsbuch
Ausbildung
Informatik
Maus
Es gibt mehrere verschiedene Arten der Entwicklung der Maus-Technologie, die Maus ist als Eingabegerät
und als Hauptsteuergerät durch die Entwicklung grafischer Oberflächen zusammen mit der Tastatur nicht
mehr wegzudenken.
Die Mausbewegungen werden hierbei mit einem Sensor in der Maus ausgelesen, digitalisiert, und über die am
Computer angeschlossene Schnittstelle übertragen.
Mechanische-Mäuse:
Die Mechanische-Maus auch als Mechanisch-elektrisch bekannt,
funktionierte mit Schleifkontakten um die Koordinaten zu ermitteln, da
dies aber ein zu starker Verschleiss mit sich brachte wurde weiter
Entwickelt.
Optomechanisch:
Die zweite Mechanische-Maus auch bekannt als Optomechanische-Maus
las die Bewegungen mit Hilfe einer Bleikugel, zwei Lochscheiben und
dazugehörigen Lichtschranken aus.
Die Rollbewegungen der Bleikugel wurden über zwei Walzen auf zwei
gelochte Segmentscheiben übertragen, aus der Drehrichtung und
Geschwindigkeit dieser wurde über den Inkrementgeber kleine elektrische
Impulse(Mickies) erzeugt, die restliche Koordinatenberechnung
übernahm dann der dazugehörige Maustreiber.
Leuchtdioden:
Diese neuere Mausgeneration auch bekannt als Optische-Maus berechnete
die Koordinaten mit beleuchten der Oberfläche auf welcher sie bewegt
wurde und nahm die Reflexion mit einem Optischen Sensor wahr, der
eingebaute Mikroprozessor berechnete aus den Unterschieden der BildRichtung und Geschwindigkeit die Bewegungen der Maus.
Die ersten Mäuse dieser Generation benötigten spezielle Mousepads mit
Raster oder Punktierungen zur Orientierung für den Optischen Sensor.
Laserdiode:
Diese Maus war die erste verbesserte Variante der Optischen-Maus hier
wurde statt einer Leuchtdiode eine Laserdiode als Lichtquelle eingesetzt,
das gab einen besseren auslesbaren Wert.
Blue-Track:
Hier wurde eine grosse blaue Lichtquelle unterhalb der Maus verwendet
welche in der Kombination mit dem Optischen Sensor und Pixelgeometrie
eine bessere Orientierung(Tracking) ermöglichen.
Wheel-Mouse:
Auch bekannt als das Rollrad(Mausrad) ermöglicht bequemes Scrollen
kann aber auch anders belegt werden, bei den meisten Mausmodellen ist das
Scrollrad heutzutage klick bar und dient als zusätzliche 3te Maustaste.
Maustasten:
Mäuse haben neben der Orientierung die zusätzliche Fähigkeit mit Tasten
Aktionen auslösen zu können, dies Funktioniert dank Mikrotastern welche
sich hinter den Maustasten verbergen, welche bei Überschreitung des
Krafteinflusses einen Kontakt meldet, diese Änderung wird als Bit im
Mausprotokoll übertragen wodurch Maustreiber, Betriebssystem und
Applikationen die damit verbundene Aktion ausführen lassen.
Mausanschlüsse:
Die ersten Mäuse benutzten alle den lange aktuellen Seriellen Port RS232
welcher über einen neun- oder 25-Poligen D-Sub-Stecker angeschlossen
wurden diese frühen Modelle wurden allerdings durch hohen
Schaltungsaufwand meistens mit einem eigenen Netzteil betrieben wodurch
später mit aufkommen der ATX-Mainboards der Anschluss auf den bereits
von der Tastatur bekannten PS/2-Port wechselte.
Seit geraumer Zeit nun wurde allerdings auch der PS/2-Port im
Mausbereich nahezu gänzlich durch die USB-Anschlüsse abgelöst.
Ergonomische Aspekte:
Mäuse sind die Werkzeuge, die wir täglich für die Produktivität, soziale
Interaktion, Unterhaltung und Selbstdarstellung nutzen. Sämtliche
Erlebnisse, die wir mit Technologien haben, basieren auf der Grundlage
Ük Modul 304
Patrick Urfer 11.12.2014
Seite 15 von 26
Das Arbeitsbuch
Ausbildung
Informatik
des physischen Komforts. Deswegen befassen wir uns damit um die beste
Grundlage zu schaffen.
Scanner
Ein Scanner auch bekannt als Abtaster ist ein Datenerfassungsgerät das Objekte auf systematisch und
regelmässige Art und Weise abtastet und vermisst, Scannen ist ein optomechanischer Vorgang.
Die Idee ist es mit begrenzten Messinstrumenten durch eine Vielzahl an Einzelmessungen ein genaues
Gesamtbild des Objektes zu erstellen.
Flachbettscanner:
Ist das heutige gebräuchlichste Bilderfassungsgerät es arbeitet nach dem
Prinzip dass die Vorlage auf eine Lichtdurchlässe Glasscheibe gelegt wird,
dabei bleibt sie immer an der gleichen Stelle und wird von
Lichtempfindlichen Sensoren abgetastet, welche unterhalb der Glasscheibe
entlangfahren um eine gute Erfassung zu ermöglichen muss die Vorlage
allerdings gut aufliegen.
Handscanner:
Wie der Name es vermuten lässt muss man den Handscanner von Hand
über die Vorlage ziehen, allerdings darf dies nicht zu schnell sein, da sonst
die Übertragung nicht fehlerfrei abläuft.
Der Handscanner hat zur Unterstützung des Scanvorgangs auch eine
Integrierte Walze welche zusammen mit einem Impulsgeber den
zurückgelegten Weg über die Vorlage und die zweite Dimension ausmisst.
Rollscanner:
Wie der Name schon sagt wird hierbei etwas in eine Rolle eingeführt oder
aufgetragen, diese gibt es für Druckereien sogenannte Ink-Scanner aber
auch für andere Zwecke in der Industrie.
3D-Scanner:
Dreidimensionale Vorlagen werden mit 3D-Scanner eingelesen, man
verwendet solche Geräte oft zum Archivieren oder Katalogisieren, der
Nachteil ist es das die Abtasteinrichtung oft fest montiert sein muss oder
das man bei Handscanner-Versionen sogenannte Referenzpunkte an der
Vorlage anbringen muss.
Auflösung:
Die Auflösung einzelner Scanner ist je nach Einsatzgebiet und Qualität der
Geräte sehr verschieden, es gibt das Auflösungsvermögen auch bekannt als
Unterscheidbarkeit von feinen Strukturen an, bei Scannern ist auch die
Frequenz des Abtastrate und der dadurch entstandenen Qualität des
Abtastens von enormer Wichtigkeit, ein guter Scanner hat also eine Hohe
Auflösung und eine dementsprechend gute Abtastrate.
Format:
Auch hier Modell und Einsatzgebiet-abhängig es gibt Modelle welche
gängige Papierformate erfassen können, aber auch Geräte welche den
kompletten Menschlichen Körper erfassen können.
Geschwindigkeit:
Auch hier Abhängig von Einsatzgebiet und Modell es gibt Geräte welche
in unter Sekundenschnelle Daten erfassen können, aber auch Geräte
welche mehr Zeit benötigen oder absichtlich benutzen um dafür das
Resultat dementsprechend qualitativ genauer Auszugeben.
Schnittstelle:
Die Schnittstellen welche für Scanner benutzt werden sind auch sehr
unterschiedlich da es welche mit Parallel Port, GPIB, SCSI, USB(bis 3.0),
FireWire und Integrierte Propietäre Interfaces welche meist mit
Bildschirmen oder anschliessbarem Bildschirm-Port einherkommen.
Platzverbrauch:
Auch hier sehr unterschiedlich und abhängig von Einsatzgebiet und
Modell es gibt Scanner im Mikro-Bereich aber auch welche in
Hausähnlichen Dimensionen.
Gewicht;
Auch hier sehr unterschiedlich und abhängig von Einsatzgebiet und
Modell es gibt Scanner im Leichtgewicht-Bereich und auch welche die
man nicht ohne Maschinelle Unterstützung transportieren kann.
Ük Modul 304
Patrick Urfer 11.12.2014
Seite 16 von 26
Das Arbeitsbuch
Stromverbrauch:
Ausbildung
Informatik
Auch hier sehr unterschiedlich und abhängig von Einsatzgebiet und
Modell es gibt Scanner mit wenig Verbrauch und welche die eigene
Hochleistungs-Stromquellen benötigen.
Ausgabegeräte des Computers
Das ist eine Zusammenfassung über die Wichtigsten Ausgabegeräte des Computers in unserer
Zusammenfassung bearbeiten wir die Ausgabegeräte: Monitor/Display,Drucker und schauen uns Ihre
Funktionsweise etwas genauer an.
Monitor/Display
Der Monitor/Display auch bekannt als Bildschirm ist eine elektrisch angesteuerte Anzeige ohne bewegliche
Teile zur optischen Signalisierung von sich ändernden Informationen wie Dokumente, Bilder oder Zeichen.
Der Bildschirm kann dabei ein eigenständiges Gerät oder Teil eines Computersystems sein.
Es gibt sehr viele Arten der Bildanzeige im Technischen Bereich, es werden dabei sehr unterschiedliche Arten
benutzt und auch verbaut.
CRT:
Auch bekannt als Kathodenstrahlröhrenbildschirm ist ein Bildschirm welche die
sogenannte Kathodenstrahlröhre im technischen Bereich zur Anzeige nutzt, diese
Technik funktioniert in dem der Bildschirm sogenannte Rastergrafiken zur
Darstellung benutzt und die Informationen werden für die Primärfarben auf
getrennten Signalwegen übertragen, ebenso die Informationen für die
Synchronisation der Position des Elektronenstrahles wird auf der Leuchtschicht
angezeigt.
LCD:
Auch bekannt als Flüssigkristallbildschirm ist ein Display dessen Funktion auf
Flüssigkristallen beruht diese Technik funktioniert das Flüssigkristalle die
Polarisationsrichtung von Licht beeinflusst, wenn eine bestimmte Menge an
elektrischer Spannung angelegt wird, so kann ein LCD-Display bestimmte Inhalte
anzeigen.
TFT:
Auch bekannt als Thin-Film Transistor ist ein spezieller Feldeffekttransistor mit
isoliertem Gate, mit dem grossflächige Schaltungen. Hergestellt werden diese
entsprechen dem Thema des Metall-Oxid-Halbleiter-Feldeffektransistor
(MOSFET). Die wesentlichen Unterschiede bestehen neben den verwendeten
Materialien in der nachträglich hinzugefügten Halbleiterschicht und dem häufig
grossflächig gestalteten Gate.
Die grösste Anwende dichte ist die Orientierung von
Flüssigkristall-Flachbildschirmen bei diesen werden pro Bildschirmpunkt drei
Transistoren eingesetzt welche zum Einsatz kommen, diese Bauart von Displays
wird oft auch als Matrix-LCD bezeichnet und Umgangssprachlich auch
TFT-Display genannt.
Plasma:
Auch bekannt als PDP-Display ist ein Farb-Flachbildschirm der durch Leuchtstoffe
verschiedenfarbiges Licht erzeugt, welche durch Gasentladungen des Plasmas
angeregt werden.
Plasma ist eine Art von Ionisiertem Gas, welches neben Neutralen-Teilchen auch
freie Ionen, angeregte Atome sowie Elektronen enthält, diese Plasmen senden durch
Spontane Emission von angeregten Atomen sichtbare Lichtquellen aus sowie die
Bekannte Ultraviolettstrahlung.
Bei diesen Bildschirmen macht man sich Emission von UV-Strahlen durch das
sogenannte Niederdruckplasma zunutze, diese Funktionsweise kennt man bereits von
Leuchtstofflampen im Vergleich zu PDP-Displays ändert sich nur die Art des Gases
bei den Displays werden Edelgase verwendet.
Ük Modul 304
Patrick Urfer 11.12.2014
Seite 17 von 26
Das Arbeitsbuch
Ausbildung
Informatik
LED:
Ein LED-Display auch bekannt als Leuchtdiodenanzeige ist eine Technologie
basierend auf Leuchtdioden, diese werden im Bildschirm-Bereich vorallem als
Hintergrundbeleuchtung verwendet während der LCD-Technik weiterhin die
Bilddarstellung überlassen wir.
Heutzutage werden die Hintergrundbeleuchtung und zusätzliche
Farbspektrum-tiefe via LED’s gemacht das heisst das die Leuchtdioden neben der
Beleuchtung auch zusätzliche Farbtiefe beifügen.
Auflösung:
Ist eine Normung für die Bildgrösse einer Rastergrafik, diese wird definiert durch die
Anzahl der Bildpunkte oder auch durch die Anzahl der Breite(Spalten) und
Höhe(Zeilen), Auflösung im Physikalischen Sinn bezeichnet die Dotierung der
Bildelemente pro Länge und dadurch auch die Wiedergabe(Bildabtastung) und ist
mit der Farbtiefe die Normung der Qualität einer Auflösung.
Im Technischen Bereich in Form von Prozessen mit Rastergrafik gilt im Normalfall
je grösser die Rastergrafik umso mehr Qualität und Tiefe kann in der Wiedergabe
erreicht werden.
Die in der IT vorhanden existierenden Grafikstandards wie typische Auflösungen von
Grafikmodis werden hauptsächlich von der VESA standardisiert und Normiert.
Farbtiefe:
Die sogenannte Farbtiefe ist eine sehr wesentliche Eigenschaft von Grafiken im
Raster- sowie Vektorbereich und differenziert sich mit den Helligkeits- und
Farbwerten.
Diese Farb- und Helligkeitswerte werden in einem jeden einzelnen Pixel in einer
Raster- und bei Vektorgrafiken innerhalb des farbdefinierten Vektorbereichs
definiert.
Die Maximale Farbtiefe wird erreicht durch eine möglichst hohe Farbabstufung
welche in Bit definiert wird innerhalb einer Farbskala, zusammen mit der Anzahl der
möglichen Bits pro einzelne Pixel.
Speicherberechnung: Als Grafikspeicher wird der durch die gesamte Grafikhardware umfassende nutzbare
Speicher von Computern erfasst, hier kann es sich auch um reservierte Bereiche des
Arbeitsspeichers handeln, oder auch speziell für diesen Zweck verbaute
Speichermodule(Video-RAM) handeln.
Welche Kombinationen der Bildauflösung zusammen mit der Farbtiefe wieviel
Speichergrösse für die Darstellung benötigen, ist festgelegt durch Normungen,
welche sich durch die Entwicklung ergaben.
Grösse:
Wenn wir über die Grösse eines Bildschirms reden, reden wir zwangsweise über die
Bildschirmdiagonale welche die Normung einer Bildschirmgrösse ist, sie bezeichnet
den Abstand der sich diagonal gegenüberliegenden Ecken.
Auch wird die Bildschirmdiagonale heutzutage in Zoll angegeben, zusammen mit der
Pixeldichte auch bekannt als dpi(Dots-Per-Inch).
Anschlüsse:
Die Anschlüsse der Bildschirme haben sich auch sehr weiterentwickelt von Analogen
Anschlüssen wie dem VGA-Anschluss(Video Graphics Array) zu den
Digitalen Anschlüssen wie DVI-Anschluss(Digital Visual Interface),
SDI-Anschluss(Serial Digital Interface), UDI-Anschluss(Unified Display Interface),
DP-Anschluss(Display Port) und zu dem
HDMI-Anschluss(High Definition Multimedia Interface) welcher der aktuelle
Standard ist und die Absolute Maximalqualität der heutigen Bildübertragung
ermöglicht.
Ergonomie:
Auch bei Bildschirmen gibt es gewisse Ergonomische-Aspekte welche das Erlebnis
am Computer-Bildschirm verbessern sollen und die Gesundheit des Nutzers fördern
sollen, diese Ergonomie Aspekte sind in vielen Firmen heutzutage eine Wichtige
Regulierung da Gesunde Arbeiter und welche sich bei der Arbeit entspannt fühlen
auch mehr Antrieb besitzen.
Ük Modul 304
Patrick Urfer 11.12.2014
Seite 18 von 26
Das Arbeitsbuch
Strahlungsnormen:
Ausbildung
Informatik
Sind die Normen der maximalen Strahlung und Ergonomie der Computermonitore
diese werden durch verschiedene TCO-Standards gemessen an der ergonomischen
Qualität der in Büroumgebungen eingesetzten Produkte, für die Computermonitore
und Ihre Strahlung sowie Ergonomische Qualität werden die
TCO-Prüfsiegel(92,95,99,03,06) vergeben.
Der TCO-Standard ist zusammen mit Energy Star das noch älteste bestehende Label
welches Green-IT-Aspekte bewertet wie Ergonomie und Strahlung.
Drucker
Drucker sind Peripheriegeräte in der Datenverarbeitung welche zur Ausgabe von Daten auf ein Medium
welches meistens Handels üblicherweise das altbekannte Papier ist, dieser Vorgang nennt man auch Drucken
und das Endprodukt dieses Vorgangs nennt man Druckerzeugnis.
Es gibt sehr viele Verschiedene Druckmethoden und Druckerarten diese werden wir uns was genauer
ansehen.
Tintenstrahldrucker: Sind Drucker welche mit sehr kleinen Tinten Tröpfchen arbeiten welche sie
anschlagfrei auf das zu bedruckenden Medium spritzen und dieses je nach Art der
Qualität mit unterschiedlicher Dichte und Genauigkeit machen angegeben in
DPI(Dots per Inch).
Laserdrucker:
Laserdrucker sind fotoelektrische Drucker, die mit einer Bildtrommel arbeiten,
diese Trommel ist statisch geladen, rotiert und wird überall dort wo für den Druck
notwendig von Punkt zu Punkt mit einem zeilenweise hin und her bewegten LaserStrahl beschrieben und erzeugt eine negative oder positive Ladung an den Stellen wo
der Laser auftrifft, man erschafft so gesehen ein Druckerzeugnis-Negativ auf der
Trommel welches dann mit Toner-Pulver bestückt wird und an den gleichen Stellen
wo die Ladung auf Druckunterlage und Trommel gleich ist aufträgt oder nicht.
Nadeldrucker:
Nadeldrucker sind eine Unterart der sogenannten Matrix-Drucker die anstatt
Buchstaben nur Punkte durch Nadeln auf die Druckunterlage bringen, diese setzen
sich dann optisch zu Buchstaben zusammenfügen, meist verwendet man in diesen
Druckern sogenanntes Endlospapier, der grösste Vorteil dieser Drucker liegt in der
Fähigkeit Durchschläge zu erstellen in einem Arbeitsgang.
Typenraddrucker:
Die Buchstaben werden erzeugt, indem ein Hammer die Typen eines drehbaren
Typenrads durch ein Farbband gegen das Papier schlägt. Der Hammer wird in der
Regel von einem Permanentmagneten angetrieben, der sich innerhalb eines
Elektromagneten befindet.
Auflösung:
Diese wird hier einmal mehr mit den bereits bekannten DPI(Dots-Per-Inch)
angegeben übersetzt heisst es ein 1dpi = 1 Punkt pro Zoll.
Druckgeschwindigkeit: Wird Normalerweise in diesen 2-Normierungen angegeben mm/s auch bekannt als
Millimeter pro Sekunde sagt aus wie viele Millimeter er in der Sekunde bedruckt und
oder es wird mit Seiten/min angegeben das sagt aus Wie viele Seiten der Drucker pro
Minute fertigstellen kann.
Format:
Format ist sehr abhängig von Einsatzgebiet des Druckers es gibt Drucker welche
Papier-Seiten von A1 bis A10 bedrucken können, aber auch welche die riesige 3DNachbildungen von Gegenständen Drucken können.
Befehlssprachen:
PCL steht für Printer Control Language und PS steht für PostScript.
PCL und PS sind Sprachen, die ein Drucker verwendet, um Daten in einen fertigen
Druckauftrag umzuwandeln. PCL ist optimal für alltägliche, auf Text basierende
Bürounterlagen, während PS für große PDF-Dateien oder andere Dokumente mit
vielen Bildern besser geeignet ist.
Ük Modul 304
Patrick Urfer 11.12.2014
Seite 19 von 26
Das Arbeitsbuch
Ausbildung
Informatik
Druckeranschlüsse:
Auch hier gibt es verschiedene Formen welche sich entwickelt haben die am meisten
bekannten Druckerschnittstellen sind allerdings: USB, Bluetooth, Parallel, Firewire,
LAN, WLAN, Serielle Schnittstelle(RS-232) und
LPT(Serielle Schnittstelle IEEE-1284)
Ergonomie:
Auch für den Drucker gibt es Ergonomische Anforderungen welcher dieser wenn
möglich erfüllen sollte, diese bestehen aus: Niedriger-Emission,
leisem Arbeitsvorgang, Ressourcensparende Geräte, eigene Räumlichkeiten,
leichte Bedienbarkeit und Reflexionsarmes helle Gehäuse haben.
Massenspeicher des Computers
Das ist eine Zusammenfassung über die Wichtigsten Massenspeicher des Computers in unserer
Zusammenfassung bearbeiten wir die Massenspeicher: Festplatte, CD, DVD, BD und einige Flash-Speicher
und schauen uns Ihre Funktionsweise etwas genauer an.
Festplatte
Festplatten sind Massenspeicher und eine der bekanntesten Hardware-Komponente des Computers jedoch
auch hier existieren wie in allen Bereichen der Hardware mehrere Kategorien, Modelle, Verarbeitungsarten
und auf diese werden wir nun ein wenig genauer Eingehen.
IDE:
Der Name IDE bedeutet "Integrated Device Electronics" und besagt eigentlich nur,
dass ein Teil der Steuerungsfähigkeiten (Controller) für den Festplattenbetrieb
bereits im Gerät integriert ist.
IDE ist ein älterer Standard für den Anschluss von Festplatten und CD/DVDLaufwerken. Heutzutage wird er auch oft PATA genannt um ihn von den SATAModellen besser zu unterscheiden.
SCSI:
Der Name SCSI steht für Small Computer System Interface und ist eine andere
Schnittstelle für Festplatten diese Festplatten auch SCSI-Festplatten genannt können
nicht nur zwischen zwei sondern je nach Controller zwischen 7 bzw. 15 Adressen
auswählen, hierfür befinden sich an alten SCSI-Laufwerken 3 bis 4 Jumper für die
Vergabe von Adressen diese werden auch SCSI-ID-Number genannt.
Bei Modernen SCSI-Systemen wird die Adressierung automatisiert und der
Reihenfolge am Kabel die IDs vergeben, hier sind die Jumper nur noch relevant
sofern eine Adressvergabe beeinflusst werden soll.
SATA:
Auch bekannt als Serial ATA(S-ATA) ist eine aktuelle Festplatten-Schnittstelle
welche seit 2002 sich gegenüber der ATA-Schnittstelle durchgesetzt hat, die Vorteile
von SATA sind höhere Datenraten, vereinfachte Verkabelung, für Anwendungen
relevante zusätzliche Funktionen und die Fähigkeit Geräte im laufenden Betrieb
auszutauschen(Hot Plug).
SAS:
Die SAS-Technik auch bekannt als Serial Attached SCSI basiert auf der bereits
etablierten SCSI-Technik, sendet aber im Vergleich die Daten alle Seriell und nutzt
eigene Ports anstatt eines gemeinsamen BUS-Systems.
Deutlich Höhere Geschwindigkeiten, können ebenfalls theoretisch eine Anzahl von
bis zu 16 000 Geräte in einem Verbund angesprochen werden, der weitere Vorteil ist
die Kabellänge von bis zu 10 Metern Länge.
Struktur:
Magnetische Festplatten organisieren ihre Daten – im Gegensatz zu anderen
Speichern in Strukturierten Datenblöcken (wie z. B. 512, 2048 oder 4096 Byte)
dadurch wird dieses Verfahren auch blockbasierte Adressierung genannt. Dabei
können seitens der Hardware immer nur ganze Datenblöcke oder Sektoren gelesen
und geschrieben werden.
Ük Modul 304
Patrick Urfer 11.12.2014
Seite 20 von 26
Das Arbeitsbuch
Ausbildung
Informatik
Das Lesen von Blöcken erfolgt durch Angabe der linearen Sektor Nummer. Die
Festplatte „weiß“, wo sich dieser Block befindet, und liest beziehungsweise schreibt
ihn auf Anforderung.
Formatierung:
Jede Partition wird vom Betriebssystem gewöhnlich mit einem Datensystem
formatiert, je nach Datensystem, werden mehrere Blöcke zu Clustern
zusammengefasst, die dann die kleinste logische Einheit für Daten sind, die auf die
Platte geschrieben werden. Das Dateisystem sorgt dafür, dass Daten in Form von
Dateien auf die Platte abgelegt werden können. Ein Inhaltsverzeichnis im
Dateisystem sorgt dafür, dass Dateien wiedergefunden werden und hierarchisch
organisiert abgelegt werden können. Der Dateisystem-Treiber verwaltet die
belegten, verfügbaren und defekten Cluster.
Grösse:
Es gibt Festplatten in verschiedenen Formfaktoren in welchen Sie Genormt wurden
und welche sich durchgesetzt haben, aktuelle Festplattengrössen sind:
3,5″-Festplatten, 2,5″-Festplatten und die 1,8″-Festplatten welche für Netbooks
und sehr kleine Computer oder Laptops verwendet werden.
Festplattenanschlüsse: Wie weiteroben Behandelt sind es die IDE-Kabel, S-ATA-Kabel, SCSI-Kabel und
das neuste SAS-Kabel zu allen Technologien finden sie oben mehr Informationen.
Kapazität:
Sehr verschieden von Modell und Hersteller sowie der Normungsgrösse abhängig,
für jede Normierungsgrösse gibt es eine Maximale Anzahl an Speicherkapazität.
Die Grösse der Speicherkapazität einer Festplatte setzt sich aus der Grösse eines
Sektors multipliziert mit der Anzahl Sektoren zusammen.
Umdrehungsgeschwindigkeit: Die Standardnormen bei der Umdrehungszahl liegen zurzeit zwischen
5400und 7200 wobei erstere immer mehr durch die 9600 abgelöst wird, es gibt auch
bereits erste Desktop-Festplatten mit 11000 Umdrehungen pro Minute. Diese
Umdrehungsanzahlen geben an wie oft eine Festplatte sich um sich selbst dreht diese
Zahl ist allerdings nicht die Wichtigste Zahl bei der Zugriffsgeschwindigkeit ist die
IOPS(Input/Output operations Per Second) das entscheidende Mass.
Cache:
Heute in der Moderne besitzt nahezu jeder neuere Prozessor einen Prozessor-Cache
diese setzen sich aus verschiedenen Ebenen zusammen, welche aufeinander aufbauen.
Der Level 1-Cache auch bekannt als L1-Cache ist der schnellste und somit auch
Teuerste Prozessor-Cache er befindet sich fast immer im Prozessor selbst integriert
und arbeitet dadurch mit der vollen Taktgeschwindigkeit des Prozessors also in der
heutigen Zeit mit mehreren GHz.
Die Aktuellen Prozessoren verfügen fast allesamt über 3 Cache-Level, L1, L2 und L3
diese 3 Level verfügen alle über eine gängige Grösse:
L1: 4 bis 256 KiB pro Prozessorkern
L2: 64 bis 512 KiB pro Prozessorkern
L3: 2 bis 32 MiB meistens für alle Prozessorkerne zusammen.
Aktuelle Prozessoren haben auch eine so genannte Harvard-Cachearchitektur, das
bedeutet Sie haben L1-Caches für Programme und Daten getrennt, was schnellere
und synchrone Zugriffe zwischen Daten und Programmen ermöglicht.
Zugriffszeiten:
Ük Modul 304
Die Zugriffszeiten haben sich sehr weiterentwickelt und sind mittlerweile bei
Mittleren Zugriffszeit von ca. 3.0ms(Millisekunden) im Desktop- und im
Serverbereich bei ca. 2.5ms(Millisekunden) Mittlerer Zugriffszeit.
Patrick Urfer 11.12.2014
Seite 21 von 26
Das Arbeitsbuch
Ausbildung
Informatik
Optische Massenspeicher
Optische Massenspeicher sind unter diesem Namen bekannt da man Sie mit Laser, also auf einer OptischFunktionierenden Basis beschreibt und liest.
Es gibt 3 Optische Datenträger welche von Enormer Wichtigkeit sind und Unentbehrlich geworden sind.
CD,DVD,BD
CD:
Auch bekannt als Compact Disc ist ein Optischer Speicher welcher seit 1980 zur
digitalen Speicherung von Musik von Sony eingeführt wurde, später wurde Sie auch
für die Speicherung für den Computer(CD-ROM) erweitert.
Seit 1990 wurde Sie auch mit Privaten Multimedia Computern beschreibbar mit
sogenannten
CD-Brennern(Writer) mit welchen man so genannte CD-R beschreiben kann, und
später mit CD-RW wurden mehrfach Beschreibbare CDs eingefügt, welche den
Durchbruch in der Datensicherung auf CDs bedeuteten.
DVD:
Auch bekannt als Digital Versatile Disc ist ein Optischer Speicher welcher im
Aussehen und Aufbau der Compact Disc(CD) entspricht, als sich 1990 die CompactDisc als Massenspeichermedium für den Computer durchgesetzt hatte, wuchsen nicht
nur die Anwendungsfehler sondern auch die Ansprüche der Bedürfnisse der vielen
Anwender, Filmindustrie und der Unterhaltungsindustrie.
Ziel wurde es die Speicherkapazität der Compact Disc(CD) weiter zu erhöhen, 1995
einigten sich dann die Entwickler von Sony und Phillips durch Bedrängung von der
Filmindustrie und Sie Entwickelten die Digital Versatile Disc(DVD), am Anfang
nannte man Sie Digital Video Disc da Sie vor allem für Video-Medien gedacht war.
1996 kamen dann die ersten DVD-Brenne(Writer) in den Handel sowie die ersten
DVD-R und kurz darauf die ersten DVD-RW seit da an setzte sich die DVD als
Massenspeicher sowie Optischer Datenträger für Video- und Unterhaltungsmedien
immer mehr durch.
BD:
Auch bekannt als Blue-ray Disc(BD) ist ein Optischer Speicher welcher als ein
High-Definition-Nachfolger der DVD entwickelt wurde, wodurch Sie deutlich Höhere
Datenraten und Speicherkapazität bot.
Ük Modul 304
Patrick Urfer 11.12.2014
Seite 22 von 26
Das Arbeitsbuch
Ausbildung
Informatik
Die Blue-ray Disc setzte sich im Formatkrieg gegen die Mitstreiter wie z.B. die
HD-DVD und VMD deutlich durch, deren Weiterentwicklung wurde dann schliesslich
im Jahr 2008 eingestellt und seit da an ist die Blue-ray Disc einziger Vertreter Ihrer
Art, und natürlich ist seit da an auch BD-R und BD-RE(Wiederbeschreibbar)
erhältlich.
Bei der Blue-ray Disc wurde allerdings nicht nur die Technologie der Vorgänger CD
und DVD verbessert sondern es geschah eine Weiterentwicklung der Technologie, wie
der Name Blue-Ray schon sagt handelt es sich um einen Blauen Strahl.
Dies kommt daher dass der Laser einen Violett-Bläulichen Lichtstrahl verwendet.
Funktion:
Formatierung:
Alle drei dieser Optischen Speichermedien haben einige Gemeinsamkeiten Sie alle
haben einen genau 12cm grosse Durchmesser und alle 3 Funktionieren nach dem
gleichen Grundprinzip die BD ist nur weiterentwickelt.
Die Informationen sind auf einer spiralförmig nach außen verlaufenden Spur
angeordnet, der Informationsbereich reflektiert Licht mit deutlichen
Farberscheinungen wegen seiner Mikrostruktur, den Pits. Länge und Abstand
dieser kleinen Vertiefungen bilden einen seriellen digitalen Code, der die
gespeicherte Information repräsentiert.
Ein weiterer Unterschied ist nur der Abstand der Datenträgerschicht zu der
Fossierungsoptik, wie unschwer auf dem Bild zu erkennen.
Vor der Benutzung einer CD und DVD werden Sie in eines dieser 2 Formate das
Livedateisystem welches wie ein USB-Flashlaufwerk fungiert oder das
Mastered-Format welches mit einem CD/DVD-Player verwendbar ist.
Bei Blue-ray Disc sind es die 2 Formate namens BDAV und
BDMV(Blue-Ray Movie) das BDAV funktioniert wie ein USB-Flashlaufwerk und
das BMDV ist wie das Mastered-Format nur mit einigen neueren und verbesserten
Funktionen.
Laser:
Die Entleerung von Licht entsteht durch Wiedervereinigungsprozesse von
Elektronen und Löchern am Übergang zwischen positiv- und negativ-gepolten
Bereichen, die Endflächen dieser Übergänge sind teilreflektierend und bilden einen
Optischen Resonator in dem sich stehende Lichtwellen ausbilden können.
Liegt eine Besetzungsinversion vor, können die stimulierten Entleerungen zum
dominanten Strahlenprozess werden und die Laserdiode gibt dann Laserstrahlung
ab, diese Laserdioden werden fast immer zusammen mit einer
Photodiode(Monitordiode) gekoppelt, diese dient als
Sensor um die
Elektronische Schaltung konstant aufrecht zu haltenDie CD verwendet einen 780 nm(Nanometer) Laser dieser ist auch als Laserdrucker
oder auch als Lichtschranken bekannt.
Die DVD verwendet einen 650 nm Laser dieser ist auch als Laserpointer bekannt.
die Blue-Ray-Disc verwendet ein Halbleitermaterial namens Iniumgalliumnitrad es
ist ein Blau-Violett Laser.
Format/Grösse:
Das Einheitliche Format all dieser Datenträger ist ein Durchmesser von 12cm.
Geschwindigkeiten:
Die Geschwindigkeiten betreffen die Laufwerke und die Angaben bedeuten
1x = Einfache Datenrate das entspricht 36Mbit/s und
2x = Doppelte Datenrate das entspricht 72Mbit/s das ganze zieht sich weiter bis zu
einer Vervielfachung der Datenrate von je nach Medium bis zu
48x = das entspricht 1728Mbit/s was unglaublich viel Geschwindigkeit ist.
Ük Modul 304
Patrick Urfer 11.12.2014
Seite 23 von 26
Das Arbeitsbuch
Ausbildung
Informatik
Laufwerkanschlüsse: Eine Festplatte bringt man an SATA-Anschlüssen an je nach Datenraten und
Geschwindigkeit wählt man einfach die SATA-Generation aus wo man das Laufwerk
anschliessen möchte oder welche das Laufwerk verlangt.
Bei älteren Systemen hat man Optische Laufwerke an einem IDE-Anschluss
angebracht.
Ük Modul 304
Patrick Urfer 11.12.2014
Seite 24 von 26
Das Arbeitsbuch
Ausbildung
Informatik
Flash-Speicher
Flash-Speicher sind auch bekannt al s Flash-EEPROM, es sind digitale Speicherbausteine diese
gewährleisten eine nichtflüchtige Speicherung bei niedrigem Energieverbrauch.
CompactFlash:
Ist ein Schnittstellenstandard für digitale Speichermedien er kommt vor allem in
Fotoapparaten heute zum Einsatz und bei Netzwerkkomponenten, Computern,
PDAs dieses CompactFlash ist in Kartenform und im Volkmunde als Speicherkarte
bekannt oder auch Memory Card.
SD Card:
Ist die Weiterentwickelte Form des CompactFlashs der Name bedeutet
Secure Digital Memory Card und ist eine Flash-Speichereinheit welche nachdem
selben Prinzip wie das CompactFlash arbeitet, nur mit einigen zusätzlichen
Hardware-Funktionen für die Digitale Rechteverwaltung(DRM) ab das bewirkt das
die Karte unrechtmässiges Abspielen von geschützten Mediendaten verhindert.
Memory Stick:
Ist ein Digitales Speichermedium für Daten welches von Sony entwickelt und 1998
das erste Mal Eingeführt wurde, es gibt verschiedene Varianten der Speicherkarten
in Bezug auf Grösse, Speicherplatz, Anwende Bereich und welche die mit Speziellen
Kopierschutzmassnahmen versehen sind.
Diese werden vor allem in Sony Produkten verwendet wie Videokameras,
MP3-Playern, PDAs, Mobiltelefonen und anderen Portablen Geräten es gibt auch
andere Anbieter welche die Memory-Sticks verwenden, jedoch sind die eher wenige.
SmartMedia:
Ist ein Digitales Speichermedium in Flash-Technologie welches in Keyboards,
Groove Boxen, Sequenzern, MP3-Playern und Digitalkameras in den Einsatz
kommt, ist der Nachfolger des CompactFlash und der Vorreiter der SD-Card
gewesen. Diese Karte hielt nicht lange durch bis Sie von der SD-Karte verdrängt
wurde, weil sie sehr Störanfällig war.
Speichertechnologie:
Die Speicherung eines Bits ist erfolgt über das Floating-Gate das eigentliche
Speicherelement des Flash-Feldeffektransistors.
Im Ungeladenen Zustand des Floating-Gates kann in den über das Steuer-Gate
angesteuerten Transistor in der Source-Drain-Strecke(Kanal) Strom fliessen.
Werden über das Steuer-Gate durch Anlegen einer hohen Positiven Spannung(10V+)
so genannte Elektronen auf das Floating-Gate gebracht, so kann in der Source-DrainStrecke auch bei angesteuertem Transistor kein Strom mehr fliessen, weil das Negativ
Potential der Elektronen auf dem Floating-Gate die Spannung des Steuer-Gates
aufheben und den Flash-Transistor somit schliessen.
Ük Modul 304
Patrick Urfer 11.12.2014
Seite 25 von 26
Das Arbeitsbuch
Ausbildung
Informatik
Anwendungsbereich: Der Anwendungsbereich liegt vor allem in Bereichen der Portablen
Multimediageräten welche über eine Speichereinhei verfügen wie z.B. bei
Fotoapparaten, Handy, MP3-Player und PDA(Personal Digital Assistent) diese
Flash-Speicher sind meistens in Karten- oder Riegel-Form und lassen sich meistens
einfach mit einfachem Stecken anschliessen.
Format:
Sehr unterschiedlich und von Anwendungsbereich abhängig.
Geschwindigkeiten:
Ebenfalls sehr unterschiedlich von je nach Klasse der einzelnen Module(Karten) und
auch Generation abhängig und auch wieder je nach Anwendungsbereich und
Preisklasse sehr verschieden.
Die Schreibgeschwindigkeit ist bei den neueren Modellen zwischen
0.8Mbyte/s bis 95Mbyte/s und die Lesegeschwindigkeit ist meistens der Doppelte
Wert der Schreibgeschwindigkeit.
Laufwerkanschlüsse: Gibt verschiedene Möglichkeiten je nach Modell es gibt integrierte Card Reader,
externe Card Reader, Geräte welche man mit USB verbindet und so auf das
Speichermedium Zugriff erhält und auch Geräte welche man mit Bluetooth, WLAN
oder sonstigen Übertragungssignale welche man durch die Luft überträgt und dann
direkt über das Gerät auf das Speichermodul den gewünschten Zugriff erhält.
Ük Modul 304
Patrick Urfer 11.12.2014
Seite 26 von 26