RST Labor - Weblearn
Transcription
RST Labor - Weblearn
General Purpose Computation on Graphics Processing Unit RST Labor Ausarbeitung zum Vortrag vom 18.12.2007 Thema: General Purpose Computation on Graphics Processing Unit Mitarbeiter: Sebastian Behnen Matthias Looschen Christoph Menke Betreuer: Prof. Dr. Th. Risse Abgabedatum: 12.04.2008 Überarbeitete Version Seite: 1/64 General Purpose Computation on Graphics Processing Unit Inhaltsverzeichnis 1 Die GPU für grafische Zwecke...............................................................5 1.1 Schritt 1: Transformation...............................................................6 1.2 Schritt 2: Lighting.........................................................................6 1.3 Schritt 3: Viewpoint......................................................................6 1.4 Schritt 4: Clipping.........................................................................6 1.5 Schritt 5: Triangle Setup................................................................7 1.6 Schritt 6: Rasterization..................................................................7 1.7 Schritt 7: Culling..........................................................................7 1.8 Schritt 8: Texture & Shading...........................................................7 2 Prozessoren.......................................................................................8 2.1 Der Vertex-Prozessor.....................................................................8 2.2 Der Fragment-Prozessor................................................................9 2.3 Im nicht-grafischen Einsatz...........................................................11 3 Parallelität........................................................................................12 3.1 SIMD.........................................................................................12 3.2 MISD.........................................................................................13 3.3 MIMD........................................................................................13 4 Streams..........................................................................................14 5 Leistung..........................................................................................16 6 Kombination CPU und GPU auf einen Chip.............................................18 7 Der Kernel.......................................................................................19 8 Streams..........................................................................................21 9 Stream Programmierung....................................................................22 9.1 Kommunikation...........................................................................23 9.2 Berechnung................................................................................24 10 Frameworks...................................................................................25 10.1 CUDA......................................................................................25 10.1.1 Funktionsweise...................................................................25 10.1.2 Vorteile..............................................................................26 10.1.3 Einschränkungen.................................................................26 10.1.4 Beispiel: Bitonic Sort............................................................26 10.2 CTM........................................................................................27 10.2.1 Der Befehlsprozessor............................................................28 10.2.2 Paralleles Datenarray............................................................28 10.2.3 Speichercontroller................................................................28 10.3 Einschränkungen........................................................................28 11 Praktischer Teil................................................................................29 11.1 NVIDIAs C for Graphics (CG).......................................................29 11.2 OpenGL Utility Toolkit (GLUT)......................................................29 11.3 RapidMind................................................................................29 11.4 Beispiel Matrix-Reduktion...........................................................30 11.4.1 Umsetzung der Matrix-Reduktion(CPU)...................................31 11.4.2 Umsetzung der Matrix-Reduktion (GPU)..................................31 11.4.3 Ping-Pong...........................................................................32 Seite: 2/64 General Purpose Computation on Graphics Processing Unit 11.4.4 Messungen Matrix-Reduktion.................................................34 11.5 Beispiel Vektor Multiplikation.......................................................35 11.5.1 Umsetzung Multiplikation CPU...............................................35 11.5.2 Umsetzung Multiplikation GPU...............................................36 11.5.3 Messungen Multiplikation......................................................37 11.6 Beispiel Mandelbrot-Menge.........................................................39 11.6.1 Fast Floating Fractal Fun (FFFF)..............................................40 11.7 Umsetzung Mandelbrot CPU in FFFF.............................................41 11.7.1 Umsetzung Mandelbrot GPU in FFFF.......................................41 11.7.2 Darstellung der Mandelbrot-Menge mit FFFF............................44 11.7.3 Benchmark mit FFFF............................................................47 12 Fazit..............................................................................................49 13 Quellen..........................................................................................50 14 Anhang..........................................................................................53 14.1 Bitonic Hauptprogramm (bitonic.cu):............................................53 14.2 Bitonic Kernel (bitonic_kernel.cu)................................................54 14.3 Matrixreduktion.........................................................................55 14.4 Multiplikation mit RapidMind.......................................................63 Seite: 3/64 General Purpose Computation on Graphics Processing Unit Abbildungsverzeichnis Abbildung 1: Pipeline Stufen der Grafikpipeline...........................................5 Abbildung 2: transformierte Vertex-Daten [3].............................................6 Abbildung 3: Vertex-Rohdaten.................................................................6 Abbildung 4: Triangle Setup.....................................................................7 Abbildung 5: Rasterization.......................................................................7 Abbildung 6: Culling...............................................................................7 Abbildung 7: Vertex-Prozessor..................................................................8 Abbildung 8: Fragment Prozessor..............................................................9 Abbildung 9: nicht grafischer Einsatz.......................................................11 Abbildung 10: SIMD..............................................................................12 Abbildung 11: MISD..............................................................................13 Abbildung 12: MIMD.............................................................................13 Abbildung 13: Streams..........................................................................14 Abbildung 14: Leistung einer GeForce 8800 (Nutzung von CUDA) vs. 2.66 GHz Conroe ...............................................................................................16 Abbildung 15: GFLOPS Vergleich.............................................................17 Abbildung 16: AMD Fusion.....................................................................18 Abbildung 17: Beispiel Berechnung gesamtes Kontenkapital........................22 Abbildung 18: Grafikpipeline einer GPU....................................................23 Abbildung 19: Virtuelle Maschine CTM [26]...............................................27 Abbildung 20: Matrix-Reduktion..............................................................30 Abbildung 21: Messergebnisse Multiplikation.............................................38 Abbildung 22: Mandelbrot-Menge [32].....................................................39 Abbildung 23: Die Mandelbrot-Menge im Urzustand...................................44 Abbildung 24: Spalte zwischen Kopf und Körper........................................44 Abbildung 25: Zoom auf ein Seepferdchen................................................44 Abbildung 26: Tieferer Zoom auf ein Seepferdchen....................................44 Abbildung 27: Darstellung mit 40 Iterationen............................................45 Abbildung 28: Darstellung mit 50 Iterationen............................................45 Abbildung 29: Darstellung mit 70 Iterationen............................................45 Abbildung 30: Darstellung mit 256 Iterationen..........................................45 Abbildung 31: Berechnung mit der CPU....................................................46 Abbildung 32: Berechnung mit der GPU...................................................46 Abbildung 33: Tieferer Zoom; CPU-Berechnung.........................................46 Abbildung 34: Identisches Bild; GPU-Berechnung......................................46 Seite: 4/64 General Purpose Computation on Graphics Processing Unit 1 Die GPU für grafische Zwecke Die GPU kann als Pipeline verstanden werden, durch die die Daten „hindurchfließen“. In dieser Pipeline werden verschiedene komplexe grafische Berechnungen durchgeführt. Ziel ist es 3D-Rohdaten, die im VRAM bereit liegen, in ein zweidimensionales Bild zu konvertieren, um dieses auf dem Monitor anzeigen zu können. Im Folgenden wird in acht Schritten ein Weg durch diese Pipeline erläutert [1]. Dieser Weg ist nicht der einzig mögliche und gilt für Grafikberechnungen. Abbildung 1: Pipeline Stufen der Grafikpipeline Seite: 5/64 General Purpose Computation on Graphics Processing Unit 1.1 Schritt 1: Transformation Die Rohdaten liegen als Vertex-Daten vor. Ein Vertex ist ein Punkt im dreidimensionalen Raum der, mit weiteren Vertices verbunden, Polygone bildet. Während der Transformation werden alle Punkte im zukünftig anzuzeigenden 2D-Raum angeordnet, skaliert und relativ zueinander korrekt positioniert. An dieser Stelle kann ein Vertex-Shader(siehe Kapitel 7) genutzt werden um beispielsweise Objekte zu verzerren. Die Transformation überführt also 3DDaten in 2D-Daten. Abbildung 3: VertexRohdaten 1.2 Abbildung 2: transformierte VertexDaten [3] Schritt 2: Lighting Alle Objekte werden korrekt beleuchtet. Hierbei werden die Position der Lichtquellen und ggf. reflektierende Oberflächen berücksichtigt. Die Daten liegen immer noch in Vertices vor und sind somit nicht mehr als eine Menge an Punkten mit verschieden Farbabstufungen. 1.3 Schritt 3: Viewpoint Die Objekte werden dann in Bezug auf den Betrachtungswinkel ausgerichtet. Objekte, die näher am „Beobachter“ liegen, werden demnach größer dargestellt als jene, die weiter entfernt sind. 1.4 Schritt 4: Clipping Objekte, die nicht sichtbar wären, weil sie außerhalb des Darstellungsbereichs liegen (z.B. hinter dem Beobachter), werden entfernt. Dies erspart der GPU wertvolle Berechnungszeit. Seite: 6/64 General Purpose Computation on Graphics Processing Unit 1.5 Schritt 5: Triangle Setup An diesem Punkt werden alle Vertices zusammengesetzt, um Dreiecke (Triangle) oder Vielecke (Polygon) zu erzeugen. Abbildung 4: Triangle Setup 1.6 Schritt 6: Rasterization Während der Rastarisierung werden die Flächen, die durch die zusammengeführten Vertex-Daten beschrieben werden, mit Pixeln gefüllt. Ob ein Pixel gefüllt wird, hängt davon ab, ob der Mittelpunkt des Pixels innerhalb der beschriebenen Fläche liegt. [3][8] Abbildung 5: Rasterization 1.7 Schritt 7: Culling Das Culling setzt da an, wo das Clipping(siehe Kapitel 1.4) aufhört. In diesem Schritt werden alle Objekte entfernt, die nicht sichtbar sind, weil sie von anderen Objekten verdeckt werden. Dies kann die, vom Beobachter abgewandte Rückseite eines Objektes sein aber auch ein durch andere Objekte verdecktes Objekt. Abbildung 6: Culling 1.8 Schritt 8: Texture & Shading An diesem Punkt sind alle Pixel in der 2D-Fläche verblieben, die das spätere Bild ausmachen. Ein Pixel Shader kann an dieser Stelle dafür genutzt werden, um den einzelnen Pixeln Effekte (Spiegelungen, Transparenz, ...) zu geben. Die erstellten 2D-Flächen werden nun in den Frame-Buffer gelegt, um dann angezeigt zu werden. Seite: 7/64 General Purpose Computation on Graphics Processing Unit 2 Prozessoren Im Jahr 2000 wurden erste 3D-Grafikkarten mit zwei frei programmierbaren Prozessortypen veröffentlicht[35], die beide auf die Verarbeitung von Vektoren mit vier Komponenten spezialisiert sind. Dies sind zum Einen die VertexProzessoren und zum Anderen die Fragment-Prozessoren. 2.1 Der Vertex-Prozessor Der Vertex-Prozessor hat zwei Berechnungseinheiten. Dies sind die Skalar-Einheit und die Vektor-Einheit. Der VertexProzessor kann also pro Takt zwei Berechnungen durchführen. Dies sind eine MAD (multiply & add) auf einen Vektor mit drei Elementen (Vector3) und eine Funktion auf einen Skalar. Diese Funktion kann ein Kosinus, Sinus oder ähnliches sein(siehe Tabelle auf S.11). Der VertexProzessor erlaubt es, auf jede ankommende Komponente Berechnungen mit fp32 (32 Bit Abbildung 7: Vertex-Prozessor floating point) Genauigkeit durchzuführen. Möglich sind Zugriffe auf den Texture-Cache, welcher mit dem Fragment-Prozessor geteilt wird. Beim schreibenden Zugriff, Scatter genannt, hat der Vertex-Prozessor wahlfreien Zugriff, kann die Speicheradresse also selbst bestimmen. Liest der Vertex-Prozessor jedoch aus dem Texture-Buffer, Gather genannt, so hat er nur dann wahlfreien Zugriff, wenn die Grafikkarte bereits den Vertex-Shader 3.0 implementiert.[5][21] Seite: 8/64 General Purpose Computation on Graphics Processing Unit 2.2 Der Fragment-Prozessor Auf aktuellen Grafikkarten (z.B. GeForce 6er Reihe) sind pro Pixel-Pipeline zwei fp32 (32 Bit floating point) Shadereinheiten vorhanden. Der im Bild zu sehende Texture-Prozessor ist lediglich zum Laden der Texturen da und bietet dem „General Purpose“ - Zweck keinen Vorteil. Der BranchProzessor ist in der Lage, den Befehlszeiger zu ändern und implementiert so Schleifen und Verzweigungen. Die Shader Unit 1 ist nicht in der Lage, eine ADD-Operation auszuführen, bietet aber ein MUL. Das einfache ADD, sowie ein Abbildung 8: Fragment Prozessor weiteres MUL werden von Shader Unit 2 bereitgestellt. Die schon beim Vertex-Prozessor erwähnten Funktionen wie cos und sin werden zwischen beiden Shader Units aufgeteilt, da die Shader Unit 1 nicht alle Funktionen berechnen kann. Beide Shadereinheiten ergänzen sich also zu einer Allzweckeinheit. Seite: 9/64 General Purpose Computation on Graphics Processing Unit Name genutzte Unit Takte Operation RCP 1 1 1/x RSQ 1 2 1/sqrt(x) In diesem Schritt kann „kostenlos“ ein weiteres RCP ausgeführt werden, sodass sqrt(x) ebenfalls nur 2 Takte benötigt. LOG 2 1 log2(x) EXP 2 1 2x SINCOS 2 2 (3) Sin() und Cos() für eine bzw. zwei Komponenten des Vier-KomponentenVektors Die Division (DIV) wird nach Pixel Shader 2.0 noch nicht unterstützt und muss durch Kombination von RCP und MUL „per Hand“ hergestellt werden. 5/3 würde also in Form von 1/3 * 5 berechnet werden. [2][5][21] Es ist bekannt, dass NVIDIA für die in der Tabelle genannten „Spezialunktionen“ dedizierte Hardware verbaut. Ob und welche weiteren Spezialfunktionen ebenfalls „in Hardware gegossen“ sind, ist nicht bekannt. Seite: 10/64 General Purpose Computation on Graphics Processing Unit 2.3 Im nicht-grafischen Einsatz Wenn eine GPU für nicht-grafische Aufgaben, also im „General purpose“Sinn eingesetzt wird, kann sie als Aneinanderreihung zweier programmierbarer Blöcke (Abb. 12 Programmable MIMD und Programmable SIMD) gesehen werden, die seriell arbeiten. Dies sind der Vertex- und der Fragment-Prozessor. Beide nutzen die Texture-Unit, um auf Daten zugreifen zu können (random access).[5] Abbildung 9: nicht grafischer Einsatz Der Vertex-Prozessor gibt seine Daten, nachdem er mit ihnen gearbeitet hat, entweder direkt an den FragmentProzessor weiter, oder die Daten werden durch den Rasterizer geleitet, um sie in interpolierte Werte aufzufächern. Culling und andere Tests, die die Komplexität der Berechnungen für den Garfik-Einsatz mindern sollen, durchzuführen macht wenig Sinn, da im „General Purpose“-Einsatz Daten in die GPU gegeben werden, um Berechnungen durchzuführen und nicht um Bilder zu erstellen, auf denen Objekte durch andere verdeckt werden können. Nachdem der Fragment-Prozessor seine Berechnungen durchgeführt hat, können die Daten an eine, vom Vertex-Prozessor bestimmte Adresse im Speicher geschrieben werden (predicated write). Die dort abgelegten Daten können nun, wenn es sich nicht um fertige Ergebnisse handelt, wieder als Eingabestrom für den Fragment-Prozessor dienen. Seite: 11/64 General Purpose Computation on Graphics Processing Unit 3 Parallelität Im Folgenden werden einige Konzepte zur Parallelisierung aufgegriffen. Hierbei wird Augenmerk auf die Verfahren gelegt, die beim GPGPU Anwendung finden. Dies sind SIMD im Fragment-Prozessor, MIMD im Vertex-Prozessor und MISD im Rasterizer. Hauptsächlich wird der Fragment-Prozessor genutzt, weshalb hier auf SIMD besonders eingegangen wird. 3.1 SIMD „Single Instruction, Multiple Data“ kommt im Fragment-Prozessor zum Einsatz. Hier führen alle Fragment-Prozessoren gleichzeitig die gleiche Operation auf verschiedene ankommende Daten aus. Eine Applikation, bzw. ein Shader-Programm, kann diese Technik als Vorteil nutzen, wenn die ankommenden Daten voneinander unabhängig sind. Dies ist zum Beispiel der Fall, wenn Farbwerte von Pixeln verändert werden. Eine Menge von Pixeln dient als Eingabewert und ein Shader-Programm muss nicht mehr tun, als den Rot-, Blau, oder GrünWert zu inkrementieren oder zu dekrementieren. Abbildung 10: SIMD Dies hat zwei Vorteile: Zum Einen nimmt der Fragment-Prozessor die Daten in Blöcken an. Es werden also immer mehrere Daten zur Zeit geladen, statt ein Datum nach dem anderen zu laden. Zum Anderen führen die Fragment-Prozessoren die Operation auf allen Daten gleichzeitig aus. Auf aktuellen Grafikkarten finden sich bis zu 128 FragmentProzessoren. Die Nachteile treffen prinzipiell alle drei hier vorgestellten Konzepte. Nicht alle Algorithmen sind für die Vektorisierung geeignet. Auch ist es unter Umständen sehr schwer, die Eingangsdaten so zu erstellen, dass sie für den SIMDProzessor brauchbar sind. Ein Nachteil, der nur SIMD trifft, ist dass eben nur ein Befehl zur Zeit ausgeführt werden kann und nicht mehrere, wie bei anderen Konzepten.[10] Seite: 12/64 General Purpose Computation on Graphics Processing Unit 3.2 MISD „Multiple Instruction, Single Data“ ist eine weitere Art der parallelen Verarbeitung, bei der viele funktionale Einheiten verschiedene Befehle auf ein und den selben Datum ausführen. Ein Einsatz dieser Technik könnte man sich in der Fehlererkennung vorstellen. Eine Berechnung wird von unabhängigen Einheiten parallel auf gleichen Daten ausgeführt, um Fehler zu erkennen. Da MISD im Vergleich zu SIMD und MIMD schlecht skalierbar ist, wird es recht selten verwendet.[12] Abbildung 11: MISD 3.3 MIMD „Multiple Instruction, Multiple Data“ ist eine Art der parallelen Verarbeitung, bei der viele funktionale Einheiten verschiedene Operationen auf unterschiedlichen Daten ausführen. Dies ist möglich, da die Prozessoren vollständig asynchron und unabhängig voneinander arbeiten.[11] Abbildung 12: MIMD Seite: 13/64 General Purpose Computation on Graphics Processing Unit 4 Streams Die GPU ist im Gegensatz zu einer CPU als Stream- und nicht als serieller Prozessor konzipiert. Im Gegensatz zu seriellen Prozessoren kann ein Streamprozessor einzelne skalare Rechenoperationen an einem Datenstrom ausführen. Die Daten liegen also in Form von Streams vor, was im Grunde nichts anderes ist, als ein Array gleicher Datentypen. Auf diesen Stream wird eine Folge von Operationen ausgeführt. Innerhalb der GPU unterscheidet man vier verschiedene Streams, die im Folgenden erklärt werden.[9][22] Dies sind Vertex-Stream, Fragment-Stream, Texture-Stream und Frame-Buffer-Stream. Abbildung 13: Streams Der Vertex-Stream beinhaltet Vertices. Ein Vertex ist ein Eckpunkt eines Polygons oder eines Dreiecks und enthält neben der Position als 3D-Vektor meist noch weitere Daten wie Transparenz oder Farbe. Für den „General Purpose“-Zweck können in den Vertices beliebige Daten gespeichert werden, die so in den Vertex-Prozessor geleitet werden. Der Fragment-Stream versorgt den Fragment-Prozessor mit Daten und ist damit der einzige Stream, der nicht auf einen Puffer (lesend oder schreibend) zugreift. Neben dem FragmentStream bezieht der Fragment-Prozessor seine Daten aber hauptsächlich vom Texture-Stream. Seite: 14/64 General Purpose Computation on Graphics Processing Unit In diesen kann der Fragment-Prozessor schreiben (predicated write) und wahlfrei lesen. Dies ist ein Vorteil des Fragment-Prozessors, da er so seine eigene Ausgabe direkt wieder als Eingabe verwenden kann. Also ist der Fragment Prozessor prädestiniert dafür, Iteration der Form x . k q= f x k (parallel) durchzuführen(z.B. Newton oder Power-Method zur Berechnung von Matrizen Eigenwert oder Eigenvektor). Dieser Vorteil wird zwar ab VertexShader 3.0 (aktuell werden Grafikkarten mit Shader Version 4.0 ausgeliefert) relativiert, da der Vertex-Prozessor ebenfalls aus dem Texture-Stream lesen kann, der Fragment-Prozessor wird aber aufgrund der größeren Anzahl der verbauten Recheneinheiten für GPGPU-Aufgaben dennoch häufiger verwendet. Zudem kann der Fragment-Prozessor direkt in den Texture-Stream schreiben (Adresse durch Vertex-Prozessor vorher bestimmt), der Vertex-Prozessor hingegen muss seine Ausgabedaten erst durch den Rasterizer und den Fragment-Prozessor leiten, um in den Texture-Stream zu schreiben. Dies hat zur Folge, dass der Fragment-Prozessor für Berechnungen gesperrt ist, während er Daten des Vertex-Prozessors weiterleitet. Die CPU hat lesenden und schreibenden Zugriff auf alle Streams innerhalb der GPU mit Ausnahme des Fragment-Streams. Dieser wird ausschließlich innerhalb der GPU verwendet und ist für den Programmierer nicht sichtbar/beeinflussbar. Auch wenn die CPU direkt auf alle Streams zugreifen kann, ist es sinnvoll Daten direkt in den Texture-Buffer zu schreiben, damit diese Daten sofort als Eingabedaten für den Fragment-Prozessor zur Verfügung stehen. Seite: 15/64 General Purpose Computation on Graphics Processing Unit 5 Leistung Grafikkarten sind aufgrund der vielen parallelen Prozessoren sehr leistungsfähig. Den Vorteil der vielen Prozessoren kann eine Grafikkarte natürlich nur dann ausspielen, wenn ein Problem sich parallelisieren lässt. Zusätzlich dazu ist es vorteilhaft, wenn die Berechnungen im Verhältnis zu den Speicherzugriffen überwiegen. Offensichtlich sind gerade im Finanzbereich die Daten unabhängig voneinander und die Komplexität der Berechnungen hoch. Laut Beyond3D.com profitieren Berechnungen im Finanzbereich massiv von der schnellen Berechnung der Spezialfunktionen. Andy Keane, Leiter der GPUCoputig Sparte bei NVIDIA, sieht den größten Nutzen der GPU-Nutzung im Bereich der Risikoanalyse [36]. Der in Abbildung 14 zu sehende Vergleich stammt aus einem Marketingdiagramm, welches NVIDIA auf dem G80 Editors Day vorgestellt hat und bezieht sich auf die Leistung einer GeForce 8800 gegenüber eines Intel Conroe mit 2.66 GHz [4]. Abbildung 14: Leistung einer GeForce 8800 (Nutzung von CUDA) vs. 2.66 GHz Conroe Seite: 16/64 General Purpose Computation on Graphics Processing Unit Im Vergleich in Abbildung 15 zu sehen sind jeweils die Top-Modelle der GeForce Serien FX [15], 6 [16], 7 [17] und 8 [18], sowie die GeForce 6600 [16], die unser Testobjekt war. Als Vergleichswert dient der aktuell teuerste [20] Intel Prozessor „Core 2 Extreme QX6850“. NVIDIA hat bereits die GeForce 9 [19] angekündigt und prophezeit, dass die Karte ein „Terraflop-Beast“ sein wird. Abbildung 15: GFLOPS Vergleich Die angegebene Rechenleistung (GFLOPS [14]) der Grafikkarten über die Streamprozessoren bezieht sich auf die Nutzung beider MUL-Operationen, die bei Grafikshaderberechnungen nicht erreicht wird, da weitere Berechnungen ausgeführt werden müssen. Bei diesen Berechnungen ist die Rechenleistung der Stream-Prozessoren daher geringer. Alle hier angegebenen Werte sind theoretische Maximalwerte und stammen aus Herstellerangaben. Wie viel Leistung effektiv zur Verfügung steht, kann nur durch Benchmarks geklärt werden. Leider sind GPGPU-Benchmarks bisher nicht interessant genug, sodass es keine breite Auswahl und entsprechenden Funktionsumfang wie im CPUBenchmarking gibt. In Punkt 11.5.5 wird beispielhaft ein Benchmark-Ergebnis des Programms FFFF gezeigt. Bei Betrachtung des Leistungsvergleichs in Grafik 15 muss beachtet werden, dass es sich hier um theoretische Werte handelt, die generell (weder von Grafikkarte, noch von Prozessor) erreicht werden. Zudem sind Grafikkarten grade für einen hohen Datendurchsatz optimiert und bieten im Vergleich zu einer CPU radikal wenig Funktionalität. Der große Geschwindigkeitsunterschied darf also nicht zu der Frage führen, warum noch CPUs eingesetzt werden. Eine GPU kann eine CPU nicht ersetzen und ist lediglich in der Lage einen Bruchteil von CPU-Aufgaben zu erledigen. Seite: 17/64 General Purpose Computation on Graphics Processing Unit 6 Kombination CPU und GPU auf einen Chip Eine Kombination von CPU- und GPU-Kernen könnte, laut ATI-Chef Dave Orton, den Preis eines PCs von 400 Dollar auf etwa 200-300 Dollar reduzieren. Zudem könnte in Zukunft damit auch die Leistung gesteigert werden, da die GPU auch allgemeine Aufgaben der CPU übernehmen und aufgrund ihrer besonderen Struktur beschleunigen kann. AMD möchte dies zusammen mit seiner neuen Tochter ATI unter dem "Fusion" Konzept erreichen. Ein erster solcher Kombi-Prozessor mit einem x86-/x64-Kern und einer GPU, die beide den Arbeitsspeicher gemeinsam nutzen, Abbildung 16: AMD Fusion könnte bereits dieses Jahr erscheinen. Klar ist aber auch, dass die Leistungsfähigkeit des PC-Hauptspeichers vor allem das Performance-Potenzial der GPU limitieren wird: Während es die neuesten diskreten Grafikchips mit 384-Bit-Interface und GDDR3-RAM auf Datentransferraten von über 86 GByte/s bringen, ist von zwei DDR3Speicherkanälen (DDR3-1333/PC3-10600) gerade mal ein Viertel davon zu erwarten. Für Highend-Grafik will AMD deshalb auch weiterhin diskrete GPUs, d.h. wie gehabt eigenständige Grafikkarten, entwickeln. Auch PC-Chipsätze mit integrierter Grafik wird es weiterhin geben. So soll das Fusion Konzept nicht die herkömmliche Grafikkarte ersetzen, sondern die GPU und ihre Vorteile, unter anderem beim Energieverbrauch und bei parallelen Aufgaben, abseits des gewohnten Grafiksektors nutzen . Die CPU-GPU-Fusion zielt sicherlich zunächst eher auf die kleineren Geräte ab. Intel und AMD haben bereits beide im Verlaufe des Jahres ihre StromsparArchitektursparten (Alchemy/MIPS beziehungsweise XScale/ARM) abgestoßen und AMD baut auf den geringeren Stromverbrauch der GPU Prozessoren im mobilen Markt. So soll die Technik so sparsam gemacht werden, dass sie auch für Handys und PDAs einsetzbar ist.[27][40] Seite: 18/64 General Purpose Computation on Graphics Processing Unit 7 Der Kernel Viele Jahre lang waren die Kernel auf der Grafik-Hardware fest als Funktionseinheit implementiert und boten keine Möglichkeit, sich von außen programmieren zu lassen. Seit 2000 erlauben die GPUS jedoch den Entwicklern, individuelle Kernel für die Grafik Pipeline zu programmieren. Heutzutage bieten die GPUs hochperformante und parallel arbeitende Prozessoren, welche zwei Kernels zur Verfügung stellen: ● ● Ein Vertex Kernel, welcher das Programm auf jedem der Verticies ausführt, das die Pipeline passiert Ein Fragment Kernel, welcher es dem Benutzer erlaubt, ein Programm auf jedem Fragment auszuführen. Ein Kernel arbeitet auf kompletten Datenströmen. Er bekommt einen oder mehrere Eingangsströme und kann auch einen oder mehrere Ausgabeströme haben. Der typische Einsatz eines Kernels ist das Ausführen einer Funktion auf jedes Element eines Datenstroms. Ein Kerlen kann den Datenstrom auf verschiedene Arten manipulieren: ● Erweiterungen des Datenstroms Das bedeutet, dass für jedes Eingabedatum mehr als ein Ausgabedatum generiert wird ● Reduzierungen Das bedeutet, dass mehr als ein Eingabedatum zu einem einzigen Ausgabedatum zusammengefasst wird ● Filter Das bedeutet, dass eine Untermenge der Eingabeelemente in einen Ausgabestrom zusammengefasst werden Seite: 19/64 General Purpose Computation on Graphics Processing Unit Die Kernel Ausgaben hängen nur von den Eingaben ab und innerhalb der Kernel Ausführung darf ein Element niemals von einem anderem Element abhängen. Diese Einschränkungen haben zwei große Vorteile. ● Dass die Daten, die für die Ausführung des Kernels benutzt werden vollkommen bekannt sind, wenn der Kernel geschrieben (oder kompiliert) wird. Die resultiert daraus, dass die Daten unabhängig voneinander sind und sich so während der Ausführungszeit nicht aufgrund von fremden Daten ändern können. In einem Programm, in dem diese Voraussetzung nicht gegeben ist, kann sich ein Datum während der Ausführung zum Beispiel durch Multiplikation mit einem anderen beliebigen Datum unvorhergesehen ändern. ● Durch die Unabhängigkeit der einzelnen Daten in einem Kernel wird die Datenparallelität erst ermöglicht, da sich die Daten nicht gegenseitig manipulieren können und kein Datum auf die Berechnung eines anderen Datums warten muss. Auf das Prinzip der Datenparallelität wird in Kapitel 9 auch Anhand von Beispielen eingehender eingegangen.[23] Seite: 20/64 General Purpose Computation on Graphics Processing Unit 8 Streams Ein Stream ist eine Sammlung von Daten des selben Typs, auf welche der Kernel (siehe Kapitel 7) angewendet werden kann. In der GPGPU Programmierung werden ausschließlich die Vertex- und Fragment-Daten als Ein- und Ausgabe Stream benutzt. Erlaubten Operationen auf einem Stream sind: ● kopieren eines Streams ● aufteilen eines Streams in mehrere Substreams ● indizieren eines Streams mit Hilfe eines Index-Streams ● durchführen von Berechnungen auf einen Stream mit Hilfe von Kerneln Ein Stream ist am besten vergleichbar mit einem Array bei der gewöhnlichen Programmierung, der die genannten Anforderungen erfüllen muss. [23] Seite: 21/64 General Purpose Computation on Graphics Processing Unit 9 Stream Programmierung Graphic Processing Units ermöglichen z.B. Eingaben nicht nur als Streams sondern können auch zusätzlich aus Texturen lesen. Durch die recht starken Einschränkungen bezüglich der zulässigen Berechnungen (Kernel) und Datenstrukturen (Streams) ist es schwer, zur Compilezeit nicht bekannte und organisierbare Berechnungen mit Hilfe des Stream Processing Paradigmas auszudrücken. Berechnungen, die nicht an den Einschränkungen scheitern, bieten allerdings ein hohes Optimierungspotential. Als konkrektes Beispiel sei die Änderung eines Zinssatzes bei einer Bank genannt. In diesem Fall müssten auf alle Konten Berechnungen durchgeführt werden um den neuen Zinsbetrag, also den konkreten Geldbetrag der sich aus der Höhe des Kapitals und der Verzinsung ergibt, zu berechnen. Hier wäre das Stream Processing Paradigma besonders effektiv, da die Geldbeträge der Konten nicht voneinander abhängen und auf jedes Konto parallel die gleiche Berechnung durchgeführt werden könnte. Abbildung 17: Beispiel Berechnung gesamtes Kontenkapital Wäre nun ein anderes mathematisches Vorgehen vorgesehen, wie zum Beispiel die Bestimmung des gesamten Kontenkapitals der Bank, wäre das Stream Processing Paradigma nur noch eingeschränkt nützlich. Da hier jeweils der Betrag von Konten zusammenrechnet werden muss, hängen die Daten voneinander ab. Wie man in Abbildung 17 sehr gut sehen kann, müssen hier, auch wenn man Arbeiten parallel durchführen kann, mehrere Male auf Daten gewartet werden. Zum Beispiel muss, um die Berechnung von Ergebnis 5 durchzuführen, auf die Ergebnisse der Berechnungen von Ergebnis 1 und Ergebnis 2 gewartet werden. Dieses einfache Beispiel zeigt bereits, dass die Stärken des Stream Processing Paradigmas bei nicht vorhandener oder eingeschränkter Datenunabhängikeit nicht ausgespielt werden können. Seite: 22/64 General Purpose Computation on Graphics Processing Unit 9.1 Kommunikation Bei der Kommunikation wird grundsätzlich zwischen zwei Arten unterschieden: ● ● Die off-chip-Kommunikation bezeichnet die Kommunikation zwischen dem Prozessor und einem externen Partner(z.B. RAM-Speicher). Die on-chip-Kommunikation dagegen ist die Kommunikation innerhalb eines Prozessors. Ein großer Vorteil der Stream Programmierung ist, dass in der Regel viele Daten auf einen Kernel angewandt werden und die Kosten der Übertragung dieser Datenmenge im Vergleich zur Initialisierung der Speicherbewegung zwischen dem externem Speicher und der GPU geringer sind. Da die Zugriffszeit effektiv nur bei der Initialisierung der Speicherbewegung ins Gewicht fällt, ist die Bandbreite bei der Übertragung eines Streams am bedeutendsten. Bei Anwendungen, die nicht nicht nach dem Stream Processing Paradigma arbeiten, ist es häufig so, dass berechnete Daten nicht direkt im Anschluss weiter verwendet werden. Das bedeutet, dass diese Daten für spätere Berechnungen zumindest in den Cache geschrieben werden müssen. Bei der Stream Programmierung ist es hingegen so, dass man in der Regel den Ausgabestrom eines Kernels direkt als Eingabestrom für den nächsten Kernel nutzt. So ist es nicht nötig, Daten in den Cache zu schreiben und man kann die volle Bandbreite zwischen den einzelnen Kerneln nutzen. In Abbildung 18 sieht man sehr gut das Prinzip des Stream Processing Paradigmas, da hier die Ausgabeströme direkt wieder als Eingabeströme genutzt werden. Dies ist zwar, was man am Vorhandensein der Rasterization Einheit sehen kann, nicht GPGPU, das Prinzip ist aber das gleiche. Abbildung 18: Grafikpipeline einer GPU Ein weiterer Vorteil ist das Unterbrechen und Zwischenspeichern von Elementen. Dies kann unter der Voraussetzung geschehen, dass Cacheverfahren eingesetzt werden. Wenn dies der Fall ist, können Berechnungen angehalten werden, wenn noch nicht alle benötigten Daten vorhanden sind. Bis die benötigten Daten dann zur Verfügung stehen, können andere Elemente berechnet werden. Seite: 23/64 General Purpose Computation on Graphics Processing Unit 9.2 Berechnung Auch im Bereich der Berechnungen bietet die Stream Programmierung einige Vorteile. Diese ergeben sich durch die starken Einschränkungen, die auf die Form und die Operationen der Daten und Streams angewandt werden. Eine Einschränkung des Kernels ist, dass Berechnungen, welche auf ein Element des Streams durchgeführt werden, von anderen Elementberechnungen im Stream unabhängig sein müssen. Diese Beschränkung hat zur Folge, dass in der Theorie jedes einzelne Element eines Streams gleichzeitig bearbeitet werden könnte. In der Praxis wird die Anzahl der gleichzeitig ausführbaren Berechnungen durch die Anzahl der Recheneinheiten beschränkt. Somit ergibt sich eine lineare Beschleunigung mit einem Ansteigen der Anzahl der Recheneinheiten. Dadurch, dass Daten per Definition unabhängig sein müssen, ist es möglich mehrere Kernel parallel auszuführen. Da Ausgaben eines Kernels in der Regel wieder als Eingaben genutzt werden, kann der zweite Kernel sofort mit der Berechnung beginnen, sobald die ersten Daten vom erstem Kernel geliefert werden. Diese Taskparallelität (paralleles Ausführen der Kernel) ist am effizientesten, wenn jeder Kernel dedizierte Hardware zur Verfügung hat. Kernel bieten häufig auch die Möglichkeit, einzelne Befehle innerhalb des Kernels parallel auszuführen. Die Fähigkeit von Kerneln mehrere Eingabestreams zu nutzen, ist eine gute Möglichkeit, die Vorteile paralleler Befehle auszunutzen. Dies wird dadurch möglich, dass unterschiedliche Berechnungen gleichzeitig auf verschiedenen Streams durchgeführt werden können. [23] Seite: 24/64 General Purpose Computation on Graphics Processing Unit 10 Frameworks Im laufe der Arbeiten zum Praktischen Teil dieser Ausarbeitung wurden eine Vielzahl von Frameworks getestet und untersucht. Frameworks machen die Entwicklung von GPGPU-Programmen einfacher und übernehmen beispielsweise das Initialisieren der GPU (Ausschalten der Rasterizer, u.ä.) und das Verteilen der Last auf die Shadereinheiten. Im Folgenden sollen die Frameworks vorgestellt werden, die zur Zeit von den beiden großen Grafikkartenherstellern NVIDIA und ATI (AMD) entwickelt werden. Beide konnten von uns nicht getestet werden, da für das NVIDIA Framework CUDA keine Hardware zur Verfügung stand und von ATI noch keine Implementierung von „Close to metal“ in einer Hochsprache veröffentlicht wurde (davon abgesehen fehlte auch hier die Hardware). 10.1 CUDA Compute Unified Device Architecture (CUDA) ist ein von NVIDIA entwickelte API, welche auf der C Syntax basiert. CUDA unterstützt nur die GPUs der neuen GeForce 8 Serie. NVIDIA garantiert, dass Programme, welche für die GeForce 8 Serie entwickelt wurden, auch auf kommenden Grafikkarten ohne Modifikationen lauffähig bleiben. Das CUDA SDK wurde erstmalig am 15. Februar 2007 veröffentlicht. 10.1.1 Funktionsweise CUDA ist darauf ausgelegt, die GPU als Coprozessor zur Berechnung allgemeiner datenparalleler Probleme zu nutzen. Um mit CUDA die GPU zu nutzen, können entweder die mitgelieferten CUDA Libraries, welche zum Beispiel Funktionen für die schnelle Fourier Transformation[35] zur Verfügung stellen, genutzt oder selbst Programme für CUDA geschrieben werden. Diese Programme können sowohl normalen CPU/C++ Code sowie auch GPU/C Code enthalten. Übersetzt werden sie mit dem von NVIDIA entwickelten NVCC Compiler Driver[36] welcher den CPU- vom GPU Quelltext trennt. Der CPU Teil wird dann mit einem vorhandenem C++ Compiler übersetzt, während der GPU-Code an einen auf dem Open-Source Open64[37] basierenden Compiler weitergegeben wird, welcher einen PTX-Code(„Parallel Thread eXecution“) erzeugt. Dieser Code wird erst bei der Installation auf dem Zielrechner vom CUDATreiber in den angepassten Code für die jeweilige GPU übersetzt. Dadurch ist gewährleistet, dass einmal geschriebene Programme auch auf kommenden GPUs ohne Modifikationen lauffähig sind. Seite: 25/64 General Purpose Computation on Graphics Processing Unit 10.1.2 Vorteile Da schon bei der Entwicklung der Fokus auf die Nutzung der GPU als Coprozessor gelegt wurde, ist CUDA für general purposes weitaus besser geeignet als Grafik-APIs (DirectX, OpenGl). Mit der „Scattered writes“ Methode können mit CUDA zudem beliebige Adressen im Speicher beschrieben werden. Über ein „shared memory“ bietet CUDA auch einen schnellen geteilten Speicher über den max. 16 kB Daten zwischen Threads ausgetauscht werden können. CUDA bietet volle Unterstützung für Integer- und bitweise Operationen. 10.1.3 Einschränkungen Die GPUs von NVIDIA bieten nur eine 32-Bit Unterstützung und haben daher nur die Möglichkeit single precision Zahlen zu unterstützen. Bald sollen jedoch NVIDIA GPUs kommen, die 64-Bit, und damit double precision Zahlen, unterstützen. Eine gravierende Einschränkung sind die Abweichungen vom IEEE 754 Standard[42]. So werden keine denormalisierten Zahlen1 und auch nicht das NaN Symbol unterstützt. Zudem sind nur zwei Methoden zum Runden von Zahlen unterstützt (abschneiden und zur-nächsten-Runden), zum Beispiel binäres Runden ist nicht implementiert. Die Genauigkeit von Divisionen/Quadraten von Wurzeln ist auch deutlich geringer als in der single precision. 10.1.4 Beispiel: Bitonic Sort Im Anhang befindet sich ein Beispiel für eine Umsetzung des Sortierverfahrens Bitonic Sort[39] für GPGPU unter CUDA, welches grob aufzeigen soll wie man sich einen Programmaufbau unter CUDA vorstellen kann. [25][39][40][41] Dieser Quellcode wurde von uns, aufgrund fehlender Hardware (siehe 10.1) weder getestet noch ausgeführt. 1 Denormals oder subnormals wird der Zahlenbereich zwischen der kleinsten darstellbaren floating point Zahl und der 0 genannt. Seite: 26/64 General Purpose Computation on Graphics Processing Unit 10.2 CTM Close to Metal (CTM) ist eine von ATI entwickelte virtuelle Maschine, mit der man auf die tief liegende GPU-Hardware zugreifen kann. Die Virtuelle Maschine verdeckt alle für general purposes irrelevanten Komponenten und stellt ein paralleles Datenarray, welches über einen simplen Befehlsprozessor gefüttert wird, und einen einfachen Speichercontroller zur Verfügung stellt. Die Virtuelle Maschine besteht aus drei Hauptkomponenten: ● Befehlsprozessor ● paralleles Datenarray ● Speichercontroller Alle nicht-kritischen GPU-Unterstützungen, welche nicht für GPGPU Programmierung gebraucht werden, werden von der virtuellen Maschine verborgen und verwaltet. Dieses Prinzip macht es der virtuellen Maschine möglich, mehrere verschiedene Versionen mit einem vereinfachten Interface zu unterstützen. Abbildung 19 zeigt den Aufbau der Virtuellen Maschine. Die Abkürzung dpvm steht hier für „data parallel virtuell machine“, welches das von ATI entwickelte Konzept für die Radeon R580er Serie ist. CTM ist die Implementierung dieses Konzeptes. Aus der Abbildung geht hervor, wie die einzelnen Komponenten durch die VM zusammenarbeiten. Abbildung 19: Virtuelle Maschine CTM [26] Seite: 27/64 General Purpose Computation on Graphics Processing Unit 10.2.1 Der Befehlsprozessor Der Befehlsprozessor bekommt von der Applikation Befehle geschickt (wie z.B. das Setzen von Speicherzugriffen oder Programmstarts), indem diese die Befehle in den Befehlspuffer des Speichers schreibt und dann an die Virtuelle Maschine schickt. 10.2.2 Paralleles Datenarray Die Ausführung findet im parallelen Datenarray statt. Die Virtuelle Maschine spezifiziert ein binäres Interface, das den internen Instruktionssatz des Prozessors abbildet. Entwickler können so die GPU über Maschinencode oder durch binäre ausführbare Dateien, welche von einem Compiler erstellt wurden, programmieren. Sobald ein Programm kompiliert wurde, ist es immun gegenüber Treiberänderungen. 10.2.3 Speichercontroller Die Virtuelle Maschine stellt über den Speichercontroller der Anwendung direkt den Grafikspeicher zu Verfügung. Befehle, Konstanten, Eingaben und Ausgaben werden in den Speicher der GPU(Videospeicher) oder über PCI-Express (Verbindung zwischen GPU und CPU) in den Hauptspeicher geschrieben. Spezifiziert wird dies in der Anwendung. Zudem spezifiziert die Anwendung die Formate der Ein- und Ausgabedaten im Speichercontroller. Der Speicher kann außerdem gecasted werden: Es können also Werte, welche zum Beispiel als ein 4-Kanal-Array geschrieben werden, als 1-Kanal-Array ausgelesen werden. Hierfür muss jedoch 4 mal vom 4-Kanal-Array gelesen werden. Dies geschieht ohne das Verschieben oder Kopieren von Daten. 10.3 Einschränkungen Da von ATI weder High Level Programmiersprachen, noch sonstige Entwicklungstools vorliegen, werden die Vorteile von CTM wohl nur von Programmieren genutzt, die gewillt sind sich mit den neuen GPU-Assemblern und den Details der R580 Plattform zu beschäftigen. Für die R600 Plattform ist zudem bisher noch kein Konzept für GPGPU Programmierung erschienen. [23] [24][26][39][40] Seite: 28/64 General Purpose Computation on Graphics Processing Unit 11 Praktischer Teil In diesem Teil werden zunächst die in den Umsetzungen verwendeten Frameworks (NVIDIAs C for Graphics, das OpenGL Utility Toolkit und Rapidmind) beschrieben um die Grundlagen für die Programmierbeispiele zu schaffen. 11.1 NVIDIAs C for Graphics (CG) C for Graphics (CG) ist eine High-Level Programmiersprache von NVIDIA. NVIDIA wollte mit CG Entwicklern eine Möglichkeit bieten ihre Grafikprogramme in einer C ähnlichen Hochsprache entwickeln zu können. Neben dem leicht verständlichen Code der nun entwickelt werden kann, liefert CG einen Compiler mit, der den Code für die Hardware optimiert. Des weiteren lässt sich Code der in CG geschrieben wurde leichter auf andere Hardware übertragen. Um eine Funktion mit CG zu implementieren, wird ein so genannter Shader implementiert, welcher auf der GPU ausgeführt wird. CG wurde nicht für GPGPU entwickelt, lässt sich aber hierfür einsetzen.[30] 11.2 OpenGL Utility Toolkit (GLUT) Das OpenGL Utility Toolkit (GLUT) ist eine Programmierschnittstelle, die es ermöglicht plattformunabhängige Grafikprogramme zu erstellen. Es bietet unter anderem Bibliotheken für ANSI-C und Fortran. Glut setzt auf OpenGL und GLU auf. Ziel der Entwicklung von Glut war es, Fenster und deren Handler, sowie Tastaturein- und -ausgaben platformunabhängig mit OpenGL zu ermöglichen. Neben diesen Funktionen bietet GLUT Funktionen zum Zeichnen von einfachen geometrischen Objekten wie Rechtecken und Kreise. Glut ist kein spezielles Framework für GPGPU. Es lässt sich aber in Verbindung mit NVIDIAs CG hierfür verwenden. Hierfür wird ein CG Shader implementiert, der den Algorithmus für die gewünschte Rechenoperation ausführt. Dieser wird beim Zeichnen einer Texture von GLUT aufgerufen. Glut wird nicht mehr weiterentwickelt. Es gibt jedoch das kompatible FreeGlut, welches als Open Source Projekt weiterhin gepflegt wird.[31] 11.3 RapidMind RapidMind ist eine Framework welches den Quellcode für die GPU optimiert. Es besitzt einen speziellen Mechanismus, welcher Flaschenhälse findet und versucht sie zu beheben. Auch Engpässe bei der Datenübertragung werden erkannt und wenn möglich behoben. Wie dies geschieht, ist leider nicht näher in der Dokumentation des RapidMind Framworks beschrieben. Ein Loadbalancer übernimmt das Aufteilen und Synchronisieren der Daten auf der GPU.[29] Seite: 29/64 General Purpose Computation on Graphics Processing Unit 11.4 Beispiel Matrix-Reduktion Bei einer Matrix-Reduktion, wird die Matrix solange verkleinert, bis das größte Element der Matrix gefunden wurde. Die Matrix wird schrittweise reduziert. Es werden immer vier Elemente der Matrix miteinander verglichen, aus diesen das Größte ausgewählt und als Wert für die nächste Matrix verwendet. Abbildung 20: Matrix-Reduktion Da jede der gebildeten 2x2 Matrizen von keiner anderen Matrix abhängig ist, besteht Datenunabhängigkeit und das Verfahren lässt sich gut parallelisieren. Ein weiterer Vorteil für die GPU ist, dass der Ausgabewert eines Vergleiches den Eingabewert darstellt und so nicht erst über den Speicher die Daten geschrieben und gelesen werden müssen. Das volle Potenzial der GPU lässt sich mit diesem Versuch dennoch nicht ausnutzen, da hierfür nur Vergleiche und keine komplexen Berechnungen ausgeführt werden müssen. Seite: 30/64 General Purpose Computation on Graphics Processing Unit 11.4.1 Umsetzung der Matrix-Reduktion(CPU) Für die CPU wurde ein C-Programm implementiert. In diesem C-Programm wird zunächst ein Datenarray mit der Länge der Anzahl der Elemente der Matrix mit Zufallswerten gefüllt. Das erste Element wird in das cpuResult geschrieben und danach wird jedes Element mit dem cpuResult verglichen. Wenn ein Element größer ist, ist dieses das neue cpuResult. Damit enthält das cpuResult am Ende die größte Zahl. In dieser Implementation wird das gesamte Array sequenziell durchlaufen. Im „worst case“ wird das cpuResult also N mal ersetzt, wobei N die Länge des Feldes ist. float cpuResult = data[0]; for (int i=1; i<N; i++) { if (data[i] > cpuResult) { cpuResult = data[i]; } } 11.4.2 Umsetzung der Matrix-Reduktion (GPU) Für die GPU existiert ein C-Code als Beispiel im GPGPU Tutorial. [28] In diesem Beispiel wird GLUT und NVIDIAs CG eingesetzt. Der Algorithmus wird als CG Shader implementiert. Zunächst wird eine 2x2 Matrix auf der CPU mit Gleitkommazufallswerten befüllt. Diese werden als Luminanzwert(Luminanz: Lichstärke pro Fläche) in den Pixeln gespeichert. Das Speichern geschieht durch Erzeugen einer Texture auf der GPU. In diesem Fall ein Quadrat mit der Größe der Matrix. Über GLUT lässt sich definieren, welche Operation beim Zeichnen ausgeführt werden soll. Hier wird der in CG implementierte Shader angegeben. Ein Array ist also auf der GPU eine Textur, die im general purpose Einsatz statt Pixeln die Arrayelemte enthält. Der Shader wird innerhalb einer Schleife, durch Zeichnen einer Textur, aufgerufen. Bei jedem Aufruf reduziert der Shader die Matrix auf die lokalen Maxima, bis zuletzt nur noch ein Element übrig bleibt. Im Shader wird jeweils ein Quadrat aus 2x2 Pixeln ermittelt, dessen vier Luminanzwerte ausgelesen werden. Der höchste Luminanzwert wird zurückgegeben. Aus den Ausgabewerten der Shaderaufrufe folgt die neue, auf ¼ verkleinerte Eingabematrix für den nächsten Shaderaufruf. Seite: 31/64 General Purpose Computation on Graphics Processing Unit //Funktions deklaration in CG //float2 (nx2 Matrize) gespeichert in Form einer WPOS = world space //vertex position float maximum(float2 coords: WPOS, uniform samplerRECT texture) : COLOR { //Berechne oberen linken Punkt eines Teilquadrates (Teilmatrix) float2 topleft = ((coords-0.5)*2.0)+0.5; //Hole Luminanzwert der Pixel, textRect holt den Pixelwert einer //texture an angegebener Stelle float val1 = texRECT(texture, topleft); float val2 = texRECT(texture, topleft+float2(1,0)); float val3 = texRECT(texture, topleft+float2(1,1)); float val4 = texRECT(texture, topleft+float2(0,1)); //Rückgabe des ermittelten Maximum der vier Luminanzwerte //Durch return liegt das Ergebniss im Fragmentbuffer und kann // z.B. über glReaBuffer() ausgelesen werden. return max(val1,max(val2,max(val3,val4))); }; 11.4.3 Ping-Pong Das Ping-Pong-Verfahren ist ein Verfahren, um den Ausgabewert einer Operation direkt wieder als Eingabewert der nächsten Operation verwenden zu können. Hierfür enthält GLUT das FrameBufferObject (FBO). Das FBO repräsentiert den Framebuffer der GPU. Es existieren im Beispiel der MatrixReduktion zwei FBOs (FBO_old und FBO_new), es ist aber möglich weitere zu definieren. Bei der Matrix-Reduktion wird nun aus FBO_old FBO_new berechnet und die Rollen der beiden Objekte nach jeder Berechnung getauscht. Bevor dies geschehen kann, muss FBO_old existieren. Deshalb wird im ersten Durchgang eine Texture verwendet, so dass FBO_old berechnet werden kann. Ab dann findet der Wechsel nach jeder Berechnung statt. Vorteil bei diesem Verfahren ist, dass nach jeder Berechnung die Ausgabedaten direkt als Eingabedaten verwendet werden können. Es muss kein zeitaufwändiger Transfer des Framebuffers in eine Texture ausgeführt werden. Seite: 32/64 General Purpose Computation on Graphics Processing Unit for (int i=0; i<numPasses; i++) { // input texture is read-only texture of pingpong textures //readTex wird am Ende der Schliefe geändert, so wechselt sich immer //input und output texture cgGLSetTextureParameter(textureParam,pingpongTexID[readTex]); cgGLEnableTextureParameter(textureParam); // set render destination glDrawBuffer (attachmentpoints[writeTex]); // calculate output region width and height outputWidth = outputWidth / 2; // Durch zeichnen die Berechnung ausühren drawQuad(outputWidth,outputWidth); //Funktion zum tauschen der input und output Matrix swap(); } //Funktion zum tauschen der input und output Matrix void swap(void) { if (writeTex == 0) { writeTex = 1; readTex = 0; } else { writeTex = 0; readTex = 1; } } Seite: 33/64 General Purpose Computation on Graphics Processing Unit 11.4.4 Messungen Matrix-Reduktion Für die Messungen wurde folgende Konfiguration verwendet: GPU: GeForce 6600 300 MHZ Prozessortakt 225 MHZ Speichertakt 256 MB DDR-RAM CPU: AMD Sempron 2400+ 1.66 GHz Prozessortakt 166 MHz Speichertakt 256 MB DDR-RAM Die Messungen wurden unter Windows XP ServicePack 2 durchgeführt. Matrixgröße CPU Zeit in sec GPU Zeit in sec 512X512 0 (nicht messbar) 0,016 1024X1024 0,018 0,045 2048X2048 0,799 0,486 4096X4096 1,453 0,721 Es zeigte sich das bei einer größeren Matrix die GPU schneller ist als die CPU. Bei kleineren Matrizen war die Zeit auf der CPU sowie auch auf der GPU nicht messbar. Größere Matrizen ließ unsere Testhardware nicht zu. Ein Versuch der Erklärung bezieht sich auf die Ausgabe des FFFF Benchmarks (siehe Punkt 11.5.5), in der für unsere Grafikkarte folgende maximale Anzahl an floating point Anweisungen angegeben wurde: Maximum number of FP ALU instructions: 4096 Seite: 34/64 General Purpose Computation on Graphics Processing Unit 11.5 Beispiel Vektor Multiplikation In diesem Beispiel werden die Vektoren a und b multipliziert und in Vektor c geschrieben. Hier besteht zwar unter den einzelnen zu multiplizierenden Elementen der Vektoren auch Datenunabhängigkeit, aber der Vorteil, das ein Ausgabewert gleich neuer Eingabewert ist, kann hier nicht ausgenutzt werden. Auch sind in diesem Beispiel wenig Operation für die GPU auszuführen. Um dennoch der GPU einen kleinen Vorteil zu verschaffen, werden alle vier Werte(R, G, B, Alpha) des RapidMind Datentypen value4f benutzt. Durch die „4“ in value4f wird eine Matrix der Größe Nx4 erstellt: Dies ist die maximale Dimension. Mit value2f würde eine Nx2 Matrix erstellt werden. 11.5.1 Umsetzung Multiplikation CPU Für die CPU wurde ein C-Programm implementiert. Bei diesem werden in einer Schleife elementweise zwei zweidimensionale Arrays der Größe 10.000x4, gefüllt mit Zufallswerten, multipliziert. Es folgt ein Ausgabearray gleicher Länge. for ( int i = 0; i < length ; ++i ) { for( int j = 0; j < 4 ; ++j) { result[ i ][ j ] = inputcpu1[ i ][ j ] * inputcpu2[ i ][ j ]; } } Um eine aussagekräftige Messreihe zu bekommen, wird die Berechnung N-mal innerhalb einer Schleife ausgeführt. Seite: 35/64 General Purpose Computation on Graphics Processing Unit 11.5.2 Umsetzung Multiplikation GPU Umgesetzt wurde der Algorithmus mit C und dem RapidMind Framework. Zunächst werden die beiden Inputvektoren (ebenfalls mit 40.000 Werten) von der CPU mit Zufallsdaten befüllt. Diese werden dann im Kernel von RapidMind auf der Grafikkarte verarbeitet. Es entsteht der Ausgabevektor. //Kernel beginn Program prg = RM_BEGIN { //Erster Eingabevektor vom Typ Float //Value4f: Value Wert //4 = vier Werte(maximum), die von einem Kernel abgearbeitet werden können //f = float In<Value4f> a; //Zweiter Eingabevektor In<Value4f> b; //Ausgabevektor vom gleichen Typen Out<Value4f> c; //Multiplikation c[0] = a[0] * b[0]; c[1] = a[1] * b[1]; c[2] = a[2] * b[2]; c[3] = a[3] * b[3]; //Ende } RM_END; Der Aufruf erfolgt in einer Schleife die N-mal durchläuft mit: output = prg(input1, input2); Das Framework übernimmt selbständig die Lastverteilung, so dass sich der Entwickler nicht um die parallele Ausführung der Rechenoperation kümmern muss. Dennoch muss der Entwickler darauf achten, dass sein Code überhaupt parallelisierbar ist. Seite: 36/64 General Purpose Computation on Graphics Processing Unit 11.5.3 Messungen Multiplikation Für die Messungen der Multiplikation wurde der selbe Testrechner wie bei der Matrixreduktion verwendet. Die Schleife, in denen die Berechnung durchgeführt wird, wird N mal auf CPU und GPU durchgeführt. In jedem Schleifendurchlauf werden 40.000 Werte miteinander multipliziert, sodass im letzten Durchlauf unserer Messung 100.000 x 40.000 Berechnungen durchgeführt werden. Schleifendurchläufe CPU in sec GPU in sec 1 0 (nicht messbar) 0,562 100 0,047 0,593 1000 0,531 0,875 2000 1,062 1,203 2500 1,31 1,38 3000 1,656 1,625 4000 2,27 1,88 5000 2,625 2,156 10000 5,531 3,797 20000 10,75 7,203 30000 15,906 10,359 40000 21,438 13,984 50000 26,938 16,703 60000 32,937 19,828 70000 37,984 23,204 80000 41,843 26,438 90000 48,5 26,672 100000 54,328 32,875 Seite: 37/64 General Purpose Computation on Graphics Processing Unit Abbildung 21: Messergebnisse Multiplikation Es ist zu sehen, dass bei wenig Schleifendurchläufen die CPU schneller ist als die GPU. Dies hängt unter anderem mit der Initialisierung der GPU und dem Übertragen der Daten durch das Framework zusammen. Erst bei 2500 Schleifendurchläufen zeigt sich der Vorteil der GPU. Bei 100.000 Schleifendurchläufen zeigt sich, wie zu erwarten war, deutlich der Vorteil der GPU. Sie ist fast doppelt so schnell wie die CPU. Seite: 38/64 General Purpose Computation on Graphics Processing Unit 11.6 Beispiel Mandelbrot-Menge Die Mandelbrotmenge wurde 1979 vom polnischen Mathematiker Bernoit Mandelbrot zur Klassifizierung der Julia-Mengen eingeführt. Wie auch die JuliaMenge, ist die Mandelbrot-Menge ein Fraktal. Definiert ist die MandelbrotMenge als die Menge der komplexen Zahlen die durch das Bildungsgesetz mit der Anfangsbedingung gebildet werden und bei denen der Betrag der Folgenglieder nicht ins unendliche wächst. Stellt man das Mandelbrot in der komplexen Zahlenebene dar, so erhält man ein an das Apfelmännchen erinnerndes Fraktal. [32] Abbildung 22: Mandelbrot-Menge [32] Wie jedes Fraktal, weist auch die Mandelbrotmenge Selbstähnlichkeit auf. Wird ein Bereich des Mandelbrots vergrößert, so finden sich ähnliche geometrische Objekte wie das Ausgangsfraktal wieder. Seite: 39/64 General Purpose Computation on Graphics Processing Unit 11.6.1 Fast Floating Fractal Fun (FFFF) Fast Floating Fractal Fun [33] diente als Testobjekt für die Berechnung und grafische Darstellung der Mandelbrot-Menge. Hier besteht die Möglichkeit den Algorithmus verschieden berechnen zu lassen: • FPU computation, C code. Allgemeine „Single-Pixel“ Berechnung für MIPS4 ISA. • QuadFast SSE computation, 100% machine code. Genutzt wird die Befehlssatzerweiterung SSE. Dadurch wird ermöglicht, dass immer vier Pixel gleichzeitig in „Single Precision“ berechnet werden können. Der Algorithmus greift während der Berechnungen nicht auf den Speicher zu. • DualFast SSE2 computation, 100% machine code. Genutzt wird die Befehlssatzerweiterung SSE2. Hier werden immer zwei Pixel gleichzeitig in „Double Precision“ berechnet. Es ergibt sich, gegenüber der Verwendung von SSE ein Geschwindigkeitsverlust: Der Algorithmus ist nur noch halb so schnell. Allerdings wird eine höhere Präzision erreicht, was einen tieferen Zoom erlaubt. Der Algorithmus greift während der Berechnungen nicht auf den Speicher zu. • GPU Fragment Program computation Genutzt werden die Fragment-Prozessoren der Grafikkarte. Die Prozessoren berechnen jeweils vier Pixel in „Single Precision“, was durch die hohe Anzahl an Prozessoren zu einem Leistungszuwachs führt. Beispielsweise die 3DNow-Berechnung konnte aufgrund des Einsatzes von OS X 10.4 nicht getestet werden. Das Programm bietet neben dem Heraus- und Hineinzoomen des Fraktals und einem Benchmark auch die Möglichkeit, die Zahl der Iterationen zu variieren. Die maximale Anzahl der Iterationen beträgt laut „Hersteller“ 9999. Jedoch resultierte der Versuch die Iterationen heraufzusetzen in einem BUS-Error bei ca. 1200 Iterationen. Die Herkunft dieses Fehlers konnte nicht eindeutig bestimmt werden, da auch im Buchtracking System des Anbieters hierzu nichts zu finden war. Getestet wurde auf einem Apple iMac mit 1 GB Ram. 2 GHz Core2Duo Prozessor und einer NVIDIA GeForce 7800 Pro. Von FFFF wurde die Programmversion v3.2.3 eingesetzt. Seite: 40/64 General Purpose Computation on Graphics Processing Unit 11.7 Umsetzung Mandelbrot CPU in FFFF Auf der CPU wurde das Mandelbrot mit C++ realisiert. Die Iteration von n nach n+1 für einen Punkt c der komplexen Zahlenebene erfolgt mittels der komplexen Gleichung Diese lässt sich in und zerlegen. Im C++ Code innerhalb einer for-Schleife umgesetzt: for(i=0;i<maxi;i++){ zx2=zx*zx; zy2=zy*zy; //Abbruchbedingung if((zx2+zy2)>4)break; zy=2*zx*zy; zx=zx2-zy2; //Komplexer Teil zx+=cx; zy+=cy; } 11.7.1 Umsetzung Mandelbrot GPU in FFFF Umgesetzt wurde die Berechnung des Mandelbrots auf der GPU mit dem NVIDIA Vertex and Pixel Shader Macro Assembler (NVASM). Der Code, welcher auf der GPU ausgeführt wird, wird innerhalb eines C++ Programms über GLUTFunktion auf die Grafikkarte übertragen. Bei NVASM besitzt jedes Register vier Werte (x, y, z, w). Es ist möglich jeden Wert dieses Register einzeln anzusprechen z.B. MOV R1.x, R2.y. Des weiteren ist auch möglich mehrere Werte anzusprechen z.B. MOV R1.xw R2.yz. Der Code des Shaderprogramms unterteilt sich in drei Abschnitte, die im C++ Quellcode in Form von Strings vorliegen. Seite: 41/64 General Purpose Computation on Graphics Processing Unit Der erste Teil ist die Initialisierung der Grafikkarte. Hier wird in der ersten Zeile die Version des verwendeten Shaders für die Initialisierung der Grafikkarte angegeben. Mit dem Befehl „DP4“ wird ein Skalarprodukt eines 4D Vektors erzeugt. In diesem Fall dient der Befehl dazu, den Eingabevektor in den sichtbaren Bereich zu transformieren. Am Ende der Initialisierung werden mit Hilfe des Konstantenvektors von NVASM die Register, mit denen gerechnet wird, befüllt. Der Konstantenvektor c wurde an der Stelle c[0] zuvor im C++ Quellcode befüllt. "!!VP1.0\n" //o=Ausgabevektor; HPOS horizontale Position //c=Konstantenvektor von NVASM(c4 bis c7 enthält standardmässig die //Zeilenvektoren der Matrix für die Transformation in den Sichtbereich //des Betrachters) //v=Position des Vertex ; OPOS senkrechte Position "DP4 o[HPOS].x, c[4], v[OPOS];" "DP4 o[HPOS].y, c[5], v[OPOS];" "DP4 o[HPOS].z, c[6], v[OPOS];" "DP4 o[HPOS].w, c[7], v[OPOS];" // Werte für die Berechnung in R0 schieben, in c.x steht 1, in c.y steht //-1, daraus folgt R0 = v[o].xyz-y "MUL R0, v[0].xyzy, c[0].xxxy;" //aus R0 werden nur x und z übernommen, y und w werden auf 0 // gesetzt, in c.w steht 0 "MUL R4, R0.xzyw, c[0].xxww;" Seite: 42/64 General Purpose Computation on Graphics Processing Unit Der zweite Codeabschnitt enthält den Code für die Iterationen. Beim Zusammensetzen des NVASM-Codes wird dieser Abschnitt entsprechend der Anzahl der Iterationen in den Code eingefügt. Das heißt, dass der Codeabschnitt beispielsweise bei vier Iterationen vier mal in den Code eingefügt wird, statt Schleifen zu verwenden. Zunächst werden die Werte von R0 multipliziert und anschließend mit dem imaginären Anteil, der in R4 steht, addiert. Durch anschließende Subtraktion von den entsprechenden Werten aus R1 erhält man die Werte für die nächste Iteration. //R0.x=R0.x^2+r4-(R0.y^2+R4) //R0.y=R0.x*R0.y+r4-(R0.x*R0.y+R4) "MAD R1, R0.xyxx, R0.xyyw, R4;" "ADD R0.xyw, R1.xzww, -R1.ywwz;" Im letzten Teil des NVASM-Programms wird das Register R1 in den Outputvektor der Graffikkarte geschrieben und schließlich das Programm beendet. "MOV o[COL0].xyz, R1.xyzw;" "END" Seite: 43/64 General Purpose Computation on Graphics Processing Unit 11.7.2 Darstellung der Mandelbrot-Menge mit FFFF Die Abbildung 23 zeigt eine Mandelbrotmenge ohne Zoom. In diesem Beispiel wird die Grafik von der CPU erstellt. Zu sehen ist der Kopf (links) und der Körper (rechts) des Fraktals. Abbildung 23 zeigt einen Zoom auf die Spalte zwischen Kopf und Körper. Hier entstehen Spiralen, die, in Abbildung 24 auf der rechten Seite, an Seepferdchen erinnern. Durch Erhöhen der Iterationen wird ein Zoom auf den „Schwanz“ eines dieser Seepferdchen möglich. Dieser Zoom, wie in Abbildung 25 gezeigt, kann bei Verwendung von SSE2 bis zu einer 10^15-fachen Vergrößerung durchgeführt werden. Abbildung 23: Die MandelbrotMenge im Urzustand Abbildung 24: Spalte zwischen Kopf und Körper Abbildung 25: Zoom auf ein Seepferdchen Abbildung 26: Tieferer Zoom auf ein Seepferdchen Seite: 44/64 General Purpose Computation on Graphics Processing Unit Um den Effekt der Iterationen zu zeigen, wurde ein Bereich bei hoher Zoomstufe ausgewählt. Dieser wurde bei kontinuierlich gesteigerter Iterationsanzahl beobachtet. Um die Entwicklung der Darstellung zu zeigen, wurden Momentaufnahmen bei 40, 50, 70 und 256(siehe Abbildung 27-30) Iterationen gemacht. Abbildung 27: Darstellung mit 40 Iterationen Abbildung 29: Darstellung mit 70 Iterationen Abbildung 28: Darstellung mit 50 Iterationen Abbildung 30: Darstellung mit 256 Iterationen Während der Tests fiel auf, dass die Farbgebung der Mandelbrot-Menge variiert, wenn man die Grafik mit einem Fragment Programm berechnen lässt. Dies liegt indirekt am Alter der Programmversion (März 2006) und am Geldbeutel des Autoren. Die aktuelle Version von FFFF hat keine GPU Berechnungsroutine, die Branches nutzt. „Dynamic Branching“ ist eine Verbesserung, die im Shader Model 3 enthalten war und im April 2004 erstmals auf der GeForce 6 zum Einsatz kam. Daraus resultiert, dass alle Punkte mit maximalen Iterationen berechnet werden. Da die Farbe als Funktion des finalen komplexen Ergebnisses berechnet wird, kommt eine andere Farbgebung zustande [34]. Seite: 45/64 General Purpose Computation on Graphics Processing Unit Abbildung 31: Berechnung mit der CPU Abbildung 32: Berechnung mit der GPU Abbildung 33: Tieferer Zoom; CPU-Berechnung Abbildung 34: Identisches Bild; GPU-Berechnung Auffällig ist neben der Farbänderung auch der Vergleich der letzten beiden Aufnahmen, da im linken Bild (Abbildung 33) deutlich mehr erkennbar ist als im rechtem Bild (Abbildung 34). Dies wird nicht nur mit der „ungünstigen“ Farbwahl, sondern auch mit der geringeren Genauigkeit des GPU-Algorithmus (single prec.) gegenüber dem SSE2-CPU-Algorithmus (double prec.) zusammenhängen. Seite: 46/64 General Purpose Computation on Graphics Processing Unit 11.7.3 Benchmark mit FFFF Fast Floating Fractal Fun bietet die Möglichkeit, Benchmarks zu erstellen. In diesen Benchmarks wird die Mandelbrot-Menge auf die verschiedenen Weisen berechnet . Die Leistung wird in „Megaiters/sec“ angegeben, was „Millionen Iterationen pro Sekunde“ bedeutet. Für ein Benchmark mit möglichst eindrucksvollem Ergebnis haben wir einen AMD 64 mit 2.52 GHz Taktung und einer GeForce 8800 GTS aufgetrieben. Zur Grafikkarte: Die GeForce 8800 GTS verfügt über (für uns unwichtige, aber trotzdem genannte) 768 MB Ram mit einem Takt von 800 MHz. Die 96 Stream Prozessoren der Grafikkarte arbeiten mit einem Takt von 1200 MHz bei einem GPU-Kerntakt von 500 MHz. In der GeForce 8xxx-Reihe kommen bereits „unified“ Shader zum Einsatz. Das bedeutet, dass es keine hardwareseitige Trennung zwischen Fragment- und Vertex-Shadern mehr gibt. Die GPU entscheidet zur Laufzeit ob ein Shader als Fragment- oder Vertex-Shader eingesetzt wird. Alle Shadereinheiten sind also prinzipiell in der Lage, die gleichen Operationen auf Daten durchzuführen. Benchmark-Ausgabe: FFFF v3.2.3 BENCHMARK (Using 1 CPU, no render) size: 500*500 maxiters: 9999 rangex: -2.00 to 1.00 rangey: -1.50 to 1.50 [4f] SSE benchmark: 0.586 sec 718.046 MegaIters/sec [2d] SSE2 benchmark: 1.143 sec 367.925 MegaIters/sec [1d] FPU C benchmark: 2.504 sec 167.931 MegaIters/sec [4?] GPU VertexProgram benchmark (beta! maxiters=10) 0.315 sec 1587.937 MegaIters/sec [4?] GPU FragmentProgram benchmark (beta! maxiters=20) Maximum number of FP ALU instructions: 16384 Maximum number of FP native params: 1024 FP is hardware native (63 ALU instructions). 0.067 sec 14894.916 MegaIters/sec Seite: 47/64 General Purpose Computation on Graphics Processing Unit Bei 96 Shadern ergeben sich 155,156 Millionen Iterationen pro Sekunde und Shadereinheit. Der CPU-Kern berechnet in einer Sekunde 78,046 Millionen Iterationen (SSE). Damit kommt eine Shadereinheit auf ein gutes Fünftel (21,61%) der Leistungsfähigkeit (in Bezug auf die berechneten Iterationen) eines CPU-Kerns. Seite: 48/64 General Purpose Computation on Graphics Processing Unit 12 Fazit Es zeigte sich, dass die GPGPU-Programmierung ein hohes Umdenken erfordert. Dies lag hauptsächlich an der Parallelität. Des weiteren ist die Syntax zwar C oder Java ähnlich, aber dennoch lassen sich Shadersprachen für GPGPU nur schwer mit diesen Programmiersprachen vergleichen. Häufig ist ein hoher Aufwand nötig um die Frameworks zu installieren und in einer IDE nutzen zu können. Die Dokumentation ist meist mangelhaft. Informationen finden sich häufig nur in Artikeln verschiedener Internetseiten und Zeitschriften. Konkret wird auf die Programmierung selten eingegangen. Auch ist die Community der GPGPU Programmierer nicht groß. Hinzu gibt es das Problem der eingeschränkten Hardwareunterstützung. Dies liegt hauptsächlich daran, das es seit VGA (1987) keine standardisierte Architektur für Grafkikkarten gibt und die Frameworks immer nur bestimmte Serien von Grafikkarten unterstützen. Positiv zu sehen ist der enorme Geschwindigkeitszuwachs. Auch wird sich in Zukunft die GPGPU Gemeinde vergrößern und neue Frameworks wie CUDA sollen eine einfachere Handhabung als die Konkurrenten bieten. Seite: 49/64 General Purpose Computation on Graphics Processing Unit 13 Quellen Quellen [1] The Gamer‘s Graphics & Display Settings Guide http://www.tweakguides.com/Graphics_1.html [2] NV40-Technik im Detail http://www.3dcenter.de/artikel/nv40_pipeline [3] Introduction to the Hardware Graphics Pipeline http.download.NVIDIA.com/developer/presentations/2005/I3D/ I3D_05_IntroductionToGPU.pdf [4] NVIDIA CUDA Introduction http://www.beyond3d.com/content/articles/12/5 [5] GPU Gems 2 Kapitel 30 http.download.NVIDIA.com/developer/GPU_Gems_2/GPU_Gems2_ch30.pdf [6] GPGPU.org http://www.gpgpu.org [7] Pixel-Shader http://en.wikipedia.org/wiki/Pixel_shader [8] Pasterizer http://en.wikipedia.org/wiki/Rasterizer [9] Stream Processing http://en.wikipedia.org/wiki/Stream_processing [10] Single Instruction Multiple Data http://en.wikipedia.org/wiki/SIMD [11] Multiple Instruction Multiple Data http://en.wikipedia.org/wiki/MIMD [12] Multiple Instruction Single Data http://en.wikipedia.org/wiki/MISD [13] GPGPU http://en.wikipedia.org/wiki/GPGPU [14] Floating Point Operations Per Second http://en.wikipedia.org/wiki/FLOPS [15] NVIDIA GeForce FX (5) http://en.wikipedia.org/wiki/GeForce_FX_Series [16] GeForce 6 http://en.wikipedia.org/wiki/GeForce_6_Series [17] NVIDIA GeForce 7 http://en.wikipedia.org/wiki/GeForce_7_Series [18] NVIDIA GeForce 8 http://en.wikipedia.org/wiki/GeForce_8_Series [19] NVIDIA GeForce 9 http://en.wikipedia.org/wiki/GeForce_9_Series [20] E-Bug Onlinestore http://www.e-bug.de [21] Einführung in die Architektur moderner Grafikkarten Seite: 50/64 General Purpose Computation on Graphics Processing Unit http://www.ra.informatik.unimannheim.de/pages/student_work/seminar/ws0506/ Sven_Schenk/praesentation.pdf [22] GPGPU Basiskonzepte http://www.plm.eecs.unikassel.de/plm/fileadmin/pm/courses/gpgpu_seminar_ss2006/ unik_s_gpgpu_basiskonzepte_ss2006.pdf [23] GPGPU Stream Processing und High Level GPGPU Sprachen http://www.plm.eecs.unikassel.de/plm/fileadmin/pm/courses/gpgpu_seminar_ss2006/unik_s_gpgpu_st ream_processing_und_high_level_gpgpu_sprachen_ss2006.pdf [24] A Performance-Oriented Data Parallel Virtual Machine for GPUs http://ati.amd.com/developer/techreports/2006/I3D2006/Peercy-PerformanceOriented_Data_Parallel_Virtual_Machine_for_GPUs(SIG06_Sketch).pdf [25] CUDA http://en.wikipedia.org/wiki/CUDA [26] A Performance-Oriented Data parallel Virtual Machine for GPUs http://ati.amd.com/developer/siggraph06/dpvm_sketch_siggraph.pdf [27] AMD entwickelt integrierten CPU-GPU-Chip http://www.heise.de/newsticker/meldung/81183 [28] Matrix Reduktion Tutorial http://www.mathematik.uni-dortmund.de/~goeddeke/gpgpu/tutorial2.html [29] RapidMind Framework http://www.rapidmind.net/technology.php [30]NVIDIA C for Graphics http://developer.NVIDIA.com/page/cg_main.html [31]OpenGL Utility Toolkit http://de.wikipeda.org(wiki/OpenGL_Utility_Toolkit [32]Mandelbrot-Menge http://de.wikipedia.org/wiki/Mandelbrot-Menge [33]Fast Floating Fractal Fun - FFFF http://sourceforge.net/projects/FFFF/ [34] Daniele Paccaloni im FFFF-Forum http://sourceforge.net/forum/forum.php?forum_id=168353 [35] GPGPU History http://gpgpu.org/data/history.shtml [36]Supercomputer für den Schreibtisch http://www.handelsblatt.com/News/printpage.aspx? _p=204016&_t=ftprint&_b=1286446 [37] Open 64 € The Open Research Compiler http://www.open64.net [38] Bitonic Sort http://www.iti.fh-flensburg.de/lang/algorithmen/sortieren/bitonic/bitonic.htm [39] Spezialarchitekturen 1 (GPGPU: Architektur, Programmierung und Anwendungen) http://www.empanyc.net/content/projekte/shprc/spezialarchitekturen_gpgpu_ Seite: 51/64 General Purpose Computation on Graphics Processing Unit mario_kicherer.pdf [40] General Purposes Computation on Graphics Processing Unit http://wwwcg.in.tum.de/Teaching/SS2007/Seminar/Workouts/data/Stefan_Aue r.pdf [41] Brent Oster - CUDA http://www.cs.ucsb.edu/~gilbert/cs240aSpr2007/lectures/G80%20CUDA.ppt [42] IEEE 754 http://754r.ucbtest.org/standards/754.pdf Seite: 52/64 General Purpose Computation on Graphics Processing Unit 14 Anhang 14.1 Bitonic Hauptprogramm (bitonic.cu): #include <stdio.h> #include <stdlib.h> #include <cutil.h> #include "bitonic_kernel.cu" int main(int argc, char** argv) { CUT_DEVICE_INIT(); int values[NUM]; for(int i = 0; i < NUM; i++) { values[i] = rand(); } int * dvalues; CUDA_SAFE_CALL(cudaMalloc((void**)&dvalues, sizeof(int) * NUM)); CUDA_SAFE_CALL(cudaMemcpy(dvalues, values, sizeof(int) * NUM, cudaMemcpyHostToDevice)); bitonicSort<<<1, NUM, sizeof(int) * NUM>>>(dvalues); // check for any errors CUT_CHECK_ERROR("Kernel execution failed"); } CUDA_SAFE_CALL(cudaMemcpy(values, dvalues, sizeof(int) * NUM, cudaMemcpyDeviceToHost)); CUDA_SAFE_CALL(cudaFree(dvalues)); bool passed = true; for(int i = 1; i < NUM; i++) { if (values[i-1] > values[i]) { passed = false; } } printf( "Test %s\n", passed ? "PASSED" : "FAILED"); CUT_EXIT(argc, argv); Seite: 53/64 General Purpose Computation on Graphics Processing Unit 14.2 Bitonic Kernel (bitonic_kernel.cu) #ifndef _BITONIC_KERNEL_H_ #define _BITONIC_KERNEL_H_ #define NUM 256 __device__ inline void swap(int & a, int & b){ int tmp = a; a = b; b = tmp; } __global__ static void bitonicSort(int * values){ extern __shared__ int shared[]; const int tid = threadIdx.x; // Copy input to shared mem. shared[tid] = values[tid]; __syncthreads(); // Parallel bitonic sort. for (int k = 2; k <= NUM; k *= 2) { // Bitonic merge: for (int j = k / 2; j>0; j /= 2) { int ixj = tid ^ j; if (ixj > tid){ if ((tid & k) == 0){ if (shared[tid] > shared[ixj]){ swap(shared[tid], shared[ixj]); } } else{ if (shared[tid] < shared[ixj]){ swap(shared[tid], shared[ixj]); } } } __syncthreads(); } } // Write result. values[tid] = shared[tid]; } #endif // _BITONIC_KERNEL_H_ Seite: 54/64 General Purpose Computation on Graphics Processing Unit 14.3 Matrixreduktion #/* * License (based on zlib/libpng): * * Copyright (c) 2005-2007 Dominik Göddeke, University of Dortmund, Germany. * * This software is provided 'as-is', without any express or implied warranty. * In no event will the authors be held liable for any damages arising from * the use of this software. * * Permission is granted to anyone to use this software for any purpose, * including commercial applications, and to alter it and redistribute it * freely. * */ /* * GPGPU Reduction Tutorial: Computes maximum of a vector on the GPU. * * Limitation: vector length must be 2^k by 2^k. * * This version: texture rectangles, on-the-fly texcoord computations * * More details: www.mathematik.uni-dortmund.de/~goeddeke/gpgpu * * Please drop me a note if you encounter any bugs, or if you have suggestions * on how to improve this tutorial: [email protected] * */ // includes #include <iostream> #include <stdio.h> #include <stdlib.h> #include <string.h> #include <math.h> #include <time.h> #include <GL/glew.h> #include <GL/glut.h> #include <Cg/cgGL.h> using namespace std; // error codes static int ERROR_CG = -1; static int ERROR_GLEW = -2; static int ERROR_TEXTURE = -3; static int ERROR_BINDFBO = -4; static int ERROR_FBOTEXTURE = -5; static int ERROR_PARAMS = -6; // prototypes void cgErrorCallback(void); bool checkFramebufferStatus(void); void checkGLErrors(const char *label); void compareResults(void); Seite: 55/64 General Purpose Computation on Graphics Processing Unit void void void void void void void void void createTextures(void); drawQuad(int w, int h); initCG(void); initFBOandViewport(void); initGLEW(void); initGLUT(int argc, char** argv); performComputation(void); setupTexture(const GLuint texID); swap(void); // problem size (must be power of 2 by power of 2) int N = 4096*4096; int texSize = 4096; // texture identifiers GLuint pingpongTexID[2]; GLuint inputTexID; // ping pong management vars int writeTex = 0; int readTex = 1; GLenum attachmentpoints[] = { GL_COLOR_ATTACHMENT0_EXT, GL_COLOR_ATTACHMENT1_EXT }; // Cg vars CGcontext cgContext; CGprofile fragmentProfile; CGprogram fragmentProgram; CGparameter textureParam; // FBO identifier GLuint fb; // handle to offscreen "window", only used to properly shut down the app GLuint glutWindowHandle; // shortcuts for texture internals GLenum texTarget = GL_TEXTURE_RECTANGLE_ARB; GLenum texInternalFormat = GL_FLOAT_R32_NV; GLenum texFormat = GL_LUMINANCE; // see course web page for details on this shader char* shader = \ "float maximum( " \ " float2 coords: WPOS,"\ " uniform samplerRECT texture) : COLOR { "\ "float2 topleft = ((coords-0.5)*2.0)+0.5;"\ "float val1 = texRECT(texture, topleft);"\ "float val2 = texRECT(texture, topleft+float2(1,0));"\ "float val3 = texRECT(texture, topleft+float2(1,1));"\ "float val4 = texRECT(texture, topleft+float2(0,1));"\ "return max(val1,max(val2,max(val3,val4)));}"; // actual data float* data; /** Seite: 56/64 General Purpose Computation on Graphics Processing Unit * main, just calls things in the appropriate order */ int main(int argc, char **argv) { printf("--------------------------------------------------------------\n"); printf("Parallel reduction example\n\n"); printf("see www.mathematik.uni-dortmund.de/~goeddeke/gpgpu for details\n"); printf("--------------------------------------------------------------\n"); // // create data vector // srand(time(NULL)); data = (float*)malloc(N*sizeof(float)); for (int i=0; i<N; i++) { data[i] = rand() / (((float)rand())+1.0) / 1000; } // // init glut and glew // initGLUT(argc, argv); initGLEW(); // // init offscreen framebuffer // initFBOandViewport(); // // create textures for data vector and pingpong // createTextures(); // // init shader runtime // initCG(); // // and start computation // double time1=0.0, tstart; tstart = clock(); // start performComputation(); time1 += clock() - tstart; // end time1 = time1/CLOCKS_PER_SEC; // rescale to seconds cout << " gpu = " << time1 << " sec."; // // compare results // compareResults(); // // and clean up // glDeleteFramebuffersEXT(1,&fb); free(data); glDeleteTextures(2,pingpongTexID); glDeleteTextures(1,&inputTexID); cgDestroyProgram(fragmentProgram); cgDestroyContext(cgContext); Seite: 57/64 General Purpose Computation on Graphics Processing Unit glutDestroyWindow (glutWindowHandle); return 0; } /** * Callback for Cg errors */ void cgErrorCallback(void) { CGerror lastError = cgGetError(); if(lastError) { printf(cgGetErrorString(lastError)); printf(cgGetLastListing(cgContext)); exit(ERROR_CG); } } /** * Sets up a floating point texture with NEAREST filtering. * (mipmaps etc. are unsupported for floating point textures) */ void setupTexture (const GLuint texID) { // make active and bind glBindTexture(texTarget,texID); // turn off filtering and wrap modes glTexParameteri(texTarget, GL_TEXTURE_MIN_FILTER, GL_NEAREST); glTexParameteri(texTarget, GL_TEXTURE_MAG_FILTER, GL_NEAREST); glTexParameteri(texTarget, GL_TEXTURE_WRAP_S, GL_CLAMP); glTexParameteri(texTarget, GL_TEXTURE_WRAP_T, GL_CLAMP); // define texture with floating point format glTexImage2D(texTarget,0,texInternalFormat,texSize,texSize,0,texFormat,GL_FLOAT,0); // check if that worked if (glGetError() != GL_NO_ERROR) { printf("glTexImage2D():\t\t\t [FAIL]\n"); exit (ERROR_TEXTURE); } else { printf("glTexImage2D():\t\t\t [PASS]\n"); } } /** * creates textures and populates the input texture */ void createTextures (void) { // pingpong needs two textures, alternatingly read-only and write-only, // input is just read-only glGenTextures (2, pingpongTexID); glGenTextures (1, &inputTexID); // set up textures setupTexture (pingpongTexID[readTex]); setupTexture (pingpongTexID[writeTex]); setupTexture (inputTexID); // attach pingpong textures to FBO glFramebufferTexture2DEXT(GL_FRAMEBUFFER_EXT, attachmentpoints[writeTex], pingpongTexID[writeTex], 0); glFramebufferTexture2DEXT(GL_FRAMEBUFFER_EXT, attachmentpoints[readTex], pingpongTexID[readTex], 0); // check if that worked if (!checkFramebufferStatus()) { printf("glFramebufferTexture2DEXT():\t [FAIL]\n"); exit (ERROR_FBOTEXTURE); } else { texTarget, texTarget, Seite: 58/64 General Purpose Computation on Graphics Processing Unit } printf("glFramebufferTexture2DEXT():\t [PASS]\n"); } // transfer data vector to input texture glBindTexture(texTarget, inputTexID); glTexSubImage2D(texTarget,0,0,0,texSize,texSize,texFormat,GL_FLOAT,data); // check if something went completely wrong checkGLErrors ("createTextures()"); /** * Sets up GLUT, creates "window" (better put: valid GL context, since the window is never displayed) */ void initGLUT(int argc, char **argv) { glutInit ( &argc, argv ); glutWindowHandle = glutCreateWindow("MAXIMUM DEMO"); } /** * Sets up GLEW to initialise OpenGL extensions */ void initGLEW (void) { int err = glewInit(); // sanity check if (GLEW_OK != err) { printf((char*)glewGetErrorString(err)); exit(ERROR_GLEW); } } /** * Creates framebuffer object, binds it to reroute rendering operations * from the traditional framebuffer to the offscreen buffer */ void initFBOandViewport(void) { // create FBO (off-screen framebuffer) glGenFramebuffersEXT(1, &fb); // bind offscreen framebuffer (that is, skip the window-specific render target) glBindFramebufferEXT(GL_FRAMEBUFFER_EXT, fb); // viewport for 1:1 pixel=texel mapping glMatrixMode(GL_PROJECTION); glLoadIdentity(); gluOrtho2D(0.0, texSize, 0.0, texSize); glMatrixMode(GL_MODELVIEW); glLoadIdentity(); glViewport(0, 0, texSize, texSize); } /** * Sets up the Cg runtime and creates shader. */ void initCG(void) { // set up Cg cgSetErrorCallback(cgErrorCallback); cgContext = cgCreateContext(); fragmentProfile = cgGLGetLatestProfile(CG_GL_FRAGMENT); cgGLSetOptimalOptions(fragmentProfile); // create fragment program fragmentProgram = cgCreateProgram (cgContext, CG_SOURCE, shader, fragmentProfile, "maximum", NULL); // load program cgGLLoadProgram (fragmentProgram); Seite: 59/64 General Purpose Computation on Graphics Processing Unit // and get parameter handle to input texture by name textureParam = cgGetNamedParameter (fragmentProgram, "texture"); } /** * Computes maximum on the CPU, compares results */ void compareResults () { // get GPU result (last render pass did pingpong "swap") float gpuResult; glReadBuffer(attachmentpoints[readTex]); glReadPixels(0, 0, 1, 1,texFormat,GL_FLOAT,&gpuResult); double time1=0.0, tstart; tstart = clock(); // start // calc on CPU float cpuResult = data[0]; for (int i=1; i<N; i++) if (data[i] > cpuResult) cpuResult = data[i]; time1 += clock() - tstart; // end time1 = time1/CLOCKS_PER_SEC; // rescale to seconds cout << " cpu = " << time1 << " sec."; // and print out results printf("--------------------------------------------------------------\n"); printf("GPU result:\t%f\n",gpuResult); printf("CPU result:\t%f\n",cpuResult); printf("--------------------------------------------------------------\n"); } /** * Performs the actual calculation. */ void performComputation(void) { //printf("--------------------------------------------------------------\n"); // enable fragment profile cgGLEnableProfile(fragmentProfile); // bind "maximum" program cgGLBindProgram(fragmentProgram); // // pass 1: read from inputTexture, first reduction step // idea: do not overwrite input during pingpong // // enable input texture cgGLSetTextureParameter(textureParam, inputTexID); cgGLEnableTextureParameter(textureParam); // set render destination glDrawBuffer (attachmentpoints[writeTex]); // calculate output region width and height int outputWidth = texSize / 2; // printf("Input size :\t%dx%d\n",texSize,texSize); // printf("Reduction step:\t%dx%d to %dx%d.\n",texSize, texSize, outputWidth, outputWidth); // perform computation and ping-pong output textures drawQuad(outputWidth,outputWidth); Seite: 60/64 General Purpose Computation on Graphics Processing Unit swap(); // // calculate number of remaining passes: // log_2 of current output width // int numPasses = (int)(log((double)outputWidth)/log(2.0)); // // perform remaining reduction steps // for (int i=0; i<numPasses; i++) { // input texture is read-only texture of pingpong textures cgGLSetTextureParameter(textureParam,pingpongTexID[readTex]); cgGLEnableTextureParameter(textureParam); // set render destination glDrawBuffer (attachmentpoints[writeTex]); // calculate output region width and height outputWidth = outputWidth / 2; //printf("Reduction step:\t%dx%d to %dx%d.\n",outputWidth*2, outputWidth*2, outputWidth, outputWidth); // perform computation and ping-pong output textures drawQuad(outputWidth,outputWidth); swap(); } // done, just do some checks if everything went smoothly. checkFramebufferStatus(); checkGLErrors("render()"); } /** * Renders w x h quad in top left corner of the viewport. */ void drawQuad(int w, int h) { glBegin(GL_QUADS); glVertex2f(0.0, 0.0); glVertex2f(w, 0.0); glVertex2f(w, h); glVertex2f(0.0, h); glEnd(); } /** * Checks for OpenGL errors. * Extremely useful debugging function: When developing, * make sure to call this after almost every GL call. */ void checkGLErrors (const char *label) { GLenum errCode; const GLubyte *errStr; if ((errCode = glGetError()) != GL_NO_ERROR) { errStr = gluErrorString(errCode); printf("OpenGL ERROR: "); printf((char*)errStr); printf("(Label: "); printf(label); printf(")\n."); } } Seite: 61/64 General Purpose Computation on Graphics Processing Unit /** * Checks framebuffer status. * Copied directly out of the spec, modified to deliver a return value. */ bool checkFramebufferStatus() { GLenum status; status = (GLenum) glCheckFramebufferStatusEXT(GL_FRAMEBUFFER_EXT); switch(status) { case GL_FRAMEBUFFER_COMPLETE_EXT: return true; case GL_FRAMEBUFFER_INCOMPLETE_ATTACHMENT_EXT: printf("Framebuffer incomplete, incomplete attachment\n"); return false; case GL_FRAMEBUFFER_UNSUPPORTED_EXT: printf("Unsupported framebuffer format\n"); return false; case GL_FRAMEBUFFER_INCOMPLETE_MISSING_ATTACHMENT_EXT: printf("Framebuffer incomplete, missing attachment\n"); return false; case GL_FRAMEBUFFER_INCOMPLETE_DIMENSIONS_EXT: printf("Framebuffer incomplete, attached images must have same dimensions\n"); return false; case GL_FRAMEBUFFER_INCOMPLETE_FORMATS_EXT: printf("Framebuffer incomplete, attached images must have same format\n"); return false; case GL_FRAMEBUFFER_INCOMPLETE_DRAW_BUFFER_EXT: printf("Framebuffer incomplete, missing draw buffer\n"); return false; case GL_FRAMEBUFFER_INCOMPLETE_READ_BUFFER_EXT: printf("Framebuffer incomplete, missing read buffer\n"); return false; } return false; } /** * swaps the role of the two y-textures (read-only and write-only) * Can be done smarter :-) */ void swap(void) { if (writeTex == 0) { writeTex = 1; readTex = 0; } else { writeTex = 0; readTex = 1; } } Seite: 62/64 General Purpose Computation on Graphics Processing Unit 14.4 Multiplikation mit RapidMind #include <rapidmind/platform.hpp> #include <time.h> using namespace rapidmind; int main() { //rapidmind initialisieren rapidmind::init(); double time1=0.0, tstart; //anzahl Berechnungen int durch = 100000; //valueXf X=anzahl int anzahl = 4; //Array länge int length =20000; //RapidMind für GPU optimieren, cell wäre zb auch möglich use_backend("glsl"); //input Vektoren für kernel Array< 1 , Value4f> input1( 10000 ); Array< 1 , Value4f> input2( 10000 ); //Inputarrays cpu float inputcpu1[10000][4]; float inputcpu2[10000][4]; //pointer auf Vektoren legen float * input_data1 = input1.write_data(); float * input_data2 = input2.write_data(); //Arrays mit Daten füllen for ( int i = 0 ; i < length ; ++i ) { for ( int j = 0 ; j< anzahl ; ++j ){ input_data1[i] = (i,i*j*5,j*6,j*7); input_data2[i] = (i * 2,j,j*4,j*i); inputcpu1[i][0] = i; inputcpu1[i][1] = i*j; inputcpu1[i][2] =j*6; inputcpu1[i][3] =j*7; inputcpu2[i][0] = i*2; inputcpu2[i][1] = j; inputcpu2[i][2] =j*4; inputcpu2[i][3] =j*i; } } //Berechnung CPU Anfang double time2=0.0, tstart2; tstart2 = clock(); float result[10000][4]; for ( int k = 0; k < durch; ++k ){ for ( int i = 0; i < length ; ++i ) { Seite: 63/64 General Purpose Computation on Graphics Processing Unit } for(int j =0; j<anzahl;j++){ result[ i ][j] = inputcpu1[ i ][j] * inputcpu2[ i ][j]; } } time2 += clock() - tstart2; time2 = time2/CLOCKS_PER_SEC; std::cout << " cputime = " << time2 << " sec.\n"; //Berechnung CPU Ende //Ouput Vektor vom kernel Array< 1 , Value4f > output; //Kernel Program prg = RM_BEGIN { In<Value2f> a; In<Value2f> b; Out<Value2f> c; c[0] = a[0] * b[0]; c[1] = a[1] * b[1]; c[2] = a[2] * b[2]; c[3] = a[3] * b[3]; } RM_END; //Beginn Berechnung GPU tstart = clock(); for ( int k = 0; k < durch ; ++k ){ output = prg(input1, input2); } //Ende Berechnung GPU //Zeit Ausgabe time1 += clock() - tstart; time1 = time1/CLOCKS_PER_SEC; std::cout << " gputime = " << time1 << " sec.\n"; } Seite: 64/64