Ganzes Heft - Technische Hochschule Wildau

Transcription

Ganzes Heft - Technische Hochschule Wildau
WISSENSCHAFTLICHE BEITRÄGE
Forschung · Lehre · Technologietransfer
ISSN 0949–8214
Heft 2006
Technische Fachhochschule Wildau
University of Applied Sciences
Wissenschaftliche Beiträge
Forschung Lehre Technologietransfer
Heft 2006
TFH Wildau, Wissenschaftliche Beiträge 2006
1
Impressum
Herausgeber
Der Präsident der Technischen Fachhochschule Wildau
Prof. Dr. László Ungvári
Bahnhofstraße
15745 Wildau
Tel. +49 3375 508-101
Fax +49 3375 500324
www.tfh-wildau.de
Redaktionskollegium der TFH Wildau
für die „Wissenschaftlichen Beiträge“
Prof. Dr. phil. Stephan Broda
Prof. Dr. Bernhard Eylert
Prof. Dr. phil. Olga Rösch
Dipl.-Ing. (FH) Kerstin Poeschel
Redaktionsleitung
Dipl.-Ing. (FH) Kerstin Poeschel
Tel. +49 3375 508-582
Redaktionsschluss: November 2006
E-Mail: [email protected]
Lektorat, Gesamtherstellung und Verlag
News & Media Public Relations · Marcus von Amsberg
Perelsplatz 18
12159 Berlin
Tel. +49 30 85961377
Fax +49 30 85961376
E-Mail: [email protected]
www.newsmedia.de
Nachdruck einzelner Artikel und Beiträge, auch auszugsweise, bei Quellenangabe frei. Belegexemplare erbeten.
ISSN 0949 – 8214
2
TFH Wildau, Wissenschaftliche Beiträge 2006
Inhaltsverzeichnis
Vorwort ..............................................................................................................................................................................
4
Moritz K. Beissenhirtz, Frieder W. Scheller, Maria S. Viezzoli, Fred Lisdat
Cystein-Mutanten der Cu,Zn-Superoxiddismutase und ihre Anwendung in Proteinelektroden
für die Detektion von freien Sauerstoffradikalen................................................................................................................
7
Klaus D. Bösing
Ausgewählte Methoden der Prozessverbesserung .............................................................................................................
12
Josef Schmadl, Carsten Briesenick, Jens-Uwe Gerking, Maik Haß, Ingrid Schult, Joachim Schult
Neuartige Plattenwärmeübertrager
Teil C: Literaturanalyse zur Verdampfung und Kondensation in Plattenapparaten.........................................................
Teil D: Wirtschaftlichkeitsbewertung von Plattenapparaten anhand von Druckverlust und Wärmeübergang ..............
16
26
Paul Fiedler, Mareike Schultze, Herbert Sonntag
Bereitstellung von Dendromasse für die Versorgung von Biomassekraftwerken –
Analyse am Beispiel des Standorts Elsterwerda .................................................................................................................
32
Sabine Gossner, Daniela Gorsler
Wissens- und Technologietransfer in europäischer Dimension: Service Center für internationalen Wissensund Technologietransfer (SeWiTec) der Technischen Fachhochschule Wildau ...............................................................
39
Michael Herzog, Eckhart Kornejew
Native Öle – Rohstoffquelle für Anwendungen in der Kunststoffindustrie......................................................................
44
Hans-Dieter Hunger, Katerina Vaskova
Präparation und Charakterisierung von biologisch aktiven Magnetit-Protein-Nanopartikeln........................................
47
Hagen Koch, Wolfgang Stuhr, Bernhard W. Naber
PUR-Kaltformweichschaumstoff – eine interessante Rohstoffquelle für neue Polyurethansynthesen ............................
51
Rainer Langenstraßen, Stanislav Fulev, Andreas Apel, Bodo Gebert, Dieter Lehmann
Entwicklung einer Anlage zur kontinuierlichen Herstellung von PET-Recyclingpolyolen ..............................................
55
Margit Scholl
Technologiegestützter After Sales Service ..........................................................................................................................
65
Ulrike Tippe, Bertil Haack
Theorie und Praxis erfolgreicher Blended Learning-Konzepte..........................................................................................
68
Ralf Vandenhouten, Miriam Selz
Ein webbasiertes Evaluationssystem für Hochschulen......................................................................................................
75
Beiträge von Studierenden
Logistik:
Robert Deininger
Projektstudie zum Logistik- und Technologiekonzept für eine Drehautomatenfertigung ...........................
81
Telematik: Einleitung: Bernhard Eylert
„Telekommunikation und Gesellschaft“ – ein neues Angebot im Master-Studiengang Telematik ..............
87
Markus Czok, Marc Gurczik
Studie: Das Handy als alltägliches Lifestyle-Objekt .......................................................................................
89
Michael Ring, Peter Ungvári
Einführung, Nutzen und Gefahren durch Funkchips ...................................................................................
95
Henri Schmidt, Stefan Lehmann
Möglichkeiten durch E-Sport für Wirtschaft und Gesellschaft...................................................................... 103
Englischsprachige Beiträge
Sergej Hloch, Stanislav Fabian
Qualitative analysis of AWJ factors affecting the surface roughness ................................................................................ 113
Lutz B. Giese, Asude Eltez
Primary Energy Balance and Energy Pay-back Time after Insulating an Outer Wall –
Comparing Northern Europe and the Eastern Mediterranean Region ............................................................................. 120
TFH Wildau, Wissenschaftliche Beiträge 2006
3
4
TFH Wildau, Wissenschaftliche Beiträge 2006
Vorwort
Die TFH Wildau hat in den zurückliegenden Jahren ein
unverwechselbares Ausbildungs- und Forschungsprofil
sowie weit reichende Netzwerke aufgebaut. Zurzeit sind
über 3.500 junge Menschen an der größten Fachhochschule des Landes Brandenburg eingeschrieben. Großer
Nachfrage erfreuen sich die Studiengänge Telematik (mit
einem Zuwachs zum Wintersemester 2006/07 von 73,2 %
gegenüber dem Wintersemester 2005/06), Europäisches
Management (+ 39,1 %), Luftfahrttechnik/Luftfahrtlogistik (+ 32,1 %), Biosystemtechnik/Bioinformatik (+ 26,1 %),
Ingenieurwesen (+ 24,5 %) und Wirtschaftsinformatik
(+ 20,6 %).
Studium und Lehre
Die Bachelorstudiengänge Telematik und Biosystemtechnik/Bioinformatik gehören nach dem jüngsten CHE-Ranking zu den besten Studiengängen im Informatikbereich
im deutschsprachigen Raum. In der Bewertung durch die
Studierenden erhielten sie Durchschnittsnoten von 1,2
bis 1,7.
Im Oktober 2006 wurden die ersten Absolventinnen und
Absolventen des Masterstudiengangs Biosystemtechnik/
Bioinformatik verabschiedet. Ein besonderer Schwerpunkt des Studiengangs ist die Verbindung von biologischen Strukturen mit der modernen Informatik. So
werden Biomoleküle zunehmend mit technischen Bauelementen zu neuen Funktionseinheiten kombiniert. Solche biohybriden Systeme erschließen neue Anwendungsfelder in der Pharmaforschung, klinischen Diagnostik,
Lebensmittelanalytik und Gentechnik.
Im September 2006 begann der zweijährige Masterstudiengang „Europäisches Management“. Ein Drittel der
Lehrveranstaltungen findet in englischer Sprache statt.
Das dritte Semester ist kompatibel mit den Angeboten
von Partnerhochschulen in den Niederlanden, Frankreich, Finnland, den USA und Australien.
Außerdem ist seit Herbst 2006 die Immatrikulation für den
viersemestrigen Masterstudiengang „Luftfahrttechnik/
Luftfahrtlogistik“ möglich. Ziel der Ausbildung ist es,
hochmotivierte Spezialisten für den Betrieb von Verkehrs- und Geschäftsreiseflugzeugen, von Flughäöfen
und Verkehrslandeplätzen sowie für die Zulieferindustrie
heranzubilden.
Ebenfalls im September startete der erste berufsbegleitende Studiengang zum Master of Business Administration (MBA). Das gemeinsam mit dem Wildau Institute of
TFH Wildau, Wissenschaftliche Beiträge 2006
Technology e. V. entwickelte Fortbildungsprogramm für
Führungskräfte in Unternehmen und öffentlichen Einrichtungen umfasst die Spezialisierungen Luftverkehrsmanagement, Managementberatung und Public Affairs.
Existenzgründung auf dem Campus
Neben einer modernen Ausbildung bietet die TFH Wildau
ihren Studierenden auch Unterstützung bei der Existenzgründung. Ergänzend zum Businessplan-Wettbewerb Berlin-Brandenburg (BPW) hat sie im vergangenen Jahr eine
interne Ausschreibung eingeführt, um die Teilnahme
studentischer Gründungsteams am BPW zu stimulieren.
Die Hochschule prämiert den besten Businessplan von
TFH-Studierenden mit Geldpreisen, sofern in jeder Stufe
mindestens fünf Businesspläne von Studierenden der
TFH Wildau eingereicht werden und sich der beste Businessplan von TFH-Studierenden in der Gesamtwertung
alle Businesspläne im ersten Drittel platzieren kann.
Forschungs- und Entwicklungsprojekte
Nach der Altfahrzeugverordnung sollen bis 2015 rund 95
Prozent der Komponenten eines Kraftfahrzeuges wiederverwertet werden. Noch aktive Airbags enthalten Sprengstoff, deshalb sind hier gängige Verwertungstechnologien
nicht anwendbar. Ein Forschungsteam um die Professoren
Dr.-Ing. habil. Bernd Hentschel und Dipl.-Ing. Karlheinz
Kuchling entwickelte in Kooperation mit der RASOMA
Werkzeugmaschinen GmbH, Döbeln, und der Projektlogistik GmbH, Wildau, dazu eine neuartige Demontagezelle (ADZ 2007). Kernstück der explosionsgeschützten
Anlage ist ein Roboter, der die einzelnen Schritte computergestützt ausführt und den sprengstoffgefüllten
Gasgenerator sicher ablegt. Die neue Technologie wurde
erstmals auf der Hannover Messe vorgestellt.
Auf der Laser Optik Berlin 2006 (LOB) präsentierte sich
die TFH Wildau mit drei Projekten als ein Kompetenzzentrum für Lasertechnik, optische und Dünnschichttechnologien: Im Rahmen des praktischen Studiensemesters im Ingenieurstudiengang Physikalische Technik entwickelte ein Team um Prof. Dr. Siegfried Rolle einen
Messplatz für die sichere Erkennung von elektrischen
und mechanischen Defekten in Fertigungsprozessen von
Solarzellen. Dabei werden die Fotozellen mittels Laserstrahl berührungslos abgetastet und Kurzschlüsse, so
genannte Shunts, detektiert. Ein Forschungsteam unter
Leitung von Prof. Dr. Sigurd Schrader befasst sich mit
der Material- und Technologieentwicklung für die Herstellung von Organischen Leuchtdioden (OLEDs). Diese
5
hauchdünnen, scharf abbildenden und energiesparenden
Anzeigeelemente werden nach Experteneinschätzung in
absehbarer Zeit die heute dominierenden LCD-Anzeigen
ablösen. Ein weiteres Team um Prof. Schrader forschte zur
Herstellung ultraschneller optischer Modulatoren. Diese
neuartigen Laserbauelemente kommen in der Datenübertragung und -speicherung zum Einsatz.
Auf der CeBIT 2006 zeigte die TFH Wildau zwei weitere
Entwicklungsprojekte: ein Softwaresystem zur Erfassung,
Bewertung und Dokumentation von kommunal genutzten Liegenschaften (Projektleitung: Honorarprofessor
Dipl.-Ing. Christian Killiches) und „MarCoGraph“, ein
neuartiges Geoinformationssystem zur übersichtlichen
Darstellung der Geschäftsdaten von Unternehmen (Projektleitung: Prof. Dr. Michael Hendrix).
Alle zuvor genannten Projekte stellen nur eine kleine
Auswahl der Forschungsaktivitäten an der TFH Wildau
dar. Sie machen deutlich, wie anwendungsorientiert die
Forschung und Entwicklung an der Hochschule ausgerichtet ist.
Kooperationen und Netzwerke
Mit 150.000 Beschäftigten und einem Jahresumsatz von
rund 3,5 Milliarden Euro steht die Logistikwirtschaft
der Hauptstadtregion nach Hamburg, München und
dem Rhein-Ruhr-Gebiet bundesweit auf Platz 4. Hinzu
kommt eine hohe wissenschaftliche Fachkompetenz an
Universitäten und Hochschulen. Zur weiteren Stärkung
der Branche wurde im Januar 2006 die „Logistikinitiative
Berlin-Brandenburg“ gegründet, unter maßgeblicher Beteiligung des Arbeitskreises Logistik an der TFH Wildau
unter Leitung von Prof. Dr.-Ing. Herbert Sonntag. Ziel der
Initiative ist es, den Standort besser zu vermarkten und
durch die stärkere Vernetzung von Unternehmen und
wissenschaftlichen Einrichtungen zu einem führenden
6
Kompetenzzentrum in Europa zu entwickeln. Das Projektbüro der Initiative wurde an der TFH Wildau eingerichtet. Das Netzwerkmanagement wird über drei Jahre
aus Mitteln des Landes Brandenburg gefördert.
Im Februar 2006 eröffneten die TFH Wildau und das
IHP – Institut für innovative Mikroelektronik am IHP in
Frankfurt (Oder) ihr gemeinsames Forschungs- und Ausbildungszentrum „Joint Lab TFHW – IHP“. Es fasst die
Kompetenzen an beiden Einrichtungen für eine gemeinsame Forschung und Lehre im Bereich der Mikroelektronik zusammen. So sollen unter anderem Arbeiten zur
Entwicklung neuartiger integrierter optoelektronischer
Schaltungen und Biosensoren aufgenommen werden.
Anfang des Jahres wurde der Forschungsverbund Regionale Innovationssysteme Berlin-Brandenburg, dem unter
anderem die TFH Wildau angehört, zum neuen „Verbund
Regionale Innovationssysteme Berlin-Brandenburg“ erweitert. Das Netzwerk bündelt zukünftig auch die Kompetenzen von Technologie- und Gründerzentren, Bildungsträgern, regionalen Wirtschaftsförderungsgesellschaften,
der Industrie- und Handelskammern sowie von Unternehmen und weitere Forschungseinrichtungen in der
Hauptstadtregion. Die Zusammenarbeit reicht von der
gemeinsamen Analyse und Bewertung des regionalen
Strukturwandels, über beratende Leistungsangebote für
eine wettbewerbsfähige Regionalentwicklung und die
Unterstützung bei der Analyse von Wachstumspotenzialen bis zur Erarbeitung von Standort- und Stadtentwicklungskonzepten und deren Umsetzung.
Dr. László Ungvári
Präsident
TFH Wildau, Wissenschaftliche Beiträge 2006
Cystein-Mutanten der Cu,Zn-Superoxiddismutase und ihre
Anwendung in Proteinelektroden für die Detektion von
freien Sauerstoffradikalen
Moritz K. Beissenhirtz, Frieder W. Scheller, Maria S. Viezzoli, Fred Lisdat*
Zusammenfassung
Das Enzym Superoxiddismutase (SOD) bietet wegen
seiner hohen Reaktionsrate und seiner extrem hohen
Substratspezifität große Vorteile für eine Anwendung
als Superoxidbiosensor. In dieser Arbeit wurden durch
molekularbiologische Methoden Mutanten der humanen
Cu,Zn-SOD gewonnen, welche ein oder zwei zusätzliche
Cystein-Reste enthielten, die eine einfache Immobilisierung des Proteins durch Bindung des Cystein-Schwefels
auf Goldelektroden ermöglichten. Sechs solcher Mutanten
wurden entworfen, exprimiert, aufgereinigt und elektrochemisch charakterisiert. Alle Mutanten konnten durch
einen einfachen Inkubationsschritt auf Goldelektroden
gebunden werden und zeigten ein quasi-reversibles elektrochemisches Ansprechen. Für eine Mutante wurde die
Anwendung als Superoxidsensor genauer untersucht und
für beide Teilreaktionen der Dismutation ein Ansprechen
des Sensors auf das Radikal gefunden. Bei Verwendung
einer Teilreaktion konnte die Empfindlichkeit herkömmlicher Monoschichtsensoren um etwa eine Größenordnung
übertroffen werden
1. Einleitung
In den letzten Jahren wurde die Bedeutung freier Radikale in der Entstehung und Entwicklung von Krankheiten
wie Krebs [1], Parkinson [2] und Herzleiden [3] intensiv
untersucht. Insbesondere aggressive, kurzlebige Sauerstoffverbindungen wie das Superoxidradikal O2- (ein negativ
geladener Disauerstoff) spielen eine Schlüsselrolle während
der Schädigung des Gewebes, da sie mit allen essentiellen
Bestandteilen menschlicher Zellen – DNA, Proteinen und
Membransystemen – reagieren können. Aus diesem Grund
sind die genaue Bestimmung der Konzentration derartiger
Radikale ebenso wie die Quantifizierung der Effizienz von
Radikalfängern, sogenannter Antioxidantien, von großer
Bedeutung für Pharmazie, Medizin und Lebensmittelindustrie. Die geringen natürlichen Konzentrationen (10-9
bis 10-6 mol l-1) sowie die Kurzlebigkeit des Superoxidradikals (ms bis s) stellen dabei Herausforderungen für das
Messsystem dar.
In der biosensorischen Forschung wurden bereits
Proteinelektroden entwickelt, die Elektronenaustauschreaktionen mit dem Radikal eingehen. Insbesondere
das Protein Cytochrom c (Cyt.c) wurde erfolgreich auf
Goldelektroden immobilisiert [4] und konnte sogar im
Tierversuch zur Bestimmung von Radikalkonzentrationsänderungen im Gewebe von Ratten eingesetzt werden [5].
Cyt.c enthält im aktiven Zentrum ein Eisenatom, welches
vom Superoxidradikal reduziert und anschließend an der
Elektrode re-oxidiert werden kann, wobei über den dabei
fliessenden Strom eine Messung der Konzentration des
Radikals in Echtzeit ermöglicht wird.
Limitiert wird dieser Ansatz allerdings durch die niedrige Reaktionsgeschwindigkeit des Proteins, welches kein
natürlicher Reaktionspartner des Radikals ist, die Möglichkeit der Signalverfälschung durch Reaktionen mit anderen Molekülen, insbesondere H2O2, und der aufwendigen
mehrtägigen Präparation der Elektroden.
Das Protein Superoxiddismutase (SOD) ist das Schlüsselenzym in der zellulären Verteidigung gegen Superoxidradikale [6]. Es enthält in der Regel im aktiven Zentrum
ein Kupfer- und ein Zinkion (Cu,Zn-SOD) und zeigt eine
sehr hohe Reaktionsrate mit dem Radikal sowie eine beinahe einzigartige Substratspezifität. Auf Grund dieser für
die Radikalsensorik bedeutenden Vorteile wurden in den
letzten Jahren einige Biosensoren unter Verwendung von
SOD entwickelt [7-9]. Nachteilig waren hier potentielle
Signalverfälschungen durch notwendige Hilfsschichten für
die Proteinanbindung sowie die aufwendige Präparation.
Um diesen Konflikt aufzulösen, wurden in dieser Arbeit durch molekularbiologische Manipulation Mutanten
der menschlichen SOD entwickelt, welche ein oder zwei
zusätzliche Cystein-Reste (Cys) enthielten. Die Aminosäure
Cystein enthält eine endständige Thiolgruppe, welche an
Goldoberflächen bindet und somit eine direkte Kopplung
des Enzyms auf der Elektrode in einem Ein-Schritt-Verfahren ermöglicht. Die Bindung dieser Mutanten auf der
Sensoroberfläche, die Elektrochemie der SOD und die
Anwendung als Superoxidsensor wurden untersucht.
2. Material und Methoden
Xanthinoxidase aus Kuhmilch (XOD) wurde von Roche
(Mannheim, Deutschland) geliefert und durch Zentrifugation (15 min bei 11.000 U/min) und Dialyse zusätzlich
gereinigt. Bovine Cu-Zn-SOD, HEPES, ß-D-1-thiogalactopyranosid (IPTG) und Xanthin wurden von Sigma Aldrich
(Steinheim, Deutschland) bezogen. Golddraht (>99 %
Reinheit, Durchmesser 0,5 mm) wurde von Goodfellow
(Cambridge, Großbritannien) gekauft.
Alle zyklovoltammetrischen Untersuchungen wurden
an einem Autolab System (Metrohm, Deutschland) durch-
* korrespondierender Autor
TFH Wildau, Wissenschaftliche Beiträge 2006
7
geführt. Amperometrische Messungen wurden an einem
Model 720A Potentiostaten von CHI Instruments (Austin,
USA) vorgenommen. Für alle elektrochemischen Untersuchungen wurde eine 1-ml-Messzelle mit einer Ag/AgCl/1 M
KCl-Referenzelektrode von Biometra (Göttingen, Deutschland) und einer Platindraht-Gegenelektrode verwendet.
Die molekularbiologischen Methoden sowie die
Expression und Reinigung der SOD-Mutanten wurden
nach dem bereits etablierten Protokoll zur Arbeit an der
humanen Cu,Zn-SOD durchgeführt [10].
Das Gen einer monomeren Form der humanen Cu,ZnSOD, welches auf einem Plasmid (Variante von pBR322)
unter Kontrolle des IPTG-ansprechbaren Lac-Promotors
zusammen mit einem Selektionsgen für Ampicillin-Resistenz vorlag (CERM, Universität Florenz, Italien), diente als
Wildtyp für die Gewinnung der Mutanten. Aminosäuren
des Wildtyps, welche gegen ein Cys ausgetauscht werden
konnten, wurden durch die Softwareprogramme RasMol,
MolMol und Prosa II, ermittelt. Der Austausch der ausgewählten Aminosäuren erfolgte mittels des kommerziellen
QuikChange® Site-Directed Mutagenesis Kit der Firma
Stratagene (La Jolla, USA) nach Vorgaben des Herstellers.
Kompetente E. coli Bakterien (TOPP1) wurden durch Hitzeschock (90s bei 42°C, danach Inkubation auf Eis) mit dem
jeweiligen Plasmid transformiert, über die Ampicillin-Resistenz selektiert und über Nacht in Kulturgefäßen (unter
Schütteln bei 37°C) herangezogen. Expression der SOD
wurde durch Zugabe von IPTG, einem Lactoseanalogon,
zur Wachstumslösung (2XYT-Flüssigmedium) erzielt.
Die periplasmatischen Proteine wurden durch einen
osmotischen Schock (40%-ige Saccharoselösung) und
nachfolgende Zentrifugations- und Waschschritte von
den übrigen Zellbestandteilen abgetrennt. Durch DEAESepharosesäulenchromatographie und SDS-Gelelektrophorese wurden Fraktionen gewonnen, die fast ausschließlich
SOD enthielten.
Die Enzymelektroden wurden durch einfache Inkubation sauberer Golddrähte in einer 50-300 µM SOD-Lösung
(über Nacht) und anschliessender Spülung mit proteinfreiem Puffer hergestellt.
Für die Oberflächenplasmonresonanzspektroskopie
(SPR) wurde ein sauberer SPR-Chip unmodifiziert in
das Fliesssystem des Biacore 2000 (Biacore AB, Uppsala,
Schweden) eingebaut. 200 s lang wurde der Chip mit
Puffer gespült. Anschließend wurde eine 100 µM Lösung
einer SOD-Mutante bzw. einer Apo-SOD-Mutante für 3h
über den Chip geleitet, gefolgt von erneut 15 min Puffer,
jeweils mit einer Fliessrate von 1µl/min. Die Änderung
des Resonanzsignals gegen die Zeit diente als Maß für die
Massenanlagerung auf der Chipoberfläche.
Für die sensorische Anwendung der SOD-Mutanten
wurde in vitro ein Enzymsystem zur Erstellung von Superoxid genutzt. Das Enzym Xanthin-Oxidase katalysiert die
Umsetzung von Xanthin zu Harnsäure, wobei als ständige
Beiprodukte Superoxid und Wasserstoffperoxid anfallen. Es
wurden 990 µl Puffer in die Messzelle gegeben und unter
konstantem Rühren ein Potential von +220 mV bzw. –130
mV angelegt. Nach Einstellung eines konstanten Hintergrundstroms von wenigen nA wurde 10 µl Xanthin zu
einer Endkonzentration von 100 µM in der Zelle hinzupipettiert. Eine anschließende Zugabe von XOD (5 mU/ml
8
bis 60 mU/ml) startete die radikalproduzierende Reaktion.
Nach Erreichen eines stabilen Stromplateaus wurden einige
µl einer SOD-Lösung (1-3 mg/ml) hinzugefügt, um Superoxid aus der Lösung zu entfernen. Die Konzentration des
Radikals in der Messzelle wurde nach bekanntem Verfahren
errechnet und der Sensor so kalibriert [11].
3. Ergebnisse
Für die Gewinnung von Proteinmutanten einer monomeren Form der humanen Cu,Zn-SOD wurden zunächst
potentielle Mutationsstellen ausgewählt. Zielstellung war
hierbei die Einführung von Cysteinresten in das Protein,
die dann vorteilhaft für eine direkte Immobilisierung auf
Goldoberflächen genutzt werden können (über die GoldThiol-Chemisorptionsbindung). Randbedingungen für die
Wahl der Mutationsposition waren einerseits die Nähe
der mutierten Aminosäure zum aktiven Zentrum sowie
andererseits der weitgehende Erhalt der Proteinstruktur.
Es wurden sechs Proteinmutanten ausgewählt: drei dieser
Mutanten enthielten einen Cysteinrest (Mut1A, Mut1B,
Mut2B), drei weitere zwei Cystein-Reste (Mut2A, Mut2B,
Mut3B). Abb. 1 zeigt die Position der Mutationsansätze im
Modell des Proteins.
Abb. 1: SDS-Page-Gele verschiedener Proteinaufreinigungsschritte.
Rechts: von links: gereinigter Wt als Marker, 4 Präparationen der
gewonnen bakeriellen Proteine. Links: von links: Größenstandard (von
unten: 14,4; 20,1; 30; 43; 67; 94 kDa), aufgereinigte Präparation
von Mut1A, Mut2A, Mut2B, Mut2C, Wt, Mut1B, Mut1C.
Im Expressionssystem E. coli wurden diese sechs Mutanten
der Cu,Zn-SOD exprimiert und einer Aufreinigung mittels
Säulenchromatographie unterzogen. Abb. 2 zeigt links die
überproportional breite Bande der SOD in der Gesamtheit
der gewonnenen periplasmatischen Proteine sowie rechts
im direkten Vergleich die Reinheit aller Mutanten nach der
chromatographischen Aufreinigung. Reinheit (>95 %) und
Menge (>100 mg) der so gewonnenen Enzyme waren für
die Untersuchung auf Sensorelektroden mehr als ausreichend. Spektroskopische Messungen bewiesen die Aktivität
aller Mutanten bei der Zersetzung von Superoxid.
TFH Wildau, Wissenschaftliche Beiträge 2006
Abb. 2: Strukturmodell der monomeren humanen Cu,Zn-SOD mit
Blick auf das Kupfer des aktiven Zentrums (schwarze Kugel). Die zur
Mutation ausgewählten Aminosäuren sind als gitterartige „Sticks“
hervorgehoben dargestellt. (Quelle: 1DSW in der Brookhaven Protein
Databank)
Die Bindung der Cys-haltigen Mutanten an Goldoberflächen wurde durch Oberflächenplasmonresonanzspektroskopie (Abb. 3) und Impedanzspektroskopie nachgewiesen.
Beide Methoden zeigten beispielhaft eine erfolgreiche
Bindung der Mutante Mut1C, sowohl in aktiver Form als
auch nach Inaktivierung durch Entfernung des Kupfers.
Cystein-freie SOD (Wildtyp) hingegen konnte nach der
gleichen Methode nicht immobilisiert werden. Dies zeigt,
dass die Bindung der Proteinmoleküle auf der Oberfläche
spezifisch über die neu eingefügten Cys-Reste erfolgt.
aller sechs immobilisierten Mutanten. Zum Vergleich
wurden auch die Kupfer-freie Form der Mut1C (apo-SOD)
sowie der Cystein-freie Wildtyp der SOD untersucht. Für
keines der beiden Systeme wurde ein elektrochemisches
Ansprechen gefunden. Dies unterstreicht noch einmal
die Notwendigkeit der eingeführten Cysteinreste für
die Proteinimmobilisierung und ordnet die gefundene
elektrochemische Umwandlung eindeutig dem aktiven
Kupferzentrum des Enzyms zu.
Im Vergleich der einzelnen Mutanten wurden weder in
der Proteinmenge auf der Oberfläche noch im formalen
Redoxpotential signifikante Unterschiede festgestellt. Die
genaue Lage der eingefügten Cysteine verändert also die
Orientierung des Proteins zur Elektrodenoberfläche nur
geringfügig. Durch eine Variation der Scanrate wurde die
Elektronentransfergeschwindigkeitskonstante ks bestimmt
[12]. Tabelle 1 fasst die bestimmten elektrochemischen Parameter aller untersuchten Proteinmutanten zusammen
und vergleicht sie mit den Daten des Wildtyps, der konventionell über eine sogenannte Promotorschicht auf der
Goldoberfläche aufgebracht wurde.
Mutante
Formales Potential
[mV vs. Ag/AgCl]
ks [s-1]
Mut1A
158 ± 5
7,8 ± 1,7
Mut1B
146 ± 9
9,4 ± 1,5
Mut1C
146 ± 6
6,4 ± 2,7
Mut2A
154 ± 6
7,3 ± 2,1
Mut2B
149 ± 4
10,5 ± 4,1
Mut2C
151 ± 3
5,8 ± 1,3
Wildtyp
94 ± 5
6,4 ± 0,8
Tabelle 1
Abb. 3: Sensogramm der Immobilisierung von Mut1C (blau) und
Apo-Mut1C (rot) auf der Goldoberfläche eines SPR Chips. (Oberflächenplasmonresonanzspektroskopie, v = 1 µl/min)
Zur weiteren Untersuchung wurden Goldelektroden
gleichfalls durch einfache Inkubation über Nacht mit
den Proteinmutanten modifiziert. Abb. 4 zeigt die Zyklovoltammogramme der so gewonnenen Proteinelektroden
und demonstriert die elektrochemische Ansprechbarkeit
Abb. 4: Zyklische Voltammogramme der SOD-Mutanten. Links: Einzelmutanten (1 Cys-Rest), rechts: Doppelmutanten (2 Cys-Reste).
(Puffer: 50 mM HEPES pH 7,5; Scanrate 100mV/s)
TFH Wildau, Wissenschaftliche Beiträge 2006
Auffällig ist die positive Verschiebung des formalen
Redoxpotentials bei den Mutanten im Vergleich zum
Wildtyp. Derartige Veränderungen in der Lage des formalen Potentials können sowohl den Veränderungen in der
Kupferumgebung durch die Mutation als auch der Immobilisierung des Proteins zugeschrieben werden [13, 14]. Die
Geschwindigkeit des Elektronentransfers wurde durch die
direkte SOD Immobilisierung auf der Goldelektrode im
Vergleich zur Nutzung einer zusätzlichen Promoterschicht
nur unwesentlich erhöht. Die Verringerung des Abstandes
des Kupferzentrums zur Elektrode ist offensichtlich nur
gering und/oder andere Faktoren bestimmen hier die Geschwindigkeit des heterogenen Elektronentransfers. Die
relativ große Halbpeakbreite von ~160 mV im Vergleich
zum ideal reversiblen System (90 mV/z) weist auf eine Verteilung von Redoxzuständen auf der Elektrodenobefläche
hin. Dies ist nicht untypisch für Proteinelektroden, jedoch
ist die Breite der Verteilung ein mögliches Indiz für stärker
heterogene Wechselwirkungen der direkt immobilisierten
Proteinmutanten mit der Goldoberfläche. Oxidation und
Reduktion des aktiven Zentrums der gewonnenen Proteine
sind jedoch rückführbar, und so kann der Elektronentransfer der immobilisierten SOD Mutanten als quasi-reversibel
bezeichnet werden.
Die Charakteristika der Protein-modifizierten Elektroden erlauben in summa eine Anwendung als Superoxidsensorelektrode. Ein weiterer Vorteil gegenüber Cyt.c basierten
9
Elektroden ist dabei die SOD-katalysierte Dismutation des
Radikals: SOD kann sowohl die Oxidation (O2- zu O2) als
auch die Reduktion des Radikals (O2- zu H2O2) katalysieren und bietet somit zwei verschiedene Möglichkeiten des
Einsatzes einer SOD-Elektrode.
Abb. 5: Amperometrische Radikalmessung mit Mut1C bei +220 mV
(links) und –130 mV (rechts). A: Beginn der Radikalgenerierung. B:
Plateau bei konstanter Superoxidkonzentration. C: Entfernung des
Radikals aus der Lösung.
Die Radikalmessungen wurden amperometrisch bei
einem konstanten Potential (+220 mV für die Oxidation bzw. –130 mV für die Reduktion des Radikals) über
den Zeitraum einiger Minuten durchgeführt. Nach dem
Erreichen einer stabilen Basislinie in Abwesenheit von
Superoxidradikalen wurde durch ein Enzymsystem (Hypoxanthinoxidation durch Xanthinoxidase) eine konstante Superoxidkonzentration in der Messzelle erzeugt
[11]. Abb. 5 zeigt den Stromfluss über die Elektrode in
beiden Potentialfenstern für eine Mut1C-Elektrode. Bei
+220 mV stieg der Strom nach Beginn der Radikalproduktion steil an (a) und erreichte einen Plateauwert (b)
entsprechend der konstanten Superoxidkonzentration,
bis die Zugabe einer SOD-Lösung in die Zelle (c) alle Radikale aus der Zelle entfernte und dadurch bedingt auch das
Sensorsignal wieder auf den Ausgangswert sank. Bei –130
mV erfolgte das gleiche unter umgekehrten Vorzeichen:
Die Superoxidproduktion führte zu einem Reduktionsstrom, der durch Radikalentfernung wieder bis auf den
Ausgangswert verringert wurde. Dieses Verhalten ist in
Übereinstimmung mit den Erwartungen. Im positiven
Potentialbereich wird das Protein vom Radikal reduziert
und durch die Elektrode wieder re-oxidiert, wobei Elektronen vom Protein auf die Messelektrode übergehen, was
als Oxidationsstromfluss registriert wird. Im negativen
Potentialfenster findet der entgegengesetzte Prozess statt.
Folgende Gleichungen sollen die Teilprozesse an den Proteinelektroden noch einmal verdeutlichen:
I
Nutzung der Oxidase-Aktivität des Enzyms
(+220 mV vs. Ag/AgCl):
O2- + Cu(II)ZnSOD → O2 + Cu(I)ZnSOD
Cu(I)ZnSOD → Cu(II)ZnSOD + 1 e(Elektrodenreaktion)
II Nutzung der Reduktase-Aktivität des Enzyms
(-130mV vs. Ag/AgCl):
O2- + Cu(I)ZnSOD + 2 H+ → H2O2 + Cu(II)ZnSOD
Cu(II)ZnSOD + 1 e- → Cu(I)ZnSOD
(Elektrodenreaktion)
10
Somit zeigen diese Untersuchungen, dass beide Teilschritte der Dismutationsreaktion im Sensorsystem stattfinden
und zur spezifischen Detektion des Radikals genutzt
werden können. Die komplette Signalauslöschung durch
die Zugabe einer SOD-Lösung beweist, dass das Signal
ausschließlich vom Superoxid herrührt und nicht durch
andere Einflüsse bedingt ist. Die Messkurven zeigen
darüber hinaus auch, dass die Proteinelektroden schnell
auf Konzentrationsänderungen in der Lösung reagieren
können und sie somit grundsätzlich zur on-line Radikalbestimmung einsetzbar sind.
Bei gleicher Superoxidkonzentration ist das Nettosignal bei einem Elektrodenpotential von +220 mV deutlich
höher als bei –130 mV, weshalb der Sensor in diesem Potentialfenster kalibriert wurde. Dabei wurde das Sensorsignal
bei verschiedenen bekannten Radikalkonzentrationen aufgenommen und die Empfindlichkeit der Elektrode mit 0,23
A M-1 cm-2 bestimmt (siehe Abb. 6). Dieser Wert übertrifft
die Empfindlichkeit bisheriger Cyt.c basierter Elektroden
um etwa eine Größenordnung. Damit konnte der erwartete Vorteil der Nutzung eines Erkennungselementes mit
einer höheren Reaktionsgeschwindigkeit mit dem Superoxidradikal (SOD) im Verhältnis zu dem oft genutzten
Redoxprotein Cytochrom c bestätigt werden.
Abb. 6: Sensorsignal von Mut1C bei +220 mV in Abhängigkeit von
der Radikalkonzentration. Fehlerbalken resultieren von unabhängigen
Messungen von je 3 Elektroden.
4. Zusammenfassung
Sechs Mutanten der monomeren humanen Cu,-Zn-SOD
mit ein oder zwei zusätzlichen Cys-Resten wurden durch
Computersimulation entworfen und nach molekularbiologischer Methodik in E. coli Bakterien exprimiert. Alle
Mutanten konnten mit ausreichender Reinheit und unter
Verbleib der Aktivität aufgereinigt werden. Die erfolgreiche
Bindung auf Goldoberflächen wurde durch optische und
elektrochemische Methoden nachgewiesen, wobei der Cysfreie Wildtyp keine Bindung zeigte, was die Spezifität der
SOD-Immobilisierung über die eingeführten Cysteinreste
zeigt.
Goldelektroden, die mit den gewonnen Mutanten
modifiziert wurden, zeigten ein quasi-reversibles elektrochemisches Ansprechen. Der Redoxprozess konnte dem
TFH Wildau, Wissenschaftliche Beiträge 2006
aktiven Kupferzentrum zugeordnet werden. Die elektrochemischen Charakteristika der verschiedenen Mutanten
Elektroden unterschied sich nur geringfügig, während im
Vergleich zum Cys-freien Wildtyp das formale Redoxpotential signifikant zu positiven Werten verschoben war.
In einem biosensorischen Ansatz konnten beide
Teilreaktionen der Dismutation des Radikals zur Signalgewinnung genutzt werden, wobei die Proteinelektrode im
positiven Potentialbereich eine deutlich höhere Empfindlichkeit aufwies, welche im Vergleich zu herkömmlichen
Cyt.c-Monoschichtelektroden um etwa den Faktor zehn
höher ausfiel.
Somit wurde ein neues Biosensorsystem vorgestellt,
das neben der signifikant besseren Sensitivität auch den
Vorteil einer extrem einfachen und daher auch kostengünstigen einstufigen Sensorenherstellung besitzt. Dieses
neue System kann daher zur genaueren Untersuchung der
radikalbedingten Vorgänge im Körper und der Entwicklung neuer therapeutischer, antioxidativer Verbindungen
eingesetzt werden.
Autoren
Literatur
Prof. Dr. rer. nat. habil. Fred Lisdat
Technische Fachhochschule Wildau
Biosystems Technology
Tel. +49 3375 508-456
[email protected]
[1] Kovacic, P.; Jacintho, J. D. Current Medicinal Chemistry
2001, 8, 773-796.
[2] Liang, L. P.; Patel, M. Journal of Neurochemistry 2004, 90,
1076-1084.
Dr. rer. nat. Moritz K. Beissenhirtz
Hebrew University of Jerusalem
The Institute of Chemistry
91904 Jerusalem, Israel
Tel. +972 2 6585272
[email protected]
Prof. Dr. rer. nat. habil. Frieder W. Scheller
Universität Potsdam
Institut für Biochemie und Biologie
Analytische Biochemie
Karl-Liebknecht-Str. 24-25, H. 25
14476 Golm
[email protected]
Dr. rer. nat. Maria S. Viezzoli
CERM, University of Florence
Via Sacconi 6
50019 Sesto Fiorentino, Italien
[3] Mak, S.; Newton, G. E. Chest 2001, 120, 2035-2046.
[4] Lisdat, F.; Ge, B.; Ehrentreich-Forster, E.; Reszka, R.; Scheller,
F. W. Analytical Chemistry 1999, 71, 1359-1365.
[5] Buttemeyer, R.; Philipp, A. W.; Mall, J. W.; Ge, B. X.; Scheller,
F. W.; Lisdat, F. Microsurgery 2002, 22, 108-113.
[6] McCord, J. M.; Fridovich, I. J. Biol. Chem. 1969, 244, 60496055.
[7] Ge, B.; Scheller, F. W.; Lisdat, F. Biosensors & Bioelectronics
2003, 18, 295-302.
[8] Tian, Y.; Mao, L.; Okajima, T.; Ohsaka, T. Analytical Chemistry 2002, 74, 2428-2434.
[9] Ohsaka, T.; Tian, Y.; Shioda, M.; Kasahara, S.; Okajima, T.
Chemical Communications 2002, 990-991.
[10] Getzoff, E. D.; Cabelli, D. E.; Fisher, C. L.; Parge, H. E.;
Viezzoli, M. S.; Banci, L.; Hallewell, R. A. Nature 1992, 358,
347-351.
[11] Ge, B.; Lisdat, F. Analytica Chimica Acta 2002, 454, 53-64.
[12] Laviron, E. In J. Electroanal. Chem., 1978; Vol. 101, pp 1928.
[13] Tarlov, M. J.; Bowden, E. F. Journal of the American Chemical
Society 1991, 113, 1847-1849.
[14] Taniguchi, I.; Toyosawa, K.; Yamaguchi, H.; Yasukouchi, K.
Journal of the Chemical Society-Chemical Communications
1982, 1032-1033.
TFH Wildau, Wissenschaftliche Beiträge 2006
11
Ausgewählte Methoden der Prozessverbesserung
Klaus D. Bösing
1 Einleitung
Heute werden nur diejenigen Unternehmen im harten
Konkurrenzkampf überleben, denen es gelingt, ihre Geschäftsprozesse in geeigneter Weise zu organisieren und zu
optimieren. Mit Hilfe des Geschäftsprozessmanagements
können dabei strategisch relevante Geschäftsprozesse im
Unternehmen nachhaltig verbessert werden.
Grundsätzlich gibt es zwei Vorgehensweisen, um die Leistung von Geschäftsprozessen zu optimieren:
– Prozesserneuerung
– Prozessverbesserung
Während die Prozesserneuerung nur in besonderen Situationen zur Anwendung kommt, wird die Prozessverbesserung kontinuierlich durchgeführt.
Zu den bekanntesten Methoden der Prozesserneuerung
gehört das Business Reengineering von M. Hammer und J.
Champy [3], die in der Literatur auch als Business Process
Reengineering (BPR) bezeichnet wird. Ziel dieser Methode
ist es, durch radikale Neugestaltung von entscheidenden
Geschäftsprozessen des Unternehmens die Verbesserung
von Kosten, Zeit und Qualität, um die Wettbewerbsfähigkeit am Markt zu sichern (vgl. u. a. [1]).
Bezüglich der Prozessverbesserung zählen
– Total Cycle Time (TCT),
– Kaizen und
– Six Sigma
zu den seit vielen Jahren mit Erfolg angewandten Methoden. Ziel dieser Methoden ist es, die Prozesse kontinuierlich
zu verbessern und somit die Prozessleistung zu erhöhen.
2 Prozessverbesserungsmethoden
Um die Ursachen von ineffizienten und ineffektiven
Geschäftsprozessen zu reduzieren, gehen alle oben genannten Methoden nach dem Problemlösungskreislauf
vor (Abb. 1):
1. Probleme identifizieren
2. Probleme analysieren
3. Ursachen beseitigen
4. Maßnahmen prüfen
5. Lösung standardisieren
Während die TCT-Methode den Gesamtprozess und die
Ebenen der Teilprozesse betrachtet, konzentriert sich Kaizen auf die Ebene einzelner Prozess- und Arbeitsschritte.
Bei Six Sigma können sich die Verbesserungen auf alle
Ebenen beziehen. Alle drei Methoden haben gemeinsam,
dass sie kontinuierlich durchgeführt werden und auf dem
Prinzip der kleinen Schritte beruhen.
12
1. Probleme
identifizieren
5. Lösungen
standardisieren
2. Probleme
analysieren
4. Maßnahmen
prüfen
3. Ursachen
beseitigen
Abb. 1: Prozessverbesserung in 5 Schritten (vgl. [5])
2.1 TCT-Methode
Die TCT-Methode stammt aus den USA. Im Vordergrund
dieser Methode steht die Reduzierung der Prozesszeit. Ziel
ist es, die Prozesszeit so zu reduzieren, dass gleichzeitig die
anderen Leistungsparameter wie Prozesskosten, Prozessqualität und Termintreu optimiert werden (vgl. [2]).
Die wesentlichen Merkmale der TCT-Methode sind (vgl.
u. a. [5]):
– Sondieren von Barrieren, die den Ablauf von Geschäftsprozessen behindern,
– Eliminieren von Barrieren und Ersatzprozessen,
– Messen der Wirkungen bzgl. der Beseitigung von Barrieren über die Leistungsparameter Prozesszeit, Prozessqualität und Termintreue,
– Vergleich der gemessenen Ist-Werte mit den Ziel-Werten
für Prozesszeit, Prozessqualität und Termintreue.
Probleme, die einen Prozess behindern, werden als Barrieren bezeichnet. Die TCT-Methode differenziert zwischen
– Kulturbarrieren (z. B. nicht klar formulierte Ziele),
– Prozessbarrieren (z. B. Wartezeiten) und
– Sachbarrieren (z. B. fehlende Informationen).
Ersatzprozesse werden durch unerwartete Ereignisse ausgelöst und sind mit Kosten verbunden. Sie dienen dazu,
Irrtümer und Fehler zu beseitigen. Ein Beispiel für einen
Ersatzprozess ist die Fehlerbehebung bei der Programmierung. Gäbe es keine Fehler, dann würde auch kein
Ersatzprozess entstehen und somit auch keine zusätzlichen Kosten.
Die Wirkungen, die mit der TCT-Methode verbunden sind,
sind beispielsweise (vgl. u. a. [5]):
– die Leistungssteigerung der Prozesse auf der Ebene der
Geschäftsprozesse,
– die Steigerung der Identifikation und Motivation der
Mitarbeiter sowie
– die Intensivierung der internen und externen Kundenorientierung
TFH Wildau, Wissenschaftliche Beiträge 2006
2.2 Kaizen-Methode
Der japanische Begriff Kaizen setzt sich aus den Worten
Kai für „Veränderung“ und „Wandel“ sowie Zen für „zum
Besseren“ zusammen und bedeutet die ständige und
systematische Verbesserung von Prozessen in kleinen
Schritten.
Die Kaizen-Methode kann als Bottom-Up Vorgehensweise charakterisiert werden, deren Ziel es ist, auf der Ebene
einzelner Prozesse und Arbeitsschritte die Leistung von
Geschäftsprozessen kontinuierlich zu steigern.
Die Philosophie der Kaizen-Methode betont vor allen den Menschen und sein Potenzial zur Problemlösung.
Daher richten sich die Investitionen eines Unternehmens
vielmehr auf das Humankapital und weniger auf Technologien. Personalkosten werden als Investition in die Zukunft
und nicht als Kostenfaktor gesehen.
Das Ziel der Kaizen-Methode ist die Beseitigung von
Verschwendung. „Verschwendung ist alles, was für die
Kunden keinen Nutzen hat und wofür sie nicht bereit sind,
zu zahlen“ [5]. Es wird also alles, was nicht der direkten
Wertschöpfung dient, als Verschwendung betrachtet. Verschwendungen können beispielsweise sein:
– unnötige Wartezeiten
– entbehrliche Arbeitsprozesse
– unklare Zielsetzungen
– mangelnde Koordination sowie
– mangelhafte oder überflüssige Informationen
Für die Beseitigung von Verschwendungen stellt die
Kaizen-Methode folgende Werkzeuge und Methoden zur
Verfügung:
– 5-S-Vorgehen (5-A-Vorgehen)
– 7-W- und 3-MU-Checklisten
– PDCA-Verbesserungszyklus (Deming-Rad)
– sieben alte Werkzeuge und
– sieben neue Werkzeuge
Das 5-S-Vorgehen (5-A-Vorgehen) beschreibt eine einfache
Vorgehensweise, mit der schnell Verbesserungen erzielt
werden. Dabei stehen
– Seiri für Ordnung schaffen (Aussortieren),
– Seiton für alles am richtigen Platz (Aufräumen),
– Seiso für Sauberkeit (Arbeitsplatz sauber halten),
– Seiketsu für persönlicher Ordnungssinn (Anordnen zur
Regel machen) und
– Shitsuke für Disziplin (Alle Punkte einhalten und ständig
verbessern).
Die Checklisten 7-W:
– Wer macht es?
– Warum macht er es?
– Wann wird es gemacht?
– Wo soll es getan werden?
– Wie wird es gemacht?
– Wieso wird es nicht anders gemacht?
sowie 3-MU:
– Muda (Verschwendung)
– Muh (Überlastung)
– Mura (Abweichung)
dienen der regelmäßigen Überprüfung, wobei sich die
letzten drei Punkte auf die Mitarbeiter, Technik und Methode beziehen.
Ein weiteres Werkzeug ist der PDCA-Verbesserungszyklus, der auch als Plan-Do-Check-Act-Zyklus (Abb. 2)
TFH Wildau, Wissenschaftliche Beiträge 2006
oder nach dem Erfinder als Deming-Kreis bezeichnet wird.
Hierbei wird ein Kreislauf zur Verbesserung beschrieben.
Er beginnt mit der Problemerkennung der gegenwärtigen
Situation, um einen Plan zur Verbesserung zu formulieren.
Dieser Plan wird nach der Fertigstellung umgesetzt und es
wird überprüft, ob die erwarteten Ergebnisse erzielt wurden. Bei einer positiven Bewertung werden diese Maßnahmen als Standard definiert. Dieser Standard unterliegt dann
wiederum einem erneuten Verbesserungszyklus.
Act
(Verbessern)
Check
(Prüfen)
Plan
(Planen)
Do
(Ausführen)
Abb. 2: Plan-Do-Check-Act-Zyklus
Können Probleme auf der Grundlage von statistischen
Daten ermittelt werden, so werden die „sieben alten Werkzeuge” eingesetzt. Hierzu gehören:
– Ishikawa-Diagramm (Ursache-Wirkungs-Diagramm)
– Pareto-Diagramm (ABC-Analyse)
– Histogramm
– Streuungsdiagramm
– Kontrollkarte
– Kurvendiagramm
– Prüfformular
Wenn keine statistischen Daten zur Verfügung stehen,
werden entsprechende Daten mit Hilfe der „sieben neuen
Werkzeuge“ ermittelt. Dazu zählen:
– Beziehungsdiagramm
– Affinitätsdiagramm
– Baumdiagramm
– Matrixdiagramm
– Matrixdiagramm zur Datenanalyse
– Diagramm zur Entscheidungsfindung
– Pfeildiagramm
Zu erwähnen sind noch die Begriffe Cross-Functional
Management und Policy Deployment.
Unter Cross-Functional Management (Funktionsüberschneidendes Management) wird die abteilungs- und bereichsübergreifende Koordination von Aktivitäten eines
Unternehmens verstanden. Eine besondere Bedeutung
bekommt hier die interdisziplinäre Zusammenarbeit einzelner Fachabteilungen.
Unter Policy Deployment wird die Durchgängigkeit der
Unternehmenspolitik verstanden. Es ist ein Planungssystem, mit dem die ständigen Verbesserungen in einem
Unternehmen umgesetzt werden. Während mit dem
Cross-Functional Management die horizontale Integrati-
13
on von Aktivitäten eines Unternehmens unterstützt wird,
liegt der Schwerpunkt hier auf der vertikalen Integration
von Aktivitäten.
Die Kaizen-Methode ist stark auf die Fähigkeit und
Bereitschaft der Mitarbeiter eines Unternehmens ausgerichtet. Die Wirkungen sind mit denen der TCT-Methode
vergleichbar.
KVP (Kontinuierlicher Verbesserungsprozess) ist die
europäische Variante der Kaizen-Methode. Beispielsweise
wurde KVP von VW zu KVP im Quadrat weiterentwickelt
(vgl. [4]).
2.3 Six-Sigma-Methode
Six Sigma ist ein Begriff aus der Statistik und steht als
Synonym für Null-Fehler-Qualität. Das bedeutet, dass
in einem Prozess, der Six Sigma erfüllt, bei einer Million
Möglichkeiten nur 3,4 fehlerhafte Ergebnisse entstehen.
Dies entspricht einem Qualitätsgrad von 99,9997 %.
Ursprünglich wurde Six Sigma für Produktionsprozesse
entwickelt, während es heute auch in Dienstleistungsprozessen erfolgreich eingesetzt wird. Zentrale Ziele von Six
Sigma sind Kosteneinsparungen und die Verbesserung der
Qualität.
Six Sigma ist eine empirische, datenorientierte Methode, bei der die Verringerung der Varianz, also die
Abweichung der Prozessergebnisse vom Ziel-Wert, im
Mittelpunkt steht. Im Mittelpunkt von Six Sigma steht
der Prozessverbesserungszyklus (DMAIC-Cycle), der aus 5
Phasen besteht (Abb. 3).
Define
• Identifikation des
Problembereichs
• Festlegung der Ziele
Measure
• Auswahl relevanter
Daten
• Messung der Daten
Analyze
• Analyse der erhobenen
Daten
• Analyse der Ursachen
Maßeinheiten bei Six Sigma sind Fehler pro Million
Möglichkeiten (FpMM) und die Varianz Sigma (σ). Fehler sind Abweichungen vom Ziel-Wert. Mit Hilfe einer
Umrechnungstabelle kann anhand der Fehleranzahl der
Wert für σ ermittelt werden. Ziel ist es, eine Varianz von
6 σ zu erreichen.
Ein Vorteil von Six Sigma ist, dass man aufgrund der
Normalisierung der Fehlerrate einen Wert erhält, mit dem
sich unterschiedliche Geschäftsprozesse einer Organisation
vergleichen lassen. Für die Normalisierung von Werten
wird die gemessene Fehlerrate auf eine Million Fehlermöglichkeiten normalisiert.
Bei der Vorgehensweise der Prozessverbesserung wird bei
Six Sigma zunächst ein einzelner Prozessschritt betrachtet.
Der σ-Wert für den Gesamtprozess errechnet sich dann aus
dem Produkt der σ-Werte der einzelnen Prozessschritte.
Die wesentlichen Werkzeuge der Six-Sigma-Methode
zur Verbesserung von Prozessen sind mit den „sieben alten
Werkzeugen“ der Kaizen-Methode identisch, also
– Ishikawa-Diagramm (Ursache-Wirkungs-Diagramm)
– Pareto-Diagramm (ABC-Analyse)
– Histogramm
– Streuungsdiagramm
– Kontrollkarten
– Kurvendiagramm
– Prüfformular
Ohne Six Sigma liegen nach Schätzungen die meisten
Prozesse in der Industrie gegenwärtig bei ca. 3 bis 4 σ. Mit
herkömmlichen Prozessverbesserungsmethoden wird es
nur schwer für möglich gehalten, eine signifikante Verbesserung in Richtung 5 σ oder mehr zu erreichen. Zur
Veranschaulichung ist in Abbildung 4 das Verhältnis von
σ, den Fehlern pro 1 Million Möglichkeiten (FpMM) und
dem Qualitätsgrad gegenübergestellt.
σ
1
2
3
4
5
6
FpMM
691.462
308.538
66.807
6.210
233
3,4
Qualitätsgrad
30,8538 %
69,1483 %
93,3193 %
99,3790 %
99,9767 %
99,9997 %
Abb. 4: Verhältnis von σ, FpMM und Qualitätsgrad
Improve
Control
Abb. 3: DMAIC-Zyklus
14
• Ausführen der Verbesserungsmaßnahmen
• Implementierung von
Lösungen
• Überprüfen der
verbesserten Prozesse
3 Zusammenfassung
In Abbildung 5 sind noch mal die Unterschiede und Gemeinsamkeiten der drei Methoden TCT, Kaizen und Six
Sigma zusammengefasst.
TCT
Ebene – Teilprozesse
– Geschäftsprozesse
Ziele – Beseitigung von
Barrieren
– Reduzierung der
Prozesszeit
Werk- – u. a. Ursache-Wirzeuge
kungsDiagramm
Kaizen
– Arbeitsschritte
– Prozessschritte
– Beseitigung von
Verschwendungen
Six Sigma
– Prozessschritte
– Gesamtprozesse
– Reduzierung der
Varianz
– Erreichung von
σ = 3,4 FpMM
– sieben alte und – sieben alte
neue Werkzeuge
Werkzeuge
– Checklisten
Abb. 5: Vergleich der Methoden
TFH Wildau, Wissenschaftliche Beiträge 2006
Die wesentlichen Unterschiede der drei Methoden liegen
in der Zielsetzung. Bei der TCT-Methode liegen die Ziele
in der Beseitigung von Barrieren, den Ersatzprozessen und
der Reduzierung der Zykluszeit. Bei der Kaizen-Methode
sind die Ziele ähnlich. Hier werden ebenfalls alle Aktivitäten eliminiert, die keinen Wertzuwachs hervorrufen. Six
Sigma verfolgt die Strategie der Reduzierung von Zielabweichungen.
4 Literatur
[1] Becker, J.; Kugeler, M.; Rosemann, M. (Hrsg.): Prozessmanagement, 4. Auflage, Springer-Verlag, Berlin, Heidelberg,
New York 2003
[2] Bösing, K. D.: Business Process Performance Management,
Forschungsbericht WS 2004/2005, Technische Fachhochschule Wildau, Wildau 2005
[3] Hammer, M.; Champy, J.: Business Reengineering, CampusVerlag, Frankfurt, New York 1994
[4] Jetter, W.: Performance Management, Schäffer-Poeschel
Verlag, Stuttgart 2000
[5] Schmelzer, H. J.; Sesselmann, W.: Geschäftsprozessmanagement in der Praxis, 3. Auflage, Carl Hanser Verlag, München,
Wien 2003
Autor
Prof. Dr. Klaus D. Bösing
Technische Fachhochschule Wildau
Fachbereich Betriebswirtschaft/Wirtschaftsinformatik
Fachgebiet Software Engineering
Tel. +49 3375 508-952
[email protected]
TFH Wildau, Wissenschaftliche Beiträge 2006
15
Neuartige Plattenwärmeübertrager
Teil C: Literaturanalyse zur Verdampfung und Kondensation in Plattenapparaten
Josef Schmadl, Carsten Briesenick, Jens-Uwe Gerking, Maik Haß, Ingrid Schult,
Joachim Schult
Ändert sich in einem Plattenwärmeübertrager der Aggregatzustand, sind die ablaufenden Prozesse des Wärmeüberganges komplexer als beim einphasigen Wärmeübergang.
Im VDI-Wärmeatlas sind deshalb noch keine Berechnungsgleichungen für diese Arten der Wärmeübertragung in
Plattenwärmeübertragern enthalten [1]. Es wird lediglich
festgestellt, dass Hersteller von Plattenapparaten ihre
diesbezüglichen Kenntnisse unpubliziert zurückhalten.
Um die Tauglichkeit der in diesem Forschungsvorhaben
zu untersuchenden Plattenapparate als Verdampfer und
Kondensatoren festzustellen, sind deshalb experimentelle
Untersuchungen notwendig. Das vorliegende Ergebnis einer Literaturrecherche soll dazu dienen, Erkenntnisse im
Hinblick auf Gestaltung einer Versuchsanlage und Auswertung damit zu ermittelnder Messdaten zu gewinnen.
Schwerpunkt der folgenden Analyse sind deshalb vor allem
Messtechnik und Versuchsergebnisse aber auch Korrelationsmöglichkeiten der Messergebnisse im Hinblick auf die
Gewinnung von Auslegungsgrundlagen. Konventionelle
Berechnungsalgorithmen zur Ermittlung des Wärmeübergangskoeffizienten α bei der Verdampfung beinhalten u.a.
die folgenden wesentlichen Einflussgrößen: Verdampfungstemperatur TV, Dichte für Flüssigkeit und Dampf ρ ′ bzw. ρ ′′,
Viskositäten ν ′ bzw. ν ′′ , spezifische Wärmekapazitäten
c p′ bzw. c p″ , Wärmeleitfähigkeit λ ′, Oberflächenspannung
σ, Verdampfungsenthalpie ∆hV , Wärmestromdichte q ,
Dampfgehalt und Plattengeometrie, z. B. Prägungswinkel
φ. Ausgangsgleichung ist dabei der prinzipielle ähnlichkeitstheoretische Zusammenhang zwischen Nusselt-Zahl
und weiteren dimensionslosen Kennzahlen
(1)
mit den bekannten dimensionslosen Kennzahlen Gr =
Grashof-Zahl, Re = Re-Zahl, Ja = Jakob-Zahl,Pr = PrandtlZahl, und Bo = Bond-Zahl.
Im Folgenden werden Arbeiten zu Verdampfung und
Kondensation soweit möglich getrennt betrachtet.
1. Arbeiten zum Verdampfen in Plattenwärmeübertragern
1. Engelhorn, H.R. und A.M. Reinhard (1990):
Investigation on Heat Transfer in a Plate Evaporator
(Untersuchung des Wärmeübergangs in einem Plattenverdampfer) [2]
Die Autoren präsentieren Ergebnisse ihrer experimentellen Untersuchungen an zwei Plattenwärmeübertragern,
die in einem Kompressionskältekreislauf als Verdampfer
und Kondensator eingebaut sind. Bei den Experimenten
16
wird als Arbeitsstoff im Kältekreislauf Kältemittel R22
verwendet. Als Verdampfer und Kondensator kamen
gedichtete Plattenwärmeübertrager mit einer Fischgrätenprägung zum Einsatz. Diskutiert werden allerdings
nur die Verdampferergebnisse.
Es wurden drei Messreihen bei unterschiedlichen Verdampfertemperaturen von – 5°C bis + 10°C aufgenommen.
Die erzielbaren Wärmestromdichten waren – anlagebedingt
– für alle drei Messreihen 8 bis 14 kW/m². Bei der Messreihe
Nr. 1 mit überhitztem Dampf am Verdampferaustritt wurden wesentlich geringere Wärmeübergangskoeffizienten
als für Messreihe 2, mit Sattdampf am Austritt, erzielt. Sie
betrugen z.B. bei q=10000 W/m² je nach Verdampfertemperatur und -druck: k= 900 bis 1000 W/(m²K) und α = 1000
bis 1200 W(m²K) für Messreihe 1 im Vergleich zu k= 1250
bis 1500 kW/(m²K) und α = 1500 bis 1750 W(m²K) für
Messreihe 2. Eine wesentliche Verbesserung ergab sich bei
Messreihe 3 durch Verwendung von speziellen Verteilern,
die das Kältemittel gleichmäßig zwischen den Spalten des
Plattenwärmeübertragers verteilten. Dadurch ließen sich
die α-Werte um ca. 50 % erhöhen. Eine Erhöhung der Wärmestromdichte führte zu einem erhöhten α-Wert was auf
Blasensieden hinweist. Dabei war die Abhängigkeit von
der Wärmestromdichte aber eher linear (± 5 %) und nicht
exponentiell, wie dies vom Behältersieden her bekannt
ist. Abschließend wurden die experimentell ermittelten
α-Werte mit berechneten Werten für das geflutete Rohrbündel nach VDI WA [1] und Handbuch der Kältetechnik
[3] verglichen und gute Übereinstimmung festgestellt.
Vergleiche zu Literaturangaben für Plattenwärmeübertrager wurden mittels der Gleichung von Danilowa et al.
[4] vorgenommen. Die experimentellen Werte erreichten
dabei ca. 50-80 % der Rechenwerte.
Zwar lassen sich die Erkenntnisse aus dieser Arbeit
wegen des unterschiedlichen Versuchsstoffes nicht ohne
weiteres mit den eigenen Ergebnissen vergleichen, jedoch
zeigt diese Arbeit, dass dem Einlauf in den Verdampfer
bzw. der Verteilung des Versuchsstoffes am Verdampfereintritt besondere Aufmerksamkeit geschenkt werden
sollte.
2. R. Osterberger; B. Slipcevic(1990):
Wärmeübergang beim Blasensieden in Plattenverdampfern [4]
Die Autoren geben einen summarischen Einblick in
den verwendeten Versuchstand. Dazu gehört die Angabe
der verwendeten Plattenwärmeübertrager sowie der verwendeten Messinstrumente. Für die Temperaturmessung
wurden Temperaturmessfühler Typ Pt100 eingesetzt, für
die Durchflussmessung kam ein MID-Durchflussmesser
zum Einsatz.
TFH Wildau, Wissenschaftliche Beiträge 2006
Die Versuche wurden mit dem Kältemittel R22 im Temperaturbereich von –2,5 bis 5°C, bei Wärmestromdichten von
3370 bis 9150 W/m2 und Massenstromdichten im Bereich
von 14 bis 38,5 kg/m2.s durchgeführt. Es wird betont, dass
mittels Verteiler im Verdampfer bessere Leistungen erzielt
werden als ohne Verteiler. Außerdem machen die Autoren
einige Angaben zur Versuchsdurchführung: Als erstes wurde die Kälteleistung des R22 konstant gehalten, um den
α-Wert auf der Kältemittelseite im Verdampfer konstant
zu halten. Dazu wurde dann der Volumenstrom des Heizwassers im Verdampfer verändert um den wasserseitigen
α-Wert zu bestimmen. Danach wurden die Bedingungen
auf der Wasserseite konstant gehalten und die Kälteleistung
verändert, um so die α-Werte auf der Kältemittelseite zu
ermitteln. Diese Angaben können hilfreich bei der Erstellung eines eigenen Messprogramms sein.
Ebenfalls kann die Art der Auswertung hilfreich sein für
die eigenen Versuche. Die Autoren vergleichen die ermittelten Werte mit Angaben aus der Literatur. Als erstes verweisen sie auf Danilowa G.N et. al.: Der Wärmeübergang in
Platten verschiedener Geometrie (russ.) Kholodilnaja Technika 58 (1981). Darin sind zwei Gleichungen für das Sieden
von Kältemitteln zwischen Platten enthalten. Grundlage
dafür sind Messungen mit verschiedenen Kältemitteln an
ebenen und profilierten Platten verschiedener Abmessungen und Formen. Dabei gilt für das konvektive Sieden:
NuK = 3 ReD0,3 .Bo0,33
benötigt werden. Allerdings muss berücksichtigt werden,
dass für die empirische Gleichung (4) Mess-werte mit dem
verwendeten Versuchsstoff vorhanden sein müssen, für
Gleichung (3) nicht .
3. Yan Y.Y ; T.F. Lin (1999):
Evaporation Heat Transfer and Pressure Drop of
Refrigerant R134a in a Plate Heate Exchanger [5]
Die Autoren geben genaue Angaben und ein Fliesbild
ihres Versuchsaufbaus. In diesen Versuchsaufbau wurden
2 verschiedene Plattenwärmeübertrager verwendet. Dabei
handelte es sich in einem Fall um ein Plexiglasmodell um
die Strömungsverhältnisse in „klaten“ Versuchen zu studieren. Der in Abb. 1 dargestellte Versuchstand für „heiße“
Versuche bestand im wesentlichen aus einem geschlossenen Kreislauf mit Pumpe, Vorverdampfer, Verdampfer,
Kondensator und Nachkühler. Bei den Versuchen handelte
es sich offensichtlich um Strömungssieden. Dabei konnte
der Dampfgehalt des Speisestromes im Vorverdampfer
vorgegeben werden. Im Nachkühler konnte eine definierte Unterkühlung eingestellt werden. Interessant für
unseren Versuchsaufbau ist die Angabe der Autoren, dass
der Systemdruck und somit die Siedetemperatur mittels
Änderung der Kondensatorleistung sowie Änderung des
Massenstroms des Kühlmediums geregelt wurde. Das lässt
Rückschlüsse zu auf die Möglichkeiten der Regelung in
einem eigenem Versuchsaufbau.
(2)
und für das Blasensieden:
NuB = 4,2 . ReD0,3 . Bo0,32 . ReS0,2
(3)
mit:
Re D =
Re S =
Bo =
wD ⋅ d h
νD
Reynolds-Zahl der
Dampfströmung
(3a)
q ⋅ d h
∆hv ⋅ηL
Reynolds-Zahl des
Verdampfungsvorgangs
(3b)
Bond-Zahl
(3c)
g ⋅ ρ L ⋅ d h2
σ
Als dh wird dabei 2 mal der Plattenabstand eingesetzt.
Als zweite Literaturgrundlage werden die Berechnungen
von Steiner ([1], Wärmeübergang beim Sieden gesättigter
Flüssigkeiten) verwendet. Dabei gilt:
 q 
αB
= CF ⋅  
α0
 q0 
n ( p* )
d 
⋅ F ( p )⋅ 0 
 dh 
*
0 ,4
 R 
⋅ p 
 Rp0 


0 ,133
(4)
Mit den in [1] angegebenen Zusatzgleichungen für die
einzelnen Terme der Gleichung.
Bei der Auswertung kam man zu dem Ergebnis das die
experimentellen Werte von den berechneten abwichen.
Dabei wurden bei beiden Gleichungen dieselben Abweichungen zu den experimentellen Werten festgestellt. Beide
Gleichungen erreichten eine Genauigkeit von –15 % bis
10 %. Die Autoren beurteilten die Gleichungen nach Steiner als passender, da dafür tabellierte Werte für fast alle
Kältemittel vorhanden sind und nicht so viele Stoffwerte
TFH Wildau, Wissenschaftliche Beiträge 2006
Abb. 1: Versuchsaufbau aus [5] nach Yan Y.Y und T.F. Lin
Als Ergebnis der Messungen wurde u. a. deutlich, das der αWert mit zunehmendem Dampfgehalt X ansteigt. So zeigte
sich, dass bei Messungen unter einem Systemdruck von
6,75 bar, einer Wärmestromdichte von 11 kW/m² und Massenstromdichten von 70 bzw. 55 kg/(m²s) , dass der α-Wert
von ca. 2 auf 4 kW/(m²K) mit zunehmendem Dampfgehalt
ansteigt bis zu einem Dampfgehalt X=0,45. Für X > 0,45
ist dieser Anstieg beschleunigt. So wird, beispielsweise, bei
17
X = 0,80 und 70 kg/(m²s) ein α-Wert von ca. 8 kW/(m²K)
erreicht, bei 50 kg/(m²s) hingegen ca. 6 kW/(m²K). Bei
weiteren Versuchen unter höherem Druck, z. B. 8,0 bar,
und sonst gleichen Bedingungen zeigt sich ein ähnlicher
Sachverhalt, wobei allerdings größere Schwankungen der
Messwerte zu beobachten sind, die Messwerte bei diesem
Druck niedriger als bei 6,75 bar liegen und dichter beieinander liegen, so dass die beim niedrigeren Druck beobachteten
Abhängigkeiten nicht so deutlich zutage treten.
Als Erklärung geben die Autoren an, dass mit zunehmenden Dampfgehalt eher eine schnelle Dampfströmung
mit Wassertropfen-Holdup entsteht. Dabei treffen die Tropfen ständig an die Wand und erzeugen eine flüssige Grenzschicht auf der Oberfläche, aus der durch den Dampfstrom
ständig neue Tropfen mitgerissen werden. Somit kommt es
zu einem verbesserten Wärmeübergang. Durch Änderung
der Versuchsbedingungen konnte festgestellt werden, das
der α-Wert mit steigendem Kühlmittel-Massenstrom im
Kondensator ebenfalls steigt. Dieser Effekt zeigte sich erst
bei Dampfgehalten X > 0,45. Durch die Phasenänderung
beim Verdampfen und der damit verbundenen Volumenzunahme ist die Dampfgeschwindigkeit bei höheren Massenströmen größer und bewirkt somit eine Verbesserung
des Wärmeübergangs. Den Einfluss des Systemdrucks
begründeten die Autoren analog mit dem Unterschied im
spezifischen Volumen und der daraus folgenden Erhöhung
der Dampfgeschwindigkeit in der Dampfströmung. Diese
Verbesserung des konvektiven Anteils der Wärmeübertragung scheint die zu erwartende, leichte Verschlechterung
des Siedeanteils mit fallendem Druck überzukompensieren.
Eine Abhängigkeit von der Wärmestromdichte wurde nicht
festgestellt. Ihre Messergebnisse modellieren die Autoren
mit folgenden Beziehungen:
0 ,5

ρ  
Nu = 1, 926 ⋅ Prl1 3 ⋅ Boeq0,3 ⋅ Re0,5 ⋅ (1 − X m ) + X m ⋅  l   (5)
 ρg  

  

für 2000< Reeq< 10000, mit
Re eq =
Geq ⋅ d h
Re
Pr
Bo
G
Xm



0 ,5




(5b)
Reynolds Zahl
Prandl Zahl
Bond Zahl
Massenstromdichte [kg/m2s] Geq equievalent
alles in flüssiger Phase
mittlerer Dampfgehalt
Die ermittelten Gleichungen beruhen auf Versuchen mit
traditionellen Plattenwärmeübertragern und sind deshalb
nicht ohne weiteres auf den eigenen Versuchsstand mit
runden Platten ganz anderer Geometrie zu übertragen, aber
sie bieten eine weitere Möglichkeit die eigenen Messwerte
orientierend zu vergleichen.
Ähnliche Abhängigkeiten wie für den Wärmeübergangskoeffizienten ergeben sich für den Druckverlust: So
z. B. lagen die Druckverluste bei p = 6,75 bar zwischen
100 und 254 hPa, wobei die Werte mit steigender Massen-
18
4. Andre, M.; Kabelac, S.; de Vries, B. (2003):
Wärmeübergang bei der Verdampfung von Ammoniak
in einem Plattenwärmeübertrager [6]
Die Autoren geben einen Überblick über den verwendeten Versuchsstand. Dabei wurden semi-verschweißte
Plattenwärmeübertrager verwendet. An den zugänglichen
Seiten wurden Thermoelemente angebracht um lokale αWerte zu ermitteln.
Die verwendete Versuchsanlage ist in Abb. 2 dargestellt. Es handelt sich um einen klassischen Kompressionskältekreislauf, wobei die untersuchten Plattenapparate
als Verdampfer und Kondensator eingesetzt sind. Das besondere an der Anlage ist, dass Heizung des Verdampfers
und Kühlung des Kondensators über eine einen gemeinsamen Sole-Kreislauf mit Zusatzkühler kondensatorseitig
kurzgeschlossen sind, was die Versuchsanlage elegant
vereinfacht.
(5a)
η

ρ
Geq = G ⋅ (1 − X m ) + X m ⋅  l
 ρg



stromdichte naturgemäß zunahmen. So ergab sich bei einer
Dampfqualität von X = 0,8 bei 70 kg/(m²s) ein Druckverlust
von 254 hPa, bei 55 kg/(m²s) hingegen ein Druckverlust von
200 hPa. Beim höheren Systemdruck p = 8 bar war kaum
ein Unterschied im Druckverlust für die beiden Messreihen
unterschiedlicher Massenstromdichte erkennbar. Eine Gleichung für den Druckverlust ist nicht angegeben.
Für die eigene Messtechnik sollte nicht außer Acht gelassen werden, dass ein Nachkühler und ein Vorverdampfer,
wie sie hier verwendet werden, zusätzliche Möglichkeiten
eröffnen, reale Betriebszustände nachzustellen. Außerdem
lassen sich, die Vorgänge im Verdampfer anhand der untersuchten Abhängigkeiten (Siededruck, Wärmestromdichte,
Druckverlust) näher erklären. Die Werte können Aufschluss
darüber geben, was mit zunehmenden Dampfgehalt im
Verdampfer geschieht. Sie zeigen, dass Wärmeübergang
und Druckverlust bei strömendem Dampf erheblich von
der Dampfqualität (Feuchteanteil, Überhitzungsgrad)
abhängen.
Abb. 2: Verfahrensfließbild aus (6] nach Andre, M., Kabelac, S. und
de Vries, B
TFH Wildau, Wissenschaftliche Beiträge 2006
Die experimentell ermittelten Werte ergaben eine relativ
scharfe Abgrenzung zwischen konvektiven Sieden und Blasensieden. Dabei wird deutlich, dass beim konvektivem Sieden, das bei Dampfgehalten unter 0,2 angenommen wird,
eine Abhängigkeit des Wärmeübergangskoeffizienten von
der Massenstromdichte besteht. Diese wurde zwischen 10
und 20 kg/(m²s) variiert. Erhöht sich die Massenstromdichte
so erhöht sich auch der α-Wert im untersuchten Bereich von
2 bis 8 kW/(m²K). Beispielsweise wird bei einem Dampfmas = 10-12 kg/(m²K) ein α-Wert
segehalt von X = 0,18 für m
= 14-16 kg/(m²K) ein α-Wert von
von 5,6 kW/(m²K), für m
= 18-20 kg/(m²K) ein α-Wert von
6,8 kW/(m²K) und für m
7,5 kW/(m²K) angegeben. Die Wärmestromdichte hat dabei
keinen Einfluss auf den α-Wert. Anders beim Blasensieden,
das sich bei höheren Dampfmassegehalten einstellt. Dort
hat der Massenstrom kaum Einfluss auf den α-Wert, eher
besteht eine Abhängigkeit von der Wärmestromdichte.
Das Blasensieden ergibt bei ähnlichen Bedingungen, wie
das konvektive Sieden, einen eher schlechteren Wärmeübergang. Eine Verschlechterung des Wärmeübergangs bei
konvektiven Siedens entsteht erst bei hohen Dampfgehalten
(> 0,7) und geringen Masseströmen. Dabei kommt es im
Verdampfer lokal zu vollständiger Verdampfung, so dass sich
eine Dampfschicht im oberen Verdampferbereich bildet.
Typische Messergebnisse sind in Abb. 3 dargestellt.
Man beobachtet α-Werte von ca. 7,7 bis 10,5 kW/(m²K) für
den Bereich des konvektiven Siedens und 5 bis 8 kW/(m²K)
für den Bereich des Blasensiedens.
Abb. 3: Wärmeübergangskoeffizient in Abhängigkeit von der Wärmestromdichte bei konvektivem sieden und Blasensieden. Ergebnisse der
Messungen aus [6] nach Andre, M., Kabelac, S. und de Vries, B.
Interessant hierbei ist der Vergleich der Messwerte mit den
Gleichungen von Danilowa und Steiner, entsprechend
Gleichungen (3) und (4). Dabei wurden Abweichungen
zu Steiner von 100 % festgestellt, die über den gesamten
Messbereich annähernd konstant blieben. Die errechneten
Werte waren immer größer, bei ansonsten systematisch
analoger Abhängigkeit. Die nach Danilowa berechneten
Werte α-Werte lagen stimmten hingegen mit den experimentellen Werten gut überein. Erst ab einen Dampfgehalt
X>0,45 gab es Abweichungen bis ca. 20 %. Dabei lagen die
experimentellen Werte über den errechneten.
Für unseren Versuchstand können Anregungen aus
der Beschreibung des Versuchsaufbaus gewonnen werden.
Ebenfalls wird deutlich das ein Vergleich der Messwerte
mit Danilowa sich anbietet, da Übereinstimmungen in
bestimmten Bereichen vermutet werden können. Auch
TFH Wildau, Wissenschaftliche Beiträge 2006
bietet das eine Möglichkeit die Werte mit den Angaben
in [5] zu vergleichen, da dort Rechenwerte mit derselben
Gleichung verwendet werden.
5. Kumar, H. (1993):
Evaporation in Plate Heate Exchangers (Verdampfung
in Plattenwärmeübertragern) [7]
In diesem Beitrag werden allgemeine Angaben über die
Verwendung von Plattenwärmeübertragern als Verdampfer
und Kondensatoren gegeben und Angaben zu Messungen
und Ergebnisse von Messungen an Plattenwärmeübertragern als Verdampfer von Wasser in Kurzform gemacht.
Die Platten hatten eine Fischgrätenstruktur, wobei der
Dampf über eine spezielle Verdampferstruktur mit Umlenkblechen in Wellenlinienform über die Platte geleitet
wurde. Sinn dieser speziellen Verdampferstruktur war, den
Strömungswiderstand herabzusetzen. Es wurden Versuche
mit Fallfilmverdampfung und aufsteigender Verdampfung
gemacht, wobei das Wasser bei sehr geringen Drücken,
und somit bei kleinen Siedetemperaturen, zwischen zwei
verschiedenen Platten verdampfte. Im Ergebnis stellte
sich heraus, dass bei Fallfilmverdampfung doppelt so
große Wärmeübergangskoeffizienten als bei aufsteigender Verdampfung gemessen werden. Z. B. lagen die
gemessenen α-Werte bei einem Feedmassenstrom von
1000 lb//hr, einer Siedetemperatur von 120°F und einem
entstehenden Dampfstrom von 250 lb/hr (X=0,25) bei ca.
600 BTU/(ft²hr) für die Fallfilmverdampfung und für die
aufstegende Verdampfung bei sonst gleichen Bedingungen
bei ca. 280 BTU/(ft²hr). Der Autor stellt dabei aber fest,
dass dieser Effekt sich mit steigenden Drücken relativiert.
Beim Vergleich der Plattengeometrien werden Angaben
über den Druckverlust gemacht, die aber kaum vergleichbar mit Werten aus eigenen Versuchen sind, da die Strömungsführung in diesen Spezialplatten zu verschieden zu
den in dieser Arbeit untersuchten Platten ist. Nutzbare
Informationen, sind eher die Unterschiede im Wärmeübergang in Abhängigkeit von der Strömungsführung und
-form, da sich durch Änderung der Strömungsrichtung
Leistungssteigerungen von bis zu 100 % ergaben.
6. Hsieh,Y.Y; L.J. Chiang; T.F. Lin (2002):
Subcooled flow boiling heat transfer of R-134a and
the associated bubble characteristics in a vertical
plate heat exchanger [8]
Die Autoren berichten über ihre Untersuchungen an
einem Plattenwärmeübertrager in dem R-134a verdampft
wird. Dazu wird der schon in Abb. 1 dargestellte Versuchsaufbau verwendet.
Das Kältemittel wird unterkühlt in den Verdampfer
eingeleitet und verlässt den Apparat dampfförmig. Da diese
Versuchweise mit der in dieser Arbeit geplanten Versuchsdurchführung vergleichbar ist, können auch die Ergebnisse
ggfs. als Vergleichsgrundlagen verwendet werden.
Der Messbereich ist gekennzeichnet durch Massestromdichten von 50 bis 200 kg/(m²s), Wärmestromdichten bis
35 kW/(m²) und Drücke von 6 und 7 bar, entsprechend
Siedetemperaturen des Versuchsstoffes von 21,6 bzw.
26,7 °C. Die Autoren kamen zu dem Ergebnis, dass der αWert von verschiedenen Einflussfaktoren abhängig ist. Sie
untersuchten die Wärmestromdichte in Abhängigkeit von
19
1)
2)
3)
4)
der Wandüberhitzung, wie in Abb. 4 dargestellt. Dabei lies
sich feststellen, dass die Steigerung der Wärmestromdichte
sich ab einer bestimmten Wandüberhitzung, die dem mit
ONB bezeichneten Einsetzen des Blasensiedens entspricht,
erhöht. Es ist ein nahezu linearer Zuwachs zu verzeichnen,
der mit einsetzendem Blasensieden stärker zunimmt. Erwartungsgemäß macht sich der Einfluss des Druckes bzw.
der Siedetemperatur nur im Bereich des ausgebildeten Blasensiedens bemerkbar, während er im Bereich des stillen
Siedens praktisch nicht bemerkbar ist.
Dabei ist ein interessanter Effekt aufgezeigt worden: Bei
Veränderungen der Wandüberhitzung konnte festgestellt
werden, das beim Erhöhen der Wandüberhitzung das Blasensieden erst später einsetzte als es – umgekehrt – bei der
Absenkung versiegte. Das Blasensieden setzte erst aus, als die
Wandüberhitzung 3K unter der Wandüberhitzung war als es
einsetzte. Dieser Hystereseeffekt ist bereits beim Behältersieden von Gorenflo gefunden und untersucht worden. Einen
deutlichen Einfluss auf den Wärmeübergang hat auch die
Massenstromdichte. Ihre Erhöhung führt zu erheblichen
Steigerungen des α-Wertes und der Wärmestromdichte. So
z. B. setzte das Blasensieden bei drei untersuchten Massestromdichten von 50, 100 und 200 kg/(m²s) und gleichem
Druck bei einer Wandüberhitzung von ca. 10 K ein. Dabei
lagen die Wärmestromdichten entsprechend bei 9, 16 bzw.
22 kW/m². Zur Begründung der Messergebnisse führten
die Autoren Messungen mit einem Plexiglasmodell durch.
Die Ergebnisse dieser Messungen zeigen, dass der Blasensdurchmesser mit steigendem Massestrom kleiner wird, weil
die Blasen bei geringewrer Verweilzeit an der Heizfläche
weniger Zeit haben, sich zu größeren Blasen zusammenzuschließen. Außerdem bewirkt die erhöhte Geschwindigkeit
eine Zerkleinerung der Blasen durch Zerplatzen, was die
Durchmischung verbessert und den ständigen Austausch
des Mediums an der Übertragungsfläche fördert. Wärmestromdichte sowie Wandüberhitzung haben Einfluss auf
die entstehende Blasendichte.
Die Ergebnisse der Messungen wurden zu einer Gleichung zusammengefasst, deren Genauigkeit nicht sehr
hoch ist (±25 % Abweichung):
hr ,sub = hr ,l ⋅ 1, 2 ⋅ Fr

3
4
1
1
+ 13, 5Bo 3 ⋅ Ja 4 

(6)
mit
1  µ

 k 
hr ,l = 0, 2092 ⋅   ⋅ Re0,78 ⋅ Pr 3 ⋅  ave 
 dh 
 µwall 
Abb.4: Wärmestromdichte in Abhängigkeit von der Wandüberhitzung
mit der Siedetemperatur/dem Siededruck als Parameter (1+3) und
Wärmeübergangskoeffizient in Abhängigkeit von der Wärmestromdichte mit der Massestromdichte als Parameter (2+4) bei definiert
eingestellten Unterkühlungen ∆T = 10 K (1+2) und 15 K (3+4).
Messergebnisse aus [7] nach Hsieh,Y.Y; L.J. Chiang und T.F. Lin.
20
0 ,14
(6a)
Fr
: Froude Zahl
Re : Reynolds Zahl
Bo : Bond Zahl
Ja
: Jakob Zahl
hr,sub : α-Wert der Verdampfung [W/m2°C]
hr,l : α-Wert der flüssigen Phase [W/m2°C]
k
= Wärmeleitfähigkeit [W/m°C]
dh = hydraulischer Durchmesser
µave = Viskosität in der Mitte der Strömung [N s/m2]
µwall = Viskosität der Strömung an der Wand [N s/m2]
Die Formeln und Ergebnisse können als Vergleichwerte
für unsere Messungen dienen. Eine Übereinstimmung ist
eher nicht zu erwarten, da Medium und Plattengeometrie
sich wesentlich voneinander unterscheiden.
TFH Wildau, Wissenschaftliche Beiträge 2006
7. Feldmann, A.; Marvillet, C.; Lebouche M. (2000):
Nucleate and convective boiling in plate fin heat
exchangers [9]
In diesem Artikel berichten die Autoren über Messungen an Platten mit Rechteckprägung, sowie einer Rechteckprägung mit Perforationen. Dazu wurden die Untersuchungen jeweils an einer elektrisch beheizten Platte unternommen. Das verwendete Medium CFC 114 wurde mit
einem Vorverdampfer auf eine bestimmte Dampfqualität
eingestellt. Es wurden zwei konstante Massestromdichten
von 20 und 45 kg/(m²s) bei Dampfgehalten von 0,1 bis 0,8
untersucht. Dabei ermittelten die Autoren eine Gleichung,
die aufgrund des speziellen Versuchsaufbaus sicherlich nur
für diesen speziellen Fall gilt:
αnpb=8,41.q0,67.p*0,12(-log10.p*)-0,55
(7)
Sie gibt die gemessenen Werte mit einer Genauigkeit
von ±35 % wieder. Vorteil ist die Verwendung nur zweier
Messgrößen, die leicht ermittelbar sind, Wärmestromdichte und Siededruck. Interessant für den Versuchsaufbau ist
die Verwendung eines Vorverdampfers, wie auch schon in
Arbeiten anderer Autoren.
8. Tribbe, C.; Müller- Steinhagen H.M. (2001):
Gas/Liquid flow in Plate-and-Frame Heat Excangers,
Part.I: Pressure Drop Measurements; Part II Two-phase
multiplier and flow pattern analysis [10]
Die Autoren führten Untersuchungen an konventionellen Plattenwärmeübertragerplatten durch. Ziel war
es Erkenntnisse über die Druckverluste von Zwei-Phasen
Strömungen zu erhalten. Dazu verwendeten sie in ihrem
Versuchstand zwei verschiedene Medien, die vor dem Apparat mit Luft vermischt wurden. Somit simulierten sie
Bedingungen mit verschiedenen Dampfgehalten in einer
Strömung. Als Medien verwendeten sie Wasser und eine
Carboxymethylcelluloselösung (CMC) in verschiedenen
Konzentrationen. Dabei hat das Wasser die Eigenschaften
eines Newton’schen Fluids und das CMC die eines nicht
Newton’schen Fluids. Ferner wurden verschiedene Prägewinkel der Platten sowie zwei Amplituden der Prägungen
verwendet, um die Abhängigkeit von der Strömungsführung zu untersuchen. Der Einfluss variabler Massenstromdichten im Bereich 50 bis 500 kg/(m²s) wurden ebenfalls
untersucht. Dabei erwies sich der Druckverlust linear abhängig vom simulierten Dampfgehalt. Der Druckverlust
stieg mit steigendem Dampfgehalt, wobei die Steigung
mit der Massenstromdichte naturgemäß noch zunahm.
Als Beispiel seien die mit Wasser als Versuchsstoff bei einer
massenstromdichte von 100 kg/(m²s) erwähnt: Der Druckverlust betrug 0,6 bar bei einem Dampfgehalt von 0,2 und
stieg linear auf 2,8 bar bei einem Dampfgehalt von 0,6.
Das Ergebnis zeigte sich qualitativ analog bei verschiedenen Plattenprägungen bei naturgemäß unterschiedlichen
Absolutwerten des Druckverlustes.
Die Ergebnisse wurden im Part II ausgewertet und
Beziehungen für einen Zwei-phasenmultiplikator nach
Lockhart-Martinelli gesucht. Dabei stellte sie eine enger
Zusammenhang einerseits mit dem Vorhandensein einphasiger oder zweiphasiger Strömung und andererseits
mit Plattenform und Gasgehalt heraus. Als Ergebnis von
TFH Wildau, Wissenschaftliche Beiträge 2006
Versuchen mit einem Plexiglasmodell konnten mehrere
Strömungsarten festgestellt werden (Blasenregime, Filmströmung, irreguläre Strömungen usw.), deren Auftreten
vom Gasgehalt der Strömung und den Plattengeometrien
abhängig ist. Somit werden die beobachteten Unterschiede
im Druckverlust erklärbar.
Für die eigenen Versuche sind diese Ergebnisse einen
gute Ausgangsbasis für die Betrachtungen des Druckverlustes im Verdampfer, sowie der dort vorkommenden
Strömungsformen. Eine unmittelbare Übertragbarkeit der
Ergebnisse ist nicht zu erwarten, da im Verdampfer eine
stetiger, örtlicher Anstieg des Dampfgehaltes vorkommt.
Damit sind nicht solch gleich bleibende Verhältnisse wie
im beschriebenen Versuch vorhanden. Es können in verschiedenen Bereichen des Verdampfers Strömungsformen
herrschen, die im Artikel beschrieben werden. Es besteht
aber ein grundsaätzlicher Unterschied zwischen Luftblasen
in Wasser und Dampfblasen. Durch Phasenänderung des
Wassers steigt der Blasendurchmesser des Dampfes immer
mehr an oder die Blase fällt in sich zusammen. Stoffübergang und dadurch sich ergebene Durchmesseränderungen
treten bei Luftblasen nicht auf. Der Artikel kann daher
nur Grundlage für die Betrachtungen der Messergebnisse
sein. Die Erkenntnis des Vorhandenseins von verschiedenen Strömungsformen in Verbindung mit den Plattengeometrien kann bei dem qualitativen Verständnis der
Messungen behilflich sein.
9. Benda, U. (1997):
Gelötete Plattenwärmeaustauscher für Ammoniak [11]
Der Autor berichtet über die Möglichkeit gelötete
Plattenwärmeübertrager in Ammoniak Kälteanlagen
einzusetzen. Er beschreibt den Aufbau sowie Fertigungsweise dieser Apparate und verweist auf Erfahrungen in
diesem Bereich. Des weiteren Beschreibt er den Einsatz
von „Verneblern“. Vorrichtungen die sicherstellen, dass
das Kältemittel gleichmäßig zwischen den Platten verteilt
wird. Dies ist nötig, da festgestellt wurde das es bei langen
Plattenpaketen zu einer Ungleichverteilung des Kältemittels im Apparat kommen kann. Genauere, verwertbare
Aussagen über Abweichungen und Unterschiede werden
nicht gemacht. Er bestätigt aber qualitativ die Aussagen in
vorhergehend besprochenen Quellen, dass die Sicherstellung einer gleichmäßigen Verteilung die Effektivität eines
Verdampfers erhöhen kann.
2. Experimentelle und theoretische
Arbeiten zur Kondensation
Die physikalische Beschreibung der Kondensation im
Plattenkondensator ist sehr komplex und hängt sowohl
vom Strömungsverhalten des Dampfes, und des Kondensatfilmes, wie auch von Geometrie und Benetzung der
Plattenoberfläche sowie von den Stoffeigenschaften des
Mediums ab. Einige wenige, experimentell ermittelten
Korrelationsbeziehungen liegen aus der Literatur vor,
die im folgenden kurz skizziert werden sollen. Allerdings
können die angegebenen Gleichungen nur als Ausgangsbasis betrachtet werden, da sie alle für rechteckige Platten
entwickelt worden sind. Die in diesem Vorhaben zu
21
untersuchende kreisrunde Plattenform ist bislang weder
experimentell untersucht noch theoretisch beschrieben
worden.
1. Thonon, B.; Bonetemps, A. (2002):
Condensation of Pure and Mixture of Hydrocarbons
in Compact Heat Excangers. Experiments and
Modelling [12]
Die Verfasser diese Artikels berichten über Kondensationsuntersuchungen die von ihnen durchgeführt worden.
Dabei geben sie eine Beschreibung des Versuchsstandes
(Abb. 5) sowie der von ihnen durchgeführten Versuche.
Die Versuche wurden mit einem Vollverschweißten Plattenwärmeübertrager der Fa. Alfa Laval durchgeführt und
als Medium wurden Propan, Butan und Pentan sowie eine
Butan-Propanmischung in verschiedenen Konzentrationen verwendet. Der Druck konnte bis zu 20 bar variiert
werden, die Temperatur stieg dabei auf bis zu 80°C. Der
Massenstrom erreichte Werte bis 600 kg/h bei einer Wärmeleistung bis 70 kW.
kommen kann. So entwickelt sich bei kleinen Reynolds
Zahlen Fallfilmkondensation. Dabei sinkt der Wärmeübergang mit zunehmender Reynolds Zahl, um danach
bei noch höheren Reynolds Zahlen wieder anzusteigen
(Strömungsänderung). Diese Beobachtung deckt sich
qualitativ mit den Aussagen in den zitierten Quellen,
wobei aber übereinstimmende Rechenwerte mit den
dort angegebenen Formeln nicht erreicht wurden. Dabei
zeigt sich, dass bei kleinen Reynolds Zahlen Formeln für
schwerkraftbestimmte Kondensation gleiche Tendenzen
zeigen. Bei höheren Reynolds Zahlen bieten Formeln für
erzwungene Strömungen erwartungsgemäß bessere Ergebnisse. Es werden folgende Formeln angegeben:
Für Filmkondensation bei Re L < 1600 [nach Kutatelatze]:
α Ku = Co ⋅
Re L
1, 08 Re1L,22 − 5, 2
(9)
und für Filmkondensation bei Re L > 1600 [nach Labuntsov]
α La = Co ⋅
Re L
8570 + 58 ⋅ PrL−0,5 ⋅ (Re0L,75 − 253)
(10)


µ L2
mit Co = λL ⋅ 
 [nach Rohsenow] (10a)
ρ
⋅
ρ
−
ρ
g
⋅
(
)
L
G
 L

Darin sind:
α = Wärmeübergangskoeffizient
Re L = Re ynoldszahl ( Flüssigkeit )
PrL = Pr andlzahl ( Flüssigkeit )
λ = Wärmeleitfähigkeit
ρ = Dichte
g = Erdbeschleunigung
µ = dynamischeViskosität
Abb. 5: Verfahrensfließbild aus [12] nach B. Thonon u. A. Bonetemps
Die Autoren werten verschiedene Literaturangaben aus,
um ihre eigenen Messergebnisse zu beschreiben. Sie
betrachten dabei sowohl Fallfilmkondensation als auch
erzwungene Konvektion, Kondensation reiner Dämpfe wie
auch Kondensation von Gemischen. Beispielsweise für die
erzwungene Kondensation reiner Dämpfe geben sie eine
eigene Gleichung für den sogenannten „enhancement factor“ an, mit dem der Geometrie der Kondensationsfläche
(Plattenprägung) Rechnung getragen wird:
−0 ,76
F = 1564 ⋅ Re eq
=
α
α LO
(8)
Darin wird anstelle der in der Literatur üblichen Re-Zahl
der flüssigen Phase eine äquvalente Re-Zahl verwendet.
α Lo ist der Wärmeübergangskoeffizient in der flüssigen
Phase. Die ermittelten α -Werte lagen zwischen 1 und 2
kW/(m²K) in einem Re-Bereich von 250 < Re < 2000. Die
Korrelationsgleichung (8) gibt 80% der Messwerte einer
Genauigkeit von ±20% wieder. Dabei stellen die Autoren
fest, dass die verwendeten Versuchsmedien sehr ähnliche
physikalische Eigenschaften haben und somit weitere
Versuche nötig sind, um die Ergebnisse verallgemeinern
zu können. Bei allen Messungen wird aber deutlich, dass
es zu verschiedenen Strömungsformen im Kondensator
22
Diese Erkenntnis kann ein Hinweis für die von uns vorzunehmenden Versuche sein. Dabei sind eher die angegebenen Vergleichformeln sowie die Art der Auswertung
für die eigene Arbeit interessant. Eine Übereinstimmung
mit den gemessenen Werten der Autoren ist eher nicht zu
erwarten, da Medien und Apparate unterschiedlich sind.
Allerdings bieten sowohl die zitierten weiteren Literaturquellen als auch die eigenen Rechenansätze der Autoren
Anknüpfungspunkte für eigene Überlegungen. Keine neuen
Erkenntnisse für die eigene Planung des Versuchsstandes
biete die Beschreibung des Versuchstandes dieser Arbeit.
2. Cooper, A. (1974):
Condensation of Steam in plate heat exchangers [13]
Der Autor beschreibt die Ergebnisse seiner Untersuchungen an 7 verschiedenen Plattenwärmeübertragern, die
zur Kondensation von Wasserdampf verwendet wurden. Er
stellt fest, dass der Wärmeübergang sowie der Druckverlust
von Massenstrom, Wandüberhitzung und Druck abhängig
sind. Für die Berechnung des Wärmeübergangskoeffizienten schlägt er eine Gleichung vor, die 90 % seiner Messwerte mit einer Genauigkeit von ±20 % wiedergeben:
h = hf ⋅
ρf
ρm
(11)
TFH Wildau, Wissenschaftliche Beiträge 2006
mit:
h = Wärmeübergangskoeffizient der Kondensation
hf = Wärmeübergangskoeffizient einer rein flüssigen Phase
bei gleichem Massenstrom
ρf = Dichte der flüssigen Phase
ρm = mittlere Dichte der Mischung flüssige/gasförmige
Phase
Zur Bestimmung des einphasigen Wärmeübergangskoeffizienten hf wird dabei folgende Gleichung verwendet:
hf ⋅ d
k
 G ⋅d 
= 0,160 ⋅ 

 µ 
0 ,62
C 
⋅ µ 
 k 
0 ,4
(11a)
mit:
d = hydraulischer Durchmesser in [ft] (4xVolumen
zwischen den Platten / benetzte Oberfläche)
G = Massenstromdichte in [lb/(sq.ft.hr)]
µ = Viskosität in [lb/(ft.hr)]
C = spezifische Wärme in [Btu/lb.°F)]
K = nicht spezifiziert
Gleichung (11a) ist wegen fehlender Angaben nicht ohne
weiteres anwendbar.
Bemerkenswert sind die Angaben zum Druckverlust
auf der Kondensatseite. Es wird festgestellt, dass der Druckverlust kleiner ist, wenn das Kühlmedium im Gleichstrom
zum Dampf geführt wird anstatt im Gegenstrom. Dies
begründet der Autor damit, dass beim Gleichstrom, die
kleinere Eintrittstemperatur des Kühlmediums am Eintritt
des Dampfes in den Kondensator gegenüberliegt. Dadurch
entsteht dort, durch das größere Temperaturgefälle, mehr
Kondensat. Beim Gegenstrom tritt die größere Kondensatmenge im hinteren Teil des Kondensators auf was sich
negativ auf den Druckverlust auswirkt. Der Effekt relativiert
sich aber wenn die Endtemperaturen der beiden Ströme
weit auseinander liegen. Dieser Effekt kann je nach konkreter Anwendung von Bedeutung sein.
3. Fiedler, S.; Auracher, H. (2002):
Experimentelle Untersuchung der Rücklaufkondensation in einem engen geneigten Rohr [14]
Die Autoren berichten über ihre Messungen an einem
Doppelrohrs. Dabei wurde Dampf von unten in das innere
Rohr mit einem Durchmesser von 7 mm eingeleitet und
durch ein Kühlmedium im Ringspalt kondensiert. Die dabei stattfindende Rücklaufkondensation wird beschränkt
durch den Flutpunkt, ab dem das entstehende Kondensat
mit dem Dampfstrom nach oben mitgerissen wird. Als
Arbeitsstoff wird das Kältemittel R-134a bei Drücken von
6,7 und 7,4 bar eingesetzt. Die Untersuchungen galten dem
Druckverlust, dem Wärmeübergang sowie der maximalen
Dampfgeschwindigkeit in Abhängigkeit vom Neigungswinkel des Rohres. Die Versuche sollen die Strömungsvorgänge
in Plattenwärmeübertragern simulieren, da dort ähnlich
kleine Strömungsquerschnitte erreicht werden und durch
unterschiedliche Prägewinkel entsprechende Neigungen
der Strömungen möglich sind.
Die Autoren stellten fest, dass ein optimaler Wärmeübergang bei Neigungswinkeln von 45° – 60° erreicht
werden, ohne dass der Druckverlust erheblich ansteigt.
Sie untersuchen verschiedene Literaturquellen und finden
die Gleichung von Wang und Ma (Condensatrion Heat
Transfer inside Vertical and Inclined Thermosyphons;
TFH Wildau, Wissenschaftliche Beiträge 2006
J. of Heat Transfer 1991, 113, 777) als gut geignet für die
Beschreibung der eigenen Messwerte:
Num  L 
= 
NumK  R 
cos β
4
⋅ ( 0,125 + 1, 46 ⋅ 10−2 ⋅ β − 7, 27 ⋅ 10−5 ⋅ β 2 ) (12)
mit
Num = 0, 925 ⋅ Re
−1
3
(12a) und NumK =
Re
(12b)
1, 47 ⋅ Re1,22 − 1, 3
Mit L = Rohrlänge und β = Neigungswinkel des Rohres.
Unter Auswertung verschiedener Quellen schlagen
die Autoren eine eigene Gleichung auf, um die maximale
Dampfgeschwindigkeit in Abhängigkeit des Neigungswinkels und anderer Faktoren zu beschreiben:
wg = 0, 45 ⋅ ( sin 1, 7 β )
0 ,38
⋅
d 0,322 ⋅ ρ 0,419 ⋅ σ 0,097
ρ g0,462 ⋅ηl0,15 ⋅ wl0,075
(13)
Die in dieser Arbeit als optimal gefundenen Neigungswinkel können u.U. bei der Entwicklung einer optimal
auf Kondensation zugeschnittenen Plattenprägung angewendet werden.
4. Blume, U. (2001): Dampf-Maschine:
Plattenwärmeübertrager nicht nur für flüssig/flüssig
Anwendungen [15]
Der Verfasser behandelt den von Firma Alfa Laval entwickelten Plattenwärmeübertragertyp. Er ist als gedichteter
PWÜ mit speziellen Dichtungen und Prägungen für den
Einsatz von Sattdampf als Arbeitsstoff ausgelegt. Bemerkenswert ist die Beschreibung folgender Beobachtung:
Da am Ende der Platten der größte Teil des Dampfes
kondensiert, wird dort ein Unterdruck erzeugt, durch den
die Dampfgeschwindigkeit im vorderen Teil der Platten
ansteigt und somit der Druckverlust der Dampfströmung
dort erhöht wird. Von daher und unter Berücksichtigung
der bereits besprochenen Literaturquelle [13] könnten
vergleichende Untersuchungen sowohl im Gegenstromwie auch im Gleichstrombetrieb an Plattenkondensatoren
zwecks Minimierung der Druckverluste sinnvoll sein.
5. Würfel, R.; Kreuztzer, T.; Fratscher, W. (2001):
Turbulente Transportvorgänge bei adiabater und kondensierender Filmströmung im geneigten Rohr [16]
Die Verfasser berichten über die Ergebnisse ihrer
Messungen mittels eines geneigten Doppelrohres. Da
das verwendete Rohr aber einen Innendurchmesser von
20 mm besitzt können die gewonnenen Werte kaum
auf unseren Versuch übertragen werden. Die Autoren
beschäftigen sich eher mit der Problematik des Entraintments bei zweiphasigen Strömungen in Rohren als mit
den Vorgängen bei der Kondensation. Die von ihnen
vorgenommenen Versuche zu diesem Thema führen im
Ergebnis zu einer Korrelationsgleichung für die Nu-Zahl,
die für turbulente Zweiphasenströmung bei Filmkondensation im Rohr gültig ist:
Nukond =
0,501
α kond ⋅ L
,077
+
0 ,4
= 2, 536 ⋅ 10−2 ⋅ G (γ ) ⋅ Re0kond
⋅ (1 + τ kond
(14)
) ⋅ Prkond
λkond
+
mit weiteren Angaben zu G, τ kond
und Re kond . Die Ermittlung der einzelnen Größen bedarf einer detaillierten
Kenntnis der Vorgänge im Kondensator sowie zahlreicher
23
Messgrößen. Da die Gültigkeit der Gleichung eher beschränkt ist und die Versuchsbedingungen – u.a. wegen
des relativ großen Rohrdurchmessers – relativ stark von den
Plattenapparaten dieser Arbeit abweichen, ist eine unmittelbare Übertragbarkeit auf die geplanten experimentellen
Versuche zur Kondensation in Plattenwärmeübertrager
nicht zu erwarten.
6. Wang, Z.-Z.; Zhao, Z.N. (1993):
Analysis of Performance of Steam Condensation Heat
Transfer and Pressure Drop in Plate Condensers [17]
Die beiden Autoren teilen die Ergebnisse ihrer Untersuchungen und Messungen an Plattenwärmeübertrager als
Kondensatoren für Wasserdampf mit. Dabei verwendeten
sie den in Abb. 6 wiedergegebenen Versuchsaufbau. Man
erkennt einen Plattenkondensator mit vorgeschaltetem
Batch-Boiler als Dampferzeuger und diversen Messgeräten. Wichtig erscheint dabei u.a. üblichen Messgeräten
ein Füllstandsmesser, der bei gefluteter Fahrweise des
Kondensators unerlässlich ist.
1 Bioler, 2 Valve, 3 Thermometer, 4 Meter for steam content,
5 Manometer, 6 Meter for liquid columm, 7 Plate condenser,
8 U-tube manometer, 9 Container, 10 Pump, 11 Back condenser,
12+13 Measure container, 14 Container for counterflush
Abb. 6: Verfahrensfliessbild des Versuchsstandes aus [17] nach Z.-Z.
Wang und Z.N. Zhao.
Es wurden Wärmeübergangs- und Druckverlustmessungen
durchgeführt. Das Gefälle warm-kalt zwischen den beiden Medien betrug bei den Wärmeübergangsmessungen
5 bis 20 K. Es werden keine systematischen Ergebnisse
sondern Einzeldasten mitgeteilt. Die angegebenen Siedetemperaturen betragen 116-119°C, die sich ergebenden
Wärmeübergangskoeffizienten 7,5 bis 24 (kW/(m²K) bei
Massenströmen um 0,076 kg/s.
Die Autoren vergleichen ihre Messwerte mit Rechenwerten nach der Literatur und stellen folgende eigene
Gleichung auf:
 Re 
Nu = 0, 00115 ⋅  l 
 H 
24
0 ,983
ρ 
⋅ Pr 0,33 ⋅  l 
 ρv 
0 ,248
(15)
mit :
 (1 − x0 ) ⋅ d e 
Rel = Gs ⋅ 

µl


∆T
H = Cp ⋅
γ′

∆T 
γ ′ = γ ⋅  1 + 0, 68 ⋅ C p ⋅
γ 

Gs = Massenstromdichte( gesamt )  kg 2 
 m s 

C p = spezifischeWärmekapazität  kJ
 kg °C 
ρ l = Dichte( flüssigePhase)  kg 3 
 m 
γ = latenteWärme  kJ kg 


ρ v = Dicht ( Dampfphase)  kg 3 
 m 
x0 = Dampfgehalt ( amAustritt )
Druckverlust ∆p und α-Wert erwiesen sich abhängig von
mehreren Einflussgrößen:
∆p und α =f [Plattengeometrie, Strömungsform (Filmströmung o.a.), Massenstromdichte und Druck bzw. Siedetemperatur], wobei der Druckverlust als Summe verschiedener
Druckverluste betrachtet wurde: Phasendruckverlust,
Beschleunigungsdruckverlust, Schweredruckverlust und
zusätzliche Druckverluste. Der Einfluss des Druckes wird
erklärt durch die entstehenden Dichteunterschiede des
Dampfes bei verschiedenen Drücken. Der Druckverlust
konnte mittels der Beziehungen nach Lockhart-Martinelli
beschrieben werden.
Bei den Untersuchungen stellte sich außerdem heraus, dass der Druckverlust im Gegenstrombetrieb ca. 17 %
größer war als im Gleichstrombetrieb, was sich mit Angaben anderer Autoren zumindest qualitativ deckt. Der
Wärmeübergang im Gegenstrombetrieb war aber etwas
besser. Um dies zu erklären, wurde ein integraler Mittelwert des Dampfgehaltes (bei vollständiger Verdampfung)
gebildet. Dabei ergaben sich für den Gegenstrombetrieb
ein mittlerer Dampfgehalt von 0,54 und für dem Gleichstrombetrieb von 0,46. Der Unterschied im Dampfgehalt
führt zu unterscheidlichen Dampfgeschwindigkeiten und
erklärt somit auch den Unterscheid im Wärmeübergang.
Außerdem kamen die Autoren zu dem Schluss, dass der
Wärmeübergang bei vollständiger Kondensation besser ist
als bei Teilkondensation.
Für die eigene Versuchsplanung ist die angegebene
Gleichung möglicherweise verwendbar, da auch das gleiche Medium Wasser verwendet wird. Die Plattengeometrie ist allerdings nicht vergleichbar was zu Abweichungen
führen kann.
Literatur
[1] VDI-Wärmeatlas, 9. Auflage, Springer-Verlag, 2002.
[2] Engelhorn H.R., Reinhart, H.R. (1990): Investigations on
Heat Transfer in a Plate Evaporator, Chemical Engineering
and Processes 28, 143-146.
[3] Handbuch der Kältetechnik
TFH Wildau, Wissenschaftliche Beiträge 2006
[4] Osterberger, R.; Slipcevic B. (1990): Wärmeübergang beim
Blasensieden in Plattenverdampfern, Klima - Kälte - Heizung
11, S. 481-483
[5] Yan Y.Y., Lin, T.F. (1999): Evaporation Heat Transfer and Pressure Drop of Refrigerant R134a in a Plate Heat Exchanger, J.
Heat Transfer 121(2), 118-127
[6] Andre, M.; Kabelac, S.; de Vries, B. (2003): Wärmeübergang
bei der Verdampfung von Ammoniak in einem Plattenwärmeübertrager, Chemie Ingenieur Technik (2003) 75(11),
1628-1633
[7] Kumar, H. (1993): Evaporation in Plate Heat Exchangers
(Verdampfung in Plattenwärmeübertragern), AIChE Symp.
Ser.89(295), 211/222
[8] Hsieh,Y.Y; L.J. Chiang; T.F. Lin (2002): Subcooled flow boiling
heat transfer of R-134a and the associated bubble characteristics in a vertical plate heat exchanger, Internat. J. Heat and
Mass Transfer 45(9), 1791-1806.
Autoren
Prof. Dr.-Ing. Josef Schmadl
Dipl.-Ing. Jens-Uwe Gerking
Technische Fachhochschule Wildau
Technikum für Thermische Verfahrenstechnik
Tel. +49 3375 508-110
[email protected]
Dipl.-Ing. Joachim Schult
Dr. Ingrid Schult
Dipl.-Ing. (FH) Maik Haß
Dipl.-Ing. (FH) Carsten Briesenick
Caloperm GmbH
Am Möllenberg 40, 15751 Niederlehme
Tel. +49 3375 5185-18
[9] Feldmann, A.; Marvillet, C.; Lebouche M. (2000): Nucleate
and convective boiling in plate fin heat exchangers, Int. J.
Heat and Mass Transfer 43(18), 3433-3442
[10] Tribbe, C.; Müller- Steinhagen H.M. (2001): Gas/Liquid
flow in Plate-and-Frame Heat Excangers, Part.I: Pressure
Drop Measurements; Part II Two-phase multiplier and flow
pattern analysis Heat Transfer Engineering 22(1),5-21
[11] Benda, U. (1997): Gelötete Plattenwärmeaustauscher für
Ammoniak, Ki Luft- und Klimatechnik 33(10), 465-467
[12] Thonon, B.; Bonetemps, A. (2002): Condensation of Pure
and Mixture of Hydrocarbons in Compact Heat Excangers.
Experiments and Modelling, Heat Transfer Engineering
23(6)3-17
[13] Cooper, A. (1974): Condensation of Steam in plate heat
exchangers AIChE Symposium Series 70, 138, 172-177
[14] Fiedler, S.; Auracher, H. (2002): Experimentelle Untersuchung
der Rücklaufkondensation in einem engen geneigten Rohr,
Chemie Ingenieur Technik 74(9), 1265-1269
[15] Blume, U. (2001): Dampf-Maschine: Plattenwärmeübertrager
nicht nur für flüssig/flüssig Anwendungen, Chemie Technik
30(6) 25-26
[16] Würfel, R.; Kreuztzer, T.; Fratscher, W. (2001): Turbulente
Transportvorgänge bei adiabater und kondensierender
Filmströmung im geneigten Rohr, Chemie Ingenieur Technik 73(10), 1272-1281
[17] Wang, Z.-Z.; Zhao, Z.N. (1993): Analysis of Performance of
Steam Condensation Heat Transfer and Pressure Drop in
Plate Condensers, Heat Transfer Eng. 14(4), 32-41
TFH Wildau, Wissenschaftliche Beiträge 2006
25
Neuartige Plattenwärmeübertrager
Teil D: Wirtschaftlichkeitsbewertung von Plattenapparaten anhand von Druckverlust
und Wärmeübergang
Josef Schmadl, Jens-Uwe Gerking, Carsten Briesenick, Maik Haß, Ingrid Schult,
Joachim Schult
1. Einleitung
Gegenstand dieser Arbeit ist die Untersuchung der Abhängigkeit der Wirtschaftlichkeit von Druckverlust und Wärmeübergangs in Plattenwärmeübertragern mit kreisrunden
Platten anhand von experimentellen Daten. Zum Vergleich
wird die herkömmliche Rechteckplatte herangezogen,
wie in Abb. 1a) dargestellt, wobei als Referenzzustand die
Plattenseite des Referenzapparates mit vereinfacht idealer
Pfopfenströmung angenommen wird.
ζ w ist damit analog ζ V unabhängig von der Geschwindigkeit und enthält alle als konstant angenommenen
Geometrie- und Stoffwerte. Diese Beziehung wird im
Folgenden verwendet.
Für die Beschreibung des einphasigen Wärmeübergangs in Plattenapparaten lassen sich ebenfalls empirische Beziehungen verwenden. Als sehr flexible anpassbar
erweisen sich dabei Gleichungen von der Form:
Nu = C Nu ⋅ Re a ⋅ Pr b
(4)
Sie wurden im untersuchten Re-Bereich 300 < Re < 10000
und Pr-Bereich 1 < Pr < 300 sowohl für verschiedene Testapparate vom Typ des TA in Abb. 1 wie auch für den RA an
Messwerte angepasst und werden im Folgenden ebenfalls
verwendet.
2. Zusammenhang zwischen Druckverlust
und Wärmeübergang vergleichsweise
für Plattenspalt und Rohr
a) Referenzapparat (RA)
b) Testapparat (TA)
Abb. 1: Schematische Darstellung des Referenzapparates mit
Rechteckplatte und des Testapparates mit runder Platte
Eine früher durchgeführte Analyse des plattenseitigen Druckverlustes [1] hatte gezeigt, dass sich die Re-Abhängigkeit des
Druckverlustbeiwertes ζ ab Re = 300 ähnlich verhält, wie dies
für das glatte Rohr im turbulenten Bereich bekannt ist:
ζ = Cζ . Re − m
(1)
Darin ist m = 0,25 sowohl für das glatte Rohr wie auch für
die untersuchte Platte des RA. In dieser Gleichung ist C der
Re-unabhängige Druckverlustbeiwert ζ * = Cζ = ζ ⋅ Re0,25 .
Betrachtet man wieder einen Apparat bei unveränderter Geometrie und unveränderten Stoffwerten, d.h.
gleichem Medium und konstanter Temperatur, erhält
man mit Gl. (1) und dem bekannten Ansatz für den
Druckverlust ∆p:
∆p = ζ ⋅
l ρ 
V
⋅ ⋅
d h 2  AStrömungsquerschnitt
2

ρ 
V
−0 ,25 l
 = Cζ . Re ⋅ ⋅ ⋅ 
A
d
2
h

 Strömungsquerschnitt



2
(2)
Fasst man darin die geschwindigkeitsunabhängigen Konstanten zusammen, ergibt sich:
∆p = ζ V ⋅ Re − m ⋅ (V ) = ζ w ⋅ w2−m
2
26
(3)
Erfahrungsgemäß bewirkt eine Erhöhung der Strömungsgeschwindigkeit bei unveränderter Geometrie und konstanten
Stoffwerten eine Erhöhung des Druckverlustes und gleichzeitig eine Verbesserung des Wärmeübergangs wegen der
Zunahme des Grades der Turbulenz. Die Abhängigkeiten
des Druckverlustbeiwertes und der Nu-Zahl von der Re-Zahl
hingegen zeigen den – in Grenzen – geometrieunabhängigen Einfluss der Turbulenz auf den konvektiven Wärmeübergang. Vergleicht man unter diesem Gesichtspunkt Platte
und Rohr, so ergibt sich qualitativ folgendes Bild:
a) Druckverlust
Für die Plattenseite des Referenzapparates RA, beispielsweise, erhält man durch Anpassung der Gleichung (1) an Messwerte im gesamten untersuchten Bereich Re < 18000:
ζ = 20, 25 ⋅ Re −0,274
(5a)
Passt man den Gleichungstyp (1) aber im hier interessierenden Re-Bereich 300 < Re < 10000 an, so ergibt sich eine
etwas passgenauere Gleichung für den turbulenten Bereich
mit gleichem Re-Exponenten wie für das glatte Rohr:
ζ = 12, 8 ⋅ Re −0,25
(5b)
Setzt man den Vorfaktor CRA− P = 12,8 ins Verhältnis zu dem
bekannten C-Wert für das turbulent durchströmte Rohr,
CRohr = 0,3165 erhält man:
TFH Wildau, Wissenschaftliche Beiträge 2006
ζ RA− P
≈ 40
ζ Rohr
(6)
Der Frage, wie sich ein so großer Unterschied in den
Druckverlustbeiwerten im Verhältnis der entsprechenden
Nu-Zahlen widerspiegelt, wird unter b) nachgegangen.
b) Wärmeübergang
Der Zusammenhang zwischen Nu-Zahl und Widerstandsbeiwert ist für das turbulent durchströmte Rohr in der
Gleichung von Petukhov [2] enthalten, der hier folgende
Form gegeben wird:
Nu =
ζ Rohr
⋅ Re⋅
8
Pr
(
2
ζ
1, 07 + 1, 46 ⋅ 8, 7 ⋅ Rohr ⋅ Pr 3 − 1)
8
)
=
ζ Rohr
⋅ Re⋅ B
8
(7)
Dieser Zusammenhang ist komplex, da der Bruch B nichtlinear von ζ und Pr abhängig ist, und für plattebezogene
Abschätzungen nicht ohne weiteres verwendbar. Betrachtet man aber die Herleitung dieser halbempirischen Gleichung, so erkennt man, dass der ζ-haltige Term in B mit
dem Verhältnis zwischen der Geschwindigkeit am Rand der
turbulenten Kernströmung u’ zur mittleren Geschwindigkeit der Kernströmung u zusammenhängt:
8, 7 ⋅
ζ u/
=
8 u
(8)
Diese Gleichung gilt für das glatte Rohr. Setzte man darin
zunächst die wesentlich höheren ζ-Werte für Platten dort
ein, so erhielte man unsinnige Werte >1. Die BlasiusBeziehung für das Rohr von der Form der Gleichung (1)
ergibt für den Ausdruck (8) bei zwei extremen Re-Zahlen,
Re = 3000 und 100000, Rechenwerte von 0,41 bzw. 0,64.
Mit diesem beiden Extremwerten ist B aus Gleichung (7)
in Abb. 2 als Funktion der Pr-Zahl im technisch interessierenden Pr-Bereich 1 < Pr < 300 halblogarithmisch
dargestellt. Man sieht, dass die beiden Korrelationen sich
im Vorfaktor kaum unterscheiden. Für den Exponenten
der Prandtl-Zahl ergibt sich eine Variationsbreite von
0,35 bis 0,41. Da die eigenen Messungen eher im Bereich
niedriger Re-Zahlen durchgeführt wurden (300 < Re <
2000), also in der Nähe des laminaren Bereiches, und
da andererseits der Pr-Exponent in der Nu-Beziehung für
laminare Strömung nach [2] 0,33 beträgt, erscheint die
Annahme eines Wertes von 0,35 für den Pr-Exponenten
an der unteren Grenze des betrachteten Re-Intervalls
vertretbar.
Mit diesem Pr-Exponenten vereinfacht sich die PetukhovBeziehung zu:
Nu = c1 ⋅ ζ ⋅ Re⋅ Pr 0,35
Setzt man darin noch den Re-unabhängigen Druckverlustbeiwert ein, erhalt man:
Nu = c1 ⋅ ζ * ⋅ Re0,75 ⋅ Pr 0,35
TFH Wildau, Wissenschaftliche Beiträge 2006
(10)
Für den RA wurde aus Messungen folgende empirische
Korrelationsgleichung ermittelt:
Nu = 0, 237 ⋅ Re0,72 ⋅ Pr 0,32
(11a)
Gültig im gesamten untersuchten Messbereich: 37 < Re
< 16100 und 1,9 < Pr < 264. Bei der Anpassung besteht
eine gewisse Freiheit in der Wahl der Anpassungsparameter einerseits und in der Wahl des Anpassungsbereiches
für die Re- und Pr-Zahl andererseits. Um einen besseren
Vergleich zum Rohr zu erhalten, wurde deshalb hier als
Exponent für die Pr-Zahl von 1/3 = 0,33 gewählt und im
hier betrachteten Re-Bereich 300 < Re < 10000 angepasst.
Ergebnis war folgende Gleichung:
Nu = 0,19 ⋅ Re0,75 ⋅ Pr 0,33
(11b)
Wie man sieht, ergab sich auch hier, wie schon beim
Druckverlust derselbe Re-Exponent, wie für das glatte Rohr.
Aus dem Vergleich von (10) und (11b) bei Berücksichtigung
von ζ* = 12,8 für die Platte, wie aus Messwerten für den
RA ermittelt, und bei Vernachlässigung des geringfügigen
Unterschiedes im Pr-Exponenten der beiden Gleichungen,
erhält man ein c1 von 0,015 für die Platte. Beim Rohr betrug dieser Wert 0,125 gemäß der Pethukow-Gleichung [1].
Außerdem ist ζ* = 0,3164 für das Rohr, aus der Blasius-Gleichung [1]. Setzt man die beiden Seiten von Gl. (11b) und
(10) ins Verhältnis und vernachlässigt dabei die geringen
Unterschiede der Pr-Exponenten, ergib sich:
NuRA− P ( c1 ⋅ ζ ∗ ) Platte
0, 015 ⋅ 12, 8
≈
=
= 4, 75
NuRohr ( c1 ⋅ ζ ∗ )
0,125 ⋅ 0, 3164
(12)
Rohr
Die Nusselt-Zahlen des RA und des Rohres unterscheiden
sich demnach näherungsweise um den Faktor 4,75. Dem
ist das analoge Verhältnis der Druckverlustbeiwerte von 40
gegenüberzustellen. Man sieht, dass dem vergleichweise
höheren Druckverlust im Plattenapparat auch eine Verbesserung des Wärmeübergangs entspricht, die allerdings
weit weniger stark ausfällt. Dies ist bei Apparaten unterschiedlichen Typs, wie es Plattenapparat und Rohr sind,
auch nicht anders zu erwarten.
Würde man zwei Rohrapparate R1 und R2 miteinander vergleichen, ergäbe sich aus Ähnlichkeitsgründen bei
gleichen Re- und Pr-Zahlen nach Gleichung (12)
NuR1 ζ R1
=
NuR 2 ζ R 2
Abb. 2: Bruch B aus der Gleichung (7) in Abhängigkeit von der
Pr-Zahl für zwei Werte des Ausdruckes (8) entsprechend den
extremen Re-Zahlen 3000 und 10000.
(9)
(13)
da beim Rohr in Gleichung (9) bzw. (10) Proportionalität
zwischen Druckverlustbeiwert und Nu-Zahl angenommen
werden kann.
27
Dieser Denkansatz erscheint formal übertragbar, um andere
Apparate gleichen Typs, z. B. Plattenwärmeübertrager untereinander zu vergleichen. Werden z. B. Plattenapparate
mit unterschiedlicher Geometrie (Plattenform, -durchmesser, -prägung) untersucht, kann es wichtig sein zu entscheiden, welcher Apparat der bessere ist sowohl hinsichtlich
Druckverlust, wie auch hinsichtlich Wärmeübergang.
Dabei wird zu berücksichtigen sein, dass wirtschaftlich
betrachtet, die Betriebskosten mit steigender steigen die
Investkosten aber fallen, d.h. Druckverlustbeiwert und
Nu-Zahl – wirtschaftlich betrachtet – gegenläufig sind.
Angenommen ein modifizierter Testapparat TA soll mit
einem Referenzapparat RA vergleichen werden, so lautet
die dafür angewendete Gleichung (13):
NuTA ζ TA
=
NuRA ζ RA
oder
NuTA
NuRA
=1
ζ TA
ζ RA
(14)
Voraussetzung ist auch hier Proportionalität zwischen
Druckverlustbeiwert und Nu-Zahl.
3. Zur Wirtschaftlichkeit von
Plattenapparaten
Der Doppelbruch in Gleichung (14) lässt sich noch folgendermaßen umstellen:
NuTA
NuTA
ζ TA
NuRA
=
ζ TA
NuRA
ζ RA
ζ RA
(15)
Damit wird die relative Wirtschaftlichkeit w = WTA/WRA ,
hier für TA/RA als Vergleichswert der Wirtschaftlichkeiten
zweier unterschiedlicher Plattenapparate durch das Verhältnis der Gütezahlen ausgedrückt:
NuTA
WTA
G
ζ TA
w=
=
= TA
WRA NuRA
GRA
ζ RA
(20)
Für wirtschaftlich gleichwertige Apparate ergibt sich ein w
= 1 anderenfalls von 1 verschiedene Werte.
Die experimentellen Druckverlust- und Wärmeübergangsergebnisse als ς-Werte und Nu-Zahlen liegen für die
hier beispielhaft betrachteten Apparate TA und RA in der
Form von empirischen Korrelationen nach Gleichungen
(1) bzw. (4) vor und können somit verwendet werden, um
einen Wirtschaftlichkeitsvergleich einzelner Apparatetypen durchzuführen.
4. Vergleich Testapparat – Referenzapparat
a) Druckverlust
In Abb. 3 sind die aus Messungen ermittelten platten- und
mantelseitigen Druckverlustbeiwerte des Referenzapparates
ζ TA− P und ζ TA− M sowie der mantelseitige Druckverlustbeiwert ζ RA− M bezogen auf den entsprechenden Referenzwert
ζ RA− P dargestellt. Betrachtet man den für Plattenwärmeübertrager technisch interessanten Re-Bereich ab Re = 300,
so ergeben die bisherigen Messungen für die Mantelseite
des RA etwa 1, 4 mal größere Druckverluste, für die Mantelseite des TA sogar um ca. Faktor 2 höhere Werte als für
die Plattenseite des RA.
Im Zähler und Nenner stehen nun dimensionslose Brüche,
die sich nunmehr jeweils auf einen Apparat beziehen und
die eine bessere Interpretation ermöglichen als dies mit
Gleichung (14) möglich ist.
Da – erfahrungsgemäß in erster Näherung – der
Druckverlust proportional den im Folgenden mit BK
bezeichneten Betriebskosten, die Nusseltzahl aber umgekehrt proportional den im Folgenden mit IK bezeichneten
Investkosten ist, gemäß
BK ~ ∆ p ~ ς
(16)
IK ~ 1/Nu ~ 1/ α
(17)
Folgt daraus, dass die Verhältnisse Nu / ς umgekehrt proportional den Gesamtkosten sind und somit ein Maß für
die Wirtschaftlichkeit eines Apparates darstellen:
W ~ 1/(BK . IK) ~ Nu/ς
(18)
Das Verhältnis Nu/ς kann man auch als eine Art wirtschaftlichen Wirkungsgrad gegeben durch das Verhältnis von
Nutzen zu Aufwand sehen. Wir definieren es im Folgenden
als „Gütezahl“ G:
G = Nutzen
28
Aufwand
=
Nu
ζ
(19)
Abb. 3: Druckverlustbeiwerte für Platte und Mantel des Testapparates
TA bezogen auf den Referenzwert RA-P in Abhängigkeit von der
Re-Zahl
Als Ursache für die höheren Druckverluste im TA kommen
schlecht durchströmte Bereiche in Frage, die in Abb. 4
schraffiert dargestellt sind. Diese nicht durchströmten
Flächen können plattenseitig an den Rändern und mantelseitig im mittleren Bereich vermutet werden. Durch
die erhöhten Strömungsgeschwindigkeiten in den gut
durchströmten, nichtschraffierten Bereichen lassen sich
somit die im Vergleich zum RA höheren Druckverluste
erklären. Am Wärmeaustausch hingegen sind am stärksten
nur die Bereiche beteiligt, die beidseitig gut durchströmt
sind. Die bevorzugten Wärmeübertragungsflächen ergeben
TFH Wildau, Wissenschaftliche Beiträge 2006
sich demnach aus den Schnittmengen a∩b der gut durchströmten Flächenbereiche aus a) und b) in Abb. 4.
Eine gleichmäßigere Durchströmung, wie sie in den
gestrichelt abgetrennten Ein- und Auslaufbereichen (27 %
der Austauschfläche) erreicht würde, wenn diese mit entsprechend modifizierten Ein- und Auslaufbereichen ausgeführt wären, hätte dann positive Auswirkungen sowohl auf
den Druckverlust wie auch auf den Wärmeübergang, da die
gesamte Fläche gleichmäßiger an der Wärmeübertragung
beteiligt würde.
a)
apparate TA1 und TA2 untereinander. Abb. 6 bis 8 gelten für
eine Pr=8, die typisch für den Versuchsstoff Wasser ist.
Im Einklang mit Abb. 3 ergeben sich für beide Testapparate höhere Widerstandsbeiwerte als für den RA, wobei
der Unterschied mit steigender Re-Zahl noch zunimmt.
TA2 mit der härteren Platte weist naturgemäß die größeren
Druckverluste auf. Sie sind im untersuchten Re-Bereich 1,8
bis 2,6 mal größer als beim RA. Die Nu-Zahlen sind für den
TA1 20-30 % und für TA2 10-20 % geringer als für den Testapparat, wobei der Einfluss der Re-Zahl dabei gering ist und
im Rahmen der Messgenauigkeit bleibt. Eine Aussage über
die Wirtschaftlichkeit ergibt das Verhältnis der G-Zahlen,
das einen mit der Re-Zahl zunehmenden Vorteil des RA
von bis zu 60 % entsprechend Faktor 2,5 anzeigt.
b)
Abb. 4: Platten- (a) und Mantelseite (b) des Testapparates. Die
schlecht durchströmten Bereiche sind schraffiert, mantelseitige Einund Auslaufbereiche fett.
b) Wärmeübergang
Zum Vergleich des Wärmeübergangs können die empirischen Gleichungen vom Typ (4) herangezogen werden, die
durch Anpassung an Messwerte gewonnen wurden:
TA: Nu = 0,13 ⋅ Re0,78 ⋅ Pr 0,38
RA: Nu = 0, 237 ⋅ Re0,72 ⋅ Pr 0,32
Abb. 5: Verhältnisse der Nu-Zahlen, Widerstandsbeiwerte ς und
Gütezahlen G für TA1/RA in Abhängigkeit von der Re-Zahl bei Pr=7
(Versuchsstoff: Wasser 20°C)
Mit diesen Gleichungen ergeben sich überschlägig z. B.
folgende Nu-Vergleichswerte für
Re = 300, Pr = 2:
Re = 10000, Pr = 2:
NuTA = 14,5 und
NuTA = 223,0 und
NuRA = 18,0
NuRA = 224,0
Der Unterschied im untersuchten Re-Bereich ist trotz
des Unterschiedes von ca. 20 % im niedrigen Re-Bereich
praktisch vernachlässigbar, wenn man bedenkt, dass ist
die Qualität der Anpassung zu niedrigen Re-Zahlen hin
schlechter wird.
c) Wirtschaftlichkeitsvergleich zweier Testapparate jeweils mit dem Referenzapparat
und untereinander
Im Folgenden werden zwei Testapparate einerseits mit dem
in Abb. 1a) schematisch dargestellten Referenzaparat RA
und andererseits untereinander verglichen:
TA1: Testapparat mit weicherer Prägung
im Vergleich zu TA in Abb. 1b)
TA2: Testapparat mit harter Prägung = TA in Abb. 1b)
Beide Testapparate weisen ansonsten die gleiche Geometrie
wie in Abb. 1 b) auf.
Für alle Apparate werden Widerstandsbeiwerte und
Nu-Zahlen verwendet, die zwischen Platten- und Mantelseite gemittelt wurden.
Abb. 5 und 6 enthält einen Wirtschaftlichkeitsvergleich
der Testapparate 1 und 2 jeweils mit dem Referenzapparat,
Abb. 7 einen Wirtschaftlichkeitsvergleich der beiden Test-
TFH Wildau, Wissenschaftliche Beiträge 2006
Abb. 6: Verhältnisse der Nu-Zahlen, Widerstandsbeiwerte ς und
Gütezahlen G für TA2/RA in Abhängigkeit von der Re-Zahl bei Pr=7
(Versuchsstoff: Wasser 20°C)
Abb. 7: Relative Wirtschaftlichkeit w in Abhängigkeit von der Re-Zahl für
die Testapparate TA1 und TA2 bei Pr=7 (Versuchsstoff: Wasser 20°C)
29
Aufschlussreich für den Vergleich der beiden Testapparate untereinander ist erst eine Betrachtung der relativen
Wirtschaftlichkeit w = G1/G2 in Abbildung 7. Man sieht,
dass die weiche Platte einen wirtschaftlichen Vorteil
von bis zu 60 % entsprechend Faktor 1,6 bei niedrigen
Re-Zahlen aufweist, der aber mit steigender Re-Zahl
abnimmt auf unter 20 % entsprechend Faktor 1,2 bei
Re=10000.
Man sieht, dass die relative Wirtschaftlichkeit mit
steigender Re-Zahl gegen 1 geht, d.h. ein signifikanter
wirtschaftlicher Unterschied nur bei mittleren bis kleinen
Re-Zahlen besteht.
Bei einer Pr-Zahl von 70, typisch für den zähflüssigeren
Versuchsstoff Wärmeträgeröl, ergibt sich ein qualitativ
ähnlicher Sachverhalt gemäß Abb. 8-10: Starker Anstieg
der Widerstandsbeiwerte in den beiden TA im Vergleich
zu RA mit steigender Re-Zahl, um mehr als Faktor 2 beim
TA2, aber fast kein Einfluß der Re-Zahl auf das Verhältnis
der Nu-Zahlen, die für TA1 20-30 % geringer und für TA2
kaum merklich geringer als für RA sind. Bezüglich des Unterschieds in den Widerstandsbeiwerten der Testapparate
TA1 und TA2 in Relation zu RA besteht Klärungsbedarf in
Folgeuntersuchungen.
Der Vergleich zwischen TA1 und TA2 in Abb. 10 zeigt,
dass die weiche Platte auch in diesem Pr-Bereich bei kleinen bis mittleren Re-Zahlen um um 50-20 % besser d.h.
wirtschaftlicher als die harte Platte ist, wobei der Unterschied zu hohen Re-Zahlen hin auch hier abnimmt.
Zusammenfassung
Abb. 8: Verhältnisse der Nu-Zahlen, Widerstandsbeiwerte ς und
Gütezahlen G für TA1/RA in Abhängigkeit von der Re-Zahl bei
Pr=70 (Versuchsstoff: Marlotherm SH 80°C)
Ausgehend von Druckverlust und Wärmeübergang im einphasig turbulent durchströmten, glatten Rohr wurde eine
dimensionslose Gütezahl G als Verhältnis von Nusseltzahl
und Widerstandsbeiwert eingeführt, die es ermöglicht die
Wirtschaftlichkeit unterschiedlicher Plattenapparate vergleichsweise abzuschätzen. Die beispielhafte Anwendung
auf zwei Testapparaten mit unterschiedlicher Plattenprägung ergab eine besserer relative Wirtschaftlichkeit der
weichen Platte vergleichsweise zur harten Platte im Bereich
kleiner und mittlerer Re-Zahlen für einen weiten Bereich
der Pr-Zahl, die aber mit zunehmender Re-Zahl abnimmt.
Der Druckverlustunterschied zwischen Testapparaten und
Referenzapparat sollte in weiterführenden Untersuchungen behandelt werden.
Literatur
Abb. 9: Verhältnisse der Nu-Zahlen, Widerstandsbeiwerte ς und
Gütezahlen G für TA2/RA in Abhängigkeit von der Re-Zahl bei
Pr=70 (Versuchsstoff: Marlotherm SH 80°C)
[1] J.-U. Gerking, M. Haß, J. Schmadl, I. Schult und J. Schult:
„Neuartige Plattenwärmeübertrager. Teil B: Zum Einfluss von
Bypass-Strömung auf Druckverlust und Wärmeübertragung
in Plattenwärmeübertragern“, Wissenschaftliche Beiträge der
TFH Wildau, Heft 2005, S. 109.
[2] VDI-Wärmeatlas, Springer-Verlag Berlin-Heidelberg, 1998.
Danksagung und Hinweis
Für die finanzielle Förderung dieser Arbeit (Teile A bis
D) sind wir dem Bundesministerium für Bildung und
Forschung (BMBF) zu Dank verpflichtet. Das zugrunde
liegende Forschungsvorhaben wurde mit Mitteln des
BMBF unter dem Förderkennzeichen 1711Z03 gefördert.
Die Verantwortung für den Inhalt liegt bei den Autoren.
Abb. 10: Relative Wirtschaftlichkeit w in Abhängigkeit von der
Re-Zahl für die Testapparate TA1 und TA2 bei Pr=70 (Versuchsstoff:
Marlotherm SH 80°C)
30
TFH Wildau, Wissenschaftliche Beiträge 2006
Autoren
Prof. Dr.-Ing. Josef Schmadl
Dipl. -Ing. Jens-Uwe Gerking
Technische Fachhochschule Wildau
Technikum für Thermische Verfahrenstechnik
Tel. +49 3375 508-110
[email protected]
Dipl.-Ing. Joachim Schult
Dr. Ingrid Schult
Dipl.-Ing. (FH) Maik Haß
Dipl.-Ing. (FH) Carsten Briesenick
Caloperm GmbH
Am Möllenberg 40, 15751 Niederlehme
Tel. +49 3375 5185-18
TFH Wildau, Wissenschaftliche Beiträge 2006
31
Bereitstellung von Dendromasse für die Versorgung
von Biomassekraftwerken –
Analyse am Beispiel des Standorts Elsterwerda
Paul Fiedler, Mareike Schultze, Herbert Sonntag
1. Einleitung
Hintergrund
Energieversorgung steht im Spannungsverhältnis zwischen
Versorgungssicherheit, Wirtschaftlichkeit, Umweltverträglichkeit und der Notwendigkeit gesellschaftlicher
Akzeptanz.
Regenerative Energien sind geeignet, die sich perspektivisch öffnende Lücke zwischen der weltweit steigenden
Energienachfrage und der unsicheren Expansion des Energieangebots zumindest teilweise zu schließen (BMWI,
BMU, 2006). Neben ihrem Beitrag zur Ressourcenschonung
und zum Klimaschutz sind sie ein wichtiger Wirtschaftsfaktor (BMU, 2006) und verringern die Abhängigkeit von
Energieimporten.
Unter den regenerativen Energien zeichnen sich die
Bio-Energien auf der Basis nachwachsender Rohstoffe durch
ihr großes Potential und die vielfältigen Einsatzmöglichkeiten aus. Sie können für die Erzeugung von Elektrizität, für
die Gewinnung von Wärme und für die Produktion von
Kraftstoffen genutzt werden. Zudem sind sie kontinuierlich
verfügbar und lagerfähig. Langfristig könnte die Nutzung
von Biomasse etwa 10 % zur Energiebereitstellung in
Deutschland beitragen (vgl. BMU, 2005).
Die Voraussetzungen für die Nutzung von Bio-Energien
sind sehr günstig. Ihre Umweltverträglichkeit steht außerhalb jeder Diskussion und die gesellschaftliche Akzeptanz
ist grundsätzlich hoch. Insbesondere in strukturschwachen
Regionen kann die Nutzung eigener Biomasseressourcen
einen wichtigen Beitrag zur regionalen Wertschöpfung leisten. Große Wachstumschancen im Bereich der Biomasse
werden der Verwendung bisher ungenutzter Holzpotentiale zugesprochen (Auer, 2005).
Die Logistik spielt hinsichtlich der Wirtschaftlichkeit
der Nutzung von Dendromasse (Energieholz) eine wichtige
Rolle. Die Kosten der Bereitstellung übersteigen häufig die des
eigentlichen Materialwertes.
Umso wichtiger erscheint es, effiziente Bereitstellungskonzepte
zu entwickeln.
Projektaufgabe
Die Projektaufgabe bestand darin
die Umstellung der Versorgung
des Biomassekraftwerkes Elsterwerda von Altholz auf Waldrestholz nach finanziellen Gesichtspunkten zu prüfen. Hintergrund
ist die derzeitige Entwicklung
auf dem Altholzmarkt. Stellte
32
Altholz bisher eine reichlich verfügbare und kostengünstige Rohstoffquelle dar, so sind die Mengen zunehmend
abgeschöpft. Allgemein wird mit einer Verknappung und
mit ansteigenden Preisen gerechnet (Weimar und Mantau,
2005). Zusätzlich werden die Transportentfernungen und
damit die Bereitstellungskosten für Altholz steigen. Waldrestholz hingegen steht flächendeckend zur Verfügung und
wird nur unzureichend genutzt.
Besonderen Wert bei der Umsetzung der Aufgabe,
wurde auf den Ursprung der Dendromasse gelegt.
Diese sollte ausschließlich aus regionalen Ressourcen
stammen, in diesem Untersuchungsfall dem Landkreis
Elbe-Elster/Brandenburg. Neben der Ermittlung geeigneter Dendromasseprodukte stand die Untersuchung
der Logistik- und Wertschöpfungskette im Mittelpunkt.
Für das Kraftwerk Elsterwerda sollten die Kosten für die
Versorgung mit Waldrestholz anhand einer beispielhaften
Wertschöpfungskette ermittelt und mit den derzeitigen
Kosten verglichen werden. Auf Basis der Ergebnisse sollte
ein Handlungsvorschlag gemacht bzw. Alternativen zur
bisherigen ausschließlichen Altholznutzung aufgezeigt
werden.
2. Grundlagen und Vorgehensweise
Unter dem Begriff „Dendromasse“ wird holzartige Biomasse verstanden, die einer energetischen Nutzung zugeführt
wird. Dies betrifft sowohl Holzsortimente, die direkt durch
thermische Aufarbeitung genutzt werden, als auch solche
die in einem ersten Schritt in ein hochverdichtetes Zwischenprodukt gewandelt und erst anschließend in einem
zweiten Aufbereitungsschritt einer energetischen Nutzung
zugeführt werden. In Abb. 1 sind unterschiedliche Bereitstellungspfade für Dendromasse dargestellt.
Abb. 1: Bereitstellungspfade Dendromasse, Quelle: nach Kaltschmitt und Hartmann (2001)
TFH Wildau, Wissenschaftliche Beiträge 2006
Wie aus der Abb. 1 zu ersehen ist, kann frische Dendromasse in der Forstwirtschaft, der Landwirtschaft und bei der
Landschaftspflege anfallen. Potentialmodelle zu Kurzumtriebsplantagen auf landwirtschaftlichen Flächen und zu
Biomasse aus der Landschaftspflege sind derzeit noch nicht
verfügbar. Obwohl diesen Dendromassearten ein hohes
Potential zugesprochen wird, beschränkt sich daher diese
Analyse auf Waldrestholz und Schwachholz aus der Forstwirtschaft. Waldrestholz fällt als Nebenprodukt bei der
Ernte von Holz für die stoffliche Nutzung an. Holz unterhalb der Nutzungsgrenze und Kronenmaterial verbleiben
zurzeit überwiegend ungenutzt im Wald. Schwachholz ist
Holz aus der Jungbestandspflege, dessen Durchmesser zu
gering für eine stoffliche Nutzung ist. Unter Beachtung der
Grundsätze für eine nachhaltige Nutzung steht ein Teil
dieses Materials für die Energieerzeugung zur Verfügung.
An der Wertschöpfungskette Dendromasse sind eine
Reihe von Akteuren beteiligt. Auf der Angebotsseite sind
das die Forstverwaltung, private Waldbesitzer und Forstdienstleister.
Die Abnehmerseite ist sehr differenziert. Es handelt
sich hier um Betreiber von Konversionsanlagen in den
unterschiedlichsten Dimensionierungen. Privatpersonen
kommen als Abnehmer kleinerer Mengen ebenfalls in
Betracht. Eine wichtige Rolle im Bereitstellungsprozess
spielen die Dienstleister. Sie können sowohl die Prozessschritte Ernte und Aufbereitung als auch Transport und
Lagerung übernehmen. Die Vielzahl der Ablaufprozesse
bietet hier auch eine ebenso große Zahl von Varianten
der Arbeitsteilung.
Abb. 2: Wertschöpfungskette forstlicher Dendromasse
Je nach den Anforderungen an die Dendromassequalität
sind unterschiedliche Verfahrensschritte notwendig. Entscheidend für die Gestaltung der Bereitstellungskette ist die
Herstellung eines transportfähigen Dendromasseprodukts.
Waldrestholz und Schwachholz werden häufig direkt am Ort
des Anfalls zu Waldhackschnitzeln zerkleinert. Alternativ
ist die Aufbereitung zu Bündeln oder Rundholzabschnitten
möglich. Privathaushalte nehmen häufig Scheitholz ab.
Die Bereitstellungskosten zur Versorgung einer Anlage
mit Dendromasse hängen ab von:
– den Anforderungen an Menge und Qualität der Dendromasse, die sich aus Art und Dimensionierung der
Konversionsanlage ergeben,
– den verfügbaren Dendromasseressourcen,
– der Herkunft der Dendromasse und
– den eingesetzten Verfahren für Ernte, Aufbereitung,
Lagerung, Umschlag und Transport.
Die Vorgehensweise zur Erstellung eines Versorgungskonzepts für das Biomassekraftwerk Elsterwerda ist in Abb. 3
dargestellt. Zunächst werden die Anforderungen an die
Bereitstellung definiert. Es folgt eine Untersuchung des
Landkreises Elbe-Elster hinsichtlich seiner Eignung für
TFH Wildau, Wissenschaftliche Beiträge 2006
die Versorgung des Biomasseheizkraftwerkes Elsterwerda.
Wichtige Aspekte sind die infrastrukturelle Anbindung
des Standorts und die räumliche Verteilung nachhaltig
vorhandener Dendromassepotentiale. Darauf aufbauend
werden exemplarische Bereitstellungsketten zur Versorgung des Standorts definiert und monetär bewertet. Die
Bewertung des Versorgungskonzepts und das Aufzeigen
von Handlungsalternativen erfolgt entsprechend der
eingangs formulierten qualitativen, quantitativen und
monetären Vorgaben.
Abb. 3: Vorgehensweise zur Erstellung und Bewertung des
Versorgungskonzepts
3. Anforderungen an ein Konzept zur Versorgung des Kraftwerks Elsterwerda
Ein positives Betriebsergebnis zu erzielen, ist die Grundvoraussetzung für das wirtschaftliche Bestehen eines Biomasseheizkraftwerks. Im Fall der vorliegenden Untersuchung
soll für das Biomassekraftwerk Elsterwerda geprüft werden,
ob ein kostendeckender Betrieb auf der Basis von Waldrestholz möglich ist. Die Bereitstellungskosten dürfen einen
definierten Anteil an den Einnahmen, d.h. an der Gesamtvergütung für Strom und Wärme, nicht überschreiten.
Das Kraftwerk Elsterwerda produziert Strom und Wärme bei einer Arbeitsleistung von 8.000 Volllaststunden pro
Jahr. Der Schwerpunkt liegt mit 96.000 MWh/a auf der
Stromproduktion. Weitere 24.000 MWh/a Wärme werden
ins Fernwärmenetz der Stadt Elsterwerda eingespeist. Der
vom Kraftwerk Elsterwerda bereitgestellte Strom wird nach
den im Erneuerbare-Energien-Gesetz (EEG) festgelegten
Sätzen vergütet. Die Bewertung der produzierten Wärmemenge erfolgte nach dem durchschnittlichen Heizölpreis
2005 (Tecson, 2006).
Leistung
Stromproduktion
Wärmeproduktion
Holzbedarf
Stromvergütung
Wert der produzierten Wärme
MWel
MWh/a
MWh/a
t atro/a
€/a
€/a
12,6
96.000
24.000
96.000
8,3 Mio.
1,3 Mio.
Tab. 1 Kenndaten des Biomassekraftwerks Elsterwerda
Die Anlage hat einen jährlichen Brennstoffbedarf von
96.000 t Trockenmasse (t atro). Bisher wird diese Menge
fast ausschließlich durch Altholz abgedeckt. Nach der
33
geplanten Jahresproduktion am Standort Elsterwerda
ergibt sich eine Gesamtvergütung für die bereitgestellte
Strom- und Wärmemenge von etwa 9,5 Mio. €. Bei einer
Kostenstruktur vergleichbar mit ähnlichen Anlagen liegt
das Budget für die Bereitstellungskosten von Dendromasse
bei 30 – 35 % der Gesamtkosten.
Der Einkauf des Altholzes erfolgt frei Werk, wobei
die Anlieferung ausschließlich per Lkw realisiert wird.
Vor Ort gibt es keine Hackanlage, so dass ausschließlich
Hackschnitzel eingekauft werden. Diese können eine
Kantenlänge von bis zu 300 mm aufweisen. Der Preis für
Altholz schwankt zwischen 10 – 40 €/t atro (Leible et al,
2003).
Die Anlage ist für das Verfeuern von Altholz aller Kategorien ausgelegt, das mit Störstoffen und chemischen
Substanzen, wie z. B. Teer, Holzschutzmittel oder Chrom,
belastet ist. Durch die notwendigen Reinigungs- und Filteranlagen liegen im Vergleich zur Verbrennung unbelasteter
Holzsortimente die jährlichen Fixkosten deutlich höher.
Die Zufeuerung von Waldhackschnitzeln ist grundsätzlich möglich aber mit technischen Schwierigkeiten
verbunden. Grund ist der hohe Wassergehalt (50 – 60 %)
von frischen Waldhackschnitzeln im Vergleich zu Altholz. Bei einem Wassergehalt von über 20 % ist bei dem
vorhandenen Kesselvolumen eine Drosselung der Anlagenleistung erforderlich. Um den kritischen Wassergehalt
nicht zu überschreiten, ist eine konstante Zumischung
einer definierten Menge Waldhackschnitzel zum Altholz
erforderlich.
Die in Tabelle 2 dargestellten Anforderungen des Kraftwerks Elsterwerda dienen als Zielvorgabe für die Entwicklung des Versorgungskonzepts.
Mengenbedarf
96.000 t atro/a
Dendromasseart
– Waldrestholz, Schwachholz
Neben den vorhandenen Binnenhäfen werden hierbei
die Holzverladebahnhöfe sowie die Straßenanbindungen
betrachtet.
Die Einbindung von Bahn und Binnenschiff in die
Versorgungskette erfordert einen straßengebundenen
Vorlauf vom Ort der Biomasseproduktion zum Verladebahnhof bzw. Binnenhafen. Ein bedeutender Kostenfaktor
ist der Umschlag der Güter von einem Verkehrsträger zum
anderen. Für einen kostengünstigen Transport ist es daher
ideal, wenn das Kraftwerk über einen Gleisanschluss verfügt bzw. direkt an einer Wasserstraße liegt, und damit der
straßengebundene Nachlauf wegfällt.
Der einzige Holzverladebahnhof im Landkreis liegt in
Finsterwalde und damit rund 30 km vom Standort Elsterwerda entfernt. Die nächstgelegenen Binnenhäfen sind 45
bzw. 30 km entfernt in Torgau und Riesa, Sachsen, angesiedelt. Für die Versorgung des Standorts Elsterwerda – gemäß
der Zielvorgabe – aus regionalen Ressourcen kommt daher
nur die Straße in Frage. In den weiteren Betrachtungen
und bei der Ermittlung der Transportkosten wird daher
ausschließlich der Verkehrsträger Straße berücksichtigt.
– Altholz
Mischung
Dendromasseprodukt
Qualtitative
Anforderungen
Herkunft
Maximaler Anteil Waldrestholz und
Schwachholz
Hackschnitzel
Kantenlänge < 300 mm
Wassergehalt < 20%
Waldrestholz, Schwachholz: LK Elbe-Elster
Altholz: überregional
Ort der Abnahme
Elsterwerda
Zeitpunkt der
Bereitstellung
Methodik der
Bereitstellung
Budget
Bedarfsabhängig, möglichst kontinuierlich
Anlieferung per LKW
ca. 3 Mio.
Tab. 2: Zielvorgaben für die Versorgung des Kraftwerks Elsterwerda
mit Waldhackschnitzeln
Abb. 4: Infrastrukturelle Anbindungen des Standorts Elsterwerda im
Land Brandenburg
4. Standortanalyse Elbe-Elster
Dendromassepotentiale
Bei der Analyse der Dendromassepotentiale spielt neben
den absoluten Vorkommen im Landkreis Elbe-Elster auch
die räumliche Verteilung eine wichtige Rolle. Diese wurde
mit Hilfe der GIS(Geographisches Informationssystem)Software Regiograph dargestellt. Diese Daten bilden die
Grundlage, um die vorhandenen Holzpotentiale und das
zu untersuchende Biomasseheizkraftwerk Elsterwerda in
Infrastruktur
Für die Versorgung von Biomassekraftwerken mit Dendromasse stehen grundsätzlich die Verkehrsträger Straße,
Schiene und Wasserstraße zur Verfügung. In diesem
Abschnitt werden sie hinsichtlich ihrer Zweckmäßigkeit
für die Versorgung des Standorts Elsterwerda untersucht.
34
TFH Wildau, Wissenschaftliche Beiträge 2006
räumliche Relation zu setzen. Für die Berechnung der
Transportkosten sind diese Daten elementar.
Die im Rahmen der Projektarbeit verwendeten Potentialdaten basieren auf Untersuchungen der Hamburger Bundesforschungsanstalt für Holz- und Forstwirtschaft (Dieter
und Englert, 2001). Zur Potentialermittlung für den Landkreis Elbe-Elster wurden die Waldflächen in Brandenburg
und Elbe-Elster (vgl. Tabelle 2) herangezogen. Die ermittelten Werte wurden mithilfe von regionalen Potentialwerten
(Bilke, 2005) kalibriert. Die in Tabelle 3 dargestellten Daten
liegen am unteren Ende der vorliegenden Abschätzungen
und sind daher als Minimalwerte zu betrachten.
Deutschland
Brandenburga)
ElbeElster
Waldfläche [ha]
10,6 Mio.
1 Mio.
60.000
Dendromassepotential
Gesamt [t atro/a]
16,6 Mio.
1.6 Mio.
94.000
davon Schwachholzb) [t atro/a]
7 Mio.
0,7 Mio.
40.000
davon Kronenholz [t atro/ha]
9,6 Mio.
0,9 Mio.
55.000
a) Abschätzung auf Basis der Waldfläche
b) Angaben bei einer unteren Aufarbeitungsgrenze von 8 cm
Tab. 3: Dendromassepotential aus der Forstwirtschaft in
Deutschland, Brandenburg und im Landkreis Elbe Elster, Quellen:
Dieter und Englert (2001), LSDB (2003), eigene Berechnungen
5. Ermittlung der Bereitstellungskosten
für Waldhackschnitzel
Für eine Bewertung der Bereitstellungsketten von Waldhackschnitzeln für das Kraftwerk Elsterwerda wird das
Blickfeld über die drei Grundprozesse der Logistik – Transport, Umschlag und Lagerung – hinaus erweitert. Die Wahl
des Ernteverfahrens und die Aufbereitung der Dendromasse sind bedeutende Kostenfaktoren und beeinflussen die
Transport- und Umschlagskosten wesentlich.
Es werden die in Abb. 6 dargestellten exemplarischen
Bereitstellungsketten angenommen. Die Aufbereitung der
Dendromasse, d. h. die Herstellung von Waldhackschnitzeln, wird in Kombination mit dem Transport durchgeführt. Die optimale Abstimmung der Kapazitäten der
einzelnen Teilprozesse führt hierbei zu minimalen Bereitstellungskosten. Die technischen Leistungsvorgaben der
Maschinen sind berücksichtigt. Maßgebend für den Hackvorgang sind die Vorgaben durch das Kraftwerk Elsterwerda
hinsichtlich der Form und Größe der Hackschnitzel. Zur
Vermeidung eines Umschlages werden die Hackschnitzel
direkt aus dem Hacker in einen bereitstehenden Anhänger
oder Wechselcontainer eingeblasen.
Nach dieser Schätzung ist im Landkreis Elbe-Elster mit
einem Dendromassepotential von etwa 94.000 t atro/a zu
rechnen, die sich wie folgt um den Standort Elsterwerda
verteilen (siehe Abb. 5).
Abb. 6: Exemplarische Bereitstellungsketten für Dendromasse
Abb. 5: Räumliche Verteilung der Dendromasse um den Standort
Elsterwerda
TFH Wildau, Wissenschaftliche Beiträge 2006
Die monetäre Bewertung der einzelnen Schritte der Bereitstellung erfolgt auf der Grundlage von Daten des Kuratoriums für Wald- und Forstwirtschaft (KWF 2004) und
der Bayrischen Landesanstalt für Wald und Forstwirtschaft
(LWF 2003).
Neben den Prozessen der Ernte und Aufbereitung
bestimmt die räumliche Verteilung der Dendromassepotentiale um den Standort Elsterwerda die Bereitstellungskosten.
Für die Berechnungen gilt, dass im Umkreis von 5 km
ausschließlich Landwirtschaftliche Züge den Transport der
Dendromasse übernehmen, bei längeren Transportentfernungen werden Container-Lkw eingesetzt.
Es wurden Beispielrechnungen für Transporte mit verschiedenen Anhängern durchgeführt. Das Ladevolumen
der Anhänger der landwirtschaftlichen Züge wird dabei
mit 14,9 m³ (klein) bzw. 18,7 m³ (groß), die der Abrollcontainer mit 35 m³ angenommen. Der Transport mit
Abrollcontainern hat sich grundsätzlich mit 2 Anhängern
kostengünstiger dargestellt. Auf dieser Grundlage werden
alle weiteren Betrachtungen geführt.
Unter Berücksichtigung der relevanten Parameter
ergeben sich die in Abb. 7 dargestellten Gesamtkosten
der Bereitstellung.
35
Abb. 7: Bereitstellungskosten und Dendromassepotenziale in
Abhängigkeit des Entfernungsradius um den Standort Elsterwerda,
Quellen: Leible et al (2003), KWF (2004)
Die ermittelten Bereitstellungskosten von über 80 €/ t atro
übersteigen den zurzeit für Altholz gezahlten Preis erheblich. Dieser wird, basierend auf Schätzungen nach Angaben
von Leible et al (2003) und einer mündlichen Mitteilung
des Kraftwerkbetreibers in Elsterwerda mit 25 €/t atro
angenommen. Das Waldholz ist somit preislich in dieser
besonderen Situation nicht konkurrenzfähig.
Grund für die hohen Bereitstellungskosten ist vor
allem die bisher mangelnde Effizienz der Prozesskette.
Durch den räumlich verteilten Anfall geringer Mengen
Dendromasse ist ein häufiges Umsetzen der Ernte- und
Aufarbeitungsmaschinen (Hacker) notwendig. Bei unzureichender Bündelung von Maßnahmen, führt dies zu
hohen unproduktiven Zeiten und hohen Umsetzkosten.
Zudem führt eine ungenaue Abstimmung zwischen anfallender Dendromasse, Dimensionierung des Hackers
und Bereitstellung entsprechender Transportfahrzeuge
zu hohen Stillstandzeiten und damit zu hohen Personalund Maschinenkosten. In diesem Bereich bestehen große
Optimierungspotenziale.
6. Bewertung des Versorgungskonzepts
Mit insgesamt 8 Mio. €/a übersteigen die Kosten für die
Bereitstellung von Waldhackschnitzeln deutliche das im
Biomassekraftwerk zur Verfügung stehende Budget für
die Rohstoffbeschaffung. Vor dem Hintergrund der sich
verknappenden Altholzpotentiale und dem erwarteten
Preisanstieg erscheint es dennoch sinnvoll, einen möglichen Beitrag von Waldholz zur Versorgung des Standorts
abzuschätzen. Dazu werden die finanziellen Auswirkungen
einer Beimischung von Waldhackschnitzeln zur bestehenden Versorgung mit Altholz untersucht.
Die Beschaffungskosten ergeben sich aus der Summe
der Bereitstellungskosten für Altholz bzw. Waldhackschnitzel. Über den jeweiligen prozentualen Anteil des
Sortiments wird ausgehend von den benötigten 96.000 t
atro Holz, der jeweilige absolute Versorgungsanteil in t
atro pro Jahr errechnet. Durch die monetäre Bewertung
des Altholzes mit 25 €/t atro und des Waldholzes entfernungsabhängig nach dem Einzugsradius nach Tabelle 5
und der Summierung beider Ergebnisse ergeben sich die
Gesamtkosten wie in Abb. 8 dargestellt.
36
Abb. 8: Bereitstellungskosten in Abhängigkeit des Waldholzanteils
an der Versorgung und Vergleich zum verfügbaren Jahresbudget für
die Biomassebereitstellung
Aus der Abb. wird deutlich, dass mit einem höheren Anteil Waldhackschnitzel die Gesamtkosten der Bereitstellung
stark anwachsen. Bei einer Zumischung von 40 % Waldhackschnitzel verdoppeln sich die Bereitstellungskosten
nahezu gegenüber der reinen Altholzvariante. Dies ist auf
die ungleich höheren Bereitstellungskosten des Waldholzes
gegenüber dem Altholzpreis zurückzuführen. Die höheren
Transportkosten, bedingt durch das größere Einzugsgebiet
bei der Waldholzbeschaffung, spielen eine eher untergeordnete Rolle. Die Transportentfernungen sind im regionalen Maßstab so gering, dass die hierfür anfallenden Kosten
nur einen Bruchteil derer ausmachen, die für die Ernte und
die Aufbereitung der Dendromasse anfallen.
Unbetrachtet bleibt in dieser Abschätzung die Nutzungskonkurrenz durch andere Biomasseanlagen und
private Abnehmer. Für eine genauere Ermittlung der
verfügbaren Mengen, müssten diese berücksichtigt werden. In der Praxis würde sich die Versorgung höchstwahrscheinlich aus einem größeren Umkreis mit entsprechend
höheren Transportkosten gestalten. Da zudem die Kosten
der Bereitstellung Schwankungen unterliegen können und
dieser Unsicherheit Rechnung getragen werden muss, ist
ein 10%iger Anteil an Waldholz als realistisch einzustufen.
Eine kontinuierliche Zumischung ist wichtig, um technische Probleme zu vermeiden.
Unter den derzeitigen Bedingungen, ist die Umstellung dieser auf den Brennstoff Altholz ausgelegten Anlage
auf Waldrestholz also nicht empfehlenswert. Es stellt sich
daher die Frage, ob eine ökonomisch sinnvolle Nutzung
von Dendromasse zum jetzigen Zeitpunkt überhaupt möglich ist, und welche Perspektiven sich zukünftig ergeben.
Deshalb soll im Folgenden untersucht werden, ob ein
anderer Anlagentyp am Standort Elsterwerda betriebswirtschaftlich erfolgreich mit Waldhackschnitzeln betrieben
werden könnte. Es gibt eine Vielzahl unterschiedlicher
TFH Wildau, Wissenschaftliche Beiträge 2006
Anlagen zur Wärme- und Strombereitstellung, die ausschließlich auf die Nutzung von Dendromasse ausgelegt
sind. Aufgrund unterschiedlicher technischer Anforderungen im Vergleich zur Anlage in Elsterwerda, liegen die
Investitionskosten und somit auch die jährliche Fixkostenbelastung auf einem niedrigeren Niveau. Im Folgenden
wird für zwei exemplarische Anlagentypen kleiner und
mittlerer Dimension (siehe Tabelle 4) untersucht, welche
finanziellen Mittel maximal für die Beschaffung von Dendromasse aufgewendet könnten.
Basisdaten
Beispiel 1: 500 kW
Kesselanlage
Beispiel 2: 10 MW
Biomasseanlage
Volllaststunden [h/a]
2.000
2x 6.000
Erzeugte jährliche Wärmemenge [MWh/a]
1.000
34.200
Erzeugte jährliche Strommenge [MWh/a]
-
9.000
Biomassebedarf [t atro/a]
330
11.500 t
Jährliche Fixkosten [€/a]
36.000
2.070.000
Tab. 4: Technische Daten der Beispielanlagen, Quellen: FNR (2005),
Leible et al (2003)
Die maximal möglichen Bereitstellungskosten für diese
beiden Beispielanlagen werden aufgrund ihrer Stromund Wärmeproduktion und der jeweiligen Fixkostenbelastung sowie in Abhängigkeit vom Ölpreis berechnet
(siehe Abb. 9). Die ermittelten Werte werden zu den errechneten Bereitstellungskosten am Standort Elsterwerda
in Relation gesetzt.
ρ′
K max
r
h
w
e
b
k
:=
:=
:=
:=
:=
:=
:=
maximale Bereitstellungskosten Dendromasse in €/t atro
Heizölpreis in €/100l
Heizwert von Heizöl Leicht := 1070 kWh/100l
jährliche Wärmeproduktion in MWh/a
jährlicher Erlös der Strombereitstellung in €/a
jährlicher Dendromassebedarf in t atro/a
jährliche Fixkosten in €
Abb. 9: Formel zur Berechnung der maximal möglichen
Bereitstellungskosten Dendromasse für ein Biomasseheiz(kraft)werk
Der Ertrag der Heizanlage ist nach dem aktuellen Preis für
Heizöl zu bewerten. Im April 2006 stieg dieser zum dritten Mal innerhalb des letzten Jahres auf über 65 €/100l
an – Tendenz weiter steigend (Tecson, 2006). Bei diesem
Heizölpreisniveau könnten Bereitstellungskosten für die
Dendromasse von 75 €/t atro (Beispielanlage 1) bzw.
86 €/t atro (Beispielanlage 2) in Kauf genommen werden.
Am Standort Elsterwerda, liegen nach den vorliegenden
Berechnungen die Bereitstellungskosten im Umkreis von
5 km bei 76 €/t atro, innerhalb von 10 km bei 80 €/t atro.
Beide Beispielanlagen könnten hier also betriebswirtschaftlich erfolgreich auf der Basis von Waldhackschnitzeln betrieben werden.
Aus heutiger Sicht ist also das wirtschaftliche Betreiben
von Biomasseheiz(kraft)werken mit Waldrestholz möglich.
Vor dem Hintergrund, der erwarteten Preissteigerung bei
TFH Wildau, Wissenschaftliche Beiträge 2006
den fossilen Energieträgern, wird sich die Situation in
Zukunft noch stärker zugunsten der Dendromasse verschieben. Abb. 10 zeigt, dass bei steigendem Ölpreis auch
wesentlich höhere Bereitstellungskosten für die Dendromasse in Kauf genommen werden könnten.
Abb. 10: Maximal mögliche Bereitstellungskosten Dendromasse (K max)
für die beiden Beispielanlagen in Abhängigkeit des Ölpreises (r ).
7. Fazit und Empfehlungen
Unter den derzeitigen Bedingungen ist eine Versorgung
des Biomassekraftwerks Elsterwerda ausschließlich mit
Waldholz nicht möglich. Gründe sind die zurzeit hohe
preisliche Differenz zwischen Wald- und Altholz sowie die
technische Auslegung der Anlage auf Altholz. Vor dem
Hintergrund der Entwicklung auf dem Altholzmarkt ist
hingegen eine Zufeuerung von Waldholz in bestimmten
Maßen zu empfehlen. Sie erhöht die Flexibilität auf dem
Beschaffungsmarkt und eröffnet Perspektiven für eine
zukünftige Umstellung der Anlage. Unter den derzeitigen Bedingungen wird eine Zumischung von etwa 10%
empfohlen. Bei einer Senkung der Bereitstellungskosten
für Waldrestholz oder bei steigenden Altholzpreisen sind
höhere Anteile möglich.
Das Ziel, mehr Strom und Wärme aus regionaler Biomasse bereitzustellen, ist jedoch grundsätzlich nicht in
Frage zu stellen. Derzeit lohnt sich vor allem die Investition
in kleinere Heiz(kraft)werke auf kommunaler Ebene, die
technisch für die Nutzung von frischer Dendromasse ausgelegt sind. Anhand zweier Beispiele wurde gezeigt, dass
solche Anlagen bereits heute kostendeckend mit einer
ausschließlichen Versorgung durch Waldrestholz betrieben werden können. Bei anhaltend steigendem Ölpreis
verschieben sich die Bedingungen weiter zugunsten der
Dendromasse.
Die Energiebereitstellung wird am effizientesten in
kleinen unabhängigen Kreisläufen geregelt. Der Koordinationsaufwand ist hier relativ gering und kleinere Versorgungsnetzwerke können grundsätzlich auch flexibler auf
Änderungen am Markt reagieren. Transportentfernungen
bis zu 50 km haben geringen Einfluss auf die Gesamtkosten,
gewinnen bei höheren Entfernungen aber an Bedeutung.
Um langfristig in mittleren bis großen Kraftwerken
mit dem Einsatz von Dendromasse zur Energiegewinnung
planen zu können, muss die Effizienz der Bereitstellungs-
37
kette gesteigert werden. Es ist vor allem bei den Prozessen
der Ernte und Aufbereitung anzusetzen. Dies ist zum einen
durch technische Neuerungen möglich, zum anderen können organisatorische Maßnahmen Abhilfe schaffen.
Eine reibungslose Kommunikation zwischen den
Akteuren und eine effektive Koordination der Abläufe ist
die Voraussetzung für den effizienten Einsatz von Personal
und Maschinen. Vor allem die Prozesse der Aufbereitung
und des Transportes bieten Optimierungspotenziale. Der
Anfall von Dendromasse ist zudem in den meisten Fällen
sehr kleinvolumig. Das größte ungenutzte Potential ist im
Kleinprivatwald zu finden. Hier ist es essentiell, Maßnahmen regional zu koordinieren. Forstbetriebsgemeinschaften können dabei eine Schlüsselrolle spielen.
Technische Innovationen und die regionale Bündelung und Koordinierung von Ressourcen bilden damit die
Grundlage für den zukünftigen Erfolg der Energiegewinnung aus Dendromasse.
Literatur
Bilke, G. (2005): Forstliche Dendromassepotentiale im Landkreis Elbe-Elster, schriftliche Mitteilung, Landesforstanstalt
Eberswalde
BMU (2002): Verordnung über Anforderungen an die Verwertung
und Beseitigung von Altholz, Bundesministerium für Umwelt, Naturschutz und Reaktorsicherheit, Berlin
BMU (2005): Erneuerbare Energien in Zahlen – Nationale und
internationale Entwicklung, Stand Dezember 2005, InternetUpdate, Bundesministerium für Umwelt, Naturschutz und
Reaktorsicherheit, Berlin
BMU (2006): Wirtschaftfaktor Umwelt – Innovation, Wachstum
und Beschäftigung durch Umweltschutz, Bundesministerium
für Umwelt, Naturschutz und Reaktorsicherheit, Berlin
BMWI, BMU (2006): Energieversorgung für Deutschland – Statusbericht für den Energiegipfel am 3. April 2006, Berlin
Chance und Ziele, Forschungszentrum Karlsruhe in der
Helmholz-Gemeinschaft, Wissenschaftliche Berichte FZKA
6882, Forschungszentrum Karlruhe GmbH, Karlsruhe
Tecson (2006): Entwicklung des Heizölpreises 2003-Tagesaktuell,
http://tecson.de/pheizoel.htm, 12.05.2006
Weimar, H.; Mantau, U. (2005): Kapazitäten der Biomasse(heiz)
kraftwerke und ihre Rohstoffversorgung in Deutschland in:
BBE – Bundesverband BioEnergie e.V., 2005; HolzEnergie
2005 – Internationaler Fachkongress für Holzenergie, Tagungsband, Bonn
Wittkopf, S.; Hömer, U.; Feller, S. (2003): Bereitstellungsverfahren
für Waldhackschnitzel – Leistungen , Kosten , Rahmenbedingungen, LWF Wissen Nr. 38, Bayerische Landesanstalt für
Wald und Forstwirtschaft
Autoren
Dipl.-Wirtsch.-Ing. (FH) Paul Fiedler
Absolvent der Technischen Fachhochschule Wildau
[email protected]
Prof. Dr.-Ing. Herbert Sonntag
Technische Fachhochschule Wildau
Fachbereich Ingenieurswesen/Wirtschaftingenieurwesen
– Verkehrslogistik
Tel. +49 3375 508-511, -924
[email protected]
Dipl.-Forstw. Mareike Schultze
Technische Fachhochschule Wildau
Fachbereich Ingenieurswesen/Wirtschaftingenieurwesen
– Verkehrslogistik
Tel. +49 3375 508-511
[email protected]
Dieter, M.; Englert, H. (2001): Abschätzung des Rohholzpotentials
für die energetische Nutzung in der Bundesrepublik Deutschland, Bundesforschungsanstalt für Forst- und Holzwirtschaft,
Arbeitsbericht des Instituts für Ökonomie 2001/1, Universität
Hamburg, Hamburg
EEG (2004): Gesetz für den Vorrang Erneuerbarer Energien
FNR (2005): Leitfaden Bioenergie – Planung, Betrieb und Wirtschaftlichkeit von Bioenergieanlagen, Fachagentur Nachwachsende Rohstoffe, Gülzow
Kaltschmitt, M.; Hartmann, H. (Hrsg.) (2001): Energie aus Biomasse – Grundlagen, Techniken und Verfahren, Springer,
Berlin u. a.
KWF 2004: Holzernteverfahren – Vergleichende Erhebung und
Beurteilung der Holzernteverfahren in der Bundesrepublik
Deutschland, KWF Bericht Nr. 25, CD-ROM, Kuratorium für
Wald- und Forstwirtschaft, Groß Umstadt
LDSB (2003): „Bodennutzung der landwirtschaftlichen Betriebe
im Land Brandenburg“, Statistische Berichte C I 1 – j / 03,
Landesbetrieb für Datenverarbeitung und Statistik Brandenburg
Leible, L., et al (2003): Energie aus biogenen Rest- und Abfallstoffen -bereitstellung und energetische Nutzung organischer
Rest- und Abfallstoffe sowie Nebenprodukte als Einkommensalternative für Land- und Forstwirtschaft – Möglichkeiten,
38
TFH Wildau, Wissenschaftliche Beiträge 2006
Wissens- und Technologietransfer in europäischer Dimension:
Service Center für internationalen Wissens- und
Technologietransfer (SeWiTec) der Technischen
Fachhochschule Wildau
Sabine Gossner, Daniela Gorsler
1 Einleitung
Die Technische Fachhochschule Wildau zeichnet sich
als eine forschungsaktive Fachhochschule aus, die engen
Kontakt mit Praxispartnern pflegt. Die Aktivitäten im Wissens- und Technologietransfer erstrecken sich dabei auf alle
Ebenen: Vorhaben mit Praxispartnern und anderen Wissens- und Forschungseinrichtungen werden in regionaler,
nationaler und internationaler Zusammenarbeit entwickelt.
Im Bundesdurchschnitt hält die TFH Wildau eine Vorreiterrolle bezüglich der eingeworbenen Drittmittel pro Professur
inne (Anmerkung 1). Ziel ist, an dieser Position festzuhalten
bzw. diese noch weiter auszubauen. Gerade im Hinblick auf
den Aufbau von internationalen Netzwerken und der Einwerbung von Mitteln aus Programmen der Europäischen
Union ist Potenzial vorhanden, das in den nächsten Jahren
verstärkt werden soll. Diese Entwicklung ist an die Tatsache
gebunden, dass auch nationale Fördermittel immer mehr
an die Richtlinien europäischer Unterstützungsprogramme angepasst werden und somit auch nationale Projekte
verstärkt internationale Komponenten aufweisen sollen.
So erhalten z. B. Vorhaben im Programm ProInno II mit
Partnern aus anderen EU-Ländern 10 % mehr Förderzuschlag. Außerdem findet in den meisten regionalen als auch
nationalen Programmen die EU-Definition für kleine und
mittelständische Unternehmen Anwendung (Anmerkung
2). Bereits jetzt gewinnt die Durchführung von europäisch
bzw. international orientierten Vorhaben an Relevanz, von
der nicht nur die Hochschule profitiert. Auch für die wissenschaftliche Profilierung von Hochschulangehörigen ist
die erfolgreiche Umsetzung europäischer Projekte ein Plus
im Werdegang, das nicht zu unterschätzen ist.
2 SeWiTec – Eine Piloteinrichtung im
Land Brandenburg
Die Technische Fachhochschule hat diesen Trend früh
erkannt und eine Unterstützungsinstitution eingerichtet,
das den Hochschulangehörigen bei der Entwicklung und
Durchführung europäischer und internationaler Vorhaben
und Projekte zur Verfügung steht: Seit Mai 2004 übernimmt
das Service Center für internationalen Wissens- und Technologietransfer (SeWiTec) diese Aufgabe. Es handelt sich dabei
um eine Piloteinrichtung im Land Brandenburg, und auch
in anderen Bundesländern sind vergleichbare Einrichtungen
an Fachhochschulen eher selten. Im Gegensatz zu den Universitäten, die in der Regel ein EU-Forschungsreferat führen,
verfügen die meisten Fachhochschulen in Deutschland
TFH Wildau, Wissenschaftliche Beiträge 2006
nicht über eine gesonderte Einrichtung für die internationale Komponente des Wissens- und Technologietransfers. Äquivalente Einrichtungen sind z. B. zu finden an
der Hochschule Mannheim oder an der Pädagogischen
Hochschule Ludwigsburg. Diese Einrichtungen stehen
allerdings länderübergreifend zur Verfügung und decken
die Belange mehrerer Hochschulen ab (Anmerkung 3).
Ansonsten übernehmen die Transfereinrichtungen oder
Forschungsreferenten an Fachhochschulen auch diese
spezielle Beratungskomponente. Allerdings ist die Entwicklung von europäischen oder internationalen Vorhaben und
die Akquise von Fördermitteln aus der Europäischen Union
eine „Wissenschaft für sich“, die besonderes Augenmerk
verlangt. Die ohnehin schon überlasteten Beratungsstellen
an Hochschulen können diese Mehrleistung nur schwer
aufbringen. Eine Entlastung für die Hochschulangehörigen
ist damit nicht unbedingt gewährleistet und die anfängliche Motivation, sich europäisch zu orientieren, verpufft
durch den erheblichen Aufwand, den europäische Projektvorhaben und die Antragsstellung mit sich bringen. Genau
hier setzt nun die Service-Einrichtung an der TFH Wildau
an: Das SeWiTec bietet umfassende Unterstützungen in
allen Bereichen der Antragstellung und Projektarbeit und
ist speziell auf die Bedürfnisse europäischer Projektzusammenarbeit ausgerichtet. Entsprechend der Aufgabe der TFH
Wildau, als Motor für die Region zu dienen, stehen die
Leistungen der Service-Einrichtung auch Unternehmen
aus der Region offen.
3 Aufgabenspektrum des SeWiTec
Gemäß dem Motto „Von der Idee zum Projekt“ umfasst
das Aufgabenspektrum des SeWiTec alle Aktivitäten der
internationalen Projektentwicklung, -beantragung, und
-umsetzung. Dies bezieht sich sowohl auf Vorhaben der
angewandten Forschung und Entwicklung, auf den Aufbau
von Studiengängen und berufsqualifizierenden Weiterbildungsangeboten sowie auf Maßnahmen der Hochschulentwicklung und des Hochschulmanagements. Ein zweiter
Aufgabenbereich der Service-Einrichtung liegt im Aufbau
bzw. in der Erweiterung transnationaler Vernetzungen
zwischen der Technischen Fachhochschule Wildau und
ausländischen Hochschulen, Forschungsinstitutionen
und Unternehmen sowie die Integration der Hochschule
in europäische und internationale Forschungsnetzwerke.
Den dritten Tätigkeitsschwerpunkt des SeWiTec bildet die
Information über Förderprogramme und die Öffentlichkeitsarbeit.
39
3.1 Beratung bei der Projektentwicklung und
Antragstellung
Die Beratungs- und Unterstützungsleistungen des SeWiTec
bei der Entwicklung und Beantragung internationaler Projekte richtet sich nach der Rolle der Hochschule im Projekt
– Koordinator, Konsortialpartner oder Auftragnehmer – und
der Vorerfahrung der beteiligten Akteure. Das Leistungsspektrum reicht von der Erstberatung der Wissenschaftler
und der Konkretisierung der Projektidee über die Fördermittelrecherche, den Kontaktaufbau zu Förderinstitutionen
und die Anpassung des Projektdesigns an die inhaltlichen
Prioritäten und Bewertungskriterien der Ausschreibungen
bis hin zur zeitlichen Koordination der Antragstellung oder
sogar der inhaltlichen und finanziellen Ausgestaltung des
Antrags. Werden weitere Projektpartner benötigt, akquiriert
das SeWiTec diese aus den breit gefächerten regionalen und
internationalen Netzwerken der Hochschule. Da neben der
Fachkompetenz die persönliche Komponente in transnationalen Projekten eine zentrale Rolle spielt, richtet das
SeWiTec bei Bedarf Meetings zum Zusammenführen der
Partner in Wildau aus oder bereist die Partnerinstitutionen
im Ausland. Schließlich gewährleistet es eine fristgerechte
und formal korrekte Einreichung der Anträge.
Die Arbeit des SeWiTec richtet sich vorrangig an den
Fachdisziplinen der Technischen Fachhochschule Wildau
aus: Luftfahrttechnik, Logistik, Nano- und Materialtechnologie, Biosystemtechnik, IKT und E-Learning sowie
Wirtschafts- und Regionalwissenschaften. Es unterstützt
auch Projektansätze in anderen Themenfeldern, wenn
dort die Expertise der Hochschullehrer gefordert ist und
die Projekte zur Steigerung der internationalen Kompetenz
der Hochschule beitragen können.
3.2 Unterstützung bei der Projektumsetzung
Als das SeWiTec im Jahr 2004 seine Arbeit aufnahm, liefen
an der Technischen Fachhochschule Wildau bereits mehrere EU-Projekte und internationale Aktivitäten. Für diese sowie inzwischen neu bewilligte Vorhaben bietet das SeWiTec
eine umfassende Unterstützung beim administrativen,
finanziellen und organisatorischen Projektmanagement.
Konkret bedeutet dies die Mitwirkung am Berichtswesen,
die Beratung in Vertragsfragen, die Vorbereitung von Kostenübersichten und von Auditprüfungen, die projektbezogene Öffentlichkeitsarbeit und Ergebnisverbreitung sowie
die Organisation und Durchführung von Projekttreffen
(siehe Abb. 1). Eine enge Zusammenarbeit mit dem jeweiligen Projektleiter und mit den beteiligten Institutionen
innerhalb der Hochschule – z. B. die Hochschulleitung, das
Sachgebiet Haushalt und das Akademische Auslandsamt
– sichert die erfolgreiche Umsetzung der Projekte.
Abb. 1: Partnermeeting im ODEON-Projekt
40
3.3 Ausbau der transnationalen Vernetzung
Die Hochschulleitung der Technischen Fachhochschule
Wildau hat die neuen Herausforderungen durch die Internationalisierung der Hochschullandschaft frühzeitig
erkannt und arbeitet gemeinsam mit den einzelnen Hochschullehrern und dem SeWiTec intensiv am Aufbau und
an der Festigung internationaler Netzwerke. Mittlerweile
gehören Hochschulen, Unternehmen und öffentliche Einrichtungen in ganz Europa und in Drittstaaten wie der Ukraine zum Partnernetzwerk der Fachhochschule. Besonders
intensiv wurden seit 2005 Kontakte zu neuen Partnern in
Ungarn, Polen, Kroatien und Bulgarien aufgebaut. Diese
mündeten in Projektanträge in den Programmen TEMPUS
und INTERREG III B CADSES sowie Leonardo da Vinci II.
Im letztgenannten Programm wurde ein Pilotprojekt zur
Entwicklung eines E-Learning-Kurses für Logistiker bewilligt, in das sich die Technische Fachhochschule Wildau seit
Oktober 2005 mit der Entwicklung von vier E-LearningModulen einbringt.
Im Luftfahrtbereich wurde die europäische Vernetzung der Hochschule durch ihren Beitritt zum European Aeronautics Science Network vertieft (siehe http:
//www.easn.net/). Auf einem Netzwerktreffen im April
2005 in Brüssel konnten neue Verbindungen zu Hochschulen in Großbritannien, Frankreich und den Niederlanden
aufgebaut und Verbindungen zu Hochschulpartnern in
Ungarn, Spanien und der Slowakischen Republik vertieft
werden.
Seit September 2005 wird die transnationale Vernetzung von Seiten des Landes Brandenburg zunehmend
unterstützt. Ziel ist, die Position des Landes in der europäischen Forschungslandschaft zu stärken und die Beteiligung von Brandenburger Einrichtungen an europäisch
geförderten Projekten zu erhöhen. Das SeWiTec beteiligt
sich an diesem Prozess und ist auf einem Arbeitstreffen
von Mitarbeitern aus Hochschul- und Forschungseinrichtungen in der Vertretung des Landes Brandenburg beim
Bund sowie in Brüssel vertreten. Dadurch können für die
Projektarbeit wichtige Verbindungen zu EU-Kommissionsbeamten aus Brandenburg aufgebaut und Kontakte
zur Landesvertretung in Brüssel vertieft werden.
3.4 Informationsverbreitung und
Öffentlichkeitsarbeit
Die Information über Entwicklungen in der europäischen
und nationalen Förderpolitik, über potenzielle Fördermöglichkeiten, aktuelle Antragsfristen und -bedingungen
aber auch über die Aktivitäten und Arbeitsergebnisse des
SeWiTec haben einen hohen Stellenwert in der Arbeit der
Service-Einrichtung.
Die Information und Öffentlichkeitsarbeit erfolgt über
verschiedene Wege, die sich in den vergangenen zwei Jahren bewährt haben:
– Informationsveranstaltungen zu aktuellen Programmaufrufen, zukünftigen Entwicklungen in der europäischen Förderpolitik sowie zu spezifischen Programmen
wie dem 6. und 7. Forschungsrahmenprogramm der EU
oder den Strukturfonds.
– Homepage mit Kurzdarstellung der Dienstleistungen,
Übersicht über die internationalen Projekte, Hochschulkooperationen und Netzwerke der Technischen Fach-
TFH Wildau, Wissenschaftliche Beiträge 2006
hochschule Wildau, Informationen zu Veranstaltungen
des SeWiTec und Überblick über laufende Förderprogramme (siehe http://www.tfh-wildau.de/sewitec).
– Elektronischer Newsletter „SeWiTec AKTUELL“ mit Informationen über die laufende Arbeit der Einrichtung,
internationale Aktivitäten der Hochschule, aktuelle
Ausschreibungen und Hinweise für die internationale
Projektarbeit. (siehe http://www.tfh-wildau.de/sewitec/
index_1621.htm).
– Ein Flyer in deutscher und englischer Sprache, Pressemitteilungen und Fernsehberichte zu einzelnen Aktivitäten aber auch die Beteiligung an internationalen
Messen wie „Innovationen, Technologien, Maschinen“
in Poznań stellen sicher, dass unterschiedliche Zielgruppen aus Wissenschaft und Wirtschaft adäquat über die
Ziele und Aktivitäten des SeWiTec informiert werden.
4 Herausforderungen an den europäischen
Technologietransfer
Neben Forschung und Lehre zählt der transnationale
Wissens- und Technologietransfer heute zu den größten
Herausforderungen, denen Hochschulen gegenüberstehen. Dabei gilt es, Strukturen und Prozesse für eine
dauerhafte Kooperation mit Partnern aus Wissenschaft,
Wirtschaft und Verwaltung zu etablieren, um gemeinsam neue Produkte, Verfahren und Dienstleistungen zu
entwickeln. Bei dieser win-win-Konstellation profitieren
die Hochschulen von einer besseren Ausstattung und
dem Transfer ihres Know-how, einem Imagegewinn
und größerer Attraktivität gegenüber Studierenden und
künftigen Mitarbeitern. Unternehmen können durch
die Zusammenarbeit Fachwissen von Beschäftigten aktualisieren und deren Qualifizierung steigern sowie neue
marktfähige Produkte generieren.
Zahlreiche EU-Programme in Bildung, Forschung
und einzelnen Fachpolitiken unterstützen den Technologietransfer zwischen Partnern in unterschiedlichen
EU-Staaten und über die Grenzen der Europäischen
Union hinaus. Die Förderkonditionen variieren zwar im
Einzelnen, aber es lassen sich einige Grundprinzipien für
die transnationale Zusammenarbeit ausmachen, die auch
das SeWiTec in seiner Arbeit berücksichtigt:
– Europäische Dimension der Partnerschaft: Formale Voraussetzung für die Förderung eines Projektes ist i.d.R.,
dass sich mindestens drei Partner aus drei EU-Mitgliedstaaten oder Assoziierten Staaten zusammenfinden. In
der Realität zeigt sich jedoch, dass die Europäische
Kommission Projekte mit erheblich größeren Partnerschaften bevorzugt. Daher ist ein stabiles, kompetentes
und breit angelegtes Partnernetzwerk, wie es die Technische Fachhochschule Wildau pflegt, ein zentraler
Erfolgsfaktor.
– Komplementärfinanzierung: Die Kofinanzierung der
Europäischen Kommission für Projekte ist als Ergänzungsfinanzierung gedacht und überschreitet selten
Werte von 75 % der förderfähigen Gesamtkosten eines
geplanten Projektes. Die Partner müssen daher einen
gewissen Prozentsatz als Eigenanteil aufbringen, was
gerade bei kleinen Unternehmen oder Partnern in
TFH Wildau, Wissenschaftliche Beiträge 2006
Nicht-EU-Staaten zu erheblichen Belastungen führt. Das
SeWiTec achtet hier auf eine ausgewogene Budgetierung
und die Realisierbarkeit der Kofinanzierung.
– Aufwand bei der Beantragung und Realisierung europäischer Projekte: Gegenüber nationalen Vorhaben sind
EU-Projekte durch einen erhöhten administrativen
und koordinatorischen Aufwand gekennzeichnet.
Bereits die Recherche und Sichtung der Antragsunterlagen, der Umfang und die Sprachvariante des Antrags
sowie die langen und mehrstufigen Auswahlverfahren
stellen höchste Anforderungen an den Leiter und die
Mitglieder eines europäischen Projektkonsortiums. Die
gemeinsame Erarbeitung von hochwertigen Produkten
und die Entwicklung von zufrieden stellenden und
verwertbaren Ergebnissen sind ebenfalls eine Herausforderung. Hier steht das SeWiTec den Hochschullehrern, der Hochschulverwaltung sowie den Partnern der
Technischen Fachhochschule Wildau in allen Fragen
unterstützend zur Seite.
In der transnationalen Zusammenarbeit kommen weitere
Faktoren zum Tragen, die ein höheres Gewicht einnehmen als im nationalen Kontext. Eine starke transnationale
Partnerschaft auf der Basis von gemeinsamen Projekterfahrungen und gegenseitigem Vertrauen ist eine zentrale
Grundlage für erfolgreiche Projekte. Dies erfordert intensive und kontinuierliche Aktivitäten beim Aufbau und bei
der Pflege eines Partnernetzwerkes und ein Verständnis
für die politische, wirtschaftliche und institutionelle Situation in den Partnerländern. Durch Umstände wie ein
verzögertes Zusammenfinden von Partnern aufgrund von
sprachlichen, kulturellen und fachlichen Unterschieden,
durch die Ungewissheit über die Eignung eines Partners
für ein Projekt und die Heterogenität der Qualifikationen
der beteiligten Personen wird der Wissens- und Technologietransfer erschwert und so manches Projekt gerät bereits
in der Frühphase an seine Grenzen. Aufgabe des SeWiTec
ist es, diese Unwägbarkeiten und Risiken zu minimieren
und machbare Lösungen für transnationale Kooperationen
zu entwickeln.
5 Bilanz
Das SeWiTec besteht seit mittlerweile zwei Jahren. Das
Profil der Tätigkeit hat sich dabei kontinuierlich weiterentwickelt und verändert. Nachdem die Infrastruktur an
der TFH Wildau schnell etabliert war, konnte die ServiceEinrichtung die Arbeit aufnehmen. In der Anfangsphase
stand die Information über europäische Fördermöglichkeiten, über EU-Aktionsprogramme und über die Umsetzung
europäischer Projekte im Vordergrund. Es galt, die Hochschulangehörigen für europäische Vorhaben zu sensibilisieren und über die Anforderungen zur Antragstellung
in EU-Programmen aufzuklären. Neben der Vorbereitung
auf die Gestaltung europäisch orientierter Vorhaben lag
2004 der Schwerpunkt auf Erstberatungen. In diesen Beratungen wurden Projektideen im Hinblick auf europäische
Fördermöglichkeiten geprüft und weiterentwickelt. Dabei
wurden auch die internationalen Kontakte der jeweiligen
Dozenten sondiert und Möglichkeiten für die europäische
Partnersuche aufgezeigt. An die Erstberatungen schlossen
41
sich 2005 zahlreiche Folgeberatungen an, in denen die
Projektvorhaben entsprechend weiterentwickelt und
bis zur Antragstellung optimiert werden konnten. Die
steigende Anzahl der Beratungen mit externen Partnern
zeigt, dass die Leistungen von Unternehmen verstärkt
nachgefragt wird. In erster Linie wurden dabei kleine und
mittelständische Unternehmen vom SeWiTec beraten.
Es versteht sich von selbst, dass die Zahl der eingereichten
Anträge gegenüber der der bewilligten Anträge überwiegt.
Gerade bei den EU-Programmen ist mit einer langen
Evaluierungsphase zu rechnen. Wartezeiten von bis zu
sechs Monaten sind eher die Regel als die Ausnahme. Die
Früchte einer erfolgreichen Antragstellung können erst
spät geerntet werden. Bisher sind seit Mai 2004 elf positive Bewilligungsbescheide für Vorhaben erteilt worden, die
durch das SeWiTec betreut wurden. Insgesamt betreut die
Service-Einrichtung derzeit 22 EU-Projekte bzw. Vorhaben,
die mit Mitteln von der Europäischen Union finanziert
wurden, und bei denen die TFH Wildau als Koordinator
oder Partner eingebunden ist.
6 Fazit
Abb. 2: Beratungen zur Projektentwicklung/Antragstellung des
SeWiTec Mai 2004 bis April 2006.
Die Anzahl der begleiteten Anträge nahm kontinuierlich
zu. Seit Mai 2004 hat das SeWiTec über siebzig Anträge begleitet (Zahlen beziehen sich auf den Zeitraum 2004-2005).
Entsprechend der Vielfalt der Projektideen wurden Anträge
in verschiedenen Förderprogrammen eingereicht. Die beantragten Vorhaben umfassten reine Forschungsvorhaben
im Bereich Nanotechnologien oder Life Sciences, Entwicklung von Weiterbildungsangeboten oder E-Learning-Angeboten als auch Projekte in der Hochschulentwicklung.
Folgende Unterteilung lässt sich vornehmen:
– Aktionsprogramme der Europäischen Kommission.
Dazu zählen u.a. das Forschungsrahmenprogramm der
Europäischen Union, die EU-Bildungsprogramme wie
Sokrates/Erasmus, Leonardo da Vinci, Minerva, Tempus und die Gemeinschaftsinitiativen INTERREG oder
EQUAL.
– Strukturfondsmittel der Europäischen Union.
Das Land Brandenburg erhält als Ziel-1-Gebiet zur Stärkung der Wettbewerbsfähigkeit als auch zum Infrastrukturausbau Fördermittel aus dem Europäischen Fonds für
regionale Entwicklung (EFRE) und zur Schaffung von
Arbeitsplätzen und zu Qualifizierung von Beschäftigten
Fördermittel aus dem Europäischen Sozialfonds (ESF)
(Anmerkung 4).
- Nationale Förderprogramme der Bundesministerien,
die teilweise mit internationalen Partnern umgesetzt
werden können.
Abb. 3: Antragstellung nach Förderprogramm.
42
Entsprechend der Zielvorgaben der Service-Einrichtung
konnte bisher die internationale und europäische Projektaktivität der TFH Wildau erheblich gesteigert werden.
Durch die Beratungs- und Unterstützungsleistung des
SeWiTec wird die Bereitschaft der Hochschulangehörigen
gestärkt, ihre Vorhaben international auszurichten und
dafür europäische Gelder zu beantragen. Die Hemmschwelle, EU-Gelder zu akquirieren und sich durch den „Förderdschungel Brüssel“ zu kämpfen, wurde weitestgehend abgebaut. Information und individuelle Beratung durch das
SeWiTec haben diese Entwicklung maßgeblich beeinflusst.
Außerdem tragen positive Erfahrungsberichte über EU-Projekte oder bewilligte Vorhaben dazu bei, die Motivation
für EU-Anträge innerhalb der Fachhochschule zu steigern.
Gleichzeitig unterstützt das SeWiTec die europäische Vernetzung und internationale Ausrichtung der TFH Wildau
und erleichtert auf diese Weise die Kontaktaufnahme mit
europäischen und internationalen Partnern.
Trotzdem kann nicht beschönigt werden, dass der
Kampf um EU-Gelder hart ist, die Konkurrenz entsprechend groß. Die Anforderungen sind sehr hoch: Anträge
mit gut aufgestellten Konsortien und überzeugenden, innovativen Projektvorhaben müssen qualitativ anspruchsvoll gestaltet sein, um das Gutachterverfahren positiv
zu durchlaufen und die benötigte Punktzahl für eine
Förderung zu erreichen. Auf diesen Prozess kann relativ
wenig Einfluss genommen werden. Dennoch kann die
Auswertung von Gutachterergebnissen von abgelehnten
Anträgen hilfreich sein für eine weitere Antragsstellung.
Das SeWiTec nimmt hier die entsprechende Optimierung
von abgelehnten Anträgen vor.
Die Ausgestaltung der EU-Förderpolitik ab 2007 steht
im Fokus der zukünftigen Arbeit der Service-Einrichtung.
Verschiedene Förderprogramme werden neu defi niert
bzw. erhalten eine andere Ausrichtung. Dazu zählen
u.a. das Forschungsrahmenprogramm der Europäischen
Union sowie die EU-Bildungsprogramme, die beide im
Mittelpunkt von Antragstellungen durch die TFH Wildau stehen. Aufgrund der langwierigen Verhandlungen
über den Finanzhaushalt der Europäischen Union ist es
wahrscheinlich, dass kein nahtloser Übergang zwischen
der alten und neuen Förderperiode stattfindet und u. U.
eine Förderlücke entstehen wird. Das SeWiTec beobachtet diesen Entwicklungsprozess intensiv, um früh genug
TFH Wildau, Wissenschaftliche Beiträge 2006
förderrelevante Informationen an die Hochschulangehörigen weitergeben zu können.
Die intensive Beratungs- und Informationstätigkeit des
SeWiTec wird beständig fortgesetzt, um Projektvorhaben im
Entwicklungsprozess zu begleiten und zur Antragstellung
zu optimieren. Darüber hinaus wird die Zusammenarbeit
mit regionalen Unternehmen weiter vorangetrieben. Insgesamt stärkt die Arbeit der Service-Einrichtung die Stellung
der Technischen Fachhochschule Wildau als drittmittelaktive Hochschule und festigt durch Vernetzungsaktivitäten
mit europäischen und internationalen Kooperationspartnern deren Position im europäischen Raum.
Anmerkungen
1
Forschungslandkarte Fachhochschulen, Potenzialstudie,
hrsg. vom Bundesministerium für Bildung und Forschung,
Berlin 2004.
2
Empfehlung der EU-Kommission zur KMU-Definition 2003/
361/EG in: Amtsblatt der Europäischen Union L 124 vom
25.02.2003, S. 36ff.
3
Fachhochschule Mannheim:
http://www.koord.hs-mannheim.de/
EU-Forschungsreferat der Pädagogischen Hochschulen
Baden-Württembergs: http://193.196.151.129/eu_forsch/
4
Operationelles Programm Brandenburg, Förderperiode 2000
bis 2006, Entscheidung C (2000) 43000 vom 29.12.2000,
Landesregierung Brandenburg.
Autoren
Sabine Gossner M.A.
Technische Fachhochschule Wildau
Service Center für internationalen Wissens- und
Technologietransfer (SeWiTec)
Tel. +49 3375 508-673
[email protected]
Dipl.-Ing. Daniela Gorsler
Technische Fachhochschule Wildau
Branchentransferstelle Logistik (BTL)
Tel. +49 3375 508-276
[email protected]
TFH Wildau, Wissenschaftliche Beiträge 2006
43
Native Öle – Rohstoffquelle für Anwendungen in der
Kunststoffindustrie
Michael Herzog, Eckhart Kornejew
1 Einleitung
Natürliche Öle haben in den vergangen Jahren, nicht nur
wegen der ansteigenden Preise für Mineralöle, sondern vor
allem unter dem Aspekt der Nachhaltigkeit als nachwachsende Rohstoffe zunehmendes Interesse gefunden [1]. Obwohl sie sich in ihrem chemischen Aufbau als Triglyceride
grundlegend von den Kohlenwasserstoffen der Mineralöle
unterscheiden, können native Öle mit anwendungsspezifisch modifizierten Eigenschaftsprofilen adäquaten Ersatz
für mineralische Produkte in werkstofflichen Anwendungen bieten. So liegt der Anteil von Bioschmierstoffen am
Gesamtverbrauch von Schmierstoffen und Hydraulikflüssigkeiten in Deutschland bei 3,4 Prozent [2].
Die Weltagrarmärkte für Ölsaaten zeigen eine Dominanz von Sojabohnen (220 Mio. t). Bereits 1998 wuchsen in
den USA 40 % der Sojabohnen und der Baumwolle mit genetisch modifizierten Pflanzen [3]. In den daraus gewonnenen
Pflanzenölen ist die über die Nukleinsäuren bestimmbare
genetische Herkunft nicht mehr nachweisbar.
In der Europäischen Union nimmt der Anbau von
Raps (15 Mio. t) eine führende Stellung ein. Eine lebhafte
Nachfrage kommt hier vor allem aus dem Nahrungsmittelund Energiebereich, die stoffliche Nutzung im Bereich der
Kunststoffe spielt bislang eine eher untergeordnete Rolle.
Im Non-Food-Bereich wird der größte Anteil heute
in Deutschland und auch in den anderen Ländern der
Europäischen Union für Kraftstoffe verwendet. Mit der EURichtlinie 2003/30/EG wird das Ziel verfolgt, bis zum Jahr
2010 den Anteil der Biokraftstoffe auf 5,75 % zu erhöhen
[4]. Im Jahr 2005 wurden in Deutschland allein 1,7 Mio. t
Biodiesel auf der Basis von Rapsöl erzeugt [5].
Weitere landwirtschaftliche Produkte mit hohem Potential als Rohstoffe für die Industrie sind beispielsweise
Stärke, aber auch Fasern. Generell ist z. B. im Bereich der
Fasern ein Trend zu Naturstoffen zu verzeichnen, der sich
etwa in der Wiederentdeckung von Flachs und Hanf als
heimische Naturfasern ausdrückt. Auch Polymere auf Basis
natürlicher Rohstoffe finden immer wieder Anwendungen
für Produkte aus Cellulose oder Stärke sowie Produkte auf
tierischer Basis. Die natürlichen Polymere werden die
künstlichen jedoch nicht verdrängen und schon gar nicht
vollständig ersetzen können [6].
Produkte aus natürlichen Rohstoffen behaupten sich
dann am Markt, wenn sie über gute Qualitäten verfügen,
leicht herzustellen und damit preiswert sind. Gelingt es,
den Kunden vom Mehrwert derartiger Materialien zu
überzeugen, haben diese Produkte beträchtliches Potential am Markt, insbesondere wenn sie über besondere
Eigenschaften verfügen. So tragen z. B. viele Verbraucher
lieber natürliche Fasern wie Seide (tierische Basis) oder
Baumwolle (pflanzliche Basis).
44
2 Anwendungen in der Kunststoffindustrie
Die Nutzung nachwachsender Rohstoffe für technische
Anwendungen ist häufig konfrontiert mit dem Problem
schwankender Eigenschaften. So sind spezifische Parameter bei den zumeist aus dem landwirtschaftlichen
Anbau stammenden Rohstoffen neben einer z. T. ausgeprägten Sortenabhängigkeit geprägt von Variabilitäten hinsichtlich der Standorte (Bodenverhältnisse inkl.
Düngung), der Anbaukultur und ggf. des Jahrgangs.
Mit zuweilen aufwändigen Aufbereitungsprozessen
gelingt es jedoch, eine hinreichende Homogenität und
Reproduzierbarkeit der Eigenschaften der Produkte zu
erreichen und letztendlich eine gleichbleibende und
verlässliche Produktqualität zu garantieren und somit
aus einem natürlichen Ausgangsstoff ein technisches
Produkt zu erzeugen.
Zur Erzielung gewünschter neuer Eigenschaften können chemische Reaktionen an den reaktiven Zentren von
nativen Ölen vorgenommen werden, deren Grundstruktur
im folgenden dargestellt ist.
Abb. 1: Chemische Grundstruktur eines nativen Öls als Glyzerinester
der Fettsäuren R1, R2 und R3
Von besonderem Interesse sind neben Umsetzungen an
den Esterbindungen (z. B. zu Methylestern) Reaktionen an
den Doppelbindungen der ungesättigten Fettsäuren.
Abb. 2: Chemische Struktur von Linolsäure
Im Rahmen der Forschungs- und Entwicklungsarbeiten
der InnoRegio FIRM [7] wurden zwei Projekte bearbeitet,
die eine Nutzung nativer Öle für Anwendungen in der
Kunststoffindustrie zum Ziel haben.
In den folgenden Tabellen sind die Zusammensetzung
und wesentliche chemische Eigenschaften der von uns verwendeten Öle zusammengefasst.
TFH Wildau, Wissenschaftliche Beiträge 2006
Öl
16:0
18:0
18:1
18:2
18:3 12-OH- 22:1
18:1
16-24 14-22 46-56
50-70 10-36 1-14
0-1
Leinöl
4-6
2-4
Rapsöl (eruka- 1-7
1-3
säurearm)
Rapsöl (eruka- 1-3
1-12 11-38 1-25 0-10
52-64
säurereich)
Rizinusöl
1-6
1-8
1-9
3-5
0-1
80-95
Sojaöl
6-11
2-4 20-24 49-55 6-10
Sonnen5-8
3-6 20-27 60-68 0-1
blumenöl
Name der
Palmitin- Stearin- Öl- Linol- Linolen- Rizinol- ErukaFettsäure
Tab. 1: Fettsäurespektrum n:m; Gehalt in % der Gesamtfettsäuren,
Fettsäure: Cn-1H(2n-2m-1)COOH [n = Länge der Kohlenstoffkette;
m = Anzahl der Doppelbindungen]
Hierdurch ist die Anwendungsbreite eingeschränkt, z. B.
erfordert die Herstellung von Waschrohstoffen Öle mit
12 und 14 Kohlenstoffatomen, wie sie nur bei Kokos- und
Palmkernölen anzutreffen sind, die nicht aus den nördlichen Breiten kommen.
Öl
JZ
ρ 20°C η 40°C
g/cm³ mPas gl2/100g
Leinöl (roh)
0,93
±0,006
0,9150,918
0,9100,922
0,96
±0,01
0,92
±0,01
-
Rapsöl
(Vollrafinat)
Rapsöl (roh)
Rizinusöl (roh)
Sojaöl
(Vollrafinat)
Sonnenblumenöl (roh)
40
M
M
g/mol Säuren
g/mol
170-195 -21±5 860
274,
279
105-120 10±5 980
314
40
95-110
-
881
281
232
90±10
-14±4
923
295
33
130±10 -13±3
872
278
35
130±15 -15±5
887
283
25
Fp.
°C
bekannten Stickstoff-Verbindungen in der polymeren
Kunststoffmatrix zu erreichen.
Zunächst waren die Reaktionsbedingungen und Trennverfahren zur Herstellung derartiger Flammschutzmittel zu
untersuchen. Anschließend wurden durch deren Einsatz
flammfest gemachte Kunststoffe bezüglich ihres Brandverhaltens charakterisiert.
Zur Quantifizierung der flammhemmenden Eigenschaften der erhaltenen Reaktionsprodukte in Kunststoffen wurden Basisrezepturen von Polyurethan-Hartschaumstoffen verwendet, wobei das Flammschutzmittel
der A-Komponente (Polyol, Katalysator, Treibmittel usw.)
des Polyurethansystems beigemischt und anschließend
mit der B-Komponente (Poly-Isocyanat) zum Schaumstoff
umgesetzt wird.
Zur Beurteilung der Flammfestigkeit wird der Test nach
ASTM 1692 herangezogen. Hiernach wird der Grenzsauerstoffkonzentrationsindex LOI (Limiting Oxygen Index)
ermittelt. Der LOI bezeichnet die minimale SauerstoffKonzentration in einer Sauerstoff-Stickstoff-Mischung,
bei der die Verbrennung eines Probenkörpers gerade noch
unterhalten wird. Je höher der LOI ist, desto flammfester
ist der getestete Kunststoff. Der LOI wird unter Gleichgewichtsbedingungen einer kerzenartigen Verbrennung
in einer nach ASTM D 2863-77 bzw. DIN EN ISO 4589-2
genormten LOI-Kammer bestimmt.
Tab. 2: Charakterisierung der verwendeten Öle anhand der
wesentlichen in der Fettchemie verwendeten Parameter
Hierbei stehen ρ für die Dichte, η für die Viskosität, JZ
für Jodzahl (erfasst den Gehalt an Doppelbindungen),
Fp. für den Erstarrungs- bzw. Schmelzpunkt und M für
die mittlere Molmasse des Öls bzw. der Fettsäuren des
Triglycerids.
Raffinierte Öle sind leicht heller und weisen einen
niedrigeren Wasser- und Schmutzgehalt (< 0,1 %) auf, in
den physikalischen und chemischen Eigenschaften und in
der Zusammensetzung der Fettsäuren sind sie aber nahezu
identisch mit den gewöhnlich preisgünstigeren nativen
Rohprodukten.
3 Einführung von Stickstoff zur Erhöhung
der Flammfestigkeit
Unsere Untersuchungen verfolgten das Ziel, neuartige
preiswerte und umweltfreundliche Flammschutzmittel
für Kunststoffe sowie ein Verfahren zu ihrer Herstellung
zu entwickeln. Hierzu wurden native Öle mit hoch stickstoffhaltigen Feststoffen umgesetzt, um somit eine bessere Verteilung der für ihre flammhemmende Wirkung
TFH Wildau, Wissenschaftliche Beiträge 2006
Abb. 3: Bestimmung der Flammfestigkeit mit der LOI-Apparatur
Die Probenkörper der PUR-Hartschaumstoffproben haben
Abmessungen von 12,5 x 12,5 x 150 mm. Der LOI wird
generell als Durchschnitt aus drei verschiedenen Messungen bei drei unterschiedlichen Gesamtvolumenströmen
der Gasmischung mit mehreren Probenkörpern bestimmt.
Unter Berücksichtigung von Reproduzierbarkeit und Genauigkeit sind die angegebenen LOI-Werte mit einem
Fehler von etwa ± 0,05 behaftet.
Die folgende Tabelle zeigt den LOI für einen StandardPUR-Hartschaumstoff auf Basis Polyesterpolyol [8, 9] mit
einer variierten Menge Flammschutzkomponente, deren
Reaktionsansatz 66,7 % Melamin enthielt, in Abhängigkeit
vom Melaminäquivalent im Polyol.
45
Melaminäquivalent
0
3
LOl
20,1 20,3
Bewertung
an Luft
bereitwillig
brennbar
6
9
20,6
20,9
an Luft
an Luft
zögerlich zögerlich
brennbar brennbar;
später selbstverlöschend
12
15
21,3 21,8
an Luft
schwer entflammbar;
selbstverlöschend
Tab. 3: Flammfestigkeit eines PUR-Hartschaumstoffs unter Einsatz
Stickstoff-funktionalisierter nativer Öle
Mit diesen Ergebnissen konnte gezeigt werden, dass mit
dem von uns verfolgten Ansatz eine flammhemmende
Wirkung für Polyurethan-Hartschaumstoffe erreicht werden kann und ein ggf. brandfördernder Effekt durch die
Zugabe von Ölen mit deren Stickstoff-Funktionalisierung
auf jeden Fall überkompensiert werden kann.
4 Mehrfach hydroxylierte Fettsäuren für
die Polyurethanchemie
Einen weiteren Untersuchungsgegenstand bildet die
Entwicklung von mehrfach hydroxylierten Fettsäuren für
Anwendungen als Polyol-Komponente [10] zur Herstellung
harter Polyurethane. Eine hohe Hydroxylfunktionalität
kann aus natürlichen Pflanzenölen über den Weg einer
Epoxidierung an den Doppelbindungen und die damit
verbundene Einführung von C-O-Bindungen an der Kohlenstoffkette erreicht werden [11].
Abb. 4: Chemische Struktur von epoxidierter Linolsäure
In einem weiteren Schritt wurde von uns eine Hydrolyse
vorgenommen und ein für die Umsetzung mit Isocyanaten
zu Polyurethanen geeignetes Produkt erhalten.
Abb. 5: Chemische Struktur von hydroxylierter Linolsäure
Hierbei ist insbesondere auf den Nachweis der Reaktion an
der Doppelbindungen und nicht an den Carboxyl- bzw.
Estergruppen zu achten, was uns über IR-spektroskopische
Untersuchungen gelang.
Wesentliches Charakteristikum der auf diese Weise
hergestellten Polyurethane bzw. PUR-Hartschaumstoffe ist
ihre im Vergleich zum eingesetzten Ausgangsöl auffällige
Geruchsfreiheit.
Für zukünftige Arbeiten besteht eine weitere in diesem
Themenfeld von uns verfolgte Idee darin, durch direkte
elektrochemische Hydroxylierung an den Doppelbindungen Polyole aus nativen Ölen herzustellen. Damit wird
die Entwicklung eines technisch realisierbaren Verfahrens
mittels neuartiger, mit Nanaostrukturen beschichteten
Elektroden angestrebt, die eine hohe Konzentration von
Hydroxylradikalen in wässriger Lösung oder Dispersion
erzeugen.
46
Literatur/Anmerkungen
[1] P. Hövelmann: Nachwachsende Rohstoffe für die Chemie,
S. 21 Landwirtschaftsverlag Münster, 2001
[2] Situationsbericht 2006, Trends und Fakten zur Landwirtschaft, Deutscher Bauernverband 2005
[3] L. Willmitzer: 6th Symposium on Renewable Resources, S. 29,
Landwirtschaftsverlag Münster, 1999
[4] Richtlinie 2003/30/EG des Europäischen Parlaments und des
Rates vom 8. Mai 2003 zur Förderung der Verwendung von
Biokraftstoffen oder anderen erneuerbaren Kraftstoffen im
Verkehrssektor
[5] Bundesministerium für Umwelt, Naturschutz und Reaktorsicherheit: Entwicklung der Erneuerbaren Energien 2005,
Aktueller Sachstand März 2006
[6] Fraunhofer-Institut für Angewandte Polymerforschung IAP,
Jahresbericht 2005/2005
[7] M. Herzog, K. Erxleben: Wiss. Beitr. Techn. Fachhochschule
Wildau 2005, S. 8
[8] R. Langenstraßen, S. Fulev, A. Apel, B. Gebert, D. Lehmann,
G. Behrendt: Entwicklung der Grundlagen für eine Laboranlage zur kontinuierlichen Herstellung von PET-Recyclingpolyolen, Wiss. Beitr. Techn. Fachhochschule Wildau 2004,
S. 34
[9] G. Behrendt, M. Pohl: Polyester-Polymerpolyole für Polyurethane und Verfahren zu ihrer Herstellung, DE 199 15 125
C2 (2001)
[10] G. Adolf, U. Erkens: Bindemittel und Additive für hochwertige Polyurethanbeschichtungen, Cognis Deutschland GmbH,
2004
[11] Scientific Panel AFC: On a request from the Commission
related to the use of Epoxidised soybean oil in food contact
materials, The EFSA Journal (2004)64, 1-17
Autoren
Dr. rer. nat. Michael Herzog
Technische Fachhochschule Wildau
Fachbereich Ingenieurwesen/Wirtschaftsingenieurwesen
Geschäftsstelle InnoRegio FIRM
Tel. + 49 3375 508-332
[email protected]
Dipl.-Chem. Eckhart Kornejew
Technische Fachhochschule Wildau
Fachbereich Ingenieurwesen/Wirtschaftsingenieurwesen
Tel. + 49 3375 508-384
[email protected]
TFH Wildau, Wissenschaftliche Beiträge 2006
Präparation und Charakterisierung von biologisch aktiven
Magnetit-Protein-Nanopartikeln
Hans-Dieter Hunger, Katerina Vaskova
1. Einleitung
Magnetische Nanopartikel besitzen Anwendungspotenzial
in vielen biologischen und medizinischen Anwendungsgebieten. Superparamagnetische Magnetit-Nanopartikel werden klinisch verwendet als Kontrastmittel im Magnet-Resonanz-Imaging (MRI)und intensiv untersucht für Anwendungen wie Drug-Delivery-Systeme, Zell-Bewegungs- und
Trenn-Systeme und Hyperthermie (1-5). Dabei sind Eisenoxid (Magnetit)-Nanopartikel besonders interessant, da sie
größenabhängigen Superparamagnetismus besitzen, nicht
toxisch sind und im Organismus metabolisiert werden (5,
6). Deshalb werden unterdessen Magnetit-Nanopartikel in
vielen biomedizinischen und diagnostischen Anwendungen eingesetzt (7-9). Die Stabilität und Biokompatibilität
der Magnetit-Nanopartikel sind von der Größe der Partikel und von der Oberflächenbeschichtung der Partikel
in der Lösung abhängig (10). Die häufigste Methode zur
Herstellung von superparamagnetischen Magnetit-Nanopartikeln ist die Kopräzipitation von Eisensalzen in der
Gegenwart einer Base, meist Ammoniumhydroxid (11).
Für biomedizinische Anwendungen sollte die Oberfläche
der Magnetit-Partikel komplett mit einer Polymerschicht
überzogen sein, um den Eisenoxidkern gegen die Blutproteine und Phagocytose-Rezeptoren abzuschirmen (12). Die
üblichsten Beschichtungsmoleküle für biokompatible, auf
Magnetit basierende Kolloide sind Derivate von Dextran
und Polyethylenglycol (13, 15).
In dieser Arbeit beschreiben wir eine neue Präparationsmethode von Magnetit-Protein-Partikeln durch
direkte Kopräzipitation von Eisensalzen und Proteinen.
Als Modellprotein wird Humanserumalbumin (HSA) verwendet, das als Hauptprotein des humanen Blutserums
an der Oberfläche von Partikeln zur Verwendung in medizinischen Diagnostik- und Therapieverfahren sehr gute
Voraussetzungen für die Biokompatibilität der MagnetitPartikel besitzt. Dabei wurde gefunden, dass die meisten
der primären Präzipitationsprodukte zunächst biologisch
inaktiv (z. B. nicht von HSA-spezifischen Antikörpern
erkennbar) sind und erst durch weitere chemische Aktivierungsschritte biologisch aktiviert werden können. Das
Verfahren der chemische Aktivierung und dessen Optimierung wird beschrieben und eine Modellvorstellung für
diesen Aktivierungsschritt präsentiert.
Magnetit-Nanopartikel-Kopplungsprodukte mit unterschiedlichen Biomolekülen (z. B. Antikörpern, Protein A)
gehören zu den für eine Verwendung in humanmedizinischen Strategien favorisierten Transportvehikeln für bioaktive Moleküle. Deshalb wurden die von uns erhaltenen
Magnetit-HSA-Komplexe in einem zweistufigen Glutaraldehyd Verfahren chemisch aktiviert und kovalent mit
Protein A und Antikörpern (IgG) gekoppelt.
TFH Wildau, Wissenschaftliche Beiträge 2006
Für die Bewertung der biologischen Aktivität der MagnetitProtein-Partikel wurde ein Festphasenassay unter Verwendung von Nitrocellulosemembranen als Trägermaterial und
fluoreszenzmarkierten (FITC) immunologischen Nachweisreagenzien entwickelt und eingesetzt. Der Festphasenassay
wurde mittels Photo-Imaging bzw. Laserscanner-ImagingTechnik ausgewertet und dokumentiert.
2. Methoden und Materialien
2.1 Herstellung der Magnetit-Protein-Partikel
Die Präparation der Magnetit-HSA-Partikel erfolgte durch
Kopräzipitation von Eisensalzen mit HSA. Dabei wurden
1,3 ml einer Eisenstammlösung (Fe(II)-Chlorid, Fe(III)Chlorid, äquimolar) und 2mg HSA (in 1 ml destilliertem
Wasser) vermischt und mittels 0,5 ml Ammoniak präzipitiert. Nach sofortiger Zugabe von ca. 40 ml destilliertem
Wasser und guter Vermischung (Vortex) wurden die
magnetischen Komplexe mittel eines Magneten an der
Röhrchenwand konzentriert und der Überstand dekantiert.
Die Waschung wurde noch dreimal wiederholt und die
Partikelpäparation in 4 Aliquots (1 ml) geteilt. Präzipitierte
Magnetit-Partikel ohne HSA im Fällungsansatz wurden als
Kontrolle parallel hergestellt.
2.2 Chemische Aktivierung der MagnetitProtein-Partikel
Zur chemischen Aktivierung wurden Aliquots der Magnetit-HSA-Partikel mit unterschiedlichen organischen Säuren
(z. B. Zitronensäure, Weinsäure und Oxalsäure) bei 20°C ca.
30 Sekunden inkubiert, danach viermal mit destilliertem
Wasser gewaschen und in 1 ml Wasser resuspendiert. Die
Inkubation erfolgte mittels unterschiedlicher Konzentrationen und Volumina der Säuren. Das Gesamtvolumen
der magnetisch abgeschiedenen Magnetit-Protein-Partikel wurde vor und nach dem Säurebehandlungsschritt
bestimmt.
2.3 Festphasenassay zur Bestimmung der
biologischen Aktivität
2 µl der aliquotierten Magnetit-HSA-Partikel-Präparationen,
einschließlich Verdünnungen, wurden auf Nitrocellulosestreifen aufgetüpfelt und angetrocknet. Auf den gleichen
Streifen wurden Negativkontrollen (z. B. Magnetit-Partikel) und Positivkontrollen (z. B. HSA-Verdünnungen und
fluoreszenzmarkierte Antikörper) getüpfelt. Nach einem
Blockierungsschritt der Oberfläche des Trägermaterials
mittels 0,1% (w/v) Gelantine in PBS wurden die Streifen
mit einem FITC markierten anti-HSA-Antikörper 3 Stunden inkubiert, mit PBS viermal gewaschen und danach
mittels Photoimager bzw. Laserscanner ausgewertet. Alle
47
Inkubations- und Waschschritte erfolgen unter leichter Bewegung der Streifen in einer Inkubationswanne auf einem
Laborschüttler. Bei der Auswertung und Dokumentation
der Nitrocellulosestreifen wurde zunächst eine Bestrahlung
mittels visuellem Licht (vis.) und danach mittels UV-Licht
(uv) zur Anregung der Fluoreszenz (FITC) vorgenommen.
Mittels des (vis.)-Bildes ist eine Quantifizierung des Magnetits in den Präparationen möglich. Eine grüne Fluoreszenz
der (uv)-Bilder zeigt die Bindung des Antikörpers (biologische Aktivität) quantitativ auswertbar an.
2.4 Glutaraldehydaktivierung der MagnetitHSA-Partikel
Zur Kopplung weiterer Proteine an Magnetit-HSA-Partikel
wurden mittels Oxalsäure aktivierte Magnetit-HSA-Partikel
mit Glutaraldehyd aktiviert. Dazu wurden Aliquots der
Partikel-Präparation mit 1 ml 2,5% (w/v) Glutaraldehyd
vermischt, 1 Stunde bei Raumtemperatur leicht geschüttelt und anschließend dreimal mit destilliertem Wasser
gewaschen.
2.5 Kopplung von Protein A und Aktivitätstest
Die unter 2.4 aktivierten Magnetit-HSA-Partikel wurden in
200 µl destilliertem Wasser resuspendiert und mit 100 µg
Protein A (25 µl) zunächst 2,5 Stunden bei Raumtemperatur und anschließend über Nacht bei 4°C leicht geschüttelt.
Nach Waschung mit destilliertem Wasser kann der Aktivitätstest durchgeführt werden. Der Aktivitätstest erfolgt wie
unter 2.3 beschrieben als Festphasenassay auf Nitrocellulosestreifen. Als Nachweissonde wird ein FITC-fluoreszenzmarkierter Antikörper (Kaninchen) verwendet.
2.6 Materialien
Es wurden Chemikalien und Biochemikalien folgender
Firmen verwendet:
FeCl2x4H2O (Fluka), FeCl3x6H2O (Riedel-deHaen),
Ammoniak (Riedel-deHaen), Oxalsäure, Weinsäure und
Citronensäure (Fluka), PBS (phosphate buffered saline)
(Sigma), Glutaraldehyd (Sigma), HSA (Sigma), Protein A
(ICN), Anti-HSA FITC-markiert (ICN), IgG-FITC-markiert
(anti-Huhn, Kaninchen) (Sigma), Nitrocellulosemembranen 0,45 µm (Bio-Rad), Gelantine (Bio-Rad)
Abb. 1: Chemische Aktivierung von Magnetit-HSA-Partikeln
von anti-HSA Antikörpern). Obwohl die Magnetit-HSAPartikel deutlich weniger Magnetit (vgl. Abbildung 1
(vis.)) enthalten, sind diese sehr gut mittels Magnet aus
Lösungen abscheidbar.
Abb. 2: Optimierung der chemischen Aktivierung für MagnetitHSA-Partikel
Die chemische Aktivierung kann mittels unterschiedlicher organischer Säuren (z. B. Zitronensäure, Weinsäure
und Oxalsäure) erreicht werden (vgl. Abbildung 2). Die
beschriebenen organischen Säuren wurden durch ein
Screening unter Verwendung des von uns entwickelten
Festphasenassays aus einer hohen Zahl von Kandidatenverbindungen selektiert. Optimale Ergebnisse erhält man mit
Oxalsäure. Die optimale Oxalsäurekonzentration beträgt
1,5 % (w/v). Es können Magnetit-HSA-Partikel mit hoher
biologischer Aktivität und zur magnetischen Beweglichkeit
ausreichend hohem Magnetitgehalt präpariert werden.
3. Ergebnisse und Diskussion
3.1 Herstellung von Magnetit-Protein-Partikeln
und chemische Aktivierung
Magnetit-Protein-Partikel können durch direkte Kopräzipitation von Proteinen aus Eisensalzlösungen hergestellt
werden. Als Modellprotein wurde HSA verwendet. Die
primären Fällungsprodukte (HSA/M) weisen zwar einen
hohen Magnetitgehalt (vgl. Abbildung 1 (vis)) auf, sind
aber wie Magnetit-Präparationen (M, Negativkontrolle) biologisch inaktiv, da keine fluoreszenzmarkierten
Antikörper gebunden werden können (vgl. Abbildung
1 (uv)). Die HSA-Verdünnungsreihe und der fluoreszenzmarkierte Antikörper (Positivkontrollen) liefern
deutliche Fluoreszenzsignale. Erst nach Aktivierung mit
organischen Säuren (vgl. z. B. Oxalsäure, Abbildung 1)
gelingt der Nachweis von biologischer Aktivität (Bindung
48
Abb. 3: Optimierung der Oxalsäurebehandlung
Die Konzentration und das zur Aktivierung verwendete
Volumen der Oxalsäure, bezogen auf definierte Partikelzahlen, spielen bei der Aktivierung ebenfalls eine Rolle
TFH Wildau, Wissenschaftliche Beiträge 2006
(vgl. Abbildung 3). Durch Verwendung unterschiedlicher
Säurekonzentrationen (von 0,1-1,5% (w/v)) kann man
Magnetit-HSA-Partikel mit unterschiedlich hohem Magnetitgehalt erhalten. Bei dem Aktivierungsschritt sinkt
das Volumen der Magnetit-HSA-Partikel durch Reduktion
des Magnetitgehaltes beträchtlich. Reine Magnetit-Partikel
werden unter diesen Reaktionsbedingungen vollständig
aufgelöst.
Abb. 5: Schema der Zweistufen-Glutaraldehyd-Aktivierung
Abb. 6: Präparation und biologische Aktivität von Magnetit-HSAProtein A-Partikeln
Abb. 4: Modell der chemischen Aktivierung
Die Ergebnisse der Experimente führen zu einer Modellvorstellung für die chemische Aktivierung (Abbildung 4).
Während der chemischen Aktivierung werden zunächst
biologisch inaktive Magnetit-HSA-Partikel, in denen die
Erkennungsepitope für die anti-HSA-Antikörper (FITC-fluoreszenzmarkiert) durch Magnetit an der Partikeloberfläche
verdeckt sind, in biologisch aktive Partikel überführt. Die
organischen Säuren beseitigen Magnetit und legen Erkennungsepitope des HSA an der Oberfläche der Partikel frei.
Dabei wird das Volumen der Partikel deutlich reduziert.
3.2 Glutaraldehydaktivierung von Magnetit-HSAPartikeln und Kopplung von Proteinen
Magnetit-HSA-Partikel sind durch die an der Oberfläche
der Partikel liegenden Proteinregionen sehr gut geeignet
für Strategien zur kovalenten Kopplung von Biomolekülen
mittel unterschiedlicher Kopplungsreagenzien. In Abbildung 5 sind die Optimierungsergebnisse einer zweistufigen Aktivierungsmethode von Magnetit-HSA-Partikeln
mittels Glutaraldehyd schematisch zusammengefasst.
Das Verfahren ermöglicht die kovalente Kopplung von
Immunglobulinen (IgG) und Protein A. Für die präparierten Magnetit-HSA-Protein A-Partikel ist der Aktivitätstest
unter Verwendung des Festphasenassays in Abbildung 6
dargestellt. Zur Kopplung werden relativ hohe Protein-
TFH Wildau, Wissenschaftliche Beiträge 2006
konzentrationen (100 µg pro 225 µl Ansatz) benötigt,
die nicht vollständig gekoppelt werden. Die Abbildung 6
zeigt die Überstandsanalyse von 2 Präparationen. Die Partikelpräparationen zeigen hohe biologische Aktivität des
über Glutaraldehyd gekoppelten Protein A (Bindung von
FITC-markierten Antikörpern über den Fc-Teil an Protein
A). Als Negativkontrolle werden Magnetitpartikel, als Positivkontrollen eine Protein A Verdünnung und MagnetitHSA-Protein A-Kontrollpartikel verwendet. Magnetit-HSAProtein A-Partikel wurden zur Größenbestimmung mittels
Atomic Force Mikroskopie untersucht (vgl. Abbildung 7).
Es konnte eine Größe von ca. 93 nm bestimmt werden. Die
Abbildung zeigt ein 3D-Bild eines Magnetit-HSA-Protein
A-Nanopartikels auf einer Siliciumoberfläche.
Abb. 7: Atomic Force Microscopy (AFM)
49
3. Zusammenfassung
Das neue Präparationsverfahren ermöglicht die Präparation von biologisch aktiven Magnetit-Protein-Partikeln.
Dazu werden die Proteine direkt aus einem Gemisch von
Fe(II)- und Fe(III)-Salzen unter Verwendung von Ammoniak als Fällungsmittel kopräzipitiert. Die entstehenden
Präzipitate sind zunächst biologisch inaktiv und müssen
mittels eines zusätzlichen chemischen Reaktionsschrittes
aktiviert werden. Unter den unterschiedlichsten, mittels
Festphasenassay geprüften, Aktivierungsstrategien zeigten
sich organische Säuren (z. B. Zitronensäure, Weinsäure und
Oxalsäure) als effektivste Aktivierungmittel. Die chemische
Aktivierung hängt von den Aktivierungsbedingungen (z.
B. Temperatur und Konzentration der organischen Säuren)
unter denen die primären Präzipitationsprodukte behandelt werden ab. Zur Präparation von biologisch hochaktiven Magnetit-HSA-Partikeln wurde die Einwirkung
von 1,5%-iger (w/v) Oxalsäure bei Zimmertemperatur als
optimaler Aktivierungsschritt bestimmt.
Während der Säurebehandlung vergrößert sich die
Protein/Magnetit-Rate sehr stark. Wahrscheinlich wird
dabei oberflächlich auf dem Magnetit-Protein-Komplex
abgelagertes Magnetit durch die organischen Säuren gelöst
und Proteinstrukturen freigesetzt (Nachweis von Antikörper-Erkennungsepitopen mittels Festphasenassay). Die Untersuchungen lassen ein Modell der chemischen Aktivierung (vgl. Abbildung 4) postulieren, dass eine beachtliche
Volumenreduktion der primären Präzipitationsprodukte
während des chemischen Aktivierungsschrittes zeigt. Nach
diesem Schritt sind Proteinregionen an der Oberfläche der
Partikel frei zugängig und werden dadurch nachweisbar (z.
B. durch fluoreszenzmarkierte (FITC) Antikörper).
Die biologische Aktivität der Magnetit-Protein-Komplexe wurde mittels eines neu entwickelten Festphasenassays unter Verwendung von Nitrocellulosemembranen als
Trägermaterial und fluoreszenzmarkierten Antikörpern als
Nachweisreagens bestimmt. Der Test ermöglicht die parallele Testung einer Vielzahl unterschiedlicher Proben,
einschließlich Positiv- und Negativkontrollen, im Screeningverfahren. Der Test ist automatisierbar.
Chemisch aktivierte Magnetit-HSA-Partikel sind favorisierte magnetische Partikel für die chemische Kopplung von
unterschiedlichen Biomolekülen. Sie könnten als generell
einsetzbare Vehikel zur Bindung und zum Transport von
biologisch oder medizinisch interessanten Molekülen wie
Protein A, Immunglobulinen (IgG), medizinisch interessanten Antikörpern und anderen Proteinen verwendet werden
(vgl. Abbildung 4). Die chemische Kopplung von Biomolekülen an die präparierten Magnetit-HSA-Partikel gelingt z.
B. mittels Glutaraldehyd. Magnetit-HSA-Protein A-Partikel,
die durch direkte Präzipitation von Magnetit-HSA-Partikeln,
chemische Aktivierung und ein zweistufiges Glutaraldehydverfahren zur kovalenten Kopplung von Protein A präpariert
wurden, könnten als generell verwendbares Transportvehikel zum Transport von Protein A-bindungsfähigen Antikörpern in biologischen Systemen verwendet werden.
Magnetit-HSA-Protein A-Nanopartikel mit hohen
IgG-Bindungskapazitäten wurden präpariert und mittels
Atomic Force Mikroskopie (AFM) charakterisiert. Sie besitzen eine Größe von ca. 93 nm.
50
Literatur
[1] Y.J. Wang, S.M. Hussein, G.P. Krestin, Eur. Radiol. 11 (2001)
2319.
[2] C. Alexiou, W. Arnold, R.J. Klein, et al., Cancer Res. 60 (2000)
6641.
[3] A. Ito, K. Tanaka, T. Kobayashi, et al.,Cancer Sci. 94 (2003)
308.
[4] M. Levin, N. Carlesso, R. Weissleder, et al., Nature Biotech.
18 (2000) 410.
[5] A.E. Merbach, E. Toth (Eds.), The Chemistry of Contrast
Agents in Medicinical Magnetic Resonance Imaging, Wiley
Chichester, 2001.
[6] R. Weissleder, D.D. Stark, B.L. Engelstad, et al.,Am. J. Roentgenol. 152 (1989) 167.
[7] Q.A. Pankhurst, J. Conolly, et al., J. Phys. D 36 (2003) R167.
[8] P. Tartaj, M.P. Morales, et al., J. Phys. D 36 (2003) R182.
[9] C.C. Berry, A.S.G. Curtis, J. Phys. D 36 (2003) R198.
[10] U. Häfeli, W. Schütt, J. Teller, M. Zborowski, Scientific and
Clinical Applications of Magnetic Carriers, Plenum Press,
Nerw York, 1997.
[11] L. Babes, B. Denizot, G. Tanguy, et al., J. Colloid Interface
Sci. 212 (1999) 474.
[12] R. Weissleder, A. Bogdanov, et al., Adv. Drug Delivery Rev.
16 (1995) 321.
[13] R. S. Molday, D. Mackenzie, J. Immunol. Methods 52 (1982)
353.
[14] Y. Zhang, N. Kohler, M. Zhang, Biomaterials 23 (2002)
1553.
[15] C. W. Jung, Magn. Reson. Imaging 12 (1995) 675.
Danksagung
Die Verfasser danken Herrn R. Ries (TFH Wildau, Physikalische Technik) für die Größenbestimmung der Partikel mittels AFM und Herrn M. Springer (TFH Wildau,
Ingenieurwesen/Wirtschaftsingenieurwesen) für die graphische Gestaltung der Abbildungen.
Autoren
Dr. sc. nat. Hans-Dieter Hunger
Technische Fachhochschule Wildau
Fachbereich Ingenieurwesen/Wirtschaftsingenieurwesen
Tel. +49 3375 508-459
[email protected]
Dipl. Biochem. Katerina Vaskova
University Ss. “Cyril and Methodius”,
1000 Skopje, Republic of Macedonia
TFH Wildau, Wissenschaftliche Beiträge 2006
PUR-Kaltformweichschaumstoff – eine interessante
Rohstoffquelle für neue Polyurethansynthesen
Hagen Koch, Wolfgang Stuhr, Bernhard W. Naber
Zusammenfassung
Es wurde ein chemisches Recyclingverfahren für PUR
entwickelt, welches durch Einsatz eines Extruders und
in Tandemfahrweise betriebener Nachreaktionsbehälter
kontinuierlich gestaltet wurde. In Nebenreaktionen
entstandene primäre aromatische Amine werden in einer
synchron zur Hauptreaktion verlaufenden Umsetzung in
stickstoffhaltige Polyole umgewandelt. Die chemischen
und anwendungstechnischen Eigenschaften der nach
diesem Verfahren hergestellten Recyclatpolyole werden
dargestellt. Diese Polyole sind zur Formulierung harter,
halbharter und zähharter zelliger und nichtzelliger PUR
geeignet. Die Betrachtung ökonomischer und ökologischer
Gesichtspunkte schließt die Arbeit ab.
1. Einleitung
Polyurethane (PUR) sind als erdölstämmige Produkte
stark vom Preis für Erdöl abhängig. Dass Erdöl wegen
der begrenzten Vorräte, der steigenden Aufwendungen
für Förderung und Prospektion und der politischen Unwägbarkeiten in den Hauptförderländern jemals wieder
zu „chemiefreundlichen“ Preisen zu erhalten ist, ist wohl
nicht anzunehmen. Gleichzeitig sorgen die aktuelle Umweltgesetzgebung („TASi“) und die Diskussion zur Kohlendioxidproblematik („Treibhauseffekt“) für immer mehr
Druck, Kunststoffströme, insbesondere Produktionsabfälle,
einer sinnvollen Wiederverwertung zuzuführen. Für PUR
gibt es seit langer Zeit tragfähige physikalische Verfahren,
mittels derer solche Ströme einer ökonomisch und ökologisch sinnvollen Verwendung zugeführt werden können.
Es sei hier an solche Verfahren wie Flockenverbund für
Weichschaumstoffe, Plattenherstellung aus zerkleinerten
Hartschaumstoffen und den Einsatz als Ölbinder erinnert.
Es sei an dieser Stelle auf das Buch „Recycling von
Polyurethan-Kunststoffen“ von Werner Raßhofer, Heidelberg: Hüthig, 1994, ISBN 3-929471-08-6, hingewiesen,
das in einzigartiger Vollständigkeit in die verschiedenen
Recyclingverfahren für PUR einführt.
Die thermische Entsorgung von PUR-Abfällen in
modernen Verbrennungsanlagen ist unkritisch. Es hat
in der Vergangenheit umfangreiche Untersuchungen
gegeben, PUR in Verbindung mit Hausmüll und hausmüllähnlichen Gewerbeabfällen zu verbrennen. Der hohe
Heizwert dieser Kunststoffklasse ist für diese Technologie
vorteilhaft, zumal sie auch für stark verschmutzte und
vermischte PUR-haltige Abfallströme geeignet ist (z. B.
Shredderleichtfraktion, Baustellenabfälle, post-consumer-Abfälle).
TFH Wildau, Wissenschaftliche Beiträge 2006
Die besondere chemische Struktur der PUR, insbesondere
der PUR auf Basis von Polyetherpolyolen, erlaubt jedoch
den chemischen Abbau dieser Polymere zu neuen polyolischen Rohstoffen, die der Umsetzung mit Isocyanaten
zu neuen PUR mit interessanten Eigenschaften zugänglich
sind. Bisher haben sich derartige Verfahren nicht umfassend durchsetzen können. Das könnte sich angesichts der
eingangs beschriebenen Situation am Erdöl- und Chemikalienmarkt ändern. Voraussetzung ist die Verfügbarkeit
eines chemisch und technisch einfachen, robusten Verfahrens zur wirtschaftlichen Herstellung von definierten
PUR-Rohstoffen. Die folgende Arbeit soll ein derartiges
Verfahren vorstellen.
Das Verfahren wurde zum Patent angemeldet. Für die
nach diesem Verfahren hergestellten Recyclingpolyole, die
daraus hergestellten PUR-Komponenten, PUR-Systeme und
PUR wurde das Markenzeichen „POLYPURIT“ beim Deutschen Patent- und Markenamt angemeldet.
2. Voraussetzungen
Wie für jedes sinnvolle Recyclingverfahren sind auch für
das chemische Recycling von PUR einige wenige, jedoch
unumgängliche Voraussetzungen zu erfüllen:
– Es müssen gleichmäßige Stoffströme vorliegen. Diese
Voraussetzung ist essentiell für eine kostenverträgliche
Lagerwirtschaft. Sie wird von Produktionsabfällen meist
erfüllt.
– Es müssen hinreichend große Stoffströme vorliegen.
Diese Voraussetzung schließt eine aufwendige Sammellogistik und Lagerwirtschaft aus und ist ausschlaggebend für die Wirtschaftlichkeit des Recyclingprozesses.
Diese Voraussetzung wird von Produktionsabfällen
meist erfüllt.
– Es müssen saubere Stoffströme vorliegen. „Sauber”
ist hier in Sinne von „frei von (physikalischen/
mechanischen) Verunreinigungen” zu verstehen. Diese Forderung wird fast nur von Produktionsabfällen
erfüllt.
– Es müssen reine Stoffströme vorliegen. „Rein” ist hier
im Sinne von chemischer Einheitlichkeit zu verstehen.
Diese Forderung wird praktisch nur von Produktionsabfällen erfüllt.
Auf dem Gebiet der PUR-Weichschaumstoffe werden diese
Voraussetzungen gewöhnlich nur von Abfallströmen aus
der Herstellung von Automobilsitzpolstern erfüllt. Die
hier beschriebenen Arbeiten wurden mit Produktionsabfällen eines deutschen Herstellers von Automobilsitzen
durchgeführt. Der Weichschaumstoff war ein PolyetherPMDI-Schaumstoff (Kaltform-Weichschaumstoff) eines
namhaften deutschen Systemhauses.
51
3. Möglichkeiten der Chemie
Schon seit den 50er Jahren des vorigen Jahrhunderts
sind vielfältige Versuche unternommen worden, aus PUR
wieder (die damals sehr teuren) Rohstoffe zurückzugewinnen. Sinnvollerweise setzten alle diese Verfahren an
den Reaktionsmöglichkeiten der Urethangruppe an. Die
Urethangruppe ist chemisch ein Ester der Carbaminsäure.
Damit sind praktisch alle Möglichkeiten, die diese Struktur
an chemischen Umsetzungen bietet, nutzbar. Einige dieser
Möglichkeiten sind:
– Hydrolyse: Spaltung der Urethangruppe durch Wasser
oder Wasserdampf in (Polyether-) Polyol und die den
eingesetzten Isocyanaten entsprechenden aromatischen
primären Amine. Die Hydrolyse hat nie technische Bedeutung erlangt.
– Aminolyse: Spaltung der Urethangruppe durch primäre
und/oder sekundäre aliphatische Amine. Die erhaltenen
Produkte haben gegenüber Isocyanaten eine so hohe
Reaktivität, dass diese praktisch nicht gesteuert werden
kann. Problematisch ist auch die unkontrollierte und
unkontrollierbare Bildung von Nebenprodukten. Die
Aminolyse hat nie technische Bedeutung erlangt.
– Polyolyse: Spaltung der Urethangruppe durch Umsetzung mit (Polyether-) Polyolen. Diese Methode ist nur
sehr bedingt anwendbar, da die entstehenden Produkte
schon bei sehr geringen PUR-Gehalten (~5 Ma.-%) sehr
hohe Viscositäten zeigen. Das Verfahren hat keine verbreitete Anwendung gefunden.
– Acidolyse: Spaltung der Urethangruppe durch (organische) Säuren und/oder Säureanhydride. Diese Methode
wurde nie technisch realisiert wegen der Bildung wenig
definierter Produktgemische.
– Glycolyse: Spaltung der Urethangruppe durch Umsetzung (Umesterung) mit mehrwertigen, meist zweiwertigen, Alkoholen (Glycolen). Die Reaktion ist technisch
einfach mit reproduzierbaren Ergebnissen zu führen.
Durch Reaktion mit Wasser, welches unvermeidlich in
den Glycolen und den eingesetzten PUR vorhanden ist,
entstehen durch Nebenreaktionen (Hydrolyse) die den
Isocyanaten entsprechenden primären aromatischen
Amine. Die Glycolyse hat in Verbindung mit einer
Methode zur Blockierung der aromatischen Amine
technische Anwendung gefunden.
4. Warum Glycolyse?
Die Glycolyse ist eine überschaubare Reaktion zur
Spaltung der Urethangruppe. Sie ist nach der üblichen
Nomenklatur der organischen Chemie eine Umesterung. Die Einsatzstoffe sind preiswert und nicht giftig
(maximale Gefahreneinstufung „Xi“), die Reaktionsbedingungen sind nicht sehr scharf und der Gesamtprozess
läuft unter Normaldruck in vertretbaren Zeiten ab. Alle
bekannten Glycolyseanlagen arbeiten diskontinuierlich
in Rührapparaten. Diskontinuierliche Prozesse haben
den Nachteil, dass sie relativ lange Nebenzeiten (Füllen,
Heizen, Kühlen) benötigen. So ist praktisch nicht mehr
als ein Ansatz pro Schicht möglich. Dazu kommen die
unvermeidlichen Qualitätsschwankungen von Ansatz zu
52
Ansatz. Rührapparate sind, einschließlich der Nebenaggregate, sehr voluminös.
Voraussetzung für einen brauchbaren technischen
Glycolyseprozess ist die Schaffung von Möglichkeiten zur
Maskierung/Umsetzung der unvermeidlich entstehenden
primären aromatischen Amine Toluylendiamin (TDA)
und/oder Diphenylmethandiamin (MDA). Diese müssen
zu ungiftigen, mit Isocyanat reaktiven Verbindungen
umgewandelt werden, da primäre aromatische Amine als
Krebserzeuger gelten. Ein Gehalt an diesen Verbindungen
von > 0,1 Ma.-% führt dazu, daß die Recyclingpolyole als
„krebserzeugend“ zu kennzeichnen sind. Das ist ein k.o.Kriterium. Solche Polyole sind nicht verkehrsfähig. Normale Glycolysate, hergestellt ohne Entaminierungsschritt,
enthalten 2-5 Ma.-% Amine.
Der von der TSA Stahl- und Anlagenbaugesellschaft
mbH entwickelte Prozess enthält einen synchron zur Glycolyse ablaufenden Schritt, in dem der Gehalt an primären
aromatischen Aminen sicher auf Gehalte von <0,1 Ma.-%
gesenkt wird. Damit entfällt die Kennzeichnungspflicht,
und die Produkte können mit den für den Umgang mit
Chemikalien üblichen Vorsichtsmaßnahmen eingesetzt
und behandelt werden. Weiterhin ist anzustreben, den
Prozess kontinuierlich zu gestalten, um die Nachteile der
diskontinuierlichen Prozessführung zu vermeiden. Der
Prozess soll kompakt, kontinuierlich und robust sein.
Damit scheiden Anlagen mit Rührapparaten als Hauptreaktoren aus.
5. Reaktorauswahl und Reaktionsführung
Um ein kontinuierliches Verfahren zum chemischen
Recycling von PUR-Weichschaumstoffen zu konzipieren, muss zuerst der Reaktortyp festgelegt werden. Als
Reaktionsapparate für eine kontinuierliche Prozessführung kommen nur bestimmte Kneter oder Extruder in
Frage. Bei genauerer Betrachtung erweisen sich verfügbare
kontinuierlich arbeitende Kneter als ungeeignet, da die
Einstellung definierter Verweilzeiten und damit reproduzierbarer Reaktionsbedingungen kaum möglich ist. Die
Einhaltung dieser Parameter ist jedoch für den Erfolg des
Prozesses ausschlaggebend.
Sehr viel besser als Kneter scheinen Extruder geeignet zu sein. Diese Maschinen, eigentlich zum Einziehen,
Schmelzen, Mischen und Formen von thermoplastischen
Kunststoffen konstruiert, erwiesen sich nach konstruktiver
Anpassung als hervorragend geeignet, um die Reaktion von
PUR-Weichschaumstoffen mit Glycolen zu führen. Die im
Extruder einstellbaren Reaktionsbedingungen hinsichtlich
Druck, Durchmischung und Stoff- und Energieaustausch
ermöglichen die Durchführung der Hauptreaktion in
wenigen Minuten.
Durch Nachschalten von gerührten Reaktionsapparaten ist die Stabilisierung des Recyclingpolyoles leicht
möglich. Synchron zur Reaktion von PUR-Weichschaumstoff mit Glycolen ist die Reaktion zum Abfangen der
primären aromatischen Amine durch deren Umsetzung
mit Glycidethern leicht möglich. Das Reaktionsprodukt
aus Amin und Entaminierungsmittel Glycidether ist ein
stickstoffhaltiges Polyol.
TFH Wildau, Wissenschaftliche Beiträge 2006
Die Nachschaltung eines Entgasungsbehälters kann sinnvoll sein, wenn das Recyclingpolyol zur Herstellung von
zellfreien PUR verwendet werden soll. Bei diesem Schritt
kann die Eigentemperatur des Polyoles genutzt werden.
Der gesamte Prozess verläuft (außer im Extruder) ohne
erhöhten Druck bei Temperaturen um 200 °C. Die gesamte
Anlage ist geschlossen. Damit entfällt die Notwendigkeit
des Einsatzes von Inertgas. Eine Einstufung der Anlage als
explosionsgefährdeter Bereich ist nicht gegeben.
Mit Ausnahme von physikalischen Verunreinigungen
(z. B. Sand, fremde Kunststoffe, < 2 Ma.-%, bezogen auf
Schaumstoff) und aus dem Nachreaktor abdestillierenden
leichtflüchtigen Produkten (z. B. Wasser, Aktivatoramine
aus dem Schaumstoff, ca. 1,0-1.5 Ma.-%) ist der gesamte
kontinuierliche Glycolyseprozess praktisch abfallfrei.
Es empfiehlt sich jedoch, dem Extrudereinlauf einen
Metalldetektor/-abscheider vorzuschalten. Metallische
Verunreinigungen haben in Extrudern fatale Wirkungen!
Die chemischen Eigenschaften wurden wie folgt bestimmt:
OH-Zahl:
Aminzahl:
Gehalt an
MDA:
Säurezahl
8. Eigenschaften von PUR aus Recyclingpolyolen
Zur Abklärung der rezepturtechnischen Eigenschaften der
Recyclingpolyole wurden Abmischungen mit einem Gehalt
von 90 Ma.-% des entgasten Recyclingpolyoles hergestellt.
Die Abmischungen enthielten keine physikalischen und/
oder chemischen Treibmittel. Die Umsetzung erfolgte mit
Polymer-MDI Lupranat® M 20 S der BASF AG bei NCO-Index 90, 100 und 110. Erwartungsgemäß wurden zellfreie
PUR mit folgenden Eigenschaften erhalten:
6. Möglichkeiten und Grenzen
NCOIndex
Der beschriebene kontinuierliche Glycolyseprozess von
PUR-Kaltform-Weichschaumstoff ist optimiert. Im Verlauf der Entwicklungsarbeiten zeigte sich, dass der Prozess nach Anpassung grundsätzlich auch zum Recycling
anderer PUR, z. B. von halbharten Integralschaumstoffen
und harten Isolierschaumstoffen, geeignet ist. Anzupassen sind in diesen Fällen die Entaminierungsmittel und
die Reaktionsbedingungen in Extruder und Nachreaktor. Nicht geeignet ist der Prozess zum Recycling von
(Weich-) Schaumstoffen, die Polymerpolyole (grafted
polyols) enthalten. Die aufgepfropfte thermoplastische
Phase, oft SAN, schmilzt undefiniert und bildet nach
Abkühlung unregelmäßige Teile, die zwar abfiltriert werden können, deren Entsorgung jedoch kostenaufwendig
ist. Dieser Sachverhalt schränkt auch das Recycling von
PUR-Blochweichschaumstoffen ein.
Für die Aufarbeitung von PUR aus der Shredderleichtfraktion und PUR aus post-consumer-Fraktionen ist der beschriebene Glycolyseprozess ebenfalls nicht geeignet. Die
die Anlage verlassenden Produkte sind teerartig schwarz,
übelriechend, hochviscos und nicht reproduzierbar.
90
100
110
7. Eigenschaften der Recyclingpolyole
Die die kontinuierliche Glycolyseanlage verlassenden
Polyole sind mittelbraun gefärbt und haben einen geringen, charakteristischen Geruch. Die folgende Tabelle
stellt einige technologisch relevante Stoffeigenschaften
zusammen:
Viscositäts-Temperaturverhalten
20°C
10.500 - 11.600 mPa·s
25°C
6.000 - 9.000 mPa·s
35°C
3.400 - 4.700 mPa·s
45°C
1.800 - 3.100 mPa·s
55°C
910 - 1.400 mPa·s
Stockpunkt: +2 °C bis +7 °C
Flammpunkt > 130 °C (nach Pensky-Martens)
TFH Wildau, Wissenschaftliche Beiträge 2006
320 - 360 mg KOH/g (Phthalsäureanhydridmethode)
40 - 45 mg KOH/g (Perchlorsäuremethode)
< 0,1 Ma.% (HPLC, Hochdruckflüssigchromatographie)
< 0,1 mg KOH/g (Natronlauge)
Härte Zugfestigkeit Bruchdehnung
Shore A
N/mm²
%
92
94
95
19 - 22
24 - 30
28 - 31
15 - 19
10 - 16
8 - 10
E-Modul (0,050,25%) N/mm²
800 - 850
950 - 1.020
1.060 - 1.140
Die Ergebnisse entsprechen dem erwarteten Verlauf der
physikalisch-mechanischen Eigenschaften in Abhängigkeit vom NCO-Index. Es ist darauf hinzuweisen, dass die
Ergebnisse an keiner anwendungsorientierten PUR-Rezeptur gewonnen wurden. Die Ergebnisse liefern primär nur
Aussagen zur Struktur des Polyoles und zu den Möglichkeiten der rezepturtechnischen Beeinflussung der damit
herstellbaren PUR.
Diese Daten lassen folgende Schlussfolgerungen zu:
– Die Polyole sind für die Formulierung von Systemen
zur Herstellung harter und halbharter PUR geeignet.
Das gilt für zellige und nichtzellige PUR.
– Die Rückführung in Weichschaumstoffsysteme ist nicht
möglich.
– Die aus den glycolysierten PUR-Weichschaumstoffen
stammenden unveränderten Weichschaumpolyole
im Recyclingpolyol wirken in Verbindung mit den
Reaktionsprodukten der Entaminierung als interner
Weichmacher/Schlagzähmodifier.
Das Recyclingpolyol sollte besonders geeignet sein zur Formulierung harter, halbharter und zähharter PUR-Schaumstoffe,
Integralschaumstoffe und Verguss- und Beschichtungsmassen. Aus der Literatur und früheren eigenen Arbeiten ist abzuleiten, dass insbesondere folgende Eigenschaften durch
den Einsatz von Glycolysaten beeinflusst werden:
– Durch den Gehalt an aromatischen Gruppen sollte der
Wert für Wärmeleitfähigkeit sinken.
– Durch den Gehalt an langkettigen Polyethern wird die
Schlagzähigkeit verbessert.
– Bei harten Schaumstoffen kann sich der Anteil an offenen Zellen erhöhen.
– Recyclingpolyole wirken der Phasentrennung in Polyolkomponenten entgegen.
– In einigen Fällen scheint sich die Hochtemperaturbeständigkeit zu verbessern.
53
9. Und die Ökonomie?
Autoren
Die in der Arbeit vorgestellten Ergebnisse gelten streng nur
für Polyole aus der Technikumsanlage, die durch die TSA
Stahl- und Anlagenbaugesellschaft mbH entwickelt und
gebaut wurde. Diese Anlage liefert heute hinreichend große
Polyolmengen zur anwendungstechnischen Ausprüfung
dieser Produkte. Wirtschaftlichkeitsberechnungen zeigen,
dass bereits Anlagen mit einer Kapazität von ca. 200 jato
Sekundärpolyole zu Preisen unterhalb derer von frischen
Hartschaumpolyolen liefern können. Werden Entsorgungskosten und die Kosten für Logistik gegengerechnet,
verbessert sich das Bild nochmals. Derzeit laufen Arbeiten
zur Schaffung einer Anlage zur Erzeugung industriell relevanter Mengen an Recyclingpolyol.
Durch Glycolyse mit integrierter Entaminierung
her gestellte Recyclingpolyole sind keine Konkurrenz
für Frischpolyole, sondern sie ergänzen die verfügbare
Polyolpalette sinnvoll.
Hagen Koch, Wolfgang Stuhr, Bernhard W. Naber
TSA Stahl- und Anlagenbaugesellschaft mbH
Rudolf-Breitscheid-Str. 22
01983 Großräschen
Tel. +49 3573-3185
[email protected]
10. Ökologie
Das Verfahren ist bei Betrachtung unter ökologischen
Gesichtspunkten hervorragend geeignet, die Umwelt von
Abfallstoffen zu entlasten, indem diese einer anspruchsvollen Wiederverwendung zugeführt werden. Die guten
anwendungstechnischen Eigenschaften der nach dem
beschriebenen Verfahren hergestellten Polyole sorgen dafür, daß Frischpolyole vorteilhaft ersetzt und ergänzt und
damit die knappen Ölresourcen geschont werden können.
Die Glycolyse ist kein downcycling, sondern ein sich selbst
tragender upcycling- Prozess mit hoher Wertschöpfung.
Oft wird die Frage gestellt, ob und wie die unter Verwendung von Recyclingpolyolen hergestellten PUR recyelt
werden können. Da diese PUR chemisch eben auch „nur“
PUR sind, stehen diesen Produkten die gleichen Wege des
Recyclings offen wie PUR aus Frischpolyolen. Wieviele
chemische Recyclingkreisläufe die PUR / die Polyole ohne
merkliche Schädigung durchlaufen können, wurde nie untersucht. Durch oxidative Vorgänge, Vermischungen und
andere (z. B. thermische) Schädigungen auf molekularer
Ebene ist jedoch davon auszugehen, dass die Anzahl der
Kreisläufe durchaus begrenzt ist. Durch geschickte Formulierung der sekundären PUR-Systeme ist die Lebensdauer
aber weit hinauszuschieben. In keinem Falle werden die
Möglichkeiten, die physikalische Recyclingprozesse für
PUR bieten, durch den Einsatz von Recyclingpolyole
enthaltende PUR eingeschränkt.
11. Danksagung
Unser Dank gilt dem BMBF und dem InnoRegio-Programm,
das die Arbeiten zur Entwicklung des kontinuierlichen
Glycolyseverfahrens für PUR-Kaltform-Weichschaumstoffe
großzügig förderte. Weiterhin gilt unser Dank der Technischen Fachhochschule Wildau, insbesondere in der Person
von Herrn Prof. Dr. Gerhard Behrendt, für die zielführenden Diskussionen und die analytische Unterstützung.
54
TFH Wildau, Wissenschaftliche Beiträge 2006
Entwicklung einer Anlage zur kontinuierlichen Herstellung
von PET-Recyclingpolyolen
Rainer Langenstraßen, Stanislav Fulev, Andreas Apel, Bodo Gebert, Dieter Lehmann
1. Einleitung
Diese Arbeit hat die Entwicklung einer Anlage zum Ziel,
mit der aus festem Polyethylenterephthalat (PET), wie es als
Produktionsabfall bei seiner Herstellung und Verarbeitung
entsteht, durch Umesterungen in Gegenwart von Glykolen
und/oder oligomeren Estern Aromatische Polyesterpolyole
(APP) als Rohstoffe für Polyurethane kontinuierlich hergestellt werden können. Die Arbeit baut auf den bisherigen
Entwicklungen zur diskontinuierlichen Herstellung von
Recyclingpolyolen aus PET-Abfällen an der Technischen
Fachhochschule Wildau auf [1][2][3][4][5].
Mit Hilfe dieses Verfahrens können Polyesterpolyole
verschiedener Eigenschaften für unterschiedliche Einsatzgebiete, z. B. Polyurethan-Hartschaumstoffe, -Beschichtungen, -Vergussmassen etc., hergestellt werden, die nur durch
Modifizierungen in der Menge der Ausgangsstoffe und der
Verfahrensbedingungen an die Erfordernisse angepasst werden. Dieses Verfahren liefert im diskontinuierlichen Betrieb
qualitativ hochwertige Polyesteralkohole in einem breiten
Parameterbereich. Auf Grund des hohen Aromatenanteils
besitzen sie einen inhärenten Flammschutz [1][2].
Über Grundlagenuntersuchungen zum Lösevorgang
von PET in verschiedenen Lösungsmitteln unter thermischer
und mechanischer Beanspruchung und zur Umesterung der
PET-Lösung zu oligomeren Produkten unter diskontinuierlichen Laborbedingungen, die auf einer Miniplantanlage
ausgeführt wurden, ist bereits berichtet worden [4][5][6].
Aufbauend auf diesen Ergebnissen soll eine kontinuierlich
arbeitende Anlage konstruiert und gebaut werden, die zur
Bestimmung der Verfahrensparameter der kontinuierlichen
Glykolyse von PET dient. Die in dieser Arbeit ermittelten
verfahrenstechnischen und konstruktiven Grundlagen stellen die Basis zur Maßstabsvergrößerung für die Konstruktion und den Bau größerer Anlagen, einer Technikums- und
darauf aufbauend einer Pilotanlage, dar.
Für ein kontinuierliches Verfahren zur Herstellung
von Polyesterpolyolen aus PET gibt es weltweit kein
Beispiel und auch keine geschützte Lösung, so dass mit
dieser Arbeit wissenschaftliches und technisches Neuland
betreten wird.
Das rohstoffliche Recycling der PET-Abfälle ist bisher
nur diskontinuierlich durchgeführt worden [7][8][9][10].
Das diskontinuierliche Verfahren hat jedoch eine Reihe
von Nachteilen, die vor allem in der langen Lösephase für
das PET im Glykolyse-Gemisch, in längeren Reaktionszeiten, in den schwankenden Parametern der Produkte sowie
in der zu geringen Wirtschaftlichkeit begründet liegen
[11]. Ein kontinuierliches Verfahren hätte demgegenüber die Vorteile einer konstanten Produktqualität und
einer verbesserten Wirtschaftlichkeit [12]. Nach eigenen
Kostenabschätzungen gewinnt ein kontinuierliches Ver-
TFH Wildau, Wissenschaftliche Beiträge 2006
fahren bei einem Durchsatz von mehr als etwa 1000 t/a
an Wirtschaftlichkeit gegenüber einer diskontinuierlichen
Verfahrensweise, da dann die Vorteile des kontinuierlichen
Verfahrens (geringere Personalkosten, gleichbleibende Produktqualität) die Nachteile (höhere Investitionskosten,
höherer Energiebedarf) überwiegen.
2. Stand der Wissenschaft und Technik
Eine Zusammenfassung zur Chemie der Herstellung von
Polyethylenterephthalat einschließlich der Darstellung
der nicht verwerteten Nebenprodukte und zur Glykolyse
zu Polyesterpolyolen ist in der oben zitierten Arbeit [4]
gegeben worden.
Die systematischen Untersuchungen sowohl des Lösevorgangs von PET in unterschiedlichen Lösegemischen
als auch der daran unmittelbar anschließenden Umesterungsreaktion zur Herstellung von Polyesterpolyolen [4]
ergaben ein Spektrum von optimalen Lösebedingungen
insbesondere unter Verwendung von Diethylenglykol,
gegebenenfalls im Gemisch mit anderen Glykolen, und
dem bei der PET-Herstellung als Nebenprodukt anfallenden
Oligoesterkondensat (OEK). Aus den Ergebnissen konnte
für ein optimales Lösegemisch eine Zusammensetzung
von 8 bis 13 Gew.-% OEK in Diethylenglykol abgeleitet
werden, das eine 3- bis 4-mal höhere Lösegeschwindigkeit
für PET als reines Diethylenglykol (DEG) besitzt. Da die
Lösegemische jedoch im Anschluss an den Lösevorgang als
Glykolyse-Reagenzien dienen, ist die Entwicklung optimaler Löse- und Glykolysegemische unter Betrachtung sowohl
der Löse- als auch der Glykolysephase einschließlich der
Eigenschaften der erhaltenen APP vorzunehmen.
Wesentlichstes Ergebnis der Untersuchungen zur
Umesterungsreaktion war die Ermittlung von Glykolysemischungen, die überraschenderweise sehr viel kürzere
Reaktionszeiten ermöglichen, als bisher bekannt war. Die
Reaktionszeiten betragen nur 12 bis 40 Minuten anstelle
der sonst erforderlichen 4 bis 5 Stunden. Dieses Ergebnis
ist für den kontinuierlichen Prozess von herausragender
Bedeutung.
Ein wichtiger Kennwert der Polyole ist die Äquivalentkonzentration an Hydroxylgruppen (Hydroxylzahl,
OH-Zahl, OHZ, Dimension mg KOH/g). Bei konstanter
Funktionalität, d. h. der durchschnittlichen Anzahl Hydroxylgruppen je Molekül (bei den hier behandelten APP ist fn
= 2) steht diese in direktem Zusammenhang zur mittleren
Molmasse und damit zu den Verarbeitungseigenschaften
der Polyole und den Eigenschaften der daraus hergestellten
Produkte. Um Polyesterpolyole mit definierten OH-Zahlen
herzustellen, die zur Verarbeitung zu bestimmten Polyurethanen geeignet sind, muss die Umesterungsreaktion vor
55
Erreichen des Reaktionsendes abgebrochen werden. Die
Eignung der so erhaltenen Polyesterpolyole zur Herstellung von Polyurethan-Hartschaumstoffen wurde durch
Formulierung zu A-Komponenten und deren Umsetzung
mit dem Polyisocyanat Lupranat® M20A zu Hartschaumstoffen nachgewiesen. Insbesondere sind Polyol-Rezepturen entwickelt worden, die zu tieftemperaturstabilen
PUR-Hartschaumstoffen (Dimensionsstabilität von -190
bis +190 °C) umgesetzt werden können.
Das Verfahren der Glykolyse von PET sollte sich auf
Grund der bisher untersuchten Prozessvariablen und der
Erkenntnisse aus vorhergehenden Versuchen zur Umesterung im Labormaßstab in kontinuierlicher Betriebsweise
ausführen lassen. Im Rahmen vorhergehender FuE-Aktivitäten zur Herstellung von Recyclatpolyolen durch
Glykolyse/Aminolyse von Polyurethanen [13] (dort
weitere Zitate) waren im Versuchstechnikum der List AG
(Schweiz) Versuche mit einem kontinuierlich arbeitenden
Mischkneter durchgeführt worden, die zu überraschend
guten Ergebnissen und weiter verkürzten Reaktionszeiten bei Recycling-Verfahren führten. Da das Verfahren
zur Herstellung von PET-Polyesterpolyolen trotz völlig
unterschiedlicher chemischer Abläufe und Reaktionsgeschwindigkeiten sowie unterschiedlicher mechanischer
Eigenschaften der Ausgangsstoffe ähnliche Verfahrensabläufe erfordert wie das Verfahren der Glykolyse/Aminolyse
von Polyurethanen, war die Annahme gerechtfertigt, dass
sich auf der Grundlage der bisherigen Erfahrungen und
Verfahrensentwicklungen ein kontinuierliches Verfahren
in einem dazu geeigneten Apparat durchführen lässt.
Daher ist der für diese Untersuchungen an der Technischen Fachhochschule Wildau verwendete Mischkneter
der Firma List AG (Bilder 1 und 2) auch für die Entwicklung im Rahmen der vorliegenden Arbeit als Basis für die
Weiterentwicklung zu Reaktoren für das PolyesterpolyolVerfahren eingesetzt worden, bei dem die Reaktionszeiten
stoffbedingt länger sind.
Bild 1: Zweiwellen-Mischkneter (Grundgerät)
Kontinuierlich arbeitende Knetreaktoren besitzen eine
hervorragende Misch- und Knetwirkung für Mehrphasenreaktionen. Ihre Arbeitsweise ist dadurch charakterisiert,
dass die Quervermischung des Reaktionsgutes von dessen
axialem Transport weitgehend entkoppelt ist. Sie arbeiten umweltschonend und mit hoher Energieeffizienz und
weisen eine präzise Produkttemperaturführung auf. Große
freie Querschnitte garantieren eine effektive Abführung
entstehender Gase und Dämpfe [14][15].
56
Bild 2: ZweiwellenMischkneter
(Innenansicht)
Eine Patentrecherche zu kontinuierlich arbeitenden Reaktoren, die wie der an der Technischen Fachhochschule
Wildau vorhandene Mischkneter nach dem Prinzip des
Zweiwellenmischkneters aufgebaut sind, hat ergeben,
dass derartige Geräte zwar im Prinzip bekannt sind, aber
in aller Regel nicht für bestimmte Verfahren patentiert
sind. Weiterhin sind wesentliche Merkmale, die für das zu
untersuchende Glykolyse-Verfahren zur Herstellung von
Polyesterpolyolen aus PET erforderlich sind, bei diesen
Anlagen nicht vorhanden.
In der Recherche wurden Mischer, Mischkneter bzw.
Reaktoren zur Durchführung von mechanischen, thermischen und/oder chemischen Prozessen mit flüssigen,
hochviskosen oder rieselfähigen festen Stoffen ermittelt.
Mit einer Ausnahme ist kein Bezug zu einem konkreten
Stoffsystem genannt. Diese Geräte besitzen jeweils mehrere
der folgenden Merkmale:
– zylindrisches oder (angenähert) doppelzylindrisches
Gehäuse,
– (angenähert) waagerechte Anordnung,
– eine Welle oder (mindestens) zwei achsparallele Wellen,
– Wellen mit Rühr-/Knetelementen unterschiedlicher
Gestaltung,
– Anordnung der Rühr-/Knetelemente mit Versatz,
– Rührwellen mit Schnecken,
– Gegenelemente an der Innenwand,
– die Anordnung der Rührelemente und Gegenelemente
sorgt für eine Reinigung der Innenwand, der Rührelemente und der Gegenelemente,
– die Anordnung der Rührelemente und Gegenelemente
bewirkt eine axiale Förderung des Produktes,
– durch die Rührelemente und Gegenelemente werden
Knetspalten gebildet, die eine Knetung und Scherung
des Produktes bewirken,
– Gehäuse beheizbar und/oder kühlbar,
– Wellen und/oder Rührelemente beheizbar und/oder
kühlbar,
– absatzweise oder kontinuierliche Arbeitsweise ist möglich,
– in einem Fall ist ein Stator-Rotor-System mit Durchbrüchen genannt, durch die das Produkt periodisch
durchtreten kann, wodurch es homogenisiert wird.
Die hier zu entwickelnde Anlage stellt entgegen den
ermittelten technischen Lösungen eine speziell für die
Durchführung der Glykolyse von Polyester-Reststoffen
zur kontinuierlichen Herstellung von Polyesterpolyolen
entwickeltes Gesamtsystem dar, das mit speziellen Merkmalen ausgestattet werden musste [16].
TFH Wildau, Wissenschaftliche Beiträge 2006
3. Ergebnisse
3.1. Modellierung
Die mathematische Modellierung der Löse- und Umesterungsschritte mit allen Nebeneffekten und -reaktionen ist
die wesentliche Voraussetzung für die Konstruktion des
Reaktors und die Simulation des darin ablaufenden Verfahrens. Die umfassende Kenntnis aller Prozessvariablen
und deren Einfluss auf das Reaktionsgeschehen einschließlich der Temperaturverhältnisse und der Verteilungen im
Reaktor ist die Voraussetzung für die Konstruktion und
den Bau eines kontinuierlichen Reaktors, die kontinuierliche Durchführung des Verfahrens, eine weitgehende
computergestützte Regelung und einen hohen Automatisierungsgrad des Gesamtverfahrens. Dazu sind folgende
Teilaufgaben definiert worden:
– Entwicklung des Reaktorraumes der Miniplantanlage
als Basis zur Entwicklung des kinetischen Reaktionsmodells,
– Entwicklung eines speziellen Rechenprogramms auf
der Basis vorhandener Software zur Berechnung des
Modells und
– weitergehende Verfeinerung des Modells zum Zweck der
Beschreibung der verfahrenstechnischen Prozesse in der
Miniplantanlage als Grundlage für den kontinuierlichen
Reaktor.
Als Ergebnis dieses Komplexes wurde ausgehend von belastbaren Daten für das Verfahren zum Löseverhalten, zu
den Reaktionsvariablen, der Zusammensetzung der Polyesterpolyole, der Reaktorgeometrie und den verfahrenstechnischen Variablen ein Modell für die Durchführung unter
stationären sowie quasi-kontinuierlichen Bedingungen als
Basis für die spätere Verfahrensdurchführung im kontinuierlichen Reaktor erwartet.
In der Literatur wurden mathematische Modellierungen der Depolymerisation von Nylon sowie des hydrolytischen Abbaus von PET ermittelt [17][18]. Die Methoden
sind jedoch auf den vorliegenden Fall nicht anwendbar.
Da die chemische Reaktion mit ihren Abhängigkeiten
von Temperatur, Druck, Mischungsvorgängen, Verweilzeiten usw. als wichtigste Komponente des Systems anzusehen ist, wurde die mathematische Modellierung zunächst
auf den diskontinuierlichen Reaktionsablauf der Glykolyse
beschränkt und mit einer Reihe von vereinfachenden Annahmen begonnen:
– homogene ortsunabhängige Reaktion
– Ausklammerung thermischer, mechanischer und katalytischer Einflüsse
– keine Berücksichtigung von Nebenreaktionen
– reines DEG als Glykolysereagens
Dazu wurde das Prinzip einer kinetischen Modellierung
entwickelt und auf die Glykolyse von PET angewendet.
Dabei wurde folgende Umesterungsreaktion betrachtet:
PET + DEG Æ Zwischenprodukte + EG Æ
Umesterungsprodukte + EG
mit EG = Ethylenglykol
Bei dieser Reaktion werden die Kettenlängen von 75 bis
300 Einheiten beim PET auf < 10 Einheiten bei den Produkten abgebaut. Zwei Modelle wurden entwickelt:
TFH Wildau, Wissenschaftliche Beiträge 2006
a) das vollständige Modell und
b) das Klassenmodell.
Die Simulation nach a) bezieht alle Teilreaktionen der
Umsetzung ein, indem sie alle vorkommenden Molekülkettenlängen einzeln betrachtet, während die Simulation
nach b) nur Klassen von Reaktionen unterscheidet, indem
jeweils 10 Kettenlängen des Ausgangsstoffes PET bzw. der
Zwischenprodukte zusammengefasst sind. Dadurch sinkt
die Zahl der Unbekannten auf ein beherrschbares Maß,
und die Behandlung der gesamten PET-Umsetzungen wird
möglich (s. Bilder 3 und 4).
Bild 3: Schema der Hauptreaktion als vollständiges Modell
Bild 4: Schema für ein Klassenmodell
Das vollständige Modell wurde anschließend dem Klassenmodell gegenübergestellt. In diesem theoretischen
Vergleich konnte das Klassenmodell dadurch bestätigt werden, dass hinreichend identische, plausible Kurvenverläufe
für die Konzentrationen der Zwischen- und Endprodukte
erhalten wurden. Die nachstehende Reaktionsgleichung
drückt die PET-Degradation vereinfacht aus:
PET + DEG ' ODET + EG(↑)
mit ODET = „Oligodiethylenterephthalat“ (Oligoester)
Die Reaktion umfasst folgende Prozesse:
– Kettenverkürzung: PETi, mit i = 75 ... 350, geht über in
ODETj, mit j = 1 ... 10 (i bzw. j: Anzahl der Monomereinheiten im Molekül).
– Substitution: EG wird in den Ketten durch DEG ersetzt.
– Komplexe Reaktionsdynamik: Neben endständiger
Kettenverkürzung findet auch Kettenzerfall und Kettenwachstum statt.
Der theoretische Vergleich des Klassenmodells mit dem
vollständigen Modell, zunächst am Beispiel sehr kleiner
Polyesterketten, hat folgendes ergeben (s. Bild 5):
57
beträgt. Das entsprechende Verhältnis in der Reaktionsmischung des vorliegenden Experiments mit OEK beträgt
dagegen etwa
cOH(DEG) : cOH(OEK) = 6 : 1.
Bild 5: Darstellung eines Klassenmodells: Reaktionsverlauf von PET
und ODET
– Im Falle der Umesterung von PET1, PET2 und PET3 ist
es noch praktikabel, alle Substitutionsreaktionen zu
behandeln. Daraus resultiert ein vollständiges Modell,
welches man dem Klassenmodell gegenüberstellen
kann. In diesem theoretischen Vergleich konnte das
Klassenmodell bestätigt werden.
– Klassenvariablen sind folglich legitime Mittel der kinetischen Beschreibung.
Die Aufgabe bestand darin, das Klassenmodell dem
vollständigen Problem der Herstellung von PET-Recyclingpolyolen anzupassen. Vor einer Erweiterung des Klassenmodells auf das gesamte reale Reaktionssystem ist ein
erster experimenteller Nachweis der Übereinstimmung
des Modells mit dem realen Reaktionsverlauf versucht
worden, um den empirischen Beleg zur hohen Güte der
Simulation komplexer chemischer Abbauprozesse in
Klassen zu erbringen. Mit der experimentellen Verifikation erschienen folgende Ziele realistisch: Prognose der
Produktzusammensetzung im Prozess des chemischen
Recyclings, Optimierung von Rezepturen und kontinuierlichen Verfahrensabläufen, Anwendung des Modells
auf weitere Degradationsverfahren.
Zur Vereinfachung des komplexen Reaktionssystems
wurde Oligoesterkondensat (als Gemisch von wenigen
niedermolekularen Oligoestern) mit Diethylenglykol
umgesetzt, und zwar einmal unter Rückfluss und einmal
unter Abdestillieren des entstehenden Ethylenglykols.
Beide Versuche haben ergeben, dass in diesem Fall keine
Umsetzung der höhermolekularen Bestandteile durch
Glykolyse zu niedermolekulareren Produkten stattfindet,
sondern im Gegenteil der Anteil der höhermolekularen
Oligoester zunimmt. Die Esterkondensation überwiegt hier
gegenüber der Spaltung.
Somit lässt sich dieses Experiment nicht als vereinfachte PET-Glykolyse auffassen, und es ist nicht aussagefähig zur Bestätigung des Klassenmodells. Als mögliche
Erklärung kann angenommen wer den, dass in einer
Glykolysereaktion, die von PET ausgeht, das Konzentrationsverhältnis von OH-Gruppen im DEG (cOH(DEG))
zu OH-Gruppen im Polyester (cOH(PET)) am Beginn der
Reaktion etwa
cOH(DEG) : cOH(PET) = 375 : 1
58
Daher konkurrieren die OH-Gruppen des DEG und der
im OEK enthaltenen unterschiedlichen Oligoester im
vorliegenden Experiment viel stärker miteinander um
die Umesterungsreaktion an den Estergruppen, als es bei
Glykolyse des Polyesters der Fall ist, mit der Folge, dass
die Kettenverkürzung durch DEG nicht mehr die vorherrschende Reaktion ist, sondern von Kettenverlängerungs-,
Veresterungs- und Umbaureaktionen der Oligoester untereinander überlagert wird.
Eine Weiterführung der Untersuchungen zur Modellierung sollte über drei Stufen von Versuchen führen:
– Experimente zur Bestimmung der Geschwindigkeitskonstanten und der Reaktionsordnung ohne Berücksichtigung der Abdestillation von Ethylenglykol. Ergebnis
dieses Experimentes sollten die gemessenen Konzentrationen aller beteiligten Stoffe in ihrem zeitlichen Verlauf
sein.
– Experimente zur optimalen Einstellung der Korrekturparameter. Unter unverändert gehaltenen Bedingungen, jedoch unter Berücksichtigung der Abdestillation
von EG, sollte eine Folge von Konzentrationswerten
erhalten werden, um einen Ansatz zu entwickeln, in
dem die Destillation realistisch simuliert wird. Danach
sollte das Klassenmodell durch Nutzung des fixierten
Destillationsterms angepasst und auf dieser Grundlage
die Korrekturparameter optimiert werden.
– Experimente zur Bewertung des Klassenmodells unter
Variation des Temperaturverlaufs und Veränderungen
in der stofflichen Zusammensetzung. Das Klassenmodell erweist sich dann als erfolgreich, wenn die
optimierten Korrekturparameter auch auf diese Fälle
anwendbar bleiben.
In der Erwartung, dass sich auf dieser Grundlage Formulierungen und Verfahrensbedingungen optimieren
und die Zusammensetzung der Produkte nachvollziehen
lassen, wäre bei erfolgreichem Verlauf dieser Experimente
die vollständige Reaktion mittels des Klassenmodells beschrieben worden, so dass die Verfahrenssteuerung mit
Hilfe dieses Modells ermöglicht oder mindestens unterstützt worden wäre.
Die hier zusammengefasste Modellierung ist einschließlich aller mathematischen Ableitungen und
Schlussfolgerungen komplett in einer internen Studie
niedergelegt [19].
Die bis hierher erhaltenen Ergebnisse werden als ein
vielversprechender Ansatz zur Beschreibung jeder Art
chemischer Abbauprozesse angesehen, die es wert sind,
bei sich bietender Gelegenheit fortgesetzt zu werden, da
erwartet werden kann, dass das Modell die Zusammensetzung der Produkte liefert, Rezepturen bzw. Verfahrensbedingungen optimieren kann, die Verfahrenssteuerung
übernehmen kann und auf andere Depolymerisationsreaktionen übertragbar ist und dass sich Möglichkeiten der
Theoriebildung eröffnen.
TFH Wildau, Wissenschaftliche Beiträge 2006
3.2. Versuchsanlage zur kontinuierlichen
Glykolyse von PET
3.2.1. Konstruktion und Bau der Versuchsanlage
Ziel dieses Arbeitsabschnitts ist ein funktionsfähiger, gegenüber dem im Aufbereitungstechnikum der Technischen
Fachhochschule Wildau vorhandenen Mischkneter der List
AG modifizierter und mit der erforderlichen Peripherie zu
einer Versuchsanlage komplettierter Reaktor, in dem die
anschließenden grundlegenden Untersuchungen zur
kontinuierlichen Glykolyse von PET durchgeführt werden können.
Der vorhandene Mischkneter (s. Bilder 1 und 2) besteht aus einem mit Thermalöl beheizten Mantel und zwei
beheizten Wellen, die hydraulisch angetrieben werden. Die
Wellen arbeiten ineinandergreifend und gleichläufig mit
einem Drehzahlverhältnis von 4:5. Auf den Wellen sind
Knet- und Mischelemente derart angeordnet, dass mit
ihrer Hilfe sehr hohe Scherkräfte erzeugt und durch diese
eine sehr gute Zerkleinerung und Durchmischung des
Reaktionsgemisches erreicht wird. Dabei ist die intensive
Quervermischung von der axialen Transportbewegung
weitgehend entkoppelt, so dass nur eine geringe Rückvermischung auftritt [14]. Die Reaktionstemperatur wird
durch die ständige Kontrolle über das Thermalöl-Heizaggregat und eine Isolation der Reaktoraußenwand in sehr
engen Grenzen konstant gehalten, um eine hohe Qualität
des Reaktionsprodukts sicherzustellen.
Der anfängliche, im Projektantrag niedergelegte Plan
sah folgenden Aufbau des Reaktors vor: Der Reaktor soll in
einer ersten Zone, der Lösezone, Elemente zum schnellen
Lösen von Feststoffen in einem erwärmten Glykolysegemisch aufweisen. Dazu sind die Glykolysereagenzien
ständig vorgewärmt in diese Zone zu transportieren.
Aus dieser Zone wird das Reaktionsgemisch in die zweite
Reaktionszone transportiert, in der die eigentliche Umsetzung unter intensivem Umwälzen zur Beschleunigung
der Transportprozesse erfolgt. Während der Umsetzung
frei werdende flüchtige Stoffe werden am Ende der Zone
abgezogen. In der dritten Zone erfolgt der Austrag über ein
Filter, durch das ungelöste Anteile zurückgehalten werden.
Nach dem Filtrieren des Reaktionsprodukts kann dieses in
einen Sammeltank abgefüllt werden. Das Basisgerät soll
zur Durchführung des kontinuierlichen Verfahrens durch
folgende Entwicklungen gemäß den Anforderungen des
kontinuierlichen Betriebs verändert werden:
– Ableitung von konstruktiven Elementen aus dem Reaktionsmodell sowie den verfahrenstechnischen Anforderungen für den Mantel und die Wellengestaltung,
– Entwicklung einer Konstruktion für den Innenraum mit
einer Löse-, einer Umesterungs- und einer Nachbehandlungszone,
– Entwicklung und Konstruktion der Dosiereinrichtungen, insbesondere der Feststoffdosierung (PET- bzw.
Mischpolymer-Granulate, -Flocken oder -Mahlgut),
– Entwicklung der Filtrations- und Entgasungseinheiten
innerhalb oder außerhalb des Reaktors zum Entfernen
fester und leichtflüchtiger bzw. gasförmiger Nebenprodukte,
– Einbauten zur Erfassung zusätzlicher Messdaten, z. B.
eine Reihe von Widerstandsthermometern zur Erfassung
TFH Wildau, Wissenschaftliche Beiträge 2006
des Temperaturverlaufs in den Reaktorzonen, in-line-Viskosimetersonden zur Ermittlung der Qualität der Durchmischung und Erfassung des Reaktionsfortschritts,
– Einbau einer Sonde am Reaktorausgang zur ständigen
Kontrolle wichtiger Parameter, z. B. des OH-Gehaltes
über FTIR-Messungen,
– Einrichtung zur Steuerung und Überwachung des Reaktors.
Im Verlauf der Bearbeitung haben sich auf der Basis der
Grundlagenuntersuchungen [4], aus Diskussionen mit
Fachleuten der Verfahrenstechnik, des Anlagenbaus und
des Sondermaschinenbaus sowie bei Experimenten mit
dem Reaktor während der Bau- und Erprobungsphase wesentliche Modifizierungen gegenüber dem anfänglichen
Konzept erforderlich gemacht, um mit dem vorhandenen
Grundgerät in kontinuierlichem Betrieb die Glykolyse von
PET ausführen zu können. Die anfangs vorgesehene Arbeitsaufgabe, die Konstruktion und Bau von austauschbaren Rührelementen auf den Wellen und von Schikanen für
die Reaktorwandung betraf, wurde nach den Ergebnissen
aus den Versuchen sowohl an der Miniplantanlage als auch
insbesondere am Mischkneter und nach den oben genannten Gesprächen nicht mehr als sinnvoll angesehen.
Bild 6: Fließschema der kontinuierlichen Glykolyseanlage
Bild 7: Gesamtansicht der kontinuierlichen Glykolyseanlage
Es wurde ein Anlagenkonzept mit teilweiser Kreislaufführung entwickelt. Bild 6 zeigt das Fließschema der konzipierten Anlage, Bild 7 eine Gesamtansicht der fertiggestellten
Anlage. Die einzelnen Anlagen-Komponenten haben
folgende Funktion:
59
– Vorratsgefäße mit Dosierpumpen: Diese dienen der
–
–
–
–
–
–
–
–
–
60
Zuführung der flüssigen Komponenten (Glykole, Katalysator-Lösungen) in den Reaktor.
beheizbares Vorratsgefäß: In diesem Gefäß wird die
OEK-Paste aufgeschmolzen, um sie anschließend mit
einer Pumpe in den Reaktor fördern zu können.
Rohrförderer für PET-Granulat: Eine Schnecke fördert das
Granulat mit einstellbarer und steuerbarer Geschwindigkeit durch ein zylindrisches Rohr in den Reaktor.
Pendelgasleitung (Druckausgleichsleitung): Diese sorgt
für einen Druckausgleich, indem sie die Gasräume im
Reaktor und im Überlaufbehälter miteinander und
durch die Destillationskolonne mit der Atmosphäre
verbindet und auf diesem Wege einen ausgeglichenen,
dem Atmosphärendruck nahekommenden Druck in der
Anlage sicherstellt. So wird garantiert, dass die Füllstände im Reaktor und im Überlaufbehälter gleich sind, und
Störungen im Produktfluss werden ausschlossen.
Kreislaufführung des Produktstroms: Es ist ein in der
chemischen Reaktionstechnik übliches Verfahren, den
Produktstrom teilweise in den Reaktor zurückzuführen
(Schlaufen- oder Kreislaufreaktor) [20][21][22]. Dadurch
wird insbesondere bei sehr komplexen Reaktionen eine
Vergrößerung der Leistung des Reaktors, eine Einengung
des Verweilzeitspektrums, eine Erhöhung der Selektivität und/oder eine Verbesserung der Ausbeute erzielt.
In Abhängigkeit vom Rückführungsverhältnis nähert
sich das Verhalten des Reaktors dem eines ideal durchmischten Rührkesselreaktors an. Ziel dieser Maßnahme
ist es im vorliegenden Fall, durch Einstellung des Rückstroms und der Verweilzeit der Reaktionsmischung die
Produkteigenschaften im Hinblick auf das gewünschte
Spektrum zu steuern.
Destillationskolonne: Die Destillationskolonne stellt
ein komplexes Rückflusssteuerungssystem, bestehend
aus Demister, Kühler und Wärmetauscher, dar. Sie dient
der Fraktionierung und Abtrennung der flüchtigen Nebenprodukte, insbesondere des bei der Umesterung des
PET entstehenden und abzudestillierenden Ethylenglykols sowie des mit den PET-Produkten eingeschleppten
Wassers, aus der Reaktionsmischung.
Überlauf-/Nachreaktionsbehälter: Dieser Behälter ist
Bestandteil der Kreislaufführung. Der Inhalt des Behälters wird zur Beförderung der Nachreaktion durch einen
Rührer vermischt. Der Behälter hat für Probenahmen
ein Bodenablassventil.
Füllstandsmesser: Da der Überlaufbehälter zur Füllstandssicherung im Reaktor und zur Nachreaktion der
Reaktionsmischung dienen soll, muss der Füllstand
durch Füllstandsmesssonden erfasst werden. Dadurch
wird eine Steuerung wahlweise per Hand oder über das
Prozessleitsystem möglich.
Filter: Die Filteranlage ist als Doppelfilter ausgeführt, bei
dem zwischen den beiden Filtern umgeschaltet werden
kann. Auf der Basis einer Druckdifferenzmessung vor
und hinter dem jeweils arbeitenden Filter wird der
Zeitpunkt festgelegt, wann auf das andere Filter umgeschaltet und das erste Filter gereinigt wird. So ist eine
Filtration im kontinuierlichen Betrieb möglich.
Stromteiler: Der Stromteiler dient zur gezielten Einstellung der Teilung des Volumenstroms im Kreislaufsys-
tem. Auf der Basis dieser Einstellung ist das Verhältnis
zwischen Kreislaufstrom und Produktstrom bekannt.
– Entgasungseinrichtung: Auf Grund der kräftigen Vermischung des Reaktionsgutes im zu etwa zwei Dritteln
gefüllten Reaktor enthält das Produkt gelöste Gase und
leicht flüchtige Komponenten. Diese stellen bei der
Herstellung von Polyurethanen aus dem Polyol einen
unzulässigen Störfaktor dar, da sie bei der PolyurethanReaktion in Form von kleinen Gasblasen freigesetzt
werden bzw. als Gasbildungskeime fungieren können,
die infolge der fortschreitenden Härtung nicht mehr aus
dem Material austreten und so zu Materialfehlern führen
können. Aufgabe der Entgasungsanlage ist es, die gelösten Gase und insbesondere entstehende leicht flüchtige
Komponenten in einer kontinuierlichen Arbeitsweise
weitestgehend aus dem Polyol zu entfernen.
– Wärmeisolierung: Zur Minimierung von Wärmeverlusten
des Heizsystems sind der Reaktor und alle Anlagenkomponenten einschließlich der Verbindungs- und Heizungsleitungen mit einer verkleideten Isolierschicht versehen.
– Schutzgasspülung: Zur weitgehenden Unterdrückung
von Oxidationen, die zu Abbauprodukten und somit zu
Qualitätsverminderungen, z. B. Verfärbungen, führen,
ist eine Spülung der Gasatmosphäre mit einem Inertgas,
z. B. Stickstoff, erforderlich.
– Steuerungssystem: Eine MSR-Technik und Steuersoftware, bestehend aus einer speicherprogrammierbaren
Steuerung (SPS) und einem Prozessleitsystem, ermöglichen die Steuerung und Visualisierung der Anlage mit
einem Computer. Die Heizeinrichtungen, die Pumpen
und anderen Fördereinrichtungen und Ventile zur Steuerung der Stoffströme, der Rührer und die Messsonden
für Temperaturen, Füllstände und Druckdifferenz sind
mit dem Steuerungssystem verbunden. Das Steuerungssystem erlaubt sowohl eine Handsteuerung als auch den
automatischen Betrieb der Anlage.
Die im Vorhaben anfangs vorgesehene IR-Sonde zur kontinuierlichen Bestimmung der OH-Zahl des Produktes
wurde nicht verwirklicht, da es nach Erfahrungen aller
Nutzer dieser Methode und nach eigenen Versuchen nicht
möglich ist, auf diese Weise verlässliche Werte der OH-Zahl
der Polyole zu erhalten. Das Gleiche gilt für NMR-Sonden.
Die einzige Methode, die zuverlässige Werte für die OHZahl liefert, ist die Titration nach Veresterung mit Acetanhydrid bzw. Phthalsäureanhydrid. Diese Bestimmung ist
jedoch für den kontinuierlichen Betrieb zu zeitraubend.
Eine schnelle Überprüfung der Produktqualität ist z. B.
durch Messung der Viskosität von temperierten Proben
(Viskosimeter Rheostress® 300, ThermoHaake) im Rotations- und Oszillationsmodus möglich. Eine direkte Messung
der Viskosität im Produktstrom wäre wegen der hohen
Temperatur und der daraus resultierenden sehr niedrigen
Viskositätswerte mit einem entsprechend hohen Fehlerpotential dagegen nicht praktikabel.
3.2.2. Betrieb der Versuchsanlage
Die Erprobung der kontinuierlichen Anlage wurde auf der
Basis von APP-Rezepturen, wie sie in den Grundlagenuntersuchungen an der Miniplantanlage entwickelt wurden,
insbesondere derjenigen mit sehr kurzer Reaktionsdauer
[4][23], ausgeführt. Dabei wurden die Ziele verfolgt,
TFH Wildau, Wissenschaftliche Beiträge 2006
– diese kurzen Reaktionszeiten auf der kontinuierlichen
Anlage zu bestätigen,
– zu untersuchen, welchen Einfluss das Verhältnis zwischen Kreislaufgeschwindigkeit und Gesamtströmung
(sog. Rückführungsverhältnis) auf die Produkteigenschaften hat,
– Standardrezepturen zu entwickeln und
– mit auf der Anlage hergestellten APP Probeverschäumungen zu Polyurethan-Hartschaumstoffen zur Bestätigung der Anwendbarkeit auszuführen.
a) Ermittlung der optimalen Verweilzeit
Zunächst wurden Versuche mit vollständiger Kreislaufführung ausgeführt, um die optimale Verweilzeit im Reaktor
für die Glykolyse von PET zu bestimmen. Die vollständige
Kreislaufführung ohne kontinuierliche Produktentnahme
ist als Batch-Versuch im kontinuierlichen Reaktor aufzufassen, die als Bindeglied zwischen echten Batch-Versuchen
in der Miniplantanlage und kontinuierlicher Reaktionsführung im Mischknetreaktor dient.
Versuchsdurchführung: Die berechneten Mengen
DEG und OEK werden aus den Vorratsgefäßen über die
entsprechenden Pumpen bei laufenden Reaktorwellen in
den vorgeheizten Reaktor einschließlich Überlaufbehälter
eingefüllt. Der Reaktor wird auf 230 °C geheizt. Die berechnete Menge PET wird auf einmal über den Rohrförderer
zugegeben. Anschließend wird auf 250 °C geheizt. Die
gesamte Reaktionsmischung wird vollständig im Kreislauf gefahren, d. h. das Rückführungsverhältnis beträgt
100 %. Während des Versuchs wird die Destillatmenge
beobachtet. Nach beendetem Lösen des PET werden der
Reaktionsmischung nach 15, 30, 45, 75 Minuten, 2 und
3 Stunden Reaktion Proben entnommen und der Versuch
anschließend beendet. Von den Proben werden OH-Zahl,
Säurezahl und Viskosität bestimmt. Als Glykolysemischung
wurde ein Gemisch aus 81 Teilen DEG und 27 Teilen OEK
auf 100 Teile PET verwendet. Der Lösevorgang wurde durch
Probenahmen am Überlaufbehälter verfolgt. Er dauerte
etwa 10 Minuten. Die anschließende Reaktionsphase ist in
Bild 8 dargestellt, indem die Destillatmenge (MDest.) sowie
die OH-Zahl und die Viskosität der entnommenen Proben
über der Zeit aufgetragen sind. Nach den Ergebnissen ist bei
der verwendeten Rezeptur je nach eingestellter Verweilzeit
zwischen 30 und 75 Minuten eine OH-Zahl von 340 bis
280 mg KOH/g erreichbar.
ten der Einsatzstoffe eingestellt wurden, im Bereich der oben
ermittelten optimalen Verweilzeiten ausgeführt.
Versuchsdurchführung: Nach dem Befüllen des Reaktors wird anfangs wie oben auf 100%igen Kreislauf und
nach Ablauf einer Verweildauer (30, 45 bzw. 60 min, bezogen auf den Mischkneter) durch Umschalten des Stromteilers und Zuschalten der Dosiereinrichtungen und der
Produktpumpe auf kontinuierlichen Betrieb (Durchlauf)
umgeschaltet, wobei kein Kreislauf-Anteil gefahren wird
(Rückführungsverhältnis 0 %). Die Strömungsgeschwindigkeit wird jeweils entsprechend der Verweilzeit eingestellt.
Dem Produktstrom werden halbstündlich Proben entnommen, von denen Analysen wie oben angefertigt werden.
Die Ergebnisse bei drei verschiedenen Verweilzeiten sind
in Bild 9 und 10 dargestellt.
Bild 9: Verlauf der OH-Zahl der Reaktionsmischung bei
unterschiedlichen Verweilzeiten
Bild 10: Verlauf der Viskosität der Reaktionsmischung bei
unterschiedlichen Verweilzeiten
Die Verweilzeiten im Mischkneter entsprechen etwa folgenden Produktströmungsgeschwindigkeiten (Durchsatz):
Verweilzeit
30 min
45 min
60 min
Bild 8: Verlauf der Glykolyse bei vollständiger Kreislaufführung
Auf Basis dieser Ergebnisse wurden kontinuierliche Versuche
mit drei Verweilzeiten, die durch die Dosiergeschwindigkei-
TFH Wildau, Wissenschaftliche Beiträge 2006
Durchsatz
24 l/h (26 kg/h)
18 l/h (20 kg/h)
12 l/h (13 kg/h)
Aus diesen Versuchen ergibt sich, dass nach einer relativ
kurzen Einlaufzeit (Einlaufkurve etwa 30 Minuten) die
Produktparameter im wesentlichen konstant sind und
den Werten aus dem Batch-Versuch (s. Bild 8) entsprechen. Alle angeführten Verfahrensbedingungen haben
61
sich bewährt und können entsprechend den jeweils angestrebten Parametern des Polyols eingestellt werden.
b) Untersuchung des Einflusses des Kreislaufanteils
Wie schon im Abschnitt 3.2.1 erwähnt, wurde die Glykolyseanlage als Schlaufen- bzw. Kreislaufreaktor ausgeführt,
um das Verweilzeitspektrum einengen, die Selektivität
und Leistungsfähigkeit des Reaktors erhöhen sowie die
Produkteigenschaften gezielt beeinflussen zu können.
Die Versuche hierzu wurden analog den kontinuierlichen
Versuchen unter a) (zweite Vorschrift) ausgeführt, jedoch
unter Einstellung verschiedener Kreislaufanteile, und zwar
20, 40, 60 und 80 %. Die Versuche unter a) entsprechen
dem Kreislaufanteil 0 %. Die Verweilzeit wurde jeweils so
eingestellt, dass sie 45 Minuten unter den Bedingungen
ohne Kreislauf entspricht. Die Versuchsergebnisse sind in
den Bildern 11 und 12 dargestellt.
c) Anpassung der Rezeptur
Auf der Basis der unter a) und b) erprobten Reaktionsbedingungen wurden mehrere Rezepturen auf der Anlage in
längeren Versuchsläufen erprobt. Proben zur Analyse der
Produktparameter wurden dem Produktstrom halbstündlich entnommen. Tabelle 1 zeigt einige Ergebnisse.
Versuchs-Nr.
1
Rezeptur [Teile auf 100 T. PET]:
DEG
81
PEG 200
0
Octandiol
0
OEK
27
Reaktionsbedingungen:
Verweilzeit [min]
30
Rückführungsverhältnis [%] 0
Versuchsdauer [h]
6
Produkteigenschaften:
OH-Zahl [mg KOH/g]
350±4
Säurezahl [mg KOH/g]
1,0
ηrot/25°C [mPa·s]
5900
± 150
ηosz/25°C [mPa·s]
5960
± 140
2
3
4
5
81
0
0
27
81
10
0
26
60
0
20
20
76
0
16
26
45
40
8
45
80
8
30
60
8
30
40
8
288±3
0,9
8510
± 120
8560
± 110
281±4
0,96
7950
± 150
8030
± 170
282±4
0,8
9810
± 180
9860
± 150
310±5
1,1
8020
± 130
8070
± 150
Tabelle 1: Kontinuierliche Versuche mit unterschiedlichen Rezepturen
Nach diesen Versuchen hat sich die kontinuierliche Glykolyseanlage im längeren Betrieb bewährt und liefert aromatische Polyesterpolyole in konstanter Qualität.
Bild 11: Verlauf der OH-Zahl der Reaktionsmischung bei
unterschiedlichen Rückführungsverhältnissen
d) Probeverschäumungen
Aus den unter c) hergestellten APP-Mustern wurden PURHartschaumstoffe nach den Standardformulierungen in
Tabelle 2 hergestellt. Tabelle 3 zeigt die Ergebnisse.
Formulierung Nr.
1
2
3
4
Zusammensetzung der A-Komponente (Mengen in %):
APP Nr.
90
07
093
093
APP-Menge
94
75
94
80
Katalysatorgemisch
0,6
21
1
15
Tegostab® 8433
0,4
0,5
Tegostab® 8404
1
1
Wasser
5
3
4,5
4
B-Komponente (auf 100 % A-Komponente):
Lupranat® M20A
134
125
408
Lupranat® M20S
380
-
5
093
89
5
1
5
306
-
Tabelle 2: Beispielformulierungen für PUR-Hartschaumstoffe aus APP
Bild 12: Verlauf der Viskosität der Reaktionsmischung bei
unterschiedlichen Rückführungsverhältnissen
Nach kurzen Einlaufzeiten stellen sich bei den erprobten Rückführungsverhältnissen jeweils relativ konstante
Produktparameter ein. Bei höheren Rückführungsverhältnissen werden Produktparameter wie bei längeren
Verweilzeiten erhalten.
Nach den bisherigen Ergebnissen hat sich die Fahrweise mit teilweiser Rückführung bewährt. Es kann erwartet
werden, dass die Größe des Rückführungsverhältnisses
einen Einfluss auf die Stabilität der Produktparameter,
insbesondere der Viskosität und der Kristallisationsneigung, hat, da das Verweilzeitspektrum verändert wird.
Nach dem gegenwärtigen Entwicklungsstand scheint ein
Rückführungsverhältnis von 60 % optimal.
62
Formulierung Nr.
1
Raumgewicht [g/l]
33
Dimensionsstabilität [%]:
120 °C
-1,4
150 °C
-2,7
170 °C
-3,9
-130 °C
-1,2
-170 °C
-4,5
-190 °C
Druckfestigkeit [MPa] 0,08
Biegefestigkeit [MPa] Bruchdehnung [%]
-
2
45
3
50
4
60
5
80
+0,3
+3,5
-3,8 %
0,09
0,33
14,0
0
0
+0,7
-0,4
-0,8
0,17
0,50
7,8
-0,8
+0,2
+0,8
-0,2
-0,6
-2,5
0,25
0,65
7,7
-0,3
-2,5
-3,8
-1,0
-3,5
1,45
-
Tabelle 3: PUR-Hartschaumstoffe aus in der kontinuierlichen Anlage
hergestellten APP-Mustern
TFH Wildau, Wissenschaftliche Beiträge 2006
Aus den in der kontinuierlichen Glykolyseanlage hergestellten APP sind PUR-Hartschaumstoffe mit dem gleichen
Eigenschaftsspektrum herstellbar wie aus den bisher diskontinuierlich hergestellten APP [3].
4. Zusammenfassung
Aufbauend auf den Ergebnissen an der Miniplantanlage
zur Glykolyse von PET [4][23] wurde durch Ergänzung mit
neuen Bauelementen gemäß den verfahrenstechnischen
Anforderungen des kontinuierlichen Betriebs, die aus den
Ergebnissen der Grundlagenuntersuchungen abgeleitet
wurden, und durch Entwicklung eines Steuerungssystems eine kontinuierlich arbeitende Anlage entwickelt,
konstruiert und gebaut. Mit dieser Anlage wurden Untersuchungen des Löse- und Umesterungsverhaltens der
Polymeren in den Glykolysemitteln ausgeführt und so die
Verfahrensparameter für die kontinuierliche Herstellung
der APP festgelegt. Diese Parameter wurden durch Erprobung mit Standardmischungen zur Herstellung von APP
einschließlich Charakterisierung der hergestellten Polyole
und Probeverschäumungen bestätigt.
Die mathematische Modellierung der komplexen
chemischen Reaktion führte zu einem vielversprechenden
Ansatz zur Beschreibung chemischer Abbauprozesse.
Die ermittelten verfahrenstechnischen und konstruktiven Grundlagen stellen die Basis für die Konstruktion und
den Bau größerer Anlagen nach Abschluss des Vorhabens
zunächst bei einem internationalen Partner dar.
Danksagung
Das dieser Arbeit zugrunde liegende Vorhaben wurde mit
Mitteln des Bundesministeriums für Bildung und Forschung unter dem Förderkennzeichen 03I0202 gefördert.
Die Verantwortung für den Inhalt dieser Veröffentlichung
liegt bei den Autoren. Die Autoren danken dem Bundesministerium für Bildung und Forschung für die finanzielle
Unterstützung der hier dargestellten Arbeiten im Rahmen
des InnoRegio-Wettbewerbs.
Den Firmen List AG, Arisdorf (Schweiz), CTA Anlagenbau GmbH, Fürstenwalde, TSA GmbH, Doberlug-Kirchhain,
Lausitzer Edelstahltechnik GmbH, Doberlug-Kirchhain,
und Sigmar Mothes Hochdrucktechnik GmbH, Berlin, sei
für hilfreiche konstruktive Beratung, Entwicklung und Ausführung der Anlagenkonstruktion herzlich gedankt. Der
Firma Krauss-Maffai Kunststofftechnik GmbH, München,
danken wir für die kostenlose Bereitstellung von PET-Ware
und der Firma Trevira GmbH, Guben, für die kostenlose
Bereitstellung von Oligoesterkondensat. Herrn Karl-Heinz
Schmidt danken wir für die Herstellung und Prüfung von
Hartschaumstoff-Proben.
Literatur
[1] G. Behrendt, A. Lobeda, M. Pohl: Verfahren zur Herstellung
von Polyesteralkoholen sowie Polyesteralkohole; DE-OS
199 18 650 (16. 4. 1999/27. 1. 2000); PCT/WO 99/54380
(16. 4. 1999/28. 10. 1999)
[2] G. Behrendt, M. Pohl, H.-D. Hunger: Polyester-Polymerpolyole für Polyurethane und Verfahren zu ihrer Herstellung;
DE-PS 199 15 125 (25. 03. 1999/19. 10. 2000/5. 7. 2001)
[3] R. Eftimova, Y. Loseva, K.-H. Schmidt, M. Wotzka, P. Wagner,
G. Behrendt: Polyester Polyols from Waste PET Bottles for
Polyurethane Rigid Foams; Wissenschaftliche Beiträge der
TFH Wildau 2003, S. 19-25
[4] R. Langenstraßen, S. Fulev, A. Apel, B. Gebert, D. Lehmann, G.
Behrendt: Entwicklung der Grundlagen für eine Laboranlage
zur kontinuierlichen Herstellung von PET-Recyclingpolyolen
(Darstellung des Standes der Arbeiten im InnoRegio-Projekt);
Wissenschaftliche Beiträge der TFH Wildau 2004, S. 34-45
[5] R. Langenstraßen: Kontinuierliche Herstellung von aromatischen Polyesterpolyolen aus PET-Abfällen, Projekt im
Rahmen der InnoRegio-Initiative des BMBF; Poster auf dem
Tag der offenen Tür der TFH Wildau 2004
[6] R. Langenstraßen, S. Fulev, R. Evtimova, G. Behrendt: Investigation of the Polyethylene Terephthalate (PET) Transesterification Reaction; Vortrag auf der Ninth Conference
of Chemistry and Physical Chemistry of Oligomers, Odessa,
Sept. 2005
[7] Ch.-H. Chen et al.: Studies of Glycolysis of Poly(ethylene
terephthalate) Recycled from Postconsumer Soft-Drink
Bottles. I.; Journal of Applied Polymer Science, 80 (2001),
S. 943-948; II., loc. cit., S. 965-962; III., loc. cit. 87 (2003), S.
2004-2010
[8] J. Milgrom: Polyethylene Terephthalate; in R. J. Ehrig (Hrsg.):
Plastics Recycling, Products and Processes; Carl Hanser Verlag, München Wien New York Barcelona 1992
[9] F. P. La Mantia, M. Vinci: Recycling poly(ethylene terephthalate); Polymer Degradation and Stability 45 (1994), S.
121-125
[10] T. Spychaj, D. Paszun: New Trends in Chemical Recycling of
Poly(ethylene terephthalate); Macromol. Symp. 135 (1998),
S. 137-145
[11] M.-D. Umbach: Marktstudie: Aromatische Polyesterpolyole
(APP); Diplomarbeit, TFH Wildau 2003
[12] G. Kielburger: Von Batch zu Konti; Process (2003) 1, S. 3
[13] S. Fulev, R. Langenstraßen, G. Behrendt: Untersuchungen
zur Herstellung von aromatischen Polyesterpolyolen für
elastische Polyurethane; Wissenschaftliche Beiträge der
TFH Wildau 2005, S. 74-78
[14] J. List: Großvolumige Knetreaktoren; cav 5/94, Nr. 288; J.
List: Kontinuierlicher Misch-/Knetreaktor; ibid. 09/2003, S.
42, Nr. 445; LIST-CRP, Firmenschrift List AG, 2000
[15] A. Diener: Herstellen und Aufarbeiten von Polymeren mit
großvolumigen Knetern; Vortrag auf dem 6. Kunststoffkolloquium, Schwarzheide, 15. 9. 2005
[16] G. Behrendt, R. Langenstraßen, B. Gebert, H.-D. Hunger,
A. Diener, Th. Isenschmid: Verfahren und Vorrichtung zur
Herstellung von Recyclat-Polyolen aus Polyestern; DE-OS
10 2004 014 163 (17. 3. 2003/9. 12. 2004)
[17] A. Ogale: Depolymerization of Nylon 6: Some Kinetic Modelling Aspects; Journal of Appl. Polym. Science 29 (1984),
S. 3947-3954
TFH Wildau, Wissenschaftliche Beiträge 2006
63
[18] J. R. Campanelli, M. R. Kamal, D. G. Cooper: A Kinetic Study
of the Hydrolytic Degradation of Polyethylene Terephthalate
at High Temperatures; Journal of Appl. Polym. Science 48
(1993), S. 443-451
[19] A. Apel: Mathematische Modellierung der Umesterung von
PET zu aromatischen Polyesterpolyolen; unveröffentlichte
Studie, Technische Fachhochschule Wildau, 2004
[20] H. Franke, K. Schiefer (Hrsg.): Lueger Lexikon der Verfahrenstechnik, Stuttgart 1970
[21] K. Winnacker, L. Küchler: Chemische Technik, Prozesse und
Produkte, 5. Aufl., Weinheim
[22] M. Baerns, H. Hofmann, A. Renken: Chemische Reaktionstechnik, Stuttgart, New York 1987
[23] R. Langenstraßen, A. Apel, S. Fulev, B. Gebert, D. Lehmann:
InnoRegio FIRM: Entwicklung der Grundlagen für eine Anlage zur kontinuierlichen Herstellung von PET-RecyclingPolyolen; Schlussbericht, Wildau 2006
Autoren
Dr. Rainer Langenstraßen
Technische Fachhochschule Wildau
Fachbereich Ingenieurwesen/Wirtschaftsingenieurwesen
Tel. +49 3375 508-502
[email protected]
Dipl.-Math. Andreas Apel
Technische Fachhochschule Wildau
Fachbereich Ingenieurwesen/Wirtschaftsingenieurwesen
Dipl.-Ing. Stanislav Fulev
Technische Fachhochschule Wildau
Fachbereich Ingenieurwesen/Wirtschaftsingenieurwesen
Dipl.-Ing. Bodo Gebert
Technische Fachhochschule Wildau
Fachbereich Ingenieurwesen/Wirtschaftsingenieurwesen
Dipl.-Ing. Dieter Lehmann
Technische Fachhochschule Wildau
Fachbereich Ingenieurwesen/Wirtschaftsingenieurwesen
64
TFH Wildau, Wissenschaftliche Beiträge 2006
Technologiegestützter After Sales Service
Margit Scholl
Motivation
Die unternehmensweite Integration von Daten, Prozessen und Dienstleistungen wird auch für KKU (Klein- und
Kleinstunternehmen) immer notwendiger und verlangt
die Konzeption von unterstützenden Anwendungssystemen, die für das hier betrachtete Klientel in einfacher Art
und Weise handhabbar sein müssen. Gleichzeitig wird eine
aktuell gehaltene Qualifikation der Fach- und Führungskräfte angesichts des fortschreitenden Strukturwandels hin zur
wissensbasierten Informations- und Dienstleistungsgesellschaft zum entscheidenden Standortfaktor, von dem die
Innovationskraft und Wettbewerbsfähigkeit der Wirtschaft
abhängt. In diesem Beitrag soll ein praxisorientierter Lösungsansatz aufgezeigt werden, um Produkte und Dienstleistungen zwischen KMU bzw. zwischen KMU und öffentlicher
Verwaltung zu vermitteln, transparent darzustellen und
damit letztlich Kundenzufriedenheit und Kundenbindung
zu optimieren. Gemeinsam mit Partnern wurde die Idee entwickelt und praktisch umgesetzt, dass die Optimierung von
Prozessen durch Nutzung einer Lernplattform via Internet
möglich ist, bei gleichzeitiger Senkung der Prozesskosten
durch webbasierte Qualifizierung und Betreuung. Die bisherigen Ergebnisse dieses Entwicklungsprozesses wurden im
September 2006 auf dem 3. Fernausbildungskongress an der
Bundeswehrhochschule in Hamburg im Workshop „Möglichkeiten technologiegestützter Bildungskonzeptionen für
KMU“ als Erfahrungsworkshop präsentiert [1].
Hintergrund
Über den vielfältigen Einsatz einer extrem einfachen und
intuitiv nutzbaren eLearning-Plattform konnte bereits an
dieser Stelle berichtet werden [2]. Die Anwendungsberei-
Abb. 1: Zugangsseite zur Sudile-Lernplattform des Fachbereichs
Wirtschaft, Verwaltung und Recht, http://www.sudile.com/tfh-wildau
TFH Wildau, Wissenschaftliche Beiträge 2006
che für eLearning-Kurse werden unseren Möglichkeiten
entsprechend kontinuierlich erweitert wie es die Abb. 1
verdeutlicht.
Da barrierefreie Anwendungen inzwischen ein unverzichtbares Qualitätsmerkmal moderner Software sind,
das auch vom Gesetzgeber eingefordert wird, wurde die
Lernplattform im letzten Jahr barrierefrei umgestaltet. Der
Umgestaltungsprozess, die Einhaltung allgemeiner Standards und aufgetretene Probleme konnten im Februar 2006
auf dem Internationalen Rechtsinformatik Symposion in
Wien aufgezeigt und erläutert werden [3]. Im Mai diesen
Jahres konnten wir die Plattform und Kurse auf der ersten internationalen eLearning-Konferenz Afrika in Addis
Abeba präsentieren [4].
Das neue Anwendungsfeld
Ziel eines internen, kooperativen Forschungsprojektes der
Autorin war es, beispielhaft für das Hauptgeschäftsfeld
„Reinigung“ der bebra-Gesellschaft für Verwaltungsentwicklung mbH, die darin enthaltenen Verfahrenshinweise
für die Kunden (Kommunen) in einer didaktisch fundierten
und elektronischen Form mit Hilfe der Lernplattform der
Sudile-durchdachtes eLernen GbR so aufzubauen und bereit
zu stellen, dass sie zukünftig als integraler Bestandteil der
Geschäftsprozesse in die Dienstleistung der bebra GmbH
eingehen können. D.h., Ausgangspunkt unserer Idee der
Prozessoptimierung sind interne Behördenprojekte, die
unter Hinzuziehung von Dienstleistern u. a. Kostensenkungen zum Gegenstand haben. Über Kostenreduzierung
lassen sich interne Behördenprojekte finanzieren. Mit dem
Umsetzen von Prozesswissen in das Lernsystem resultiert
ein zeit- und ortsunabhängiger, aktiver und nachhaltiger
Erwerb von professionellem, angewandten Wissen für alle
beteiligten Verwaltungsmitarbeiter (als Kunden) bei gleichzeitiger Optimierung der Betreuung durch die beratende
Firma (als Dienstleister).
Abb. 2: Layoutanpassung der Plattform an das CI der bebraGesellschaft für Verwaltungsentwicklung mbH
65
Als konkretes Beispiel wurde in partnerschaftlicher Kooperation das Prozesswissen zur Senkung von Reinigungskosten in die Lernplattform umgesetzt. Dabei musste das
Aussehen des Lernsystems dem CI (Corporate Identity) der
bebra GmbH angepasst werden (s. Abb. 2).
Erste Ergebnisse konnten am Stand der bebra GmbH auf
der Messe „Moderner Staat“ im November 2005 in Berlin
gezeigt werden. Das für die Geschäftsprozesse notwendige
Spezialwissen wurde unter pädagogischen und didaktischen Gesichtspunkten als elektronische Lerneinheiten
praxisorientiert an der konkreten Dienstleistung vom Geschäftspartner selbst eingepflegt und kann jetzt als tägliche
Businesshilfe genutzt werden (s. Abb. 3). Von Bedeutung
sind dabei die extrem einfache, intuitive Handhabung für
alle beteiligten Nutzergruppen und die vielfältigen Kommunikationsformen wie Chat, Wiki, Forum und E-Mail. Das
zu vermittelnde Wissen in Firmen kann sehr umfangreich
sein und die Zeitknappheit der Firmenmitarbeiter für die
Inhaltserstellung ist ein zentrales Problem. Umso wichtiger
ist die Einfachheit der Inhaltserstellung und ein schneller,
unkomplizierter Umgang mit dem Anwendungssystem.
Zusammenfassend halten wir die folgenden Aspekte unseres Ansatzes innovativ:
– Relevante Inhalte werden vom Geschäftspartner in
einfacher Weise selbst erstellt
– Inhalte sind praxisorientiert am tatsächlichen Businessprozess angepasst
– Geschäftsprozesse werden für alle Beteiligten systematisiert und transparenter
– Notwendiges Wissen führt zu einer zielgerichteten
Qualifizierung aller Beteiligten.
Wir halten unseren Ansatz generell auf viele Dienstleistungsprozesse zwischen Geschäftspartnern anwendbar.
Insbesondere wird er auch interessant für Abläufe mit geringer Durchlaufquote und hoher Vergessensrate, da das
Anwendungssystem dann als Nachschlagewerk fungieren
kann. Einmal übertragen, werden auch die Einsparpotenziale unseres Ansatzes sichtbar: Vorbereitungs-, Reise-,
Beratungszeit werden minimiert und weniger Präsenz
beim Kunden ist notwendig. Die standardisierte, aber
flexible gemeinsame Arbeitsgrundlage der Geschäftsprozesse vermeidet Missverständnisse und spart ebenfalls Zeit.
Demgegenüber werden die Kommunikationsmöglichkeiten webbasiert verbreitert und qualifizieren die Beteiligten
ebenfalls.
Ausblick
Abb. 3: Prozesswissen der Dienstleistung umgesetzt in einen eLearning-Kurs. Übersicht des Kurses „Gebäudereinigung“ als Mindmap
für die im Prozess involvierten Mitarbeiter. Das Design der Plattform
verweist darüber hinaus auf die weiteren Kommunikations- und
Arbeitsmöglichkeiten.
Über das Vorgehen zum Aufbau des Kurses „Gebäudereinigung“, den aktuellen Stand und die konkreten Erfahrungen
konnte auf dem Internationales Rechtsinformatik Symposium 2006 im Workshop „Wissensbasiertes Prozessmanagement in Verwaltungsnetzwerken“ berichtet werden
[5]. Die Umsetzung im Kooperationsprojekt erfolgte in
drei Phasen:
– Strukturierung der Prozessinformationen
– Erstellung der spezifischen Inhalte
– didaktische Überarbeitung.
Eine der wichtigsten Erkenntnisse für den Dienstleister
bebra GmbH war, dass die Systematisierung und Überarbeitung der eigenen Prozesse zur Kundenbetreuung nicht
nur für die Verwaltung (den Kunden), sondern auch für
den Dienstleister selbst einen Gewinn darstellen. Während
der aktuellen Projektarbeit entwickelte sich das Lernsystem
zur Hilfe für konkrete Wissensaneignung und als Nachschlagewerk. Die vielfältigen Kommunikationsformen und
die Dokumentenstandardisierung führt zu einer gezielteren Projektbetreuung, erhöhten Lernbereitschaft durch
Qualifizierung während des Projektes und am Ende zur
Qualitätssicherung durch Übergabe von standardisierten
Leistungen.
66
Der dargestellte Ansatz scheint auch dafür geeignet, dass
sich KKU über dieses produktionsbezogene Nachdenken
und Darstellen ihrer Dienstleistung in einem Lernsystem
im Wettbewerb besser behaupten können. Denn diese Entwicklung hat zur Folge, dass die Mitarbeiter automatisch
stärker in eine lebensbegleitende Weiterbildung einbezogen werden. Nach wie vor besteht ein enormes Potenzial
an betrieblichen Einsatzmöglichkeiten von eLearning
via Internet. Doch Untersuchungen zeigen [6], dass der
Umfang der Nutzung von eLearning insbesondere für
KMU weit hinter den Erwartungen zurückbleibt. Gerade
kleine und mittlere Unternehmen sind es aber, die von
den organisatorischen Vorteilen, die eLearning bietet, besonders profitieren könnten. Denn gerade sie sind darauf
angewiesen, Weiterbildung flexibel und arbeitsplatznah
ohne längere Freistellungen zu organisieren. Ein kostengünstiges eLearning für passgenaue Qualifizierung ist für
KKU dringend notwendig! Doch wie kann man es sinnvoll
nahe bringen? Zumal ein elektronischer Weiterbildungsmarkt existiert, der nicht auf die Bedürfnisse von KMU
zugeschnitten ist. In einer Studie des europäischen Kooperationsprojekts „Ariel“ (Analysing and Reporting on the
Implementation of Electronic Learning in Europe, [7]) wird
zusammengefasst, dass KMUs von Entwicklern einerseits
„als Zielgruppe verschmäht“ werden und andererseits Produkte nicht geeignet sind und am Bedarf der Zielgruppe
vorbei gehen. Unsere Idee ist, elektronische Fort- und Weiterbildung anhand der elektronischen Optimierung von
Geschäftsprozessen im Bereich der KKU zu etablieren. Mit
den eigenen Geschäftsprozessen als Basis dürften die KKU
dem Thema offener gegenüber stehen.
Daher haben wir im BMBF-Programm zur Förderung angewandter Forschung an Fachhochschulen im
TFH Wildau, Wissenschaftliche Beiträge 2006
Verbund mit der Wirtschaft (FH3) den Projektantrag
„Blended Coaching als Basis für ein integratives Dienstleistungskonzept für KKU“ eingereicht. Darin wird eine
webbasierte Qualifizierung und Betreuung vorgestellt, die
als internetgestütztes Coachen bezeichnet werden kann
- wir nennen es „Blended Coaching“. Es stellt eine neue
Form der Kundenbetreuung innerhalb der Dienstleistungen dar, die einerseits eine höhere Transparenz der Arbeitsprozesse ermöglicht und anderseits den Kunden höhere
Eigenverantwortung abverlangt. Neben dem individuellen
Know-how-Gewinn und der Förderung eines lebensbegleitenden Lernens im betrieblichen Umfeld, das konkret in
die jeweiligen Geschäftsprozesse integriert werden soll,
wird das Projekt die Stabilität von Unternehmensstrukturen der beteiligten KKU deutlich stärken. Es bleibt zu
hoffen, dass die AiF-Begutachtung positiv ausfallen und
zu einer Förderung führen wird.
Autorin
Prof. Dr. Margit Scholl
Technischer Fachhochschule Wildau
Fachbereich Wirtschaft, Verwaltung und Recht
Tel. +49 172 3214682
[email protected]
http://www.tfh-wildau.de/scholl
Partner
Horst Jung, Tobias Dressler
bebra–Gesellschaft für Verwaltungsentwicklung mbH
Veilchenweg 5 D , 14772 Brandenburg
Christian Niemczik
Sudile – durchdachtes eLernen GbR
Jägerstraße 36 , 14467 Potsdam
Literatur
[1] Scholl, M., T. Dressler, Ch. Niemczik und El. Brenstein;
eBusiness + eGovernment + eLearning: Technologiegestützter
After Sales Services in KMU, Workshop, 3rd Distance Training
Convention, 19.-21.9.2006, Helmut-Schmidt-Universität,
Universität der Bundeswehr, Hamburg, 2006.
Dr. Elke Brenstein
Lernen-Gestalten
In der Heide 4, 14476 Potsdam
[2] Scholl, M.; Einführung von eLearning am Fachbereich Wirtschaft, Verwaltung und Recht - Konsequenzen und Ausblick,
TFH Wildau, Wissenschaftliche Beiträge, Heft 2005.
[3] Koppatz, P., Ch. Niemczik und M. Scholl; Online für alle: Barrierefreier Zugang zu Webinhalten;IRIS 2006, Internationales
Rechtsinformatik Symposium, Wien, 16.-18.2.2006; Schriftenreihe Rechtsinformatik, Druck im Erscheinen, 2006.
[4] Scholl, M. und Ch. Niemczik; SUDILE learning platform
- Blended Learning Scenarios at the University of Applied
Sciences Wildau (Demonstration); 1st International Conference on ICT for Development, Education and Training; ELearning Africa! UNCC, Addis Ababa, Ethiopia, May 24 - 26,
2006, forthcoming. (2006)
[5] Scholl, M., H. Jung und Ch. Niemczik; Qualifizierung und
Einsparungen in den Verwaltungen – durch webbasierte
Betreuung zum Erfolg, Workshop „Wissensbasiertes Prozessmanagement in Verwaltungsnetzwerken“, IRIS 2006,
Internationales Rechtsinformatik Symposium, Wien,
16.-18.2.2006, Schriftenreihe Rechtsinformatik, Druck im
Erscheinen. (2006)
[6] Loebe und Servering (Hrsg.), eLearning für die betriebliche
Praxis, f-bb gGmbH, Bertelsmann Verlag, Bielefeld 2003,
ISBN 3-7639-3112-0.
[7] http://www.hyblearn.odl.org/EN/Home.htm, http://www.
checkpoint-elearning.de/article/1053.html
TFH Wildau, Wissenschaftliche Beiträge 2006
67
Theorie und Praxis erfolgreicher Blended Learning-Konzepte
Ulrike Tippe, Bertil Haack
1 Ausgangssituation
1.1 Weiterbildungsbedarf und wirtschaftliche
Grenzen
In nahezu allen beruflichen Bereichen wächst der Bedarf
an hoch qualifiziertem Fachpersonal. Als Beispiele seien
die Begutachtung von Kfz-Schäden etwa nach Unfällen
und die medizinische und pflegerische Versorgung älterer
Menschen genannt: Aufgrund entsprechender gesetzlicher
Anforderungen müssen Schadensgutachter mehrfach pro
Jahr an Pflichtweiterbildungen teilnehmen. Ebenfalls
aufgrund gesetzlicher Anforderungen sowie infolge der
demografischen Entwicklung wächst der Bedarf an Qualifizierungsmaßnahmen für Mediziner und Pflegekräfte
enorm. Beispielsweise werden allein im Bundesland Brandenburg bis zum Jahr 2010 insgesamt ca. 5.200 zusätzliche
Fachkräfte im Bereich der Altenpflege benötigt [MASGF
Brandenburg 2005, 77].
In allen diesen Fällen wird die berufliche Weiterbildung im gleichzeitig enger werdenden wirtschaftlichen
Rahmen immer schwieriger und ist aufgrund des großen
organisatorischen und finanziellen Aufwandes kaum mehr
auf traditionellem Wege realisierbar. Als Ausweg bietet
sich der Einsatz von Blended Learning-Lösungen an, in
denen traditionelle Lehr- und Lernformen einerseits und
eLearning mit Hilfe geeigneter elektronischer Werkzeuge
andererseits sinnvoll kombiniert werden. (Als eLearning
werden im hiesigen Kontext alle internetbasierten Lernund Qualifizierungsmaßnahmen verstanden, wobei die
eLearning-Module auch als WBTs, d.h. als Web Based
Trainings bezeichnet werden.)
1.2 Blended Learning als mögliche Antwort
Um den dargelegten Qualifizierungsbedarf bewältigen zu
können, müssen innovative Aus- und Weiterbildungswege
gefunden werden. Die Lehr- und Lernformen in der Ausund Weiterbildung sind organisatorisch wie inhaltlich
anzupassen. Insbesondere ist nach modernen Wegen und
Plattformen für die beruflichen Qualifizierungsmaßnahmen zu suchen und diese sind einzusetzen (vgl. hier und
im Folgenden [Arnold 2004] und [Niegemann 2004] sowie
[Baumgartner 2003]).
Lösungswege hierfür zeigen sich beispielsweise im
Bereich von Fernstudiengängen an Universitäten und
Fachhochschulen. Dort werden Phasen des Selbstlernens
mit Präsenzunterricht kombiniert, wobei besonders das
Selbstlernen durch geeignete eLearning-Module unterstützt wird.
Obwohl hohe Erwartungen an das eLearning gestellt
wurden, hat es in seiner „Reinform“ nicht den durchschlagenden Erfolg gehabt: Fördert doch der völlige Verzicht
auf den direkten Kontakt zum Dozenten in vielen Fällen
nicht den Lernerfolg bzw. fehlt doch den Lernenden auch
68
häufig der zwischenmenschliche Kontakt zu anderen
Kursteilnehmern. Aber auch der finanzielle Aufwand für
die Erstellung von eLearning-Modulen ist beträchtlich:
Im Falle professionell entwickelten eLearning-Contents
werden für eine Stunde Kurslaufzeit (das ist die Zeit, die
ein WBT benötigt, um alle Lernsequenzen durchzuspielen,
ohne individuelle Pausen, Lern- und Bearbeitungszeiten
usw. zu berücksichtigen) je nach Erstellungsaufwand Preise
zwischen 10.000 € bis hin zu 60.000 € berechnet.
Die beschriebenen Nachteile führten nach einem anfänglichen eLearning-Hype zu einer ersten Ernüchterung,
der mittlerweile eine Konsolidierungsphase folgt. So hat
sich in der letzten Zeit der Begriff des „Blended Learning“
eingebürgert. Dieser beschreibt ein Lernarrangement, das
alle vorhandenen Lernformen (Präsenzseminare, Bücher,
eLearning-Module) so miteinander kombiniert, dass der
Lernprozess bestmöglich durchgeführt werden kann. Insbesondere macht die Kombination von Präsenzseminaren
und eLearning-Angeboten aus mehreren pädagogischen
Gesichtspunkten Sinn und erweist sich gegenüber reinem
eLearning als Erfolg versprechender.
Somit geht es in der Praxis darum, Lernkonzepte zu
entwickeln, die diese Aspekte berücksichtigen. Dabei ist
einerseits festzustellen, dass es in zahlreichen Fachgebieten gut ausgearbeitete Präsenzseminare gibt und dass
mittlerweile ausgefeilte, leicht erlernbare Werkzeuge zur
Erstellung von eLearning-Modulen existieren („Rapid
eLearning“). Andererseits fehlt es jedoch vielerorts nach
wie vor an didaktisch hochwertigen eLearning-Modulen
bzw. entsprechendem Know-how und entsprechender
Unterstützung für die Entwicklung derartiger eLearningBausteine. Die Frage nach erfolgreichem Blended Learning
muss also an diesem zuletzt genannten Faktum ansetzen
und praktikable Ansätze bereitstellen, die insbesondere
didaktische Erwägungen einbeziehen.
1.3 Wege zu erfolgreichem Blended Learning
Das vorliegende Papier widmet sich der grundsätzlichen
Frage, wie Blended Learning erfolgreich gestaltet werden
kann. Dabei nimmt es einerseits auf theoretische Überlegungen Bezug und zeigt andererseits anhand ausgewählter Beispiele, wie die Theorie in Sinne einer guten Praxis
genutzt und umgesetzt werden kann.
Im Einzelnen wird zunächst dargelegt, was unter „erfolgreichem“ Blended Learning verstanden werden kann.
Diese Überlegungen führen zu einem Vierklang aus Inhalt,
Technik, Pädagogik/Didaktik und Soziologie als Erfolgsfaktoren für Blended Learning sowie zu je einer abstrakten
Prozess- und Objektsicht auf das Blended Learning (Kapitel 2). Hiervon ausgehend wird durch Bezugnahme auf
zwei Blended Learning-Projekte der Autoren gezeigt, wie
die Objektsicht sinnvoll konkretisiert und für die Praxis
handhabbar gestaltet werden kann (Kapitel 3). Danach
TFH Wildau, Wissenschaftliche Beiträge 2006
werden Ergebnisse der Anwendung dieser Objektsicht
in den angesprochenen Projekten vorgelegt (Kapitel 4).
Zusammen mit den vorangehenden Überlegungen führen
sie zu einer abschließenden Bewertung, inwieweit erfolgreiches Blended Learning möglich ist (Kapitel 5).
2 Konzeptionelle Ansätze zur Entwicklung, Bereitstellung und Nutzung von
Blended Learning-Lösungen
2.1 Wann ist eine Blended Learning-Lösung eigentlich erfolgreich?
Nachdem Blended Learning offensichtlich kein Selbstgänger ist, stellt sich Frage wie es „möglichst erfolgreich“
gestaltet und vor allem was unter „möglichst erfolgreich“
verstanden werden kann. Bei der Beantwortung kommt es
auf die Perspektive an, aus der diese Frage betrachtet wird.
Beispielsweise heißt „erfolgreich“ aus Sicht des Lernenden,
dass er mit Hilfe des Blended Learning-Angebotes einen
auf ihn zurecht geschnittenen und damit für ihn angemessenen Weg durch das zu lernende Themengebiet finden
und sich dieses effektiv und effizient erschließen kann.
Aus Sicht des Anbieters von Blended Learning-Lösungen
bedeutet „erfolgreich“ natürlich auch, dass der Lerner mit
dem Bildungsangebot im eben genannten Sinne zurecht
kommt und zufrieden ist. Spätestens dann aber, wenn der
Anbieter auch die Aufgabe der Entwicklung von Blended
Learning-Kursen wahrnimmt, besitzt „erfolgreich“ mindestens eine weitere Facette. Jetzt kommt es ebenso darauf an,
die Entwicklung verschiedener Blended Learning-Pakete
mit unterschiedlichen Lerninhalten möglichst effektiv
und effizient zu gestalten.
Insgesamt führen alle verschiedenen Sichten auf
„möglichst erfolgreiche“ Blended Learning-Lösungen zur
Frage nach sinnvollen Konzepten für die effektive und
effiziente Entwicklung, Bereitstellung und Nutzung entsprechender Blended Learning-Angebote. Diese Aspekte
betreffen einerseits die Prozesse eben der Entwicklung, Bereitstellung und Nutzung einer Blended Learning-Lösung
sowie andererseits das Artefakt „Blended Learning-Lösung“
selbst in seiner Eigenschaft als Operationsobjekt (Produkt
bzw. Handlungsgegenstand) dieser Prozesse. Wie bereits
eingangs angedeutet wurde, muss hierbei die Sicht des
Lerners als ausschlaggebend eingeschätzt und daher vor
allen anderen Bezügen berücksichtigt werden: Nur dann,
wenn der Lerner erfolgreich mit dem Artefakt lernen kann,
haben sich die Entwicklung, Bereitstellung und Nutzung
des Artefaktes gelohnt. Anders ausgedrückt: Didaktische
Überlegungen müssen als Basis für die in Rede stehenden
Prozesse und das Artefakt Blended Learning-Lösung dienen. Umgekehrt dürfen diese aber auch nicht losgelöst von
anderen Betrachtungsebenen gesehen werden: Natürlich
spielen beispielsweise auch die Lerninhalte und das Miteinander im Lernprozess eine wesentliche Rolle.
2.2 Der Vierklang aus Inhalt, Technik, Pädagogik/
Didaktik und Soziologie als Erfolgsfaktor
Um erfolgreich eLearning-Module zu entwickeln und
in ein Blended-Learning-Konzept zu integrieren, ist zu
vergegenwärtigen, dass hierbei neben dem Content im
TFH Wildau, Wissenschaftliche Beiträge 2006
Wesentlichen drei weitere Bereiche zu berücksichtigen
sind. Es handelt sich prinzipiell um
– inhaltliche,
– technische,
– pädagogisch/didaktische sowie
– soziologische
Aspekte, die alle miteinander verbunden bzw. voneinander abhängig sind und damit gemeinsam in einem
aufeinander abgestimmten harmonischen Vierklang
zu beachten sind. Die folgende Abbildung verdeutlicht
die relevanten Themen und Schlagworte sowie deren
Zusammenhänge:
Darstellung
Struktur
Lernplattform
Qualität
Usertracking
Autorentools
Methodik/Didaktik
Methodik / Didakti
k
Standards
Technik
Technik
Inhalte
Inhalte
Blended Learning
Teletutoring /
Betreuung
Interaktivität
Modularität
Umsetzung
Umsetzung
Trainerausbildung
Web Based
Trainings
Abb. 1: Betrachtungsebenen für Blended Learning-Konzepte
2.3 Prozesssicht: Ein Vorgehensmodell für
Entwicklung, Einsatz und Anwendung von
eLearning-Komponenten
Analog zur Entwicklung und zum Einsatz „normaler“
Software muss ein geeignetes Vorgehensmodell Basis
jedweder multimedial gestützten Aus- oder Weiterbildung
sein. Mit seiner Hilfe werden alle Schritte zur Entwicklung und Durchführung des Qualifizierungsangebotes
koordiniert. Es wird so festgelegt, wer wann was zu tun
hat beziehungsweise tun darf. Darüber hinaus enthält
es Festlegungen über die dabei jeweils einzusetzenden
Methoden und Werkzeuge sowie über die erwarteten
Arbeitsergebnisse.
Die Entwicklung einer Blended Learning-Anwendung ist ein Projekt und kann als solches etwa mittels
des folgenden, aus der Softwareentwicklung bekannten
Vorgehensmodells organisiert werden (vgl. beispielsweise
[Balzert 2000] sowie ergänzend [Pawlowski 2001]):
Abb. 2: Ein mögliches eLearning-Vorgehensmodell
69
Kennzeichnend darin ist das Zusammenspiel von Leistungserbringungsprozess, Führungs- und Supportprozessen. Die
Leistungserbringung erfolgt beispielsweise in den Phasen
Geschäftsanalyse, Design, ..., Einsatz mit zugehörigen
Meilensteinen und Arbeitsergebnissen. Sie wird mittels der
Führungsprozesse Projekt- und Qualitätsmanagement geplant, durchgeführt, kontrolliert und gesteuert und erfährt
innerhalb der Supportprozesse die notwendige Bereitstellung etwa einer Qualitäts- und Testorganisation.
2.4 Objektsicht: Das Modell BLESS
Die Prozesssicht muss nun noch durch eine geeignete Sicht
auf das Operationsobjekt ergänzt werden. Dazu bietet sich
die Blended Learning Systems Structure BLESS [Derntl /
Motschnig-Pitrik 2005, S. 113ff.] an. Sie liefert ein Modell,
nach dem der Aufbau eines eLearning-Systems gestaltet,
verstanden, beschrieben und realisiert werden kann. Hier
wird ebenso wie in der Prozesssicht von den Ähnlichkeiten
und Übereinstimmungen in der Entwicklung, Bereitstellung und Nutzung von „normaler“ Anwendungssoftware
und Blended Learning-Lösungen ausgegangen. Zusätzlich
werden die für eLearning respektive Blended Learning
als notwendig herausgestellten Betrachtungsebenen
Fachinhalt (Lernstoff), Technik (Entwicklungs- und Lernplattform), Didaktik (Gestaltung des Lernangebotes) und
Soziologie (Zusammenarbeit der Lehrenden und Lernenden) sowie deren Beziehungen zueinander berücksichtigt.
Dieser „Vierklang“ wird durch Integration der einzelnen
Aspekte in einem Schichtenmodell mit insgesamt sechs
verschiedenen Ebenen erreicht:
– Layer 0: Learning Theory & Didactic Baseline
Festlegung der umzusetzenden Lerntheorie und der
didaktischen Ausrichtung des Kurses als „Treiber“ für
alle weiteren Layer – heutzutage lauten die Stichworte
Konstruktivismus und Handlungsorientierung
– Layer 1: Blended Learning Courses
Repräsentation des konkreten Blended Learning-Angebotes
Lerntheorie
Anwendung
Layer 0: Lerntheorien und
Didaktische Grundlagen
Layer 1: Blended Learning Kurse
Visualisierung,
Modellierung
M1
Layer 2: Kursszenarien
Modularisierung
Plattformunabhängig
Mn
Layer 3: Blended Learning Patterns
Implementierung
Layer 4: Webtemplates
Instanziierung
Plattformabhängig
Layer 5: Lernplattformen
Technologie
Abb. 3: Das BLESS-Modell [Derntl / Motschnig-Pitrik 2005]
70
– Layer 2: Course Scenarios – Learning Traces
Denkbare, sinnvolle und mögliche Kursabfolgen
– Layer 3: Blended Learning Patterns – Learnflow Patterns
Wiederkehrende Lernabläufe
– Layer 4: Templates – Learnflow Templates
Vorgefertigte Vorlagen zur Nutzung innerhalb einer
eLearning-Anwendung
– Layer 5: Learning Platform
Technische Basis des eLearning-Angebotes
Die Zusammenhänge der Ebenen werden aus Abbildung 3
ersichtlich.
2.5 Umsetzung in die Praxis
In der Praxis kommt es nun darauf an, die skizzierten
Konzepte so zu konkretisieren, dass sie als Grundlage für
die Entwicklung, Bereitstellung und Nutzung von Blended
Learning-Lösungen dienen können. Nachstehend werden
die Charakteristika eines konkreten, in der praktischen
Anwendung befindlichen BLESS-konformen Konzeptes
für die Entwicklung, den Einsatz und die Anwendung
von Blended Learning-Lösungen zusammengefasst.
3 Konkretisierung der konzeptionellen
Ansätze
3.1 Werkzeuge: Learning Management Systeme
und Autorentools (Layer 5)
Bezüglich der Werkzeuge („Technik“) ist grundsätzlich
zwischen „Learning Management Systemen“ („Lernplattformen“) und „Autorenwerkzeugen“ zu unterscheiden.
Vereinfacht ausgedrückt dienen Learning Management
Systeme (LMS) vorrangig zur Verwaltung/Administration
von Inhalten und Nutzern (Lerner, Moderatoren), wohingegen die Autorenwerkzeuge („Autorentools“) zur Erstellung der Module (Web Based Trainings, WBTs) gedacht
sind. Oftmals sind in Learning Management Systemen
bereits Autorentools integriert, die häufig jedoch hinsichtlich der Funktionalität bzw. der
Lerntheorie
Verwendung multimedialer Komponenten eingeschränkt sind. Aus
diesem Grunde werden separate AuVerbesserung
torenwerkzeuge angeboten, die die
Erstellung didaktisch hochwertiger
eLearning-Module ermöglichen. Um
Anwendung
diese Module erfolgreich in Learning
Management Systeme integrieren zu
M2
können, haben sich in den letzten
Jahren Standards etabliert (SCORM,
Design
AICC).
Sowohl Learning Management
Systeme
als auch Autorentools, die
Support
jeweils die üblichen Standards erfüllen, gibt es mittlerweile viele am
Funktionalitäten
Markt. Auch ihre Funktionalitäten
bzw. Möglichkeiten der Integration
von multimedialen Komponenten
sind ähnlich, so dass der Fokus
nun mehr auf die Erstellung von
Technologie
Inhalten, d.h. auf didaktische und
pädagogische Aspekte gelegt werden
TFH Wildau, Wissenschaftliche Beiträge 2006
sollte. Anders formuliert: Die Technik ist da, sie muss jetzt
„nur noch“ optimal genutzt werden. (Die Autoren setzen
einerseits das Open Source Learning Management System
„ILIAS“ und andererseits das Autorentool „Dynamic Power
Trainer“ der Firma Dynamic Media ein.)
3.2 Methoden: Learning Traces, Learnflow Pattern und Learnflow Templates (Layer 2-4)
Im Gegensatz zur Technik stellt das methodische Vorgehen
bei der Entwicklung von eLearning-Lösungen nach wie
vor eine große Herausforderung dar. Grundsätzlich ist es
zunächst durch die Erstellung von Drehbüchern und deren
Umsetzung mittels Autorenwerkzeugen geprägt. Darüber
hinausgehend kommen Learning Traces, Learnflow Pattern
und Learnflow Templates zum Einsatz:
– Learning Traces
Learning Traces bieten die Möglichkeit, verschiedene
Kursabfolgen („tracks“) im Rahmen eines eLearningAngebotes zu realisieren und dem Lernenden so die
Auswahl des für ihn entsprechend seiner Vorkenntnisse
bzw. Wünsche optimalen Kursangebotes zu gestatten.
Abb. 4: Learning Traces
– Learnflow Pattern
Learnflow Pattern sind Lernmuster bzw. -abläufe, die in
allen Lehr- und Lernprozessen wiederkehren und die
die Umsetzung der je spezifischen Lernprozesse mittels
geeigneter wiederkehrender Bausteine erlauben (vgl.
[Derntl / Motschnig-Pitrik 2003]). Als Beispiele seien
die Erarbeitung von Begriffen oder fachlichen Zusammenhängen durch den Lernenden sowie die Erledigung
von Übungs- oder Prüfungsaufgaben genannt.
– Learnflow Templates
Learnflow Templates sind schließlich vorgefertigte
abstrakte Bausteine einer eLearning-Anwendung. Sie
realisieren Learnflow Pattern und können durch geeignetes „Customizing“ konkretisiert („instanziiert“) und
auf die jeweilige eLearning-Anwendung zugeschnitten
werden.
Durch dieses Vorgehen wird die Wiederverwendung
der eLearning-Bausteine analog der Wiederverwendung
von Software ermöglicht. Die entwickelten eLearningKomponenten können wie ein Gerüst in verschiedenen
Themenbereichen mit jeweils anderen fachlichen Inhalten
genutzt werden, indem beispielsweise jeweils eine Rahmengeschichte zugrunde gelegt wird, in die der Lernstoff
TFH Wildau, Wissenschaftliche Beiträge 2006
und die Prüffragen eingebettet sind, und deren Inhalt,
Kontext sowie die handelnden Personen je nach Lerninhalt ausgetauscht oder variiert werden.
3.3 Lösung: Konzeption und Realisierung eines
eLearning-Moduls (Layer 1-2)
Bei der Konzeption und Realisierung eines eLearningModuls sind aus Sicht der Layer 1 und 2 mindestens die
folgenden vier Aspekte zu beachten, die hier auch im Sinne
von Handlungsempfehlungen verstanden werden sollen:
– Didaktische Qualität (Komplexität, „Merkbarkeit“)
Hier kommt es ganz wesentlich darauf an, ein klares,
differenziertes Lernangebot vorzulegen, das auf das
Nötigste reduziert ist („Didaktische Reduktion“). Den
Lernenden sollte es ermöglicht werden, ihr subjektives
Wissen einzubringen, indem sie Neues mit bereits Erlerntem verknüpfen können. Dies schließt eine genaue
Zielgruppenanalyse mit ein. Hinsichtlich der „Merkbarkeit“ ist einerseits eine Orientierung an der „magischen
Sieben“ empfehlenswert: Eine Person kann sich bis zu
sieben Begriffe, Bilder, Punkte o.ä. recht gut merken.
Mehr Information auf einer Seite oder in einem Lernobjekt können nicht mehr so gut von den Lernenden verarbeitet werden. Andererseits sind Verknüpfungen von
Neuem mit Bekanntem durch Visualisierung (passende
Bilder / Animationen) und Wiederholung gut geeignet,
um das Ziel, den Lernstoff in das Langzeitgedächtnis zu
transportieren, zu erreichen.
– Struktur („Innere Ordnung“)
Insbesondere hinsichtlich der „Merkbarkeit“ und den
damit notwendigen Wiederholungsmöglichkeiten des
Lernstoffs ist eine klare modulare Struktur erforderlich.
Innerhalb der Module sollten Inhalte, Zusammenfassungen, Zwischenfragen, Kommentare usw. stets an
derselben Stelle und in gleichen Abständen erfolgen.
Diese „logischen Strukturen“ dürfen nicht aufgebrochen, sondern müssen strikt eingehalten werden.
– Lerntyporientierung
Um Ganzheitliches zu praktizieren, ist das „Lernen mit
allen Sinnen“ gefordert. Das heißt, dass Lernen über unterschiedliche Sinneskanäle (sensorische Kanäle) erfolgt.
Hier wird zwischen auditiven, visuellen oder optischen
und kinästhetischen oder handlungsorientierten Lerntypen unterschieden, wobei in der Regel Mischformen mit
unterschiedlich stark ausgeprägten Schwerpunkten in
die eine oder andere Richtung vorliegen. Grundsätzlich
können folgende Gestaltungshinweise gegeben werden:
Visualisierungen nutzen, Bilder und Texte müssen zusammenpassen, zusammenhängende Bilder und Worte
müssen räumlich beieinander liegen und gleichzeitig
präsentiert werden, Animationen gezielt einsetzen (bei
„Anfängern“ mehr, bei „Fortgeschrittenen“ weniger).
– Handlungsorientierung
Die Handlungskompetenz setzt sich aus den Komponenten „Fachkompetenz“, „Methodenkompetenz“
und „Sozialkompetenz“ zusammen. Diese mit Hilfe
von eLearning-Modulen auszubilden, ist mit Sicherheit
ein anspruchsvolles Ziel. Auf den ersten Blick liegt es
nahe, anzunehmen, dass mit Blended Learning lediglich
Fachwissen angemessen vermittelt und damit nur die
Fachkompetenz ausgebildet werden kann. Dennoch ist
71
es möglich, die anderen Kompetenzfelder ebenfalls zu
fördern. Ein Weg dazu besteht z.B. darin, den Lernstoff
in eine Rahmenhandlung einzubinden, die aus dem
Umfeld hervorgeht, aus dem der Lernende stammt, das
er gut beurteilen kann und in dem er sich weitestgehend auskennt. Aus diesem Kontext heraus Inhalte zu
vermitteln, Entscheidungen (Zwischenfragen) und den
Aufbau neuer inhaltlicher Verknüpfungen abzuverlangen, also Handlungsprodukte als wesentliches Merkmal
handlungsorientierten Unterrichts herstellen zu lassen
[Jank/Meyer 1991, S. 356], führt weit über das reine
Vermitteln von Inhalten/Fakten hinaus.
4 Zwei Beispiele: Umsetzung der Theorie
in die Praxis
4.1 Charakteristika des konkreten Blended
Learning-Systems
Ausgehend von obigen Überlegungen haben die Autoren
zwischenzeitlich ein BLESS-konformes Blended LearningSystem konzipiert und prototypisch in zwei Anwendungsfällen zum Einsatz gebracht. Das System basiert auf der
Lernplattform ILIAS und wurde mit dem Dynamic Power
Trainer als Autorenwerkzeug realisiert. Es besitzt zusammengefasst folgende Merkmale:
– Ein flexibles Vorgehensmodell mit einer spezifischen
Kombination von Präsenz- und Selbstlernanteilen je
eLearning-Kurs,
– eine innovative Kombination von Learning Traces,
Learnflow Pattern und Learnflow Templates,
– die Verbindung moderner Autoren- und Lernmanagementsysteme auf Basis aktueller Schnittstellen (Stichwort: SCORM) sowie
– Lernunterstützung durch den Einsatz von elektronischen Tutoren, Hotline-Support via Mail, Kommunikation in Chat-Rooms und Foren.
Aufgrund dieses flexiblen Lösungsdesigns ist das System
universell im Rahmen von „Teleausbildungsmaßnahmen“
einsetzbar. Es kann durch das oben erwähnte Customizing – speziell: durch den Austausch des modular strukturierten Lernstoffs – relativ leicht in vielen Fachgebieten
genutzt werden und damit einen Beitrag zur effektiven
und effizienten Befriedigung des eingangs geschilderten
Weiterbildungsbedarfs leisten. Konkret steht es zurzeit
prototypisch für Weiterbildungsmaßnahmen im Rahmen
der Qualifikation von Kfz-Schadensgutachtern sowie auf
dem Gebiet der Schulung von Pflegekräften für den Einsatz
in der Gerontopsychiatrie zur Verfügung.
4.2 Weiterbildung von Kfz-Schadensgutachtern
Kfz-Schadensgutachter sind gesetzlich verpflichtet, sich
regelmäßig fortzubilden. Zukünftig ist geplant, einen Teil
dieser Ausbildung via Blended Learning zu realisieren, um
beispielsweise Reisekosten der Gutachter für die Fahrten
zum Schulungsort einzusparen, aber auch um den Gutachtern die Möglichkeit zu bieten, die eigenen Lernzeiten
und die eigene Lerngeschwindigkeit festzulegen. Hier
exemplarisch drei Bildschirmansichten aus dieser, auf
einer Rahmenhandlung basierenden Blended LearningLösung:
72
Abb. 5: Einführung in die Rahmenhandlung, Vorstellung der
agierenden Personen
Der Avatar „Klaus, die Maus“ führt den Lernenden in die
Rahmenhandlung (Verkehrsunfall) ein und stellt die handelnden Personen vor.
Abb. 6: Wissensvermittlung
Die Wissensvermittlung erfolgt in einer je gleichen Weise:
Neben einem durch ein „i“ gekennzeichneten Informationsblock, in dem das behandelte Thema zusammengefasst
und das eigentliche Lernziel formuliert werden, gibt es den
Wissensblock sowie den Hinweisblock: Innerhalb des mit
einer Glühlampe gekennzeichneten Wissensblocks werden
die detaillierten Lerninhalte dargestellt. Im Hinweisblock
(symbolisiert durch ein Ausrufungszeichen in einem Dreieck) stehen schließlich interessante Ergänzungen zu den
Lerninhalten sowie Tipps zu den später zu beantwortenden
Übungsfragen.
Abb. 7: Wissensüberprüfung
TFH Wildau, Wissenschaftliche Beiträge 2006
Nach jeder Lerneinheit muss sich der Lernende den durch
ein „?“ gekennzeichneten Prüffragen unterziehen. Er kann
so seinen Lernerfolg ermitteln und den weiteren Kursablauf
daraus ableiten (z.B. Fortgang im Kurs bei fehlerfreier Beantwortung oder Rückschritt zu vorherigen Kursabschnitten bei fehlerhaften Antworten).
4.3 Weiterbildung von Pflegekräften
Im Pflegebereich befinden sich Ideen zur Umsetzung von
eLearning-Maßnahmen zumindest teilweise noch in den
„Startlöchern“, d.h. Blended-Learning-Konzepte haben bisher kaum oder gar nicht Eingang in die Aus- und Weiterbildung von Mitarbeitern gefunden. So steht eine vergleichbare
Entwicklung beispielsweise im Falle gerontopsychiatrischer
Pflegedienstleistungen noch aus. Entsprechende Lehr- und
Lernwege müssen neu konzipiert werden. Dabei gilt es
nicht nur, die jeweiligen fachlichen Fähigkeiten zu berücksichtigen und auszubilden, sondern auch den wachsenden
Anforderungen an die Managementkompetenzen der Pflegekräfte gerecht zu werden. Dies ist zum Beispiel vor dem
Hintergrund sich ausdifferenzierender Organisationsformen
in der Gerontopsychiatrie vonnöten.
Ebenfalls von der Standard-Lösung ausgehend wurde
bereits ein erster Prototyp für die Blended Learning basierte
Weiterbildung von Pflegekräften im Bereich der Gerontopsychiatrie entwickelt. Hier die drei den vorangehenden
Bildschirmansichten entsprechenden Screenshots aus
diesem Prototyp. Sie zeigen die Verwandtschaft der verschiedenen eLearning-Lösungen, d.h. sie verdeutlichen,
dass die einzelnen Lösungen durch Customizing eines
vorgegebenen Standards entstanden sind:
Abb. 8: Einführung in die Rahmenhandlung, Vorstellung der
agierenden Personen
Abb. 10: Wissensüberprüfung
Insgesamt wird deutlich, dass bei beiden Entwicklungen
nach ein und demselben Schema vorgegangen wurde. Der
Einsatz von Learnflow Patterns und Learnflow Templates
(BLESS-Layer 3 und 4) hat die Entwicklung im Rahmen der
Projekte nicht nur vereinfacht sondern insbesondere auch
wirtschaftlicher gemacht. Den Autoren liegen allerdings
noch keine gesicherten Erkenntnisse bzw. Kalkulationen
vor, ob diese Ergebnisse auf andere Projekte übertragbar
sind. Die bisherigen Erfahrungen stimmen jedoch zuversichtlich.
5 Abschließende Bewertung
Qualifizierungsmaßnahmen mittels des präsentierten
Blended Learning Systems tragen in stärkerem Maße als
tradierte Weiterbildungsaktivitäten den wachsenden betriebswirtschaftlichen Anforderungen an entsprechende
Maßnahmen in verschiedenen Fachgebieten wie z. B. Medizin und Pflege Rechnung. Beispielsweise erfordern sie
keine komplette Freistellung der Teilnehmenden von ihrer
Arbeit, verringern Reisekosten und -zeiten und reduzieren
damit die Ausfallzeiten und -kosten für den jeweiligen Arbeitgeber. Insofern ist dieses Konzept ebenso für niedergelassene Ärzte wie für Pflegekräfte, kleinere und mittlere
Unternehmen, Ingenieurbüros, Gutachter etc. geeignet,
die sich regelmäßig fortbilden müssen, deren berufliche
und / oder wirtschaftliche Situation ihnen aber erhebliche
Grenzen für diese Weiterbildungsmaßnahmen setzt.
Darüber hinaus stellt eine Konzeption von Blended
Learning-Kursen nach dem BLESS-Modell die Weichen
für eine perspektivisch günstigere Entwicklung qualitativ
hochwertiger eLearning-Module.
Abb. 9: Wissensvermittlung
TFH Wildau, Wissenschaftliche Beiträge 2006
73
Literatur
Patricia Arnold u.a.: „E-Learning, Handbuch für Hochschulen und
Bildungszentren“. BW Bildung und Wissen, 2004
Helmut Balzert: „Lehrbuch der Software-Technik“. Spektrum
Akademischer Verlag, 2000
Peter Baumgartner: „Didaktik, eLearning-Strategien, Softwarewerkzeuge und Standards- Wie passt das zusammen?“ Erschienen in Maike Franzen: „Mensch und E-Learning – Beiträge zur
E-Didaktik und darüber hinaus“. Aarau, Sauerländer, 2003
Michael H. Breitner, Gabriela Hoppe (Hrdg.): „E-Learning-Einsatzkonzepte und Geschäftsmodelle“. Physica-Verlag, 2004
Michael Derntl, Renate Motschnig-Pitrik: „Pattern for Blended,
Person-Centered Learning: Strategy, Concepts, Experiences and
Evaluation”. Technical Report No. TR-20033004, Department
of Computer Science and Business Informatics, University of
Vienna, Oktober 2003
Michael Derntl, Renate Motschnig-Pitrik: „The role of structure,
patterns, and people in blended learning”. Internet and Higher
Education 8 (2005) 111-130
Werner Jank, Hilbert Meyer: „Didaktische Modelle”. Cornelsen
Scriptor, 1991
MASGF (Ministerium für Arbeit, Soziales, Gesundheit und Familie) des Landes Brandenburg (Hg.): „Brandenburger Fachkräftestudie – Entwicklung der Fachkräftesituation und zusätzlicher
Fachkräftebedarf“. Potsdam, 2005
Helmut Niegemann u.a.: „Kompendium E-Learning. X.media.press“.
Springer, 2004
Jan Pawlowski: „Das Essener-Lern-Modell (ELM): Ein Vorgehensmodell zur Entwicklung computerunterstützter Lernumgebungen“. Dissertation, Essen, 2001
Autoren
Prof. Dr. Ulrike Tippe
Technische Fachhochschule Wildau
Fachbereich Betriebswirtschaft/ Wirtschaftsinformatik
Tel. +49 3375 508-556
[email protected]
Prof. Dr. Bertil Haack
Technische Fachhochschule Wildau
Fachbereich Wirtschaft, Verwaltung und Recht
Tel. +49 3375 508-914
[email protected]
74
TFH Wildau, Wissenschaftliche Beiträge 2006
Ein webbasiertes Evaluationssystem für Hochschulen
Ralf Vandenhouten, Miriam Selz
1 Einleitung
Angetrieben durch die Hochschulgesetzgebung, Maßnahmen zur systematischen und regelmäßigen Veranstaltungsevaluation von Fachbereichen zu ergreifen [4] [5], wurde das
Projekt „Webbasiertes Evaluationssystem“ vom Total Quality Management (TQM) der Technischen Fachhochschule
Wildau (TFH Wildau) angeregt. Um einen hohen Qualitätsstandard der Lehre sicherzustellen, wollte die TFH Wildau
die Qualität der Veranstaltungen messbar machen und
suchte nach technischen Verbesserungsmöglichkeiten.
Ziel bei diesem Projekt war eine umfassende Lösung,
die es auf einfache und kostengünstige Art ermöglicht,
Evaluationsdaten zu erheben, elektronisch zu erfassen und
auszuwerten sowie den Dozenten und der Hochschulleitung zur Verfügung zu stellen.
Die Lehreinheiten erhalten auf diese Weise einen
schnellen und fundierten Einblick in ihre Leistungen
sowie eine entsprechende Einschätzung und können daraus konkrete Anregungen zur Weiterentwicklung ihrer
fachlichen Kompetenz gewinnen. Die aus der Evaluierung hervorgehenden Informationen können zudem zur
internen Rechenschaftslegung sowie zur kontinuierlichen
Qualitätssicherung und -verbesserung genutzt werden.
2 Hintergrund
2.1 Das Qualitätsmanagement an der TFH Wildau
In dem Zeitraum 2004-2006 wird ein umfassendes Qualitätsmanagementsystem, das TQM-Projekt (TQM: Total
Quality Management oder Umfassendes Qualitätsmanagement) an der TFH Wildau eingeführt. In diesem Rahmen
wurde ein hochschulspezifisches System zur internen
Evaluation des Studiums an der TFH Wildau entwickelt.
Für die Regelung inhaltlicher und organisatorischer
Rahmenbedingungen der internen Evaluation wurde eine
zentrale Evaluationskommission unter Leitung des Vizepräsidenten Qualitätssicherung gebildet, welcher mittlerweile als fester Bestandteil in der Aufbauorganisation der
TFH Wildau verankert ist. Das interne Evaluationssystem
umfasst die Evaluationsarten:
– studentische Lehrevaluation
– Dozentenbefragung
– Kennzahlenbewertung
– Fachevaluation. [3]
2.2 Evaluierung
Die Evaluierung ist ein periodisch/zyklisch und/oder anlassbezogen genutztes Verfahren der Qualitätssicherung
zur Analyse, Bewertung und Förderung der Qualität der
Lehre im Hochschulwesen. Neben hochschulinternen
Qualitätslenkungsmechanismen (Korrektur- und Verbes-
TFH Wildau, Wissenschaftliche Beiträge 2006
serungsmaßnahmen) bietet sie damit Vorraussetzungen
für den Leistungsvergleich mit anderen Hochschulen und
kann (soll) bei der leistungsorientierten Mittelzuweisung
(hochschulintern und -extern) berücksichtigt werden. Evaluation wird so zum Entwicklungsfaktor (Organisations/Strategieentwicklung, Mittelverteilung) der Hochschule,
erhöht die Transparenz der Lehr- und Studienprozesse und
stärkt die Eigenverantwortung der Hochschule.
Wesentliche Managementaufgaben des TQM an der
TFH Wildau sind das Erfassen der Zufriedenheit der Studenten und Mitarbeiter (Dozenten, Professoren) und das
Ableiten und Umsetzen von Maßnahmen. [3]
2.2.1 Studentische Evaluierung
Die Evaluierung der Lehre an der TFH Wildau ist eine Umfrage zu einzelnen Vorlesungen, die jeweils gegen Ende der
Vorlesungszeit mit Hilfe von Fragebögen durchgeführt wird.
Bei der studentischen Evaluierung von Lehrveranstaltungen geht es darum festzustellen, ob der Dozent seine Ziele
sinnvoll gewählt hat und ob die Methoden des Dozenten
dazu geeignet sind, diese Ziele zu erreichen. Oberstes Ziel
der Evaluierung ist die Verbesserung der Qualität der Lehre,
darunter werden mehrere Zielsetzungen verfolgt:
1. ein zeitnahes Feedback der Studierenden an die Dozenten
2. Analyse der Lehr- und Lernsituation in den Studiengängen
3. Erkennen von Potenzialen für Verbesserungen der Lehrund Lernsituation
4. Vergleich der Evaluationsergebnisse für Studiengänge
über mehrere Semester
5. Umsetzen von geeigneten Maßnahmen in den Fachbereichen und an der Hochschule.
Die Studierenden sind die Zielgruppe der Lehrveranstaltungen. Zufriedene Studenten werden durch hohe
Lehrqualität, die eine regelmäßige Kontrolle und stetige
Verbesserung erfordert, gewonnen. [3]
3 Ausgangssituation und Anforderung
3.1 Klassische Durchführung der studentischen
Lehrevaluation an der TFH Wildau
Mit Hilfe eines klassischen Erhebungsbogens wurden
erstmals im Sommersemester 2003 Meinungen der
Studierenden, studienfachgebunden in der letzten Lehrveranstaltung des Semesters, erhoben. Grundlage der
Durchführung waren die Verteilerlisten für die einzelnen
Fachbereiche. Auf deren Basis wurde ein entsprechender
Druckauftrag sowie ein Beschaffungsauftrag für Materialien
erteilt. Das umfangreiche Sortieren, Klammern, Eintüten
der Erhebungsbögen sowie deren Beschriftung auf Basis der
Verteilerlisten erfolgte durch die Autoren des TQM. Diese
75
Bögen wurden in den jeweiligen Dekanaten zur Abholung
durch die Dozenten bereitgestellt. Diese Planung und
Durchführung vollzog sich innerhalb eines Semesters.
Nach Ablauf des Erhebungszeitraumes wurde anhand
der Verteilerliste der Rücklauf überprüft. Die Bögen wurden
eingelesen und es erfolgte die Erstellung der fachbereichsspezifischen Auswertungsunterlagen. [3]
3.1.1 Schwächen
1 Die Planung, Durchführung und Auswertung der
schriftlichen Lehrevaluation bedarf eines sehr hohen
Kapazitätsbedarfs (Material und Papier)
2 Manuelles Papierhandling und Archivierung erfordert
zusätzliche Ressourcen und ist fehleranfällig.
3 Aufgrund des vom Direktstudium abweichenden Studienablaufs und des daraus resultierenden erhöhten
Kapazitätsaufwandes ist die Durchführung der Evaluation des Fernstudiums verschoben worden. Zu dem
bestehenden Aufwand der Fernevaluierung führte die
nachträglich organisierte Evaluierung und Auswertung
zu einem erheblichen Mehraufwand.
4 Durch den festgelegten terminlichen Ablauf konnten
dual-orientierte Studiengänge nicht evaluiert werden.
Die Evaluierung wurde durch die Studiengangkoordinatoren unabhängig organisiert. Die Ergebnisse waren
daher nicht Bestandteil der gesamten Evaluation. Die
Erhebungsbögen mussten separat von den übrigen statistisch ausgewertet werden. Insgesamt hatte dies einen
beträchtlichen Personalmehraufwand zur Folge.
5 Seminargruppen, welche sich in der Diplomphase
befanden, wurden ebenfalls zum genannten Zeitpunkt
nicht erfasst. Hier vollzog sich die Handhabung wie
unter Punkt (3).
6 Das Programm zur statistischen Auswertung ist bezüglich der Auswahl spezifischer Auswertungsparameter
sehr unflexibel.
7 Eingetütete Erhebungsbögen wurden z.T. nicht selbständig durch die Dozenten im Dekanat abgeholt, dadurch
entstand für die Mitarbeiter in den Fachbereichsdekanaten ein entsprechender Mehraufwand.
3.2 Bedarf
Um diesen Schwächen entgegenzuwirken, wurde die Anwendung der Methode „Online-Befragung“ anstelle der
schriftlichen Befragung vom TQM Team analysiert und
die Anforderung dem Studiengang Telematik der TFH
Wildau übermittelt.
Das Hauptanliegen war, eine höhere Effektivität der
studentischen Evaluation zu erreichen. Da die Evaluation
begleitend zu allen anderen Aufgaben durchgeführt wird,
sollte der Aufwand für die Vorbereitung, Durchführung
und Auswertung deutlich reduziert werden und die Auswertung zeitnah den Dozenten zur Verfügung gestellt
werden.
4 Projektbeschreibung
Um den Evaluierungsprozess effizienter, flexibler und
zeitunabhängiger zu gestalten, wurde das „Webbasierte
Evaluationssystem“ vom Studiengang Telematik ent-
76
wickelt. Es handelt sich dabei um ein Umfrage-System
zur elektronischen und webbasierten Unterstützung der
gesamten Lehrevaluation. (Abb. 4.1)
Abb. 4.1: Aufbau des Webbasierten Evaluationssystems
Die wesentlichen Charakteristika sind:
– wahlweise papiergebundenes oder papierloses webbasiertes System,
– anonyme Befragung,
– effiziente und automatisierte Lehrevaluation,
– zeitsparende, einfache Vorbereitung und Auswertung.
Durch unterschiedliche Mechanismen für die Datensicherheit und den Datenschutz kann das webbasierte
Evaluierungssystem als 100 % anonym gelten. Es besitzt
eine differenzierte Nutzer- und Rollenverwaltung für
Administratoren, Dozenten/Mitarbeiter und die (Hochschul-)Leitung. Verschiedene Administratorrollen und
mehrstufige Zugriffsrechte erlauben es, intern festzulegen, welche Rolle welche Zugriffsrechte hat (z. B.: Dekan:
Einsicht in alle Auswertungen nur der Dozenten seines
Fachbereiches durch entsprechendes Ein- bzw. Ausblenden
der Dozentennamen).
Unmittelbar nach der Abgabe der Bewertungen
durch die Studierenden und Datenerfassung der Fragebögen besteht die Möglichkeit, über passwortgeschützte
Dozenten- und Benutzerkonten Einsicht in die Ergebnisse
der Evaluation zu nehmen (sofern vom Administrator der
entsprechende Zugriff freigegeben wurde).
4.1 Einführungsphase an der TFH Wildau und
erkannte Probleme
Die Lehrevaluation mit dem webbasierten System wurde
vom 03.01. bis 14.01.2005 innerhalb des Direktstudiums
Wintersemester 04/05 erstmalig ausschließlich online
durchgeführt. Um eine hohe Beteiligung zu erzielen,
wurden den Seminargruppen PC-Labore zugeteilt. Im
Sommersemester 2005 erfolgte die Evaluation, wiederum
ausschließlich online, nach dem Bedarf der Fachbereiche.
Eine durchgängige Online-Evaluation in den PC-Laboren der TFH hätte einen ähnlich hohen Aufwand in der
Raumplanung wie im WS 04/05 erfordert. Basierend auf
den Erfahrungen und Rückmeldungen der Professoren,
Lehrbeauftragten und Studenten im WS 04/05 wurden
Veränderungen im Ablauf vorgenommen, der Fragebogen
überarbeitet und gekürzt sowie das System bezüglich der
Einsatzmöglichkeiten weiterentwickelt.
TFH Wildau, Wissenschaftliche Beiträge 2006
In diesem Wintersemester wurde die Evaluation in der Zeit
vom 12.12.2005 bis 13.01.2006 durchgeführt. Durch die
Weiterentwicklung des Evaluierungssystems konnte den
Dozenten die Möglichkeit angeboten werden, die Evaluation auch mit vollautomatisch scannbaren Fragebögen
durchzuführen (Abb. 4.2). [2]
Abb. 4.2: Ausschnitt des scannbaren Fragebogens mit Barcode
4.2 Ablauf und Funktionsweise der Lehrevaluation
mit dem Evaluierungssystem
Die Evaluierung der Lehre an der TFH Wildau wird immer
gegen Ende der Vorlesungszeit durchgeführt. Folgende
Möglichkeiten zur Evaluierung bestehen:
– die Bewertung während der Lehrveranstaltung am PC
mit Code
– die Bewertung während der Lehrveranstaltung mit
Fragebögen
– die Bewertung außerhalb der Lehrveranstaltung am PC
mit Code.
Die ausschließlich webbasierte Befragung bietet sich besonders für Veranstaltungen im EDV-Bereich an. Über das
Internet können Teilnehmer mit einem Berechtigungscode
Formulare ausfüllen und so papierlos an der Befragung
teilnehmen. Zudem kann bequem von zu Hause aus der
Online-Fragebogen ausgefüllt werden. (Abb. 4.3)
Der Vorteil der papiergebundenen Umfrage ist die
Unabhängigkeit von EDV-Infrastruktur und der dadurch
mögliche universelle Einsatz in allen Fachbereichen der
Hochschule (z.B. in beliebigen Seminarräumen). [1] [2]
Abb. 4.3: Screenshot: Editierbarer Online-Fragebogen
4.2.1 Erstellen der Codes/Fragebögen
Ein Fachbereichs- oder Studiengangsadministrator kann
Lehrveranstaltungen beim System anmelden, wobei er
nur den Namen der Lehrveranstaltung, die Studiengruppe,
TFH Wildau, Wissenschaftliche Beiträge 2006
die Lehrkraft und die Zahl der Teilnehmer angeben muss.
Das System generiert daraufhin für jede Lehrveranstaltung
einmal verwendbare Teilnehmercodes in druckbarer Form
bzw. Fragebögen, die mit einem Barcode gekennzeichnet
sind. Die Anzahl der Codes/Fragebögen entspricht der
eingegebenen Seminargruppenstärke.
Die Seminargruppensprecher bzw. die Professoren
erhalten nach dem Ausdruck die Codes/Fragebögen in
verschlossenen Umschlägen und diese Codes werden im
Losverfahren an die Teilnehmer der Lehrveranstaltung
verteilt. Die Studierenden loggen sich mit ihrem Zugangscode ein und können den Fragebogen anschließend entweder im Rechnerlabor oder von irgendeinem anderen
internetfähigen PC aus (z. B. auch ungestört zu Hause)
bearbeiten und abschicken. Die Fragebögen werden ebenfalls in der Lehrveranstaltung verteilt, von den Studenten
ausgefüllt, eingesammelt und in einem verschlossenen
Umschlag an das TQM zurückgegeben. Die ausgefüllten
Fragebögen werden mit Scannern und einer in das System
integrierten Bildverarbeitungsapplikation erfasst und von
dieser automatisch in die zentrale Datenbank eingepflegt.
Jeder Code bzw. Fragebogen kann nur einmal verwendet
werden. Dadurch wird sichergestellt, dass Studierende
keine Mehrfachbewertungen abgeben können.
Durch dieses Verfahren ist die Anonymität der Studierenden nicht nur gewährleistet, sie ist durch die beschriebene Vorgehensweise auch transparent. Es gibt zu keinem
Zeitpunkt eine Verknüpfung zwischen dem Zugangscode
und persönlichen Informationen (wie z.B. Email-Adresse,
Matrikelnummer), die Studierende bei der Abgabe ihrer
Bewertung verunsichern könnte. [1] [2]
4.2.2 Auswertung
Sofern vom Hochschul-Administrator der entsprechende
Zugriff freigegeben wurde, können Dozenten, Dekane
und die Hochschulleitung gemäß ihren Berechtigungen
unmittelbar nach Abgabe der Bewertungen online Einsicht
in die Auswertung nehmen. Dafür stehen drei verschiedene Auswertungsvarianten zur Verfügung (die jedoch vom
Hochschul-Administrator ganz oder teilweise vorübergehend deaktiviert werden können, z.B. während einer
Prüfungsphase):
1 Auswertung einer Lehrveranstaltung: zeigt zu jeder
Einzelaussage des Fragebogens die Häufigkeiten der
einzelnen Antworten (1 bis 7) an. (Abb. 4.4)
2 Gesamtbewertung eines Dozenten: zeigt ebenfalls die
Liste aller Aussagen des Fragebogens, jedoch gehen hier
nicht die Bewertungen nur einer Lehrveranstaltung,
sondern aller Lehrveranstaltungen dieses Dozenten
(im jeweiligen Semester) ein. (Abb. 4.5)
3 Dozentenvergleich: erzeugt eine Vergleichsliste entweder aller Lehrkräfte eines Fachbereichs oder der
gesamten Hochschule, die entweder alphabetisch
sortiert (Abb. 4.6) oder als Rangliste entsprechend dem
Bewertungsergebnis ausgegeben werden kann.
Für jeden Dozenten wird zu jeder Frage der Median sowie
das Quantil als Referenzparameter ermittelt und farblich
dargestellt. Für jeden Studiengang und Fachbereich werden außerdem pro Frage die Mediane über alle Lehrveranstaltungen der Einheit errechnet, um einen Vergleich zu
ermöglichen. [1] [2]
77
Abb. 4.4: Screen Shot, Auswertung: Lehrveranstaltung
Abb. 4.5: Screen Shot, Auswertung: Gesamtbewertung eines Dozenten
4.3.1 Datensicherheit
Das System hält sämtliche Daten in einer leistungsfähigen
Datenbank, so dass außerhalb dieser Datenbank zu keinem
Zeitpunkt evaluationsrelevante Daten gehalten werden,
auch keine Auswertungs- oder Zwischenergebnisse. Der
Hauptgrund dafür ist eine sichere und konsistente Datenhaltung. Durch Integration des Datenbankservers in den
Backup-Prozess des Rechenzentrums wird die Datensicherheit gewährleistet.
Das System legt in der Datenbank keine Auswertungsdaten ab, sondern ausschließlich die Original-Bewertungen
der Studierenden. Auswertungen werden daraus zur Laufzeit (on-the-fly) generiert, wenn sie angefordert werden.
Sämtliche Bewertungsdaten bleiben in der Datenbank
auch nach Ablauf eines Semesters bestehen, so dass Auswertungen noch zu einem viel späteren Zeitpunkt möglich
sind, und zwar für alle Nutzergruppen. Damit wird auch
die Revisionssicherheit gewährleistet. [1]
4.3.2 Datenschutz
Ein weiterer wichtiger Aspekt ist der Datenschutz der Dozenten. Jede Lehrkraft erhält einen eigenen Account für
den Zugang zum System, mit dem Auswertungen eigener
Lehrveranstaltungen eingesehen werden können, jedoch
nicht die anderen Lehrkräfte. Vergleichende Darstellungen
werden (soweit überhaupt vom Administrator freigeschaltet) anonymisiert, d.h. alle Dozentennamen (außer dem
eigenen) werden ausgeblendet.
Das Zugangssystem verwendet eine sichere 128-Bit
Passwortverschlüsselung mit Hilfe eines Hash-Verfahrens (Einweg-Verschlüsselung). Auf diese Weise können
Passwörter nicht rekonstruiert werden, nicht einmal
vom Datenbank-Administrator. Falls eine Lehrkraft ihr
Passwort vergisst, muss vom Administrator oder vom
System ein neues Passwort generiert werden. Die Standard-Option sieht vor, dass das Passwort vom System
zufällig erzeugt und dann automatisch per Email an die
Lehrkraft gesendet wird. Lehrkräfte können ihr Passwort
jederzeit ändern. [1]
Abb. 4.6: Screen Shot, Auswertung: anonymer Dozentenvergleich
4.3.3 Nutzer- und Rollenverwaltung für Administratoren und Dozenten
Mit der differenzierten Nutzer- und Rollenverwaltung
für Administratoren und Dozenten kann ein DozentenAdministrator Accounts für die Dozenten einrichten.
Ein Fachbereichs- oder Studiengangsadministrator kann
Lehrveranstaltungen beim System anmelden, wobei er
nur den Namen der Lehrveranstaltung, die Studiengruppe,
die Lehrkraft und die Zahl der Teilnehmer angeben muss
(alternativ kann dies auch von einem Hochschul-Administrator zentral für alle Lehrveranstaltungen gemacht
werden). [1]
4.3 Datensicherheit und Datenschutz
Das webbasierte Evaluationssystem ist mit unterschiedlichen Mechanismen für die Datensicherheit, insbesondere einem Zugriffsschutz ausgestattet. Ein durchdachtes
Rechte- und Rollenmodell für Administratoren, Personen
der Hochschulleitung und Dozenten sowie die sichere Aufbewahrung der Umfragedaten gewährleisten den Schutz
vor Missbrauch.
4.4 Anonymität
Ein wesentliches Kriterium für die Aussagekraft eines
jeden Evaluationsverfahrens ist die Unbefangenheit der
teilnehmenden Bewerter (in diesem Fall der Studierenden). Um diese Unbefangenheit zu gewährleisten, ist
es erforderlich, dass das Evaluationsverfahren vollständig anonym ist. Anonymität bedeutet hier, dass keine
Lehrkraft in der Lage sein darf, herauszufinden, welche
78
TFH Wildau, Wissenschaftliche Beiträge 2006
Bewertung ein einzelner Student abgegeben hat. Dies wird
im System dadurch gewährleistet, dass ein Student in der
Datenbank nicht namentlich hinterlegt wird, sondern
nur als anonymer Datensatz. Selbst der zugehörige Teilnehmercode für den sicheren Zugang zum System wird
unmittelbar nach Abgabe der Bewertung aus der Datenbank gelöscht, so dass es nicht einmal bei Kenntnis des
von einem Studierenden verwendeten Teilnehmercodes
möglich ist, dessen Bewertung zu ermitteln, auch nicht
bei vollem Administrator-Zugriff auf die Datenbank. Das
System kann deshalb als 100 % anonym gelten.
Darüber hinaus sollte die Anonymität nicht nur sichergestellt, sie sollte für die Bewerter auch transparent
sein. Wegen der oben beschriebenen Vorgehensweise wäre
das System beispielsweise auch dann anonym, wenn die
Teilnehmercodes per Email an die Studierenden verschickt
würden, da die Codes ja nach Abgabe der Bewertung aus
der Datenbank gelöscht werden. Für die Studierenden
wäre diese Anonymität aber nicht transparent. Es würde
ein Zusammenhang zwischen ihrem Zugangscode und
einer eindeutigen Kennung ihrer Person (nämlich ihrer
Email-Adresse) hergestellt. Sie können nur „glauben“, dass
niemand diesen Zusammenhang missbraucht, sicher wissen können sie es nicht. Einem Studierenden, der seinen
Zugangscode per Email erhält, kann die Anonymität nicht
transparent erscheinen, da bereits die Email selbst eine Verbindung zwischen seiner Identität und dem (vermeintlich
anonymem) Code darstellt. Zumindest das versendende
System muss also die Verbindung kennen. Die einzig wirklich sichere (und psychologisch überzeugende) Variante
ist deshalb die, die Studierenden selbst die Zuordnung
zwischen sich und den Codes (und zwar unbeaufsichtigt)
vornehmen zu lassen, d.h. durch Verlosen der Codes. Aus
diesem Grund haben bei diesem System die Studierenden
die Anonymisierung selbst in der Hand. [1]
5 Softwaretechnische Entwicklung, Technisches Umfeld, Tests und Installation
Der Weg zur Softwarelösung war und ist durch enge Abstimmung mit dem Qualitätsmanagement der TFH Wildau
geprägt. Nur so konnte sichergestellt werden, dass eine
Anwendung entwickelt wurde, die den Anforderungen
gerecht wird und sich in der Praxis bewährt.
Bei der Entwicklung der Internetapplikationen wurde
konsequent auf moderne und leistungsfähige Technologien sowie ausgereifte Open Source Frameworks gesetzt. Auf
dieser Basis wird eine breite Palette von Systemplattformen
und Schnittstellen unterstützt und die bestmögliche Integration der Applikation in bestehende Infrastrukturen und
eine nachhaltige Wartbarkeit gewährleistet.
Das webbasierte Evaluationssystem ist modular und
wurde in der plattformunabhängigen Sprache „Java“ entwickelt. Die Web-Applikation baut auf den Frameworks
Turbine und Torque auf und ist auf jedem browserfähigen
Rechner bedienbar.
Turbine ist ein servletbasiertes, als Open Source
verfügbares MVC-Framework (MVC = Model View Controller) zur Erstellung von leistungsfähigen und robusten
Webapplikationen. Die Idee des MVC-Musters ist die
TFH Wildau, Wissenschaftliche Beiträge 2006
Trennung von Anzeige (View), Daten (Model) und der
Steuerung (Controller). Torque ist als Persistenzschicht
das Bindeglied der Applikation zum jeweils verwendeten
Datenbanksystem.
Die Scanner-Anwendung ist eigenständig und wurde
mit SWT (Standard Widget Toolkit) entwickelt. Darin integriert ist die Bildverarbeitung, welche die eingescannten
Barcodes und die Kreuze auf den Papierfragebögen automatisch erkennt, auswertet und über eine eigene HTTPSchnittstelle zum Evaluationsserver sendet.
Im Sommersemester 2004 wurde das System im Studiengang Telematik erfolgreich getestet. Hierbei wurden die
technischen Kapazitäten der Telematik-Labore genutzt. Im
Wintersemester 2004/2005 konnte die Anwendung hochschulweit eingeführt werden. Die Testläufe ergaben keine
technischen Probleme, so dass das System am Hochschulrechenzentrum integriert werden konnte und nun dort
gehostet und gepflegt wird.
6 Projektergebnis
Die Anforderungen an das System und die Auswertung
sind mit diesem Projekt vollständig erfüllt worden. Die
entwickelte Software versetzt das TQM in die Lage, groß
angelegte Evaluationen von Lehrveranstaltungen, Studiengängen und Fachbereichen ohne langwierige Erfassungs- und Auswertungssaufwände und mit einem hohen
Automatisierungsgrad abzuwickeln. Gleichzeitig bleibt die
Flexibilität gewährleistet, jederzeit neue Fragebögen zu integrieren und außer der Hauptanwendung Lehrevaluation
auch andere Befragungsfelder zu bearbeiten. Neben der
Onlinebefragung kann es auch für die Verarbeitung von
Papierfragebögen eingesetzt werden. Der Personalaufwand
reduziert sich auf ein Minimum und die Software erstellt,
vollautomatisiert, sofort nach dem Bewerten die statistische Auswertung in übersichtlicher Form für Dozenten
und die administrativen Organe.
Zur Etablierung des Systems an der TFH Wildau trugen
im Wesentlichen folgende Punkte bei:
– Die Integration des webbasierten Evaluationssystems in
den Evaluierungsprozess der Hochschule,
– dessen stetige Weiterentwicklung und
– seine Anpassung an die konkreten Bedürfnisse der Hochschulorganisation.
Dies wirkte sich auch auf die Umfragebeteiligung aus,
die von 51,3 % im Wintersemester 2004/05 auf 62 % im
Wintersemester 2005/06 anstieg.
7 Weitere Planung
Es ist geplant, das System im gesamten internen Hochschulnetzwerk, incl. der angegliederten Institutionen (Weiterbildung, Fernstudium), einzusetzen. Die im Rahmen des TQM
durchgeführten Evaluationen (Evaluierungsarten) weisen
Entwicklungspotentiale auf, welche den Einsatz und Weiterentwicklung dieses Systems begründen. Bei der traditionellen Dozentenbefragung sowie der Absolventenbefragung
treten ähnliche Schwächen und Probleme auf wie in der
studentischen Evaluation (siehe Kapitel 3.1.1 Schwächen).
79
Aufgrund des sehr hohen Kapazitätsbedarfs bezüglich der
Planung, Durchführung und Auswertung der Dozentenbefragung wurde analog zur studentischen Lehrevaluation die
Methode „Online-Befragung“ analysiert. Gegenwärtig wird
der Einsatz des flexibel (u. a. individuelle Fragebogengestaltung) auf die Bedürfnisse anpassbaren Systems geplant und
vorbereitet.
In Bezug auf das Fernstudium an der TFH Wildau
wurde der Online-Fragebogen inhaltlich angepasst und
zum Wintersemester 2005/2006 den Fernstudierenden
angeboten. Nicht nur angesichts der Tatsache, dass Fernstudenten für ihr Studium bezahlen, wird von ihnen eine
qualitativ hochwertige Ausbildung erwartet. Sie sind außerdem vielfach Multiplikatoren, deren Meinung über die
TFH Wildau und die dort vorgefundene Studienqualität
ganz wesentlich das Image der Hochschule in der Gesellschaft prägt. Um diese Qualität zu messen, bietet sich die
Online-Befragung mit dem vorgestellten System in idealer
Weise an.
Autoren
Prof. Dr. rer. nat. Ralf Vandenhouten
[email protected]
Miriam Selz, B. Eng.
[email protected]
Technische Fachhochschule Wildau
Fachbereich Ingenieurwesen/Wirtschaftsingenieurwesen
Studiengang Telematik
Tel. +49 3375 508-359, -616
Referenzen
[1] Ralf Vandenhouten, Dokumentation des webbasierten Evaluationssystems, „Evalus“ Version 3.0, 2004-2005
http://eval.tfh-wildau.de:8080/evaluation/
[2] Internetanwendung „Evalus“ Version 3.0, 2004-2005,
http://eval.tfh-wildau.de:8080/evaluation/
[3] Andrea Schmid, Ziele und Aufgaben des TQM an der TFH
Wildau,
http://www.tfh-wildau.de/tqm
[4] Beschluss: 3. Juli 1995, Zur Evaluation im Hochschulbereich
unter besonderer Berücksichtigung der Lehre, Entschließung
des 176. Plenums vom 3. Juli 1995, http://www.hrk.de
[5] Beschluss: 21./22. Februar 2000, Evaluation der Lehre – Sachstandsbericht mit Handreichungen, vom 190. Plenum am
21./22. Februar 2000 zur Kenntnis genommen,
http://www.hrk.de
80
TFH Wildau, Wissenschaftliche Beiträge 2006
Projektstudie zum Logistik- und Technologiekonzept
für eine Drehautomatenfertigung
Robert Deininger
1. Einleitung
Im Rahmen der Lehrveranstaltung Produktionslogistik des
Studienganges Unternehmenslogistik erhielt unser Projektteam den Auftrag zur Entwicklung eines Technologie- und
Logistikkonzeptes für die Montage von Drehautomaten
mit integrierter Farbgebung und Verpackung einschließlich
der Erstellung der Konzeption für die Montagehalle.
Das Projektteam bestand aus 5 Studenten des Studienganges Logistik der Technischen Fachhochschule Wildau.
Die Projektarbeit wurde durch Herrn Robert Deininger geleitet. Die Systemanalyse sowie die Prozessbeschreibung
wurde unter Verantwortung von Herrn Sebastian Forkert
erstellt. Das Hallenlayout und die Erfassung der Basisdaten
erfolgte unter Leitung von Herrn Dirk Ryborz. Die weiteren
Teammitglieder Frau Silvana Adolph und Herr Jan-Jaap van
Wikselaar wurden bedarfsweise in die Bearbeitung einzelner Aufgaben eingebunden. Die Betreuung des Projekts
erfolgte durch den Dozenten der TFH Wildau, Herrn Prof.
Dr.-Ing. habil. Bernd Hentschel.
Als wesentliche Ausgangsdaten waren die Hallenabmessungen sowie die Takte der einzelnen Montageschritte
gegeben. Ferner standen folgende Ausgangsprämissen zur
Verfügung:
– Anzahl der Tore für die Anlieferung von Baugruppen
– Anzahl der technologischen Stationen der Montage
– Anzahl der Arbeitskräfte pro Montagetakt
– Montagezeiten je Arbeitsgang
– Erzeugnisspezifische Vorgaben für die einzelnen Baugruppen (Maße, Gewichte)
– Standzeiten für Grundierung und Lackierung sowie
Trocknung der Baugruppen
Ferner sollte nach Möglichkeit auf Zwischenlagerstufen
verzichtet und ein Anlieferkonzept für die Baugruppen auf
Just-in-Time oder Ship-to-Line Basis erstellt werden.
2. Technologischer und Logistischer Ablauf
Der technologische Ablauf beschreibt die Verrichtungsfolge in der bestimmte Tätigkeiten auszuführen sind. Die
Technologie bestimmt dabei die erreichbare Produktivität
qualitativ als auch quantitativ. Unter Technologie versteht
man damit die Gesamtheit der Verfahren zur Produktion
und der zur Verfügung stehenden Mittel.
Der Bereich Logistik beschreibt alle Zwischenschritte
der Fertigung. Damit umfasst die Logistik alle Aktivitäten
im physischen Raum zur Zeitüberbrückung von Gütern
und Personen, einschließlich deren Umgruppierung. Der
technologisch-logistische Ablauf beschreibt damit wie
eine Art Prozessbeschreibung alle Aktivitäten in deren
Verrichtungsfolge mit deren Normzeit zur Verrichtung
TFH Wildau, Wissenschaftliche Beiträge 2006
der Montage- und Handlingschritte. Zusätzlich wurden
die Anzahl der notwenigen Arbeitskräfte für den jeweiligen
Arbeitsschritt ermittelt.
Als Hilfsmittel standen Programme wie Microsoft Excel
und Microsoft Projekt zur Verfügung. Zur Erstellung eines
Gesamtkonzeptes wurden alle Teilabläufe einschließlich
aller Teilschritte von der Anlieferung bis zur Endmontage
zeitlich und räumlich zugeordnet.
Von der Baugruppenanlieferung bis zur Fertigstellung
des Drehautomaten wurden so ca. 200 Schritte zeitlich und
räumlich erfasst. Dies wird am Beispiel der Anlieferung der
Baugruppen für ein Los von 3 Drehmaschinen-Unterkästen
dargestellt (Abb.1).
Abb. 1: Technologisch-logistischer Ablauf
In dieser Abbildung sind die einzelnen technologischen
Schritte ihrer Ausführung nach sowie die Abfolge der
logistischen Abläufe dargestellt. Analog wurde diese
Analyse für alle übrigen Teilschritte des Produktionsprozesses betrachtet. Durch diese Prozessbeschreibung ist für
jeden Mitarbeiter erkennbar, welche Schritte er wann, in
welcher Zeit und an welchem Ort zu erfüllen hat. Für den
Mitarbeiter ist damit auch erkennbar, welchen Teil er im
Gesamtprozess darstellt und welche Schritte ihm vor- und
nachgelagert sind. Dadurch ist eine Standardisierung der
Abläufe möglich. Die Prozesse werden transparent und sie
können auf dieser Grundlage optimiert, verändert oder
neu gestaltet werden. Durch die Prozessanalyse des technologisch-logistischen Ablaufes werden auch Probleme
visualisiert und können mit einem systematischen Problemlösungsverfahren untersucht werden. Dabei wurden
folgende Grundsätze für die Lösung angewandt.
1 Problem analysieren
2 Ursache- Wirkungsprinzip anwenden, d. h. alle Einflüsse
auf das Problem erfassen
3 Maßnahmen für die Lösung generieren und anwenden
4 Erfolg der Problemlösung prüfen
81
Der technologisch-logistische Ablauf stellt damit die Gesamtheit aller theoretischen Untersuchungen zum Prozess
der Drehautomatenfertigung dar und ist die Grundlage der
weiteren Arbeit für die Produktionsplanung.
Takt 5
Takt 6
3. Lösungskonzept
Die Betrachtung einer möglichen Lösung erfolgte durch
Variantenanalyse mit der die Kenngrößen Platzbedarf,
Rüstzeit, Standzeit und Transportgeschwindigkeit verglichen wurden.
Die Variantenanalyse erfolgte dabei auf der Grundlage der
gegebenen Fertigungstakte:
Takt 1
Takt 2
Takt 3
Takt 4
Anlieferung des Unterkastens im Wareneingang.
Sichtkontrolle, mechanische Kontrolle, Dichtheitskontrolle
(Ultraschall).
Zwischenlagerung im Pufferlager bzw. Transport zum
1. Montageplatz. Anlieferung Räderkasten, Spindelkasten,
Oberteil (Anlieferkonzept: Just-in-Time)
Zeitansatz 60 min / 1 Arbeitskraft
Ausrichtung des Unterkastens in Waage-Justage auf dem
Transportsystem
Verbohren und Verschrauben des Räderkastens mit dem
Spindelkasten
Zeitansatz 90 min / 1 Arbeitskraft
Einbau der Spindeltrommel und Laufprüfung
Zeitansatz 300 min / 2 Arbeitskräfte
Einbau des Antriebsmotors und der Drehzahlwechselräder
Zeitansatz 240 min / 1 Arbeitskraft
Montage von Mittelwelle, Hauptschlitten, Schneckenwelle
und oberer Steuerwelle einschließlich der Funktionsprüfung
Zeitansatz 1170 min / 1 Arbeitskraft
Takt 7
Takt 8
Takt 9
Takt 10
Takt 11
Takt 12
Takt 13
Takt 14
Takt 15
Takt 16
Montage Kurvenscheibe für Oberschlitten und ggf.
Kurventrommel für unabhängige Vorschubeinrichtung
Zeitansatz 420 min / 1 Arbeitskraft
Montage untere Steuerwelle, Schaltung für Spindeltrommel,
Kurvenscheiben für Unter- und Seitenschlitten, Schneckenwelle für unteren Steuerwellenantrieb, Kurventrommel für
unabhängigen Vorschub
Zeitansatz 900 min / 2 Arbeitskraft
Montage Pumpenkombination
Zeitansatz 180 min / 1 AK
Ein und Testlauf des Drehautomaten
Zeitansatz 2280 min / 1 Arbeitskraft
Transport des Drehautomaten mit Hilfe des
Transportsystems zur Farbvorbehandlung
Zeitansatz 180 min / 1 Arbeitskraft
Farbvorbehandlung des Drehautomaten (Spachteln,
Schleifen und Abkleben)
Zeitansatz 360 min / 2 Arbeitskräfte
Antransport des Drehautomaten in die Farbgebung
Spritzen des Vorlack
Zeitansatz 270 min / 1 Arbeitskraft
Transport in die Trockenkabine und Trocknen
Zeitansatz 60 min / 1 Arbeitskraft
Optische Prüfung und Transport Transport zum zweiten
Spritzen
Zeitansatz 60 min / 1 Arbeitskraft
Einfahren des Drehautomaten in die Spritzkabine und
Spritzen des Decklack
Zeitansatz 60 240 min / 1 Arbeitskraft
Transport in die Trockenkabine und Trocknen
Zeitansatz 60 min / 1 Arbeitskraft
Bereitstellung des Drehautomaten zur Verpackung
Verpackung des Drehautomaten
Zeitansatz 360 min / 2 Arbeitskräfte
Verladung der Maschinen
Zeitansatz 20 min / 1 Arbeitskraft
Abb. 2: Hallengrundriss
82
TFH Wildau, Wissenschaftliche Beiträge 2006
Nach der Analyse der einzelnen Takte wurde mit der
Planung des Hallen-Layouts auf der Grundlage der vorgegebenen Hallendaten begonnen. Für die Erstellung der
Hallenskizzen standen die Programme AutoCAD und
Mircosoft Viso zur Verfügung. Aufgrund von vorliegenden
Studienkenntnissen und dem engen Zeitfenster wurde das
System Microsoft Visio verwandt. Folgende Hauptparameter der zweischiffigen Halle waren dabei gegeben: Länge 96
m, Breite 2x18 m mit 6 m Stützenabstände in Längsrichtung. Den damit erstellten Hallengrundriss zeigt Abbildung
2. In den damit erstellten Hallenplan wurde zentral der
Bürobereich und in der zweiten Ebene der Leitstand der
Halle vorgesehen.
Da der Hallengrundriss die physische Grenze der Produktionskapazität bildet, wurden mehrere Varianten mit
dem Ziel untersucht, auf der Grundlage der gegebenen
Basisdaten und der gegebenen Mittel das Maximalprinzip
durchzusetzen, d.h. das größtmögliche Ergebnis zu erreichen. Um den Logistikaufwand so gering wie nötig zu
halten, wurde die Montage als Fließfertigung gewählt. Da
die Qualität des Erzeugnisses von entscheidender Bedeutung ist, wurden die Grundsätze des Qualitätsmanagement
konsequent berücksichtigt.
3.1 Auswahl der Technologien
Da die in der Fertigung befindlichen Maschinen bei Störungen nur mit extrem großem Handling-Aufwand aus
der Montagelinie zu nehmen sind, wurde die Möglichkeit
des Kraneinsatzes untersucht. Mit einem Brückenkran
können Lasten in alle drei Achsrichtungen gleichzeitig
bewegt werden. Das Arbeitsfeld des Kranes wird nur durch
die Abmessungen von Laufkatze, Kranbrücke, Fahrwerke
und Seilantrieb eingeschränkt. Die Ausrüstung der Halle
mit Kranbrückenträgern ist möglich. Ein Kran ermöglicht
auch das in Takt 1 beschriebene Umsetzen der angelieferten Großteile vom Lastkraftwagen auf das Transportsystem. Des weiteren ist es möglich am Montageplatz 1 mit
Hilfe des Kranes ohne zusätzlichen Aufwand Montageteile
wie z.B. den Spindelkasten am Unterkasten zu montieren.
Durch weitere Untersuchungen der notwendigen Transport- und Umsetzungsanforderungen wurde der Einsatz
von vier Brückenkransystemen mit je 32 t Tragfähigkeit
konzipiert.
Ein reibungsloses Handling innerhalb der Produktion
erfordert ein Transportsystem, dass die Anforderungen der
Produktion vollständig erfüllt.
In einer Variantenuntersuchung wurden die Leistungsparameter sowie Vor-und Nachteile der möglichen Transportsysteme verglichen. Auf dieser Grundlage wurde ein
flurgebundenes Transportsystem als effizienteste Lösung
ermittelt. Die weitere Auswahl wurde nach folgenden
Kriterien vorgenommen:
Fahrzeugbezogene
Auswahlkriterien
– Fahrantrieb
– Bauform
– Lenksystem
– Lenkart
– Bedienart
– Tragfähigkeit
– Leistung
– Fahrgeschwindigkeit
TFH Wildau, Wissenschaftliche Beiträge 2006
Einsatzbezogene
Auswahlkriterien
– Transportgut
– Einsatzbedingungen (Arbeitsumgebung)
– Auslastung des Flurförderzeuges, Einsatzzeit
Vorschriftenbezogene – Unfallverhütungsvorschriften
Auswahlkriterien
– Arbeitssicherheit
Unter Einbeziehung dieser Kriterien ist ein fahrerloses
Transportsystem als Lösung ermittelt worden, welches
mit automatisch gesteuerten Fahrzeugen arbeitet. Die
Transportwagen bewegen sich ferngesteuert auf einer im
Hallenfußboden eingelassenen Induktionschleife. Die
Einsatzbedingung im Rahmen der Farbgebung musste
jedoch noch genauer untersucht werden. Im Bereich der
Farbgebung könnte es wegen der starken „Farbdampf -Entwicklung“ an den Transportwagen zu Störungen kommen.
Ferner wäre die Farbgebung im unteren Bereich des Drehautomaten nicht möglich. Daher wird der Drehautomat
am Ende des Takts 8 auf ein schienengeführtes Transportsystem umgesetzt. Im Takt 8 erfolgt auch die Montage der
Pumpenkombination einschließlich der Qualitätsprüfung
aller Komponenten.
Um an den einzelnen Montagen eine Versorgung mit
allen Montageteilen sicherzustellen war der Einsatz eines
Staplersystems unerlässlich. Durch eine Variantenanalyse konnte ein Flurförderzeug mit einem Hubgerüst, das
eine vertikale Lastbewegung ausführen kann, ausgewählt
werden.
Nach DIN 18225 und den Arbeitsstätten-Richtlinien
müssen in Arbeits- und Lagerräumen über 1000 m2 die
Verkehrswege eindeutig gekennzeichnet sein. Es gibt
ausschließlich Fußwege, ausschließlich Fahrwege und
gemeinsame Fuß- und Fahrwege; außerdem ist zu unterscheiden zwischen Richtungs- und Gegenverkehr. Damit
wurde es notwendig im Hallen-Layout diese Wege mit einer
Breite von 3 m in den Grundriss aufzunehmen. Durch die
Breite von 3 m ist es möglich das auch in Spitzenlastzeiten
mit Begegnungsverkehr es zu keinerlei Engpässen bei der
Versorgung der Montagen kommt.
Wegen des Gewichtes und der Abmessungen der
Anbauteile ist die manuelle Montage am Unterkasten
nicht möglich. Durch die spezifische Analyse der weiteren Parameter wie Platzbedarf und max. Hebelast wurde
ein Drehkran ausgewählt. Drehkrane sind in der Regel
ortsfest, können jedoch auch durch Aufsetzen auf ein
Fahrwerk (gleisgebunden oder gleislos) bzw. Ponton mobil
gemacht werden. Obwohl sie häufig auf Flurniveau angeordnet sind bzw. auf Flurniveau verfahren, werden sie
als flurfrei eingestuft, da die Verfahrbewegung der Katze,
die Dreh- oder Schwenkbewegung des Auslegers und somit die Förderbewegung für Güter flurfrei und oberhalb
der eigentlichen Arbeitsebene ausgeführt wird. Um eine
höchstmögliche Verfahrbarkeit des Systems sicherzustellen, muß ein Kransystem mit gleislosem Fahrwerk
genutzt werden, so ist es möglich die vom Mitarbeiter in
der Produktion benötigten Montageteile immer optimal
zum Unterkasten auszurichten und danach zu montieren. Aufgrund der vielen Montageschritte und den
daraus resultierenden verschiedenen Montagepunkten
ist es notwendig, dass mehrere dieser Systeme einsetzt
83
Abb. 3: Layout der Fertigungshalle
werden, um zeitlich optimal abgestimmte Montagelinien
zu erzeugen.
Die Farbgebung stellt ein wichtiges Glied der Produktionslinie dar. Im Takt 9 erfolgt die Anlieferung des
Drehautomaten in die Farbvorbehandlung, nach dem Umsetzen auf das schienengeführte Transportsystem. Im Takt
10 – Farbvorbehandlung erfolgt das manuelle Abkleben
und Spachteln des Drehautomaten. Danach wird dieser
über das Transportsystem in die Spritzkabine zur manuellen Farbgebung verbracht. Zu beachten ist, dass in der
Spritzkabine besondere Vorgaben zum Explosionsschutz
gelten. Nachdem das Spritzen abgeschlossen ist, wird der
Drehautomat über das Transportsystem in die Trockenkabine geschleust. Dort wird die erste Farbschicht bei ca. 90°C
eine Stunde getrocknet. Im Anschluss erfolgt eine Qualitätssichtkontrolle. Sollte ein Fehler festgestellt werden,
wird der Drehautomat über ein Verschiebegleis auf eine
Ausweichstrecke verbracht. Da in dieser Bearbeitungsphase
nur eine Pufferzeit von etwa 60 min zur Verfügung steht,
hätte der Qualitätsbeaufrage so auf der Ausweichstrecke
die Möglichkeit die Qualitätsprüfung fortzusetzen. Gegebenenfalls wäre es nun möglich, das auf der Ausweichstrecke
alle Nacharbeiten erfolgen. Über ein weiteres Verschiebegleis wird der Drehautomat wieder vor die Spritzkabine
gebracht und kann in der nächsten Produktionslücke
eingesteuert werden. Nachdem nun der Drehautomat die
erste Farbgebung erfolgreich durchlaufen hat, beginnt die
Einsteuerung in die zweite Farbgebung. Auch nach der
zweiten Farbgebung ist eine Trocknung vorgesehen. Danach besteht wiederum die Möglichkeit des Transports über
ein Verschiebegleis auf die Ausweichstrecke, um eventuelle
Nacharbeiten durchzuführen. Der Drehautomat befindet
sich nun am Ende der Fertigungslinie und wird mit Hilfe des
Brückenkranes in die Transportverpackung gehoben. Der
Wagen des Transportsystems kann nun über die Ausweich-
84
strecke wieder zurückgeführt werden. Das Verpacken des
Drehautomaten erfolgt nun manuell in einem speziellen
Verpackungsbereich. Dort sind alle Verpackungsmaterialien in einem Pufferlager verfügbar. Beim Verpacken ist die
Ladungssicherung in der Transportkiste zu gewährleisten.
Die Zolldokumente sind, wenn erforderlich, ebenfalls vom
Verpackungsbereich vorzubereiten. Die Zollabnahme wird
Stichprobenartig durch das Personal der Zollbehörde durchgeführt. Die Verpackung geschieht unter der Maßgabe, dass
die Transportösen an der Maschine genutzt werden können.
Dieses Verfahren ist notwendig, um die Transportkiste mit
Hilfe eines Krans bewegen zu können. Der Drehautomat
kann nach dem Abschluss des Taktes 15 somit in den
Versandbereich verbracht werden. Der Versandbereich ist
direkt am Haupttor positioniert, dadurch ist ein einfaches
Einfahren des Lastkraftwagens zur Übernahme möglich.
Nach der Verladung des Gutes durch den Versender erfolgt
die Sicherung der Ladung durch den Frachtführer. Mit den
zum Einsatz für die Drehautomatenfertigung gewählten
technischen Lösungen ergibt sich folgendes Layout für die
Fertigungshalle – siehe Abb. 3.
4. Simulation
Die Komplexität der Aufgabenstellung stellt im Zusammenspiel mit den gewählten Teillösungen eine schwierig
zu überblickende Gesamt-Soll-Konzeption dar. Durch eine
genaue Analyse der vorgeschriebenen Rahmenbedingen
war die Simulation in Echtzeit unerlässlich. Eine Simulation wird genutzt um komplexe dynamische Systeme
analysieren zu können. Die Wirkung der Einflussfaktoren
kann so genau untersucht werden, um Erkenntnisse über
das reale System zu erhalten. Das Simulationsmodell stellt
damit die Gesamtheit aller Abläufe in der Fertigung von
TFH Wildau, Wissenschaftliche Beiträge 2006
der Anlieferung bis zum Versand in Echtzeit dar. Die Simulation visualisiert jedes Problem welches innerhalb der
Montage auftreten kann. Die verschiedenen Stellgrößen,
wie z. B. das Anlieferzeitfenster können so genau betrachtet
und optimiert werden.
Zur Simulation wurde das System Simpro 4.1.0 benutzt.
Dieses System stellt den Studieninhalt der Lehrveranstaltung „Anwendung logistischer Systeme“ dar. Simpro ist
ein universelles Simulationspaket zur Untersuchung des
dynamischen Verhaltens komplexer Produktionssysteme.
Das so erstellte Modell zeigte die Probleme der Fertigung
auf. Im Rahmen des Lösungskonzepts fand eine Bewertung
der ermittelten Daten statt. Die Prozesse wurden so genau
analysiert und in Teilprozesse zerlegt – siehe Abb. 4. Damit
wurde es möglich als ersten Schritt die Schwachstellen innerhalb der einzelnen Montageschritte zu erkennen. Das
Hauptproblem, welches sich erstmals in der Simulation
darstellte, war die hohe Bearbeitungszeit von ca. 88 h.
Durch eine genaue Analyse der einzelnen Takte und der
zur Verfügung stehenden Lösungen, wurde die Variante der
doppelten Montagen gewählt. Das bedeutet, dass bestimmte Montagetakte nun an zwei Montageplätzen gleichzeitig
ablaufen. Der Prozess wurde so parallelisiert. Die Schaffung
von zusätzlichen Pufferplätzen an den Montagestationen
verkürzt die Montagezeit weiter, da die Bereitstellung nun
nicht mehr gleichzeitig mit der Montage geschehen muss.
stellen. Um nun die ermittelten Parameter im Kontext mit
den physischen Grenzen der Halle betrachten zu können,
wurde das Simulationsmodell in die Produktionshalle gesetzt. Dadurch wurde es möglich in den engen Grenzen der
Halle die Auslastung der Transportwege sowie die Funktion des fahrerlosen Transportsystems zu untersuchen. Als
Schwachstelle wurde das Anlieferkonzept erkannt. Mit den
so erhaltenen Informationen wurde eine Analyse erstellt,
die zum Ziel hatte, eine neue Strategie zur Belieferung zu
entwickeln. Da es während des Produktionsprozesses zu einem permanenten Bedarf an Montageteilen kommt, ist es
nicht möglich diese per Just-in-Time anzuliefern. Durch die
Belegungszeit des Brückenkranes im Hallenabschnitt der
Belieferung musste das Anlieferkonzept verändert werden.
Nach eingehender Prüfung der Möglichkeiten wurde die
Variante der Schaffung eines Zwischenlagers außerhalb der
Produktionshalle als optimale Lösung ermittelt. Dadurch
ist es möglich die Belieferung der einzelnen Montageplätze
individuell zu bestimmen und so größtmögliche Flexibilität zu gewährleisten. Die jetzt geschaffene Soll-Konzeption stellt damit einen hohen Grad der Zielerreichung dar
– siehe Abb. 5.
Abb. 5: Simpro Simulation im Hallenlayout
Abb. 4: Simpro Simulation
Durch die so geschaffene Prozessoptimierung wurde die
Anzahl der Maschinen im Prozess und damit der Durchsatz erhöht. Im Rahmen einer Potential-Analyse des so
geschaffenen Soll-Zustandes wurde ermittelt, dass durch
das Ausführen von mehren Montageschritten an einem
Montageplatz die Prozessdurchlaufzeit des Drehautomaten
verkürzt werden kann. Zum Beispiel wurde so während der
Montage der Spindeltrommel und der Laufprüfung schon
mit der Montage des Antriebsmotors begonnen.
Der so nochmals optimierte Prozess wurde nun in
der Simulation dargestellt und erwies sich als vorteilhaft.
Durch eine weitere Anpassung der Montagen wurde ein
verbesserter Montagefluss erreicht. Dadurch wurde die Gesamtmontagezeit je Drehautomat und die Durchlaufzeit
verkürzt. Dabei wurden alle Anforderungen des Qualitätsmanagementsystems vollständig beibehalten. Darüber hinaus wurden zusätzliche Stellflächen geschaffen, um die
Durchführung von weiteren Qualitätsprüfungen sicherzu-
TFH Wildau, Wissenschaftliche Beiträge 2006
5. Pädagogischer Effekt
Elementare Bestandteile im Studienschwerpunkt Unternehmenslogistik an der TFH Wildau sind die Vermittlung von Kenntnissen über Strukturen, Strategien und
Systemen zur Lösung logistischer Aufgaben. Eine hohe
Bedeutung bei der Vermittlung dieses Wissens, hat die
Einbindung von konkreten Fallbeispielen aus der Industrie innerhalb der Lehrveranstaltungen. Zur Umsetzung
dieser Ziele und Methoden wurde das Studienfach Produktionslogistik ganzheitlich auf die Erarbeitung eines
logistischen Gesamtkonzeptes am Beispiel der Fertigung
von Werkzeugmaschinen ausgerichtet. Für die Studenten
ergabt sich daraus eine sehr praxisnahe Aufgabenstellung,
die zahlreiche theoretische Kenntnisse aus dem Grundstudium abfordert. Zum einen waren fundierte Kenntnisse
im Projektmanagement notwendig, um Anforderungen
zur Teamorganisation, sowie zur Zeit- und Ressourcenplanung zu bewältigen. Zum anderen wurde durch die
Bearbeitung des Projektes die Betrachtung von komplexen
85
Systemen weiter geschult. Die vorlesungsübergreifende
Projektarbeit förderte das vernetzte Denken und die Anwendung unterschiedlicher Lehrinhalte des Studiums.
Durch die Problemstellung in den einzelnen Bereichen
war es notwendig die unterschiedlichen Varianten der
Lösungsmöglichkeiten und die damit verbunden technischen Umsetzungen zu untersuchen. Diese Projektarbeit
setzte die Anwendung eines breiten Spektrums an Wissen, sowie ein sehr gutes technisches Verständnis bei den
Teammitgliedern voraus. So war es notwendig Probleme
der Organisationsentwicklung, der Planung von logistischen Systemen und der Analyse technischer Lösungen
zu verknüpfen. Dieses Projekt setzte einen hohen Anteil
an Eigeninitiative voraus, um die komplexen Problemstellungen außerhalb der Hochschule zu untersuchen.
Durch die Einbeziehung eines Austauschstudenten wurde die Projektarbeit positiv beeinflusst. Durch die damit
eingebrachte „andere Sicht“, wurde die Projektarbeit, insbesondere die Problemdiskussion zusätzlich bereichert.
Die deutschen Studenten konnten so für das Arbeiten an
einem gemeinsamen Projekt mit ausländischen Studenten ein hohes Maß an Erfahrungswerten gewinnen. Die
Förderung der Teamarbeit und die damit verbundene Arbeitsteilung ermöglichte jedem Teammitglied auf einem
speziellen Gebiet Kernkompetenzen zu entwickeln und
dadurch das Team individuell zu prägen. Bei auftretenden Problemen und Fragen war es dem Team jederzeit
möglich den betreuenden Dozenten des Projektes Herrn
Prof. Dr. –Ing. habil. Bernd Hentschel zu konsultieren.
Den Studenten zeigte die eigenständige Ausarbeitung des
umfangreichen Gesamtprojektes die Probleme und Herausforderungen bei der Planung von produktionslogistischen Systemen, die in einer herkömmlichen Vorlesung
nur schwer zu vermitteln wären.
6. Zusammenfassung
Dem Projektteam war die Aufgabe gestellt das technologische und logistische Konzept für die Produktion von
Drehautomaten in einer vorhandenen Halle bei vorgegeben Arbeitstakten zu erarbeiten.
Durch die Variantenanalyse der verschiedenen technologischen Möglichkeiten bezüglich der maßgeblichen
Kenngrößen wie Platzbedarf, Rüstzeit, Standzeit und Transportgeschwindigkeit wurden die Technologien ausgewählt
und dass Hallenlayout für die konzipierte Fließfertigung
mittels Microsoft Visio erstellt. Die entwickelte Fertigung
besteht aus 6 Montage – und 4 Pufferplätzen. In der
Farbvorbereitung bestehen zwei Arbeitsplätze sowie ein
Bereitstellungsplatz. Im Bereich der Farbgebung wurden
zur Vermeidung eines Produktrücktransports nach der
Farbvorbereitung jeweils eine Spritz- und Trockenkabine
hintereinander angeordnet. Im Bereich der Verpackung
sind zwei Arbeits- und zwei Versandplätze vorgesehen.
Dies ermöglicht auch während Spitzenlastzeiten eine
problemlose Bearbeitung.
Mit dem erarbeiteten Soll-Konzept wurde die Zielstellung der Lehrveranstaltung erreicht und durch die
Anwendung einer logistischen Simulationssoftware eine
komplexere Problembearbeitung durchgeführt.
86
Anmerkungen
Dank gilt dem wissenschaftlichen Mitarbeiter, Herrn Dipl.Ing. Peter Wasser, der dem Projektteam bei der Erstellung
der Simulation Unterstützung gewährte.
Teammitglieder
Robert Deininger
Technische Fachhochschule Wildau
Fachbereich Ingenieurwesen/Wirtschaftsingenieurwesen
– Logistik
[email protected]
Sebastian Forkert
Technische Fachhochschule Wildau
Fachbereich Ingenieurwesen/Wirtschaftsingenieurwesen
– Logistik
[email protected]
Dirk Ryborz
Technische Fachhochschule Wildau
Fachbereich Ingenieurwesen/Wirtschaftsingenieurwesen
– Logistik
[email protected]
Silvana Adolph
Technische Fachhochschule Wildau
Fachbereich Ingenieurwesen/Wirtschaftsingenieurwesen
– Logistik
[email protected]
Jan-Jaap van Wikselaar
Hogeschool van Arnehm en Nijmegen
Hoger Economisch en Administratief Onderwijs
– European Logistics
[email protected]
Autor
Robert Deininger
Technische Fachhochschule Wildau
Fachbereich Ingenieurwesen/Wirtschaftsingenieurwesen
– Logistik
[email protected]
TFH Wildau, Wissenschaftliche Beiträge 2006
„Telekommunikation und Gesellschaft“ –
ein neues Angebot im Master-Studiengang Telematik
Bernhard Eylert
Einleitung
Im Sommersemester 2005 wurde zum ersten Mal die Lehrveranstaltung „Telekommunikation und Gesellschaft“ als
Wahlpflichtfach für Studierende des Studiengebiets Telematik angeboten. Sie hat auf Anhieb gleich sehr großen
Anklang bei den Studierenden gefunden. Die Idee zu dieser
Veranstaltung entsprang einer früheren engen Zusammenarbeit des Autors während seiner Chairmanship des UMTS
Forums mit dem Digital World Research Center (DWRC)
an der Universität von Surrey in Guildford (GB), wo sich
der Autor mit dem Thema „The Social Shaping of Mobile
Communications“ intensiv auseinander gesetzt hat. Die
Lehrveranstaltung wird auch im Sommersemester 2006
angeboten und durchgeführt.
Inhalt und Ziele
Zentrales Thema der Lehrveranstaltung „Telekommunikation und Gesellschaft“ ist, Verständnis dafür zu entwickeln, dass technische und technologische Prozesse sich im
gesellschaftlichen und kulturellen Umfeld entfalten und
dort auch gestaltet werden. Damit gibt es keine ‚isolierten’
Technologien, die nur für sich selbst und unabhängig stehen, sondern sie sind a priori gesellschaftlich, kulturell
oder politisch, selten technologisch, determiniert.
Das Thema wird inhaltlich anhand von historischen
Entwicklungen beispielhaft entwickelt und dargestellt,
durch studentische Referate und Erarbeitung eines Fallbeispiels ergänzt und mit einer Projektarbeit abgeschlossen.
Laut Module-Handbuch sollen die Studierenden
– die wesentlichen soziologischen Theorien kennen
lernen und in den Vergleich zu technisch-naturwissenschaftlichen Verfahrensweisen stellen.
– die Zusammenhänge zwischen neuen Technologien und
dem sozialen Umfeld (z. B. Entwicklung und Konsum)
erkennen und einer kritischen, wissenschaftlichen
Nachhaltigkeitsanalyse unterwerfen.
– in der Lage sein, Fallstudien zu bewerten und aus ihnen beispielsweise abzuleiten, in welcher Weise soziale
Identitäten wie Geschlecht, Rasse, Sexualität sich auf
den Einsatz technologischer Endgeräte im Sozialgefüge
des alltäglichen Umgang auswirken.
– die Fähigkeit erlangen, eigene Fallstudien zu erstellen.
– in der Lage sein, die behandelten Themen und Objekte
in einen größeren soziologischen Zusammenhang, wie
Medienpräsenz und Globalisierungsdebatte, zu stellen.
Darüber hinaus werden als weitere Ziele verfolgt:
– Erweiterung des eigenen Blickwinkels über den „Tellerrand“ des eigenen Studiengebiets hinaus
– Eigene Gestaltung interessanter Projekte
TFH Wildau, Wissenschaftliche Beiträge 2006
– Möglichkeit der Publikation hervorragender Ergebnisse
in Workshops mit anderen Hochschulen und der Industrie bzw. Printmedien
In den einzelnen Arbeitsabschnitten sollen die Studierenden deutlich machen, dass sie die Interdependenz zwischen technologischer Entwicklung und gesellschaftlich/
kulturellen/politischen Einflüssen verstanden haben,
diese interpretieren und Schlussfolgerungen daraus ziehen können.
Aufbau des Seminars
Zunächst befassen wir uns mit einigen philosophischen
Grundlagen unseres Studiengebiets, um zu verstehen,
wo wir herkommen und wohin sich die Wissensgebiete
entwickeln/entwickelt haben. U. a. spielt dabei eine ganz
große Rolle, mit welchen Methodiken sich die Wissenschaftler die jeweiligen Gebiete erobert und sich so von
ihren Mutterwissenschaften abgekoppelt haben. In manchen Fällen gibt es auch wieder ein „zurück“ in dem Sinne,
dass man die gemeinsamen Wurzeln entdeckt und darauf
neue Strategien aufbaut.
Im zweiten Teil, The Social Shaping of Technology,
geht es darum zu verstehen, wie sich die Soziologen mit
der Thematik „Technologie“ auseinandersetzen, wie sie
Technologie verstehen und welche technologischen Determinismen sich aus den produzierten Objekten, einschließlich der Medien, und deren Wirkung auf die Gesellschaft
(social factors) ableiten und strukturieren lassen.
Ausgehend davon werden im dritten Teil die politischen und soziokulturellen Einflüsse auf die Technologien
beispielhaft erläutern.
Im vierten Teil werden dann alle Determinismen anhand der Entwicklung von UMTS beispielhaft aufgeführt,
erläutert und in einen Gesamtzusammenhang gebracht.
Dieses Beispiel soll musterhaft für die weiteren Referate,
Case Studies und Projekte dienen. Die Studierenden mögen
sich daran bei ihrer individuellen Arbeit orientieren.
Als Basisliteratur wird verwendet:
– MacKenzie/Wajcman, The Social Shaping of Technology, Open University Press, 1999, ISBN
– Eylert, The Mobile Multimedia Business, Wiley & Sons,
2005, ISBN 0-470-01234-X
Weitere Literatur wird aktuell im Seminar ausgegeben.
Herausragende Ergebnisse der Lehrveranstaltung Sommersemester 2005
Im Anschluss an diese Einführung werden drei hochinteressante Seminararbeiten vorgestellt, die schon jetzt z. T.
87
lebhaftes Interesse über die TFH Wildau hinaus gefunden
haben:
– Markus Czok und Marc Gurczik haben mit ihrer Arbeit
zum Thema „Das Handy als alltägliches Lifestyle-Objekt“ in einer regionalen Studie analysiert, wie zum einen die Gruppe der 12-25jährigen sich dem modernen
Trend der Mobilkommunikation nähern und deren
Dienste nutzen. Dem stellen sie die Gruppe 50+ gegenüber und analysieren deren Handynutzungsverhalten.
Diese Ergebnisse waren schon für einen Netzbetreiber
sehr interessant und informativ.
– Henri Schmidt und Stefan Lehmann widmeten sich dem
Thema „Möglichkeiten durch E-Sport für Wirtschaft
und Gesellschaft“ und stellten Möglichkeiten und
Grenzen dieses neuen Kommunikationstrends dem
klassischen Sport mit allen seinen Facetten gegenüber.
Das Thema hat besonders bei uns in Deutschland und
in Großbritannien großes Interesse gefunden.
– Michael Ring und Peter Ungvári untersuchten ein im
Mai 2005 hochaktuelles Thema „Einführung, Nutzen
und Gefahren durch Funkchips (RFIDs)“ am Beispiel
des neuen Bundespersonalausweis und beleuchteten die
Wechselwirkung zwischen Einführung und Kommunikation mit der Bevölkerung.
Das Seminar zum gleichen Thema im Sommersemester
2006 hat ähnliches Interesse geweckt. Über die sich
abzeichnenden interessanten Ergebnisse wird zu einem
späteren Zeitpunkt berichtet. Es ist beabsichtigt, ein neues
gemeinsames Projekt mit der University of Surrey noch im
Herbst 2006 zu starten.
88
Autor
Prof. Dr. Bernhard Eylert
Technische Fachhochschule Wildau
Fachbereich Ingenieurwesen/Wirtschaftsingenieurwesen
– Mobile-Commerce
Tel. +49 171 5230000
[email protected]
TFH Wildau, Wissenschaftliche Beiträge 2006
Studie: Das Handy als alltägliches Lifestyle-Objekt
Markus Czok, Marc Gurczik
1 Einleitung
Die rasante Entwicklung auf dem Handymarkt ist stets in
den Medien, doch selten wird über die Nutzer berichtet, die
das Handy mittlerweile als alltäglichen Gebrauchsgegenstand akzeptiert haben. Diese Studie soll einen Überblick
schaffen, über die Gewohnheiten von Handynutzern
und die Veränderungen deren Kommunikations- und
Konsumverhaltens, die aus der Nutzung eines Mobiltelefons resultieren. Zusätzlich werden auch Personen der
Altersgruppe 50+ auf ihr Kommunikationsverhalten hin
untersucht und nach ihren Bedürfnissen an ein Handy und
dessen Dienste befragt. Dazu werden zwei Umfragen über
den täglichen Gebrauch des Mobiltelefons durchgeführt.
Dabei ist zu beachten, dass bei einer Online-Umfrage über
das Internet keine repräsentativen Ergebnisse über die Gewohnheiten der Altersgruppe 50+ erzielt werden können.
Für die Altersgruppe 50+ kann im Allgemeinen nicht zu
den, mit dem Internet vertrauten Personengruppen gezählt
werden. Somit ist es notwendig, die Umfrageergebnisse der
Online-Umfrage mit einer, auf der Straße durchgeführten
Befragung zu ergänzen, um zusätzliche Informationen von
dieser Altersgruppe in Bezug auf deren Kommunikationsverhalten und deren Anforderungen an neue Produkte
und Dienste zu erhalten. Die Online-Befragung richtet
sich vorwiegend an die jüngere Generation im Alter von
12-25 Jahren und enthält zusätzliche Fragen über die
Nutzung von Diensten und Funktionen, wie z.B. die Nutzung von MMS oder einer integrierten Digitalkamera. Die
Auswertung der Umfragen wird dann nach Altersgruppen
geordnet vorgenommen, wobei das Hauptaugenmerk auf
der Altersgruppe von 12-25 Jahren und von 50 Jahren
aufwärts liegt. Zusätzlich werden noch weitere Studien
aus dem Internet einbezogen um ein allgemeingültigeres
Ergebnis zu erzielen. Dabei wird darauf geachtet, dass nur
seriöse Studien, wie die jährlich durchgeführte JIM-Studie
vom Medienpädagogischen Forschungsverbund Südwest
in Kooperation mit der Landesanstalt für Kommunikation Baden-Württemberg (LFK) und der Landeszentrale
für private Rundfunkveranstalter Rheinland-Pfalz (LPR)
verwendet werden.
1.1 Applikationen – Services – Kosten
Bei der Befragung werden hauptsächlich drei verschiedene
Arten von Funktionen untersucht. Zum einen Funktionen,
die unmittelbar mit der Kommunikation über das Mobiltelefon in Verbindung stehen. Neben dem klassischen
Telefonieren sind das vor allem SMS, MMS und Internet.
Obwohl man die beiden letzteren auch teilweise zu den
Zusatzfunktionen eines Telefons zählen kann, die nur
noch bedingt zur Kommunikation mit anderen Menschen dienen.
Zu diesen Zusatzfunktionen zählen vor allem die
Kamera, der MP3-Player oder auch das Radio, sowie die
TFH Wildau, Wissenschaftliche Beiträge 2006
Möglichkeiten Klingeltöne, Logos und Spiele auf das Mobiltelefon laden zu können.
Als dritter wichtiger Punkt neben diesen Funktionalitäten spielt die Möglichkeit zur Individualisierung eine
entscheidende Rolle. Die vorher genannte Klingeltöne und
Hintergrundbilder sind ein Teil der Individualisierung. Eine
weitere Möglichkeit ist das Austauschen der Oberschale.
Diese Befragung soll die grundsätzlichen Unterschiede in der Nutzung von Applikationen und Diensten
zwischen den nachfolgend beschriebenen Zielgruppen zu
Tage fördern. Der ursprüngliche Sinn des Mobiltelefons
lag darin zu telefonieren, d.h. Sprachdienste standen im
Vordergrund. Das ändert sich nun mit den nachfolgenden
Generationen. Neue Dienste und Applikationen treten in
den Vordergrund.
Beim Mobilfunk werden grundsätzlich zwei verschiedene Arten von Verträgen unterschieden. Die Verträge
mit monatlicher Abrechnung (Postpaid) und die mit
Vorauszahlung (Prepaid). Bei den Postpaid-Verträgen gibt
es eine Reihe an Variationen und die Gebühren pro Gesprächseinheit können stark variieren. Je nach Vertragsart
unterscheiden sich die Grundgebühren der Verträge, sowie
die Minutenpreise. Einige Anbieter bieten Minutenpakete
an, anderen zeit- und ortsabhängige Vergünstigungen. Die
zusätzlichen Tarifoptionen, wie etwa die Gebührentaklung,
sind zusätzliche Eckpunkte eines Vertrages. Anhand der
Umfragen soll festgestellt werden, ob es für die verschiedenen Altersgruppen eine Tendenz zu einer spezifischen
Vertragsart gibt.
Seit der Einführung flächendeckender digitaler Mobilfunknetze im Jahre 1990 haben sich im Laufe der Zeit
neben der Telefonie, verschiedene Zusatzdienste entwickelt
und etabliert. Während der Markt noch nicht bereit und
auch Geräte und Ausrüstung anfangs noch nicht dazu
geeignet waren, ergaben sich später durch immer fortschreitende Miniaturisierung von Bauteilen und Erhöhung
von Prozessorleistung und Speicherkapazitäten ganz neue
Möglichkeiten.
Einen Siegeszug hat dabei die SMS (Short Message
Service) gemacht. Sie wurde anfänglich als Abfallprodukt
kostenlos angeboten. Als die Netzbetreiber aber dann
die wachsende Beliebtheit erkannten, wurde die SMS
kostenpflichtig. Mittlerweile generiert der SMS-Dienst die
höchsten Erträge der Netzbetreiber. Im Jahre 2003 wurde
rund 16 Milliarden SMS in Europa verschickt. SMS liegen
bei einem Preis zwischen 9 und 19 Eurocent. Verwandte
Dienste sind EMS (Enhanced Message Service) und vor allem MMS (Multimedia Messaging Service). Die MMS bietet
die Möglichkeit, neben Text auch Bilder, Ton und Videos
zu versenden. Die Kosten zum Versenden einer MMS sind
abhängig von der Größe der MMS und beginnen bei ca.
39 Eurocent.
Im Jahr 2002 begannen die Hersteller, Digitalkameras
in ihre Mobiltelefone einzubauen. Mittlerweile ist kaum
89
noch ein Telefon auf dem Markt zu finden, das keine Digitalkamera hat. Die Qualität die anfänglich sehr schlecht
war, hat sich mittlerweile auch auf ein akzeptables Maß
gesteigert. Einher, mit der Möglichkeit Fotos aufzunehmen, geht die Möglichkeit Bilder auf dem Telefon zu
speichern, sowie Musik und Videos. Viele Mobiltelefone
besitzen zudem auch einen integrierten Musikplayer oder
ein Radio. Da der interne Speicher in Mobiltelefonen
nicht sehr groß ist, kommt immer mehr der Trend auf,
Speicherkarten in die Mobiltelefone einzusetzen. Damit ist
eine enorme Erhöhung der Speicherkapazität verbunden.
Diverse Anbieter bieten die Möglichkeit Klingeltöne und
Logos (Hintergrundbilder) auf das Mobiltelefon zu laden.
Hier gibt es verschiedene Kostenmodelle. Es gibt die Möglichkeit einzelne Bilder oder Musikstücke herunterzuladen
oder ein so genanntes Monatsabo abzuschließen und monatlich eine gewisse Anzahl von Bildern oder Klingeltönen
herunterzuladen. Die Kosten liegen dabei einmalig bei ca.
1 bis 3 Euro oder monatlich bei ca. 5 Euro.
Durch steigende Übertragungsgeschwindigkeiten
im Mobilfunk, durch HSCSD, GPRS und UMTS werden
nicht nur Webanwendungen und Internet interessanter,
es können auch viele neue Dienste realisiert werden, wie
etwa Videostreaming oder Videotelefonie. Neben dem
Internet gibt es auch die Möglichkeit E-Mails und Faxe zu
versenden. Die Preise für Datendienste liegen bei GPRS als
volumenbasiertem Übertragungsverfahren zwischen 9 und
19 Eurocent pro 10kb-Datenpaket.
Die meisten Mobiltelefone sind heutzutage mit
einem Java-Interpreter ausgestattet, der es ermöglicht
Java-Anwendung auf dem Mobiltelefon laufen zu lassen.
Der Funktionsumfang dieser Java-Laufzeitumgebung ist
jedoch sehr eingeschränkt. Es gibt die Möglichkeit Spiele
und Programme auf das Telefon zu laden. Einige davon gibt
es als Freeware im Internet, andere müssen kostenpflichtig
aufs Mobiltelefon geladen werden. Hier liegen die Kosten
ungefähr so hoch wie bei den Klingeltönen und Logos.
Mit der fortschreitenden Miniaturisierung der Terminalkomponenten und Erweiterung der Möglichkeiten
der Mobiltelefone werden immer weitere kostenpflichtige
Zusatzdienste (Value-Added Services) auftauchen.
1.2 Erläuterung der Zielgruppen
Um eine möglichst breite Grundlage zur Auswertung und
somit eine allgemeingültige Aussage zu erhalten, werden
zwei Zielgruppen für die Umfrage definiert die relativ breit
gefächert sind.
Die erste Zielgruppe sind Jugendliche, die ein Handy
besitzen im Alter von 12-25 Jahren. Zur Befragung dieser
Personengruppen wurde eine Online-Umfrage durchgeführt, da viele Jugendliche einen Zugang zu diesem Medium haben und somit auch die nötige Resonanz erreicht
wird. Da die meisten Jugendlichen ein Handy besitzen
und auch die Zielgruppe vieler Geschäftsideen, wie dem
Versenden von Logos oder Klingeltönen sind, wurde in
der Online-Umfrage zusätzlich auf Nutzung derartiger Zusatzfunktionalitäten eingegangen. Ergänzend dazu wurden
noch Jugendliche am Berliner Alexanderplatz befragt, da
sich an der Online-Umfrage kaum Jugendliche im Alter
von 12-20 Jahren beteiligt haben. Dafür wurde der gleiche
Fragebogen wie bei der Online-Umfrage verwendet.
90
Die zweite Zielgruppe beinhaltet Personen über 50 Jahren.
Jedoch wurden in dieser auch Personen befragt die kein
Handy besitzen, um die Gründe dafür zu erfahren. Für
diese Generation wurde ein Fragebogen erstellt, der speziell
auf diese Zielgruppe ausgerichtet ist. Diese Unterteilung
wurde gewählt, um eine spätere Gegenüberstellung der
beiden Altersgruppen zu ermöglichen. Somit können die
verschiedenen Interessen der Personen aus den beiden Zielgruppen an dem Design, der Marke oder beispielsweise den
Funktionen eines Handys in Erfahrung gebracht werden.
Außerdem können so mögliche Interessenschwerpunkte
der Zielgruppen ausgewertet und gegenübergestellt werden. Auf die daraus entstehenden Erfahrungswerte wird
in den folgenden Kapiteln näher eingegangen.
1.3 Die Umfrage
Wie schon zuvor erwähnt, wurden zwei verschiedene
Umfragen durchgeführt. Die Online-Umfrage für die Jugendlichen (siehe Anhang 1.1) wurde auf einer Webseite
zugänglich gemacht. Zusätzlich wurden noch diverse EMails mit dem Link auf diese Webseite verschickt, damit
genügend Teilnehmer bei dieser Umfrage mitmachen. Da
sehr wenig Jugendliche im Alter von 12-20 an der OnlineUmfrage teilnahmen, wurde am Berliner Alexanderplatz
das Ergebnis mit Hilfe einer Straßenumfrage ergänzt. In
diesen Umfragen sollten die beliebtesten Handymarken,
Vertragspartner und Zahlungsarten der Jugendlichen und
jungen Erwachsenen ermittelt werden. Zusätzlich gab es
aber noch eine Frage die Auskunft darüber geben sollte,
wer die Handyrechnungen bezahlt.
Ein weiterer Themenkomplex in dieser Umfrage waren
die Funktionen, wobei sowohl nach der Wichtigkeit als
auch nach der Häufigkeit der Nutzung der verschiedenen
Funktionen gefragt wurde. Dabei fand das Austauschen
und Herunterladen von Klingeltönen, Musik oder Bildern
besondere Beachtung. Aber auch die Nutzung der Möglichkeit zur persönlichen Anpassung des Handys in Bezug auf
Hintergrundbilder, eigene Klingeltöne oder auswechselbare
Oberschalen wurde untersucht.
Um die Auswirkungen eines Verlustes des Handys auf
die sozialen Kontakte der betroffenen Person zu erfassen,
wurde abschließend noch gefragt, ob eine Kopie des
Adressspeichers existiert oder ob alle Telefonnummern
dann auch verloren sind.
Weiterhin war es möglich noch Anregungen zu diesem
Thema in ein Textfeld zu schreiben. Diese Umfrageergebnisse wurden zentral auf dem Server abgelegt und mussten
dann nicht erst digitalisiert werden. Die Ergebnisse der
Straßenumfrage wurden dann hinzugefügt.
Mit Hilfe der Online-Umfrage konnten auch, wie erwartet, nicht genügend Personen der zweiten Zielgruppe,
die der über 50-jährigen, angesprochen und befragt werden. Deshalb wurde zusätzlich eine Umfrage für diesen
Personenkreis auf dem Berliner Alexanderplatz durchgeführt. Für diese Umfrage wurden Fragebögen angefertigt,
die speziell auf die Gewohnheiten dieser Personengruppe
eingehen. Die Fragebögen wurden nochmals in zwei
Gruppen unterteilt: Ein Fragebogen für Personen die ein
Handy besitzen und ein Fragebogen für Personen die kein
Handy besitzen. Dies ist notwendig um auch die Wünsche
und Erwartungen an ein Handy von der Personengruppe
TFH Wildau, Wissenschaftliche Beiträge 2006
zu erhalten, die (noch) kein Handy besitzt. Es wurde außerdem nach dem Grund gefragt, warum diese Personen
sich noch kein Handy zugelegt haben oder warum sie sich
kein Handy zulegen wollen. Die Umfrage erfasste ebenfalls
das Alter und Geschlecht der Befragten, um eventuelle
Tendenzen diesbezüglich herauszustellen. Auch hier wurden die beliebtesten Vertragspartner, Handyhersteller
und Zahlungsarten, also Postpaid oder Prepaid, ermittelt.
Weitere Fragen sollten Auskunft über die Gewohnheiten
in Bezug auf die generelle Nutzung des Mobiltelefons der
Befragten geben, also ob diese das Handy stets dabei und
eingeschaltet haben und welche Funktionen des Handys
am häufigsten genutzt werden. Die letzte Frage in dem
Teilbereich für die Handybesitzer geht auf die Wünsche
an das zukünftige Handy für die befragte Personengruppe
ein. Also ob das Handy speziell für ältere Personen angepasst werden muss und wie diese Anpassungen aussehen
könnten.
2. Mobiltelefon als alltägliches
Lifestyle-Objekt
Das Mobiltelefon hat sich immer mehr in unserem Alltag
etabliert und ist heutzutage für viele Personen das wichtigste was sie mit sich herumtragen. Der Verlust des Handys
stellt dann meist den „Weltuntergang“ für den Betroffenen
dar. Wie sehr sind wir von diesem Gebrauchsgegenstand
abhängig? Und wie sehr wirkt sich das Handy auf soziale
Kontakte aus? Ist es überhaupt noch vorstellbar ohne ein
Handy zu leben?
Die Beantwortung dieser und weiterer Fragen hat sich
diese Auswertung der Umfrage als Ziel gesetzt.
2.1 Die Wahl der Marke
Diese Studie untersucht unter anderem die Markentreue
von Mobilfunknutzern, zum einen die Markentreue zum
Gerätehersteller, andererseits die Markentreue zu einem
bestimmten Netzanbieter oder Service-Provider. Es soll
gezeigt werden, ob es eine altersabhängige Markentreue
zu einem bestimmten Hersteller oder Netzbetreiber gibt.
Die Umfrage liefert keine konkreten Ergebnisse dazu, da
die Frage „Sind sie einer bestimmten Marke treu?“ zu sehr
subjektiven Ergebnissen geführt hätte. Es soll daher durch
andere Befragungsinhalte geklärt werden, ob eine Markentreue abgeleitet werden kann.
Während die Hersteller klar voneinander abzugrenzende Unternehmen sind, die mit ihren Produkten auf dem
Markt gegeneinander konkurrieren, ist die Situation bei
den Netzbetreibern und Mobilfunkprovidern nicht ganz
so einfach. Die Netzbetreiber sind hier noch eindeutig
zu unterscheiden. Sie bieten Dienste auf ihrem eigenen
Mobilfunknetz an. Dagegen sieht die Situation bei den
Serviceprovidern schon anders aus. Sie bieten Tarife unterschiedlich Netzbetreiber an, die sich erheblich von denen
der Netzbetreiber unterscheiden können.
Auf dem Markt sind verschiedene Tarife und Tariffierungsmöglichkeiten anzutreffen. Grundsätzlich kann
zwischen den Laufzeitverträgen und den Prepaid-Karten
unterschieden werden. Laufzeitverträge sind meist mit einer Laufzeit von 24 Monaten verbunden, bieten dafür aber
TFH Wildau, Wissenschaftliche Beiträge 2006
geringere Gebühren und ein subventioniertes Mobiltelefon. Bei der Prepaid-Karte zahlt man für das Mobiltelefon
wesentlich höhere Preise und auch die Gebühren sind
teurer, dafür ist man an keine Vertragslaufzeit gebunden.
Da die Umfrage nicht explizit nach dem ServiceProvider gefragt hat, kann an dieser Stelle nicht ermittelt
werden, ob es sich um direkte Verträge bei den Netzbetreibern oder Verträge über Service-Provider handelt. Die
Studie stellt die Marke des Netzes in den Vordergrund. Der
Provider soll an dieser Stelle vernachlässigt werden.
Neben der Frage der Markentreue, ist ebenfalls die
Frage von Interesse, ob es einen bevorzugten Mobiltelefonhersteller gibt oder ob es bei den verschiedenen
Altersgruppen Auffälligkeiten bezüglich der Wahl des
Handyherstellers gibt. Die Auswertungen der Umfrage,
sowie die Erfahrungen bei der Umfrage können hierbei
Aufschluss über verschiedene Fragestellungen geben.
Folgende Fragen versucht diese Umfrage zu beantworten:
– Gibt es Besonderheiten oder Auffälligkeiten bei einer
der beiden Zielgruppen?
– Gibt es einen bevorzugten Hersteller innerhalb der
beiden Zielgruppen?
– Gibt es einen bevorzugten Netzbetreiber innerhalb einer
der beiden Zielgruppen?
– Ist eine Markentreue bei einer der beiden Zielgruppen
erkennbar?
– Gibt es auffällige Unterschiede oder Gemeinsamkeiten
zwischen beiden Zielgruppen bezüglich der vorher
gestellten Fragen?
Die Umfrage bei den Jugendlichen hat eindeutig Siemens
als beliebtesten Handyhersteller ergeben. Von den befragten Personen haben 19 Siemens als den bevorzugten
Hersteller angegeben. Mit insgesamt 12 Stimmen nimmt
Nokia hier den zweiten Rang in der Beliebtheit ein, dicht
gefolgt von Sony-Ericsson mit 8 Stimmen. Weit abgeschlagen in dieser Umfrage sind die Hersteller Motorola mit 4
Stimmen und Sagem mit einer Stimme zu finden. Dieses
Ergebnis war schon in etwa so zu erwarten, doch dass eine
so deutliche Mehrheit Siemens und nicht Nokia bevorzugt, ist etwas überraschend. Auf die Frage, ob die Marke
entscheidend für den Kauf eines Handys ist, haben nur
wenige Befragte mit Ja geantwortet und einen Hersteller
nennen wollen. Dies zeigt, dass sich Jugendliche nach den
neuesten Entwicklungen am Markt richten und sich nicht
auf einen Hersteller fixieren.
In der Zielgruppe der Jugendlichen hat nur ein kleiner Teil der Befragten die Nutzung von Funktionen wie
dem Herunterladen von Klingeltönen oder Bildern in der
Umfrage angegeben. Diese Gruppe lässt sich allerdings in
Bezug auf das Alter eingrenzen, denn nur Jugendliche im
Alter von 12 bis 14 Jahren nutzen diese Handyfunktionen.
Mit zunehmendem Alter verliert sich jedoch das Interesse
daran. Unter den Jugendlichen ab 15 Jahren aufwärts war
nicht ein Befragter zu finden der für derartige Downloads
Geld ausgibt. Durch den Wunsch nach Nutzung dieser
Funktionen entsteht auch ein Wunsch nach einem aktuellen Gerät mit der richtigen Auflösung, um beispielsweise
die heruntergeladenen Bilder in hoher Qualität darstellen
zu können. Dies ergab auch das Ergebnis der Umfrage,
in der fast alle Jugendlichen im Alter von 12 bis 14 ein
91
aktuelles Handy von einem speziellen Hersteller als wichtig
empfanden.
Eine weitere Auffälligkeit hat sich bei der Frage
nach der Häufigkeit der Nutzung verschiedener Dienste/
Funktionen des Handys ergeben. Bei der Personengruppe
ab 18 Jahren übertrifft die Nutzung des Telefondienstes
die der Nutzung der SMS-Funktion erwartungsgemäß,
wohingegen die Befragten von 13 bis 17 Jahren eindeutig
das Versenden von Kurzmitteilungen vor dem Telefonieren
favorisierten.
Die Teilnehmer, die eine Nutzung von Funktionen wie
dem Fotografieren oder dem Hören von Musik über das
Handy, angekreuzt hatten, gaben meist auch an, dass diese
nur selten genutzt werden. Daraus lässt sich schließen, dass
die zuvor erwähnten Funktionen eher als unwichtig unter
den Jugendlichen angesehen werden.
Der beliebteste Provider unter den Befragten ist Vodafone mit 17 Stimmen. Doch hier ist der Abstand zum
Zweitplatzierten o2 mit 10 Stimmen im Verhältnis größer
als bei der Frage bezüglich des Handyherstellers weiter
oben. T-Mobile landet mit 8 Stimmen auf dem dritten
Platz. Es gab 6 Befragte die als Vertragspartner E-Plus und
3 die Debitel angaben. Es gab es nur einen Befragten der
einen anderen Provider als die Üblichen, nämlich Hutchison, angegeben hat. Bei der Frage nach dem beliebtesten
Hersteller sowie Provider haben sich bei den Teilnehmern
der Umfrage keine geschlechtspezifischen Vorlieben ergeben. Es scheint also nicht geschlechterabhängig zu sein
welche Marke und welcher Provider genutzt wird. Anders
verhält es sich bei dem Altersabhängigkeiten. Zwar ist bei
den Altersgruppen keine Tendenz bezüglich der Handymarke zu erkennen jedoch ist deutlich zu sehen, dass bei
den jüngeren Befragten Prepaid sehr verbreitet ist. Bei
den Personen unter 20 nutzt jeder zweite diese Art des
Vertrages. Dies nimmt dann mit zunehmendem Alter ab,
so dass, von den Personen über 24 Jahren, nur noch ein
einziger mit einer Prepaid Karte telefoniert.
Bei den Befragten der zweiten Zielgruppe also Personen über 50 Jahren zeigt sich, dass auch innerhalb dieser
Altersgruppe ein Trend zu Nokia und Siemens Handys besteht. Unter den Befragten gibt es 15 Nokia und 14 Siemens
Nutzer. Die anderen Handyhersteller sind bei den Umfrageergebnissen weit abgeschlagen und werden nur von sehr
wenigen Personen der befragten Altersgruppe genutzt. Es
gab jeweils nur einen Befragten der ein Motorola, Sagem,
Ericsson oder Alcatel Handy verwendet. Bei der Beliebtheit
der Vertragspartner in dieser Altersgruppe befinden sich
Vodafone und T-Mobile gleichauf an der Spitze mit jeweils
10 Stimmen. Weit dahinter rangieren andere Vertragspartner wie o2, Debitel und E-Plus mit jeweils nur 2 Stimmen.
Da aber viele Befragte den Vertragspartner nicht wussten,
ist dieser Teil nicht sehr aussagekräftig. Allerdings wussten
die meisten Personen, ob sie mit einem Vertrag oder einer
Prepaid Karte telefonieren. Die Auswertung der Umfrage für
die Senioren ergab, dass wie bei den ganz jungen Befragten
zwischen 12 und 19 die Nutzung einer Prepaid Karte sehr
beliebt bzw. verbreitet ist. Die Teilnehmer begründeten diese Vorliebe häufig mit den niedrigeren Kosten. Auch dies
lässt auf eine seltenere Nutzung des Mobiltelefons unter
diesen Teilnehmern schließen. Bei den älteren Personen
ist aber nicht wie bei den jüngeren eine Kostenkontrolle
92
der Grund für die seltene Nutzung, sondern meist weil sie
kein Bedarf haben. Auch hier ist eine Tendenz in Bezug auf
das Alter der Befragten zu erkennen. Unter den Befragten
zwischen 50 und 60 Jahren sind gerade einmal drei Personen mit einer Prepaid Karte zu verzeichnen. Dagegen
telefonieren etwa 60 Prozent aus der Gruppe der Befragten
im Alter über 60 Jahre mit einer Prepaid Karte. Bei näherer
Nachfrage ergab sich als Grund dafür die geringeren Kosten. Diese Tendenz verdeutlicht, dass es für Ältere billiger
ist eine wiederaufladbare Karte zu nutzen, wenn sie wenig
telefonieren, nur angerufen werden oder das Handy nur
für den Notfall brauchen.
Auffällig ist, dass viele der Befragten aus der älteren
Zielgruppe den eigenen Provider nicht kennen und teilweise sogar nicht einmal den Hersteller des Handys. Aus
diesen Tatsachen kann geschlossen werden, dass sich
ältere Personen nicht viel mit ihrem Handy auseinandersetzen. Diese Erkenntnis wird durch die Ergebnisse
bei der Frage nach genutzten Kommunikationsdiensten
bestätigt. Bei dieser Frage hat ein Großteil der Teilnehmer
ausschließlich die Nutzung des Telefondienstes angegeben. Nur wenige nutzen die SMS Funktion und wenn
dann auch nur selten. Andere Funktionen werden nur
von einem Befragten genutzt. Dieser ist allerdings als
Ausnahme zu werten, denn diese Person hat das Handy
sogar als Modem verwendet.
Die Frage ob die jeweilige Person das Handy oft dabei
und auch eingeschaltet hat ergab, dass viele Personen
dieser Zielgruppe das Handy oft zu Hause lassen und nur
in ganz bestimmten Situationen mitnehmen. Auch diese
Ergebnisse tragen zu dem Eindruck bei, dass ältere Leute
das Handy nicht oft benutzen. Zusätzlich wird bei dieser
Frage eine Tendenz in Bezug auf das Alter der Teilnehmer
erkennbar. Je älter die Personen werden um so mehr von
ihnen lassen das Handy oft zu Hause oder schalten es
nicht ein.
Die Gruppe unter den Befragten die kein Handy
besitzen, haben laut den Ergebnissen der Umfrage auch
kein Interesse an einem Handy. Teilweise gab es regelrechte Abneigung gegen Handys von dieser Personengruppe.
Auch das Argument der zu hohen Kosten ist zweimal
gefallen. Überraschendes Ergebnis bei der Frage, ob sich
die Personen ein Handy zulegen würden, wenn die Bedienung einfacher und übersichtlicher wäre, ist, dass etwa
die Hälfte der Befragten sich für ein Handy entscheiden
würden. Hauptargumente gegen den Kauf eines Handys
sind die zu kleinen Tasten und die kleine Schrift auf einem winzigen Display. Aber auch die Menüführung wurde stark kritisiert in der Form, dass es zu viele unnötige
Untermenüs gibt. Diese Tatsache und die Erfahrung, dass
Dienste außer Telefonie und SMS selten genutzt werden,
zeigt die Bereitschaft der älteren Personengruppe auf viele Zusatzfunktionen zu Gunsten der Übersichtlichkeit der
Menüführung zu verzichten. Auch die Ergebnisse auf die
Frage nach der Wichtigkeit der Marke des Handys tragen
zu dem Eindruck der Unzufriedenheit der älteren Generationen mit der Menüführung bei. Denn die Entscheidung
für eine spezielle Marke hängt bei dieser Personengruppe
größtenteils von der Menüführung ab. Aus diesem Grund
sind die meisten Älteren ihrer jeweiligen Handymarke treu,
denn sie sind bereits mit dem Menü vertraut.
TFH Wildau, Wissenschaftliche Beiträge 2006
2.2 Design vs. Funktionalität
Die Studie soll zeigen, dass gerade bei Jugendlichen das
Design im Vordergrund steht, bei der Zielgruppe der
älteren Menschen aber eher die Funktionalität. Jedoch
beschreibt Funktionalität in diesem Fall nicht alle möglichen Funktionen die ein modernes Mobiltelefon zu bieten
hat. Vielmehr sind hier Grundfunktionalitäten gemeint.
Dazu gehört das Telefonieren und SMS schreiben. Es geht
ebenfalls um die Bedienbarkeit der Telefone und ihrer einzelnen Funktionen. Design ist etwas weiter zu fassen, als
die bloße äußere Erscheinung. Hier geht es ebenfalls um
Funktionen, allerdings eher um neuartige Zusatzfunktionen, wie Kamera, MP3-Player usw. Design umfasst auch,
die Möglichkeiten zur Individualisierung des Handys.
Klingeltöne und Logos sind hier wichtige Indikatoren für
eine Tendenz zum Design.
Bei der Zielgruppe der über 50-jährigen konnten über
17 Prozent derer, die ein Mobiltelefon besitzen, nicht sagen
um welche Marke es sich handelt. Den Produkttyp konnte
kein Einziger sagen. Jedoch gab es die beinahe einhellige
Meinung, dass die Menüführung zu kompliziert sei, zu
viele Funktionen am Handy seien, die Schrift auf dem
Display zu klein sei und/oder die Tasten zu klein seien.
Mitsamt dem Fakt, dass Telefonieren und in gewissem
Maße SMS schreiben, fast die einzigen Funktionen sind,
die Befragte dieser Altersgruppe nutzen, lässt den Schluss
zu, dass Funktionalität hier an erster Stelle steht. Die
Menschen möchten ein Mobiltelefon, welches die beiden
Grundfunktionalitäten einfach und übersichtlich zur Verfügung stellt und fühlen sich mit den momentan am Markt
befindlichen Geräten, nicht verstanden. Design spielte eine
sehr geringe Rolle. Nur wenige Befragte erwähnten, dass
ihnen die Größe des Handys wichtig sei.
Bei den jugendlichen Befragten, sah die Situation
ganz anders. Hier konnten fast alle Befragten den Typen
ihres Handys bestimmen. Es handelte sich dabei auch fast
ausschließlich um aktuellere Modelle. Bei der Frage welche
Funktionen die Jugendlichen nutzen, gaben 100 Prozent
an das sie das Telefon und SMS benutzen. 35 Prozent der
Befragten nutzen auch MMS, jedoch sehr selten oder ab und
zu. 45 Prozent der Befragten nutzen die Handykamera. 11
Prozent nutzen das Mobiltelefon als MP3-Player. Immerhin
17 Prozent surfen im Internet, aber das auch sehr selten.
Die Frage nach der Individualisierung des Mobiltelefons ist bei den jugendlichen Befragten sehr unterschiedlich ausgefallen. 35 Prozent der Befragten sagten das sie
ihr Mobiltelefon persönlich anpassen würden und das
vor allem durch Klingeltönen (23 Prozent) und Logos (15
Prozent). Dabei waren vor allem die unter 18-Jährigen an
diesen Möglichkeiten interessiert.
Die Möglichkeit mit dem Telefon Dateien auszutauschen nutzen ca. 15 Prozent und dann vor allem für Bilder
(11 Prozent) und Musik (9 Prozent).
Letztendlich zeigt das, dass die Jugendlichen die
Möglichkeiten, die ihr Mobiltelefon Ihnen bietet, vielmehr
nutzen als die Menschen der älteren Generation. Diese
brauchen vor allem das Telefonieren und das SMS schreiben. Es kann also gesagt werden, dass junge Menschen
das Telefon eher als Designobjekt sehen, während ältere
Menschen eher den ursprünglichen Nutzen des Telefons
in den Vordergrund stellen.
TFH Wildau, Wissenschaftliche Beiträge 2006
2.3 Der Kostenfaktor
Während bei der Generation der über 50-jährigen lediglich
80 Prozent ein Mobiltelefon besaßen, haben nur 10 Prozent
gesagt, das sie zusätzliche Dienste nutzen. Die zusätzlichen
Dienste beschränkten sich zumeist auf die Weckfunktion
des Mobiltelefons. Nur ein einziger Befragter hat das Telefon noch zusätzlich als Modem verwendet. 90 Prozent
der Befragten dieser Zielgruppe nutzen das Mobiltelefon
nur selten oder ab und zu zum Telefonieren. Lediglich 10
Prozent nutzen es oft oder sehr oft zum Telefonieren. 35
Prozent derer die ein Mobiltelefon besitzen nutzen es auch
zum Schreiben von SMS-Nachrichten.
In dieser Altersgruppe war kein Befragter zu finden der
für kostenpflichtige und teure Dienste Geld ausgegeben
hätte. Ganz anders ist die Situation bei den Jugendlichen
zwischen 12 und 25 Jahren. Bei der Umfrage ist ersichtlich geworden, dass nur Jugendliche unter 15 Jahren, das
kostenpflichtige Herunterladen von Bildern oder Klingeltönen in Anspruch nehmen. Über dieser Altersgruppe ist
kein Befragter zu finden, der diese Dienste in Anspruch
nimmt. Während bei der Personengruppe 12-17 eher das
Versenden von Kurzmitteilungen favorisiert wird, ist es bei
den ab 18-jährigen eher das Telefonieren, obwohl immer
noch sehr viele SMS versendet werden.
Die Kosten, die durch die Mobiltelefonnutzung entstehen, werden bei den über 18 Jährigen zu 79 Prozent
von den Befragten selbst getragen. Ca. 15 Prozent sagt,
dass die Eltern die Rechnung bezahlen. Bei 5 Prozent in
dieser Altersgruppe teilen sich Befragte und deren Eltern
die Telefonrechnung. Anders ist die Situation bei den unter
18 Jährigen. Hier geben insgesamt 80 Prozent an, dass sie
sich die Telefonrechnung mit Ihren Eltern teilen. Bei 13
Prozent zahlen die Eltern die gesamte Rechnung und bei
5 Prozent zahlen die Befragten selbst.
Während bei den Jugendlichen ab 18 Jahren die
Laufzeitverträge mit ca. 79 Prozent anzutreffen sind und
Prepaid-Karten mit 21 Prozent, ist es bei den unter 18
Jährigen noch häufiger eine Prepaid-Karte. Da PrepaidKarten wesentlich höhere Tarife haben, schließen viele
Eltern für ihre Kinder einen Vertrag ab, um so günstigere
Tarife nutzen zu können.
3. Fazit
Die Auswertung der Umfrage bei den Jugendlichen hat
ergeben, dass das Handy für die jüngeren Befragten dieser
Zielgruppe eine größere Rolle spielt als bei den Jugendlichen ab 20 Jahren. Von den jüngeren nutzen mehr
die Zusatzfunktionen, wie etwa das Herunterladen von
Bildern oder Klingeltönen. Unter diesen Personen nimmt
das Handy auch einen höheren Stellenwert ein, denn im
Durchschnitt wird das Mobiltelefon von jüngeren häufiger
genutzt als von Jugendlichen ab 20 Jahren. Vergleicht man
die Nutzung zusätzlich mit der Zweiten Zielgruppe, den
über 50-jährigen, fällt auch hier auf, dass jüngere Leute
das Handy häufiger gebrauchen. Die Wichtigkeit eines
aktuellen Handys wurde von den Jüngsten der Befragten
als sehr hoch angegeben. Dies verdeutlicht den hohen
Stellenwert des Mobiltelefons unter dieser Personengruppe
und zeigt, dass es einen festen Platz in dem Leben eines
93
Heranwachsenden einnimmt. Bei der Frage ob ein Verlust
des Handy auch den Verlust aller Telefonnummern und
Adressen zur Folge hat ergab sich, dass nicht einmal 70
Prozent der Jugendlichen eine Kopie des Telefonspeichers
besitzen. Dies bestätigt die Behauptung, dass das Handy
eine enorm wichtige Rolle im Leben von diesen Befragten
einnimmt und zeigt das der Verlust Folgen für deren soziale
Kontakte hat.
In dem Marktsegment des Handys für Personen ab
50 Jahren besteht jedoch nach der Umfrage noch starker Handlungsbedarf. Die Handyhersteller haben die
Bedürfnisse der Personengruppe über 60 Jahren lange
außer Acht gelassen und keine speziell angepassten
Produkte für diese Zielgruppe entwickelt und auf den
Markt gebracht. Diese Studie zeigt aber, dass es einen
Bedarf nach einem einfachen auf wenige Funktionen
reduzierten Handy gibt. Mit einem solchen Produkt
können, wenn man nach den Ergebnissen der Umfrage
geht, noch weitere Personen vom Nutzen eines Handys
überzeugt werden. In dieser Altersgruppe ist allerdings
ein starker Trend zu sehr seltener Nutzung des Telefons
zu erkennen. Daraus lässt sich auf die geringe Wichtigkeit eines Mobiltelefons für die Befragten über 60 Jahren
schließen. Diese Personen haben das Handy also noch
nicht vollständig als alltäglichen Gebrauchsgegenstand
akzeptiert. Diese Aussage wird auch von den Ergebnissen
der Umfrage gestützt, die ergab, dass das Handy in dieser
Altersgruppe hauptsächlich für den Notfall angeschafft
wurde. Jedoch ist in diese Gruppe der Anteil der Personen,
die das Handy meist zu Hause lassen sehr hoch. Dies stellt
einen Widerspruch dar, denn wenn das Handy zu Hause
liegt kann es im Notfall nicht helfen.
Die Studie zeigt, dass die Generationen, die von klein
auf mit einem Mobiltelefon aufwachsen, mehr Interesse
an der Nutzung des Handys zum Telefonieren oder an der
Nutzung der Zusatzfunktionen besitzen. Von diesen Personen wird das Handy als Lifestyle-Objekt anerkannt.
Die Umfrage hat gezeigt, dass ältere Menschen eher
auf die grundlegenden Funktionen Wert legen, als auf
viele Spielereien. Es ist einerseits kein Bedarf an den angeboten Diensten dar oder die Dienste können aufgrund
der immer komplexer werdenden Menüstruktur und den
immer dichter werdenden Informationsangeboten nicht
mehr erschlossen werden. Ältere Menschen benötigen
ein Mobiltelefon bei dem sie die Grundfunktionen einfach und schnell bedienen können. Ganz im Gegensatz
dazu stehen die jugendlichen Befragten, die neben den
Grundfunktionen eines Mobiltelefons, nämlich Telefon
und SMS, auch viele Zusatzfunktionen nutzen. Da der
Mobilfunkmarkt in Deutschland nahezu gesättigt ist,
versuchen die Anbieter nun mit kostenpflichtigen Zusatzdiensten auf den Markt zu kommen. Deshalb wird sich in
Zukunft das Angebot an kostenpflichtigen Zusatzdiensten
eher noch verstärken und gerade die heranwachsende
Generation wird auf dieses Informationsangebot und
diese Services anspringen.
Ein wichtiges Thema dürfte dabei auch die Finanzierung der Nutzung solcher Dienste stehen. Der Kostenfaktor
von solchen Zusatzdiensten ist enorm. Viele Menschen
unterschätzen diese Kosten und verschulden sich hoch.
Die Umfrage hat gezeigt, dass gerade beim Nachwuchs die
94
Nutzung solcher kostenpflichtigen Zusatzdienste zunimmt.
Das Handy wird immer mehr zum Lifestyle-Objekt. Aber
Lifestyle-Objekte haben ihren Preis und so muss man auch
beim Handy immer den Kosten-Nutzen Faktor im Auge
behalten.
4. Danksagung
Wir danken Prof. Dr. Bernd Eylert für die Unterstützung bei
der Ausarbeitung dieser Studie, sowie für die interessante
Aufgabenstellung. Die Vorlesung Telekommunikation und
Gesellschaft hat uns eine neue, interessante Perspektive auf
die Telekommunikation gegeben, wo nur allzu oft nur auf
technische Aspekte geachtet wird und die Frage nach den
Wechselwirkungen mit der Gesellschaft zu kurz kommt.
Autoren
Markus Czok
Sittestraße 3c, 13437 Berlin
Tel. +49 30 41718845
[email protected]
Marc Gurczik
Am Comeniusplatz 5, 10243 Berlin
Tel. +49 174 1800999
[email protected]
TFH Wildau, Wissenschaftliche Beiträge 2006
Einführung, Nutzen und Gefahren durch Funkchips
Michael Ring, Peter Ungvári
1 Einleitung
Der Austausch von Informationen gehört für jeden Menschen zum Alltag. Ob ein Bestellschein ausgefüllt wird oder
auf einem Flughafen der Pass eines Menschen kontrolliert,
es werden dabei immer Informationen über Menschen,
Waren oder Prozesse ausgetauscht.
Mit der zunehmenden Globalisierung und dem damit
verbundenen internationalen Personen- und Güterverkehr
wird es erforderlich, Informationen, insbesondere auch
über Menschen, über Landesgrenzen hinweg, zugänglich
und austauschbar zu machen.
Die Lösung dieser Problematik erfordert dabei den
Einsatz moderner und leistungsfähiger Technologien. Es
muss einerseits der Zugang zu den Datensätzen als solches
ermöglicht werden. Dies wird in vielen Fällen über das
bereits bestehende Internet realisiert. Andererseits muss die
Zuordnung des Menschen oder auch eines Transportgutes
zu dem entsprechenden Datensatz erfolgen, was speziell
im Bereich Datenschutz und Datensicherheit eine Vielzahl
von Konsequenzen nach sich zieht. Die Zuordnung der
Daten muss somit fälschungssicher und trotzdem für den
Menschen zumutbar realisiert werden.
RFID ist ein Mittel, um die Identifikation von Menschen und Gütern zu ermöglichen, welches die Eigenschaft
besitzt kontaktlos zu arbeiten. Es ist somit möglich, ohne
eine feste Verbindung zum Informationssystem Daten und
Identifikationsschlüssel zu übertragen.
Mit dieser Ausarbeitung sollen die Möglichkeiten
und die Funktionsweise von RFID und insbesondere
auch die Gefahren und Missbrauchspotentiale betrachtet
werden. Es sollen dabei vor allem die für den Umgang
mit personenbezogenen Daten relevanten Aspekte der
RFID-Technologie untersucht und die Grundlagen der
Erfassung und Auswertung biometrischer Daten erörtert
werden.
Aufgrund aktueller, politischer Entwicklungen wird
dabei der Schwerpunkt auf die Einführung des neuen,
digitalen Reisepasses gelegt, welcher im November 2005
eingeführt werden soll. Es wird dabei auf die Umsetzung
der technischen Problemstellungen, die Art der gespeicherten Daten und die Probleme beim internationalen
Austausch dieser Daten, speziell im Bereich des Flugverkehrs eingegangen.
Abb. 1: RFID-Komponenten
TFH Wildau, Wissenschaftliche Beiträge 2006
Da mit Einführung einer neuen Technologie durch alle
Bevölkerungsschichten hindurch auch gesellschaftliche
Probleme und Folgen entstehen können, wird abschließend die Akzeptanz der Technologie als solches und des
digitalen Reisepasses in Form einer Umfrage untersucht
und ausgewertet.
2 Grundlagen
2.1 Grundlagen RFID
RFID steht für „Radio Frequency Identification“ und
ermöglicht, wie bereits der Name beschreibt, die Identifikation auf Basis von Funksignalen. Die Umsetzung einer
RFID-Infrastruktur erfordert im Wesentlichen drei Arten
von Komponenten:
– RFID-Sender
– RFID-Transponder
– Datenbank bzw. Informationssystem.
Der RFID-Sender ist dabei eine Sende- und Empfangsstation, welche in der Lage ist mit RFID-Transpondern in der
näheren Umgebung zu kommunizieren und Informationen über die identifizierten Transponder mittels eines
Netzwerkes an ein Informationssystem, welches über eine
Datenbank verfügt, weiterzuleiten. Das Informationssystem ist dabei üblicherweise in Form einer Client-/ ServerArchitektur realisiert.
Die RFID-Transponder bestehen aus wenigen Schaltkreisen, welche ausschließlich auf bestimmte Funk-Frequenzen
reagieren. Passive RFID-Transponder benötigen keine eigene
Stromversorgung, wie z. B. eine Batterie, wodurch sie über
eine sehr hohe Lebensdauer verfügen. Die Distanz zum Auslesen des Transponders ist von den eingesetzten RFID-Sendern und deren Montage abhängig und liegt dabei zwischen
wenigen Zentimetern und maximal zwei Metern.
Auf dem RFID-Transponder kann dabei nur eine begrenzte Anzahl von Informationen gespeichert werden,
wodurch zwei gängige Verfahren zur Speicherung von
Daten möglich sind:
– Speicherung aller Informationen auf dem Transponder
– Speicherung eines Identifikationsschlüssels auf dem
Transponder
Die Möglichkeit alle Informationen auf dem Transponder
zu speichern ist ausschließlich in solchen Fälle sinnvoll,
wo es nur eine beschränkte Menge an Informationen gibt
bzw. der Zugang zu einer Datenbank, aufgrund der Art der
Anwendung, nicht uneingeschränkt möglich ist.
Die Möglichkeit ausschließlich einen Identifikationsschlüssel auf dem Transponder zu speichern bietet sich vor
allen Dingen dann an, wenn die Menge der Informationen
den Speicherplatz des Transponders übersteigt und darüber
hinaus der Zugang zu einer Datenbank, in welcher die
entsprechenden Informationen abgelegt sind, dauerhaft
möglich ist.
95
Beide Lösungen bieten dabei verschiedene Vor- und Nachteile, welche je nach dem zu lösenden Problem sorgfältig
gegeneinander abgewägt werden müssen.
Es sind darüber hinaus auch Mischformen beider
Anwendungsmöglichkeiten realisierbar, bei welchen eine
Auswahl von relevanten Daten direkt auf dem Transponder gespeichert ist und zusätzlich weitere Informationen
mittels eines gespeicherten Schlüssels aus einer Datenbank
geladen werden können.
Die Möglichkeiten die RFID-Technologie anzugreifen
lassen sich im Wesentlichen in zwei Bereiche unterteilen.
Einerseits besteht die Gefahr, dass der RFID-Transponder
durch Unberechtigte ausgelesen und die enthaltenen Daten gespeichert werden. Andererseits können Gefahren
auch dadurch entstehen, dass der Zugang zum Informationssystem bzw. dessen Datenbank, mittels welcher die
Verknüpfung von Identifikationsschlüsseln und Daten
möglich ist, nicht ausreichend reglementiert oder geschützt ist. Es ist so unter Anderem möglich die Kommunikation zwischen Sendern und Transpondern mitzuhören
und die übermittelten Daten zu speichern. Um diese sehr
einfach zu realisierenden Angriffe zu unterbinden und so
das Mitlesen sensibler Daten zu erschweren kommen bei
personenbezogenen Anwendungen häufig moderne Verschlüsselungsverfahren zum Einsatz.
2.2 Anwendungsgebiete
RFID kommt in verschiedenen Anwendungsgebieten zum
Einsatz. Ziel ist dabei immer die Identifikation, die Ortung
sowie das sog. „Tracing“, also die Verfolgung eines Objektes oder einer Person. Der Hauptnutzen der Technologie
entstand dabei im Bereich der Logistik und des Transportwesens. Mittels RFID ist es möglich z. B. einen GüterContainer mit einer eindeutigen Kennung zu versehen,
und diesen an den einzelnen Punkten des Transportweges
zu identifizieren und in einer Datenbank zu registrieren.
Für den Transportunternehmer sowie dessen Kunden ist
es somit möglich, jederzeit den aktuellen Standort des
Containers bis auf die genaue Position innerhalb eines
Containerlagers zu bestimmen.
Die erzeugten Daten dienen neben dem Abfragen
des aktuellen Standortes des Containers auch zur Analyse
des Transportweges und im größeren Umfang auch von
Transportflüssen und ganzen Logistikketten. Logistikunternehmen erhalten somit wertvolle Informationen, welche
unmittelbar in die zeitliche und finanzielle Optimierung
von Prozessen einfließen können.
Auch in anderen Anwendungsgebieten hat sich RFID
etabliert. Bereits heute basieren viele der eingesetzten
Mechanismen zur Diebstahlerkennung auf Basis der
RFID-Technologie. Es kann z. B. mittels RFID festgestellt
werden, dass ein Produkt, welches nicht bezahlt wurde, aus
dem Geschäft entfernt wird. In Zukunft kann dieser Mechanismus z. B. auch für das Bezahlen von Waren genutzt
werden. Wenn der Kunde und die Ware bekannt und beim
Geschäft registriert sind, könnte das Bezahlen eines Produktes einfach durch das Verlassen des Geschäftes realisiert
werden, da der entsprechende Produktwert unmittelbar
vom Konto des identifizierten Kunden abgebucht werden
kann. Große Handelsketten wie z. B. die METRO oder Tengelmann forschen auf diesem Anwendungsgebiet.
96
Die am Beispiel von Waren oder Containern dargestellten
Anwendungen lassen sich dabei auch sehr leicht auf den
Menschen übertragen. Es wäre somit möglich z. B. die
Reiseroute eines Menschen ähnlich der Route eines Containers zu verfolgen, da z. B. an jedem besuchten Flughafen
ein Datensatz mit Zeit, Ort und ggf. sogar dem Reiseziel
der betreffenden Person erzeugt und zentral gespeichert
werden kann und ggf. ein automatischer Alarm ausgelöst
wird, wenn eine Person z. B. nicht zur Aus- oder Einreise
berechtigt ist.
Die Problematik liegt dabei neben der Identifikation des gespeicherten Schlüssels und der Ermittlung der
zum Schlüssel passenden Informationen auch darin, die
Zugehörigkeit vom Identifikationsschlüssel und der betreffenden Person einwandfrei feststellen zu können. Es
werden für personenbezogene Anwendungen somit Daten
benötigt, welche anhand der individuellen Merkmale einer
Person eine eindeutige Identifikation ermöglichen. Daten
mit diesen Eigenschaften werden als biometrische Daten
bezeichnet.
3 Der digitale Reisepass
Am 1. November des Jahres 2005 wird der neue digitale
Reispass in Deutschland eingeführt. Dieser soll mit 59 €
rund doppelt soviel wie der „klassische“ Reisepass kosten.
Anhand gespeicherter biometrischer Daten soll zum einen
die Verbindung zwischen der Person und deren Reispass
verstärkt werden und zum anderen soll auf diesem Wege
die Fälschungssicherheit erhöht werden. Als Kerntechnologie kommt dabei RFID zur Datenspeicherung und Kommunikation zum Einsatz. Im Folgenden wird erläutert was
biometrische Daten sind, wie diese erhoben werden und
welche Probleme mit der Entwicklung und Einführung
des neuen digitalen Reispass entstanden sind bzw. noch
entstehen können.
Mit der Einführung des neuen Reisepasses im Jahr
2005 wird dabei ausschließlich das Gesichtsbild als Identifikationsmerkmal verwendet. Erst im Jahr 2007 soll neben
dem Gesichtsbild auch der Fingerabdruck als Pflichtmerkmal ergänzt werden.
3.1 Biometrische Daten
Noch vor wenigen Jahren schien die Biometrie ein Wesen
der Zukunft zu sein. Menschen wurden höchsten in Science-Fiction-Romanen mit dieser Materie und deren Anwendungsgebieten konfrontiert. Doch was damals noch
futuristisch schien, ist heute bereits Realität und wird ab
dem 1. November diesen Jahres mit der Einführung des
neuen digitalen Reisepasses für Jedermann zum Alltag.
Auch wenn es so scheint als sei die Biometrie eine
Wissenschaft des 20. Jahrhundertes, muss gesagt werden,
dass die Ursprünge dieser scheinbar neuen Wissenschaft
bis in das Jahr 1500 v. Chr. zurückreichen. In dieser Zeit
zeichneten bereits die Babylonier ihre Handelsverträge
mit dem eigenen Fingerabdruck ab. In China und Japan
wurden Fingerabdrücke bereits zwischen 600 und 900 n.
Chr., ebenfalls als Stempel und Siegel, eingeführt. Darüber
hinaus wurde in China erstmals den Fingerabdruck als
Beweismaterial in Strafprozessen eingesetzt. Leonardo Da
TFH Wildau, Wissenschaftliche Beiträge 2006
Vinci setzte sich als erster im 15. Jahrhundert wissenschaftlich mit der Vermessung menschlicher Körperteile auseinander. Seine Ergebnisse sind bis heute eine wesentliche
Grundlage für Forschungen auf dem Gebiet der Biometrie. Einen weiteren Meilenstein setzte Marcello Malphigi,
ein bedeutender Wissenschaftler an der Universität von
Bologna. Dieser erforschte im 17. Jahrhundert die Poren
der menschlichen Haut und
stieß als erster auf das sog.
Papillarlinienmuster auf den
menschlichen Fingerkuppen
(vgl. Abb. 2). Darauf aufbauend formulierte der englische
Wissenschaftler Francis Galton im 19. Jahrhundert Aussagen über die Individualität
des Fingerabdrucks. Trotz der
langen Geschichte steht die
Biometrie heute noch am
Abb. 2: Papillarlinienmuster
Anfang ihrer Entwicklung.
In der heutigen Zeit wird
die Biometrie wie folgt definiert: „Biometrie ist die Technik der Erkennung von Personen anhand persönlicher
Charakteristika, z. B. Gesicht und Fingerabdruck.“ [5].
Die am bekanntesten und geläufigsten biometrischen
Daten sind
– der „klassische “ Fingerabdruck und
– der genetische Fingerabdruck.
Der genetische Fingerabdruck wird heute erfolgreich in
der Verbrechensbekämpfung und -aufklärung angewandt.
Trotz großer und zahlreicher Erfolge in der Verbrechensaufklärung ist diese Methode heute noch umstritten und
deren Einsatz nach wie vor sehr kostenintensiv. Der genetische Fingerabdruck wird als biometrisches Merkmal in
dieser Ausarbeitung deshalb nicht weiter betrachtet.
Das wohl am bekannteste und älteste biometrische
Merkmal ist der Fingerabdruck. Dieser wird ebenfalls
unter anderem in der Verbrechensaufklärung, zur Überführung von Straftätern angewandt. Die Bestimmung bzw.
Ermittlung des Fingerabdrucks erfolgt nach einem alten
Verfahren, welches auch schon Francic Galton für seine
Forschungen angewandt hat. Im Gegensatz zur damaligen
Zeit erfolgt die Erfassung heute automatisiert mit Hilfe
von Scannern und Computern. Dabei werden aus dem
Fingerabdruck mittels einer Software eindeutige Merkmale
extrahiert. Dies sind zum einen Verzweigungen und zum
anderen das Ende, welche die Papillarlinien beschreiben.
Diese Merkmale bezeichnete Galton als Minutien (lateinisch: Kleinigkeit). Die heutigen automatisierten Verfahren
nutzen zu 80 % die Minutien zur Erfassung des Fingerabdrucks. Die restlichen 20 % nutzen unter anderem die Lage
und Richtung der Hauptlinien.
Obwohl nahezu alle Systeme identische Verfahren
anwenden, existieren heute eine Vielzahl an Techniken
zur Erkennung der Merkmale. Man unterscheidet hier
zwischen kontaktfreien und kontaktbehafteten Systemen.
Die kontaktfreien Sensoren haben den Vorteil, wie die Bezeichnung schon andeutet, dass der Finger nicht auf den
Sensor gelegt werden muss. Dies hat den Vorteil, dass der
Sensor wesentlich langsamer verdreckt und somit auch
hygienische Aspekte gewährleistet sind.
TFH Wildau, Wissenschaftliche Beiträge 2006
Bei der kontaktfreien Methode werden heute hoch auflösende Kameras und Ultraschall-Sensoren verwendet. Diese sind
jedoch sehr teuer, so dass heute vor allem kontaktbehaftete
Sensoren Anwendung finden. Diese sind darüber hinaus
billiger und kompakter als kontaktfreie Sensoren und eignen
sich somit besser für Massenanwendungen. Dabei werden
heute sowohl Silizium- als auch Druck-Sensoren angewandt.
Wie die vier erwähnten Technologien den Fingerabdruck im
Einzelnen scannen, kann Tabelle 1 entnommen werden.
hoch
Eine Ausnahme bezüglich der Größe ist die CCDauflösende Kamera. Dieses System funktioniert relativ einfach.
Kameras
Ein Prisma wird von einer Seite bestrahlt und von einer
anderen Seite zeichnet eine Kamera die Reflexion der
Lichtstahlen auf, die entstehen wenn auf der dritten
Seite ein Finger aufgelegt wird.
Ultraschall- Eine weitere Möglichkeit ist die Abtastung des RillenSensoren
profils mittels Ultraschall. Ultraschallwellen tasten den
Finger nach Höhen und Tiefen ab und können somit
den Fingerabdruck rekonstruieren.
SiliziumSensor
Ein Siliziumkern misst die elektrische Aufladung
zwischen den Papilliarlinien und erstellt so ein 8-bit
Graustufenbild.
DruckSensoren
Auf der Chipoberfläche befinden sich winzige Widerstandssensoren. Wenn ein Finger auf den Drucksensor
gelegt wird, ändert sich der Widerstand an den Stellen,
an denen die Papilliarlinien auf dem Sensor aufliegen.
Diese Sensoren sind nur wenige Millimeter dick und
eignen sich dadurch für den Massenmarkt.
Tab. 1: Technologien zur digitalen Erfassung des Fingerabdrucks
Ein weiteres biometrisches Merkmal ist das menschliche
Gesicht. Im Gegensatz zur Fingerabdruckerkennung ist
die Gesichtserkennung eine sehr junge Wissenschaft und
kaum älter als 10 Jahre. Das US-amerikanische Verteidigungsministerium („DoD“ – Department of Defense) legte
in den 90iger Jahren mit dem „Face Recognition Program“
(FERET) die ersten Grundlagen und testete bereits erste automatisierte Systeme. Nach der Jahrtausendwende erfolgte eine Neuauflage und Erweiterung der Tests unter dem
Namen „Facial Recognition Vendor Test“. In Deutschland
beschäftigt sich seit dem Jahre 2002 das „Bundesamt für
Sicherheit in der Informationstechnik“ (BSI) mit der Untersuchung von Algorithmen zur Gesichtserkennung.
Abb. 3: Vorgehensweise bei der Template-Erzeugung
97
Man unterteilt den Prozess der Gesichtserkennung dabei
in drei wesentliche Arbeitsschritte:
– Template erzeugen,
– Referenzdatensatz erzeugen und
– Gesichtsbilder vergleichen.
Um den Vergleich zweier Gesichtsbilder schneller und
einfacher zu gestalten werden zunächst die Merkmale des
Gesichts erfasst und in einem Merkmalsdatensatz, dem sog.
Template gespeichert (vgl. Abb. 3). Es werden in erster Linie
solche Merkmale erfasst, welche sich nur schwer durch
Mimik verändern lassen, zum Beispiel die obere Kante der
Augenhöhlen, die Gebiete um die Wangenknochen und
die Seitenpartien des Mundes.
Abb. 4: Vorgehensweise bei der Referenzdaten-Erzeugung
Im nächsten Arbeitsschritt werden Referenzdaten erzeugt
(vgl. Abb. 4). Diese werden dann zur Identifikation von
Personen angewandt. Die Referenzdatenbank entsteht
durch das Einspeichern von Gesichtsbildern. Dabei werden die bereits erfassten Merkmale der Templates mit den
neuen Bildern verglichen und ggf. um weitere Merkmale
ergänzt bzw. verfeinert. Um veränderte Kopfhaltungen
oder auch Mundöffnungen berücksichtigen zu können,
werden zur Erstellung des Referenz-Templates auch mehrere Gesichtsbilder aus zum Beispiel Videosequenzen genutzt. Die Referenzdaten-Erzeugung verfeinert die zuvor
erzeugten Templates.
Im letzten Schritt, dem Vergleich der Gesichtsbilder,
werden die gespeicherten Bilder bzw. Gesichtsmerkmale
mit Hilfe komplexer mathematischer Algorithmen kombiniert und verglichen. Im Ergebnis erhält man den Grad
der Ähnlichkeit mit dem gespeicherten Template bzw.
Referenzdatensatzes.
offen
Dieses Merkmal kann ohne weitere Hilfsmittel beobachtet
werden. (z. B. Gesicht)
leicht
verdeckt
Ein Nebenstehender kann dieses Merkmal beobachten
(z. B. Fingerabdruck)
verdeckt
Dieses Merkmal kann nur mit Hilfe eines bestimmten
Detektors erfasst werden. (z. B. Retina-Muster)
diskret/
schwer
verdeckt
Das Merkmal ist nicht direkt beobachtbar, sondern das
Ergebnis, welches eine (geheime) Funktion aus dem Personenverhalten analysiert. Das Abhören von Messdaten
bringt keine auswertbare Information.
Tab. 2: Verfahren zum Vergleich von Gesichtsmerkmalen
Im Bereich der Gesichtserkennung werden heute neben
dem beschriebenen Prinzip auch noch weitere Verfahren
angewandt:
98
Neben den erwähnten biometrischen Merkmalen/Verfahren existieren auch weitere, wie
– Iriserkennung,
– Stimmerkennung und
– Handgeometrie.
Weiterführend werden nur die ausführlich beschriebenen
Merkmale Fingerbadruck und Gesicht betrachtet, da diese
als neues Merkmal digital im neuen Reisepass gespeichert
werden. Die Entscheidung seitens der Europäischen Union
für das Gesicht als primäres Identifikationsmerkmal beruht
auf eine Empfehlung der UN-Zivilluftfahrt-Organisation
(International Civil Aviation Organization – ICAO). Der
Fingerabdruck wurde als eine Art „Ersatzmerkmal“ zusätzlich mit aufgenommen, da dieser sich durch eine
hohe Praxistauglichkeit auszeichnet. Des Weiteren soll
der Fingerabdruck die Flexibilität bei den Kontrollen
erhöhen. An Stellen, an denen die Gesichtserkennung
aufgrund schlechter Beleuchtungsverhältnisse oder bei
einem eventuellen Massenandrang nicht möglich ist, soll
dennoch eine Identifikation möglich sein.
3.2 Anwendungsgebiete Biometrie
Wie bereits festgestellt wurde, werden biometrische Merkmale ab November dieses Jahres digital auf RFID-Funkchips im neuen Reisepass gespeichert. Das tatsächliche
Anwendungsgebiet der Biometrie ist allerdings wesentlich
größer. Zum einen findet diese Wissenschaft Anwendung,
um wichtige Dokumente (zum Beispiel den Reispass) fälschungssicherer zu gestalten. Zum anderen werden biometrische Daten hauptsächlich dort angewandt, wo die
Identität eines Menschen eine eminent wichtige Rolle
spielt und verlässlich und schnell ermittelt werden muss.
Heutige Anwendungen sind
– Sicherung von Computern und Daten (Samsung führte
als erster Notebook-Hersteller die User-Authentifizierung über einen Fingerabdruck ein.)
– Zugangskontrollen (Das Militär setzte mit als erstes
die Personenidentifikation anhand biometrischer
Merkmale zur Zugangskontrolle an Hochsicherheitsgebäuden ein.)
– Auszahlung von Sozialgeldern (Das erste Land, welches
biometrische Daten, den Fingerabdruck, zur Überprüfung der rechtmäßigen Auszahlung von Sozialgeldern
einführte, war Südafrika. Ausschlaggebend hierbei war
der hohe Anteil an Analphabeten in der Bevölkerung.
Ähnliche Systeme bzw. Verfahren befinden sich in Kolumbien und Spanien in der Einführung und nutzen
ebenso den Fingerabdruck.)
– Arbeitszeiterfassung (Eine Supermarktkette mit 450
Supermärkten erfasst die Arbeitszeiten des Personals
anhand der Identifikation über den Fingerabdruck.
Der anfängliche Widerstand des Personals konnte
aufgrund einer Datenschutzüberprüfung überbrückt
werden.)
Das wohl bekannteste und aktuellste Anwendungsbeispiel
für biometrische Merkmale ist, wie bereits mehrfach erwähnt, der neue digitale Reispass. Mittels der neuen Daten
sollen Personen besser, schneller und vor allen Dingen
sicherer Identifiziert werden können. Des Weiteren wird
so eine Verbesserung der Fälschungssicherheit erzielt. Für
die Identifizierung existieren zwei Systeme:
TFH Wildau, Wissenschaftliche Beiträge 2006
– AFIS (Automatisches Fingerabdruck Identifizierungssystem)
– AFAS (Automatisches Fingerabdruck Authentifizierungssystem)
Beim AFIS wird der Fingerabdruck gescannt und anhand einer Datenbank identifiziert. Dabei wird der Fingerabdruck
mit allen in der Datenbank gespeicherten Abdrücken verglichen. Das Ergebnis ist eine Liste mit allen möglichen
Treffern, welche sortiert nach der Trefferwahrscheinlichkeit
ausgegeben wird.
AFAS wird zur Identifizierung über den Fingerabdruck
beim neuen Reispass angewandt. Zusätzlich zum gescannten Fingerabdruck fordert das System eine Identität an.
Diese Identität bzw. deren Identifikationsschlüssel liefert
der Reispass bzw. dessen RFID-Chip. Das System vergleicht
dann den zur ermittelten Identität gespeicherten Fingerabdruck in der Datenbank mit dem gescannten Abdruck.
3.3 Gefahrenpotentiale
Alle vorgestellten Verfahren ähneln sich dadurch, dass die
biometrischen Merkmale in Merkmalsvektoren abgespeichert werden. Beim digitalen Reisepass kommt dabei der
Merkmalsvektor des Referenzmusters, der von Benutzern
bei der Registrierung bzw. den Ämtern erstellt wird (Enrollment-Prozess) zum Einsatz. Dieser wird in einer Datenbank
und dem Reisepass abgespeichert und dient dem Vergleich
mit Testmustern. Testmuster werden bei jeder Authentifizierung der Person erstellt. Aus verfahrensabhängigen
Gründen kommt es meist aber zu kleinen Ungenauigkeiten bei der Erstellung, so dass die Merkmalsvektoren trotz
identischer Quelle, dem Inhaber des Reisepasses, nicht vollständig identisch sind. Deshalb wird beim Vergleich des Referenzmusters mit dem Testmuster der genaue Unterschied
mit Hilfe von Abstandsmetriken (z. B. Hamming-Distanz
oder Euklidische Distanz) ermittelt. Wird ein vordefinierter
Schwellwert nicht überschritten, so gelten die Muster als
identisch. Die Festsetzung des Schwellwertes beeinflusst
die „false accept rate“1 und die „false reject rate“2. Man
kann dabei sagen, dass je höher der Schwellwert gewählt
wurde, das System umso sicherer ist.
Abb. 5: Angriffe auf RFID [7]
Biometrische Daten lassen sich somit durch direkte
Täuschung des Systems adaptieren. Täuschung heißt,
dass ein echtes biometrisches Merkmal durch ein Imitat
ersetzt wird. Der Fingerabdruck kann so zum Beispiel durch
TFH Wildau, Wissenschaftliche Beiträge 2006
künstliche Finger aus Wachs oder Silikon nachempfunden werden. Auch einer eventuellen Lebendprüfung kann
mittels eines nachempfundenen Pulsierens widerstanden
werden. Auch ein Gesicht ließe sich mit Wachs und Silikon
adaptieren. Die Iris, auch wenn sie als Merkmal beim digitalen Reisepass nicht zum Einsatz kommt, könnte in diesem Szenario anhand einer Kontaktlinse nachempfunden
werden. Generell kann eine Fälschung von biometrischen
Merkmalen nur mit sehr hohem und kostenintensivem
Aufwand betrieben werden.
Ein weiteres Angriffsszenario ist der so genannte Akquisitionsangriff. Hier wird versucht biometrische Daten
anderer Personen zu erlangen. Mit welchem Erfolg ein
solcher Angriff durchgeführt werden kann, ist abhängig
vom biometrischen Merkmal selbst. So kann ein Fingerabdruck vergleichsweise Einfach erfasst werden, da dieser von
Jedermann unfreiwillig an jedem berührten Gegenstand
hinterlassen wird. Dieser ist somit passiv erfassbar. Eine
Einstufung aller biometrischen Merkmale kann Tab. 3
entnommen werden.
Elastische
Graphen
Es werden markante Stellen (sog. Knoten) im Gesicht
gesucht und untereinander verbunden. Das entstehende Gitter wird mit dem Gitter eines normierten
Referenzbildes verglichen, dabei wird versucht mit
Drehung, Streckung und Stauchung die Bilder aufeinander abzubilden. Die verbleibenden Unterschiede
ergeben das Maß für die Ähnlichkeit.
Geometrische Dieses Verfahren ähnelt dem der elastischen Graphen.
Merkmale
Dabei bilden die relativen Positionen zueinander
einen Vektor. Der Abstand zwischen diesem Vektor
zu dem des Referenzbildes ergibt die Ähnlichkeit der
Bilder.
Eigenfaces
Grundlage für dieses Verfahren ist eine Sammlung
von Basisbildern des Gesichts. Diese werden so kombiniert, dass sie mit dem zu vergleichenden Bild so
ähnlich wie möglich sind.
Tab. 3: biometrische Merkmale – Einstufung [1]
Biometrische Daten lassen sich nicht nur über einen
Aquisitionsangriff erfassen und daraufhin digitalisieren,
sondern unter Umständen auch direkt vom RFID-Chip
ausspähen. Dies ist zum einen davon abhängig, ob die
Chips die Daten von sich aus, ohne Überprüfung bzw.
Authentifizierung des Anfragers preisgeben, und zum
anderen ist das Ausspähen von Daten davon abhängig,
ob biometrische Daten direkt auf dem Chip gespeichert
werden, oder ob lediglich eine ID gespeichert ist, welche
einen Datensatz in einer zentralen Datenbank referenziert. Beim digitalen Reisepass werden beide Varianten
miteinander kombiniert eingesetzt. Im letzteren Fall
wäre das Angriffsziel nicht der Chip selbst, sondern die
Datenbank. Eine weitere Alternative im Ausspähen von
biometrischen Daten ist das Mithören der Kommunikation zwischen Sender und Transponder. Hier können
Angreifer den Datenaustausch mithören, wenn dieser
nicht verschlüsselt erfolgt. Hier ist die Sicherheit zusätzlich von der kryptographischen Qualität der Verschlüsselung abhängig.
Grundsätzlich ist das Ausspähen von biometrischen
Daten, sowohl beim direkten Datenabruf vom Chip, als
auch beim Abhören der Kommunikation, abhängig von
der Signalreichweite möglich. Je größer die maximale,
99
zum Auslesen benötigte Rechweite ist, desto unauffälliger
und unbemerkt lassen sich biometrische Daten unbefugt
erfassen.
Eine weitere Missbrauchsgefahr stellt die Zweckentfremdung der Daten dar. Mit Zeckentfremdung ist gemeint,
dass die Daten über die Authentifizierung des „Merkmalinhabers“ hinaus für einen Zweck genutzt werden, für den
diese nicht erhoben wurden. Eine Möglichkeit besteht
in der Verfolgungsmöglichkeit einer Person von einem
entfernten zentralen Punkt aus.
Des Weiteren besteht die Gefahr, dass Daten unzulässigerweise an Dritte weitergegeben werden. Im Allgemeinen
kann man sagen, dass auf die Einhaltung der datenschutzrechtlichen Bestimmungen besonders geachtet und dies
überprüft werden muss.
3.4 Gegenmaßnahmen
Um Angriffe abzuwehren, welche direkt das Auslesen der
Daten des RFID-Transponders zum Ziel haben, wird beim
neuen digitalen Reispass ein zweistufiges Sicherheitssystem
verwendet.
Mit der ersten Stufe, dem sog. „Basic Access Control“,
werden zunächst der Name, das Geburtsdatum, das Geschlecht sowie das Gesichtsbild des Passinhabers geschützt.
Die Daten werden dabei mittels eines geheimen Schlüssels
kodiert, welcher laut BSI eine Stärke von 56 Bit besitzt und
somit mit gängigen DES-Schlüsseln vergleichbar ist. Der
Schlüssel wird dabei mittels eines Algorithmus aus den
Daten des maschinenlesbaren Teils des Reispasses erzeugt.
Die Errechnung des Schlüssels erfordert somit einen direkten, optischen Zugang zum geschützten Dokument, also
dem Reisepass.
Die zweite Stufe, „Extended Access Control“ genannt,
wird erst nach der Einführung des Fingerabdrucks als zusätzliches Merkmal verwendet. Es handelt sich dabei um
einen Public-Key-Authentisierungsmechanismus sowie einer Public/Private-Key-Infrastruktur (PKI), welche es dem
RFID-Chip des Reisepasses ermöglicht, die Zugriffsrechte
des Lesegerätes anhand eines Zertifikates zu verifizieren. Es
obliegt dabei dem Land, welches den Pass herausgegeben
hat, festzulegen, welche Zertifikate benötigt werden um auf
bestimmte Daten zuzugreifen. Es ist somit auch möglich
ausländischen Lesegeräten nur einen beschränkten Zugriff
auf die Daten zu gewähren.
Auch bei der zweiten Sicherheitsstufe soll das Auslesen der Daten aus einem geschlossenen Reispass generell
unterbunden werden.
3.5 Politische und Gesellschaftliche Probleme
Die zentrale und internationale Organisation für die
Verbesserung der Sicherheit von Reisedokumenten ist
die ICAO (International Civil Aviation Organization).
Aufgabe der ICAO ist es, Spezifikationen und Standards
für Reisedokumente für eine weltweite Interoperabilität
zu schaffen.
Eines der bedeutendsten Programme der ICAO ist
das MRTD (Machine Readable Travel Documents). Bis
2001 beschäftigte man sich im MRTD der MRZ (Machine
Readable Zone) auf Reisedokumenten. Nach den Anschlägen vom 11. September 2001 in New York wurden
in den USA neue Sicherheitsgesetze verabschiedet. Ein
100
Beschluss mit großen Auswirkungen sah die Einführung
von biometrischen Merkmalen als Sicherheitsstandard von
Reisedokumenten vor. Aufgrund dessen verabschiedete die
ICAO im Mai 2004 den Standard bzw. die Spezifikation
für die interoperable Nutzung von biometrischen Daten
und deren Speicherung in der MRZ. Die wichtigsten
Punkte sahen das Gesicht als zwingendes biometrische
Merkmal in Reisedokumenten für alle Länder vor. Als
Speicher- und Kommunikationstechnologie wurde RFID
empfohlen. Ebenso wurde eine einheitliche Datenstruktur
verabschiedet. Alles darüber hinausgehende, zum Beispiel
die zusätzliche Speicherung des Fingerabdrucks als biometrisches Merkmal, ist optional und obliegt den nationalen
Interessen des jeweiligen Landes.
Auf Basis dieser Spezifikationen verabschiedete die Europäische Union am 13. Dezember 2004 die Einführung
von digitalen Reisepässen. Dieser Beschluss sah, gemäß den
standardisierten Forderungen der ICAO vor, das Gesicht
als biometrisches Merkmal in der ersten Stufe und RFIDals Datenhaltungs- und Kommunikationstechnologie vor.
In der zweiten Stufe soll zusätzlich der Fingerabdruck als
biometrisches Merkmal gespeichert werden.
Mit den internationalen Vorgaben ergaben sich die
heutigen Probleme und Kritiken. Nach dem Beschluss
der Einführung des Reisepasses schlugen Datenschützer
in Deutschland Alarm. Man kritisierte RFID als eine zu
unsichere Technologie, da unter anderem die Kommunikation nicht sicher genug gegen unbefugtes Abhören sei.
Die USA erschlugen diese Kritik mit dem Argument, dass
die Signalstärke lediglich ein Abhören in einem Umkreis
von 10 cm zuließe. Aufgrund dieser kleinen Reichweite
wurden keine datenschutzrechtlichen Maßnahmen für
notwendig befunden. Nach Messungen des „National
Institute of Standards and Technology“ (NIST), welche
die Kritiken bestätigten, und zunehmenden öffentlichem
Druck, wurde das Problem jedoch anerkannt und die Verschärfung der Sicherheits- sowie Verschlüsselungsmaßnahmen vorangetrieben.
Ein zentrales Problem dabei sind internationale
Differenzen in der Anwendung des Datenschutzes. Da
Datenschutz-sichernde Mechanismen gemäß ICAO optional sind, entstehen Konflikte zwangsläufig dann, wenn
ein Land entsprechende Funktionen implementiert, ein
anderes dagegen nicht. Innerhalb Europas sollte es hier
jedoch keine Probleme geben, da man sich europaweit über
die notwendigen Sicherheitsaspekte und -problematiken
verständigt hat. Eine langfristige, politische Lösung dieser
Konflikte im internationalen Bereich steht dabei noch aus,
wobei insbesondere die USA sowie der mittlere und nahe
Osten im Zentrum der Diskussionen stehen.
Datenschutzrechtliche Aspekte spiegeln sich auch in
gesellschaftlichen Problemen bzw. Ängsten wieder. Gemäß einer, von einer Computerzeitschrift im Jahr 2001,
durchgeführten Umfrage (3676 Teilnehmer), haben über
die Hälfte aller Befragten Angst vor einem unbefugten
Zugriff auf die Daten und Missbrauch. Damit verbunden
lehnten bereits damals 11.9 % eine Identifizierung über
biometrische Daten generell ab. Mit der zunehmenden
Thematisierung der mit dem neuen digitalen Reisepass
verbundenen Problematiken, speziell im Bereich des
Datenschutzes, ist die gesellschaftliche Skepsis dabei eher
TFH Wildau, Wissenschaftliche Beiträge 2006
gestiegen als gesunken. Nicht zuletzt spielt dabei auch die
Politik der USA, welche sich die weltweite Bekämpfung des
Terrorismus zum Ziel gesetzt hat und dabei immer wieder
mit ihren, für europäische Verhältnisse, zweifelhaften
Methoden in den Medien steht, eine nicht zu unterschätzende Rolle.
4 Umfrage zum Thema RFID
4.1 Voraussetzungen
Da RFID und der neue digitale Reisepass Themen sind, welche alle Altersgruppen betreffen, wurde versucht, mit der
vorliegenden Umfrage auch möglichst alle Altersgruppen
abzudecken. Dabei wurden 58 Personen im Alter zwischen
16 und 76 Jahren beider Geschlechter befragt.
Die Verteilung der Altersgruppen stellt sich dabei wie
folgt dar:
4.2.1 Basiswissen zur RFID-Technologie sowie allgemein
zum Datenschutz
Es wurde im Rahmen der Umfrage deutlich, dass sowohl
der Begriff RFID, als auch die Kenntnis über diese Technologie (Frage 1) den wenigsten Umfrageteilnehmern bekannt
waren, was aufgrund des durchschnittlichen Wertes von
3,8 deutlich wurde. Im Gegensatz dazu waren die meisten
Teilnehmer der Meinung, ausreichend über die Thematik
Datenschutz informiert zu sein (Frage 6/Durchschnittswert
2,2). Über die Vor- und Nachteile der RFID-Technologie
im Bezug auf den Datenschutz waren die Einschätzungen
des eigenen Kenntnisstandes relativ Ausgewogen (Frage 7/
Durchschnittswert 2,7). Dies war nach den Aussagen vieler
Teilnehmer auch dadurch bedingt, dass das Thema wenige
Tage zuvor erneut durch die Medien gegangen war und als
Folge dessen, dass Otto Schilly die endgültige Einführung
des digitalen Reisepasses zum 1. November 2005 bekannt
gegeben hatte.
Zusammenfassend ist zu sagen, dass die Kenntnisse
über die Themen RFID, Datenschutz, sowie die damit
in Zusammenhang stehenden Vor- und Nachteile sich
relativ ausgewogen darstellen. Dies wird anhand des
Durchschnittswertes dieses Fragenkomplexes von rund
2,87 deutlich. Aufgrund der Medienpräsenz des Themas
im Zeitraum der Umfrage sollte jedoch davon ausgegangen werden, dass der Wert deutlich höher hätte ausfallen
müssen.
Die Umfrage wurde dabei am frühen Nachmittag in einem
gut besuchten Einkaufszentrum durchgeführt. Es wurde
darüber hinaus keine Vorauswahl von Umfrageteilnehmern durchgeführt, so dass davon ausgegangen werden
kann, dass Menschen verschiedener Gesinnungen und
verschiedener gesellschaftlicher Schichten befragt wurden.
Es wurden jedem Teilnehmer 10 Fragen gestellt, welche im Wesentlichen in drei Bereiche unterteilt werden
können:
– Basiswissen zur RFID-Technologie sowie allgemein zum
Datenschutz (Fragen 1, 6, 7)
– Kenntnisse über den neuen digitalen Reisepass und
dessen Anwendung (Fragen 2, 3, 4, 5)
– Meinungsfragen den digitalen Reisepass betreffend
(Fragen 8, 9, 10)
Es ist allgemein anzumerken, dass die Fragen rein subjektiv
beantwortet wurden. Auch wenn Teilnehmer angegeben
haben, z. B. über die RFID-Technologie informiert zu sein,
kann dies nicht objektiv bewertet werden.
Jeder Teilnehmer hatte dabei die Möglichkeit auf jede
Frage mit den Zahlen von 1-5 zu Antworten, wobei 1 für
„trifft zu“ und 5 für „trifft nicht zu“ steht.
4.2.2 Kenntnisse über den neuen digitalen Reisepass
und dessen Anwendung
Dieser Fragenkomplex zielte speziell darauf ab, den subjektiven Wissensstand über das Thema des digitalen Reisepasses und im Speziellen auch biometrischer Daten zu ermitteln. Die meisten Teilnehmer der Umfrage wussten worum
es sich generell beim neuen digitalen Reisepass handelt
(Frage 2/Durchschnittswert 2,2). Auch die Tatsache, warum
der Reisepass eingeführt werden soll war im Wesentlichen
bekannt (Frage 3/Durchschnittswert 2,6). Der Begriff der
biometrischen Daten war mehr als der Hälfte der befragten
Personen bekannt (Frage 4/Durchschnittswert 2,2). Welche
biometrischen Daten gespeichert werden sollen, wussten
nur etwas weniger Teilnehmer (Frage 6/Durchschnittswert
3). Auch wenn bei der direkten Nachfrage aufgefallen ist,
dass nur ein geringer Anteil der befragten Teilnehmer
wirklich beide Merkmale (Gesichtsbild, Fingerabdruck)
benennen konnten. Der tatsächliche Wert ist somit
wahrscheinlich um einiges schlechter.
Der Durchschnittswert dieses Fragenkomplexes liegt
mit 2,5 über dem erwarteten Durchschnitt, obwohl wie
bereits erwähnt beim direkten Nachfragen selten korrekte
Antworten kamen und der Wert somit, auch in Anbetracht
der Medienpräsenz des Themas, höher hätte ausfallen
müssen.
4.2 Auswertung
Zur Interpretation der gesammelten Umfrageergebnisse
werden die drei genannten Bereiche der Umfrage im
Folgenden einzeln ausgewertet. Zur Interpretation der Ergebnisse werden zum Teil auch Informationen, welche aus
Gesprächen mit den Teilnehmern während der Umfrage
stammen, herangezogen.
4.2.3 Meinungsfragen den digitalen Reisepass
betreffend
Der letzte Fragenkomplex zielte darauf ab, die Meinungen
zu einzelnen Themen und weniger Wissen abzufragen.
Zunächst wurde erfragt, ob der jeweilige Teilnehmer den
Behörden und Ämtern im Umgang mit seinen Daten vertraut. Das Ergebnis ist mit einem Durchschnittswert von
Abb. 6: Altersgruppenverteilung der Umfrage
TFH Wildau, Wissenschaftliche Beiträge 2006
101
3,7 (Frage 8) äußerst negativ ausgefallen. Die Aufklärung
über das Thema digitaler Reisepass seitens der Regierung
hielten die Wenigsten für ausreichend (Frage 9), was an
einem vernichtenden Durchschnittswert von 4,5 deutlich
wurde. Im Gespräch mit den Teilnehmern wurde klar, dass
das Thema zwar in den Medien präsent war, jedoch politische und technische Begründungen und Erklärungen
gänzlich vermisst wurden. Viele Teilnehmer waren dabei
erstaunlicherweise der Meinung, dass die mangelhafte Informationspolitik seitens der Regierung durchaus gewollt
und somit vorsätzlich war.
Abschließend wurde die Frage gestellt, ob der jeweilige Teilnehmer für oder gegen die Einführung des neuen
digitalen Reisepass ist, was mit einem Durchschnittswert
von 3,1 (Frage 10) zu einem ausgewogenen Ergebnis
führte. Viele Teilnehmer merkten an, dass nicht zuletzt
der erhöhte Preis des neuen Reisepasses gegen dessen
Einführung spricht.
Dieser sehr wichtige Themenkomplex zeigte deutlich,
wie viel Aufklärungs- und Überzeugungsarbeit seitens der
Regierung und der Ämter noch zu leisten ist, um ein positives und weniger skeptisches Meinungsbild dem neuen
Reisepass gegenüber zu erreichen.
und des weltweiten Informationsaustausches ein nicht zu
unterschätzender Stellenwert zukommt.
Zusammenfassend ist zu sagen, dass Entwicklungen,
welche jeden einzelnen Menschen betreffen, und dazu
zählt der neue Reisepass unumstritten, grundsätzlich ein
hohes Maß an Kommunikation erfordern und eben diese
Kommunikation, zu der auch nicht zuletzt die Aufklärung
gehört, ein absolutes Killerkriterium für den Erfolg einer
Idee ist, die letztendlich doch nur zu Einem beitragen soll,
unser aller Sicherheit.
Anmerkungen
1
Referenzmuster und Testmuster stammen von unterschiedlichen Personen stammen. Dennoch erkennt das System sie
als von ein und derselben Person stammend an. Ist diese
Fehlerrate zu hoch, muss der Schwellwert heruntergesetzt
werden.
2
Das System erkennt nicht die gleiche Person, obwohl
Referenzmuster und Testmuster von der gleichen Person
stammen.
Literatur
4.3 Externe Umfragen
Im Rahmen einer Internet-Recherche wurden weitere Meinungsumfragen zum Thema des neuen Reisepasses gefunden. Dabei ist insbesondere auf eine Umfrage der Website
www.neuer-reisepass.de hinzuweisen, deren Fragen bereits
von über 17.000 Teilnehmern beantwortet wurden. Das
Ergebnis fällt dabei deutlich negativer aus, als bei der im
Rahmen dieser Ausarbeitung durchgeführten Umfrage.
Rund 2/3 der Teilnehmer halten die Einführung des
digitalen Reispasses für unnötig und stehen der Gesamtproblematik eher negativ gegenüber. Auch diese Umfrage
kommt mit 72,1 Prozent zu dem deutlichen Ergebnis, dass
die Aufklärung seitens der Regierung ungenügend ist.
[1] TeleTrust e. V. Verein zur Förderung der Vertrauenswürdigkeit von Informations- und Kommunikationstechnik (http:
//www.teletrust.de)
[2] Analyse biometrischer Verfahren (http://www.biometrieinfo.
de)
[3] BSI – Bundesamt für Sicherheit in der Informationsindustrie
(http://www.bsi.de)
[4] ePass: die neuen biometrischen Ausweise (http://www.neuerreisepass.de)
[5] Bundesministerium des Innern (http://www.bmi.bund.de)
[6] c’t Magazin für Computertechnik (Ausgaben 21.02.2005/
13.06.2005)
[7] Zeitschrift Comuterwoche (http://www.computerwoche.de)
5 Zusammenfassung und Schlussfolgerungen
Autoren
Die Thematik des digitalen Reisepasses hat sich als sehr
komplex dargestellt. Neben einer Vielzahl technischer
Problemstellungen, welche zwar schon thematisiert,
trotzdem jedoch noch nicht endgültig gelöst sind, sind
auch politische und gesellschaftliche Aspekte durch die
Thematik betroffen. Durch alle involvierten Themengebiete hindurch wird vor allem ein zwingender Bedarf deutlich,
der Bedarf an Kommunikation.
Es ist dabei neben der Bildung eines internationalen
Konsens, zum einheitlichen Umgang mit Identitätsdokumenten und dem Aufbau der damit verbundenen Infrastruktur zum weltweiten und sicheren Datenaustausch,
vor allem die Aufklärung der eigenen Bevölkerung erforderlich.
Der digitale Reisepass ist ein Schritt in Richtung
mehr Sicherheit im internationalen Personenverkehr.
Man muss jedoch auch die richtigen Akzente im Bezug
auf den internationalen Datenschutz setzen, einer Thematik, welcher mit dem Fortschreiten der Globalisierung
102
B. IC Sc. Michael Ring
Technische Fachhochschule Wildau
Fachbereich Ingenieurwesen/Wirtschaftingenieurwesen
Master-Studiengang Telematik, Seminargruppe TM/04
[email protected]
B. IC Sc. Peter Ungvári
Technische Fachhochschule Wildau
Fachbereich Ingenieurwesen/Wirtschaftingenieurwesen
Master-Studiengang Telematik, Seminargruppe TM/04
[email protected]
TFH Wildau, Wissenschaftliche Beiträge 2006
Möglichkeiten durch E-Sport für Wirtschaft und Gesellschaft
Henri Schmidt, Stefan Lehmann
Einleitung
Dank der permanenten Weiterentwicklung der Mikroelektroniktechnologie gewinnen in der heutigen Gesellschaft
Freizeitbeschäftigungen abseits der konventionellen Sportaktivitäten immer mehr an Bedeutung. Mit der Einführung der ersten Spielkonsolen, Ende der sechziger Jahre,
begann eine Entwicklung, welche heute, unter anderem,
mit dem Namen „E-Sport“ bezeichnet wird. Doch was
bedeutet E-Sport eigentlich?
„Der Begriff E-Sport (auch: eSport; englisch kurz für electronic sport) bezeichnet das wettbewerbsmäßige Spielen von
Computer- oder Videospielen im Mehrspielermodus. E-Sport
versteht sich entsprechend der klassischen Definition als eigene
Sportdisziplin, welche sowohl Spielkönnen (Hand-Augen-Koordination, Reaktionsschnelligkeit) als auch taktisches Verständnis (Spielübersicht, Spielverständnis) erfordert.“ [WI05]
Mannschaften werden beim E-Sport als Clans bezeichnet. Solche Clans sind im Allgemeinen hierarchisch
organisiert. Ein Spiel zwischen zwei verschiedenen Clans
bezeichnet man als Clan War. Solche Clan Wars können
entweder in einem lokalen Netzwerk oder über das Internet
ausgetragen werden. Clan Wars können entweder nur aus
Spaß, zu Trainingszwecken, durchgeführt werden, dann
spricht man von Friendly Wars oder aber als normaler Clan
War im Ligabetrieb.
Zu den bekanntesten Ligen in Deutschland zählen die
ESL (Electronic Sports League), die NGL (Netzstatt Gaming
League), die GIGA Liga (Liga des TV-Senders Giga) und
die WWCL (World Wide Championship of LAN-Gaming).
Während die ersten drei Ligen hauptsächlich über das Internet ausgespielt werden, wird die WWCL, wie der Name
schon sagt, ausschließlich auf so genannten „LAN Partys“
durchgeführt.
Die Spieler der Topclans in diesen Ligen werden in der
Szene als Progamer bezeichnet, um ihre Professionalisierung
hervorzuheben. Der Begriff des „Progaming“ stammt urtümlich aus Südkorea. Um das Jahr 1997 herum entwickelten sich
dort die ersten Progamerstrukturen, da Breitbandanschlüsse
von der Regierung subventioniert und normale Spielkonsolen mit hohen Einfuhrzöllen belegt wurden und so sich die
Spieler auf den PC als Spielmedium konzentrierten. Einer
der ersten und bekanntesten Spieler dieser Progamerszene
war der Spieler des Echtzeitstrategiespiels „Starcraft“ mit
dem Namen „Slayers Boxer“. Der Erfolg des Progamings aus
Südkorea hatte später auch seine Auswirkungen im amerikanischen und europäischen Raum. Schon im Jahre 1998
kam der erste amerikanische Progamer mit dem Namen
„fatal1ty“ („Quake II & III“) hinzu, welcher sich durch lang
anhaltende Siegesserien einen Namen machte. Zahlreiche
andere Spieler folgten diesen Vorbildern. Der Durchbruch
kam jedoch mit der Veröffentlichung einer Modifikation des
Spiels Halflife mit dem Namen „Counter-Strike“, welches
einen erheblichen Zuwachs an Onlinespielern verursachte.
TFH Wildau, Wissenschaftliche Beiträge 2006
Counter-Strike ist ein Egoshooter, in welchem ein Team
jeweils das andere Team am Durchführen einer bestimmten
Aufgabe zu hindern versucht. Zu diesen Aufgaben zählen
beispielsweise das Legen einer Bombe oder das Befreien von
virtuellen Geiseln.
Die Szene in Südkorea ist heute sehr professionalisiert.
Progamer werden von Konzernen gesponsort und geniessen ein ähnlich hohes Ansehen wie Popstars. Ist solch ein
Erfolg auch hier möglich? Wie weit sind wir in Europa
und speziell in Deutschland? Diesen Themen soll diese
Arbeit gewidmet sein.
Technische Grundlagen
Spiele, welche per Internet im Multiplayermodus gespielt
werden können, nutzen im Allgemeinen die gleiche Netzwerkstruktur und haben ähnliche Ansprüche an dieses
Netzwerk, weshalb an dieser Stelle kurz darauf eingegangen
werden soll. Onlinespiele enthalten neben der eigentlichen
Spiellogik, der grafischen Benutzeroberfläche auch eine
Netzwerkkomponente, welche die Kommunikation über
das Internet oder das LAN kontrolliert. Oft entscheidet die
Qualität der Netzwerkkomponente, ob ein Spiel online zu
einem Erlebnis wird oder nicht. Normalerweise verbindet
sich der Rechner des Spielers mit einem eigenständigen
Serverprogramm irgendwo im Internet. Alle gängigen Spieletitel verfügen über ein dediziertes Serverprogramm, welches nur die Aufgabe hat, den Netzwerkverkehr zwischen
den einzelnen Clientrechnern zu kontrollieren und die
Spielsituation zu kontrollieren. Hier wird entschieden, ob
Spieler A bspw. den Spieler B getroffen hat oder nicht. Erst
nach der Rückmeldung vom Server, wird ein vermeintlicher Treffer zu einem
wirklichen Treffer. Es
liegt auf der Hand,
dass an dieser Stelle
auf dem Clientrechner prediktive Algorithmen zum Einsatz
kommen müssen,
welche in gewissem
Ausmaß Situationen
voraus berechnen
müssen, damit das
Spiel flüssig läuft
und keine störenden
Bild 1: Verzeichnisdienstarchitektur
Pausen aufgrund von
nicht vorhandenen Daten auftreten. Das Konzept der dedizierten Serverprogramme erlaubt es, dass das Vermieten
von so genannten Gameservern zu einem lukrativen
Geschäft werden kann, denn der Serverbetreiber kann je
nach Ausstattung seiner PCs, mehrere dedizierte Serverprogramme nebeneinander laufen lassen. Diese Programme
103
benötigen nur einen Bruchteil der Rechnerperformance,
der eigentlichen Spielprogramme. Zwar haben die meisten
Spielprogramme auch einen eigenen Serverpart, aber dieser
wird, wenn überhaupt, meist nur auf LANs genutzt.
Um sich mit einem Server zu verbinden, nutzen viele
Spieler Servertools (Verzeichnisdienste) wie All-Seeing-Eye,
GameSpy oder www.gametiger.net. Dies sind Stand-alone
Programme oder Weboberflächen, welche es ermöglichen
das Internet nach Servern zu durchsuchen (siehe Bild links,
Pfeil 1). Es werden dann, je nach Programm, Informationen über das laufende Spiel und die Serverkonfiguration
gegeben.
Ist ein Spieler dann auf einem Server eingeloggt (siehe
Bild links, Pfeil 2). So kann das Spiel beginnen. Nun sind
der Pingwert und die Bandbreite von größter Wichtigkeit.
Der Pingwert beschreibt dabei die Zeit, welches ein Datenpaket zum Server benötigt und zurück. Je geringer diese
Zeit ist, desto besser kann man auf bestimmte Ereignisse im
Spiel reagieren. Gerade bei Egoshootern ist diese Latenzzeit
äußerst wichtig. Mit Fastpath, also dem Ausschalten von
Interleaving (1) bei ADSL-Anschlüssen, können Pingzeiten von unter 10ms erreicht werden. Pingzeiten, welche
größer als 100ms sind, verursachen deutliche Nachteile
in der Reaktionsfähigkeit gegenüber den Mitspielern. Die
Bandbreite ist ein weiterer Faktor, welcher erhebliche
Nachteile im Onlinespiel bringen kann. Je mehr Spieler
sich auf einem Server befinden, bzw. je mehr passiert was
den Spieler in irgendeiner Weise betrifft, desto mehr Daten
müssen übertragen werden. Schlecht implementierte Netzwerkprotokolle haben schon einige Onlinespiele durch
dieses Problem unspielbar gemacht, da sie einfach zu viel
Traffic verursachten und so bei zu vielen Spielern auf einem
Server, bei Klienten mit geringer Bandbreite sogenannte
„Lags“ verursachten. „Lags“ sind Pausen im Spielfluss die
aufgrund fehlender Daten entstehen. Dank DSL tritt dieses
Problem heutzutage nicht mehr so häufig auf, da diese
Technik mehr als genug Bandbreite für alle gängigen Spiele
bereitstellt. Trotzdem ist zu bemerken, dass die Bandbreite
den Spielen, in Hinblick auf die maximalen Spielerzahlen
auf einem Server, Grenzen setzt. Spiele wie Battlefield 2
unterstützen immerhin bis zu 64 Spieler gleichzeitig auf
einem Server. Es gibt Server, welche erheblich mehr Spieler unterstützen, jedoch wenden diese einige Tricks an, so
dass im Endeffekt nicht wirklich alle Spieler sich in der
gleichen virtuellen „Welt“ befinden. Zur Sprachkommunikation werden sogenannte Voicetools eingesetzt, welche
auf dem Prinzip der IP-Telefonie basieren.
klären? Was ist mit etablierten Sportarten, welche auch
nicht unbedingt einer körperlichen Ertüchtigung dienen,
wie Golf oder Schießsport? Kann man überhaupt Sport nur
auf die körperliche Ertüchtigung reduzieren oder gehört
nicht viel mehr auch das gesamte Rahmenwerk zum Sport:
seine Fans, die Wettkämpfe, die Sponsoren, die Preise, das
Nationalbewusstsein und vieles mehr?
Es liegt auf der Hand, dass viele Sportarten eher mit köperlicher Ertüchtigung zu haben als E-Sport und dennoch
gibt es viele Gemeinsamkeiten zwischen diesen beiden
„Spheren“. Wie auch bei konventionellen Sportarten gab
es in den letzten Jahren beim E-Sport einen starken Drang
zur Professionalisierung. Es wurde und wird immer schwerer für den Hobbyspieler, sich mit den Besten der Szene zu
messen. Dieser Unterschied wird gemeinhin unterschätzt.
Heute verbreitete Netzwerkcomputerspiele sind im Allgemeinen so komplex und ausgefeilt in der Art der Nutzerinteraktion und des Spielprinzips, dass es vom Anfänger
zum Progamer ein weiter Weg ist. Wie bei traditionellen
Sportarten spielen auch bestimmte trainierbare körperliche oder geistige Fertigkeiten eine besondere Rolle. Dazu
gehören beispielsweise die Hand-Augen-Koordination, die
generelle Reaktionsfähigkeit oder das taktische Verständnis
einer bestimmten Spielsituation. Die Frage, ob E-Sport tatsächlich ein Sport ist, kann hier nicht letztendlich geklärt
werden, da es zahlreiche verschiedene Definitionen gibt,
was Sport sei, bzw. was er nicht sei. Jedoch soll anhand
einiger Stichpunkte gezeigt werden, dass E-Sport ähnliche
Aspekte besitzt, wie traditioneller Sport:
Physiologie:
Strukturen:
Wettkämpfe:
Medialisierung:
Technisierung:
Reaktionsschnelligkeit, Hand-Augen Koordination,
etc.
Clans, Ligen, Deutscher E-Sport Verband
(www.e-sb.de)
Clan Wars, Lan Parties, etc.
GIGA eSport sendet mehrmals wöchentlich Neuigkeiten, viele verschiedene Webseiten berichten
(bspw.: www.ingame.de)
Profiequipment verfügbar: Grafikkarten, Mäuse,
Pads etc.
Jedoch gibt es auch einige Problemfelder, in welchen
E-Sport gegenüber traditionellen Sportarten noch Aufarbeitungsbedarf hat:
Psychologie:
Gesellschaft:
bisher keine gute Vorbereitung auf die
psychischen Strapazen
E-Sport wird in der Gesellschaft noch nicht als
Sport wahrgenommen
Vergleich zwischen E-Sport und
reellem Sport
Probleme & Vorurteile
Das Bundesverwaltungsgericht entschied mit einem Urteil vom 9.März 2005, mit folgendem Text: „ [...] Auch der
Umstand, dass viele Spiele auch unter Wettbewerbsbedingungen
veranstaltet werden können, führt noch nicht dazu, dass aus
der Teilnahme am Spiel Sport wird. Computerspiel ist selbst
dann kein Sport, wenn es im Wettbewerb veranstaltet wird.
Typischerweise wird ein Computerspiel nicht gespielt, um sich
zu `ertüchtigen`.[...]“ [LI05], dass E-Sport kein Sport ist. Doch
kann man solche gesellschaftlichen Fragen vor Gericht
Neben den schon im Vergleich zwischen E-Sport und traditionellem Sport aufgedeckten Problemfeldern, gibt es
einige zusätzliche Probleme, welche die gesellschaftliche
Akzeptanz erschweren. Dazu gehört die mittlerweile gängige Praxis der Medien zwischen Gewaltverbrechen aller
Art eine Verbindung zum Hobby des Täters herzustellen,
welches in einigen Fällen das Computer-Spielen ist. Tatsache ist jedoch, dass bisher keine umfangreichen Studien zu
diesem Thema durchgeführt wurden und allenfalls Mut-
104
TFH Wildau, Wissenschaftliche Beiträge 2006
maßungen zu einer Verbindung zwischen dem Computerspielen und den Taten hergestellt werden können. Nach
dem Amoklauf des Schülers in Erfurt waren die schuldigen
Faktoren schnell gefunden, doch allzu oft werden allgemeine gesellschaftliche Probleme einfach ausgeblendet und
das Problem auf wenige Ursachen reduziert.
Ein weiteres Problem ist, dass in der Bevölkerung ein
starkes Bewusstsein besteht, dass viele Spiele zu blutrünstig
und somit den Kindern nicht zumutbar seien. Tatsächlich
gibt es einige Spiele, die nur Gewaltverherrlichung zum
Inhalt haben. Doch solche Spiele setzen sich auf Dauer
nicht bei der Masse durch, wie die Onlinespielerzahlen
zeigen. Professionelle Spieler verzichten lieber auf die
„Extraportion“ Blut, wenn es denn erlaubt ist, da solche
Effekte meist eher störend sind und ablenken.
Außerdem gibt es noch die „UnterhaltungssoftwareSelbstkontrolle“ (USK), welche es den Eltern erleichtern
soll, die richtige Entscheidung beim Kauf von Spielen
für ihre Sprösslinge zu treffen. Softwarefirmen können
gegen eine Gebühr ihr Produkt auf die Kinder- und Jugendtauglichkeit prüfen lassen. Die Kennzeichnung eines
Softwareprodukts ist seit der Novellierung des Jugendschutzgesetztes im Jahre 2003 verpflichtend. Die Kennzeichnung muss auf der Verpackung des Produkts, sowie
auf den entsprechenden Datenträgern deutlich erkennbar
sein. Die Spiele werden von unabhängigen Mitarbeitern
begutachtet und eingestuft. Die Kennzeichnung der Spiele
kann in sechs Stufen erfolgen:
– freigegeben ohne Alterbeschränkung
– freigegeben ab 6 Jahren
– freigegeben ab 12 Jahren
– freigegeben ab 16 Jahren
– keine Jugendfreigabe
Verweigert jedoch die USK eine Kennzeichnung, bspw. weil
ein Spiel den Krieg verherrlicht oder leidende Menschen
in einer menschenunwürdigen Situation darstellt (nach
§15 Abs. 2 JuSchG), so ist eine darauf folgende Indizierung
durch die Bundesprüfstelle für jugendgefährdende Medien
(BPjM) überaus wahrscheinlich. Dass Eltern trotzdem die
Blutrünstigkeit der Spiele anprangern, welche ihre Kinder
spielen, bedeutet also nur, dass sie sich entweder noch
nicht mit der Thematik auseinander gesetzt haben oder
dass sie ihrer Fürsorgepflicht nicht nachkommen.
Neben dem Akzeptanzproblem gibt es noch das
Glaubwürdigkeitsproblem, welches von vielen Herstellern
von Computerspielen bisher unzureichend beachtet wird.
Werden Spiele über das Internet ausgetragen, befinden sich
die Spieler zumeist an ihrem heimischen Rechner. Wie jede
Software sind auch Spiele durch andere „bösartige“ Software
„knackbar“. Je populärer ein Spiel wird, desto größer wird
die Anzahl der Spieler, welche sich durch das Anwenden
sogenannter Cheatprogramme einen Vorteil verschaffen
wollen. So können Spieler bspw. durch das Anwenden
eines „Cheats“ die Wände ausblenden („Wallhack“), die
Gegner automatisch anvisieren („Aimbot“) oder sich
sonstige Vorteile verschaffende Informationen anzeigen
lassen. Die Anzahl der verfügbaren „Cheats“ variiert dabei
meist nach den implementierten Sicherheitsvorkehrungen
des Spielherstellers solchen „Cheats“ vorzubeugen und der
Verbreitung des jeweiligen Spiels. Denn auch hier gilt:
die Nachfrage bestimmt das Angebot. Doch zumindest
TFH Wildau, Wissenschaftliche Beiträge 2006
im professionellen Bereich kann es sich ein Spieler nicht
leisten, einfach auf „Cheats“ zurückzugreifen. Viel zu oft
muss er die Wettkampfsituation auf einer öffentlichen
Veranstaltung bestreiten. Schummeln ist dort so gut wie
unmöglich. Durch die Probleme in der Vergangenheit haben die Hersteller dazu gelernt und so enthält nahezu jedes
neue bekanntere Onlinespiel einen Anticheatalgorithmus,
welcher das Schummeln erschweren soll.
Ein weiteres Problem ist die mangelnde Bewegung
bei allen Arten von Computerspielen. Das ausdauernde
Verharren in einer Sitzposition wirkt sich auf die Dauer negativ auf die Gesamtkonstitution des Menschen aus. Auch
Haltungsschäden resultieren oft aus dem langwierigen
Sitzen. Für die Augen ist das andauernde Fokussieren auf
den relativ nahen Monitor anstrengend und ermüdend. Es
bedarf einer umfangreichen Aufklärung, dass die Spieler das
Bewusstsein erlangen, eine Ausgleichssportart zu betreiben.
Für das Sitzen am PC gibt es eine Reihe von Übungen und
Hilfsmitteln, welche das Arbeiten und Spielen daran, auf
die Dauer „gesünder“ machen. Zu den Hilfsmitteln gehören
bspw. ergonomische Eingabegeräte, strahlungsarme Monitore und eine vorteilhafte Positionierung der Peripheriegeräte, denn es gibt bestimmte Winkel und Entfernungen, in
welchem die Geräte besonders günstig stehen.
E-Sport in Südkorea – ein etablierter Markt
Trotz allen Problemen und Vorurteilen, gibt es ein
Land, in welchem E-Sport ein mittlerweile anerkannter
sportlicher Event ist. Die Akteure haben den gleichen
Bekanntheitsgrad wie Popstars. Es existieren dort schon
drei Fernsehsender, welche ausschließlich über das beliebte
Echtzeitstrategiespiel „Starcraft“ berichten. Das bekannte
„Team-Intel“ bekommt ein monatliches Gehalt gezahlt
und Ablösesummen für Spielerwechsel zu zahlen ist
durchaus nichts Ungewöhnliches mehr. Genauso normal
ist es, dass professionelle Clans in Südkorea einen oder
mehrere finanzkräftige Sponsoringpartner hinter sich
zu stehen haben, welche die Clans mit Equipment oder
auch monetär unterstützen, denn es lohnt sich. Der hohe
Bekanntheitsgrad der Spieler in den entsprechenden Zielgruppen macht das Geschäft für beide Sponsoringpartner
sehr attraktiv.
Um zum Profispieler zu werden ist die Motivation für
viele Jugendliche besonders groß, sich längerfristig mit
einem bestimmten Spiel zu beschäftigen, um in diesem
einen Spiel immer besser zu werden. Zudem locken hohe
Preisgelder und Gehälter viele Jugendliche, den Beruf des
Profispielers anzustreben. Diese Situation hat auch jedoch
ihre Schattenseiten. Man geht davon aus, dass bereits ca.
10% [WI205] der Jugendlichen Südkoreas süchtig nach
dem Internet sind.
Schon heute werden regelmäßig Spiele zwischen den
„Helden“ der hiesigen Szene in richtigen Fußballstadien
durchgeführt. An einem einzigen E-Sport Event nehmen
bis zu 100.000 Menschen teil.
Im Dezember 2004 entschloss sich das dortige Ministerium für Kultur und Tourismus dazu, Pläne für ein
eigenständiges E-Sportstadium zu prüfen, um Südkorea
damit zum Vorreiter in der Welt zu machen. [KR05]
105
Bild 3: Bis zu 100.000 Menschen bei einem einzigen E-Sport Event
in Südkorea
Der weltweit größte E-Sport Event: die World Cyber Games
(WCG), fand bisher dreimal in Südkorea statt. Zweimal in
Seoul (2001 & 2003) und einmal in Daejeon (2002). Bei den
WCG 2005 werden Preise von insgesamt über 400.000$
ausgespielt. Damit ist das WCG zwar nicht das höchstdotierte, aber bei weitem das prestigeträchtigste Turnier auf
der ganzen Welt, da über 60 Nationen daran teilnehmen.
Über eine Million Spieler nahmen 2004 an den Vorrunden
zur WCG teil und hatten ca. 2,5 Millionen Zuschauer. Ähnlich wie bei den olympischen Spielen werden die Besten
der Besten in einer zwölfmonatigen Qualifikationsphase
ermittelt. Am Ende dieser Qualifikationsphase steht ein
nationales Finale. Die Sieger dieses Finales bilden die Nationalmannschaft eines Landes und fahren zu den WCG.
Im Jahre 2003 errang die deutsche Nationalmannschaft mit
dreimal „Gold“ und zweimal „Silber“ den Weltmeistertitel.
Die globale Organisation der gesamten Spiele obliegt bis
heute Südkorea. Die WCG 2005 werden in Singapur, also
wieder im asiatischen Raum, stattfinden. Innerhalb von 5
Jahren erreichten die WCG eine Anzahl von teilnehmenden Ländern, wie die Fußballweltmeisterschaft und die
olympischen Spiele erst in über 50 Jahren erreichten.
eifern ihren Vorbildern in Südkorea nach und fahren zum
Teil selbst nach Südkorea, um dort mit ihrem „Hobby“
Geld zu verdienen. Zwar werden Progaming-Clans auch in
der restlichen Welt von Sponsoren unterstützt, aber nicht
in dem Umfang wie in Südkorea. Die fortschreitende Professionalisierung kann an der zunehmenden Anzahl von
eigenständigen Clans mit ausgefeilten Sponsorenkonzepten gesehen werden, welche teilweise richtige Fan-Communities unter sich vereinen. Die Tatsache, dass E-Sport
größtenteils auf der Internettechnologie basiert, macht
den Fankontakt einfacher. Die Communities wachsen
viel schneller als bei traditionellen Sportarten.
Es treffen sich täglich mehrere 100.000 Spieler auf den
Servern weltweit, um gegeneinander die unterschiedlichsten Spiele zu spielen.
Bild 5: Serverstats von gamespy (30. Juni 2005, 20 Uhr)
Bild 4: Länderteilnahme an sportlichen Wettbewerben
Wie auch die traditionelle Sportszene, so ist auch die ESportszene immerwährenden Veränderungen unterworfen,
so findet bspw. zurzeit in Südkorea ein Wechsel, vom lange
Zeit favorisierten, aber technisch altbackenen „Starcraft“,
hin zum neueren „Warcraft 3“ statt, welches ebenso ein
Echtzeitstrategiespiel ist.
E-Sport national und international
Südkorea ist der restlichen Welt in Sachen „E-Sport“ um
einiges voraus. Doch Jugendliche aus Amerika und Europa
106
Die Serverstats von „gamespy“ (www.gamespy.com) zeigen
die deutliche Dominanz der Egoshooter im Onlinebereich.
Bis auf „Neverwinter Nights“ entsprechen alle hier aufgelisteten Titel diesem Genre. Während in Südkorea vorwiegend
Echtzeitstrategiespiele die E-Sportszene bestimmen, sind es
im restlichen Teil der Welt vor allen Dingen Egoshooter,
welche von der E-Sportszene favorisiert werden.
Zahlreiche Onlinemagazine widmen sich mittlerweile
dem Thema „E-Sport“ und mit „Giga eSports“ ging unlängst auch die erste reine E-Sport TV Sendung „on air“,
welche ausschließlich über Neuigkeiten und Trends in der
E-Sportszene berichtet. Viele verschiedene Webangebote
bieten Livereportagen und Analysen von Clan Wars an.
Zudem informieren sie über Neuigkeiten, bspw. Updates
oder Patches der Spielesoftware und andere relevante
Fakten. Als Beispiele seien hier die beiden E-Sport Portale:
www.ingame.de und www.gamelinks.de genannt, welche
sich auf zahlreichen Unterseiten mit zahlreichen aktuellen
Onlinespieletiteln befassen.
TFH Wildau, Wissenschaftliche Beiträge 2006
Besonders gut lässt sich die zunehmende Unterstützung
der Bevölkerung und die damit zunehmende Akzeptanz
des E-Sports auch an den Unterstützungen staatlicher
Institutionen für die World Cyber Games ablesen.
da man erkennen kann, dass es vielerlei Unterstützung
von Sportministerien gab. Ein weiteres Indiz dafür, dass
man solche Fragen nicht juristisch klären kann, sondern
ein rein gesellschaftliches Problem ist.
Bemerkenswert ist auch der Sieg eines 21-jährigen
Chinesen im November 2004 beim E-Sportevent „ACON
Fatal1ty Shootout“ an der chinesischen Mauer. Der junge
Chinese Meng Yang bezwang den Progamerstar „Fatal1ty“
aus Amerika, welcher bis dahin als der unbezwungene
Champion des Egoshooters „Quake III“ galt, und gewann
damit den höchsten Einzelpreis, welcher jemals in der
Geschichte des E-Sports ausgespielt wurde. Das Preisgeld
von 125.000$ entspricht ca. 1.000.000 chinesischen Renminbim, wofür ein chinesischer Arbeiter im Durchschnitt
100 Jahre arbeiten muss. Yang sagte zu seinem Sieg: „[...] I
practiced hard to play in this exhibition because I wanted to play
my idol ... I’ve studied him for 5 years and dreamed of playing
the number one gamer in the world [...]” [FAT05]
Mit der Gründung des „Deutschen eSport Bundes”
(ESB) am 11.12.2004 schlossen sich die beiden separaten
Verbände, DeSpV und DeSV, zusammen, um gemeinsam
den deutschen E-Sport gegenüber der Öffentlichkeit und
der Politik adäquat zu repräsentieren. Die Mitgliedschaft
an diesem Verband steht jeder Person offen, welche sich
für den E-Sport einsetzen möchte. Der Verband wird seit
der Gründung von Repräsentanten der Wirtschaft, wie
beispielsweise „Intel”, „ATI” und „Shuttle”, unterstützt
und arbeitet eng mit der USK (UnterhaltungssoftwareSelbstkontrolle) zusammen. Damit ist gewährleistet,
dass die E-Sportszene in Deutschland sich in Zukunft auf
einen soliden Rahmenverband verlassen kann, welcher
als Mittler zwischen E-Sportszene und der Wirtschaft
fungieren kann. Man kann gut erkennen, dass sich der
E-Sport langsam etabliert.
Gesellschaftliche Auswirkungen des E-Sports
Bild 6: Öffentliche Institutionen, welche die Teams der jeweiligen
Länder bei der Teilnahme zur WCG 2004 unterstützten
Bemerkenswert ist hierbei, dass das deutsche Team trotz des
Weltmeistertitels aus dem Jahre 2003 scheinbar keinerlei
Unterstützung aus öffentlichen Mitteln erhielt. Außerdem
scheint die Frage, ob es sich bei E-Sport um wirklichen
Sport handelt, in vielen Ländern schon geklärt zu haben,
TFH Wildau, Wissenschaftliche Beiträge 2006
Vor allem Jugendliche sind von den Auswirkungen des ESports betroffen. Es entstehen völlig neue Strukturen, wie
virtuelle Communities oder Freundeskreise. Oft kommt
es vor, dass zwei Spieler eines Clans sich nie persönlich
treffen, da sie in zwei unterschiedlichen Ländern oder
einfach weit voneinander entfernt wohnen. Das Internet
als Grundlage der Kommunikation löst die geografische
Abhängigkeit einer Sportmannschaft auf. Es entstehen
neue Verbindungen zwischen verschiedenen Nationalitäten, die vorher vielleicht unmöglich erschienen.
Dass Menschen eventuell einen größeren virtuellen
Freundeskreis, als einen realen Freundeskreis haben, wirft
neue Fragen auf. Inwiefern sind solche Freundschaften mit
realen Freundschaften vergleichbar? Was ist mit Menschen,
die nur noch virtuelle Freunde haben? Diese Abhängigkeit
vom Internet schafft Platz für Gefahren, wie der Sucht nach
dem Internet. In Südkorea wurde dieses Problem schon
erkannt, jedoch fehlen momentan noch Lösungsansätze
für dieses Problem.
Für gesellschaftliche Randgruppen birgt der E-Sport
jedoch auch große Chancen. Denn die gesamtkörperliche
Verfassung ist bei vielen Onlinespielen relativ egal und
somit haben körperlich Behinderte unter Umständen die
107
Möglichkeit einen Sport auszuüben und Erfolgserlebnisse
zu erfahren, welche ihnen sonst verwehrt blieben.
Die Welt wird zwar auf der einen Seite zusammen
wachsen, da körperliche, geografische oder nationale Unterschiede schwinden. Im Gegensatz dazu wächst jedoch
unter Umständen der Verlust des persönlichen Kontakts zu
anderen Menschen in der Realwelt. Jedoch muss man hier
fairer Weise erwähnen, dass gerade bei erhöhtem Professionalisierungsgrad der persönliche Kontakt in der Realwelt
eher steigt, da die größeren Veranstaltungen, wie das WCG
Finale oder die WWCL lokal ausgetragen werden.
Auch für den Arbeitsmarkt bietet der E-Sport völlig
neue Perspektiven. Es entstehen Berufe, wie es sie vorher
nicht gab, da das Organisieren, Durchführen und Verwalten von E-Sport-Events völlig andere Anforderungen an
die Auszuführenden stellt als traditionelle Sportarten. So
haben sich bspw. bei professionellen E-Sport Clans mehrere
Aufgabenbereiche herauskristallisiert:
Spieler:
Spielen von Clan Wars
Organisatoren: Vorbereiten & Durchführen von Clan Wars,
LANs, etc.
Redaktionell:
Betreuen der redaktionellen Inhalte der Clanhomepage
Web:
Erstellen und Warten der Clanhomepage
Live:
Durchführen von Livereportagen via IRC, Radio, TV
Forum:
Betreuung der Fan-Community
Video:
Erstellen und Bearbeiten von Videos über den Clan
Dies zeigt, dass es verschiedene Möglichkeiten im E-Sport
gibt, beruflich tätig zu werden und nicht alle haben mit
bloßem Spielen zu tun. Auch abseits der Clans entsteht
Bedarf für entsprechende Fachkräfte. Mit zunehmender
Größe und Häufigkeit von E-Sport Events wächst die Notwendigkeit von Fachleuten mit entsprechendem Netzwerkwissen. Auch Promotionexperten, Grafikdesigner und
Betriebswirtschaftler werden benötigt, um entsprechende
Projekte, wie LAN Parties etc., durchzuführen. Die erste
Generation von Onlinespielern dringt nun langsam in
die Arbeitswelt der ehemals Erwachsenen ein. Sie haben
einen ganz anderen Blickwinkel auf diese Thematik, als die
etablierte Generation, da sie selbst Teil der E-Sportszene
waren oder zumindest verstehen, um was es dabei geht.
Diese Durchdringung wird wahrscheinlich langfristig die
Akzeptanz erhöhen und den E-Sport zu einer etablierten
Sportart neben den traditionellen Sportarten machen.
Clans haben ähnliche Auswirkungen auf den Spieler
wie traditionelle Sportvereine. Durch die hierarchische Organisationsstruktur wird den Spielern eine Teamfähigkeit
vermittelt. Das gemeinsame Erarbeiten von Taktiken und
der sprachliche Austausch während des Clan Wars machen
die Spieler kommunikativer, da sie lernen müssen, wichtige
Inhalte in kurzer Zeit zusammenzufassen, die Taktik zu bereden usw.. Außerdem lernen die Spieler auch, konstruktiv
mit Kritik umzugehen, denn nur wer Ratschläge annimmt,
ist in der Lage sich weiterzuentwickeln.
Auch die Eltern von morgen werden wahrscheinlich
bewusster mit dieser Thematik umgehen, da sie mit den
Möglichkeiten und Problemen mehr anzufangen wissen,
als die heutige Elterngeneration.
Schon im frühen Alter werden Kinder heutzutage mit
Telekommunikationstechnologie in Verbindung gebracht.
108
Das Handy wird zu einem Gebrauchsgegenstand, genauso
wie es die Kommunikation und das Spielen über das Internet wird. Inwieweit dies die Gesellschaft konkret verändern
wird, lässt sich schwer abschätzen.
Möglichkeiten für die Wirtschaft
(Sponsoring)
E-Sport hat das Potential sich zu einer Trendsportart zu
entwickeln. Die Tatsache, dass hier ein Markt mit ausgeprägten Chancen und Risiken wartet und dass bereits erste
ökonomische Erfolge gefeiert werden konnten, hat auch
Marketingführer von Topfirmen und Pressevertreter aufmerksam werden lassen. Zu diesem Zweck rief Frank Sliwka, geschäftsführendes Vorstandsmitglied des deutschen
eSport Bundes, eine Veranstaltung ins Leben, in der sowohl
Geschäftsleute der E-Sport Szene, Presse, Firmen wie auch
ganz normale Besucher eine Diskussion zu diesem Thema
führen können.
Die „Internationales eSport Forum 2005“ genannte
Veranstaltung fand im Juni 2005 im Congress Center
Düsseldorf (CCD) statt und konnte mit Referenten aus
der Wirtschaft und Wissenschaft aufwarten. Unter Anderem, war ein Vortrag von Don S. Kim (Managing Director
von AC Entertainment und Unternehmensmitglied von
Samsung) zu hören der sich mit dem Thema „Why a big
company like Samsung is sponsoring eSport events“ [KI05]
befasste. Er führte als Beispiel für E-Sport Marketing, eine
der größten E-Sportveranstaltungen weltweit, die World
Cyber Games an. Er stellte dar, dass ein Event mit 1 Millionen Spielern und 2,5 Millionen Zuschauern weltweit in
63 Ländern die beste Möglichkeit sei, um Marketingerfolge
in einer Zielgruppe zu erreichen.
Spiele sind das Medium der Zukunft. Sie beinhalten
Unterhaltung in Form von Musik, Filmen, Grafik, Story,
dem Spiel an sich und Wettbewerb. Sie berühren auch
gesellschaftliche Aspekte der Zukunft wie Kommunikation über Netzwerke oder MMORPGs (Massivly Multiplayer
Online Role Playing Games). Es scheint sich herauszukristallisieren, dass Spieler eine dankbare Zielgruppe darstellen:
sie passen sich schnell an und liefern Meinungen über neue
Produkte, haben Einfluss auf den Kauf von IT Technologien
und zählen zu den „Power Buyers“, die mehr kaufen und
mehr bezahlen. Laut Don S. Kim ist E-Sport Sponsoring
eines der kosteneffektivsten Marketinginstrumente.
Des Weiteren erreicht dadurch die Wirtschaft die junge
Generation. Die Kultur ist international und zeigt ein starkes Wachstum, der Geist von E-Sport vermittelt Menschlichkeit, Freundschaft und Fairplay, das Image erscheint
fortgeschritten, hoch technisiert und führend. Dadurch
besteht beim Zielpublikum laut Kim die Möglichkeit, eine
dauerhafte Markenloyalität zu erreichen.
Aus einem Vortrag von Philip Militz (Managing Director Scoopcom!) geht hervor, dass der typische Spieler ein
Alter zwischen 14 und 29 Jahren besitzt, zu 97% männlich
ist und 20% der Spieler über 500 € im Monat für „Luxusartikel“ zur Verfügung hat, 20% über 250 € und weitere
24% über 100 €. 60% stimmten der Aussage zu „Probiere
immer wieder gerne Neues“ und 76% der Aussage „Kauf
von Markenartikeln lohnt sich“. [MI05]
TFH Wildau, Wissenschaftliche Beiträge 2006
Um in Deutschland einen ähnlichen Markterfolg wie in den
asiatischen Ländern mit E-Sport zu erreichen, müssen erst
die Vorraussetzungen dafür geschaffen werden, so Christian
Sauer vom Clan „OCRANA“, der international vertreten ist
und einer der ältesten Clans in Deutschland. Es müsse eine
Verbesserung der Wahrnehmung von E-Sport innerhalb der
Gesellschaft geschaffen werden, konsequente Orientierung
an den Bedürfnissen und Wünschen der Zielgruppen, vereinfachter inhaltlicher und technischer Einstieg in den
aktiven E-Sport und die Schaffung zuschauertauglicher
und -freundlicher Formate angestrebt werden. Auch wäre
die Schaffung von Identifikationsmöglichkeiten durch Stars
und Marken, die Darstellung des E-Sport als geeignete Kommunikationsplattform auch für traditionelle Unternehmen,
die Etablierung eines E-Sport-Verbandes, sowie eine Konsolidierung der Ligenvielfalt und die Marktforschung mit Wertdarstellung der Rechte der richtige Weg. (1. Juli 2005, http:
//www.esportforum.com/vortraege/Vortrag_Sauer.pdf)
Zur Entwicklung des E-Sport Sponsoring meint Rene
Korte (Managing Director Gamers Wear and mtw), dass
1998 E-Sport noch ein sponsorenfreier Raum und kommerzfeindlich war und dagegen 2005 über 100 Sponsoren
aus der Wirtschaft mit hoher Vertriebs- und Brandingwirkung vorhanden sind. Allerdings sei es bis heute nicht
geschafft worden, die großen Marken außerhalb der Technikindustrie zu überzeugen. Er sieht jedoch E-Sport als eine
wirtschaftstreibende Kraft mit Beschäftigungsperspektiven
an und meint, E-Sport habe „[...] in den letzen Jahren zu
einem echten Gründerboom geführt, fern jeder Kapitalismus
und Heuschrecken Diskussion!“. [KO05]
Jedoch fehle weiterhin professionelle Unterstützung
und Mut zur Bereitstellung von Kapital.
Die Chancen des Sponsoring sieht Rene Korte in der
Tatsache, dass E-Sport interaktive Marketingmöglichkeiten
mit direktem Feedback und Input für Produkte und Produktentwicklungen bietet. „Gaming is a global language“
[KO205] eröffnet die Möglichkeit weltweit einen Markt
zu erschließen.
Die Risiken des Sponsoring lägen im fehlenden Vertrauen gegenüber des E-Sports und seinen Organisationen
und der hohen Anforderung an Professionalität, welche aber
teilweise aufgrund fehlender monetärer Mittel nicht erfüllt
werden kann. Die Unternehmen würden die Beschädigung
der eigenen Marke durch öffentliche Diskussionen fürchten.
Der Weg zur Besserung wäre die Aufklärung im eigenen
Unternehmen und Verständnis für soziale Umstände.
die Möglichkeit der Teilnahme zu geben. Über einen InfoButton hatte der Befragte die Möglichkeit, sich über die
Motivation und Urheber der Umfrage zu informieren.
Bild 7: Screenshot der Umfrage
Es wurden 13 Fragen gestellt, die einem kurzen Interview
entsprechen, um einen groben Überblick der wichtigsten
Informationen zu erhalten. Dabei wurden die Fragen so gestaltet, dass sie später statistisch möglichst gut auswertbar
sind. Da es im Internet eine Flut von Umfragen, Marktforschungen und auszufüllenden Formularen gibt, haben wir
versucht den Bogen schnell ausfüllbar zu gestalten, da nach
unseren Einschätzungen unsere Zielgruppe wenig Motivation hat sich lange mit einem Fragebogen aufzuhalten.
Um die Umfrage publik zu machen, bedienten sich die
Autoren dieser Arbeit verschiedener Internetforen die hauptsächlich von Spielern besucht werden (http://forum.counterstrike.de/bb/, http://www.esl-europe.net/de/forum/, http:
//www.piranho.com/home/boards), einem Hinweis auf
einer privaten Webseite sowie verstärkt dem Medium IRC
(Internet Relay Chat), welches als ein Hauptkommunikationskanal für Spieler verschiedener Richtungen und Herkunft
benutzt wird. Auf diese Weise wurden 319 Umfragen gesammelt. Die effektiv verwertbare Anzahl von Umfragen (nach
Entfernung von versehentlich doppelt abgegebenen Ergebnissen und mutwilligen Falschangaben) belief sich auf 301.
Durch Unterscheidung der bei der Speicherung der Umfrage
mitprotokollierten IP Adressen wird davon ausgegangen,
dass 301 Personen an der Umfrage beteiligt waren.
Die ersten drei Fragen bezogen sich auf Herkunftsland,
Geburtsjahr und Geschlecht.
Auswertung des Fragebogens
Um aus erster Hand an Statistiken und Meinungen von
Spielern zu kommen, wurde ein Fragebogen im Internet
zugänglich gemacht. Er richtete sich hauptsächlich an
diejenigen Internetbenutzer, die bereits Kontakt mit
Online Games oder eSport hatten. Der Fragebogen war in
Form eines im Internet üblichen Formulars gehalten, die
Antworten waren meist vorgegeben und konnten aus einer
vorhandenen Liste ausgewählt werden und in Einzelfällen
hatte der Befragte die Möglichkeit, selbst Text frei einzugeben. Die Befragung war in den Sprachen Deutsch und
Englisch verfügbar um auch internationalen Interessenten
TFH Wildau, Wissenschaftliche Beiträge 2006
Bild 8: Altersverteilung
109
Der Großteil der Umfrageteilnehmer war zwischen 16 und
21 Jahre alt, 92 % waren männlichund 8 % weiblich. Unsere Umfrage erreichte hauptsächlich deutsche Personen.
Die darauf folgenden Fragen beschäftigten sich tiefer
mit dem Thema E-Sport. Es wurde dabei davon ausgegangen,
dass die Befragten bereits mit den Begriffen vertraut sind und
das Feedback, welches gegeben wurde hat auch gezeigt, das
es keine Schwierigkeiten beim Verstehen der Fragen gab. Der
folgende Abschnitt wird die Fragen auflisten und erklären
sowie die gesammelten Ergebnisse darstellen.
Frage 4: Spielst du in einem Clan? (ja/nein)
Hier wurde versucht herauszufinden, wie groß der Anteil der
organisierten Spieler ist, also Jenen, die in Clans oder Gilden sich mit anderen Spielern zusammengeschlossen haben.
47 % der Befragten sind Mitglied in einem Clan oder einer
clanähnlichen Gemeinschaft, 53 % sind clanlos.
Frage 5: Wie viele Stunden bist du ungefähr täglich
mit dem Spielen oder/und Organisieren von OnlineSpielen beschäftigt? (bis zu 1 Stunde/2-4 Stunden/4-6
Stunden/mehr als 6 Stunden) Das Ergebnis dieser Fragen
war eine durchschnittliche Spieldauer von ca. 2,5 Stunden
pro Tag unter allen 301 Befragten. Die genaue Verteilung
war wie folgt:
Bild 9: Tägliche Spielzeit
Frage 6: Welches Spiel spielst du am häufigsten online?
(Auswahl einer Liste derzeit populärer Online Spiele)
Es wurde versucht, eine Liste der zurzeit bekanntesten
Online Spiele zu erstellen und die Teilnehmer der Umfrage
daraus wählen zu lassen. Falls der Befragte sein favorisiertes
Spiel nicht in der Liste auffinden konnte, konnte er ein Feld
mit einer freien Texteingabe ausfüllen. Die Tatsache, dass
50 Nennungen für „anderes Spiel“ vorliegen und dass eine
Vielzahl von Spielen im Feld mit der freien Texteingabe angegeben wurde, spiegelt die große Diversität auf dem Online
Spielemarkt wider. Viele der alternativen Spielenennungen
waren so genannte „Browser Games“, welche man direkt
über den Webbrowser nach einer meist kostenlosen Anmeldung spielen kann. Als das beliebteste Spiel zeichnete sich
eindeutig „Counter-Strike 1.6“ ab, welches nun mehr seit bereits 5 Jahren auf dem Markt ist. Es gehört auch zur Gruppe
der Egoshooter, welche 61 % aller Nennungen ausmachten.
Nahezu alle genannten Egoshooter haben taktische Elemente, was den besonderen Reiz auszumachen scheint. 15 %
der genannten Spiele kann man im Bereich „Rollenspiele“
einordnen, Echtzeitstrategiespiele sind mit 5 % vertreten.
Der Bereich der „anderen Spiele“ teilt sich in Sportspiele,
Strategiespiele, Rollenspiele und weitere Egoshooter auf.
110
Bild 10: Populärste Online-Spiele
Frage 7: Spielst du in einer Liga? (ja/nein)
Die Frage zielte darauf ab, diejenigen Clanspieler oder Einzelspieler abzugrenzen, die in einer Liga gegen andere Spieler antreten und um Platzierungen oder Preisgelder spielen.
Man könnte diese Gruppe auch als den Teil der Befragten
bezeichnen, die am aktivsten am E-Sport teilnehmen. 35 %
der Befragten gaben an, in einer Liga mitzuspielen, 65 %
spielen in keiner Liga. Dabei ist anzumerken das bestimmte
Online Spiele keine Eigenschaften mit sich bringen die
ein Ligaspiel möglich machen sondern teilweise auch ein
spielinternes Ranking der Spieler oder Clans/Gilden bieten
(z. B. viele Rollenspiele).
Frage 8: Wird dein Clan gesponsort? (ja/nein)
22 % der Befragten gaben an, einen Sponsor für ihren
Clan zu haben, was 46 % aller Clanspieler dieser Umfrage
ausmacht. Wenn die Angaben wahrheitsgemäß waren,
werden also knapp die Hälfte aller Clanspieler in Form
von Geld, Hardware oder Dienstleistungen von Firmen
oder Privatpersonen unterstützt.
Frage 9: Hast du selbst schon Geld verdient mit dem
Organisieren bzw. Spielen von Online-Spielen? (ja/nein)
Die Frage richtete sich an alle Teilnehmer, die schon einmal Geld verdient haben durch Gewinnen von Turnieren,
regelmäßige Gelder von Sponsoren oder Bezahlung für
Teilnahme oder Organisation von Spielen oder E-Sport
Veranstaltungen. 16 % der Befragten haben bereits Geld
mit diesen Tätigkeiten verdient, 84 % bisher nicht.
Frage 10: Könntest du dir vorstellen, deinen Lebensunterhalt mit eSports zu verdienen? (ja/nein)
Hier sollte sich zeigen, ob die Spieler ihr Hobby auch zum
Beruf machen oder lieber das Spielen als Nebentätigkeit
weiterführen würden. 32 % haben Interesse am hauptberuflichen Spielen, 68 % waren dagegen.
Frage 11: Verfolgst du regelmäßig die Spiele bekannter
Clans oder Spieler? (ja/nein)
Ähnlich wie bei bereits etablierten Sportarten, wie Fußball oder Basketball, gibt es in der E-Sport Szene bekannte
Spieler oder Stars, Fans und auch Spielübertragungen. Bisher werden die Spiele über Livestreams im Internet oder
durch Zuschauermöglichkeiten die das Spiel selbst bietet
übertragen, der TV Sender GIGA zeigt in seiner täglichen
E-Sports Sendung Spitzenspiele auch im Fernsehen. Des
Weiteren gibt es unzählige Webseiten die über die Spiele
der Spitzenclans berichten. 31 % der Umfrageteilnehmer
verfolgen laut ihren Angaben regelmäßig Spiele bekannter
Clans, 69 % antworteten mit nein.
TFH Wildau, Wissenschaftliche Beiträge 2006
Frage 12: Ist dein Freundeskreis im Onlinebereich oder im
„wahren Leben“ größer?
Frage 13: Welche Freunde davon sind dir wichtiger?
(„wahres Leben“ / online / beide gleich)
Die beiden Fragen sollten die soziale Stellung von Freunden im „wahren Leben“ und im „virtuellen Leben“ online
beleuchten. 81 % der Teilnehmer gaben an, einen größeren Freundeskreis im „wahren Leben“ zu besitzen, 19 %
haben mehr Freunde im Online Bereich. Allerdings gibt
es hier auch viele Überschneidungen, einige Teilnehmer
der Umfrage wiesen uns darauf hin, dass es durchaus
gemischte Verhältnisse von Online- und „wahrem“
Leben gibt:
– „Meine Freunde im wahren Leben sind zu 90% die gleichen
wie im Onlinebreich.“
– „Onlinefreunde können auch zu Freunden im ‚wahren Leben’
werden.“
– „Viele von meinen ‚Onlinefreunden’ sind meine ‚Reallifefreunde’ oder eher andersrum. Wir kennen uns alle privat,
und zocken zusammen.“
Die Frage nach der Wichtigkeit der Freunde aus dem realen Leben und dem Online Leben sollte eine Gewichtung
dieser sozialen Beziehungen erkennbar machen. 81 % der
Befragten sind die Freunde aus dem realen Leben wichtiger,
5 % bevorzugen ihre Online Freunde und 14 % machen
keinen Unterschied zwischen Freunden aus der Onlinewelt
und dem wahren Leben. Auch zur Frage der Wichtigkeit
folgten Kommentare der Befragten:
– „Da ich den Großteil meiner ‚Onlinefreunde’ schon seit Ewigkeiten kenne, sind die mir auch ans Herz gewachsen.“
– „[…] sind mir alle gleich wichtig, ich mach da keine Unterschiede... ich kenn die ausm Clan beispielsweise schon seit 2
Jahren... ich treff mich mit denen 2mal im Jahr mindestens...
also es gibt da kaum Unterschiede... zwar sieht man sie
weniger aber das Verhältnis ist gleich […]“
Die 14. Frage war keine Frage an sich sondern bot Platz für
die oben bereits angeführten Kommentare und Meinungen. Hier haben einige Teilnehmer auch die Gelegenheit
genutzt um ihre persönliche Meinung zum Thema E-Sport
zu äußern:
– „Persönlich finde ich, dass E-Sport nicht wirklich eine
Disziplin ist, die etwas mit Sport zu tun hat. Schön, wenn
es Leute gibt die damit Geld machen können. Ich würde es
nicht wollen.“
– „E-Sport ist ein Hype“
– „E-Sport ist meiner Meinung nach kein Sport und sollte auch
nicht in diesen Status erhoben werden.“
– „E-Sport ist meiner Meinung nach eine der dämlichsten
Erfindungen, die es gibt. Spiele sind kein ‚Sport‘.“
– „E-Sport ist ein Wunschtraum irgendwelcher Leute die besser
mal vor die Tür gehen sollten.“
– „Fordert mehr E-Sport in der Gesellschaft!“
– „E-Sport ist ne Leidenschaft“
– „der E-Sport wird eines Tages sicherlich in .de so groß sein
wie in Japan und den andern asiatischen Ländern, irgendwann wird dieses auch als Beruf angesehen“
– „pro-Gaming macht die Spiele kaputt, sobald das Gewinnen
im Vordergrund steht, bleibt der Spass mehr und mehr auf
der Strecke...“
TFH Wildau, Wissenschaftliche Beiträge 2006
Schlussfolgerungen aus den Ergebnissen
der Befragung
Um repräsentative Ergebnisse zu erhalten, welche die
Gesamtheit aller Spieler berücksichtigt, wäre sicher eine
komplexer angelegte Umfrage und ein weitaus längerer
Zeitraum nötig (Umfrage lief zwei Tage) gewesen. Jedoch
ist es auch möglich aus diesem Ausschnitt von Spielern
einige Erkenntnisse und Tendenzen abzulesen.
Die Altersübersicht zeigt, dass der Großteil der Teilnehmer im Bereich von 16 bis 21 Jahren liegt, jedoch das Feld der
Spieler sich auch breiter in den jüngeren und älteren Bereich
fächert. Mit 2,5 Stunden durchschnittlicher Spielzeit pro Tag
sind sie bereit, einen relativ großen Teil ihrer Freizeit für ihr
Hobby zu opfern. Das die teamspielfähigen Onlinespiele in
der Häufigkeitsverteilung der gespielten Titel an erster Stelle
stehen scheint einen besonderen Reiz beim Zusammenspiel
mit anderen Menschen aufzuzeigen, das Egoshooter an erster Stelle stehen ist eher darauf zurückzuführen das es in
diesem Bereich die meisten und auch ersten onlinefähigen
Titel auf dem Markt gibt. Rollenspiele, die einen erhöhten
Zeitaufwand benötigen, sind schwächer vertreten.
Die Tatsache, dass knapp die Hälfte aller befragten
Spieler sich in Clans oder clanähnlichen Gemeinschaften
zusammenfinden, lässt auf einen erhöhten Spielspaß bei
Verknüpfung des Spiels mit einer sozialen Komponente
schließen.
Der Anteil der Ligaspieler mit 35 % deutet darauf hin,
dass neben den Gelegenheitsspielern ein gutes Drittel der
Befragten sich in einem organisierten Wettkampf mit anderen Spielern messen wollen und demnach zu aktiven
E-Sportlern gezählt werden können.
Relativ überraschend war die Tatsache, dass 46 % aller
Clanspieler angaben, eine Form von Sponsoring in ihrem
Clan zu erfahren. Es wird angenommen, dass dieses Sponsoring hauptsächlich in Form von Dienstleistungen und
Bereitstellung von Spieleservern umgesetzt wird und eher in
seltenen Fällen direkt Geld an die Spieler bezahlt wird.
Das wird auch deutlich bei der Frage nach bisherigen
Geldeinnahmen durch Onlinespiele, bei der 16 % angaben,
schon einmal Geld mit ihrem Hobby verdient zu haben.
Ein größerer Teil der Befragten, mit 32 %, könnte sich
jedoch vorstellen, sogar den Lebensunterhalt mit E-Sport
zu verdienen, was sich fast mit der Anzahl der Ligaspieler
deckt. Fast dieselbe Größe haben mit 31 % die Anzahl der
Spieler, die regelmäßig Spiele bekannter Clans oder Spieler
verfolgen und ein Vergleich mit den Daten der Ligaspieler
hat ergeben, dass Teilnehmer die in einer Liga spielen auch
größtenteils jene sind, die aktiv das Spielgeschehen in den
bekannteren Bereichen der E-Sportszene verfolgen.
Die eher sozial bezogenen Fragen zum Thema Freundeskreis online und offline ergaben, dass ein Großteil der
Umfrageteilnehmer den Menschen im wahren Leben mehr
Bedeutung zurechnet und dort auch den größten Freundeskreis hat. Jedoch gibt es hier auch Überschneidungen, da
mit Menschen aus dem Alltag auch Online kommuniziert
wird und weil aus Bekanntschaften die im Onlinebereich
entstehen auch in der realen Welt soziale Beziehungen
entstehen. Einige der Teilnehmer wiesen uns darauf hin,
dass der Unterschied zwischen den Gruppen Online- und
Offlinefreunde als nicht sehr signifikant darzustellen sei.
111
Schlusswort
LAN-Party: Party, auf welcher bis zu mehrere Hundert PCs lokal
vernetzt werden
Es wurde gezeigt, dass der E-Sport ein großes Potential
besitzt und für das Marketing von Unternehmen unterschiedlicher Branchen ein gutes Mittel ist, die Zielgruppe
der „Heranwachsenden“ zu erreichen. Der E-Sport hat in
weniger als zehn Jahren eine beachtliche Entwicklung
durchgemacht. An den „World Cyber Games“ nehmen
schon fast so viele Länder teil, wie an den Olympischen
Spielen. Deutschland steht zwar momentan noch in den
internationalen Wettkämpfen relativ gut da, doch darf
hier auch von staatlicher Seite der Trend nicht verschlafen
werden. Urteile wie in dem Abschnitt „Vergleich zwischen
E-Sport und reellem Sport“ sind nicht nur unnötig, sondern auch schädlich, da sie die öffentliche Wahrnehmung
beeinflussen und so die Entwicklung in Deutschland unter
Umständen stagnieren lassen.
Langfristig ist ein Erfolg, ähnlich wie in Südkorea,
auch hier in Deutschland durchaus denkbar. Aber es ist
nicht anzunehmen, dass dies so extrem geschehen wird,
wie dort. Europa wandelt sich nicht so schnell. Dinge
brauchen hier Zeit sich zu entwickeln.
Mit der Gründung des „Deutschen eSport Bundes“
wurde ein Schritt in die richtige Richtung getan, E-Sport in
der öffentlichen Gesellschaft besser zu repräsentieren.
Wir möchten uns abschließend bei all jenen bedanken, die an unserer Umfrage teilgenommen haben und
unsere Fragen teilweise so ausführlich beantworten haben.
Außerdem gilt unser besonderer Dank unserem Dozenten
Prof. Dr. Bernd Eylert, welcher uns in seinem Seminar „Telematik und Gesellschaft“ ermöglicht hat, ein Thema zu
behandeln, welches uns beide auch privat seit einiger Zeit
beschäftigt und deshalb auch besonderen Spaß macht.
MMORPGs: Massive Multiplayer Online Rollplay Games, Spiele
bei welchen oft Hunderte Spieler auf einem Server an einem
virtuellen Rollenspiel teilnehmen
Fußnoten
(1) Interleaving ist ein Verfahren, welches durch Umsortierung
der Übertragungsbits Burstfehler verteilt
Progamer: professioneller Spieler
Quake III: sehr populärer Egoshooter, welcher meist „Mann gegen
Mann“ gespielt wird
Starcraft: das derzeit noch populärste Echtzeitstrategiespiel in
Südkorea
USK: Unterhaltungssoftware Selbstkontrolle, freiwillige Selbstkontrolle der Spieleindustrie zur Einstufung der Software in
bestimmte Altersgruppen
Wallhack: Ein Schummelprogramm, welches es erlaubt in einem
Egoshooter durch Wände zu schauen
WCG: World Cyber Games, jährlich stattfindender, größter, ESport Event
Literatur/Quellen
[WI05]
29.Juni 2005, de.wikipedia.org/wiki/Esports
[LI05]
29.Juni.2005, Lietzkow, Seite 1, www.esportforum.com/
vortraege/Vortrag_Lietzkow.pdf)
[WI205] 30.Juni 2005, de.wikipedia.org/wiki/E-sport
[KR05]
30.Juni 2005, www.korea.net/news/news/
newsView.asp?serial_no=20041217018&part=108
&SearchDay=
[FAT05] 1. Juli.2005, www.fatal1ty.com/news/
?type=PR&ID=15
[KI05]
1. Juli 2005, Kim, http://www.esportforum.com/
vortraege/Vortrag_Kim.pdf
[MI05]
1. Juli 2005, Militz, http://www.esportforum.com/
vortraege/Vortrag_Militz.pdf
[KO05]
1.Juli 2005, Korte, http://www.esportforum.com/
vortraege/Vortrag_Korte.pdf, Seite 10
[KO205] 1. Juli 2005, Korte, http://www.esportforum.com/
vortraege/Vortrag_Korte.pdf, Seite 11
Glossar
Aimbot : Ein Schummelprogramm, welches Gegner automatisch
anvisiert.
BPjM: Bundesprüfstelle für jugendgefährdende Medien
Cheatprogramme: Programme, welche es erlauben in Spielen zu
schummeln
Autoren
B. IC. Sc. Henri Schmidt
Technische Fachhochschule Wildau
[email protected]
Counter-Strike: derzeit bekanntester Taktik – Egoshooter
Echtzeitstrategiespiel: Spiel, in welchem man, meist in isometrischer Ansicht, verschiedene Einheiten in Echtzeit befehligt
Egoshooter: ein Spiel, welches eine virtuelle Welt in einer 3DEgoansicht darstellt und meistens ein Teamspiel unterstützt
B. IC. Sc. Stefan Lehmann
Technische Fachhochschule Wildau
[email protected]
fatal1ty: Jonathan Wendel, einer der ersten amerikanischen
Progamerstars
Gameserver: Ein Rechner im Internet, auf welchem dedizierte
Serverprogramme (meist) unterschiedlicher Spiele laufen
IRC: Internet Relay Chat, eines der ältesten und größten Chatsysteme
Lags: Sekundenaussetzer bei einem Onlinespiel aufgrund mangelhafter Datenkommunikation
112
TFH Wildau, Wissenschaftliche Beiträge 2006
Qualitative analysis of AWJ factors affecting
the surface roughness
Sergej Hloch, Stanislav Fabian
Abstract
1 Introduction
The paper deals with experimental research and evaluation of abrasive waterjet cutting technology process
by evaluation of technological factors, which influence
the microgeometry (average roughness) of 10 mm thick
stainless steel tooled workpiece surface through design
of experiments. Significance of six chosen process factors
– independent variables (traverse rate, abrasive mass flow
rate, pressure, J/T abbreviation and feeding direction that
influence the surface quality has been evaluated by factors
experiment type 26. The surface quality has been evaluated by static quality characteristic average roughness
Ra. The multiple nonlinear regression equation obtained
from ANOVA gives the level quality Ra as a function of
the treatment factors. Different factor significance has
been found, which generated surface profile under defined conditions by abrasive waterjet. The regression
equations obtained from ANOVA and multiple linear
regressions give the level quality Ra as a function of the
treatment factors.
Design of Experiments is a standard statistical technique
used in quality engineering, manufacturing, and other
industries to identify significant or sensitive factors (independent variables) and levels their factor values that influence system performance and variability. This technique is
especially useful when there is the need to understand the
interactions and effects of several system variables and an
absence of concrete information. Manufacturing engineers
can use experimental designs to establish a cost-effective set
of experiments to identify factors and levels that have the
most and least impact on system performance. In current
European conditions raising emphasis is posed to manufacturing processes quality with minimal environmental
impact, connected with lower energetic and material consumption. Competition and scientific progress requires introduction of technologies that perform challenging claims
of modern production in automation field, from economy,
environmental and energy efficiency point of view. Abrasive
waterjet cutting represents all of these claims.
Fig. 1. AWJ cutting process model; factors vs. parameters
TFH Wildau, Wissenschaftliche Beiträge 2006
113
2 Related and previous works
N
Abrasive waterjet machining belongs among complicated
dynamical and stochastic processes with incomplete information about mechanism and side effects character. Their
complicated appearance in large amount and parameters
multiform determining process behaviour in large number
of relations among parameters, and their interactions.
[15] Their complicacy incomplete knowledge functioning mechanisms and large amount of factors entering to
the process complicate of mathematical model fitting by
theoretical and analytical methods [12, 16]. Vice versa a
mathematic-statistical method allows fitting of statistical
models even from relative large amount input data. The
nature of the mechanisms involved in the domain of AWJ
machining is still not well understood but is essential for
AWJ control improvement. In spite of great research effort
and good knowledge in the field of progressive technologies there are number unexplained facts. One of them is
influence of process factors on workpiece surface quality.
[6, 10] The work presented in that study investigates a
micro-geometrical aspect of the cutting quality of the
average roughness. It is necessary to ensure asked quality
characteristic of the cutting surface, which conditional to
knowledge of the process function dependency between
product quality parameters and abrasive waterjet manufacturing system factors [9]. Most scientific papers concerning
to the evaluation of microgeometrical features of abrasive
waterjet cutting are available [1, 2, 3, 4, 7, 11]. The object
is to determine the final shape of the surface quality,
which is a function of the geometric characteristics of the
abrasive waterjet tool and its awj factors that are divided
into two basic groups (fig.2); direct and indirect. Factors
of indirect group influenced quality of the created tool
where hydro-dynamic factors, mixing factors and abrasive
factors belong. These factors influence the qualitative characteristics of the tool, the speed, diameter kinetic energy
of the stream. Generated tool through these factors enters
to the cutting technology process at material at the large
number locality, by means of direct factors. There belongs
traverse rate; stand off distance, impact angle and number
of passes. Through cutting factors, created tool hits the
workpiece the at upper erosion base (fig.1), where erosion
process begins [11, 13].
In order to investigate the influence of abrasive waterjet process factors on average roughness Ra cutting quality, full factorial design for four independent variables has
been designed. Full factorial analysis was used to obtain
the combination of values that can optimize the response
within the region of the four dimensional observation
spaces, which allows one to design a minimal number
of experimental runs. Among the many process variables
that influence the cutting results, four have been selected
and considered as factors in the experimental phase. The
variable of each constituent at levels: –1, and +1 is given
in Table 1.
The experimental cuts have been performed in a random sequence, in order to reduce the effect of any possible
error. A 26 full factorial analysis has been used with 3 replicates at the center point, leading the total number of 64
experiments. Considering that the four levels of the x1, x2,
114
Factors
Factor level
Var. Terminology and dimension
-1
+1
0,1/1
0,14/1,2
500
1
x1
J/T abbreviation [mm]
2
x2
Abrasive mass flow rate [g.min-1]
300
3
x3
Pressure [MPa]
200
350
4
x4
Traverse rate [mm.min-1]
70
120
5
x5
Depth [mm]
6
x6
Traverse direction
1
9
-180
180
Table 1. Coded independent variables at defined levels
x3, x4, x5, x6 and variables are –1 and 1, the designed matrix
is 64-obsevations for dependent variable Ra. The graphical
interpretations of factorial design is illustrated in the figure
(2) Specimens series A has been made with indenpendent
variable – factor J/T at high level 0,14/1,2 (+1) and specimens series B with lowest level of J/T abbreviation. The
behaviour of the present system can describe the nonlinear
polynomial exponential equation (1), which includes all
interaction terms regardless of their significance:
y = b0 x0 + b1 x1 + b2 x2 + b3 x3 + b4 x4 + b5 x5 + b6 x6 ... + b123456 x1 x2 x3 x4 x5 x6 (1)
Fig.2. Experimental methodology graphic illustration of specimens’
series A and B
For investigation of the influence of the traverse rate the
samples created for this purpose have been cut in two
directions +180° and –180° (fig. 4). Traverse direction has
been added to the experiment to explain the significance
with connection of the selected factors.
2.1 Experimental set up
A two dimensional abrasive waterjet machine Wating, was
used in this work with following specification: work table
x-axis 2000 mm, y-axis 3000 mm, z-axis discrete motion,
with maximum traverse rate of 250 mm.min-1. The highpressure intensifier pump was used the Ingersoll-Rand
Streamline model with maximum pressure 380 MPa. As a
cutting an Autoline cutting head from Ingersoll-Rand head
has been used. The mechanical properties and chemical
composition of the workpiece with austenitic composition
is shown in table 2. The properties of each sample are:
length 35 mm, width 8 mm, and height 10 mm. Abrasive
machining conditions used in this study are listed in the
table 2. The abrasive used in this experiment is Barton
garnet, mesh 80, which is widely used for abrasive waterjet
machining.
TFH Wildau, Wissenschaftliche Beiträge 2006
The stainless steel has been chosen as a target material
upon these grounds: material is very attractive, because
of its resistance to corrosion; it can provide significant
value creation for the end user when considering all of the
important attributes and how they help to bring reliability,
performance, and safety to industry and the consumer. Fig.
4 shows the samples made according DoE (tab. 2, fig. 2).
Constant factors
Values Variable factors
Standoff
2 mm Pressure p [MPa]
Abrasive material Barton
Traverse rate v [mm.min-1]
Garnet Mesh 80
Cutting head AutolineTM
Impact angle ϕ
90°
Values
200/350
Fig. 5 Measurement procedure
70/120
J/T abbreviation
0,14/1,2
0,1/1
Abrasive mass flow rate
[g.min-1]
200/500
Target material: Stainless
Material thickness h [mm]
1/9
steel AISI 304
C max 0.07%, Mn max 2.0%, P max 0.045%, S max 0.03% Si max
1%, Cr max 18/20%, Ni 10%
Tensile Strength Rm 540/680 [N.mm-2], Slip Limit Rp 0.2% 195
[N.mm-2], HRB = 88
System characteristics of Streamline pump
Double
Water pressure (max)
380 MPa
Intensifier type
effect
Intensifier power
50 kW Intensification ratio
20:1
Oil pressure (max) 20 MPa Accumulator volume
2l
Table 2. Experimental set up
Fig. 6 Example of created workpiece surface by abrasive waterjet
Fig. 3 Production of samples (B – series)
Fig. 4 Example samples of A and B series
2.2 Measurement procedure
A digital surftest Mitutoyo 301 has been used to calculate
the average roughness with 0.01 µm precision of measurement. The measurement procedure consisted of measure
variable dependent average roughness Ra in 1, and 9 mm
with replicates of 6-times. The measurement dependent
variables are shown on figure 4.
TFH Wildau, Wissenschaftliche Beiträge 2006
3 Statistical results
The quantitative description of the conditions effects
on average roughness was performed. Response surface
methodology is an empirical modelling technique used
to evaluate the relationship between a set of controllable experimental factors and observed results. The results
were analyzed using the analysis of variance as appropriate to the experimental design used. The normality of
experimental measured data has been tested according
Shapiro-Wilkson test criteria for its good power properties as compared to a wide range of alternative tests.
Shapiro-Wilkson test proved that 64 values experiments
is not greater than critical value Wα = 0.788 for n = 6
and α = 0.05, respectively value of probability p is out
of range, as preferred significance level α, we can accept
the null hypothesis about normal distribution measurements repeatability. Figure 5 shows those residual values
do not show heteroskedasticity – during of measurement
of dependent variable average roughness variance of Ra
115
values has not been observed. Figure 6 shows the normal
probability plot of residual values. Computed value obtained reliability for Shapiro-Wikson test of normality p =
0.020032 and value of W criteria W = 0.95114. According
inequality Wα ≥ W, we can accept H0 hypothesis about
residual values probability.
Fig. 9: Pareto charts shows that pressure as a controlable factor
was found to be the most sufficient parameter that affects the
average roughness
Fig. 7: Normal probability plot
Fig. 9 graphically displays the influence magnitudes of
the effects, which are sorted from largest to smallest, from
the obtained results. The most important factors affecting
the AISI 304 surface quality x5 – material thick, x3 – pressure, x1 – J/T abbreviation, x4 – traverse speed and two
interactions.
The value of adjusted determination coefficient adj
= 0,8535 is high to advocate for a high significance of
the model. The significance of independent variables is
interpreted in the Pareto chart of standardized effects for
variable Ra (fig. 7). The following figure shows factors significance of treatment factors in % expression.
Fig. 8: Predicted vs. residual values
The regression equation obtained after analysis of variance gives the level of average roughness as a function
of independent variables: J/T abbreviation, abrasive mass
flow rate, pressure, traverse speed, traverse direction and
material thickness. All terms regard their significance are
included in the following equation:
Ra = 10, 06 + 1, 97x1 − 1, 74x 2 −4, 35x 3 + 4, 30x 4 + 11, 03x 5 − 0, 013x 6 (2)
Where: y is the response, that is average roughness of the
surface and x1, x2, x3, x4, x5, x6 are coded values of the variables J/T abbreviation, abrasive mass flow rate, pressure and
traverse rate and the depth. The model has been checked
by several criteria. The fit of the model has been expressed
by the coefficient of determination R2 = 0,90234 which was
found to be for equation indicating that 90,23% for the
model of the variability in the response can be explained
by the models. The value also indicates that only 9,77%
of the total variation is not explained by the model. This
shows that equation is suitable model for describing to the
response of the average roughness.
116
Fig. 10: Factors significance
As can be seen the most important factor is material thickness with significance 51,89%. The second factor affecting
the quality of surface roughness of stainless steel is pressure
20,45%, third factor is traverse rate 20,20%, J/T abbreviation 9,27% and abrasive mass flow rate 8,17%. Traverse
direction in that an experiment is not significant – has no
diametric significance on surface quality of average roughness. But significance of that factor increase as the material hardness decrease. It has been observed at the factor
designed experiment where the cast aluminium has been
used as a target material. As can be seen from the picture
10 the percentual value of absolute value is higher than
controllable factors; traverse rate, pressure, abrasive mass
flow rate and J/T abbreviation, that indicates that there
are associated factors that has a significance influence and
has not been included and classified by factor analysis. For
TFH Wildau, Wissenschaftliche Beiträge 2006
exact explain of the model fig. 2 a new experiments will
be provided. From present state of the art the two factors
come in to account abrasive mesh and orifice stand off.
The following figures 11, 12, 13 show fitted surfaces of
pressure, rate of speed, J/T abbreviation, and abrasive mass
flow rate and depth. Three-dimensional surface plots showing predicted microgeometrical quality feature the Ra as a
function of independent variable – factors. Figure 10 shows
fitted surface of thickness material and traverse direction.
Thickness of material is most important factor. x1 factor in
not controllable, but it is necessary to know the function
in the relationship among the controllable factors. The second significant factor is traverse speed. The darker colour
means higher values of surface roughness. The roughness
numeric values increases as the traverse rate increase. This
observation agrees with the results on stainless steel. With
increasing depth average roughness strongly increases that
is caused mainly by factors – traverse speed, abrasive mass
flow rate and J/T abbreviation.
Fig. 11 Fitted surface of material thickness and traverse rate. Threedimensional surface plot showing predicted average roughness as a
function of material thickness [mm] and traverse rate [mm.min-1]
Fig. 12 Fitted surface of material thickness and pressure. Threedimensional surface plot showing predicted average roughness as a
function of material thickness [mm] and pressure [MPa]
Observations proved influence of selected independent
variables on surface roughness. Figures 8, 9, 10, 11 are
graphical representation of factors change combination
on average roughness measured in three various depths
TFH Wildau, Wissenschaftliche Beiträge 2006
Fig. 13 Fitted surface of material thickness and J/T abbreviation.
Three-dimensional surface plot showing predicted average
roughness as a function of material thickness [mm] and J/T
abbreviation [mm]
for samples set A and B where is proven influence of factor x1 (fig. 10). With increasing depth the number values
of average roughness increases. The second significant
factor is pressure which significantly affects the average
roughness (fig. 11). The third significant factor is traverse
rate that relates with size and active length of cutting
tool. The influence of the traverse rate is shown on the
figure 10. As can be seen from graphic interpretations
average roughness shows week experimental dependence on change combinations of variable parameters in
depth 1 mm. With increasing depth average roughness
strongly increases that is caused mainly by factor x3, x4
(pressure and traverse speed) (fig.8), (fig.9). The roughness significantly increases as the traverse rate increases.
The importance of pressure and traverse rate and their
significance with interaction material thickness confirm
their importance at the cutting of hard machining materials. The impact of J/T abbreviation is shown on Figure
12. The important fact is that J/T abbreviation with level
–1 (0,1/1) creates more coherent stream. The smaller
diameters of diamond orifice and focus tube produce
water with higher speed of abrasive water jet. Therefore
the surface quality improves with higher pressure and
smaller diameter because an abrasive water jet disposes
with higher energy concentrated to smaller area of the
workpiece. With an increase in the abrasive-mass flow
rate, the quality of surface - Ra characteristics improves
(fig. 11). But according to planned level conditions that
factor there is range of abrasive mass flow rate from 300
g.min-1 to 500 g.min-1. From that mentioned reason high
abrasive-mass flow rates influence to roughness, is less
significant. As the abrasive mass flow rate increases, speed
of the abrasive water jet reduces. The main reason is that
the higher the mass-flow rate, the higher the number of
abrasive particles is that must share the kinetic energy of
the water jet. It is assumed that at low values of the factor
x2, the particles do not collide one with another. They
hit the material with a maximum velocity and maximum
possible kinetic energy. The final result is that the abrasive
mass flow rate has the less influence as hydrodynamics
117
parameters, pressure and J/T abbreviation. The increase in
the number of impacting particles at lower traverse rates
contributes to the improved surface finish.
[6] FABIAN, S, HLOCH, S. Príspevok k technickým možnostiam
zvyšovania kvality produktov technológie vysokorýchlostného hydroabrazívneho prúdu. In: AT&P journal. 1335-2237 :
XII, 2005. 66 - 68. (strany 66 - 68 , 2005),
4 Conclusion
[7] GOMBÁR M. Tvorba štatistického modelu drsnosti obrobeného povrchu s využitím Matlab. In Výrobné inžinierstvo.
(s. 14-17) 2006.
The problem analyzed in these pages is the study of abrasive water jet cutting in terms micro cutting quality. The
quality parameter average roughness has been measured
and evaluated according DoE. This analysis has pointed
out that variable independent, pressure; abrasive mass flow
rate, pressure, traverse rate and material thickness factor
influence the morphology of cutting surface. It has been
found that influence of process factors is variable related to
different depth. Evaluation has been carried according to
design of experiments. Full factorial design has been used
as a statistical method to study effects of selected process
factors. The pressure, abrasive mass flow rate, traverses rate,
J/T abbreviation, material thickness, traverse direction as
independent variable, has been evaluated their significance
and their impact to the average roughness as a dependent
variable. Obtained polynomial regression equation after
analysis of variance gives the level quality as a function of
the process factors. It has been found that pressure, and
traverse rate are important with the depth. It has been
observed that dominant factors influencing quality are
pressure, traverse rate that directly determine quality of
the tool – high-speed waterjet connected with thickness
material and are most significant at the cutting of hard
machining materials. According the experiment it has not
been confirmed the significance of traverse direction at the
cutting of hard machining materials. A new experiment in
the future will be held with consideration of the mesh of
solid phase and stand off, as object to reduce of significance
absolute member in the model.
References
[1] Annoni, M., Monno M. A lower limit for the feed rate in AWJ
precision machining. In. BHR Group 2000 Jetting Technology, p. 285-295, ISBN 1 86058 253 2.
[2] Benko, M., Novák-Marcincin, J. Pocítacová podpora prípravy
programov pre rezanie vodným lúcom. In: Automatizácia
a pocítacová podpora predvýrobných etáp, výrobných a
technologických procesov: 27.-28. marec 2001. Žilina : ŽU,
2001. s. 48-51.
[3] Hloch, S. - Fabian, S. Abrasive waterjet process factors sensitivity identification. In: Annals of DAAAM for 2005 and
proceedings of 16th international DAAAM Symposium,
Austria. 1726-9679 : 16, 2005. 159 - 160.
[4] Chen, F.L.; Siores, E. The effect of cutting jet variation on
striation formation in abrasive water jet cutting, Industrial
Research Institute Swinburne, Swinburne University of
Technology, PO Box 218, Melbourne, VIC 3122, Australia,
Received 3 March 2000; accepted 10 January 2001, International Journal of Machine Tools & Manufacture 41 (2001)
1479–1486.
[5] FABIAN, S. - LORKO, M. Some trends of development of
measuring instruments and systems. In: Wissenschaftliche
Beiträge. no. 6 (2004), p. 12-14. ISSN 0949-8214
118
[8] Hashish, M. An Improved Model for Erosion by Solid Particle
Impact. In: Proc. Of the 7th International Conference on
Erosion by Liquid and Solid Impact, ELSI VII, Cambridge,
England, Sept. 1987, 66/1-66/9,
[9] Hashish, M. Machining of Hard Materials with AbrasiveSuspension Jets, Proceedings of the 9th American Waterjet
Conference, (Dearbom, Michigan, August 23-26, 1997), pp.
267-280.
[10] Híreš O. The study of cutting surfaces quality. In: Funkcné
povrchy 2004: Trencín, 27.-28. máj 2004. Trencín: Trencianska univerzita, 2004. ISBN 80-8075-021-1.
[11] Híreš, O. Povrchové úpravy kovov. Trencín : Trencianska
univerzita, ISBN 80-8075-040-8 (viaz.)
[12] Hloch S., Ragan E., Radvanská A.: Application of factorial
design to study the effects of the selected abrasive waterjet
factors on sound pressure level. In. Proc. Of 4th DAAAM
International Conference on Advanced Technologies for Developing Countries, Osijek Croatia, ISBN 3-901509-49-6.
[13] Hloch, S. Fabian, S. Rimár, M.: Design of Experiments Applied
on Abrasive Waterjet Factors Sensitivity Identification. In:
Nonconventional Technologies Review. 1454-3087 2005.
119 - 126.
[14] Jurisevic, B., Coray, P. S., Heiniger, K. C., Junkar, M.: Tool Formation Process in Abrasive Water Jet Machining. In: Proceedings of the 6th International Conference on Management
of Innovative Technologies MIT’2003 – post-conference
edition. Ljubljana: University of Ljubljana. 2003. s. 73–85.
[15] Lebar, A., Junkar, M. Simulation of abrasive water jet cutting process. Modelling Simul. Mater. Sci. Eng. 12 (2004)
1159–1170.
[16] Lupták, M. Study of the measuring and scanning methods
in the processes of the cutting and machining with waterjet.
In Proc. Metalurgia Junior 05, Den doktorandov HF Košice,
2005.
[17] Palko, A., Smrcek, J., Tuleja, P. Koncové efektory pre roboty
1. In: Strojárstvo. roc. 8, c. 12 (2004), s. 56-57.
[18] Vasilko, K., Kmec, J. Delenie materiálu : Teória a technológia. Presov: DATAPRESS Presov, 2003. 232 s. ISBN 80-7099903-9.
Acknowledment
The authors would like to acknowledge the support of
Scientific Grant Agency of the Ministry of Education of
Slovak Republic, Commission of mechanical engineering,
metallurgy and material engineering, for their contribution to projects:
– 1/1095/04 – Optimization of abrasive waterjet cutting
technology process, by mathematical and experimental
planning, (70%)
– 1/2209/05 Developing method for rising reilability and
safety of production systems operation.(30%)
TFH Wildau, Wissenschaftliche Beiträge 2006
Authors
Assoc. prof., Ing. Stanislav Fabian, PhD.
Faculty of Manufacturing Technologies,
Technical University of Kosice with the seat in Presov,
Department of Technology System Operation,
Štúrova 31, 080 01 Prešov, Slovakia
[email protected]
Ing. Sergej Hloch, PhD.
Faculty of Manufacturing Technologies,
Technical University of Kosice with the seat in Presov,
Department of Technology System Operation,
Štúrova 31, 080 01 Prešov, Slovakia
[email protected]
TFH Wildau, Wissenschaftliche Beiträge 2006
119
Primary Energy Balance and Energy Pay-back Time after
Insulating an Outer Wall – Comparing Northern Europe
and the Eastern Mediterranean Region
Lutz B. Giese, Asude Eltez
1 Introduction
According to data from German Ministry of Economy [1],
in 2000 the primary energy demand of the FR Germany
amounted to 14278 PJ or 3966 TWh (primary energy
consumption world-wide in 2000: approx. 410 EJ). The
contribution from Renewable Energy Sources amounted
in Germany that time totally only 2%. During the same
period, Germany shared 4% of the anthropogenous emission of the greenhouse gas CO2 (24 Gtons per year worldwide), while owning only 1.4% of the world’s population
(82.3 mill. capita).
Furthermore, in 2000 in Germany the final energy
consumption amounted to 9197 PJ or 2555 TWh. The
private sector shared 27.7% of the final energy consumption. Figure 1 shows that 78% of the private final
energy were consumed for space heating, 11% for hot
water supply [2]. Thus, around 2000 the German private
households consumed approximately 550 TWht for space
heating. Still the main part is supplied by centralised or
individual heating systems. As specific gross consumption
of old-standard buildings, approximately 250 kWh/(m2*a)
of final energy (including warm water and losses) can be
taken into account.
– the drastic lowering of the specific energy consumption
(= RUE) is very effective and the first step followed by
– the application of Renewable Energy Sources (RES)
According to these data, taking a specific annual heat
demand of 70 kWh/(m2*a) for space heating plus 12.5
kWh/(m2*a) for hot water into account, by the measures
of “Rational Use of Energy” (RUE) the German final energy demand in the private sector could be reduced by
minimum 300 TWh annually (same as around 30 bill.
norm-m3 of natural gas). As second step, the application of “Renewable Energy Sources” in private buildings
can furthermore decrease the demand for fossil fuels.
Totally, all those measures may result into a potential
to save up to 100 mill. tons of CO2 emission annually
in Germany.
This paper is to propagate energy conservation as an
important tool to save primary energy consumption, in
order
– to reduce the import of fossil fuels and thus to strengthen the domestic economy, and
– to reduce the emission of the greenhouse gas CO2. and
thus to decrease the climatic effect.
By application of eco-balancing methods and the rules of
EnEV 2002, the saving of primary energy and the related
energy pay-back time (EPBT) will be estimated after insulating 1 m2 of outer wall (of a private building) with 10 cm
of rockwool. Two locations will be compared, (i) Potsdam/
Deutschland and (ii) Izmir/Türkiye.
2 Thermal Performance of Buildings
Figure 1: Final energy consumption of private households in
Germany in 2001 [2].
In 2002, in Germany the “Energieeinsparverordnung
EnEV” was passed by the German Parliament [3] combining the standards of insulation and heating installations. A
low-energy standard was fixed for new buildings, annually
demanding 70 kWh/(m2*a) of useful energy with respect
to German standard climatic conditions:
heating-degree days
Gt,19,10 = 2900 Kd/a,
– inner temperature
θi = 19°C
– heating-end temperature
θe,HE = 10°C
– duration of the heating period
nd;HP = 185 d/a
Some adaptation of existing building to new standards is
obligatory, too. Comparing to the state of the art,
120
Before estimating the primary energy savings and their
effect to the eco-balance, the thermal performance of
buildings should be explained first with special respect
to the transmission heat losses (republished from [4],
compare [3]).
The heat balance of a building is ruled by gains and
losses and furthermore by the heat supply. Finally, it has
to be defined which items have to be corrected and to be
taken into account. Furthermore, it has to be distinguished
clearly between final energy and useful energy.
2.1 Losses by Transmission and Ventilation
Whenever the inner air temperature θi of a building exceeds the outer air temperature θe, the building looses heat
by transmission through all construction units covering
the building such as walls, roof and/or ceiling, floor and
windows. The losses depend on the heat transmission
coefficient U (in W/[m2*K]),
TFH Wildau, Wissenschaftliche Beiträge 2006
1
1
U = ------ = ------------------------------R
Rs,i + ∑(dj/λR,j) + Rs,e
(1)
the area Aj and the position (see (1)). Thus, losses through
construction units not touching the outer air but lateral
and unheated parts of the building are lower and have to
be corrected by the factor Fx,j. Summarizing all construction
units of a single building including heat bridges (∆UHB), the
loss dQT /dt (in W) affected by the temperature difference
∆θ can be calculated using equation (2):
dQT /dt = (∑[Uj*Aj*Fx,j] + ∆UHB*∑Aj) * ∆θ
j
(2)
j
Where construction units are joining, buildings are changing air by ventilation with the environment and thus are
loosing heat. Furthermore, opening the windows and the
doors causes ventilation. The volumetric heat capacity of
air cair amounts to 0.34 Wh/(m3*K). The volume of the air
Vair filling a building amounts to
– 3/4 to 4/5 of the outer volume.
The air change rate should be
– 0.5 to 0.7 per hour,
usually old buildings have a higher change rate. Thus, the
ventilation heat loss dQV /dt is:
dQV /dt = cair * n * Vair * ∆θ
(4)
The influence of body-heat is higher in private buildings
and might reach 25-50% of the internal gains. It can be
estimated that the usable share of the electric consumption
plus the body-heat nearly is equal to the measured electric
consumption in private households.
The second source of heat is the solar radiation, which
enters seasonally varying the building - mainly through
translucent glassing but also partly through opaque construction units. The solar gains dQS,t /dt through all windows
of a building (translucent) depend on the orientated specific
intensity of the solar radiation IS,or and the window properties as transmissivity of the glassing g, area AW, the latter
corrected due to e.g. geometry and frames (factor Fcorr):
dQS,t /dt = ∑(IS,or*∑[Fcorr*g*AW])
j
(5)
j
2.3 Heat Balance of a Building
Summarizing all losses (corrected by the factor rT for
the reduction of the inner air temperature) and gains
TFH Wildau, Wissenschaftliche Beiträge 2006
Qh = rT*(QT+QV) − (ηS*QS+ηi*Qi)
(6)
For instance annual or monthly heat balances can be calculated in this way. Simplifying it, the heat demand during
a period of observation consists of the difference of losses
Ql and gains Qg (rT and η can be taken as 0.95):
Qh = rT*Ql − η*Qg
(7)
Replacing the annual heat losses by the specific heat loss
coefficients HT and HV (in W/K) and implementing the
heating-degree days Gt (see (9)) the following formula is
gained:
Qh = rT*f*Gt*(HT+HV) − η*(QS+Qi) =
0.95*0.024 kh/d*Gt*(HT+HV) − 0.95*(QS+Qi)
(8)
Gt = ∑(nd,θ(a),j*[θi−θe])
(9)
j
Gt,20,15: Æ Inner air temperature
θi = 20°C
Gt,20,15: Æ Heating end temperature θHE = 15°C
(3)
2.2 Gains from Internal Sources and Solar
Illumination
To overcome those losses, buildings gain heat not only
from the heater but also from internal and solar sources.
Internal heat gains derive from persons and electric
and other consumers within the heated zone. Taking a
(total area specific) heat flow dqi /dt such as
– 6 W/m2 in commercial buildings or
– 5 W/m2 in private buildings
into account, the internal gains can be calculated (4).
dQi /dt = dqi /dt * Ause
(corrected by ηS or ηi) during a period e.g. of one day,
the energy budget within this period can be calculated
and the additional periodical heat demand Qh can be
estimated.
3 Eco-balancing the Rockwool Insulation
3.1 Input Data Sets
As model object a small private building with the following properties was taken into account (building: 1 m2 of
its outer walls, heating system):
Building: single-occupancy house
Construction
before 1950
date:
Floor space:
200 m2 (net)
Before
q
≥ 200 kWhth/(m2*a); U (wall) = 1.36 W/(m2*K)
modernisation: h,old
After
q
= 50 kWhth/(m2*a); U (wall) = 0.31 W/(m2*K)
modernisation: h,new
Heating system
Construction
after 1995
date:
Type:
gas heater, “Brennwert”
Distribution:
inside the heated area, radiators
System
55/45
temperature:
Before
Primary energy factor eP,old = 1.1(-1.2)
modernisation:
After
Primary energy factor eP,new = 1.5
modernisation:
Table 1 shows the calculation of the heat transmission coefficient U for the vertical outer wall consisting of solid bricks
with mortar cover (inside and outside) and occasionally
insulation layer. According to the results, the transmission
heat loss of the wall decreases down to 22.8% if insulated
(without respect to heat bridges).
121
ρraw,j
Layer
λR,j
dj
hT,new = (Uj,new*Aj*Fx,j + ∆UHB*Aj )/Aj =
kg/m
m
Rs; d/λR
W/(m*K) m2*K/W
Rs,i
-
-
-
0,130
Mortar
1800
0.015
1,00
0,015
Bricks
1600
0.365
0,68
0,537
Rockwool
100
0.100
0,04
2,500
Mortar
1800
0.015
1,00
0,015
qT,old = rT*f*Gt,20,15*hT,old = 0.95*0.024 kh/d*
Rs,e
-
-
-
0,040
3875 Kd/a*1.46 W/(m2*K) = 128.7 kWh/(m2*a)
Without insulation
1/U
0.737
U
1.357
With insulation
3.237
3
To evaluate the performance, three different climatic data
sets had been taken into account, (i) reference climate
Germany, (ii) Potsdam/Berlin climate (Germany), and (iii)
Izmir climate (Türkiye).
°C
°C
°C
°C
°C
°C
°C
°C
°C
°C
°C
°C
°C
Kd/a
d
Kd/a
d
Potsdam D
-0.9
0.2
3.7
8.0
13.2
16.6
17.9
17.5
13.9
9.4
4.2
0.7
8.7
3989
278
3210
198
Izmir TR
8.3
9.2
11.7
15.3
19.7
23.9
27.0
27.0
23.1
18.6
14.4
10.0
17.4
1410
151
760
75
Table 2. Reference climates (long term monthly average of the daily
mean outer air temperature, heating degree days and duration of
the heating period, taken from [6], [7] and [8]).
Table 2 shows the monthly averages of the daily mean
outer temperature, the heating-degree days and the duration of the heating period for the three climates.
3.2 Specific and Total Transmission Heat Losses
and Primary Energy Demand
Taking the reference climate Germany from table 2 into
account, HT (here for 1 m2: ≡ hT) is calculated according
to (10)
HT = ∑[Uj*Aj*Fx,j] + ∆UHB*∑Aj
j
with:
– Correction factor
– Surface area
– Heat bridge correction
(10)
j
Fx,j = 1.0
Aj = ∑j A j = 1 m2
∆UHB = const = 0.1 W/(m2*K)
Thus, for the old and new specific transmission heat loss
the following results are gained:
hT,old = (Uj,old*Aj*Fx,j + ∆UHB*Aj )/Aj =
(1.36 + 0.1) W/(m2*K) = 1.46 W/(m2*K)
122
(13)
qT,new = rT*f*Gt,19,10*hT,new = 0.95*0.024 kh/d*
0.309
Reference D
-1.3
0.6
4.1
9.5
12.9
15.7
18.0
18.3
14.4
9.1
4.7
1.3
8.9
3875
275
2900
185
(12)
The related, total transmission heat loss (old and new)
within one heating period amounts to:
Table 1. Calculation of the heat transmission coefficient U of an
vertical, outer building wall (adapted from [5]).
Location
Jan
Feb
Mar
Apr
May
Jun
Jul
Aug
Sep
Oct
Nov
Dec
Year
Gt,20,15
nd
Gt,19,10
nd
(0.31 + 0.1) W/(m2*K) = 0.41 W/(m2*K)
(11)
2900 Kd/a*0.41 W/(m2*K) = 27.0 kWh/(m2*a)
(14)
Thus, by the insulation the transmission heat loss is reduced down to 21.0%.
The related primary energy demand (old and new)
amounts to:
qP,old = qT,old * eP,old = 128.7 kWh/(m2*a) * 1.1 =
141.6 kWhPE /(m2*a)
(15)
qP,new = qT,new * eP,new = 27.0 kWh/(m2*a) * 1.5 =
40.5 kWhPE /(m2*a)
(16)
By insulation, the reduction of the primary energy demand amounts according to (17) to 101.1 kWhPE /(m2*a)
(reduction down to 28.6%):
∆qP = qP,old – qP,new = (141.6 – 40.5) kWhPE /(m2*a) =
101.1 kWhPE /(m2*a)
(17)
3.3 Primary Energy Content of Rockwool and
Energy Pay-back Time
Adapting the data from [9], the primary energy content PEI
of rockwool amounts to 17.5 MJ/kg. Respecting the
– density of rockwool ρ = 50 kg/m3 and
– calculating
1 kWh = 3.6 MJ,
with
PEI = 17.5 MJ/kg ≡ 875 MJ/m3 ≡ 243 kWh/m3
(18)
and – respecting the thickness of d = 0.1 m of rockwool
insulation – the area specific pei
pei = PEI * d = 243 kWh/m3 * 0.1 m = 24 kWh/m2
(19)
the energy pay-back time (EPBT) for the rockwool layer
can be estimated to amount to
pei
24 kWhPE /m2
EPBT = --------- = --------------------------- = 0.24 a
101.1 kWhPE /(m2*a)
∆qP
(20)
without any respect to additional primary energy demand
for mortar and additives.
3.4 EPBT for Rockwool Insulation in Potsdam
and Izmir
Taking the data from tab. 2 for Potsdam and Izmir into
account, the calculations in 3.2 and 3.3 (formulas (10) to
(20)) were executed again on those data.
TFH Wildau, Wissenschaftliche Beiträge 2006
Tab. 3 shows the results comparing Potsdam in Germany
and Izmir in Turkey (plus former results for the reference
location Germany). Thus, it can be seen that the EPBT is
a function vs. reciprocal specific heat demand. This effect is known from pre-insulated buildings: As lower the
initial heat demand is, as longer lasts the (ecological and
economical) amortisation of a insulation project. Nevertheless, every decrease of the primary energy consumption
and costs is finally feasible. Finally, within half a year also
in Izmir the PEI of the rockwool is amortisated.
Location
Reference D
Potsdam D
Izmir TR
Gt,20,15
Kd/a
3875
3989
1410
Gt,19,10
Kd/a
2900
3210
760
qT,old
kWh/m2a
128.7
132.8
46.9
qT,new
kWh/m2a
27.0
30.0
7.1
qP,old
kWhPE/m2a
141.6
146.1
51.7
10.7
2
qP,new
kWhPE/m a
40.5
45.0
∆qP
kWhPE/m2a
101.1
101.1
41.0
EPBT
a
0.24
0.24
0.59
Table 3. Input data set and results of total transmission heat losses
(per m2), primary energy demand, its reduction and the energy payback time, comparing reference location Germany, Potsdam/Germany
and Izmir/Turkey (based on the climatic data from tab. 2)
5 Summary
Taking for buildings a specific annual heat demand of
70 kWh/(m2*a) for heating plus 12.5 kWh/(m2*a) for hot
water into account, by the measures of “Rational Use of
Energy” the German final energy demand in the private
sector could be reduced by 300 TWh annually (same as up
to hundred Mtons of CO2) (a = year).
This paper will summarize some data for Germany
compared to Turkey and evaluate the ecological feasibility of a 10 cm thick rockwool insulation of an outer
building wall. The energy pay-back time for the locations
Potsdam/Germany and Izmir/Turkey will be calculated
and interpreted.
Furthermore, this paper is to propagate energy conservation as an important tool (i) to save primary energy
consumption, in order (ii) to reduce the import of fossil
fuels and thus to strengthen the domestic economy, and
(iii) to reduce the emission of the greenhouse gas CO2 and
thus to decrease the climatic effect.
Keywords
Energy Pay-back Time, Insulation, Energy Conservation,
Rational Use of Energy
4 Conclusions
Coservation of energy – also called as “Rational Use of Energy” (RUE) – in private households provides a high potential for saving of energy. Still the consumption of buildings
is too high and furthermore the contribution of RES is too
low. Space heating shares e.g. in Germany still 40% of the
final energy consumption [10]. In private buildings, more
than 4/5 of the energy consumption are heat.
Rational Use of Energy is a very effective tool to reduce
the greenhouse gas emissions, to decrease the annual energy costs and furthermore it prepares the integration of
Renewable Energy Sources.
The planner who aims at optimizing the energy demand of buildings should follow the two steps,
(i) step 1 is to decrease the building’s demand and increase the efficiency of the heating system - Æ RUE
– and then
(ii) step 2 is to apply Renewable Energy Sources - Æ RES.
The rules of the German EnEV can be applied successfully on existing buildings (compare [11]. However,
the up-coming EU directive 2002/91/EC [12] is expected
to stimulate the development towards improving the
standards also of the existing buildings. A building energy
passport will be obligatory.
The results of the ecological balance give a clear
evidence that insulation of outer walls can be an ecoeffficient and sustainable way to avoid emissions, if the
work is properly done and convenient materials are used.
Furthermore, from the view of the specific investment RUE
measures often are very cost efficient and convenient as
first step to reduce the emissions.
TFH Wildau, Wissenschaftliche Beiträge 2006
Acknowledgement
The authors would like to thank very much the the German Academic Exchange Service DAAD, the University of
Applied Sciences TFH Wildau, and the Mugla University
for the provided supports. This paper is published related
to the Energy Symposium in the Mugla University in May
2006.
References
[1] BMWi (ed.), Energie Daten 2002 – Nationale und internationale Entwicklung, Federal Ministry of Economy and
Technology, 2002
[2] BINE, Energiesparen zu Hause, BasisEnergie, 9, Fachinformationszentrum Karlsruhe, 2001
[3] Gierga, M., EnEV Energieeinsparverordnung, Arbeitsgemeinschaft Mauerziegel im Bundesverband der Deutschen
Ziegelindustrie e.V., 2002
[4] Giese, L.B., Estimating the Standard Heat Requirement of
Buildings Using Graphical and Other Methods to Prepare
the Application of RUE and RES Measures.- In: Kaplanis, S.N.
& Kostoulas, A. [ed.]: Proc. Int. Conf. on ‚The Integration of
the Renewable Energy Systems into the Building Structures
Patras/ Greece: 88-94; Patras, 2005.
[5] Sohn, M., & Fürkus, S., Beratungsbericht über die Energieeinsparung vor Ort für das Zweifamilienhaus Giese, [unpublished], 2001
123
[6] DIN V 4108-6, Waermeschutz und Energie-Einsparung in
Gebaeuden: Waermetechnisches Verhalten von Gebaeuden – Teil 6: Berechnung des Jahresheizwaerme- und des
Jahresheizenergiebedarfs, Beuth Verlag, 2003
[7] http://www.stadtklima.de
[8] Lemke, K., Untersuchungen zur Regenerativen Energieversorgung der IYTE-Universitaet in Izmir/Tuerkei, Diploma
Thesis FHTW Berlin, 2003.
[9] http://www.architektur.tu-darmstadt.de/buildingmaterials
[10] Pistohl, W., Handbuch der Gebaeudetechnik, 2, Werner
Verlag, 1998
[11] Loehlein, U. (ed.), EnEV unter Beruecksichtigung der Bestandsimmobilie, Hammonia, 2002
[12] Directive 2002/91/EC, (on the) Energy Performance of Buildings (from 16 December 2002), European Parliament and
Council, 2002
Authors
Lutz B. Giese, Dr. rer. nat.
Institut für SolareEnergieTechnik (SET) am TWZ e.V.,
an der Technischen Fachhochschule Wildau
[email protected]
Asude Eltez, Ass. Prof. Dr. (PhD)
Faculty of Engineering, Mugla University
Mugla/Türkiye
[email protected]
124
TFH Wildau, Wissenschaftliche Beiträge 2006