Ganzes Heft - Technische Hochschule Wildau
Transcription
Ganzes Heft - Technische Hochschule Wildau
WISSENSCHAFTLICHE BEITRÄGE Forschung · Lehre · Technologietransfer ISSN 0949–8214 Heft 2006 Technische Fachhochschule Wildau University of Applied Sciences Wissenschaftliche Beiträge Forschung Lehre Technologietransfer Heft 2006 TFH Wildau, Wissenschaftliche Beiträge 2006 1 Impressum Herausgeber Der Präsident der Technischen Fachhochschule Wildau Prof. Dr. László Ungvári Bahnhofstraße 15745 Wildau Tel. +49 3375 508-101 Fax +49 3375 500324 www.tfh-wildau.de Redaktionskollegium der TFH Wildau für die „Wissenschaftlichen Beiträge“ Prof. Dr. phil. Stephan Broda Prof. Dr. Bernhard Eylert Prof. Dr. phil. Olga Rösch Dipl.-Ing. (FH) Kerstin Poeschel Redaktionsleitung Dipl.-Ing. (FH) Kerstin Poeschel Tel. +49 3375 508-582 Redaktionsschluss: November 2006 E-Mail: [email protected] Lektorat, Gesamtherstellung und Verlag News & Media Public Relations · Marcus von Amsberg Perelsplatz 18 12159 Berlin Tel. +49 30 85961377 Fax +49 30 85961376 E-Mail: [email protected] www.newsmedia.de Nachdruck einzelner Artikel und Beiträge, auch auszugsweise, bei Quellenangabe frei. Belegexemplare erbeten. ISSN 0949 – 8214 2 TFH Wildau, Wissenschaftliche Beiträge 2006 Inhaltsverzeichnis Vorwort .............................................................................................................................................................................. 4 Moritz K. Beissenhirtz, Frieder W. Scheller, Maria S. Viezzoli, Fred Lisdat Cystein-Mutanten der Cu,Zn-Superoxiddismutase und ihre Anwendung in Proteinelektroden für die Detektion von freien Sauerstoffradikalen................................................................................................................ 7 Klaus D. Bösing Ausgewählte Methoden der Prozessverbesserung ............................................................................................................. 12 Josef Schmadl, Carsten Briesenick, Jens-Uwe Gerking, Maik Haß, Ingrid Schult, Joachim Schult Neuartige Plattenwärmeübertrager Teil C: Literaturanalyse zur Verdampfung und Kondensation in Plattenapparaten......................................................... Teil D: Wirtschaftlichkeitsbewertung von Plattenapparaten anhand von Druckverlust und Wärmeübergang .............. 16 26 Paul Fiedler, Mareike Schultze, Herbert Sonntag Bereitstellung von Dendromasse für die Versorgung von Biomassekraftwerken – Analyse am Beispiel des Standorts Elsterwerda ................................................................................................................. 32 Sabine Gossner, Daniela Gorsler Wissens- und Technologietransfer in europäischer Dimension: Service Center für internationalen Wissensund Technologietransfer (SeWiTec) der Technischen Fachhochschule Wildau ............................................................... 39 Michael Herzog, Eckhart Kornejew Native Öle – Rohstoffquelle für Anwendungen in der Kunststoffindustrie...................................................................... 44 Hans-Dieter Hunger, Katerina Vaskova Präparation und Charakterisierung von biologisch aktiven Magnetit-Protein-Nanopartikeln........................................ 47 Hagen Koch, Wolfgang Stuhr, Bernhard W. Naber PUR-Kaltformweichschaumstoff – eine interessante Rohstoffquelle für neue Polyurethansynthesen ............................ 51 Rainer Langenstraßen, Stanislav Fulev, Andreas Apel, Bodo Gebert, Dieter Lehmann Entwicklung einer Anlage zur kontinuierlichen Herstellung von PET-Recyclingpolyolen .............................................. 55 Margit Scholl Technologiegestützter After Sales Service .......................................................................................................................... 65 Ulrike Tippe, Bertil Haack Theorie und Praxis erfolgreicher Blended Learning-Konzepte.......................................................................................... 68 Ralf Vandenhouten, Miriam Selz Ein webbasiertes Evaluationssystem für Hochschulen...................................................................................................... 75 Beiträge von Studierenden Logistik: Robert Deininger Projektstudie zum Logistik- und Technologiekonzept für eine Drehautomatenfertigung ........................... 81 Telematik: Einleitung: Bernhard Eylert „Telekommunikation und Gesellschaft“ – ein neues Angebot im Master-Studiengang Telematik .............. 87 Markus Czok, Marc Gurczik Studie: Das Handy als alltägliches Lifestyle-Objekt ....................................................................................... 89 Michael Ring, Peter Ungvári Einführung, Nutzen und Gefahren durch Funkchips ................................................................................... 95 Henri Schmidt, Stefan Lehmann Möglichkeiten durch E-Sport für Wirtschaft und Gesellschaft...................................................................... 103 Englischsprachige Beiträge Sergej Hloch, Stanislav Fabian Qualitative analysis of AWJ factors affecting the surface roughness ................................................................................ 113 Lutz B. Giese, Asude Eltez Primary Energy Balance and Energy Pay-back Time after Insulating an Outer Wall – Comparing Northern Europe and the Eastern Mediterranean Region ............................................................................. 120 TFH Wildau, Wissenschaftliche Beiträge 2006 3 4 TFH Wildau, Wissenschaftliche Beiträge 2006 Vorwort Die TFH Wildau hat in den zurückliegenden Jahren ein unverwechselbares Ausbildungs- und Forschungsprofil sowie weit reichende Netzwerke aufgebaut. Zurzeit sind über 3.500 junge Menschen an der größten Fachhochschule des Landes Brandenburg eingeschrieben. Großer Nachfrage erfreuen sich die Studiengänge Telematik (mit einem Zuwachs zum Wintersemester 2006/07 von 73,2 % gegenüber dem Wintersemester 2005/06), Europäisches Management (+ 39,1 %), Luftfahrttechnik/Luftfahrtlogistik (+ 32,1 %), Biosystemtechnik/Bioinformatik (+ 26,1 %), Ingenieurwesen (+ 24,5 %) und Wirtschaftsinformatik (+ 20,6 %). Studium und Lehre Die Bachelorstudiengänge Telematik und Biosystemtechnik/Bioinformatik gehören nach dem jüngsten CHE-Ranking zu den besten Studiengängen im Informatikbereich im deutschsprachigen Raum. In der Bewertung durch die Studierenden erhielten sie Durchschnittsnoten von 1,2 bis 1,7. Im Oktober 2006 wurden die ersten Absolventinnen und Absolventen des Masterstudiengangs Biosystemtechnik/ Bioinformatik verabschiedet. Ein besonderer Schwerpunkt des Studiengangs ist die Verbindung von biologischen Strukturen mit der modernen Informatik. So werden Biomoleküle zunehmend mit technischen Bauelementen zu neuen Funktionseinheiten kombiniert. Solche biohybriden Systeme erschließen neue Anwendungsfelder in der Pharmaforschung, klinischen Diagnostik, Lebensmittelanalytik und Gentechnik. Im September 2006 begann der zweijährige Masterstudiengang „Europäisches Management“. Ein Drittel der Lehrveranstaltungen findet in englischer Sprache statt. Das dritte Semester ist kompatibel mit den Angeboten von Partnerhochschulen in den Niederlanden, Frankreich, Finnland, den USA und Australien. Außerdem ist seit Herbst 2006 die Immatrikulation für den viersemestrigen Masterstudiengang „Luftfahrttechnik/ Luftfahrtlogistik“ möglich. Ziel der Ausbildung ist es, hochmotivierte Spezialisten für den Betrieb von Verkehrs- und Geschäftsreiseflugzeugen, von Flughäöfen und Verkehrslandeplätzen sowie für die Zulieferindustrie heranzubilden. Ebenfalls im September startete der erste berufsbegleitende Studiengang zum Master of Business Administration (MBA). Das gemeinsam mit dem Wildau Institute of TFH Wildau, Wissenschaftliche Beiträge 2006 Technology e. V. entwickelte Fortbildungsprogramm für Führungskräfte in Unternehmen und öffentlichen Einrichtungen umfasst die Spezialisierungen Luftverkehrsmanagement, Managementberatung und Public Affairs. Existenzgründung auf dem Campus Neben einer modernen Ausbildung bietet die TFH Wildau ihren Studierenden auch Unterstützung bei der Existenzgründung. Ergänzend zum Businessplan-Wettbewerb Berlin-Brandenburg (BPW) hat sie im vergangenen Jahr eine interne Ausschreibung eingeführt, um die Teilnahme studentischer Gründungsteams am BPW zu stimulieren. Die Hochschule prämiert den besten Businessplan von TFH-Studierenden mit Geldpreisen, sofern in jeder Stufe mindestens fünf Businesspläne von Studierenden der TFH Wildau eingereicht werden und sich der beste Businessplan von TFH-Studierenden in der Gesamtwertung alle Businesspläne im ersten Drittel platzieren kann. Forschungs- und Entwicklungsprojekte Nach der Altfahrzeugverordnung sollen bis 2015 rund 95 Prozent der Komponenten eines Kraftfahrzeuges wiederverwertet werden. Noch aktive Airbags enthalten Sprengstoff, deshalb sind hier gängige Verwertungstechnologien nicht anwendbar. Ein Forschungsteam um die Professoren Dr.-Ing. habil. Bernd Hentschel und Dipl.-Ing. Karlheinz Kuchling entwickelte in Kooperation mit der RASOMA Werkzeugmaschinen GmbH, Döbeln, und der Projektlogistik GmbH, Wildau, dazu eine neuartige Demontagezelle (ADZ 2007). Kernstück der explosionsgeschützten Anlage ist ein Roboter, der die einzelnen Schritte computergestützt ausführt und den sprengstoffgefüllten Gasgenerator sicher ablegt. Die neue Technologie wurde erstmals auf der Hannover Messe vorgestellt. Auf der Laser Optik Berlin 2006 (LOB) präsentierte sich die TFH Wildau mit drei Projekten als ein Kompetenzzentrum für Lasertechnik, optische und Dünnschichttechnologien: Im Rahmen des praktischen Studiensemesters im Ingenieurstudiengang Physikalische Technik entwickelte ein Team um Prof. Dr. Siegfried Rolle einen Messplatz für die sichere Erkennung von elektrischen und mechanischen Defekten in Fertigungsprozessen von Solarzellen. Dabei werden die Fotozellen mittels Laserstrahl berührungslos abgetastet und Kurzschlüsse, so genannte Shunts, detektiert. Ein Forschungsteam unter Leitung von Prof. Dr. Sigurd Schrader befasst sich mit der Material- und Technologieentwicklung für die Herstellung von Organischen Leuchtdioden (OLEDs). Diese 5 hauchdünnen, scharf abbildenden und energiesparenden Anzeigeelemente werden nach Experteneinschätzung in absehbarer Zeit die heute dominierenden LCD-Anzeigen ablösen. Ein weiteres Team um Prof. Schrader forschte zur Herstellung ultraschneller optischer Modulatoren. Diese neuartigen Laserbauelemente kommen in der Datenübertragung und -speicherung zum Einsatz. Auf der CeBIT 2006 zeigte die TFH Wildau zwei weitere Entwicklungsprojekte: ein Softwaresystem zur Erfassung, Bewertung und Dokumentation von kommunal genutzten Liegenschaften (Projektleitung: Honorarprofessor Dipl.-Ing. Christian Killiches) und „MarCoGraph“, ein neuartiges Geoinformationssystem zur übersichtlichen Darstellung der Geschäftsdaten von Unternehmen (Projektleitung: Prof. Dr. Michael Hendrix). Alle zuvor genannten Projekte stellen nur eine kleine Auswahl der Forschungsaktivitäten an der TFH Wildau dar. Sie machen deutlich, wie anwendungsorientiert die Forschung und Entwicklung an der Hochschule ausgerichtet ist. Kooperationen und Netzwerke Mit 150.000 Beschäftigten und einem Jahresumsatz von rund 3,5 Milliarden Euro steht die Logistikwirtschaft der Hauptstadtregion nach Hamburg, München und dem Rhein-Ruhr-Gebiet bundesweit auf Platz 4. Hinzu kommt eine hohe wissenschaftliche Fachkompetenz an Universitäten und Hochschulen. Zur weiteren Stärkung der Branche wurde im Januar 2006 die „Logistikinitiative Berlin-Brandenburg“ gegründet, unter maßgeblicher Beteiligung des Arbeitskreises Logistik an der TFH Wildau unter Leitung von Prof. Dr.-Ing. Herbert Sonntag. Ziel der Initiative ist es, den Standort besser zu vermarkten und durch die stärkere Vernetzung von Unternehmen und wissenschaftlichen Einrichtungen zu einem führenden 6 Kompetenzzentrum in Europa zu entwickeln. Das Projektbüro der Initiative wurde an der TFH Wildau eingerichtet. Das Netzwerkmanagement wird über drei Jahre aus Mitteln des Landes Brandenburg gefördert. Im Februar 2006 eröffneten die TFH Wildau und das IHP – Institut für innovative Mikroelektronik am IHP in Frankfurt (Oder) ihr gemeinsames Forschungs- und Ausbildungszentrum „Joint Lab TFHW – IHP“. Es fasst die Kompetenzen an beiden Einrichtungen für eine gemeinsame Forschung und Lehre im Bereich der Mikroelektronik zusammen. So sollen unter anderem Arbeiten zur Entwicklung neuartiger integrierter optoelektronischer Schaltungen und Biosensoren aufgenommen werden. Anfang des Jahres wurde der Forschungsverbund Regionale Innovationssysteme Berlin-Brandenburg, dem unter anderem die TFH Wildau angehört, zum neuen „Verbund Regionale Innovationssysteme Berlin-Brandenburg“ erweitert. Das Netzwerk bündelt zukünftig auch die Kompetenzen von Technologie- und Gründerzentren, Bildungsträgern, regionalen Wirtschaftsförderungsgesellschaften, der Industrie- und Handelskammern sowie von Unternehmen und weitere Forschungseinrichtungen in der Hauptstadtregion. Die Zusammenarbeit reicht von der gemeinsamen Analyse und Bewertung des regionalen Strukturwandels, über beratende Leistungsangebote für eine wettbewerbsfähige Regionalentwicklung und die Unterstützung bei der Analyse von Wachstumspotenzialen bis zur Erarbeitung von Standort- und Stadtentwicklungskonzepten und deren Umsetzung. Dr. László Ungvári Präsident TFH Wildau, Wissenschaftliche Beiträge 2006 Cystein-Mutanten der Cu,Zn-Superoxiddismutase und ihre Anwendung in Proteinelektroden für die Detektion von freien Sauerstoffradikalen Moritz K. Beissenhirtz, Frieder W. Scheller, Maria S. Viezzoli, Fred Lisdat* Zusammenfassung Das Enzym Superoxiddismutase (SOD) bietet wegen seiner hohen Reaktionsrate und seiner extrem hohen Substratspezifität große Vorteile für eine Anwendung als Superoxidbiosensor. In dieser Arbeit wurden durch molekularbiologische Methoden Mutanten der humanen Cu,Zn-SOD gewonnen, welche ein oder zwei zusätzliche Cystein-Reste enthielten, die eine einfache Immobilisierung des Proteins durch Bindung des Cystein-Schwefels auf Goldelektroden ermöglichten. Sechs solcher Mutanten wurden entworfen, exprimiert, aufgereinigt und elektrochemisch charakterisiert. Alle Mutanten konnten durch einen einfachen Inkubationsschritt auf Goldelektroden gebunden werden und zeigten ein quasi-reversibles elektrochemisches Ansprechen. Für eine Mutante wurde die Anwendung als Superoxidsensor genauer untersucht und für beide Teilreaktionen der Dismutation ein Ansprechen des Sensors auf das Radikal gefunden. Bei Verwendung einer Teilreaktion konnte die Empfindlichkeit herkömmlicher Monoschichtsensoren um etwa eine Größenordnung übertroffen werden 1. Einleitung In den letzten Jahren wurde die Bedeutung freier Radikale in der Entstehung und Entwicklung von Krankheiten wie Krebs [1], Parkinson [2] und Herzleiden [3] intensiv untersucht. Insbesondere aggressive, kurzlebige Sauerstoffverbindungen wie das Superoxidradikal O2- (ein negativ geladener Disauerstoff) spielen eine Schlüsselrolle während der Schädigung des Gewebes, da sie mit allen essentiellen Bestandteilen menschlicher Zellen – DNA, Proteinen und Membransystemen – reagieren können. Aus diesem Grund sind die genaue Bestimmung der Konzentration derartiger Radikale ebenso wie die Quantifizierung der Effizienz von Radikalfängern, sogenannter Antioxidantien, von großer Bedeutung für Pharmazie, Medizin und Lebensmittelindustrie. Die geringen natürlichen Konzentrationen (10-9 bis 10-6 mol l-1) sowie die Kurzlebigkeit des Superoxidradikals (ms bis s) stellen dabei Herausforderungen für das Messsystem dar. In der biosensorischen Forschung wurden bereits Proteinelektroden entwickelt, die Elektronenaustauschreaktionen mit dem Radikal eingehen. Insbesondere das Protein Cytochrom c (Cyt.c) wurde erfolgreich auf Goldelektroden immobilisiert [4] und konnte sogar im Tierversuch zur Bestimmung von Radikalkonzentrationsänderungen im Gewebe von Ratten eingesetzt werden [5]. Cyt.c enthält im aktiven Zentrum ein Eisenatom, welches vom Superoxidradikal reduziert und anschließend an der Elektrode re-oxidiert werden kann, wobei über den dabei fliessenden Strom eine Messung der Konzentration des Radikals in Echtzeit ermöglicht wird. Limitiert wird dieser Ansatz allerdings durch die niedrige Reaktionsgeschwindigkeit des Proteins, welches kein natürlicher Reaktionspartner des Radikals ist, die Möglichkeit der Signalverfälschung durch Reaktionen mit anderen Molekülen, insbesondere H2O2, und der aufwendigen mehrtägigen Präparation der Elektroden. Das Protein Superoxiddismutase (SOD) ist das Schlüsselenzym in der zellulären Verteidigung gegen Superoxidradikale [6]. Es enthält in der Regel im aktiven Zentrum ein Kupfer- und ein Zinkion (Cu,Zn-SOD) und zeigt eine sehr hohe Reaktionsrate mit dem Radikal sowie eine beinahe einzigartige Substratspezifität. Auf Grund dieser für die Radikalsensorik bedeutenden Vorteile wurden in den letzten Jahren einige Biosensoren unter Verwendung von SOD entwickelt [7-9]. Nachteilig waren hier potentielle Signalverfälschungen durch notwendige Hilfsschichten für die Proteinanbindung sowie die aufwendige Präparation. Um diesen Konflikt aufzulösen, wurden in dieser Arbeit durch molekularbiologische Manipulation Mutanten der menschlichen SOD entwickelt, welche ein oder zwei zusätzliche Cystein-Reste (Cys) enthielten. Die Aminosäure Cystein enthält eine endständige Thiolgruppe, welche an Goldoberflächen bindet und somit eine direkte Kopplung des Enzyms auf der Elektrode in einem Ein-Schritt-Verfahren ermöglicht. Die Bindung dieser Mutanten auf der Sensoroberfläche, die Elektrochemie der SOD und die Anwendung als Superoxidsensor wurden untersucht. 2. Material und Methoden Xanthinoxidase aus Kuhmilch (XOD) wurde von Roche (Mannheim, Deutschland) geliefert und durch Zentrifugation (15 min bei 11.000 U/min) und Dialyse zusätzlich gereinigt. Bovine Cu-Zn-SOD, HEPES, ß-D-1-thiogalactopyranosid (IPTG) und Xanthin wurden von Sigma Aldrich (Steinheim, Deutschland) bezogen. Golddraht (>99 % Reinheit, Durchmesser 0,5 mm) wurde von Goodfellow (Cambridge, Großbritannien) gekauft. Alle zyklovoltammetrischen Untersuchungen wurden an einem Autolab System (Metrohm, Deutschland) durch- * korrespondierender Autor TFH Wildau, Wissenschaftliche Beiträge 2006 7 geführt. Amperometrische Messungen wurden an einem Model 720A Potentiostaten von CHI Instruments (Austin, USA) vorgenommen. Für alle elektrochemischen Untersuchungen wurde eine 1-ml-Messzelle mit einer Ag/AgCl/1 M KCl-Referenzelektrode von Biometra (Göttingen, Deutschland) und einer Platindraht-Gegenelektrode verwendet. Die molekularbiologischen Methoden sowie die Expression und Reinigung der SOD-Mutanten wurden nach dem bereits etablierten Protokoll zur Arbeit an der humanen Cu,Zn-SOD durchgeführt [10]. Das Gen einer monomeren Form der humanen Cu,ZnSOD, welches auf einem Plasmid (Variante von pBR322) unter Kontrolle des IPTG-ansprechbaren Lac-Promotors zusammen mit einem Selektionsgen für Ampicillin-Resistenz vorlag (CERM, Universität Florenz, Italien), diente als Wildtyp für die Gewinnung der Mutanten. Aminosäuren des Wildtyps, welche gegen ein Cys ausgetauscht werden konnten, wurden durch die Softwareprogramme RasMol, MolMol und Prosa II, ermittelt. Der Austausch der ausgewählten Aminosäuren erfolgte mittels des kommerziellen QuikChange® Site-Directed Mutagenesis Kit der Firma Stratagene (La Jolla, USA) nach Vorgaben des Herstellers. Kompetente E. coli Bakterien (TOPP1) wurden durch Hitzeschock (90s bei 42°C, danach Inkubation auf Eis) mit dem jeweiligen Plasmid transformiert, über die Ampicillin-Resistenz selektiert und über Nacht in Kulturgefäßen (unter Schütteln bei 37°C) herangezogen. Expression der SOD wurde durch Zugabe von IPTG, einem Lactoseanalogon, zur Wachstumslösung (2XYT-Flüssigmedium) erzielt. Die periplasmatischen Proteine wurden durch einen osmotischen Schock (40%-ige Saccharoselösung) und nachfolgende Zentrifugations- und Waschschritte von den übrigen Zellbestandteilen abgetrennt. Durch DEAESepharosesäulenchromatographie und SDS-Gelelektrophorese wurden Fraktionen gewonnen, die fast ausschließlich SOD enthielten. Die Enzymelektroden wurden durch einfache Inkubation sauberer Golddrähte in einer 50-300 µM SOD-Lösung (über Nacht) und anschliessender Spülung mit proteinfreiem Puffer hergestellt. Für die Oberflächenplasmonresonanzspektroskopie (SPR) wurde ein sauberer SPR-Chip unmodifiziert in das Fliesssystem des Biacore 2000 (Biacore AB, Uppsala, Schweden) eingebaut. 200 s lang wurde der Chip mit Puffer gespült. Anschließend wurde eine 100 µM Lösung einer SOD-Mutante bzw. einer Apo-SOD-Mutante für 3h über den Chip geleitet, gefolgt von erneut 15 min Puffer, jeweils mit einer Fliessrate von 1µl/min. Die Änderung des Resonanzsignals gegen die Zeit diente als Maß für die Massenanlagerung auf der Chipoberfläche. Für die sensorische Anwendung der SOD-Mutanten wurde in vitro ein Enzymsystem zur Erstellung von Superoxid genutzt. Das Enzym Xanthin-Oxidase katalysiert die Umsetzung von Xanthin zu Harnsäure, wobei als ständige Beiprodukte Superoxid und Wasserstoffperoxid anfallen. Es wurden 990 µl Puffer in die Messzelle gegeben und unter konstantem Rühren ein Potential von +220 mV bzw. –130 mV angelegt. Nach Einstellung eines konstanten Hintergrundstroms von wenigen nA wurde 10 µl Xanthin zu einer Endkonzentration von 100 µM in der Zelle hinzupipettiert. Eine anschließende Zugabe von XOD (5 mU/ml 8 bis 60 mU/ml) startete die radikalproduzierende Reaktion. Nach Erreichen eines stabilen Stromplateaus wurden einige µl einer SOD-Lösung (1-3 mg/ml) hinzugefügt, um Superoxid aus der Lösung zu entfernen. Die Konzentration des Radikals in der Messzelle wurde nach bekanntem Verfahren errechnet und der Sensor so kalibriert [11]. 3. Ergebnisse Für die Gewinnung von Proteinmutanten einer monomeren Form der humanen Cu,Zn-SOD wurden zunächst potentielle Mutationsstellen ausgewählt. Zielstellung war hierbei die Einführung von Cysteinresten in das Protein, die dann vorteilhaft für eine direkte Immobilisierung auf Goldoberflächen genutzt werden können (über die GoldThiol-Chemisorptionsbindung). Randbedingungen für die Wahl der Mutationsposition waren einerseits die Nähe der mutierten Aminosäure zum aktiven Zentrum sowie andererseits der weitgehende Erhalt der Proteinstruktur. Es wurden sechs Proteinmutanten ausgewählt: drei dieser Mutanten enthielten einen Cysteinrest (Mut1A, Mut1B, Mut2B), drei weitere zwei Cystein-Reste (Mut2A, Mut2B, Mut3B). Abb. 1 zeigt die Position der Mutationsansätze im Modell des Proteins. Abb. 1: SDS-Page-Gele verschiedener Proteinaufreinigungsschritte. Rechts: von links: gereinigter Wt als Marker, 4 Präparationen der gewonnen bakeriellen Proteine. Links: von links: Größenstandard (von unten: 14,4; 20,1; 30; 43; 67; 94 kDa), aufgereinigte Präparation von Mut1A, Mut2A, Mut2B, Mut2C, Wt, Mut1B, Mut1C. Im Expressionssystem E. coli wurden diese sechs Mutanten der Cu,Zn-SOD exprimiert und einer Aufreinigung mittels Säulenchromatographie unterzogen. Abb. 2 zeigt links die überproportional breite Bande der SOD in der Gesamtheit der gewonnenen periplasmatischen Proteine sowie rechts im direkten Vergleich die Reinheit aller Mutanten nach der chromatographischen Aufreinigung. Reinheit (>95 %) und Menge (>100 mg) der so gewonnenen Enzyme waren für die Untersuchung auf Sensorelektroden mehr als ausreichend. Spektroskopische Messungen bewiesen die Aktivität aller Mutanten bei der Zersetzung von Superoxid. TFH Wildau, Wissenschaftliche Beiträge 2006 Abb. 2: Strukturmodell der monomeren humanen Cu,Zn-SOD mit Blick auf das Kupfer des aktiven Zentrums (schwarze Kugel). Die zur Mutation ausgewählten Aminosäuren sind als gitterartige „Sticks“ hervorgehoben dargestellt. (Quelle: 1DSW in der Brookhaven Protein Databank) Die Bindung der Cys-haltigen Mutanten an Goldoberflächen wurde durch Oberflächenplasmonresonanzspektroskopie (Abb. 3) und Impedanzspektroskopie nachgewiesen. Beide Methoden zeigten beispielhaft eine erfolgreiche Bindung der Mutante Mut1C, sowohl in aktiver Form als auch nach Inaktivierung durch Entfernung des Kupfers. Cystein-freie SOD (Wildtyp) hingegen konnte nach der gleichen Methode nicht immobilisiert werden. Dies zeigt, dass die Bindung der Proteinmoleküle auf der Oberfläche spezifisch über die neu eingefügten Cys-Reste erfolgt. aller sechs immobilisierten Mutanten. Zum Vergleich wurden auch die Kupfer-freie Form der Mut1C (apo-SOD) sowie der Cystein-freie Wildtyp der SOD untersucht. Für keines der beiden Systeme wurde ein elektrochemisches Ansprechen gefunden. Dies unterstreicht noch einmal die Notwendigkeit der eingeführten Cysteinreste für die Proteinimmobilisierung und ordnet die gefundene elektrochemische Umwandlung eindeutig dem aktiven Kupferzentrum des Enzyms zu. Im Vergleich der einzelnen Mutanten wurden weder in der Proteinmenge auf der Oberfläche noch im formalen Redoxpotential signifikante Unterschiede festgestellt. Die genaue Lage der eingefügten Cysteine verändert also die Orientierung des Proteins zur Elektrodenoberfläche nur geringfügig. Durch eine Variation der Scanrate wurde die Elektronentransfergeschwindigkeitskonstante ks bestimmt [12]. Tabelle 1 fasst die bestimmten elektrochemischen Parameter aller untersuchten Proteinmutanten zusammen und vergleicht sie mit den Daten des Wildtyps, der konventionell über eine sogenannte Promotorschicht auf der Goldoberfläche aufgebracht wurde. Mutante Formales Potential [mV vs. Ag/AgCl] ks [s-1] Mut1A 158 ± 5 7,8 ± 1,7 Mut1B 146 ± 9 9,4 ± 1,5 Mut1C 146 ± 6 6,4 ± 2,7 Mut2A 154 ± 6 7,3 ± 2,1 Mut2B 149 ± 4 10,5 ± 4,1 Mut2C 151 ± 3 5,8 ± 1,3 Wildtyp 94 ± 5 6,4 ± 0,8 Tabelle 1 Abb. 3: Sensogramm der Immobilisierung von Mut1C (blau) und Apo-Mut1C (rot) auf der Goldoberfläche eines SPR Chips. (Oberflächenplasmonresonanzspektroskopie, v = 1 µl/min) Zur weiteren Untersuchung wurden Goldelektroden gleichfalls durch einfache Inkubation über Nacht mit den Proteinmutanten modifiziert. Abb. 4 zeigt die Zyklovoltammogramme der so gewonnenen Proteinelektroden und demonstriert die elektrochemische Ansprechbarkeit Abb. 4: Zyklische Voltammogramme der SOD-Mutanten. Links: Einzelmutanten (1 Cys-Rest), rechts: Doppelmutanten (2 Cys-Reste). (Puffer: 50 mM HEPES pH 7,5; Scanrate 100mV/s) TFH Wildau, Wissenschaftliche Beiträge 2006 Auffällig ist die positive Verschiebung des formalen Redoxpotentials bei den Mutanten im Vergleich zum Wildtyp. Derartige Veränderungen in der Lage des formalen Potentials können sowohl den Veränderungen in der Kupferumgebung durch die Mutation als auch der Immobilisierung des Proteins zugeschrieben werden [13, 14]. Die Geschwindigkeit des Elektronentransfers wurde durch die direkte SOD Immobilisierung auf der Goldelektrode im Vergleich zur Nutzung einer zusätzlichen Promoterschicht nur unwesentlich erhöht. Die Verringerung des Abstandes des Kupferzentrums zur Elektrode ist offensichtlich nur gering und/oder andere Faktoren bestimmen hier die Geschwindigkeit des heterogenen Elektronentransfers. Die relativ große Halbpeakbreite von ~160 mV im Vergleich zum ideal reversiblen System (90 mV/z) weist auf eine Verteilung von Redoxzuständen auf der Elektrodenobefläche hin. Dies ist nicht untypisch für Proteinelektroden, jedoch ist die Breite der Verteilung ein mögliches Indiz für stärker heterogene Wechselwirkungen der direkt immobilisierten Proteinmutanten mit der Goldoberfläche. Oxidation und Reduktion des aktiven Zentrums der gewonnenen Proteine sind jedoch rückführbar, und so kann der Elektronentransfer der immobilisierten SOD Mutanten als quasi-reversibel bezeichnet werden. Die Charakteristika der Protein-modifizierten Elektroden erlauben in summa eine Anwendung als Superoxidsensorelektrode. Ein weiterer Vorteil gegenüber Cyt.c basierten 9 Elektroden ist dabei die SOD-katalysierte Dismutation des Radikals: SOD kann sowohl die Oxidation (O2- zu O2) als auch die Reduktion des Radikals (O2- zu H2O2) katalysieren und bietet somit zwei verschiedene Möglichkeiten des Einsatzes einer SOD-Elektrode. Abb. 5: Amperometrische Radikalmessung mit Mut1C bei +220 mV (links) und –130 mV (rechts). A: Beginn der Radikalgenerierung. B: Plateau bei konstanter Superoxidkonzentration. C: Entfernung des Radikals aus der Lösung. Die Radikalmessungen wurden amperometrisch bei einem konstanten Potential (+220 mV für die Oxidation bzw. –130 mV für die Reduktion des Radikals) über den Zeitraum einiger Minuten durchgeführt. Nach dem Erreichen einer stabilen Basislinie in Abwesenheit von Superoxidradikalen wurde durch ein Enzymsystem (Hypoxanthinoxidation durch Xanthinoxidase) eine konstante Superoxidkonzentration in der Messzelle erzeugt [11]. Abb. 5 zeigt den Stromfluss über die Elektrode in beiden Potentialfenstern für eine Mut1C-Elektrode. Bei +220 mV stieg der Strom nach Beginn der Radikalproduktion steil an (a) und erreichte einen Plateauwert (b) entsprechend der konstanten Superoxidkonzentration, bis die Zugabe einer SOD-Lösung in die Zelle (c) alle Radikale aus der Zelle entfernte und dadurch bedingt auch das Sensorsignal wieder auf den Ausgangswert sank. Bei –130 mV erfolgte das gleiche unter umgekehrten Vorzeichen: Die Superoxidproduktion führte zu einem Reduktionsstrom, der durch Radikalentfernung wieder bis auf den Ausgangswert verringert wurde. Dieses Verhalten ist in Übereinstimmung mit den Erwartungen. Im positiven Potentialbereich wird das Protein vom Radikal reduziert und durch die Elektrode wieder re-oxidiert, wobei Elektronen vom Protein auf die Messelektrode übergehen, was als Oxidationsstromfluss registriert wird. Im negativen Potentialfenster findet der entgegengesetzte Prozess statt. Folgende Gleichungen sollen die Teilprozesse an den Proteinelektroden noch einmal verdeutlichen: I Nutzung der Oxidase-Aktivität des Enzyms (+220 mV vs. Ag/AgCl): O2- + Cu(II)ZnSOD → O2 + Cu(I)ZnSOD Cu(I)ZnSOD → Cu(II)ZnSOD + 1 e(Elektrodenreaktion) II Nutzung der Reduktase-Aktivität des Enzyms (-130mV vs. Ag/AgCl): O2- + Cu(I)ZnSOD + 2 H+ → H2O2 + Cu(II)ZnSOD Cu(II)ZnSOD + 1 e- → Cu(I)ZnSOD (Elektrodenreaktion) 10 Somit zeigen diese Untersuchungen, dass beide Teilschritte der Dismutationsreaktion im Sensorsystem stattfinden und zur spezifischen Detektion des Radikals genutzt werden können. Die komplette Signalauslöschung durch die Zugabe einer SOD-Lösung beweist, dass das Signal ausschließlich vom Superoxid herrührt und nicht durch andere Einflüsse bedingt ist. Die Messkurven zeigen darüber hinaus auch, dass die Proteinelektroden schnell auf Konzentrationsänderungen in der Lösung reagieren können und sie somit grundsätzlich zur on-line Radikalbestimmung einsetzbar sind. Bei gleicher Superoxidkonzentration ist das Nettosignal bei einem Elektrodenpotential von +220 mV deutlich höher als bei –130 mV, weshalb der Sensor in diesem Potentialfenster kalibriert wurde. Dabei wurde das Sensorsignal bei verschiedenen bekannten Radikalkonzentrationen aufgenommen und die Empfindlichkeit der Elektrode mit 0,23 A M-1 cm-2 bestimmt (siehe Abb. 6). Dieser Wert übertrifft die Empfindlichkeit bisheriger Cyt.c basierter Elektroden um etwa eine Größenordnung. Damit konnte der erwartete Vorteil der Nutzung eines Erkennungselementes mit einer höheren Reaktionsgeschwindigkeit mit dem Superoxidradikal (SOD) im Verhältnis zu dem oft genutzten Redoxprotein Cytochrom c bestätigt werden. Abb. 6: Sensorsignal von Mut1C bei +220 mV in Abhängigkeit von der Radikalkonzentration. Fehlerbalken resultieren von unabhängigen Messungen von je 3 Elektroden. 4. Zusammenfassung Sechs Mutanten der monomeren humanen Cu,-Zn-SOD mit ein oder zwei zusätzlichen Cys-Resten wurden durch Computersimulation entworfen und nach molekularbiologischer Methodik in E. coli Bakterien exprimiert. Alle Mutanten konnten mit ausreichender Reinheit und unter Verbleib der Aktivität aufgereinigt werden. Die erfolgreiche Bindung auf Goldoberflächen wurde durch optische und elektrochemische Methoden nachgewiesen, wobei der Cysfreie Wildtyp keine Bindung zeigte, was die Spezifität der SOD-Immobilisierung über die eingeführten Cysteinreste zeigt. Goldelektroden, die mit den gewonnen Mutanten modifiziert wurden, zeigten ein quasi-reversibles elektrochemisches Ansprechen. Der Redoxprozess konnte dem TFH Wildau, Wissenschaftliche Beiträge 2006 aktiven Kupferzentrum zugeordnet werden. Die elektrochemischen Charakteristika der verschiedenen Mutanten Elektroden unterschied sich nur geringfügig, während im Vergleich zum Cys-freien Wildtyp das formale Redoxpotential signifikant zu positiven Werten verschoben war. In einem biosensorischen Ansatz konnten beide Teilreaktionen der Dismutation des Radikals zur Signalgewinnung genutzt werden, wobei die Proteinelektrode im positiven Potentialbereich eine deutlich höhere Empfindlichkeit aufwies, welche im Vergleich zu herkömmlichen Cyt.c-Monoschichtelektroden um etwa den Faktor zehn höher ausfiel. Somit wurde ein neues Biosensorsystem vorgestellt, das neben der signifikant besseren Sensitivität auch den Vorteil einer extrem einfachen und daher auch kostengünstigen einstufigen Sensorenherstellung besitzt. Dieses neue System kann daher zur genaueren Untersuchung der radikalbedingten Vorgänge im Körper und der Entwicklung neuer therapeutischer, antioxidativer Verbindungen eingesetzt werden. Autoren Literatur Prof. Dr. rer. nat. habil. Fred Lisdat Technische Fachhochschule Wildau Biosystems Technology Tel. +49 3375 508-456 [email protected] [1] Kovacic, P.; Jacintho, J. D. Current Medicinal Chemistry 2001, 8, 773-796. [2] Liang, L. P.; Patel, M. Journal of Neurochemistry 2004, 90, 1076-1084. Dr. rer. nat. Moritz K. Beissenhirtz Hebrew University of Jerusalem The Institute of Chemistry 91904 Jerusalem, Israel Tel. +972 2 6585272 [email protected] Prof. Dr. rer. nat. habil. Frieder W. Scheller Universität Potsdam Institut für Biochemie und Biologie Analytische Biochemie Karl-Liebknecht-Str. 24-25, H. 25 14476 Golm [email protected] Dr. rer. nat. Maria S. Viezzoli CERM, University of Florence Via Sacconi 6 50019 Sesto Fiorentino, Italien [3] Mak, S.; Newton, G. E. Chest 2001, 120, 2035-2046. [4] Lisdat, F.; Ge, B.; Ehrentreich-Forster, E.; Reszka, R.; Scheller, F. W. Analytical Chemistry 1999, 71, 1359-1365. [5] Buttemeyer, R.; Philipp, A. W.; Mall, J. W.; Ge, B. X.; Scheller, F. W.; Lisdat, F. Microsurgery 2002, 22, 108-113. [6] McCord, J. M.; Fridovich, I. J. Biol. Chem. 1969, 244, 60496055. [7] Ge, B.; Scheller, F. W.; Lisdat, F. Biosensors & Bioelectronics 2003, 18, 295-302. [8] Tian, Y.; Mao, L.; Okajima, T.; Ohsaka, T. Analytical Chemistry 2002, 74, 2428-2434. [9] Ohsaka, T.; Tian, Y.; Shioda, M.; Kasahara, S.; Okajima, T. Chemical Communications 2002, 990-991. [10] Getzoff, E. D.; Cabelli, D. E.; Fisher, C. L.; Parge, H. E.; Viezzoli, M. S.; Banci, L.; Hallewell, R. A. Nature 1992, 358, 347-351. [11] Ge, B.; Lisdat, F. Analytica Chimica Acta 2002, 454, 53-64. [12] Laviron, E. In J. Electroanal. Chem., 1978; Vol. 101, pp 1928. [13] Tarlov, M. J.; Bowden, E. F. Journal of the American Chemical Society 1991, 113, 1847-1849. [14] Taniguchi, I.; Toyosawa, K.; Yamaguchi, H.; Yasukouchi, K. Journal of the Chemical Society-Chemical Communications 1982, 1032-1033. TFH Wildau, Wissenschaftliche Beiträge 2006 11 Ausgewählte Methoden der Prozessverbesserung Klaus D. Bösing 1 Einleitung Heute werden nur diejenigen Unternehmen im harten Konkurrenzkampf überleben, denen es gelingt, ihre Geschäftsprozesse in geeigneter Weise zu organisieren und zu optimieren. Mit Hilfe des Geschäftsprozessmanagements können dabei strategisch relevante Geschäftsprozesse im Unternehmen nachhaltig verbessert werden. Grundsätzlich gibt es zwei Vorgehensweisen, um die Leistung von Geschäftsprozessen zu optimieren: – Prozesserneuerung – Prozessverbesserung Während die Prozesserneuerung nur in besonderen Situationen zur Anwendung kommt, wird die Prozessverbesserung kontinuierlich durchgeführt. Zu den bekanntesten Methoden der Prozesserneuerung gehört das Business Reengineering von M. Hammer und J. Champy [3], die in der Literatur auch als Business Process Reengineering (BPR) bezeichnet wird. Ziel dieser Methode ist es, durch radikale Neugestaltung von entscheidenden Geschäftsprozessen des Unternehmens die Verbesserung von Kosten, Zeit und Qualität, um die Wettbewerbsfähigkeit am Markt zu sichern (vgl. u. a. [1]). Bezüglich der Prozessverbesserung zählen – Total Cycle Time (TCT), – Kaizen und – Six Sigma zu den seit vielen Jahren mit Erfolg angewandten Methoden. Ziel dieser Methoden ist es, die Prozesse kontinuierlich zu verbessern und somit die Prozessleistung zu erhöhen. 2 Prozessverbesserungsmethoden Um die Ursachen von ineffizienten und ineffektiven Geschäftsprozessen zu reduzieren, gehen alle oben genannten Methoden nach dem Problemlösungskreislauf vor (Abb. 1): 1. Probleme identifizieren 2. Probleme analysieren 3. Ursachen beseitigen 4. Maßnahmen prüfen 5. Lösung standardisieren Während die TCT-Methode den Gesamtprozess und die Ebenen der Teilprozesse betrachtet, konzentriert sich Kaizen auf die Ebene einzelner Prozess- und Arbeitsschritte. Bei Six Sigma können sich die Verbesserungen auf alle Ebenen beziehen. Alle drei Methoden haben gemeinsam, dass sie kontinuierlich durchgeführt werden und auf dem Prinzip der kleinen Schritte beruhen. 12 1. Probleme identifizieren 5. Lösungen standardisieren 2. Probleme analysieren 4. Maßnahmen prüfen 3. Ursachen beseitigen Abb. 1: Prozessverbesserung in 5 Schritten (vgl. [5]) 2.1 TCT-Methode Die TCT-Methode stammt aus den USA. Im Vordergrund dieser Methode steht die Reduzierung der Prozesszeit. Ziel ist es, die Prozesszeit so zu reduzieren, dass gleichzeitig die anderen Leistungsparameter wie Prozesskosten, Prozessqualität und Termintreu optimiert werden (vgl. [2]). Die wesentlichen Merkmale der TCT-Methode sind (vgl. u. a. [5]): – Sondieren von Barrieren, die den Ablauf von Geschäftsprozessen behindern, – Eliminieren von Barrieren und Ersatzprozessen, – Messen der Wirkungen bzgl. der Beseitigung von Barrieren über die Leistungsparameter Prozesszeit, Prozessqualität und Termintreue, – Vergleich der gemessenen Ist-Werte mit den Ziel-Werten für Prozesszeit, Prozessqualität und Termintreue. Probleme, die einen Prozess behindern, werden als Barrieren bezeichnet. Die TCT-Methode differenziert zwischen – Kulturbarrieren (z. B. nicht klar formulierte Ziele), – Prozessbarrieren (z. B. Wartezeiten) und – Sachbarrieren (z. B. fehlende Informationen). Ersatzprozesse werden durch unerwartete Ereignisse ausgelöst und sind mit Kosten verbunden. Sie dienen dazu, Irrtümer und Fehler zu beseitigen. Ein Beispiel für einen Ersatzprozess ist die Fehlerbehebung bei der Programmierung. Gäbe es keine Fehler, dann würde auch kein Ersatzprozess entstehen und somit auch keine zusätzlichen Kosten. Die Wirkungen, die mit der TCT-Methode verbunden sind, sind beispielsweise (vgl. u. a. [5]): – die Leistungssteigerung der Prozesse auf der Ebene der Geschäftsprozesse, – die Steigerung der Identifikation und Motivation der Mitarbeiter sowie – die Intensivierung der internen und externen Kundenorientierung TFH Wildau, Wissenschaftliche Beiträge 2006 2.2 Kaizen-Methode Der japanische Begriff Kaizen setzt sich aus den Worten Kai für „Veränderung“ und „Wandel“ sowie Zen für „zum Besseren“ zusammen und bedeutet die ständige und systematische Verbesserung von Prozessen in kleinen Schritten. Die Kaizen-Methode kann als Bottom-Up Vorgehensweise charakterisiert werden, deren Ziel es ist, auf der Ebene einzelner Prozesse und Arbeitsschritte die Leistung von Geschäftsprozessen kontinuierlich zu steigern. Die Philosophie der Kaizen-Methode betont vor allen den Menschen und sein Potenzial zur Problemlösung. Daher richten sich die Investitionen eines Unternehmens vielmehr auf das Humankapital und weniger auf Technologien. Personalkosten werden als Investition in die Zukunft und nicht als Kostenfaktor gesehen. Das Ziel der Kaizen-Methode ist die Beseitigung von Verschwendung. „Verschwendung ist alles, was für die Kunden keinen Nutzen hat und wofür sie nicht bereit sind, zu zahlen“ [5]. Es wird also alles, was nicht der direkten Wertschöpfung dient, als Verschwendung betrachtet. Verschwendungen können beispielsweise sein: – unnötige Wartezeiten – entbehrliche Arbeitsprozesse – unklare Zielsetzungen – mangelnde Koordination sowie – mangelhafte oder überflüssige Informationen Für die Beseitigung von Verschwendungen stellt die Kaizen-Methode folgende Werkzeuge und Methoden zur Verfügung: – 5-S-Vorgehen (5-A-Vorgehen) – 7-W- und 3-MU-Checklisten – PDCA-Verbesserungszyklus (Deming-Rad) – sieben alte Werkzeuge und – sieben neue Werkzeuge Das 5-S-Vorgehen (5-A-Vorgehen) beschreibt eine einfache Vorgehensweise, mit der schnell Verbesserungen erzielt werden. Dabei stehen – Seiri für Ordnung schaffen (Aussortieren), – Seiton für alles am richtigen Platz (Aufräumen), – Seiso für Sauberkeit (Arbeitsplatz sauber halten), – Seiketsu für persönlicher Ordnungssinn (Anordnen zur Regel machen) und – Shitsuke für Disziplin (Alle Punkte einhalten und ständig verbessern). Die Checklisten 7-W: – Wer macht es? – Warum macht er es? – Wann wird es gemacht? – Wo soll es getan werden? – Wie wird es gemacht? – Wieso wird es nicht anders gemacht? sowie 3-MU: – Muda (Verschwendung) – Muh (Überlastung) – Mura (Abweichung) dienen der regelmäßigen Überprüfung, wobei sich die letzten drei Punkte auf die Mitarbeiter, Technik und Methode beziehen. Ein weiteres Werkzeug ist der PDCA-Verbesserungszyklus, der auch als Plan-Do-Check-Act-Zyklus (Abb. 2) TFH Wildau, Wissenschaftliche Beiträge 2006 oder nach dem Erfinder als Deming-Kreis bezeichnet wird. Hierbei wird ein Kreislauf zur Verbesserung beschrieben. Er beginnt mit der Problemerkennung der gegenwärtigen Situation, um einen Plan zur Verbesserung zu formulieren. Dieser Plan wird nach der Fertigstellung umgesetzt und es wird überprüft, ob die erwarteten Ergebnisse erzielt wurden. Bei einer positiven Bewertung werden diese Maßnahmen als Standard definiert. Dieser Standard unterliegt dann wiederum einem erneuten Verbesserungszyklus. Act (Verbessern) Check (Prüfen) Plan (Planen) Do (Ausführen) Abb. 2: Plan-Do-Check-Act-Zyklus Können Probleme auf der Grundlage von statistischen Daten ermittelt werden, so werden die „sieben alten Werkzeuge” eingesetzt. Hierzu gehören: – Ishikawa-Diagramm (Ursache-Wirkungs-Diagramm) – Pareto-Diagramm (ABC-Analyse) – Histogramm – Streuungsdiagramm – Kontrollkarte – Kurvendiagramm – Prüfformular Wenn keine statistischen Daten zur Verfügung stehen, werden entsprechende Daten mit Hilfe der „sieben neuen Werkzeuge“ ermittelt. Dazu zählen: – Beziehungsdiagramm – Affinitätsdiagramm – Baumdiagramm – Matrixdiagramm – Matrixdiagramm zur Datenanalyse – Diagramm zur Entscheidungsfindung – Pfeildiagramm Zu erwähnen sind noch die Begriffe Cross-Functional Management und Policy Deployment. Unter Cross-Functional Management (Funktionsüberschneidendes Management) wird die abteilungs- und bereichsübergreifende Koordination von Aktivitäten eines Unternehmens verstanden. Eine besondere Bedeutung bekommt hier die interdisziplinäre Zusammenarbeit einzelner Fachabteilungen. Unter Policy Deployment wird die Durchgängigkeit der Unternehmenspolitik verstanden. Es ist ein Planungssystem, mit dem die ständigen Verbesserungen in einem Unternehmen umgesetzt werden. Während mit dem Cross-Functional Management die horizontale Integrati- 13 on von Aktivitäten eines Unternehmens unterstützt wird, liegt der Schwerpunkt hier auf der vertikalen Integration von Aktivitäten. Die Kaizen-Methode ist stark auf die Fähigkeit und Bereitschaft der Mitarbeiter eines Unternehmens ausgerichtet. Die Wirkungen sind mit denen der TCT-Methode vergleichbar. KVP (Kontinuierlicher Verbesserungsprozess) ist die europäische Variante der Kaizen-Methode. Beispielsweise wurde KVP von VW zu KVP im Quadrat weiterentwickelt (vgl. [4]). 2.3 Six-Sigma-Methode Six Sigma ist ein Begriff aus der Statistik und steht als Synonym für Null-Fehler-Qualität. Das bedeutet, dass in einem Prozess, der Six Sigma erfüllt, bei einer Million Möglichkeiten nur 3,4 fehlerhafte Ergebnisse entstehen. Dies entspricht einem Qualitätsgrad von 99,9997 %. Ursprünglich wurde Six Sigma für Produktionsprozesse entwickelt, während es heute auch in Dienstleistungsprozessen erfolgreich eingesetzt wird. Zentrale Ziele von Six Sigma sind Kosteneinsparungen und die Verbesserung der Qualität. Six Sigma ist eine empirische, datenorientierte Methode, bei der die Verringerung der Varianz, also die Abweichung der Prozessergebnisse vom Ziel-Wert, im Mittelpunkt steht. Im Mittelpunkt von Six Sigma steht der Prozessverbesserungszyklus (DMAIC-Cycle), der aus 5 Phasen besteht (Abb. 3). Define • Identifikation des Problembereichs • Festlegung der Ziele Measure • Auswahl relevanter Daten • Messung der Daten Analyze • Analyse der erhobenen Daten • Analyse der Ursachen Maßeinheiten bei Six Sigma sind Fehler pro Million Möglichkeiten (FpMM) und die Varianz Sigma (σ). Fehler sind Abweichungen vom Ziel-Wert. Mit Hilfe einer Umrechnungstabelle kann anhand der Fehleranzahl der Wert für σ ermittelt werden. Ziel ist es, eine Varianz von 6 σ zu erreichen. Ein Vorteil von Six Sigma ist, dass man aufgrund der Normalisierung der Fehlerrate einen Wert erhält, mit dem sich unterschiedliche Geschäftsprozesse einer Organisation vergleichen lassen. Für die Normalisierung von Werten wird die gemessene Fehlerrate auf eine Million Fehlermöglichkeiten normalisiert. Bei der Vorgehensweise der Prozessverbesserung wird bei Six Sigma zunächst ein einzelner Prozessschritt betrachtet. Der σ-Wert für den Gesamtprozess errechnet sich dann aus dem Produkt der σ-Werte der einzelnen Prozessschritte. Die wesentlichen Werkzeuge der Six-Sigma-Methode zur Verbesserung von Prozessen sind mit den „sieben alten Werkzeugen“ der Kaizen-Methode identisch, also – Ishikawa-Diagramm (Ursache-Wirkungs-Diagramm) – Pareto-Diagramm (ABC-Analyse) – Histogramm – Streuungsdiagramm – Kontrollkarten – Kurvendiagramm – Prüfformular Ohne Six Sigma liegen nach Schätzungen die meisten Prozesse in der Industrie gegenwärtig bei ca. 3 bis 4 σ. Mit herkömmlichen Prozessverbesserungsmethoden wird es nur schwer für möglich gehalten, eine signifikante Verbesserung in Richtung 5 σ oder mehr zu erreichen. Zur Veranschaulichung ist in Abbildung 4 das Verhältnis von σ, den Fehlern pro 1 Million Möglichkeiten (FpMM) und dem Qualitätsgrad gegenübergestellt. σ 1 2 3 4 5 6 FpMM 691.462 308.538 66.807 6.210 233 3,4 Qualitätsgrad 30,8538 % 69,1483 % 93,3193 % 99,3790 % 99,9767 % 99,9997 % Abb. 4: Verhältnis von σ, FpMM und Qualitätsgrad Improve Control Abb. 3: DMAIC-Zyklus 14 • Ausführen der Verbesserungsmaßnahmen • Implementierung von Lösungen • Überprüfen der verbesserten Prozesse 3 Zusammenfassung In Abbildung 5 sind noch mal die Unterschiede und Gemeinsamkeiten der drei Methoden TCT, Kaizen und Six Sigma zusammengefasst. TCT Ebene – Teilprozesse – Geschäftsprozesse Ziele – Beseitigung von Barrieren – Reduzierung der Prozesszeit Werk- – u. a. Ursache-Wirzeuge kungsDiagramm Kaizen – Arbeitsschritte – Prozessschritte – Beseitigung von Verschwendungen Six Sigma – Prozessschritte – Gesamtprozesse – Reduzierung der Varianz – Erreichung von σ = 3,4 FpMM – sieben alte und – sieben alte neue Werkzeuge Werkzeuge – Checklisten Abb. 5: Vergleich der Methoden TFH Wildau, Wissenschaftliche Beiträge 2006 Die wesentlichen Unterschiede der drei Methoden liegen in der Zielsetzung. Bei der TCT-Methode liegen die Ziele in der Beseitigung von Barrieren, den Ersatzprozessen und der Reduzierung der Zykluszeit. Bei der Kaizen-Methode sind die Ziele ähnlich. Hier werden ebenfalls alle Aktivitäten eliminiert, die keinen Wertzuwachs hervorrufen. Six Sigma verfolgt die Strategie der Reduzierung von Zielabweichungen. 4 Literatur [1] Becker, J.; Kugeler, M.; Rosemann, M. (Hrsg.): Prozessmanagement, 4. Auflage, Springer-Verlag, Berlin, Heidelberg, New York 2003 [2] Bösing, K. D.: Business Process Performance Management, Forschungsbericht WS 2004/2005, Technische Fachhochschule Wildau, Wildau 2005 [3] Hammer, M.; Champy, J.: Business Reengineering, CampusVerlag, Frankfurt, New York 1994 [4] Jetter, W.: Performance Management, Schäffer-Poeschel Verlag, Stuttgart 2000 [5] Schmelzer, H. J.; Sesselmann, W.: Geschäftsprozessmanagement in der Praxis, 3. Auflage, Carl Hanser Verlag, München, Wien 2003 Autor Prof. Dr. Klaus D. Bösing Technische Fachhochschule Wildau Fachbereich Betriebswirtschaft/Wirtschaftsinformatik Fachgebiet Software Engineering Tel. +49 3375 508-952 [email protected] TFH Wildau, Wissenschaftliche Beiträge 2006 15 Neuartige Plattenwärmeübertrager Teil C: Literaturanalyse zur Verdampfung und Kondensation in Plattenapparaten Josef Schmadl, Carsten Briesenick, Jens-Uwe Gerking, Maik Haß, Ingrid Schult, Joachim Schult Ändert sich in einem Plattenwärmeübertrager der Aggregatzustand, sind die ablaufenden Prozesse des Wärmeüberganges komplexer als beim einphasigen Wärmeübergang. Im VDI-Wärmeatlas sind deshalb noch keine Berechnungsgleichungen für diese Arten der Wärmeübertragung in Plattenwärmeübertragern enthalten [1]. Es wird lediglich festgestellt, dass Hersteller von Plattenapparaten ihre diesbezüglichen Kenntnisse unpubliziert zurückhalten. Um die Tauglichkeit der in diesem Forschungsvorhaben zu untersuchenden Plattenapparate als Verdampfer und Kondensatoren festzustellen, sind deshalb experimentelle Untersuchungen notwendig. Das vorliegende Ergebnis einer Literaturrecherche soll dazu dienen, Erkenntnisse im Hinblick auf Gestaltung einer Versuchsanlage und Auswertung damit zu ermittelnder Messdaten zu gewinnen. Schwerpunkt der folgenden Analyse sind deshalb vor allem Messtechnik und Versuchsergebnisse aber auch Korrelationsmöglichkeiten der Messergebnisse im Hinblick auf die Gewinnung von Auslegungsgrundlagen. Konventionelle Berechnungsalgorithmen zur Ermittlung des Wärmeübergangskoeffizienten α bei der Verdampfung beinhalten u.a. die folgenden wesentlichen Einflussgrößen: Verdampfungstemperatur TV, Dichte für Flüssigkeit und Dampf ρ ′ bzw. ρ ′′, Viskositäten ν ′ bzw. ν ′′ , spezifische Wärmekapazitäten c p′ bzw. c p″ , Wärmeleitfähigkeit λ ′, Oberflächenspannung σ, Verdampfungsenthalpie ∆hV , Wärmestromdichte q , Dampfgehalt und Plattengeometrie, z. B. Prägungswinkel φ. Ausgangsgleichung ist dabei der prinzipielle ähnlichkeitstheoretische Zusammenhang zwischen Nusselt-Zahl und weiteren dimensionslosen Kennzahlen (1) mit den bekannten dimensionslosen Kennzahlen Gr = Grashof-Zahl, Re = Re-Zahl, Ja = Jakob-Zahl,Pr = PrandtlZahl, und Bo = Bond-Zahl. Im Folgenden werden Arbeiten zu Verdampfung und Kondensation soweit möglich getrennt betrachtet. 1. Arbeiten zum Verdampfen in Plattenwärmeübertragern 1. Engelhorn, H.R. und A.M. Reinhard (1990): Investigation on Heat Transfer in a Plate Evaporator (Untersuchung des Wärmeübergangs in einem Plattenverdampfer) [2] Die Autoren präsentieren Ergebnisse ihrer experimentellen Untersuchungen an zwei Plattenwärmeübertragern, die in einem Kompressionskältekreislauf als Verdampfer und Kondensator eingebaut sind. Bei den Experimenten 16 wird als Arbeitsstoff im Kältekreislauf Kältemittel R22 verwendet. Als Verdampfer und Kondensator kamen gedichtete Plattenwärmeübertrager mit einer Fischgrätenprägung zum Einsatz. Diskutiert werden allerdings nur die Verdampferergebnisse. Es wurden drei Messreihen bei unterschiedlichen Verdampfertemperaturen von – 5°C bis + 10°C aufgenommen. Die erzielbaren Wärmestromdichten waren – anlagebedingt – für alle drei Messreihen 8 bis 14 kW/m². Bei der Messreihe Nr. 1 mit überhitztem Dampf am Verdampferaustritt wurden wesentlich geringere Wärmeübergangskoeffizienten als für Messreihe 2, mit Sattdampf am Austritt, erzielt. Sie betrugen z.B. bei q=10000 W/m² je nach Verdampfertemperatur und -druck: k= 900 bis 1000 W/(m²K) und α = 1000 bis 1200 W(m²K) für Messreihe 1 im Vergleich zu k= 1250 bis 1500 kW/(m²K) und α = 1500 bis 1750 W(m²K) für Messreihe 2. Eine wesentliche Verbesserung ergab sich bei Messreihe 3 durch Verwendung von speziellen Verteilern, die das Kältemittel gleichmäßig zwischen den Spalten des Plattenwärmeübertragers verteilten. Dadurch ließen sich die α-Werte um ca. 50 % erhöhen. Eine Erhöhung der Wärmestromdichte führte zu einem erhöhten α-Wert was auf Blasensieden hinweist. Dabei war die Abhängigkeit von der Wärmestromdichte aber eher linear (± 5 %) und nicht exponentiell, wie dies vom Behältersieden her bekannt ist. Abschließend wurden die experimentell ermittelten α-Werte mit berechneten Werten für das geflutete Rohrbündel nach VDI WA [1] und Handbuch der Kältetechnik [3] verglichen und gute Übereinstimmung festgestellt. Vergleiche zu Literaturangaben für Plattenwärmeübertrager wurden mittels der Gleichung von Danilowa et al. [4] vorgenommen. Die experimentellen Werte erreichten dabei ca. 50-80 % der Rechenwerte. Zwar lassen sich die Erkenntnisse aus dieser Arbeit wegen des unterschiedlichen Versuchsstoffes nicht ohne weiteres mit den eigenen Ergebnissen vergleichen, jedoch zeigt diese Arbeit, dass dem Einlauf in den Verdampfer bzw. der Verteilung des Versuchsstoffes am Verdampfereintritt besondere Aufmerksamkeit geschenkt werden sollte. 2. R. Osterberger; B. Slipcevic(1990): Wärmeübergang beim Blasensieden in Plattenverdampfern [4] Die Autoren geben einen summarischen Einblick in den verwendeten Versuchstand. Dazu gehört die Angabe der verwendeten Plattenwärmeübertrager sowie der verwendeten Messinstrumente. Für die Temperaturmessung wurden Temperaturmessfühler Typ Pt100 eingesetzt, für die Durchflussmessung kam ein MID-Durchflussmesser zum Einsatz. TFH Wildau, Wissenschaftliche Beiträge 2006 Die Versuche wurden mit dem Kältemittel R22 im Temperaturbereich von –2,5 bis 5°C, bei Wärmestromdichten von 3370 bis 9150 W/m2 und Massenstromdichten im Bereich von 14 bis 38,5 kg/m2.s durchgeführt. Es wird betont, dass mittels Verteiler im Verdampfer bessere Leistungen erzielt werden als ohne Verteiler. Außerdem machen die Autoren einige Angaben zur Versuchsdurchführung: Als erstes wurde die Kälteleistung des R22 konstant gehalten, um den α-Wert auf der Kältemittelseite im Verdampfer konstant zu halten. Dazu wurde dann der Volumenstrom des Heizwassers im Verdampfer verändert um den wasserseitigen α-Wert zu bestimmen. Danach wurden die Bedingungen auf der Wasserseite konstant gehalten und die Kälteleistung verändert, um so die α-Werte auf der Kältemittelseite zu ermitteln. Diese Angaben können hilfreich bei der Erstellung eines eigenen Messprogramms sein. Ebenfalls kann die Art der Auswertung hilfreich sein für die eigenen Versuche. Die Autoren vergleichen die ermittelten Werte mit Angaben aus der Literatur. Als erstes verweisen sie auf Danilowa G.N et. al.: Der Wärmeübergang in Platten verschiedener Geometrie (russ.) Kholodilnaja Technika 58 (1981). Darin sind zwei Gleichungen für das Sieden von Kältemitteln zwischen Platten enthalten. Grundlage dafür sind Messungen mit verschiedenen Kältemitteln an ebenen und profilierten Platten verschiedener Abmessungen und Formen. Dabei gilt für das konvektive Sieden: NuK = 3 ReD0,3 .Bo0,33 benötigt werden. Allerdings muss berücksichtigt werden, dass für die empirische Gleichung (4) Mess-werte mit dem verwendeten Versuchsstoff vorhanden sein müssen, für Gleichung (3) nicht . 3. Yan Y.Y ; T.F. Lin (1999): Evaporation Heat Transfer and Pressure Drop of Refrigerant R134a in a Plate Heate Exchanger [5] Die Autoren geben genaue Angaben und ein Fliesbild ihres Versuchsaufbaus. In diesen Versuchsaufbau wurden 2 verschiedene Plattenwärmeübertrager verwendet. Dabei handelte es sich in einem Fall um ein Plexiglasmodell um die Strömungsverhältnisse in „klaten“ Versuchen zu studieren. Der in Abb. 1 dargestellte Versuchstand für „heiße“ Versuche bestand im wesentlichen aus einem geschlossenen Kreislauf mit Pumpe, Vorverdampfer, Verdampfer, Kondensator und Nachkühler. Bei den Versuchen handelte es sich offensichtlich um Strömungssieden. Dabei konnte der Dampfgehalt des Speisestromes im Vorverdampfer vorgegeben werden. Im Nachkühler konnte eine definierte Unterkühlung eingestellt werden. Interessant für unseren Versuchsaufbau ist die Angabe der Autoren, dass der Systemdruck und somit die Siedetemperatur mittels Änderung der Kondensatorleistung sowie Änderung des Massenstroms des Kühlmediums geregelt wurde. Das lässt Rückschlüsse zu auf die Möglichkeiten der Regelung in einem eigenem Versuchsaufbau. (2) und für das Blasensieden: NuB = 4,2 . ReD0,3 . Bo0,32 . ReS0,2 (3) mit: Re D = Re S = Bo = wD ⋅ d h νD Reynolds-Zahl der Dampfströmung (3a) q ⋅ d h ∆hv ⋅ηL Reynolds-Zahl des Verdampfungsvorgangs (3b) Bond-Zahl (3c) g ⋅ ρ L ⋅ d h2 σ Als dh wird dabei 2 mal der Plattenabstand eingesetzt. Als zweite Literaturgrundlage werden die Berechnungen von Steiner ([1], Wärmeübergang beim Sieden gesättigter Flüssigkeiten) verwendet. Dabei gilt: q αB = CF ⋅ α0 q0 n ( p* ) d ⋅ F ( p )⋅ 0 dh * 0 ,4 R ⋅ p Rp0 0 ,133 (4) Mit den in [1] angegebenen Zusatzgleichungen für die einzelnen Terme der Gleichung. Bei der Auswertung kam man zu dem Ergebnis das die experimentellen Werte von den berechneten abwichen. Dabei wurden bei beiden Gleichungen dieselben Abweichungen zu den experimentellen Werten festgestellt. Beide Gleichungen erreichten eine Genauigkeit von –15 % bis 10 %. Die Autoren beurteilten die Gleichungen nach Steiner als passender, da dafür tabellierte Werte für fast alle Kältemittel vorhanden sind und nicht so viele Stoffwerte TFH Wildau, Wissenschaftliche Beiträge 2006 Abb. 1: Versuchsaufbau aus [5] nach Yan Y.Y und T.F. Lin Als Ergebnis der Messungen wurde u. a. deutlich, das der αWert mit zunehmendem Dampfgehalt X ansteigt. So zeigte sich, dass bei Messungen unter einem Systemdruck von 6,75 bar, einer Wärmestromdichte von 11 kW/m² und Massenstromdichten von 70 bzw. 55 kg/(m²s) , dass der α-Wert von ca. 2 auf 4 kW/(m²K) mit zunehmendem Dampfgehalt ansteigt bis zu einem Dampfgehalt X=0,45. Für X > 0,45 ist dieser Anstieg beschleunigt. So wird, beispielsweise, bei 17 X = 0,80 und 70 kg/(m²s) ein α-Wert von ca. 8 kW/(m²K) erreicht, bei 50 kg/(m²s) hingegen ca. 6 kW/(m²K). Bei weiteren Versuchen unter höherem Druck, z. B. 8,0 bar, und sonst gleichen Bedingungen zeigt sich ein ähnlicher Sachverhalt, wobei allerdings größere Schwankungen der Messwerte zu beobachten sind, die Messwerte bei diesem Druck niedriger als bei 6,75 bar liegen und dichter beieinander liegen, so dass die beim niedrigeren Druck beobachteten Abhängigkeiten nicht so deutlich zutage treten. Als Erklärung geben die Autoren an, dass mit zunehmenden Dampfgehalt eher eine schnelle Dampfströmung mit Wassertropfen-Holdup entsteht. Dabei treffen die Tropfen ständig an die Wand und erzeugen eine flüssige Grenzschicht auf der Oberfläche, aus der durch den Dampfstrom ständig neue Tropfen mitgerissen werden. Somit kommt es zu einem verbesserten Wärmeübergang. Durch Änderung der Versuchsbedingungen konnte festgestellt werden, das der α-Wert mit steigendem Kühlmittel-Massenstrom im Kondensator ebenfalls steigt. Dieser Effekt zeigte sich erst bei Dampfgehalten X > 0,45. Durch die Phasenänderung beim Verdampfen und der damit verbundenen Volumenzunahme ist die Dampfgeschwindigkeit bei höheren Massenströmen größer und bewirkt somit eine Verbesserung des Wärmeübergangs. Den Einfluss des Systemdrucks begründeten die Autoren analog mit dem Unterschied im spezifischen Volumen und der daraus folgenden Erhöhung der Dampfgeschwindigkeit in der Dampfströmung. Diese Verbesserung des konvektiven Anteils der Wärmeübertragung scheint die zu erwartende, leichte Verschlechterung des Siedeanteils mit fallendem Druck überzukompensieren. Eine Abhängigkeit von der Wärmestromdichte wurde nicht festgestellt. Ihre Messergebnisse modellieren die Autoren mit folgenden Beziehungen: 0 ,5 ρ Nu = 1, 926 ⋅ Prl1 3 ⋅ Boeq0,3 ⋅ Re0,5 ⋅ (1 − X m ) + X m ⋅ l (5) ρg für 2000< Reeq< 10000, mit Re eq = Geq ⋅ d h Re Pr Bo G Xm 0 ,5 (5b) Reynolds Zahl Prandl Zahl Bond Zahl Massenstromdichte [kg/m2s] Geq equievalent alles in flüssiger Phase mittlerer Dampfgehalt Die ermittelten Gleichungen beruhen auf Versuchen mit traditionellen Plattenwärmeübertragern und sind deshalb nicht ohne weiteres auf den eigenen Versuchsstand mit runden Platten ganz anderer Geometrie zu übertragen, aber sie bieten eine weitere Möglichkeit die eigenen Messwerte orientierend zu vergleichen. Ähnliche Abhängigkeiten wie für den Wärmeübergangskoeffizienten ergeben sich für den Druckverlust: So z. B. lagen die Druckverluste bei p = 6,75 bar zwischen 100 und 254 hPa, wobei die Werte mit steigender Massen- 18 4. Andre, M.; Kabelac, S.; de Vries, B. (2003): Wärmeübergang bei der Verdampfung von Ammoniak in einem Plattenwärmeübertrager [6] Die Autoren geben einen Überblick über den verwendeten Versuchsstand. Dabei wurden semi-verschweißte Plattenwärmeübertrager verwendet. An den zugänglichen Seiten wurden Thermoelemente angebracht um lokale αWerte zu ermitteln. Die verwendete Versuchsanlage ist in Abb. 2 dargestellt. Es handelt sich um einen klassischen Kompressionskältekreislauf, wobei die untersuchten Plattenapparate als Verdampfer und Kondensator eingesetzt sind. Das besondere an der Anlage ist, dass Heizung des Verdampfers und Kühlung des Kondensators über eine einen gemeinsamen Sole-Kreislauf mit Zusatzkühler kondensatorseitig kurzgeschlossen sind, was die Versuchsanlage elegant vereinfacht. (5a) η ρ Geq = G ⋅ (1 − X m ) + X m ⋅ l ρg stromdichte naturgemäß zunahmen. So ergab sich bei einer Dampfqualität von X = 0,8 bei 70 kg/(m²s) ein Druckverlust von 254 hPa, bei 55 kg/(m²s) hingegen ein Druckverlust von 200 hPa. Beim höheren Systemdruck p = 8 bar war kaum ein Unterschied im Druckverlust für die beiden Messreihen unterschiedlicher Massenstromdichte erkennbar. Eine Gleichung für den Druckverlust ist nicht angegeben. Für die eigene Messtechnik sollte nicht außer Acht gelassen werden, dass ein Nachkühler und ein Vorverdampfer, wie sie hier verwendet werden, zusätzliche Möglichkeiten eröffnen, reale Betriebszustände nachzustellen. Außerdem lassen sich, die Vorgänge im Verdampfer anhand der untersuchten Abhängigkeiten (Siededruck, Wärmestromdichte, Druckverlust) näher erklären. Die Werte können Aufschluss darüber geben, was mit zunehmenden Dampfgehalt im Verdampfer geschieht. Sie zeigen, dass Wärmeübergang und Druckverlust bei strömendem Dampf erheblich von der Dampfqualität (Feuchteanteil, Überhitzungsgrad) abhängen. Abb. 2: Verfahrensfließbild aus (6] nach Andre, M., Kabelac, S. und de Vries, B TFH Wildau, Wissenschaftliche Beiträge 2006 Die experimentell ermittelten Werte ergaben eine relativ scharfe Abgrenzung zwischen konvektiven Sieden und Blasensieden. Dabei wird deutlich, dass beim konvektivem Sieden, das bei Dampfgehalten unter 0,2 angenommen wird, eine Abhängigkeit des Wärmeübergangskoeffizienten von der Massenstromdichte besteht. Diese wurde zwischen 10 und 20 kg/(m²s) variiert. Erhöht sich die Massenstromdichte so erhöht sich auch der α-Wert im untersuchten Bereich von 2 bis 8 kW/(m²K). Beispielsweise wird bei einem Dampfmas = 10-12 kg/(m²K) ein α-Wert segehalt von X = 0,18 für m = 14-16 kg/(m²K) ein α-Wert von von 5,6 kW/(m²K), für m = 18-20 kg/(m²K) ein α-Wert von 6,8 kW/(m²K) und für m 7,5 kW/(m²K) angegeben. Die Wärmestromdichte hat dabei keinen Einfluss auf den α-Wert. Anders beim Blasensieden, das sich bei höheren Dampfmassegehalten einstellt. Dort hat der Massenstrom kaum Einfluss auf den α-Wert, eher besteht eine Abhängigkeit von der Wärmestromdichte. Das Blasensieden ergibt bei ähnlichen Bedingungen, wie das konvektive Sieden, einen eher schlechteren Wärmeübergang. Eine Verschlechterung des Wärmeübergangs bei konvektiven Siedens entsteht erst bei hohen Dampfgehalten (> 0,7) und geringen Masseströmen. Dabei kommt es im Verdampfer lokal zu vollständiger Verdampfung, so dass sich eine Dampfschicht im oberen Verdampferbereich bildet. Typische Messergebnisse sind in Abb. 3 dargestellt. Man beobachtet α-Werte von ca. 7,7 bis 10,5 kW/(m²K) für den Bereich des konvektiven Siedens und 5 bis 8 kW/(m²K) für den Bereich des Blasensiedens. Abb. 3: Wärmeübergangskoeffizient in Abhängigkeit von der Wärmestromdichte bei konvektivem sieden und Blasensieden. Ergebnisse der Messungen aus [6] nach Andre, M., Kabelac, S. und de Vries, B. Interessant hierbei ist der Vergleich der Messwerte mit den Gleichungen von Danilowa und Steiner, entsprechend Gleichungen (3) und (4). Dabei wurden Abweichungen zu Steiner von 100 % festgestellt, die über den gesamten Messbereich annähernd konstant blieben. Die errechneten Werte waren immer größer, bei ansonsten systematisch analoger Abhängigkeit. Die nach Danilowa berechneten Werte α-Werte lagen stimmten hingegen mit den experimentellen Werten gut überein. Erst ab einen Dampfgehalt X>0,45 gab es Abweichungen bis ca. 20 %. Dabei lagen die experimentellen Werte über den errechneten. Für unseren Versuchstand können Anregungen aus der Beschreibung des Versuchsaufbaus gewonnen werden. Ebenfalls wird deutlich das ein Vergleich der Messwerte mit Danilowa sich anbietet, da Übereinstimmungen in bestimmten Bereichen vermutet werden können. Auch TFH Wildau, Wissenschaftliche Beiträge 2006 bietet das eine Möglichkeit die Werte mit den Angaben in [5] zu vergleichen, da dort Rechenwerte mit derselben Gleichung verwendet werden. 5. Kumar, H. (1993): Evaporation in Plate Heate Exchangers (Verdampfung in Plattenwärmeübertragern) [7] In diesem Beitrag werden allgemeine Angaben über die Verwendung von Plattenwärmeübertragern als Verdampfer und Kondensatoren gegeben und Angaben zu Messungen und Ergebnisse von Messungen an Plattenwärmeübertragern als Verdampfer von Wasser in Kurzform gemacht. Die Platten hatten eine Fischgrätenstruktur, wobei der Dampf über eine spezielle Verdampferstruktur mit Umlenkblechen in Wellenlinienform über die Platte geleitet wurde. Sinn dieser speziellen Verdampferstruktur war, den Strömungswiderstand herabzusetzen. Es wurden Versuche mit Fallfilmverdampfung und aufsteigender Verdampfung gemacht, wobei das Wasser bei sehr geringen Drücken, und somit bei kleinen Siedetemperaturen, zwischen zwei verschiedenen Platten verdampfte. Im Ergebnis stellte sich heraus, dass bei Fallfilmverdampfung doppelt so große Wärmeübergangskoeffizienten als bei aufsteigender Verdampfung gemessen werden. Z. B. lagen die gemessenen α-Werte bei einem Feedmassenstrom von 1000 lb//hr, einer Siedetemperatur von 120°F und einem entstehenden Dampfstrom von 250 lb/hr (X=0,25) bei ca. 600 BTU/(ft²hr) für die Fallfilmverdampfung und für die aufstegende Verdampfung bei sonst gleichen Bedingungen bei ca. 280 BTU/(ft²hr). Der Autor stellt dabei aber fest, dass dieser Effekt sich mit steigenden Drücken relativiert. Beim Vergleich der Plattengeometrien werden Angaben über den Druckverlust gemacht, die aber kaum vergleichbar mit Werten aus eigenen Versuchen sind, da die Strömungsführung in diesen Spezialplatten zu verschieden zu den in dieser Arbeit untersuchten Platten ist. Nutzbare Informationen, sind eher die Unterschiede im Wärmeübergang in Abhängigkeit von der Strömungsführung und -form, da sich durch Änderung der Strömungsrichtung Leistungssteigerungen von bis zu 100 % ergaben. 6. Hsieh,Y.Y; L.J. Chiang; T.F. Lin (2002): Subcooled flow boiling heat transfer of R-134a and the associated bubble characteristics in a vertical plate heat exchanger [8] Die Autoren berichten über ihre Untersuchungen an einem Plattenwärmeübertrager in dem R-134a verdampft wird. Dazu wird der schon in Abb. 1 dargestellte Versuchsaufbau verwendet. Das Kältemittel wird unterkühlt in den Verdampfer eingeleitet und verlässt den Apparat dampfförmig. Da diese Versuchweise mit der in dieser Arbeit geplanten Versuchsdurchführung vergleichbar ist, können auch die Ergebnisse ggfs. als Vergleichsgrundlagen verwendet werden. Der Messbereich ist gekennzeichnet durch Massestromdichten von 50 bis 200 kg/(m²s), Wärmestromdichten bis 35 kW/(m²) und Drücke von 6 und 7 bar, entsprechend Siedetemperaturen des Versuchsstoffes von 21,6 bzw. 26,7 °C. Die Autoren kamen zu dem Ergebnis, dass der αWert von verschiedenen Einflussfaktoren abhängig ist. Sie untersuchten die Wärmestromdichte in Abhängigkeit von 19 1) 2) 3) 4) der Wandüberhitzung, wie in Abb. 4 dargestellt. Dabei lies sich feststellen, dass die Steigerung der Wärmestromdichte sich ab einer bestimmten Wandüberhitzung, die dem mit ONB bezeichneten Einsetzen des Blasensiedens entspricht, erhöht. Es ist ein nahezu linearer Zuwachs zu verzeichnen, der mit einsetzendem Blasensieden stärker zunimmt. Erwartungsgemäß macht sich der Einfluss des Druckes bzw. der Siedetemperatur nur im Bereich des ausgebildeten Blasensiedens bemerkbar, während er im Bereich des stillen Siedens praktisch nicht bemerkbar ist. Dabei ist ein interessanter Effekt aufgezeigt worden: Bei Veränderungen der Wandüberhitzung konnte festgestellt werden, das beim Erhöhen der Wandüberhitzung das Blasensieden erst später einsetzte als es – umgekehrt – bei der Absenkung versiegte. Das Blasensieden setzte erst aus, als die Wandüberhitzung 3K unter der Wandüberhitzung war als es einsetzte. Dieser Hystereseeffekt ist bereits beim Behältersieden von Gorenflo gefunden und untersucht worden. Einen deutlichen Einfluss auf den Wärmeübergang hat auch die Massenstromdichte. Ihre Erhöhung führt zu erheblichen Steigerungen des α-Wertes und der Wärmestromdichte. So z. B. setzte das Blasensieden bei drei untersuchten Massestromdichten von 50, 100 und 200 kg/(m²s) und gleichem Druck bei einer Wandüberhitzung von ca. 10 K ein. Dabei lagen die Wärmestromdichten entsprechend bei 9, 16 bzw. 22 kW/m². Zur Begründung der Messergebnisse führten die Autoren Messungen mit einem Plexiglasmodell durch. Die Ergebnisse dieser Messungen zeigen, dass der Blasensdurchmesser mit steigendem Massestrom kleiner wird, weil die Blasen bei geringewrer Verweilzeit an der Heizfläche weniger Zeit haben, sich zu größeren Blasen zusammenzuschließen. Außerdem bewirkt die erhöhte Geschwindigkeit eine Zerkleinerung der Blasen durch Zerplatzen, was die Durchmischung verbessert und den ständigen Austausch des Mediums an der Übertragungsfläche fördert. Wärmestromdichte sowie Wandüberhitzung haben Einfluss auf die entstehende Blasendichte. Die Ergebnisse der Messungen wurden zu einer Gleichung zusammengefasst, deren Genauigkeit nicht sehr hoch ist (±25 % Abweichung): hr ,sub = hr ,l ⋅ 1, 2 ⋅ Fr 3 4 1 1 + 13, 5Bo 3 ⋅ Ja 4 (6) mit 1 µ k hr ,l = 0, 2092 ⋅ ⋅ Re0,78 ⋅ Pr 3 ⋅ ave dh µwall Abb.4: Wärmestromdichte in Abhängigkeit von der Wandüberhitzung mit der Siedetemperatur/dem Siededruck als Parameter (1+3) und Wärmeübergangskoeffizient in Abhängigkeit von der Wärmestromdichte mit der Massestromdichte als Parameter (2+4) bei definiert eingestellten Unterkühlungen ∆T = 10 K (1+2) und 15 K (3+4). Messergebnisse aus [7] nach Hsieh,Y.Y; L.J. Chiang und T.F. Lin. 20 0 ,14 (6a) Fr : Froude Zahl Re : Reynolds Zahl Bo : Bond Zahl Ja : Jakob Zahl hr,sub : α-Wert der Verdampfung [W/m2°C] hr,l : α-Wert der flüssigen Phase [W/m2°C] k = Wärmeleitfähigkeit [W/m°C] dh = hydraulischer Durchmesser µave = Viskosität in der Mitte der Strömung [N s/m2] µwall = Viskosität der Strömung an der Wand [N s/m2] Die Formeln und Ergebnisse können als Vergleichwerte für unsere Messungen dienen. Eine Übereinstimmung ist eher nicht zu erwarten, da Medium und Plattengeometrie sich wesentlich voneinander unterscheiden. TFH Wildau, Wissenschaftliche Beiträge 2006 7. Feldmann, A.; Marvillet, C.; Lebouche M. (2000): Nucleate and convective boiling in plate fin heat exchangers [9] In diesem Artikel berichten die Autoren über Messungen an Platten mit Rechteckprägung, sowie einer Rechteckprägung mit Perforationen. Dazu wurden die Untersuchungen jeweils an einer elektrisch beheizten Platte unternommen. Das verwendete Medium CFC 114 wurde mit einem Vorverdampfer auf eine bestimmte Dampfqualität eingestellt. Es wurden zwei konstante Massestromdichten von 20 und 45 kg/(m²s) bei Dampfgehalten von 0,1 bis 0,8 untersucht. Dabei ermittelten die Autoren eine Gleichung, die aufgrund des speziellen Versuchsaufbaus sicherlich nur für diesen speziellen Fall gilt: αnpb=8,41.q0,67.p*0,12(-log10.p*)-0,55 (7) Sie gibt die gemessenen Werte mit einer Genauigkeit von ±35 % wieder. Vorteil ist die Verwendung nur zweier Messgrößen, die leicht ermittelbar sind, Wärmestromdichte und Siededruck. Interessant für den Versuchsaufbau ist die Verwendung eines Vorverdampfers, wie auch schon in Arbeiten anderer Autoren. 8. Tribbe, C.; Müller- Steinhagen H.M. (2001): Gas/Liquid flow in Plate-and-Frame Heat Excangers, Part.I: Pressure Drop Measurements; Part II Two-phase multiplier and flow pattern analysis [10] Die Autoren führten Untersuchungen an konventionellen Plattenwärmeübertragerplatten durch. Ziel war es Erkenntnisse über die Druckverluste von Zwei-Phasen Strömungen zu erhalten. Dazu verwendeten sie in ihrem Versuchstand zwei verschiedene Medien, die vor dem Apparat mit Luft vermischt wurden. Somit simulierten sie Bedingungen mit verschiedenen Dampfgehalten in einer Strömung. Als Medien verwendeten sie Wasser und eine Carboxymethylcelluloselösung (CMC) in verschiedenen Konzentrationen. Dabei hat das Wasser die Eigenschaften eines Newton’schen Fluids und das CMC die eines nicht Newton’schen Fluids. Ferner wurden verschiedene Prägewinkel der Platten sowie zwei Amplituden der Prägungen verwendet, um die Abhängigkeit von der Strömungsführung zu untersuchen. Der Einfluss variabler Massenstromdichten im Bereich 50 bis 500 kg/(m²s) wurden ebenfalls untersucht. Dabei erwies sich der Druckverlust linear abhängig vom simulierten Dampfgehalt. Der Druckverlust stieg mit steigendem Dampfgehalt, wobei die Steigung mit der Massenstromdichte naturgemäß noch zunahm. Als Beispiel seien die mit Wasser als Versuchsstoff bei einer massenstromdichte von 100 kg/(m²s) erwähnt: Der Druckverlust betrug 0,6 bar bei einem Dampfgehalt von 0,2 und stieg linear auf 2,8 bar bei einem Dampfgehalt von 0,6. Das Ergebnis zeigte sich qualitativ analog bei verschiedenen Plattenprägungen bei naturgemäß unterschiedlichen Absolutwerten des Druckverlustes. Die Ergebnisse wurden im Part II ausgewertet und Beziehungen für einen Zwei-phasenmultiplikator nach Lockhart-Martinelli gesucht. Dabei stellte sie eine enger Zusammenhang einerseits mit dem Vorhandensein einphasiger oder zweiphasiger Strömung und andererseits mit Plattenform und Gasgehalt heraus. Als Ergebnis von TFH Wildau, Wissenschaftliche Beiträge 2006 Versuchen mit einem Plexiglasmodell konnten mehrere Strömungsarten festgestellt werden (Blasenregime, Filmströmung, irreguläre Strömungen usw.), deren Auftreten vom Gasgehalt der Strömung und den Plattengeometrien abhängig ist. Somit werden die beobachteten Unterschiede im Druckverlust erklärbar. Für die eigenen Versuche sind diese Ergebnisse einen gute Ausgangsbasis für die Betrachtungen des Druckverlustes im Verdampfer, sowie der dort vorkommenden Strömungsformen. Eine unmittelbare Übertragbarkeit der Ergebnisse ist nicht zu erwarten, da im Verdampfer eine stetiger, örtlicher Anstieg des Dampfgehaltes vorkommt. Damit sind nicht solch gleich bleibende Verhältnisse wie im beschriebenen Versuch vorhanden. Es können in verschiedenen Bereichen des Verdampfers Strömungsformen herrschen, die im Artikel beschrieben werden. Es besteht aber ein grundsaätzlicher Unterschied zwischen Luftblasen in Wasser und Dampfblasen. Durch Phasenänderung des Wassers steigt der Blasendurchmesser des Dampfes immer mehr an oder die Blase fällt in sich zusammen. Stoffübergang und dadurch sich ergebene Durchmesseränderungen treten bei Luftblasen nicht auf. Der Artikel kann daher nur Grundlage für die Betrachtungen der Messergebnisse sein. Die Erkenntnis des Vorhandenseins von verschiedenen Strömungsformen in Verbindung mit den Plattengeometrien kann bei dem qualitativen Verständnis der Messungen behilflich sein. 9. Benda, U. (1997): Gelötete Plattenwärmeaustauscher für Ammoniak [11] Der Autor berichtet über die Möglichkeit gelötete Plattenwärmeübertrager in Ammoniak Kälteanlagen einzusetzen. Er beschreibt den Aufbau sowie Fertigungsweise dieser Apparate und verweist auf Erfahrungen in diesem Bereich. Des weiteren Beschreibt er den Einsatz von „Verneblern“. Vorrichtungen die sicherstellen, dass das Kältemittel gleichmäßig zwischen den Platten verteilt wird. Dies ist nötig, da festgestellt wurde das es bei langen Plattenpaketen zu einer Ungleichverteilung des Kältemittels im Apparat kommen kann. Genauere, verwertbare Aussagen über Abweichungen und Unterschiede werden nicht gemacht. Er bestätigt aber qualitativ die Aussagen in vorhergehend besprochenen Quellen, dass die Sicherstellung einer gleichmäßigen Verteilung die Effektivität eines Verdampfers erhöhen kann. 2. Experimentelle und theoretische Arbeiten zur Kondensation Die physikalische Beschreibung der Kondensation im Plattenkondensator ist sehr komplex und hängt sowohl vom Strömungsverhalten des Dampfes, und des Kondensatfilmes, wie auch von Geometrie und Benetzung der Plattenoberfläche sowie von den Stoffeigenschaften des Mediums ab. Einige wenige, experimentell ermittelten Korrelationsbeziehungen liegen aus der Literatur vor, die im folgenden kurz skizziert werden sollen. Allerdings können die angegebenen Gleichungen nur als Ausgangsbasis betrachtet werden, da sie alle für rechteckige Platten entwickelt worden sind. Die in diesem Vorhaben zu 21 untersuchende kreisrunde Plattenform ist bislang weder experimentell untersucht noch theoretisch beschrieben worden. 1. Thonon, B.; Bonetemps, A. (2002): Condensation of Pure and Mixture of Hydrocarbons in Compact Heat Excangers. Experiments and Modelling [12] Die Verfasser diese Artikels berichten über Kondensationsuntersuchungen die von ihnen durchgeführt worden. Dabei geben sie eine Beschreibung des Versuchsstandes (Abb. 5) sowie der von ihnen durchgeführten Versuche. Die Versuche wurden mit einem Vollverschweißten Plattenwärmeübertrager der Fa. Alfa Laval durchgeführt und als Medium wurden Propan, Butan und Pentan sowie eine Butan-Propanmischung in verschiedenen Konzentrationen verwendet. Der Druck konnte bis zu 20 bar variiert werden, die Temperatur stieg dabei auf bis zu 80°C. Der Massenstrom erreichte Werte bis 600 kg/h bei einer Wärmeleistung bis 70 kW. kommen kann. So entwickelt sich bei kleinen Reynolds Zahlen Fallfilmkondensation. Dabei sinkt der Wärmeübergang mit zunehmender Reynolds Zahl, um danach bei noch höheren Reynolds Zahlen wieder anzusteigen (Strömungsänderung). Diese Beobachtung deckt sich qualitativ mit den Aussagen in den zitierten Quellen, wobei aber übereinstimmende Rechenwerte mit den dort angegebenen Formeln nicht erreicht wurden. Dabei zeigt sich, dass bei kleinen Reynolds Zahlen Formeln für schwerkraftbestimmte Kondensation gleiche Tendenzen zeigen. Bei höheren Reynolds Zahlen bieten Formeln für erzwungene Strömungen erwartungsgemäß bessere Ergebnisse. Es werden folgende Formeln angegeben: Für Filmkondensation bei Re L < 1600 [nach Kutatelatze]: α Ku = Co ⋅ Re L 1, 08 Re1L,22 − 5, 2 (9) und für Filmkondensation bei Re L > 1600 [nach Labuntsov] α La = Co ⋅ Re L 8570 + 58 ⋅ PrL−0,5 ⋅ (Re0L,75 − 253) (10) µ L2 mit Co = λL ⋅ [nach Rohsenow] (10a) ρ ⋅ ρ − ρ g ⋅ ( ) L G L Darin sind: α = Wärmeübergangskoeffizient Re L = Re ynoldszahl ( Flüssigkeit ) PrL = Pr andlzahl ( Flüssigkeit ) λ = Wärmeleitfähigkeit ρ = Dichte g = Erdbeschleunigung µ = dynamischeViskosität Abb. 5: Verfahrensfließbild aus [12] nach B. Thonon u. A. Bonetemps Die Autoren werten verschiedene Literaturangaben aus, um ihre eigenen Messergebnisse zu beschreiben. Sie betrachten dabei sowohl Fallfilmkondensation als auch erzwungene Konvektion, Kondensation reiner Dämpfe wie auch Kondensation von Gemischen. Beispielsweise für die erzwungene Kondensation reiner Dämpfe geben sie eine eigene Gleichung für den sogenannten „enhancement factor“ an, mit dem der Geometrie der Kondensationsfläche (Plattenprägung) Rechnung getragen wird: −0 ,76 F = 1564 ⋅ Re eq = α α LO (8) Darin wird anstelle der in der Literatur üblichen Re-Zahl der flüssigen Phase eine äquvalente Re-Zahl verwendet. α Lo ist der Wärmeübergangskoeffizient in der flüssigen Phase. Die ermittelten α -Werte lagen zwischen 1 und 2 kW/(m²K) in einem Re-Bereich von 250 < Re < 2000. Die Korrelationsgleichung (8) gibt 80% der Messwerte einer Genauigkeit von ±20% wieder. Dabei stellen die Autoren fest, dass die verwendeten Versuchsmedien sehr ähnliche physikalische Eigenschaften haben und somit weitere Versuche nötig sind, um die Ergebnisse verallgemeinern zu können. Bei allen Messungen wird aber deutlich, dass es zu verschiedenen Strömungsformen im Kondensator 22 Diese Erkenntnis kann ein Hinweis für die von uns vorzunehmenden Versuche sein. Dabei sind eher die angegebenen Vergleichformeln sowie die Art der Auswertung für die eigene Arbeit interessant. Eine Übereinstimmung mit den gemessenen Werten der Autoren ist eher nicht zu erwarten, da Medien und Apparate unterschiedlich sind. Allerdings bieten sowohl die zitierten weiteren Literaturquellen als auch die eigenen Rechenansätze der Autoren Anknüpfungspunkte für eigene Überlegungen. Keine neuen Erkenntnisse für die eigene Planung des Versuchsstandes biete die Beschreibung des Versuchstandes dieser Arbeit. 2. Cooper, A. (1974): Condensation of Steam in plate heat exchangers [13] Der Autor beschreibt die Ergebnisse seiner Untersuchungen an 7 verschiedenen Plattenwärmeübertragern, die zur Kondensation von Wasserdampf verwendet wurden. Er stellt fest, dass der Wärmeübergang sowie der Druckverlust von Massenstrom, Wandüberhitzung und Druck abhängig sind. Für die Berechnung des Wärmeübergangskoeffizienten schlägt er eine Gleichung vor, die 90 % seiner Messwerte mit einer Genauigkeit von ±20 % wiedergeben: h = hf ⋅ ρf ρm (11) TFH Wildau, Wissenschaftliche Beiträge 2006 mit: h = Wärmeübergangskoeffizient der Kondensation hf = Wärmeübergangskoeffizient einer rein flüssigen Phase bei gleichem Massenstrom ρf = Dichte der flüssigen Phase ρm = mittlere Dichte der Mischung flüssige/gasförmige Phase Zur Bestimmung des einphasigen Wärmeübergangskoeffizienten hf wird dabei folgende Gleichung verwendet: hf ⋅ d k G ⋅d = 0,160 ⋅ µ 0 ,62 C ⋅ µ k 0 ,4 (11a) mit: d = hydraulischer Durchmesser in [ft] (4xVolumen zwischen den Platten / benetzte Oberfläche) G = Massenstromdichte in [lb/(sq.ft.hr)] µ = Viskosität in [lb/(ft.hr)] C = spezifische Wärme in [Btu/lb.°F)] K = nicht spezifiziert Gleichung (11a) ist wegen fehlender Angaben nicht ohne weiteres anwendbar. Bemerkenswert sind die Angaben zum Druckverlust auf der Kondensatseite. Es wird festgestellt, dass der Druckverlust kleiner ist, wenn das Kühlmedium im Gleichstrom zum Dampf geführt wird anstatt im Gegenstrom. Dies begründet der Autor damit, dass beim Gleichstrom, die kleinere Eintrittstemperatur des Kühlmediums am Eintritt des Dampfes in den Kondensator gegenüberliegt. Dadurch entsteht dort, durch das größere Temperaturgefälle, mehr Kondensat. Beim Gegenstrom tritt die größere Kondensatmenge im hinteren Teil des Kondensators auf was sich negativ auf den Druckverlust auswirkt. Der Effekt relativiert sich aber wenn die Endtemperaturen der beiden Ströme weit auseinander liegen. Dieser Effekt kann je nach konkreter Anwendung von Bedeutung sein. 3. Fiedler, S.; Auracher, H. (2002): Experimentelle Untersuchung der Rücklaufkondensation in einem engen geneigten Rohr [14] Die Autoren berichten über ihre Messungen an einem Doppelrohrs. Dabei wurde Dampf von unten in das innere Rohr mit einem Durchmesser von 7 mm eingeleitet und durch ein Kühlmedium im Ringspalt kondensiert. Die dabei stattfindende Rücklaufkondensation wird beschränkt durch den Flutpunkt, ab dem das entstehende Kondensat mit dem Dampfstrom nach oben mitgerissen wird. Als Arbeitsstoff wird das Kältemittel R-134a bei Drücken von 6,7 und 7,4 bar eingesetzt. Die Untersuchungen galten dem Druckverlust, dem Wärmeübergang sowie der maximalen Dampfgeschwindigkeit in Abhängigkeit vom Neigungswinkel des Rohres. Die Versuche sollen die Strömungsvorgänge in Plattenwärmeübertragern simulieren, da dort ähnlich kleine Strömungsquerschnitte erreicht werden und durch unterschiedliche Prägewinkel entsprechende Neigungen der Strömungen möglich sind. Die Autoren stellten fest, dass ein optimaler Wärmeübergang bei Neigungswinkeln von 45° – 60° erreicht werden, ohne dass der Druckverlust erheblich ansteigt. Sie untersuchen verschiedene Literaturquellen und finden die Gleichung von Wang und Ma (Condensatrion Heat Transfer inside Vertical and Inclined Thermosyphons; TFH Wildau, Wissenschaftliche Beiträge 2006 J. of Heat Transfer 1991, 113, 777) als gut geignet für die Beschreibung der eigenen Messwerte: Num L = NumK R cos β 4 ⋅ ( 0,125 + 1, 46 ⋅ 10−2 ⋅ β − 7, 27 ⋅ 10−5 ⋅ β 2 ) (12) mit Num = 0, 925 ⋅ Re −1 3 (12a) und NumK = Re (12b) 1, 47 ⋅ Re1,22 − 1, 3 Mit L = Rohrlänge und β = Neigungswinkel des Rohres. Unter Auswertung verschiedener Quellen schlagen die Autoren eine eigene Gleichung auf, um die maximale Dampfgeschwindigkeit in Abhängigkeit des Neigungswinkels und anderer Faktoren zu beschreiben: wg = 0, 45 ⋅ ( sin 1, 7 β ) 0 ,38 ⋅ d 0,322 ⋅ ρ 0,419 ⋅ σ 0,097 ρ g0,462 ⋅ηl0,15 ⋅ wl0,075 (13) Die in dieser Arbeit als optimal gefundenen Neigungswinkel können u.U. bei der Entwicklung einer optimal auf Kondensation zugeschnittenen Plattenprägung angewendet werden. 4. Blume, U. (2001): Dampf-Maschine: Plattenwärmeübertrager nicht nur für flüssig/flüssig Anwendungen [15] Der Verfasser behandelt den von Firma Alfa Laval entwickelten Plattenwärmeübertragertyp. Er ist als gedichteter PWÜ mit speziellen Dichtungen und Prägungen für den Einsatz von Sattdampf als Arbeitsstoff ausgelegt. Bemerkenswert ist die Beschreibung folgender Beobachtung: Da am Ende der Platten der größte Teil des Dampfes kondensiert, wird dort ein Unterdruck erzeugt, durch den die Dampfgeschwindigkeit im vorderen Teil der Platten ansteigt und somit der Druckverlust der Dampfströmung dort erhöht wird. Von daher und unter Berücksichtigung der bereits besprochenen Literaturquelle [13] könnten vergleichende Untersuchungen sowohl im Gegenstromwie auch im Gleichstrombetrieb an Plattenkondensatoren zwecks Minimierung der Druckverluste sinnvoll sein. 5. Würfel, R.; Kreuztzer, T.; Fratscher, W. (2001): Turbulente Transportvorgänge bei adiabater und kondensierender Filmströmung im geneigten Rohr [16] Die Verfasser berichten über die Ergebnisse ihrer Messungen mittels eines geneigten Doppelrohres. Da das verwendete Rohr aber einen Innendurchmesser von 20 mm besitzt können die gewonnenen Werte kaum auf unseren Versuch übertragen werden. Die Autoren beschäftigen sich eher mit der Problematik des Entraintments bei zweiphasigen Strömungen in Rohren als mit den Vorgängen bei der Kondensation. Die von ihnen vorgenommenen Versuche zu diesem Thema führen im Ergebnis zu einer Korrelationsgleichung für die Nu-Zahl, die für turbulente Zweiphasenströmung bei Filmkondensation im Rohr gültig ist: Nukond = 0,501 α kond ⋅ L ,077 + 0 ,4 = 2, 536 ⋅ 10−2 ⋅ G (γ ) ⋅ Re0kond ⋅ (1 + τ kond (14) ) ⋅ Prkond λkond + mit weiteren Angaben zu G, τ kond und Re kond . Die Ermittlung der einzelnen Größen bedarf einer detaillierten Kenntnis der Vorgänge im Kondensator sowie zahlreicher 23 Messgrößen. Da die Gültigkeit der Gleichung eher beschränkt ist und die Versuchsbedingungen – u.a. wegen des relativ großen Rohrdurchmessers – relativ stark von den Plattenapparaten dieser Arbeit abweichen, ist eine unmittelbare Übertragbarkeit auf die geplanten experimentellen Versuche zur Kondensation in Plattenwärmeübertrager nicht zu erwarten. 6. Wang, Z.-Z.; Zhao, Z.N. (1993): Analysis of Performance of Steam Condensation Heat Transfer and Pressure Drop in Plate Condensers [17] Die beiden Autoren teilen die Ergebnisse ihrer Untersuchungen und Messungen an Plattenwärmeübertrager als Kondensatoren für Wasserdampf mit. Dabei verwendeten sie den in Abb. 6 wiedergegebenen Versuchsaufbau. Man erkennt einen Plattenkondensator mit vorgeschaltetem Batch-Boiler als Dampferzeuger und diversen Messgeräten. Wichtig erscheint dabei u.a. üblichen Messgeräten ein Füllstandsmesser, der bei gefluteter Fahrweise des Kondensators unerlässlich ist. 1 Bioler, 2 Valve, 3 Thermometer, 4 Meter for steam content, 5 Manometer, 6 Meter for liquid columm, 7 Plate condenser, 8 U-tube manometer, 9 Container, 10 Pump, 11 Back condenser, 12+13 Measure container, 14 Container for counterflush Abb. 6: Verfahrensfliessbild des Versuchsstandes aus [17] nach Z.-Z. Wang und Z.N. Zhao. Es wurden Wärmeübergangs- und Druckverlustmessungen durchgeführt. Das Gefälle warm-kalt zwischen den beiden Medien betrug bei den Wärmeübergangsmessungen 5 bis 20 K. Es werden keine systematischen Ergebnisse sondern Einzeldasten mitgeteilt. Die angegebenen Siedetemperaturen betragen 116-119°C, die sich ergebenden Wärmeübergangskoeffizienten 7,5 bis 24 (kW/(m²K) bei Massenströmen um 0,076 kg/s. Die Autoren vergleichen ihre Messwerte mit Rechenwerten nach der Literatur und stellen folgende eigene Gleichung auf: Re Nu = 0, 00115 ⋅ l H 24 0 ,983 ρ ⋅ Pr 0,33 ⋅ l ρv 0 ,248 (15) mit : (1 − x0 ) ⋅ d e Rel = Gs ⋅ µl ∆T H = Cp ⋅ γ′ ∆T γ ′ = γ ⋅ 1 + 0, 68 ⋅ C p ⋅ γ Gs = Massenstromdichte( gesamt ) kg 2 m s C p = spezifischeWärmekapazität kJ kg °C ρ l = Dichte( flüssigePhase) kg 3 m γ = latenteWärme kJ kg ρ v = Dicht ( Dampfphase) kg 3 m x0 = Dampfgehalt ( amAustritt ) Druckverlust ∆p und α-Wert erwiesen sich abhängig von mehreren Einflussgrößen: ∆p und α =f [Plattengeometrie, Strömungsform (Filmströmung o.a.), Massenstromdichte und Druck bzw. Siedetemperatur], wobei der Druckverlust als Summe verschiedener Druckverluste betrachtet wurde: Phasendruckverlust, Beschleunigungsdruckverlust, Schweredruckverlust und zusätzliche Druckverluste. Der Einfluss des Druckes wird erklärt durch die entstehenden Dichteunterschiede des Dampfes bei verschiedenen Drücken. Der Druckverlust konnte mittels der Beziehungen nach Lockhart-Martinelli beschrieben werden. Bei den Untersuchungen stellte sich außerdem heraus, dass der Druckverlust im Gegenstrombetrieb ca. 17 % größer war als im Gleichstrombetrieb, was sich mit Angaben anderer Autoren zumindest qualitativ deckt. Der Wärmeübergang im Gegenstrombetrieb war aber etwas besser. Um dies zu erklären, wurde ein integraler Mittelwert des Dampfgehaltes (bei vollständiger Verdampfung) gebildet. Dabei ergaben sich für den Gegenstrombetrieb ein mittlerer Dampfgehalt von 0,54 und für dem Gleichstrombetrieb von 0,46. Der Unterschied im Dampfgehalt führt zu unterscheidlichen Dampfgeschwindigkeiten und erklärt somit auch den Unterscheid im Wärmeübergang. Außerdem kamen die Autoren zu dem Schluss, dass der Wärmeübergang bei vollständiger Kondensation besser ist als bei Teilkondensation. Für die eigene Versuchsplanung ist die angegebene Gleichung möglicherweise verwendbar, da auch das gleiche Medium Wasser verwendet wird. Die Plattengeometrie ist allerdings nicht vergleichbar was zu Abweichungen führen kann. Literatur [1] VDI-Wärmeatlas, 9. Auflage, Springer-Verlag, 2002. [2] Engelhorn H.R., Reinhart, H.R. (1990): Investigations on Heat Transfer in a Plate Evaporator, Chemical Engineering and Processes 28, 143-146. [3] Handbuch der Kältetechnik TFH Wildau, Wissenschaftliche Beiträge 2006 [4] Osterberger, R.; Slipcevic B. (1990): Wärmeübergang beim Blasensieden in Plattenverdampfern, Klima - Kälte - Heizung 11, S. 481-483 [5] Yan Y.Y., Lin, T.F. (1999): Evaporation Heat Transfer and Pressure Drop of Refrigerant R134a in a Plate Heat Exchanger, J. Heat Transfer 121(2), 118-127 [6] Andre, M.; Kabelac, S.; de Vries, B. (2003): Wärmeübergang bei der Verdampfung von Ammoniak in einem Plattenwärmeübertrager, Chemie Ingenieur Technik (2003) 75(11), 1628-1633 [7] Kumar, H. (1993): Evaporation in Plate Heat Exchangers (Verdampfung in Plattenwärmeübertragern), AIChE Symp. Ser.89(295), 211/222 [8] Hsieh,Y.Y; L.J. Chiang; T.F. Lin (2002): Subcooled flow boiling heat transfer of R-134a and the associated bubble characteristics in a vertical plate heat exchanger, Internat. J. Heat and Mass Transfer 45(9), 1791-1806. Autoren Prof. Dr.-Ing. Josef Schmadl Dipl.-Ing. Jens-Uwe Gerking Technische Fachhochschule Wildau Technikum für Thermische Verfahrenstechnik Tel. +49 3375 508-110 [email protected] Dipl.-Ing. Joachim Schult Dr. Ingrid Schult Dipl.-Ing. (FH) Maik Haß Dipl.-Ing. (FH) Carsten Briesenick Caloperm GmbH Am Möllenberg 40, 15751 Niederlehme Tel. +49 3375 5185-18 [9] Feldmann, A.; Marvillet, C.; Lebouche M. (2000): Nucleate and convective boiling in plate fin heat exchangers, Int. J. Heat and Mass Transfer 43(18), 3433-3442 [10] Tribbe, C.; Müller- Steinhagen H.M. (2001): Gas/Liquid flow in Plate-and-Frame Heat Excangers, Part.I: Pressure Drop Measurements; Part II Two-phase multiplier and flow pattern analysis Heat Transfer Engineering 22(1),5-21 [11] Benda, U. (1997): Gelötete Plattenwärmeaustauscher für Ammoniak, Ki Luft- und Klimatechnik 33(10), 465-467 [12] Thonon, B.; Bonetemps, A. (2002): Condensation of Pure and Mixture of Hydrocarbons in Compact Heat Excangers. Experiments and Modelling, Heat Transfer Engineering 23(6)3-17 [13] Cooper, A. (1974): Condensation of Steam in plate heat exchangers AIChE Symposium Series 70, 138, 172-177 [14] Fiedler, S.; Auracher, H. (2002): Experimentelle Untersuchung der Rücklaufkondensation in einem engen geneigten Rohr, Chemie Ingenieur Technik 74(9), 1265-1269 [15] Blume, U. (2001): Dampf-Maschine: Plattenwärmeübertrager nicht nur für flüssig/flüssig Anwendungen, Chemie Technik 30(6) 25-26 [16] Würfel, R.; Kreuztzer, T.; Fratscher, W. (2001): Turbulente Transportvorgänge bei adiabater und kondensierender Filmströmung im geneigten Rohr, Chemie Ingenieur Technik 73(10), 1272-1281 [17] Wang, Z.-Z.; Zhao, Z.N. (1993): Analysis of Performance of Steam Condensation Heat Transfer and Pressure Drop in Plate Condensers, Heat Transfer Eng. 14(4), 32-41 TFH Wildau, Wissenschaftliche Beiträge 2006 25 Neuartige Plattenwärmeübertrager Teil D: Wirtschaftlichkeitsbewertung von Plattenapparaten anhand von Druckverlust und Wärmeübergang Josef Schmadl, Jens-Uwe Gerking, Carsten Briesenick, Maik Haß, Ingrid Schult, Joachim Schult 1. Einleitung Gegenstand dieser Arbeit ist die Untersuchung der Abhängigkeit der Wirtschaftlichkeit von Druckverlust und Wärmeübergangs in Plattenwärmeübertragern mit kreisrunden Platten anhand von experimentellen Daten. Zum Vergleich wird die herkömmliche Rechteckplatte herangezogen, wie in Abb. 1a) dargestellt, wobei als Referenzzustand die Plattenseite des Referenzapparates mit vereinfacht idealer Pfopfenströmung angenommen wird. ζ w ist damit analog ζ V unabhängig von der Geschwindigkeit und enthält alle als konstant angenommenen Geometrie- und Stoffwerte. Diese Beziehung wird im Folgenden verwendet. Für die Beschreibung des einphasigen Wärmeübergangs in Plattenapparaten lassen sich ebenfalls empirische Beziehungen verwenden. Als sehr flexible anpassbar erweisen sich dabei Gleichungen von der Form: Nu = C Nu ⋅ Re a ⋅ Pr b (4) Sie wurden im untersuchten Re-Bereich 300 < Re < 10000 und Pr-Bereich 1 < Pr < 300 sowohl für verschiedene Testapparate vom Typ des TA in Abb. 1 wie auch für den RA an Messwerte angepasst und werden im Folgenden ebenfalls verwendet. 2. Zusammenhang zwischen Druckverlust und Wärmeübergang vergleichsweise für Plattenspalt und Rohr a) Referenzapparat (RA) b) Testapparat (TA) Abb. 1: Schematische Darstellung des Referenzapparates mit Rechteckplatte und des Testapparates mit runder Platte Eine früher durchgeführte Analyse des plattenseitigen Druckverlustes [1] hatte gezeigt, dass sich die Re-Abhängigkeit des Druckverlustbeiwertes ζ ab Re = 300 ähnlich verhält, wie dies für das glatte Rohr im turbulenten Bereich bekannt ist: ζ = Cζ . Re − m (1) Darin ist m = 0,25 sowohl für das glatte Rohr wie auch für die untersuchte Platte des RA. In dieser Gleichung ist C der Re-unabhängige Druckverlustbeiwert ζ * = Cζ = ζ ⋅ Re0,25 . Betrachtet man wieder einen Apparat bei unveränderter Geometrie und unveränderten Stoffwerten, d.h. gleichem Medium und konstanter Temperatur, erhält man mit Gl. (1) und dem bekannten Ansatz für den Druckverlust ∆p: ∆p = ζ ⋅ l ρ V ⋅ ⋅ d h 2 AStrömungsquerschnitt 2 ρ V −0 ,25 l = Cζ . Re ⋅ ⋅ ⋅ A d 2 h Strömungsquerschnitt 2 (2) Fasst man darin die geschwindigkeitsunabhängigen Konstanten zusammen, ergibt sich: ∆p = ζ V ⋅ Re − m ⋅ (V ) = ζ w ⋅ w2−m 2 26 (3) Erfahrungsgemäß bewirkt eine Erhöhung der Strömungsgeschwindigkeit bei unveränderter Geometrie und konstanten Stoffwerten eine Erhöhung des Druckverlustes und gleichzeitig eine Verbesserung des Wärmeübergangs wegen der Zunahme des Grades der Turbulenz. Die Abhängigkeiten des Druckverlustbeiwertes und der Nu-Zahl von der Re-Zahl hingegen zeigen den – in Grenzen – geometrieunabhängigen Einfluss der Turbulenz auf den konvektiven Wärmeübergang. Vergleicht man unter diesem Gesichtspunkt Platte und Rohr, so ergibt sich qualitativ folgendes Bild: a) Druckverlust Für die Plattenseite des Referenzapparates RA, beispielsweise, erhält man durch Anpassung der Gleichung (1) an Messwerte im gesamten untersuchten Bereich Re < 18000: ζ = 20, 25 ⋅ Re −0,274 (5a) Passt man den Gleichungstyp (1) aber im hier interessierenden Re-Bereich 300 < Re < 10000 an, so ergibt sich eine etwas passgenauere Gleichung für den turbulenten Bereich mit gleichem Re-Exponenten wie für das glatte Rohr: ζ = 12, 8 ⋅ Re −0,25 (5b) Setzt man den Vorfaktor CRA− P = 12,8 ins Verhältnis zu dem bekannten C-Wert für das turbulent durchströmte Rohr, CRohr = 0,3165 erhält man: TFH Wildau, Wissenschaftliche Beiträge 2006 ζ RA− P ≈ 40 ζ Rohr (6) Der Frage, wie sich ein so großer Unterschied in den Druckverlustbeiwerten im Verhältnis der entsprechenden Nu-Zahlen widerspiegelt, wird unter b) nachgegangen. b) Wärmeübergang Der Zusammenhang zwischen Nu-Zahl und Widerstandsbeiwert ist für das turbulent durchströmte Rohr in der Gleichung von Petukhov [2] enthalten, der hier folgende Form gegeben wird: Nu = ζ Rohr ⋅ Re⋅ 8 Pr ( 2 ζ 1, 07 + 1, 46 ⋅ 8, 7 ⋅ Rohr ⋅ Pr 3 − 1) 8 ) = ζ Rohr ⋅ Re⋅ B 8 (7) Dieser Zusammenhang ist komplex, da der Bruch B nichtlinear von ζ und Pr abhängig ist, und für plattebezogene Abschätzungen nicht ohne weiteres verwendbar. Betrachtet man aber die Herleitung dieser halbempirischen Gleichung, so erkennt man, dass der ζ-haltige Term in B mit dem Verhältnis zwischen der Geschwindigkeit am Rand der turbulenten Kernströmung u’ zur mittleren Geschwindigkeit der Kernströmung u zusammenhängt: 8, 7 ⋅ ζ u/ = 8 u (8) Diese Gleichung gilt für das glatte Rohr. Setzte man darin zunächst die wesentlich höheren ζ-Werte für Platten dort ein, so erhielte man unsinnige Werte >1. Die BlasiusBeziehung für das Rohr von der Form der Gleichung (1) ergibt für den Ausdruck (8) bei zwei extremen Re-Zahlen, Re = 3000 und 100000, Rechenwerte von 0,41 bzw. 0,64. Mit diesem beiden Extremwerten ist B aus Gleichung (7) in Abb. 2 als Funktion der Pr-Zahl im technisch interessierenden Pr-Bereich 1 < Pr < 300 halblogarithmisch dargestellt. Man sieht, dass die beiden Korrelationen sich im Vorfaktor kaum unterscheiden. Für den Exponenten der Prandtl-Zahl ergibt sich eine Variationsbreite von 0,35 bis 0,41. Da die eigenen Messungen eher im Bereich niedriger Re-Zahlen durchgeführt wurden (300 < Re < 2000), also in der Nähe des laminaren Bereiches, und da andererseits der Pr-Exponent in der Nu-Beziehung für laminare Strömung nach [2] 0,33 beträgt, erscheint die Annahme eines Wertes von 0,35 für den Pr-Exponenten an der unteren Grenze des betrachteten Re-Intervalls vertretbar. Mit diesem Pr-Exponenten vereinfacht sich die PetukhovBeziehung zu: Nu = c1 ⋅ ζ ⋅ Re⋅ Pr 0,35 Setzt man darin noch den Re-unabhängigen Druckverlustbeiwert ein, erhalt man: Nu = c1 ⋅ ζ * ⋅ Re0,75 ⋅ Pr 0,35 TFH Wildau, Wissenschaftliche Beiträge 2006 (10) Für den RA wurde aus Messungen folgende empirische Korrelationsgleichung ermittelt: Nu = 0, 237 ⋅ Re0,72 ⋅ Pr 0,32 (11a) Gültig im gesamten untersuchten Messbereich: 37 < Re < 16100 und 1,9 < Pr < 264. Bei der Anpassung besteht eine gewisse Freiheit in der Wahl der Anpassungsparameter einerseits und in der Wahl des Anpassungsbereiches für die Re- und Pr-Zahl andererseits. Um einen besseren Vergleich zum Rohr zu erhalten, wurde deshalb hier als Exponent für die Pr-Zahl von 1/3 = 0,33 gewählt und im hier betrachteten Re-Bereich 300 < Re < 10000 angepasst. Ergebnis war folgende Gleichung: Nu = 0,19 ⋅ Re0,75 ⋅ Pr 0,33 (11b) Wie man sieht, ergab sich auch hier, wie schon beim Druckverlust derselbe Re-Exponent, wie für das glatte Rohr. Aus dem Vergleich von (10) und (11b) bei Berücksichtigung von ζ* = 12,8 für die Platte, wie aus Messwerten für den RA ermittelt, und bei Vernachlässigung des geringfügigen Unterschiedes im Pr-Exponenten der beiden Gleichungen, erhält man ein c1 von 0,015 für die Platte. Beim Rohr betrug dieser Wert 0,125 gemäß der Pethukow-Gleichung [1]. Außerdem ist ζ* = 0,3164 für das Rohr, aus der Blasius-Gleichung [1]. Setzt man die beiden Seiten von Gl. (11b) und (10) ins Verhältnis und vernachlässigt dabei die geringen Unterschiede der Pr-Exponenten, ergib sich: NuRA− P ( c1 ⋅ ζ ∗ ) Platte 0, 015 ⋅ 12, 8 ≈ = = 4, 75 NuRohr ( c1 ⋅ ζ ∗ ) 0,125 ⋅ 0, 3164 (12) Rohr Die Nusselt-Zahlen des RA und des Rohres unterscheiden sich demnach näherungsweise um den Faktor 4,75. Dem ist das analoge Verhältnis der Druckverlustbeiwerte von 40 gegenüberzustellen. Man sieht, dass dem vergleichweise höheren Druckverlust im Plattenapparat auch eine Verbesserung des Wärmeübergangs entspricht, die allerdings weit weniger stark ausfällt. Dies ist bei Apparaten unterschiedlichen Typs, wie es Plattenapparat und Rohr sind, auch nicht anders zu erwarten. Würde man zwei Rohrapparate R1 und R2 miteinander vergleichen, ergäbe sich aus Ähnlichkeitsgründen bei gleichen Re- und Pr-Zahlen nach Gleichung (12) NuR1 ζ R1 = NuR 2 ζ R 2 Abb. 2: Bruch B aus der Gleichung (7) in Abhängigkeit von der Pr-Zahl für zwei Werte des Ausdruckes (8) entsprechend den extremen Re-Zahlen 3000 und 10000. (9) (13) da beim Rohr in Gleichung (9) bzw. (10) Proportionalität zwischen Druckverlustbeiwert und Nu-Zahl angenommen werden kann. 27 Dieser Denkansatz erscheint formal übertragbar, um andere Apparate gleichen Typs, z. B. Plattenwärmeübertrager untereinander zu vergleichen. Werden z. B. Plattenapparate mit unterschiedlicher Geometrie (Plattenform, -durchmesser, -prägung) untersucht, kann es wichtig sein zu entscheiden, welcher Apparat der bessere ist sowohl hinsichtlich Druckverlust, wie auch hinsichtlich Wärmeübergang. Dabei wird zu berücksichtigen sein, dass wirtschaftlich betrachtet, die Betriebskosten mit steigender steigen die Investkosten aber fallen, d.h. Druckverlustbeiwert und Nu-Zahl – wirtschaftlich betrachtet – gegenläufig sind. Angenommen ein modifizierter Testapparat TA soll mit einem Referenzapparat RA vergleichen werden, so lautet die dafür angewendete Gleichung (13): NuTA ζ TA = NuRA ζ RA oder NuTA NuRA =1 ζ TA ζ RA (14) Voraussetzung ist auch hier Proportionalität zwischen Druckverlustbeiwert und Nu-Zahl. 3. Zur Wirtschaftlichkeit von Plattenapparaten Der Doppelbruch in Gleichung (14) lässt sich noch folgendermaßen umstellen: NuTA NuTA ζ TA NuRA = ζ TA NuRA ζ RA ζ RA (15) Damit wird die relative Wirtschaftlichkeit w = WTA/WRA , hier für TA/RA als Vergleichswert der Wirtschaftlichkeiten zweier unterschiedlicher Plattenapparate durch das Verhältnis der Gütezahlen ausgedrückt: NuTA WTA G ζ TA w= = = TA WRA NuRA GRA ζ RA (20) Für wirtschaftlich gleichwertige Apparate ergibt sich ein w = 1 anderenfalls von 1 verschiedene Werte. Die experimentellen Druckverlust- und Wärmeübergangsergebnisse als ς-Werte und Nu-Zahlen liegen für die hier beispielhaft betrachteten Apparate TA und RA in der Form von empirischen Korrelationen nach Gleichungen (1) bzw. (4) vor und können somit verwendet werden, um einen Wirtschaftlichkeitsvergleich einzelner Apparatetypen durchzuführen. 4. Vergleich Testapparat – Referenzapparat a) Druckverlust In Abb. 3 sind die aus Messungen ermittelten platten- und mantelseitigen Druckverlustbeiwerte des Referenzapparates ζ TA− P und ζ TA− M sowie der mantelseitige Druckverlustbeiwert ζ RA− M bezogen auf den entsprechenden Referenzwert ζ RA− P dargestellt. Betrachtet man den für Plattenwärmeübertrager technisch interessanten Re-Bereich ab Re = 300, so ergeben die bisherigen Messungen für die Mantelseite des RA etwa 1, 4 mal größere Druckverluste, für die Mantelseite des TA sogar um ca. Faktor 2 höhere Werte als für die Plattenseite des RA. Im Zähler und Nenner stehen nun dimensionslose Brüche, die sich nunmehr jeweils auf einen Apparat beziehen und die eine bessere Interpretation ermöglichen als dies mit Gleichung (14) möglich ist. Da – erfahrungsgemäß in erster Näherung – der Druckverlust proportional den im Folgenden mit BK bezeichneten Betriebskosten, die Nusseltzahl aber umgekehrt proportional den im Folgenden mit IK bezeichneten Investkosten ist, gemäß BK ~ ∆ p ~ ς (16) IK ~ 1/Nu ~ 1/ α (17) Folgt daraus, dass die Verhältnisse Nu / ς umgekehrt proportional den Gesamtkosten sind und somit ein Maß für die Wirtschaftlichkeit eines Apparates darstellen: W ~ 1/(BK . IK) ~ Nu/ς (18) Das Verhältnis Nu/ς kann man auch als eine Art wirtschaftlichen Wirkungsgrad gegeben durch das Verhältnis von Nutzen zu Aufwand sehen. Wir definieren es im Folgenden als „Gütezahl“ G: G = Nutzen 28 Aufwand = Nu ζ (19) Abb. 3: Druckverlustbeiwerte für Platte und Mantel des Testapparates TA bezogen auf den Referenzwert RA-P in Abhängigkeit von der Re-Zahl Als Ursache für die höheren Druckverluste im TA kommen schlecht durchströmte Bereiche in Frage, die in Abb. 4 schraffiert dargestellt sind. Diese nicht durchströmten Flächen können plattenseitig an den Rändern und mantelseitig im mittleren Bereich vermutet werden. Durch die erhöhten Strömungsgeschwindigkeiten in den gut durchströmten, nichtschraffierten Bereichen lassen sich somit die im Vergleich zum RA höheren Druckverluste erklären. Am Wärmeaustausch hingegen sind am stärksten nur die Bereiche beteiligt, die beidseitig gut durchströmt sind. Die bevorzugten Wärmeübertragungsflächen ergeben TFH Wildau, Wissenschaftliche Beiträge 2006 sich demnach aus den Schnittmengen a∩b der gut durchströmten Flächenbereiche aus a) und b) in Abb. 4. Eine gleichmäßigere Durchströmung, wie sie in den gestrichelt abgetrennten Ein- und Auslaufbereichen (27 % der Austauschfläche) erreicht würde, wenn diese mit entsprechend modifizierten Ein- und Auslaufbereichen ausgeführt wären, hätte dann positive Auswirkungen sowohl auf den Druckverlust wie auch auf den Wärmeübergang, da die gesamte Fläche gleichmäßiger an der Wärmeübertragung beteiligt würde. a) apparate TA1 und TA2 untereinander. Abb. 6 bis 8 gelten für eine Pr=8, die typisch für den Versuchsstoff Wasser ist. Im Einklang mit Abb. 3 ergeben sich für beide Testapparate höhere Widerstandsbeiwerte als für den RA, wobei der Unterschied mit steigender Re-Zahl noch zunimmt. TA2 mit der härteren Platte weist naturgemäß die größeren Druckverluste auf. Sie sind im untersuchten Re-Bereich 1,8 bis 2,6 mal größer als beim RA. Die Nu-Zahlen sind für den TA1 20-30 % und für TA2 10-20 % geringer als für den Testapparat, wobei der Einfluss der Re-Zahl dabei gering ist und im Rahmen der Messgenauigkeit bleibt. Eine Aussage über die Wirtschaftlichkeit ergibt das Verhältnis der G-Zahlen, das einen mit der Re-Zahl zunehmenden Vorteil des RA von bis zu 60 % entsprechend Faktor 2,5 anzeigt. b) Abb. 4: Platten- (a) und Mantelseite (b) des Testapparates. Die schlecht durchströmten Bereiche sind schraffiert, mantelseitige Einund Auslaufbereiche fett. b) Wärmeübergang Zum Vergleich des Wärmeübergangs können die empirischen Gleichungen vom Typ (4) herangezogen werden, die durch Anpassung an Messwerte gewonnen wurden: TA: Nu = 0,13 ⋅ Re0,78 ⋅ Pr 0,38 RA: Nu = 0, 237 ⋅ Re0,72 ⋅ Pr 0,32 Abb. 5: Verhältnisse der Nu-Zahlen, Widerstandsbeiwerte ς und Gütezahlen G für TA1/RA in Abhängigkeit von der Re-Zahl bei Pr=7 (Versuchsstoff: Wasser 20°C) Mit diesen Gleichungen ergeben sich überschlägig z. B. folgende Nu-Vergleichswerte für Re = 300, Pr = 2: Re = 10000, Pr = 2: NuTA = 14,5 und NuTA = 223,0 und NuRA = 18,0 NuRA = 224,0 Der Unterschied im untersuchten Re-Bereich ist trotz des Unterschiedes von ca. 20 % im niedrigen Re-Bereich praktisch vernachlässigbar, wenn man bedenkt, dass ist die Qualität der Anpassung zu niedrigen Re-Zahlen hin schlechter wird. c) Wirtschaftlichkeitsvergleich zweier Testapparate jeweils mit dem Referenzapparat und untereinander Im Folgenden werden zwei Testapparate einerseits mit dem in Abb. 1a) schematisch dargestellten Referenzaparat RA und andererseits untereinander verglichen: TA1: Testapparat mit weicherer Prägung im Vergleich zu TA in Abb. 1b) TA2: Testapparat mit harter Prägung = TA in Abb. 1b) Beide Testapparate weisen ansonsten die gleiche Geometrie wie in Abb. 1 b) auf. Für alle Apparate werden Widerstandsbeiwerte und Nu-Zahlen verwendet, die zwischen Platten- und Mantelseite gemittelt wurden. Abb. 5 und 6 enthält einen Wirtschaftlichkeitsvergleich der Testapparate 1 und 2 jeweils mit dem Referenzapparat, Abb. 7 einen Wirtschaftlichkeitsvergleich der beiden Test- TFH Wildau, Wissenschaftliche Beiträge 2006 Abb. 6: Verhältnisse der Nu-Zahlen, Widerstandsbeiwerte ς und Gütezahlen G für TA2/RA in Abhängigkeit von der Re-Zahl bei Pr=7 (Versuchsstoff: Wasser 20°C) Abb. 7: Relative Wirtschaftlichkeit w in Abhängigkeit von der Re-Zahl für die Testapparate TA1 und TA2 bei Pr=7 (Versuchsstoff: Wasser 20°C) 29 Aufschlussreich für den Vergleich der beiden Testapparate untereinander ist erst eine Betrachtung der relativen Wirtschaftlichkeit w = G1/G2 in Abbildung 7. Man sieht, dass die weiche Platte einen wirtschaftlichen Vorteil von bis zu 60 % entsprechend Faktor 1,6 bei niedrigen Re-Zahlen aufweist, der aber mit steigender Re-Zahl abnimmt auf unter 20 % entsprechend Faktor 1,2 bei Re=10000. Man sieht, dass die relative Wirtschaftlichkeit mit steigender Re-Zahl gegen 1 geht, d.h. ein signifikanter wirtschaftlicher Unterschied nur bei mittleren bis kleinen Re-Zahlen besteht. Bei einer Pr-Zahl von 70, typisch für den zähflüssigeren Versuchsstoff Wärmeträgeröl, ergibt sich ein qualitativ ähnlicher Sachverhalt gemäß Abb. 8-10: Starker Anstieg der Widerstandsbeiwerte in den beiden TA im Vergleich zu RA mit steigender Re-Zahl, um mehr als Faktor 2 beim TA2, aber fast kein Einfluß der Re-Zahl auf das Verhältnis der Nu-Zahlen, die für TA1 20-30 % geringer und für TA2 kaum merklich geringer als für RA sind. Bezüglich des Unterschieds in den Widerstandsbeiwerten der Testapparate TA1 und TA2 in Relation zu RA besteht Klärungsbedarf in Folgeuntersuchungen. Der Vergleich zwischen TA1 und TA2 in Abb. 10 zeigt, dass die weiche Platte auch in diesem Pr-Bereich bei kleinen bis mittleren Re-Zahlen um um 50-20 % besser d.h. wirtschaftlicher als die harte Platte ist, wobei der Unterschied zu hohen Re-Zahlen hin auch hier abnimmt. Zusammenfassung Abb. 8: Verhältnisse der Nu-Zahlen, Widerstandsbeiwerte ς und Gütezahlen G für TA1/RA in Abhängigkeit von der Re-Zahl bei Pr=70 (Versuchsstoff: Marlotherm SH 80°C) Ausgehend von Druckverlust und Wärmeübergang im einphasig turbulent durchströmten, glatten Rohr wurde eine dimensionslose Gütezahl G als Verhältnis von Nusseltzahl und Widerstandsbeiwert eingeführt, die es ermöglicht die Wirtschaftlichkeit unterschiedlicher Plattenapparate vergleichsweise abzuschätzen. Die beispielhafte Anwendung auf zwei Testapparaten mit unterschiedlicher Plattenprägung ergab eine besserer relative Wirtschaftlichkeit der weichen Platte vergleichsweise zur harten Platte im Bereich kleiner und mittlerer Re-Zahlen für einen weiten Bereich der Pr-Zahl, die aber mit zunehmender Re-Zahl abnimmt. Der Druckverlustunterschied zwischen Testapparaten und Referenzapparat sollte in weiterführenden Untersuchungen behandelt werden. Literatur Abb. 9: Verhältnisse der Nu-Zahlen, Widerstandsbeiwerte ς und Gütezahlen G für TA2/RA in Abhängigkeit von der Re-Zahl bei Pr=70 (Versuchsstoff: Marlotherm SH 80°C) [1] J.-U. Gerking, M. Haß, J. Schmadl, I. Schult und J. Schult: „Neuartige Plattenwärmeübertrager. Teil B: Zum Einfluss von Bypass-Strömung auf Druckverlust und Wärmeübertragung in Plattenwärmeübertragern“, Wissenschaftliche Beiträge der TFH Wildau, Heft 2005, S. 109. [2] VDI-Wärmeatlas, Springer-Verlag Berlin-Heidelberg, 1998. Danksagung und Hinweis Für die finanzielle Förderung dieser Arbeit (Teile A bis D) sind wir dem Bundesministerium für Bildung und Forschung (BMBF) zu Dank verpflichtet. Das zugrunde liegende Forschungsvorhaben wurde mit Mitteln des BMBF unter dem Förderkennzeichen 1711Z03 gefördert. Die Verantwortung für den Inhalt liegt bei den Autoren. Abb. 10: Relative Wirtschaftlichkeit w in Abhängigkeit von der Re-Zahl für die Testapparate TA1 und TA2 bei Pr=70 (Versuchsstoff: Marlotherm SH 80°C) 30 TFH Wildau, Wissenschaftliche Beiträge 2006 Autoren Prof. Dr.-Ing. Josef Schmadl Dipl. -Ing. Jens-Uwe Gerking Technische Fachhochschule Wildau Technikum für Thermische Verfahrenstechnik Tel. +49 3375 508-110 [email protected] Dipl.-Ing. Joachim Schult Dr. Ingrid Schult Dipl.-Ing. (FH) Maik Haß Dipl.-Ing. (FH) Carsten Briesenick Caloperm GmbH Am Möllenberg 40, 15751 Niederlehme Tel. +49 3375 5185-18 TFH Wildau, Wissenschaftliche Beiträge 2006 31 Bereitstellung von Dendromasse für die Versorgung von Biomassekraftwerken – Analyse am Beispiel des Standorts Elsterwerda Paul Fiedler, Mareike Schultze, Herbert Sonntag 1. Einleitung Hintergrund Energieversorgung steht im Spannungsverhältnis zwischen Versorgungssicherheit, Wirtschaftlichkeit, Umweltverträglichkeit und der Notwendigkeit gesellschaftlicher Akzeptanz. Regenerative Energien sind geeignet, die sich perspektivisch öffnende Lücke zwischen der weltweit steigenden Energienachfrage und der unsicheren Expansion des Energieangebots zumindest teilweise zu schließen (BMWI, BMU, 2006). Neben ihrem Beitrag zur Ressourcenschonung und zum Klimaschutz sind sie ein wichtiger Wirtschaftsfaktor (BMU, 2006) und verringern die Abhängigkeit von Energieimporten. Unter den regenerativen Energien zeichnen sich die Bio-Energien auf der Basis nachwachsender Rohstoffe durch ihr großes Potential und die vielfältigen Einsatzmöglichkeiten aus. Sie können für die Erzeugung von Elektrizität, für die Gewinnung von Wärme und für die Produktion von Kraftstoffen genutzt werden. Zudem sind sie kontinuierlich verfügbar und lagerfähig. Langfristig könnte die Nutzung von Biomasse etwa 10 % zur Energiebereitstellung in Deutschland beitragen (vgl. BMU, 2005). Die Voraussetzungen für die Nutzung von Bio-Energien sind sehr günstig. Ihre Umweltverträglichkeit steht außerhalb jeder Diskussion und die gesellschaftliche Akzeptanz ist grundsätzlich hoch. Insbesondere in strukturschwachen Regionen kann die Nutzung eigener Biomasseressourcen einen wichtigen Beitrag zur regionalen Wertschöpfung leisten. Große Wachstumschancen im Bereich der Biomasse werden der Verwendung bisher ungenutzter Holzpotentiale zugesprochen (Auer, 2005). Die Logistik spielt hinsichtlich der Wirtschaftlichkeit der Nutzung von Dendromasse (Energieholz) eine wichtige Rolle. Die Kosten der Bereitstellung übersteigen häufig die des eigentlichen Materialwertes. Umso wichtiger erscheint es, effiziente Bereitstellungskonzepte zu entwickeln. Projektaufgabe Die Projektaufgabe bestand darin die Umstellung der Versorgung des Biomassekraftwerkes Elsterwerda von Altholz auf Waldrestholz nach finanziellen Gesichtspunkten zu prüfen. Hintergrund ist die derzeitige Entwicklung auf dem Altholzmarkt. Stellte 32 Altholz bisher eine reichlich verfügbare und kostengünstige Rohstoffquelle dar, so sind die Mengen zunehmend abgeschöpft. Allgemein wird mit einer Verknappung und mit ansteigenden Preisen gerechnet (Weimar und Mantau, 2005). Zusätzlich werden die Transportentfernungen und damit die Bereitstellungskosten für Altholz steigen. Waldrestholz hingegen steht flächendeckend zur Verfügung und wird nur unzureichend genutzt. Besonderen Wert bei der Umsetzung der Aufgabe, wurde auf den Ursprung der Dendromasse gelegt. Diese sollte ausschließlich aus regionalen Ressourcen stammen, in diesem Untersuchungsfall dem Landkreis Elbe-Elster/Brandenburg. Neben der Ermittlung geeigneter Dendromasseprodukte stand die Untersuchung der Logistik- und Wertschöpfungskette im Mittelpunkt. Für das Kraftwerk Elsterwerda sollten die Kosten für die Versorgung mit Waldrestholz anhand einer beispielhaften Wertschöpfungskette ermittelt und mit den derzeitigen Kosten verglichen werden. Auf Basis der Ergebnisse sollte ein Handlungsvorschlag gemacht bzw. Alternativen zur bisherigen ausschließlichen Altholznutzung aufgezeigt werden. 2. Grundlagen und Vorgehensweise Unter dem Begriff „Dendromasse“ wird holzartige Biomasse verstanden, die einer energetischen Nutzung zugeführt wird. Dies betrifft sowohl Holzsortimente, die direkt durch thermische Aufarbeitung genutzt werden, als auch solche die in einem ersten Schritt in ein hochverdichtetes Zwischenprodukt gewandelt und erst anschließend in einem zweiten Aufbereitungsschritt einer energetischen Nutzung zugeführt werden. In Abb. 1 sind unterschiedliche Bereitstellungspfade für Dendromasse dargestellt. Abb. 1: Bereitstellungspfade Dendromasse, Quelle: nach Kaltschmitt und Hartmann (2001) TFH Wildau, Wissenschaftliche Beiträge 2006 Wie aus der Abb. 1 zu ersehen ist, kann frische Dendromasse in der Forstwirtschaft, der Landwirtschaft und bei der Landschaftspflege anfallen. Potentialmodelle zu Kurzumtriebsplantagen auf landwirtschaftlichen Flächen und zu Biomasse aus der Landschaftspflege sind derzeit noch nicht verfügbar. Obwohl diesen Dendromassearten ein hohes Potential zugesprochen wird, beschränkt sich daher diese Analyse auf Waldrestholz und Schwachholz aus der Forstwirtschaft. Waldrestholz fällt als Nebenprodukt bei der Ernte von Holz für die stoffliche Nutzung an. Holz unterhalb der Nutzungsgrenze und Kronenmaterial verbleiben zurzeit überwiegend ungenutzt im Wald. Schwachholz ist Holz aus der Jungbestandspflege, dessen Durchmesser zu gering für eine stoffliche Nutzung ist. Unter Beachtung der Grundsätze für eine nachhaltige Nutzung steht ein Teil dieses Materials für die Energieerzeugung zur Verfügung. An der Wertschöpfungskette Dendromasse sind eine Reihe von Akteuren beteiligt. Auf der Angebotsseite sind das die Forstverwaltung, private Waldbesitzer und Forstdienstleister. Die Abnehmerseite ist sehr differenziert. Es handelt sich hier um Betreiber von Konversionsanlagen in den unterschiedlichsten Dimensionierungen. Privatpersonen kommen als Abnehmer kleinerer Mengen ebenfalls in Betracht. Eine wichtige Rolle im Bereitstellungsprozess spielen die Dienstleister. Sie können sowohl die Prozessschritte Ernte und Aufbereitung als auch Transport und Lagerung übernehmen. Die Vielzahl der Ablaufprozesse bietet hier auch eine ebenso große Zahl von Varianten der Arbeitsteilung. Abb. 2: Wertschöpfungskette forstlicher Dendromasse Je nach den Anforderungen an die Dendromassequalität sind unterschiedliche Verfahrensschritte notwendig. Entscheidend für die Gestaltung der Bereitstellungskette ist die Herstellung eines transportfähigen Dendromasseprodukts. Waldrestholz und Schwachholz werden häufig direkt am Ort des Anfalls zu Waldhackschnitzeln zerkleinert. Alternativ ist die Aufbereitung zu Bündeln oder Rundholzabschnitten möglich. Privathaushalte nehmen häufig Scheitholz ab. Die Bereitstellungskosten zur Versorgung einer Anlage mit Dendromasse hängen ab von: – den Anforderungen an Menge und Qualität der Dendromasse, die sich aus Art und Dimensionierung der Konversionsanlage ergeben, – den verfügbaren Dendromasseressourcen, – der Herkunft der Dendromasse und – den eingesetzten Verfahren für Ernte, Aufbereitung, Lagerung, Umschlag und Transport. Die Vorgehensweise zur Erstellung eines Versorgungskonzepts für das Biomassekraftwerk Elsterwerda ist in Abb. 3 dargestellt. Zunächst werden die Anforderungen an die Bereitstellung definiert. Es folgt eine Untersuchung des Landkreises Elbe-Elster hinsichtlich seiner Eignung für TFH Wildau, Wissenschaftliche Beiträge 2006 die Versorgung des Biomasseheizkraftwerkes Elsterwerda. Wichtige Aspekte sind die infrastrukturelle Anbindung des Standorts und die räumliche Verteilung nachhaltig vorhandener Dendromassepotentiale. Darauf aufbauend werden exemplarische Bereitstellungsketten zur Versorgung des Standorts definiert und monetär bewertet. Die Bewertung des Versorgungskonzepts und das Aufzeigen von Handlungsalternativen erfolgt entsprechend der eingangs formulierten qualitativen, quantitativen und monetären Vorgaben. Abb. 3: Vorgehensweise zur Erstellung und Bewertung des Versorgungskonzepts 3. Anforderungen an ein Konzept zur Versorgung des Kraftwerks Elsterwerda Ein positives Betriebsergebnis zu erzielen, ist die Grundvoraussetzung für das wirtschaftliche Bestehen eines Biomasseheizkraftwerks. Im Fall der vorliegenden Untersuchung soll für das Biomassekraftwerk Elsterwerda geprüft werden, ob ein kostendeckender Betrieb auf der Basis von Waldrestholz möglich ist. Die Bereitstellungskosten dürfen einen definierten Anteil an den Einnahmen, d.h. an der Gesamtvergütung für Strom und Wärme, nicht überschreiten. Das Kraftwerk Elsterwerda produziert Strom und Wärme bei einer Arbeitsleistung von 8.000 Volllaststunden pro Jahr. Der Schwerpunkt liegt mit 96.000 MWh/a auf der Stromproduktion. Weitere 24.000 MWh/a Wärme werden ins Fernwärmenetz der Stadt Elsterwerda eingespeist. Der vom Kraftwerk Elsterwerda bereitgestellte Strom wird nach den im Erneuerbare-Energien-Gesetz (EEG) festgelegten Sätzen vergütet. Die Bewertung der produzierten Wärmemenge erfolgte nach dem durchschnittlichen Heizölpreis 2005 (Tecson, 2006). Leistung Stromproduktion Wärmeproduktion Holzbedarf Stromvergütung Wert der produzierten Wärme MWel MWh/a MWh/a t atro/a €/a €/a 12,6 96.000 24.000 96.000 8,3 Mio. 1,3 Mio. Tab. 1 Kenndaten des Biomassekraftwerks Elsterwerda Die Anlage hat einen jährlichen Brennstoffbedarf von 96.000 t Trockenmasse (t atro). Bisher wird diese Menge fast ausschließlich durch Altholz abgedeckt. Nach der 33 geplanten Jahresproduktion am Standort Elsterwerda ergibt sich eine Gesamtvergütung für die bereitgestellte Strom- und Wärmemenge von etwa 9,5 Mio. €. Bei einer Kostenstruktur vergleichbar mit ähnlichen Anlagen liegt das Budget für die Bereitstellungskosten von Dendromasse bei 30 – 35 % der Gesamtkosten. Der Einkauf des Altholzes erfolgt frei Werk, wobei die Anlieferung ausschließlich per Lkw realisiert wird. Vor Ort gibt es keine Hackanlage, so dass ausschließlich Hackschnitzel eingekauft werden. Diese können eine Kantenlänge von bis zu 300 mm aufweisen. Der Preis für Altholz schwankt zwischen 10 – 40 €/t atro (Leible et al, 2003). Die Anlage ist für das Verfeuern von Altholz aller Kategorien ausgelegt, das mit Störstoffen und chemischen Substanzen, wie z. B. Teer, Holzschutzmittel oder Chrom, belastet ist. Durch die notwendigen Reinigungs- und Filteranlagen liegen im Vergleich zur Verbrennung unbelasteter Holzsortimente die jährlichen Fixkosten deutlich höher. Die Zufeuerung von Waldhackschnitzeln ist grundsätzlich möglich aber mit technischen Schwierigkeiten verbunden. Grund ist der hohe Wassergehalt (50 – 60 %) von frischen Waldhackschnitzeln im Vergleich zu Altholz. Bei einem Wassergehalt von über 20 % ist bei dem vorhandenen Kesselvolumen eine Drosselung der Anlagenleistung erforderlich. Um den kritischen Wassergehalt nicht zu überschreiten, ist eine konstante Zumischung einer definierten Menge Waldhackschnitzel zum Altholz erforderlich. Die in Tabelle 2 dargestellten Anforderungen des Kraftwerks Elsterwerda dienen als Zielvorgabe für die Entwicklung des Versorgungskonzepts. Mengenbedarf 96.000 t atro/a Dendromasseart – Waldrestholz, Schwachholz Neben den vorhandenen Binnenhäfen werden hierbei die Holzverladebahnhöfe sowie die Straßenanbindungen betrachtet. Die Einbindung von Bahn und Binnenschiff in die Versorgungskette erfordert einen straßengebundenen Vorlauf vom Ort der Biomasseproduktion zum Verladebahnhof bzw. Binnenhafen. Ein bedeutender Kostenfaktor ist der Umschlag der Güter von einem Verkehrsträger zum anderen. Für einen kostengünstigen Transport ist es daher ideal, wenn das Kraftwerk über einen Gleisanschluss verfügt bzw. direkt an einer Wasserstraße liegt, und damit der straßengebundene Nachlauf wegfällt. Der einzige Holzverladebahnhof im Landkreis liegt in Finsterwalde und damit rund 30 km vom Standort Elsterwerda entfernt. Die nächstgelegenen Binnenhäfen sind 45 bzw. 30 km entfernt in Torgau und Riesa, Sachsen, angesiedelt. Für die Versorgung des Standorts Elsterwerda – gemäß der Zielvorgabe – aus regionalen Ressourcen kommt daher nur die Straße in Frage. In den weiteren Betrachtungen und bei der Ermittlung der Transportkosten wird daher ausschließlich der Verkehrsträger Straße berücksichtigt. – Altholz Mischung Dendromasseprodukt Qualtitative Anforderungen Herkunft Maximaler Anteil Waldrestholz und Schwachholz Hackschnitzel Kantenlänge < 300 mm Wassergehalt < 20% Waldrestholz, Schwachholz: LK Elbe-Elster Altholz: überregional Ort der Abnahme Elsterwerda Zeitpunkt der Bereitstellung Methodik der Bereitstellung Budget Bedarfsabhängig, möglichst kontinuierlich Anlieferung per LKW ca. 3 Mio. Tab. 2: Zielvorgaben für die Versorgung des Kraftwerks Elsterwerda mit Waldhackschnitzeln Abb. 4: Infrastrukturelle Anbindungen des Standorts Elsterwerda im Land Brandenburg 4. Standortanalyse Elbe-Elster Dendromassepotentiale Bei der Analyse der Dendromassepotentiale spielt neben den absoluten Vorkommen im Landkreis Elbe-Elster auch die räumliche Verteilung eine wichtige Rolle. Diese wurde mit Hilfe der GIS(Geographisches Informationssystem)Software Regiograph dargestellt. Diese Daten bilden die Grundlage, um die vorhandenen Holzpotentiale und das zu untersuchende Biomasseheizkraftwerk Elsterwerda in Infrastruktur Für die Versorgung von Biomassekraftwerken mit Dendromasse stehen grundsätzlich die Verkehrsträger Straße, Schiene und Wasserstraße zur Verfügung. In diesem Abschnitt werden sie hinsichtlich ihrer Zweckmäßigkeit für die Versorgung des Standorts Elsterwerda untersucht. 34 TFH Wildau, Wissenschaftliche Beiträge 2006 räumliche Relation zu setzen. Für die Berechnung der Transportkosten sind diese Daten elementar. Die im Rahmen der Projektarbeit verwendeten Potentialdaten basieren auf Untersuchungen der Hamburger Bundesforschungsanstalt für Holz- und Forstwirtschaft (Dieter und Englert, 2001). Zur Potentialermittlung für den Landkreis Elbe-Elster wurden die Waldflächen in Brandenburg und Elbe-Elster (vgl. Tabelle 2) herangezogen. Die ermittelten Werte wurden mithilfe von regionalen Potentialwerten (Bilke, 2005) kalibriert. Die in Tabelle 3 dargestellten Daten liegen am unteren Ende der vorliegenden Abschätzungen und sind daher als Minimalwerte zu betrachten. Deutschland Brandenburga) ElbeElster Waldfläche [ha] 10,6 Mio. 1 Mio. 60.000 Dendromassepotential Gesamt [t atro/a] 16,6 Mio. 1.6 Mio. 94.000 davon Schwachholzb) [t atro/a] 7 Mio. 0,7 Mio. 40.000 davon Kronenholz [t atro/ha] 9,6 Mio. 0,9 Mio. 55.000 a) Abschätzung auf Basis der Waldfläche b) Angaben bei einer unteren Aufarbeitungsgrenze von 8 cm Tab. 3: Dendromassepotential aus der Forstwirtschaft in Deutschland, Brandenburg und im Landkreis Elbe Elster, Quellen: Dieter und Englert (2001), LSDB (2003), eigene Berechnungen 5. Ermittlung der Bereitstellungskosten für Waldhackschnitzel Für eine Bewertung der Bereitstellungsketten von Waldhackschnitzeln für das Kraftwerk Elsterwerda wird das Blickfeld über die drei Grundprozesse der Logistik – Transport, Umschlag und Lagerung – hinaus erweitert. Die Wahl des Ernteverfahrens und die Aufbereitung der Dendromasse sind bedeutende Kostenfaktoren und beeinflussen die Transport- und Umschlagskosten wesentlich. Es werden die in Abb. 6 dargestellten exemplarischen Bereitstellungsketten angenommen. Die Aufbereitung der Dendromasse, d. h. die Herstellung von Waldhackschnitzeln, wird in Kombination mit dem Transport durchgeführt. Die optimale Abstimmung der Kapazitäten der einzelnen Teilprozesse führt hierbei zu minimalen Bereitstellungskosten. Die technischen Leistungsvorgaben der Maschinen sind berücksichtigt. Maßgebend für den Hackvorgang sind die Vorgaben durch das Kraftwerk Elsterwerda hinsichtlich der Form und Größe der Hackschnitzel. Zur Vermeidung eines Umschlages werden die Hackschnitzel direkt aus dem Hacker in einen bereitstehenden Anhänger oder Wechselcontainer eingeblasen. Nach dieser Schätzung ist im Landkreis Elbe-Elster mit einem Dendromassepotential von etwa 94.000 t atro/a zu rechnen, die sich wie folgt um den Standort Elsterwerda verteilen (siehe Abb. 5). Abb. 6: Exemplarische Bereitstellungsketten für Dendromasse Abb. 5: Räumliche Verteilung der Dendromasse um den Standort Elsterwerda TFH Wildau, Wissenschaftliche Beiträge 2006 Die monetäre Bewertung der einzelnen Schritte der Bereitstellung erfolgt auf der Grundlage von Daten des Kuratoriums für Wald- und Forstwirtschaft (KWF 2004) und der Bayrischen Landesanstalt für Wald und Forstwirtschaft (LWF 2003). Neben den Prozessen der Ernte und Aufbereitung bestimmt die räumliche Verteilung der Dendromassepotentiale um den Standort Elsterwerda die Bereitstellungskosten. Für die Berechnungen gilt, dass im Umkreis von 5 km ausschließlich Landwirtschaftliche Züge den Transport der Dendromasse übernehmen, bei längeren Transportentfernungen werden Container-Lkw eingesetzt. Es wurden Beispielrechnungen für Transporte mit verschiedenen Anhängern durchgeführt. Das Ladevolumen der Anhänger der landwirtschaftlichen Züge wird dabei mit 14,9 m³ (klein) bzw. 18,7 m³ (groß), die der Abrollcontainer mit 35 m³ angenommen. Der Transport mit Abrollcontainern hat sich grundsätzlich mit 2 Anhängern kostengünstiger dargestellt. Auf dieser Grundlage werden alle weiteren Betrachtungen geführt. Unter Berücksichtigung der relevanten Parameter ergeben sich die in Abb. 7 dargestellten Gesamtkosten der Bereitstellung. 35 Abb. 7: Bereitstellungskosten und Dendromassepotenziale in Abhängigkeit des Entfernungsradius um den Standort Elsterwerda, Quellen: Leible et al (2003), KWF (2004) Die ermittelten Bereitstellungskosten von über 80 €/ t atro übersteigen den zurzeit für Altholz gezahlten Preis erheblich. Dieser wird, basierend auf Schätzungen nach Angaben von Leible et al (2003) und einer mündlichen Mitteilung des Kraftwerkbetreibers in Elsterwerda mit 25 €/t atro angenommen. Das Waldholz ist somit preislich in dieser besonderen Situation nicht konkurrenzfähig. Grund für die hohen Bereitstellungskosten ist vor allem die bisher mangelnde Effizienz der Prozesskette. Durch den räumlich verteilten Anfall geringer Mengen Dendromasse ist ein häufiges Umsetzen der Ernte- und Aufarbeitungsmaschinen (Hacker) notwendig. Bei unzureichender Bündelung von Maßnahmen, führt dies zu hohen unproduktiven Zeiten und hohen Umsetzkosten. Zudem führt eine ungenaue Abstimmung zwischen anfallender Dendromasse, Dimensionierung des Hackers und Bereitstellung entsprechender Transportfahrzeuge zu hohen Stillstandzeiten und damit zu hohen Personalund Maschinenkosten. In diesem Bereich bestehen große Optimierungspotenziale. 6. Bewertung des Versorgungskonzepts Mit insgesamt 8 Mio. €/a übersteigen die Kosten für die Bereitstellung von Waldhackschnitzeln deutliche das im Biomassekraftwerk zur Verfügung stehende Budget für die Rohstoffbeschaffung. Vor dem Hintergrund der sich verknappenden Altholzpotentiale und dem erwarteten Preisanstieg erscheint es dennoch sinnvoll, einen möglichen Beitrag von Waldholz zur Versorgung des Standorts abzuschätzen. Dazu werden die finanziellen Auswirkungen einer Beimischung von Waldhackschnitzeln zur bestehenden Versorgung mit Altholz untersucht. Die Beschaffungskosten ergeben sich aus der Summe der Bereitstellungskosten für Altholz bzw. Waldhackschnitzel. Über den jeweiligen prozentualen Anteil des Sortiments wird ausgehend von den benötigten 96.000 t atro Holz, der jeweilige absolute Versorgungsanteil in t atro pro Jahr errechnet. Durch die monetäre Bewertung des Altholzes mit 25 €/t atro und des Waldholzes entfernungsabhängig nach dem Einzugsradius nach Tabelle 5 und der Summierung beider Ergebnisse ergeben sich die Gesamtkosten wie in Abb. 8 dargestellt. 36 Abb. 8: Bereitstellungskosten in Abhängigkeit des Waldholzanteils an der Versorgung und Vergleich zum verfügbaren Jahresbudget für die Biomassebereitstellung Aus der Abb. wird deutlich, dass mit einem höheren Anteil Waldhackschnitzel die Gesamtkosten der Bereitstellung stark anwachsen. Bei einer Zumischung von 40 % Waldhackschnitzel verdoppeln sich die Bereitstellungskosten nahezu gegenüber der reinen Altholzvariante. Dies ist auf die ungleich höheren Bereitstellungskosten des Waldholzes gegenüber dem Altholzpreis zurückzuführen. Die höheren Transportkosten, bedingt durch das größere Einzugsgebiet bei der Waldholzbeschaffung, spielen eine eher untergeordnete Rolle. Die Transportentfernungen sind im regionalen Maßstab so gering, dass die hierfür anfallenden Kosten nur einen Bruchteil derer ausmachen, die für die Ernte und die Aufbereitung der Dendromasse anfallen. Unbetrachtet bleibt in dieser Abschätzung die Nutzungskonkurrenz durch andere Biomasseanlagen und private Abnehmer. Für eine genauere Ermittlung der verfügbaren Mengen, müssten diese berücksichtigt werden. In der Praxis würde sich die Versorgung höchstwahrscheinlich aus einem größeren Umkreis mit entsprechend höheren Transportkosten gestalten. Da zudem die Kosten der Bereitstellung Schwankungen unterliegen können und dieser Unsicherheit Rechnung getragen werden muss, ist ein 10%iger Anteil an Waldholz als realistisch einzustufen. Eine kontinuierliche Zumischung ist wichtig, um technische Probleme zu vermeiden. Unter den derzeitigen Bedingungen, ist die Umstellung dieser auf den Brennstoff Altholz ausgelegten Anlage auf Waldrestholz also nicht empfehlenswert. Es stellt sich daher die Frage, ob eine ökonomisch sinnvolle Nutzung von Dendromasse zum jetzigen Zeitpunkt überhaupt möglich ist, und welche Perspektiven sich zukünftig ergeben. Deshalb soll im Folgenden untersucht werden, ob ein anderer Anlagentyp am Standort Elsterwerda betriebswirtschaftlich erfolgreich mit Waldhackschnitzeln betrieben werden könnte. Es gibt eine Vielzahl unterschiedlicher TFH Wildau, Wissenschaftliche Beiträge 2006 Anlagen zur Wärme- und Strombereitstellung, die ausschließlich auf die Nutzung von Dendromasse ausgelegt sind. Aufgrund unterschiedlicher technischer Anforderungen im Vergleich zur Anlage in Elsterwerda, liegen die Investitionskosten und somit auch die jährliche Fixkostenbelastung auf einem niedrigeren Niveau. Im Folgenden wird für zwei exemplarische Anlagentypen kleiner und mittlerer Dimension (siehe Tabelle 4) untersucht, welche finanziellen Mittel maximal für die Beschaffung von Dendromasse aufgewendet könnten. Basisdaten Beispiel 1: 500 kW Kesselanlage Beispiel 2: 10 MW Biomasseanlage Volllaststunden [h/a] 2.000 2x 6.000 Erzeugte jährliche Wärmemenge [MWh/a] 1.000 34.200 Erzeugte jährliche Strommenge [MWh/a] - 9.000 Biomassebedarf [t atro/a] 330 11.500 t Jährliche Fixkosten [€/a] 36.000 2.070.000 Tab. 4: Technische Daten der Beispielanlagen, Quellen: FNR (2005), Leible et al (2003) Die maximal möglichen Bereitstellungskosten für diese beiden Beispielanlagen werden aufgrund ihrer Stromund Wärmeproduktion und der jeweiligen Fixkostenbelastung sowie in Abhängigkeit vom Ölpreis berechnet (siehe Abb. 9). Die ermittelten Werte werden zu den errechneten Bereitstellungskosten am Standort Elsterwerda in Relation gesetzt. ρ′ K max r h w e b k := := := := := := := maximale Bereitstellungskosten Dendromasse in €/t atro Heizölpreis in €/100l Heizwert von Heizöl Leicht := 1070 kWh/100l jährliche Wärmeproduktion in MWh/a jährlicher Erlös der Strombereitstellung in €/a jährlicher Dendromassebedarf in t atro/a jährliche Fixkosten in € Abb. 9: Formel zur Berechnung der maximal möglichen Bereitstellungskosten Dendromasse für ein Biomasseheiz(kraft)werk Der Ertrag der Heizanlage ist nach dem aktuellen Preis für Heizöl zu bewerten. Im April 2006 stieg dieser zum dritten Mal innerhalb des letzten Jahres auf über 65 €/100l an – Tendenz weiter steigend (Tecson, 2006). Bei diesem Heizölpreisniveau könnten Bereitstellungskosten für die Dendromasse von 75 €/t atro (Beispielanlage 1) bzw. 86 €/t atro (Beispielanlage 2) in Kauf genommen werden. Am Standort Elsterwerda, liegen nach den vorliegenden Berechnungen die Bereitstellungskosten im Umkreis von 5 km bei 76 €/t atro, innerhalb von 10 km bei 80 €/t atro. Beide Beispielanlagen könnten hier also betriebswirtschaftlich erfolgreich auf der Basis von Waldhackschnitzeln betrieben werden. Aus heutiger Sicht ist also das wirtschaftliche Betreiben von Biomasseheiz(kraft)werken mit Waldrestholz möglich. Vor dem Hintergrund, der erwarteten Preissteigerung bei TFH Wildau, Wissenschaftliche Beiträge 2006 den fossilen Energieträgern, wird sich die Situation in Zukunft noch stärker zugunsten der Dendromasse verschieben. Abb. 10 zeigt, dass bei steigendem Ölpreis auch wesentlich höhere Bereitstellungskosten für die Dendromasse in Kauf genommen werden könnten. Abb. 10: Maximal mögliche Bereitstellungskosten Dendromasse (K max) für die beiden Beispielanlagen in Abhängigkeit des Ölpreises (r ). 7. Fazit und Empfehlungen Unter den derzeitigen Bedingungen ist eine Versorgung des Biomassekraftwerks Elsterwerda ausschließlich mit Waldholz nicht möglich. Gründe sind die zurzeit hohe preisliche Differenz zwischen Wald- und Altholz sowie die technische Auslegung der Anlage auf Altholz. Vor dem Hintergrund der Entwicklung auf dem Altholzmarkt ist hingegen eine Zufeuerung von Waldholz in bestimmten Maßen zu empfehlen. Sie erhöht die Flexibilität auf dem Beschaffungsmarkt und eröffnet Perspektiven für eine zukünftige Umstellung der Anlage. Unter den derzeitigen Bedingungen wird eine Zumischung von etwa 10% empfohlen. Bei einer Senkung der Bereitstellungskosten für Waldrestholz oder bei steigenden Altholzpreisen sind höhere Anteile möglich. Das Ziel, mehr Strom und Wärme aus regionaler Biomasse bereitzustellen, ist jedoch grundsätzlich nicht in Frage zu stellen. Derzeit lohnt sich vor allem die Investition in kleinere Heiz(kraft)werke auf kommunaler Ebene, die technisch für die Nutzung von frischer Dendromasse ausgelegt sind. Anhand zweier Beispiele wurde gezeigt, dass solche Anlagen bereits heute kostendeckend mit einer ausschließlichen Versorgung durch Waldrestholz betrieben werden können. Bei anhaltend steigendem Ölpreis verschieben sich die Bedingungen weiter zugunsten der Dendromasse. Die Energiebereitstellung wird am effizientesten in kleinen unabhängigen Kreisläufen geregelt. Der Koordinationsaufwand ist hier relativ gering und kleinere Versorgungsnetzwerke können grundsätzlich auch flexibler auf Änderungen am Markt reagieren. Transportentfernungen bis zu 50 km haben geringen Einfluss auf die Gesamtkosten, gewinnen bei höheren Entfernungen aber an Bedeutung. Um langfristig in mittleren bis großen Kraftwerken mit dem Einsatz von Dendromasse zur Energiegewinnung planen zu können, muss die Effizienz der Bereitstellungs- 37 kette gesteigert werden. Es ist vor allem bei den Prozessen der Ernte und Aufbereitung anzusetzen. Dies ist zum einen durch technische Neuerungen möglich, zum anderen können organisatorische Maßnahmen Abhilfe schaffen. Eine reibungslose Kommunikation zwischen den Akteuren und eine effektive Koordination der Abläufe ist die Voraussetzung für den effizienten Einsatz von Personal und Maschinen. Vor allem die Prozesse der Aufbereitung und des Transportes bieten Optimierungspotenziale. Der Anfall von Dendromasse ist zudem in den meisten Fällen sehr kleinvolumig. Das größte ungenutzte Potential ist im Kleinprivatwald zu finden. Hier ist es essentiell, Maßnahmen regional zu koordinieren. Forstbetriebsgemeinschaften können dabei eine Schlüsselrolle spielen. Technische Innovationen und die regionale Bündelung und Koordinierung von Ressourcen bilden damit die Grundlage für den zukünftigen Erfolg der Energiegewinnung aus Dendromasse. Literatur Bilke, G. (2005): Forstliche Dendromassepotentiale im Landkreis Elbe-Elster, schriftliche Mitteilung, Landesforstanstalt Eberswalde BMU (2002): Verordnung über Anforderungen an die Verwertung und Beseitigung von Altholz, Bundesministerium für Umwelt, Naturschutz und Reaktorsicherheit, Berlin BMU (2005): Erneuerbare Energien in Zahlen – Nationale und internationale Entwicklung, Stand Dezember 2005, InternetUpdate, Bundesministerium für Umwelt, Naturschutz und Reaktorsicherheit, Berlin BMU (2006): Wirtschaftfaktor Umwelt – Innovation, Wachstum und Beschäftigung durch Umweltschutz, Bundesministerium für Umwelt, Naturschutz und Reaktorsicherheit, Berlin BMWI, BMU (2006): Energieversorgung für Deutschland – Statusbericht für den Energiegipfel am 3. April 2006, Berlin Chance und Ziele, Forschungszentrum Karlsruhe in der Helmholz-Gemeinschaft, Wissenschaftliche Berichte FZKA 6882, Forschungszentrum Karlruhe GmbH, Karlsruhe Tecson (2006): Entwicklung des Heizölpreises 2003-Tagesaktuell, http://tecson.de/pheizoel.htm, 12.05.2006 Weimar, H.; Mantau, U. (2005): Kapazitäten der Biomasse(heiz) kraftwerke und ihre Rohstoffversorgung in Deutschland in: BBE – Bundesverband BioEnergie e.V., 2005; HolzEnergie 2005 – Internationaler Fachkongress für Holzenergie, Tagungsband, Bonn Wittkopf, S.; Hömer, U.; Feller, S. (2003): Bereitstellungsverfahren für Waldhackschnitzel – Leistungen , Kosten , Rahmenbedingungen, LWF Wissen Nr. 38, Bayerische Landesanstalt für Wald und Forstwirtschaft Autoren Dipl.-Wirtsch.-Ing. (FH) Paul Fiedler Absolvent der Technischen Fachhochschule Wildau [email protected] Prof. Dr.-Ing. Herbert Sonntag Technische Fachhochschule Wildau Fachbereich Ingenieurswesen/Wirtschaftingenieurwesen – Verkehrslogistik Tel. +49 3375 508-511, -924 [email protected] Dipl.-Forstw. Mareike Schultze Technische Fachhochschule Wildau Fachbereich Ingenieurswesen/Wirtschaftingenieurwesen – Verkehrslogistik Tel. +49 3375 508-511 [email protected] Dieter, M.; Englert, H. (2001): Abschätzung des Rohholzpotentials für die energetische Nutzung in der Bundesrepublik Deutschland, Bundesforschungsanstalt für Forst- und Holzwirtschaft, Arbeitsbericht des Instituts für Ökonomie 2001/1, Universität Hamburg, Hamburg EEG (2004): Gesetz für den Vorrang Erneuerbarer Energien FNR (2005): Leitfaden Bioenergie – Planung, Betrieb und Wirtschaftlichkeit von Bioenergieanlagen, Fachagentur Nachwachsende Rohstoffe, Gülzow Kaltschmitt, M.; Hartmann, H. (Hrsg.) (2001): Energie aus Biomasse – Grundlagen, Techniken und Verfahren, Springer, Berlin u. a. KWF 2004: Holzernteverfahren – Vergleichende Erhebung und Beurteilung der Holzernteverfahren in der Bundesrepublik Deutschland, KWF Bericht Nr. 25, CD-ROM, Kuratorium für Wald- und Forstwirtschaft, Groß Umstadt LDSB (2003): „Bodennutzung der landwirtschaftlichen Betriebe im Land Brandenburg“, Statistische Berichte C I 1 – j / 03, Landesbetrieb für Datenverarbeitung und Statistik Brandenburg Leible, L., et al (2003): Energie aus biogenen Rest- und Abfallstoffen -bereitstellung und energetische Nutzung organischer Rest- und Abfallstoffe sowie Nebenprodukte als Einkommensalternative für Land- und Forstwirtschaft – Möglichkeiten, 38 TFH Wildau, Wissenschaftliche Beiträge 2006 Wissens- und Technologietransfer in europäischer Dimension: Service Center für internationalen Wissens- und Technologietransfer (SeWiTec) der Technischen Fachhochschule Wildau Sabine Gossner, Daniela Gorsler 1 Einleitung Die Technische Fachhochschule Wildau zeichnet sich als eine forschungsaktive Fachhochschule aus, die engen Kontakt mit Praxispartnern pflegt. Die Aktivitäten im Wissens- und Technologietransfer erstrecken sich dabei auf alle Ebenen: Vorhaben mit Praxispartnern und anderen Wissens- und Forschungseinrichtungen werden in regionaler, nationaler und internationaler Zusammenarbeit entwickelt. Im Bundesdurchschnitt hält die TFH Wildau eine Vorreiterrolle bezüglich der eingeworbenen Drittmittel pro Professur inne (Anmerkung 1). Ziel ist, an dieser Position festzuhalten bzw. diese noch weiter auszubauen. Gerade im Hinblick auf den Aufbau von internationalen Netzwerken und der Einwerbung von Mitteln aus Programmen der Europäischen Union ist Potenzial vorhanden, das in den nächsten Jahren verstärkt werden soll. Diese Entwicklung ist an die Tatsache gebunden, dass auch nationale Fördermittel immer mehr an die Richtlinien europäischer Unterstützungsprogramme angepasst werden und somit auch nationale Projekte verstärkt internationale Komponenten aufweisen sollen. So erhalten z. B. Vorhaben im Programm ProInno II mit Partnern aus anderen EU-Ländern 10 % mehr Förderzuschlag. Außerdem findet in den meisten regionalen als auch nationalen Programmen die EU-Definition für kleine und mittelständische Unternehmen Anwendung (Anmerkung 2). Bereits jetzt gewinnt die Durchführung von europäisch bzw. international orientierten Vorhaben an Relevanz, von der nicht nur die Hochschule profitiert. Auch für die wissenschaftliche Profilierung von Hochschulangehörigen ist die erfolgreiche Umsetzung europäischer Projekte ein Plus im Werdegang, das nicht zu unterschätzen ist. 2 SeWiTec – Eine Piloteinrichtung im Land Brandenburg Die Technische Fachhochschule hat diesen Trend früh erkannt und eine Unterstützungsinstitution eingerichtet, das den Hochschulangehörigen bei der Entwicklung und Durchführung europäischer und internationaler Vorhaben und Projekte zur Verfügung steht: Seit Mai 2004 übernimmt das Service Center für internationalen Wissens- und Technologietransfer (SeWiTec) diese Aufgabe. Es handelt sich dabei um eine Piloteinrichtung im Land Brandenburg, und auch in anderen Bundesländern sind vergleichbare Einrichtungen an Fachhochschulen eher selten. Im Gegensatz zu den Universitäten, die in der Regel ein EU-Forschungsreferat führen, verfügen die meisten Fachhochschulen in Deutschland TFH Wildau, Wissenschaftliche Beiträge 2006 nicht über eine gesonderte Einrichtung für die internationale Komponente des Wissens- und Technologietransfers. Äquivalente Einrichtungen sind z. B. zu finden an der Hochschule Mannheim oder an der Pädagogischen Hochschule Ludwigsburg. Diese Einrichtungen stehen allerdings länderübergreifend zur Verfügung und decken die Belange mehrerer Hochschulen ab (Anmerkung 3). Ansonsten übernehmen die Transfereinrichtungen oder Forschungsreferenten an Fachhochschulen auch diese spezielle Beratungskomponente. Allerdings ist die Entwicklung von europäischen oder internationalen Vorhaben und die Akquise von Fördermitteln aus der Europäischen Union eine „Wissenschaft für sich“, die besonderes Augenmerk verlangt. Die ohnehin schon überlasteten Beratungsstellen an Hochschulen können diese Mehrleistung nur schwer aufbringen. Eine Entlastung für die Hochschulangehörigen ist damit nicht unbedingt gewährleistet und die anfängliche Motivation, sich europäisch zu orientieren, verpufft durch den erheblichen Aufwand, den europäische Projektvorhaben und die Antragsstellung mit sich bringen. Genau hier setzt nun die Service-Einrichtung an der TFH Wildau an: Das SeWiTec bietet umfassende Unterstützungen in allen Bereichen der Antragstellung und Projektarbeit und ist speziell auf die Bedürfnisse europäischer Projektzusammenarbeit ausgerichtet. Entsprechend der Aufgabe der TFH Wildau, als Motor für die Region zu dienen, stehen die Leistungen der Service-Einrichtung auch Unternehmen aus der Region offen. 3 Aufgabenspektrum des SeWiTec Gemäß dem Motto „Von der Idee zum Projekt“ umfasst das Aufgabenspektrum des SeWiTec alle Aktivitäten der internationalen Projektentwicklung, -beantragung, und -umsetzung. Dies bezieht sich sowohl auf Vorhaben der angewandten Forschung und Entwicklung, auf den Aufbau von Studiengängen und berufsqualifizierenden Weiterbildungsangeboten sowie auf Maßnahmen der Hochschulentwicklung und des Hochschulmanagements. Ein zweiter Aufgabenbereich der Service-Einrichtung liegt im Aufbau bzw. in der Erweiterung transnationaler Vernetzungen zwischen der Technischen Fachhochschule Wildau und ausländischen Hochschulen, Forschungsinstitutionen und Unternehmen sowie die Integration der Hochschule in europäische und internationale Forschungsnetzwerke. Den dritten Tätigkeitsschwerpunkt des SeWiTec bildet die Information über Förderprogramme und die Öffentlichkeitsarbeit. 39 3.1 Beratung bei der Projektentwicklung und Antragstellung Die Beratungs- und Unterstützungsleistungen des SeWiTec bei der Entwicklung und Beantragung internationaler Projekte richtet sich nach der Rolle der Hochschule im Projekt – Koordinator, Konsortialpartner oder Auftragnehmer – und der Vorerfahrung der beteiligten Akteure. Das Leistungsspektrum reicht von der Erstberatung der Wissenschaftler und der Konkretisierung der Projektidee über die Fördermittelrecherche, den Kontaktaufbau zu Förderinstitutionen und die Anpassung des Projektdesigns an die inhaltlichen Prioritäten und Bewertungskriterien der Ausschreibungen bis hin zur zeitlichen Koordination der Antragstellung oder sogar der inhaltlichen und finanziellen Ausgestaltung des Antrags. Werden weitere Projektpartner benötigt, akquiriert das SeWiTec diese aus den breit gefächerten regionalen und internationalen Netzwerken der Hochschule. Da neben der Fachkompetenz die persönliche Komponente in transnationalen Projekten eine zentrale Rolle spielt, richtet das SeWiTec bei Bedarf Meetings zum Zusammenführen der Partner in Wildau aus oder bereist die Partnerinstitutionen im Ausland. Schließlich gewährleistet es eine fristgerechte und formal korrekte Einreichung der Anträge. Die Arbeit des SeWiTec richtet sich vorrangig an den Fachdisziplinen der Technischen Fachhochschule Wildau aus: Luftfahrttechnik, Logistik, Nano- und Materialtechnologie, Biosystemtechnik, IKT und E-Learning sowie Wirtschafts- und Regionalwissenschaften. Es unterstützt auch Projektansätze in anderen Themenfeldern, wenn dort die Expertise der Hochschullehrer gefordert ist und die Projekte zur Steigerung der internationalen Kompetenz der Hochschule beitragen können. 3.2 Unterstützung bei der Projektumsetzung Als das SeWiTec im Jahr 2004 seine Arbeit aufnahm, liefen an der Technischen Fachhochschule Wildau bereits mehrere EU-Projekte und internationale Aktivitäten. Für diese sowie inzwischen neu bewilligte Vorhaben bietet das SeWiTec eine umfassende Unterstützung beim administrativen, finanziellen und organisatorischen Projektmanagement. Konkret bedeutet dies die Mitwirkung am Berichtswesen, die Beratung in Vertragsfragen, die Vorbereitung von Kostenübersichten und von Auditprüfungen, die projektbezogene Öffentlichkeitsarbeit und Ergebnisverbreitung sowie die Organisation und Durchführung von Projekttreffen (siehe Abb. 1). Eine enge Zusammenarbeit mit dem jeweiligen Projektleiter und mit den beteiligten Institutionen innerhalb der Hochschule – z. B. die Hochschulleitung, das Sachgebiet Haushalt und das Akademische Auslandsamt – sichert die erfolgreiche Umsetzung der Projekte. Abb. 1: Partnermeeting im ODEON-Projekt 40 3.3 Ausbau der transnationalen Vernetzung Die Hochschulleitung der Technischen Fachhochschule Wildau hat die neuen Herausforderungen durch die Internationalisierung der Hochschullandschaft frühzeitig erkannt und arbeitet gemeinsam mit den einzelnen Hochschullehrern und dem SeWiTec intensiv am Aufbau und an der Festigung internationaler Netzwerke. Mittlerweile gehören Hochschulen, Unternehmen und öffentliche Einrichtungen in ganz Europa und in Drittstaaten wie der Ukraine zum Partnernetzwerk der Fachhochschule. Besonders intensiv wurden seit 2005 Kontakte zu neuen Partnern in Ungarn, Polen, Kroatien und Bulgarien aufgebaut. Diese mündeten in Projektanträge in den Programmen TEMPUS und INTERREG III B CADSES sowie Leonardo da Vinci II. Im letztgenannten Programm wurde ein Pilotprojekt zur Entwicklung eines E-Learning-Kurses für Logistiker bewilligt, in das sich die Technische Fachhochschule Wildau seit Oktober 2005 mit der Entwicklung von vier E-LearningModulen einbringt. Im Luftfahrtbereich wurde die europäische Vernetzung der Hochschule durch ihren Beitritt zum European Aeronautics Science Network vertieft (siehe http: //www.easn.net/). Auf einem Netzwerktreffen im April 2005 in Brüssel konnten neue Verbindungen zu Hochschulen in Großbritannien, Frankreich und den Niederlanden aufgebaut und Verbindungen zu Hochschulpartnern in Ungarn, Spanien und der Slowakischen Republik vertieft werden. Seit September 2005 wird die transnationale Vernetzung von Seiten des Landes Brandenburg zunehmend unterstützt. Ziel ist, die Position des Landes in der europäischen Forschungslandschaft zu stärken und die Beteiligung von Brandenburger Einrichtungen an europäisch geförderten Projekten zu erhöhen. Das SeWiTec beteiligt sich an diesem Prozess und ist auf einem Arbeitstreffen von Mitarbeitern aus Hochschul- und Forschungseinrichtungen in der Vertretung des Landes Brandenburg beim Bund sowie in Brüssel vertreten. Dadurch können für die Projektarbeit wichtige Verbindungen zu EU-Kommissionsbeamten aus Brandenburg aufgebaut und Kontakte zur Landesvertretung in Brüssel vertieft werden. 3.4 Informationsverbreitung und Öffentlichkeitsarbeit Die Information über Entwicklungen in der europäischen und nationalen Förderpolitik, über potenzielle Fördermöglichkeiten, aktuelle Antragsfristen und -bedingungen aber auch über die Aktivitäten und Arbeitsergebnisse des SeWiTec haben einen hohen Stellenwert in der Arbeit der Service-Einrichtung. Die Information und Öffentlichkeitsarbeit erfolgt über verschiedene Wege, die sich in den vergangenen zwei Jahren bewährt haben: – Informationsveranstaltungen zu aktuellen Programmaufrufen, zukünftigen Entwicklungen in der europäischen Förderpolitik sowie zu spezifischen Programmen wie dem 6. und 7. Forschungsrahmenprogramm der EU oder den Strukturfonds. – Homepage mit Kurzdarstellung der Dienstleistungen, Übersicht über die internationalen Projekte, Hochschulkooperationen und Netzwerke der Technischen Fach- TFH Wildau, Wissenschaftliche Beiträge 2006 hochschule Wildau, Informationen zu Veranstaltungen des SeWiTec und Überblick über laufende Förderprogramme (siehe http://www.tfh-wildau.de/sewitec). – Elektronischer Newsletter „SeWiTec AKTUELL“ mit Informationen über die laufende Arbeit der Einrichtung, internationale Aktivitäten der Hochschule, aktuelle Ausschreibungen und Hinweise für die internationale Projektarbeit. (siehe http://www.tfh-wildau.de/sewitec/ index_1621.htm). – Ein Flyer in deutscher und englischer Sprache, Pressemitteilungen und Fernsehberichte zu einzelnen Aktivitäten aber auch die Beteiligung an internationalen Messen wie „Innovationen, Technologien, Maschinen“ in Poznań stellen sicher, dass unterschiedliche Zielgruppen aus Wissenschaft und Wirtschaft adäquat über die Ziele und Aktivitäten des SeWiTec informiert werden. 4 Herausforderungen an den europäischen Technologietransfer Neben Forschung und Lehre zählt der transnationale Wissens- und Technologietransfer heute zu den größten Herausforderungen, denen Hochschulen gegenüberstehen. Dabei gilt es, Strukturen und Prozesse für eine dauerhafte Kooperation mit Partnern aus Wissenschaft, Wirtschaft und Verwaltung zu etablieren, um gemeinsam neue Produkte, Verfahren und Dienstleistungen zu entwickeln. Bei dieser win-win-Konstellation profitieren die Hochschulen von einer besseren Ausstattung und dem Transfer ihres Know-how, einem Imagegewinn und größerer Attraktivität gegenüber Studierenden und künftigen Mitarbeitern. Unternehmen können durch die Zusammenarbeit Fachwissen von Beschäftigten aktualisieren und deren Qualifizierung steigern sowie neue marktfähige Produkte generieren. Zahlreiche EU-Programme in Bildung, Forschung und einzelnen Fachpolitiken unterstützen den Technologietransfer zwischen Partnern in unterschiedlichen EU-Staaten und über die Grenzen der Europäischen Union hinaus. Die Förderkonditionen variieren zwar im Einzelnen, aber es lassen sich einige Grundprinzipien für die transnationale Zusammenarbeit ausmachen, die auch das SeWiTec in seiner Arbeit berücksichtigt: – Europäische Dimension der Partnerschaft: Formale Voraussetzung für die Förderung eines Projektes ist i.d.R., dass sich mindestens drei Partner aus drei EU-Mitgliedstaaten oder Assoziierten Staaten zusammenfinden. In der Realität zeigt sich jedoch, dass die Europäische Kommission Projekte mit erheblich größeren Partnerschaften bevorzugt. Daher ist ein stabiles, kompetentes und breit angelegtes Partnernetzwerk, wie es die Technische Fachhochschule Wildau pflegt, ein zentraler Erfolgsfaktor. – Komplementärfinanzierung: Die Kofinanzierung der Europäischen Kommission für Projekte ist als Ergänzungsfinanzierung gedacht und überschreitet selten Werte von 75 % der förderfähigen Gesamtkosten eines geplanten Projektes. Die Partner müssen daher einen gewissen Prozentsatz als Eigenanteil aufbringen, was gerade bei kleinen Unternehmen oder Partnern in TFH Wildau, Wissenschaftliche Beiträge 2006 Nicht-EU-Staaten zu erheblichen Belastungen führt. Das SeWiTec achtet hier auf eine ausgewogene Budgetierung und die Realisierbarkeit der Kofinanzierung. – Aufwand bei der Beantragung und Realisierung europäischer Projekte: Gegenüber nationalen Vorhaben sind EU-Projekte durch einen erhöhten administrativen und koordinatorischen Aufwand gekennzeichnet. Bereits die Recherche und Sichtung der Antragsunterlagen, der Umfang und die Sprachvariante des Antrags sowie die langen und mehrstufigen Auswahlverfahren stellen höchste Anforderungen an den Leiter und die Mitglieder eines europäischen Projektkonsortiums. Die gemeinsame Erarbeitung von hochwertigen Produkten und die Entwicklung von zufrieden stellenden und verwertbaren Ergebnissen sind ebenfalls eine Herausforderung. Hier steht das SeWiTec den Hochschullehrern, der Hochschulverwaltung sowie den Partnern der Technischen Fachhochschule Wildau in allen Fragen unterstützend zur Seite. In der transnationalen Zusammenarbeit kommen weitere Faktoren zum Tragen, die ein höheres Gewicht einnehmen als im nationalen Kontext. Eine starke transnationale Partnerschaft auf der Basis von gemeinsamen Projekterfahrungen und gegenseitigem Vertrauen ist eine zentrale Grundlage für erfolgreiche Projekte. Dies erfordert intensive und kontinuierliche Aktivitäten beim Aufbau und bei der Pflege eines Partnernetzwerkes und ein Verständnis für die politische, wirtschaftliche und institutionelle Situation in den Partnerländern. Durch Umstände wie ein verzögertes Zusammenfinden von Partnern aufgrund von sprachlichen, kulturellen und fachlichen Unterschieden, durch die Ungewissheit über die Eignung eines Partners für ein Projekt und die Heterogenität der Qualifikationen der beteiligten Personen wird der Wissens- und Technologietransfer erschwert und so manches Projekt gerät bereits in der Frühphase an seine Grenzen. Aufgabe des SeWiTec ist es, diese Unwägbarkeiten und Risiken zu minimieren und machbare Lösungen für transnationale Kooperationen zu entwickeln. 5 Bilanz Das SeWiTec besteht seit mittlerweile zwei Jahren. Das Profil der Tätigkeit hat sich dabei kontinuierlich weiterentwickelt und verändert. Nachdem die Infrastruktur an der TFH Wildau schnell etabliert war, konnte die ServiceEinrichtung die Arbeit aufnehmen. In der Anfangsphase stand die Information über europäische Fördermöglichkeiten, über EU-Aktionsprogramme und über die Umsetzung europäischer Projekte im Vordergrund. Es galt, die Hochschulangehörigen für europäische Vorhaben zu sensibilisieren und über die Anforderungen zur Antragstellung in EU-Programmen aufzuklären. Neben der Vorbereitung auf die Gestaltung europäisch orientierter Vorhaben lag 2004 der Schwerpunkt auf Erstberatungen. In diesen Beratungen wurden Projektideen im Hinblick auf europäische Fördermöglichkeiten geprüft und weiterentwickelt. Dabei wurden auch die internationalen Kontakte der jeweiligen Dozenten sondiert und Möglichkeiten für die europäische Partnersuche aufgezeigt. An die Erstberatungen schlossen 41 sich 2005 zahlreiche Folgeberatungen an, in denen die Projektvorhaben entsprechend weiterentwickelt und bis zur Antragstellung optimiert werden konnten. Die steigende Anzahl der Beratungen mit externen Partnern zeigt, dass die Leistungen von Unternehmen verstärkt nachgefragt wird. In erster Linie wurden dabei kleine und mittelständische Unternehmen vom SeWiTec beraten. Es versteht sich von selbst, dass die Zahl der eingereichten Anträge gegenüber der der bewilligten Anträge überwiegt. Gerade bei den EU-Programmen ist mit einer langen Evaluierungsphase zu rechnen. Wartezeiten von bis zu sechs Monaten sind eher die Regel als die Ausnahme. Die Früchte einer erfolgreichen Antragstellung können erst spät geerntet werden. Bisher sind seit Mai 2004 elf positive Bewilligungsbescheide für Vorhaben erteilt worden, die durch das SeWiTec betreut wurden. Insgesamt betreut die Service-Einrichtung derzeit 22 EU-Projekte bzw. Vorhaben, die mit Mitteln von der Europäischen Union finanziert wurden, und bei denen die TFH Wildau als Koordinator oder Partner eingebunden ist. 6 Fazit Abb. 2: Beratungen zur Projektentwicklung/Antragstellung des SeWiTec Mai 2004 bis April 2006. Die Anzahl der begleiteten Anträge nahm kontinuierlich zu. Seit Mai 2004 hat das SeWiTec über siebzig Anträge begleitet (Zahlen beziehen sich auf den Zeitraum 2004-2005). Entsprechend der Vielfalt der Projektideen wurden Anträge in verschiedenen Förderprogrammen eingereicht. Die beantragten Vorhaben umfassten reine Forschungsvorhaben im Bereich Nanotechnologien oder Life Sciences, Entwicklung von Weiterbildungsangeboten oder E-Learning-Angeboten als auch Projekte in der Hochschulentwicklung. Folgende Unterteilung lässt sich vornehmen: – Aktionsprogramme der Europäischen Kommission. Dazu zählen u.a. das Forschungsrahmenprogramm der Europäischen Union, die EU-Bildungsprogramme wie Sokrates/Erasmus, Leonardo da Vinci, Minerva, Tempus und die Gemeinschaftsinitiativen INTERREG oder EQUAL. – Strukturfondsmittel der Europäischen Union. Das Land Brandenburg erhält als Ziel-1-Gebiet zur Stärkung der Wettbewerbsfähigkeit als auch zum Infrastrukturausbau Fördermittel aus dem Europäischen Fonds für regionale Entwicklung (EFRE) und zur Schaffung von Arbeitsplätzen und zu Qualifizierung von Beschäftigten Fördermittel aus dem Europäischen Sozialfonds (ESF) (Anmerkung 4). - Nationale Förderprogramme der Bundesministerien, die teilweise mit internationalen Partnern umgesetzt werden können. Abb. 3: Antragstellung nach Förderprogramm. 42 Entsprechend der Zielvorgaben der Service-Einrichtung konnte bisher die internationale und europäische Projektaktivität der TFH Wildau erheblich gesteigert werden. Durch die Beratungs- und Unterstützungsleistung des SeWiTec wird die Bereitschaft der Hochschulangehörigen gestärkt, ihre Vorhaben international auszurichten und dafür europäische Gelder zu beantragen. Die Hemmschwelle, EU-Gelder zu akquirieren und sich durch den „Förderdschungel Brüssel“ zu kämpfen, wurde weitestgehend abgebaut. Information und individuelle Beratung durch das SeWiTec haben diese Entwicklung maßgeblich beeinflusst. Außerdem tragen positive Erfahrungsberichte über EU-Projekte oder bewilligte Vorhaben dazu bei, die Motivation für EU-Anträge innerhalb der Fachhochschule zu steigern. Gleichzeitig unterstützt das SeWiTec die europäische Vernetzung und internationale Ausrichtung der TFH Wildau und erleichtert auf diese Weise die Kontaktaufnahme mit europäischen und internationalen Partnern. Trotzdem kann nicht beschönigt werden, dass der Kampf um EU-Gelder hart ist, die Konkurrenz entsprechend groß. Die Anforderungen sind sehr hoch: Anträge mit gut aufgestellten Konsortien und überzeugenden, innovativen Projektvorhaben müssen qualitativ anspruchsvoll gestaltet sein, um das Gutachterverfahren positiv zu durchlaufen und die benötigte Punktzahl für eine Förderung zu erreichen. Auf diesen Prozess kann relativ wenig Einfluss genommen werden. Dennoch kann die Auswertung von Gutachterergebnissen von abgelehnten Anträgen hilfreich sein für eine weitere Antragsstellung. Das SeWiTec nimmt hier die entsprechende Optimierung von abgelehnten Anträgen vor. Die Ausgestaltung der EU-Förderpolitik ab 2007 steht im Fokus der zukünftigen Arbeit der Service-Einrichtung. Verschiedene Förderprogramme werden neu defi niert bzw. erhalten eine andere Ausrichtung. Dazu zählen u.a. das Forschungsrahmenprogramm der Europäischen Union sowie die EU-Bildungsprogramme, die beide im Mittelpunkt von Antragstellungen durch die TFH Wildau stehen. Aufgrund der langwierigen Verhandlungen über den Finanzhaushalt der Europäischen Union ist es wahrscheinlich, dass kein nahtloser Übergang zwischen der alten und neuen Förderperiode stattfindet und u. U. eine Förderlücke entstehen wird. Das SeWiTec beobachtet diesen Entwicklungsprozess intensiv, um früh genug TFH Wildau, Wissenschaftliche Beiträge 2006 förderrelevante Informationen an die Hochschulangehörigen weitergeben zu können. Die intensive Beratungs- und Informationstätigkeit des SeWiTec wird beständig fortgesetzt, um Projektvorhaben im Entwicklungsprozess zu begleiten und zur Antragstellung zu optimieren. Darüber hinaus wird die Zusammenarbeit mit regionalen Unternehmen weiter vorangetrieben. Insgesamt stärkt die Arbeit der Service-Einrichtung die Stellung der Technischen Fachhochschule Wildau als drittmittelaktive Hochschule und festigt durch Vernetzungsaktivitäten mit europäischen und internationalen Kooperationspartnern deren Position im europäischen Raum. Anmerkungen 1 Forschungslandkarte Fachhochschulen, Potenzialstudie, hrsg. vom Bundesministerium für Bildung und Forschung, Berlin 2004. 2 Empfehlung der EU-Kommission zur KMU-Definition 2003/ 361/EG in: Amtsblatt der Europäischen Union L 124 vom 25.02.2003, S. 36ff. 3 Fachhochschule Mannheim: http://www.koord.hs-mannheim.de/ EU-Forschungsreferat der Pädagogischen Hochschulen Baden-Württembergs: http://193.196.151.129/eu_forsch/ 4 Operationelles Programm Brandenburg, Förderperiode 2000 bis 2006, Entscheidung C (2000) 43000 vom 29.12.2000, Landesregierung Brandenburg. Autoren Sabine Gossner M.A. Technische Fachhochschule Wildau Service Center für internationalen Wissens- und Technologietransfer (SeWiTec) Tel. +49 3375 508-673 [email protected] Dipl.-Ing. Daniela Gorsler Technische Fachhochschule Wildau Branchentransferstelle Logistik (BTL) Tel. +49 3375 508-276 [email protected] TFH Wildau, Wissenschaftliche Beiträge 2006 43 Native Öle – Rohstoffquelle für Anwendungen in der Kunststoffindustrie Michael Herzog, Eckhart Kornejew 1 Einleitung Natürliche Öle haben in den vergangen Jahren, nicht nur wegen der ansteigenden Preise für Mineralöle, sondern vor allem unter dem Aspekt der Nachhaltigkeit als nachwachsende Rohstoffe zunehmendes Interesse gefunden [1]. Obwohl sie sich in ihrem chemischen Aufbau als Triglyceride grundlegend von den Kohlenwasserstoffen der Mineralöle unterscheiden, können native Öle mit anwendungsspezifisch modifizierten Eigenschaftsprofilen adäquaten Ersatz für mineralische Produkte in werkstofflichen Anwendungen bieten. So liegt der Anteil von Bioschmierstoffen am Gesamtverbrauch von Schmierstoffen und Hydraulikflüssigkeiten in Deutschland bei 3,4 Prozent [2]. Die Weltagrarmärkte für Ölsaaten zeigen eine Dominanz von Sojabohnen (220 Mio. t). Bereits 1998 wuchsen in den USA 40 % der Sojabohnen und der Baumwolle mit genetisch modifizierten Pflanzen [3]. In den daraus gewonnenen Pflanzenölen ist die über die Nukleinsäuren bestimmbare genetische Herkunft nicht mehr nachweisbar. In der Europäischen Union nimmt der Anbau von Raps (15 Mio. t) eine führende Stellung ein. Eine lebhafte Nachfrage kommt hier vor allem aus dem Nahrungsmittelund Energiebereich, die stoffliche Nutzung im Bereich der Kunststoffe spielt bislang eine eher untergeordnete Rolle. Im Non-Food-Bereich wird der größte Anteil heute in Deutschland und auch in den anderen Ländern der Europäischen Union für Kraftstoffe verwendet. Mit der EURichtlinie 2003/30/EG wird das Ziel verfolgt, bis zum Jahr 2010 den Anteil der Biokraftstoffe auf 5,75 % zu erhöhen [4]. Im Jahr 2005 wurden in Deutschland allein 1,7 Mio. t Biodiesel auf der Basis von Rapsöl erzeugt [5]. Weitere landwirtschaftliche Produkte mit hohem Potential als Rohstoffe für die Industrie sind beispielsweise Stärke, aber auch Fasern. Generell ist z. B. im Bereich der Fasern ein Trend zu Naturstoffen zu verzeichnen, der sich etwa in der Wiederentdeckung von Flachs und Hanf als heimische Naturfasern ausdrückt. Auch Polymere auf Basis natürlicher Rohstoffe finden immer wieder Anwendungen für Produkte aus Cellulose oder Stärke sowie Produkte auf tierischer Basis. Die natürlichen Polymere werden die künstlichen jedoch nicht verdrängen und schon gar nicht vollständig ersetzen können [6]. Produkte aus natürlichen Rohstoffen behaupten sich dann am Markt, wenn sie über gute Qualitäten verfügen, leicht herzustellen und damit preiswert sind. Gelingt es, den Kunden vom Mehrwert derartiger Materialien zu überzeugen, haben diese Produkte beträchtliches Potential am Markt, insbesondere wenn sie über besondere Eigenschaften verfügen. So tragen z. B. viele Verbraucher lieber natürliche Fasern wie Seide (tierische Basis) oder Baumwolle (pflanzliche Basis). 44 2 Anwendungen in der Kunststoffindustrie Die Nutzung nachwachsender Rohstoffe für technische Anwendungen ist häufig konfrontiert mit dem Problem schwankender Eigenschaften. So sind spezifische Parameter bei den zumeist aus dem landwirtschaftlichen Anbau stammenden Rohstoffen neben einer z. T. ausgeprägten Sortenabhängigkeit geprägt von Variabilitäten hinsichtlich der Standorte (Bodenverhältnisse inkl. Düngung), der Anbaukultur und ggf. des Jahrgangs. Mit zuweilen aufwändigen Aufbereitungsprozessen gelingt es jedoch, eine hinreichende Homogenität und Reproduzierbarkeit der Eigenschaften der Produkte zu erreichen und letztendlich eine gleichbleibende und verlässliche Produktqualität zu garantieren und somit aus einem natürlichen Ausgangsstoff ein technisches Produkt zu erzeugen. Zur Erzielung gewünschter neuer Eigenschaften können chemische Reaktionen an den reaktiven Zentren von nativen Ölen vorgenommen werden, deren Grundstruktur im folgenden dargestellt ist. Abb. 1: Chemische Grundstruktur eines nativen Öls als Glyzerinester der Fettsäuren R1, R2 und R3 Von besonderem Interesse sind neben Umsetzungen an den Esterbindungen (z. B. zu Methylestern) Reaktionen an den Doppelbindungen der ungesättigten Fettsäuren. Abb. 2: Chemische Struktur von Linolsäure Im Rahmen der Forschungs- und Entwicklungsarbeiten der InnoRegio FIRM [7] wurden zwei Projekte bearbeitet, die eine Nutzung nativer Öle für Anwendungen in der Kunststoffindustrie zum Ziel haben. In den folgenden Tabellen sind die Zusammensetzung und wesentliche chemische Eigenschaften der von uns verwendeten Öle zusammengefasst. TFH Wildau, Wissenschaftliche Beiträge 2006 Öl 16:0 18:0 18:1 18:2 18:3 12-OH- 22:1 18:1 16-24 14-22 46-56 50-70 10-36 1-14 0-1 Leinöl 4-6 2-4 Rapsöl (eruka- 1-7 1-3 säurearm) Rapsöl (eruka- 1-3 1-12 11-38 1-25 0-10 52-64 säurereich) Rizinusöl 1-6 1-8 1-9 3-5 0-1 80-95 Sojaöl 6-11 2-4 20-24 49-55 6-10 Sonnen5-8 3-6 20-27 60-68 0-1 blumenöl Name der Palmitin- Stearin- Öl- Linol- Linolen- Rizinol- ErukaFettsäure Tab. 1: Fettsäurespektrum n:m; Gehalt in % der Gesamtfettsäuren, Fettsäure: Cn-1H(2n-2m-1)COOH [n = Länge der Kohlenstoffkette; m = Anzahl der Doppelbindungen] Hierdurch ist die Anwendungsbreite eingeschränkt, z. B. erfordert die Herstellung von Waschrohstoffen Öle mit 12 und 14 Kohlenstoffatomen, wie sie nur bei Kokos- und Palmkernölen anzutreffen sind, die nicht aus den nördlichen Breiten kommen. Öl JZ ρ 20°C η 40°C g/cm³ mPas gl2/100g Leinöl (roh) 0,93 ±0,006 0,9150,918 0,9100,922 0,96 ±0,01 0,92 ±0,01 - Rapsöl (Vollrafinat) Rapsöl (roh) Rizinusöl (roh) Sojaöl (Vollrafinat) Sonnenblumenöl (roh) 40 M M g/mol Säuren g/mol 170-195 -21±5 860 274, 279 105-120 10±5 980 314 40 95-110 - 881 281 232 90±10 -14±4 923 295 33 130±10 -13±3 872 278 35 130±15 -15±5 887 283 25 Fp. °C bekannten Stickstoff-Verbindungen in der polymeren Kunststoffmatrix zu erreichen. Zunächst waren die Reaktionsbedingungen und Trennverfahren zur Herstellung derartiger Flammschutzmittel zu untersuchen. Anschließend wurden durch deren Einsatz flammfest gemachte Kunststoffe bezüglich ihres Brandverhaltens charakterisiert. Zur Quantifizierung der flammhemmenden Eigenschaften der erhaltenen Reaktionsprodukte in Kunststoffen wurden Basisrezepturen von Polyurethan-Hartschaumstoffen verwendet, wobei das Flammschutzmittel der A-Komponente (Polyol, Katalysator, Treibmittel usw.) des Polyurethansystems beigemischt und anschließend mit der B-Komponente (Poly-Isocyanat) zum Schaumstoff umgesetzt wird. Zur Beurteilung der Flammfestigkeit wird der Test nach ASTM 1692 herangezogen. Hiernach wird der Grenzsauerstoffkonzentrationsindex LOI (Limiting Oxygen Index) ermittelt. Der LOI bezeichnet die minimale SauerstoffKonzentration in einer Sauerstoff-Stickstoff-Mischung, bei der die Verbrennung eines Probenkörpers gerade noch unterhalten wird. Je höher der LOI ist, desto flammfester ist der getestete Kunststoff. Der LOI wird unter Gleichgewichtsbedingungen einer kerzenartigen Verbrennung in einer nach ASTM D 2863-77 bzw. DIN EN ISO 4589-2 genormten LOI-Kammer bestimmt. Tab. 2: Charakterisierung der verwendeten Öle anhand der wesentlichen in der Fettchemie verwendeten Parameter Hierbei stehen ρ für die Dichte, η für die Viskosität, JZ für Jodzahl (erfasst den Gehalt an Doppelbindungen), Fp. für den Erstarrungs- bzw. Schmelzpunkt und M für die mittlere Molmasse des Öls bzw. der Fettsäuren des Triglycerids. Raffinierte Öle sind leicht heller und weisen einen niedrigeren Wasser- und Schmutzgehalt (< 0,1 %) auf, in den physikalischen und chemischen Eigenschaften und in der Zusammensetzung der Fettsäuren sind sie aber nahezu identisch mit den gewöhnlich preisgünstigeren nativen Rohprodukten. 3 Einführung von Stickstoff zur Erhöhung der Flammfestigkeit Unsere Untersuchungen verfolgten das Ziel, neuartige preiswerte und umweltfreundliche Flammschutzmittel für Kunststoffe sowie ein Verfahren zu ihrer Herstellung zu entwickeln. Hierzu wurden native Öle mit hoch stickstoffhaltigen Feststoffen umgesetzt, um somit eine bessere Verteilung der für ihre flammhemmende Wirkung TFH Wildau, Wissenschaftliche Beiträge 2006 Abb. 3: Bestimmung der Flammfestigkeit mit der LOI-Apparatur Die Probenkörper der PUR-Hartschaumstoffproben haben Abmessungen von 12,5 x 12,5 x 150 mm. Der LOI wird generell als Durchschnitt aus drei verschiedenen Messungen bei drei unterschiedlichen Gesamtvolumenströmen der Gasmischung mit mehreren Probenkörpern bestimmt. Unter Berücksichtigung von Reproduzierbarkeit und Genauigkeit sind die angegebenen LOI-Werte mit einem Fehler von etwa ± 0,05 behaftet. Die folgende Tabelle zeigt den LOI für einen StandardPUR-Hartschaumstoff auf Basis Polyesterpolyol [8, 9] mit einer variierten Menge Flammschutzkomponente, deren Reaktionsansatz 66,7 % Melamin enthielt, in Abhängigkeit vom Melaminäquivalent im Polyol. 45 Melaminäquivalent 0 3 LOl 20,1 20,3 Bewertung an Luft bereitwillig brennbar 6 9 20,6 20,9 an Luft an Luft zögerlich zögerlich brennbar brennbar; später selbstverlöschend 12 15 21,3 21,8 an Luft schwer entflammbar; selbstverlöschend Tab. 3: Flammfestigkeit eines PUR-Hartschaumstoffs unter Einsatz Stickstoff-funktionalisierter nativer Öle Mit diesen Ergebnissen konnte gezeigt werden, dass mit dem von uns verfolgten Ansatz eine flammhemmende Wirkung für Polyurethan-Hartschaumstoffe erreicht werden kann und ein ggf. brandfördernder Effekt durch die Zugabe von Ölen mit deren Stickstoff-Funktionalisierung auf jeden Fall überkompensiert werden kann. 4 Mehrfach hydroxylierte Fettsäuren für die Polyurethanchemie Einen weiteren Untersuchungsgegenstand bildet die Entwicklung von mehrfach hydroxylierten Fettsäuren für Anwendungen als Polyol-Komponente [10] zur Herstellung harter Polyurethane. Eine hohe Hydroxylfunktionalität kann aus natürlichen Pflanzenölen über den Weg einer Epoxidierung an den Doppelbindungen und die damit verbundene Einführung von C-O-Bindungen an der Kohlenstoffkette erreicht werden [11]. Abb. 4: Chemische Struktur von epoxidierter Linolsäure In einem weiteren Schritt wurde von uns eine Hydrolyse vorgenommen und ein für die Umsetzung mit Isocyanaten zu Polyurethanen geeignetes Produkt erhalten. Abb. 5: Chemische Struktur von hydroxylierter Linolsäure Hierbei ist insbesondere auf den Nachweis der Reaktion an der Doppelbindungen und nicht an den Carboxyl- bzw. Estergruppen zu achten, was uns über IR-spektroskopische Untersuchungen gelang. Wesentliches Charakteristikum der auf diese Weise hergestellten Polyurethane bzw. PUR-Hartschaumstoffe ist ihre im Vergleich zum eingesetzten Ausgangsöl auffällige Geruchsfreiheit. Für zukünftige Arbeiten besteht eine weitere in diesem Themenfeld von uns verfolgte Idee darin, durch direkte elektrochemische Hydroxylierung an den Doppelbindungen Polyole aus nativen Ölen herzustellen. Damit wird die Entwicklung eines technisch realisierbaren Verfahrens mittels neuartiger, mit Nanaostrukturen beschichteten Elektroden angestrebt, die eine hohe Konzentration von Hydroxylradikalen in wässriger Lösung oder Dispersion erzeugen. 46 Literatur/Anmerkungen [1] P. Hövelmann: Nachwachsende Rohstoffe für die Chemie, S. 21 Landwirtschaftsverlag Münster, 2001 [2] Situationsbericht 2006, Trends und Fakten zur Landwirtschaft, Deutscher Bauernverband 2005 [3] L. Willmitzer: 6th Symposium on Renewable Resources, S. 29, Landwirtschaftsverlag Münster, 1999 [4] Richtlinie 2003/30/EG des Europäischen Parlaments und des Rates vom 8. Mai 2003 zur Förderung der Verwendung von Biokraftstoffen oder anderen erneuerbaren Kraftstoffen im Verkehrssektor [5] Bundesministerium für Umwelt, Naturschutz und Reaktorsicherheit: Entwicklung der Erneuerbaren Energien 2005, Aktueller Sachstand März 2006 [6] Fraunhofer-Institut für Angewandte Polymerforschung IAP, Jahresbericht 2005/2005 [7] M. Herzog, K. Erxleben: Wiss. Beitr. Techn. Fachhochschule Wildau 2005, S. 8 [8] R. Langenstraßen, S. Fulev, A. Apel, B. Gebert, D. Lehmann, G. Behrendt: Entwicklung der Grundlagen für eine Laboranlage zur kontinuierlichen Herstellung von PET-Recyclingpolyolen, Wiss. Beitr. Techn. Fachhochschule Wildau 2004, S. 34 [9] G. Behrendt, M. Pohl: Polyester-Polymerpolyole für Polyurethane und Verfahren zu ihrer Herstellung, DE 199 15 125 C2 (2001) [10] G. Adolf, U. Erkens: Bindemittel und Additive für hochwertige Polyurethanbeschichtungen, Cognis Deutschland GmbH, 2004 [11] Scientific Panel AFC: On a request from the Commission related to the use of Epoxidised soybean oil in food contact materials, The EFSA Journal (2004)64, 1-17 Autoren Dr. rer. nat. Michael Herzog Technische Fachhochschule Wildau Fachbereich Ingenieurwesen/Wirtschaftsingenieurwesen Geschäftsstelle InnoRegio FIRM Tel. + 49 3375 508-332 [email protected] Dipl.-Chem. Eckhart Kornejew Technische Fachhochschule Wildau Fachbereich Ingenieurwesen/Wirtschaftsingenieurwesen Tel. + 49 3375 508-384 [email protected] TFH Wildau, Wissenschaftliche Beiträge 2006 Präparation und Charakterisierung von biologisch aktiven Magnetit-Protein-Nanopartikeln Hans-Dieter Hunger, Katerina Vaskova 1. Einleitung Magnetische Nanopartikel besitzen Anwendungspotenzial in vielen biologischen und medizinischen Anwendungsgebieten. Superparamagnetische Magnetit-Nanopartikel werden klinisch verwendet als Kontrastmittel im Magnet-Resonanz-Imaging (MRI)und intensiv untersucht für Anwendungen wie Drug-Delivery-Systeme, Zell-Bewegungs- und Trenn-Systeme und Hyperthermie (1-5). Dabei sind Eisenoxid (Magnetit)-Nanopartikel besonders interessant, da sie größenabhängigen Superparamagnetismus besitzen, nicht toxisch sind und im Organismus metabolisiert werden (5, 6). Deshalb werden unterdessen Magnetit-Nanopartikel in vielen biomedizinischen und diagnostischen Anwendungen eingesetzt (7-9). Die Stabilität und Biokompatibilität der Magnetit-Nanopartikel sind von der Größe der Partikel und von der Oberflächenbeschichtung der Partikel in der Lösung abhängig (10). Die häufigste Methode zur Herstellung von superparamagnetischen Magnetit-Nanopartikeln ist die Kopräzipitation von Eisensalzen in der Gegenwart einer Base, meist Ammoniumhydroxid (11). Für biomedizinische Anwendungen sollte die Oberfläche der Magnetit-Partikel komplett mit einer Polymerschicht überzogen sein, um den Eisenoxidkern gegen die Blutproteine und Phagocytose-Rezeptoren abzuschirmen (12). Die üblichsten Beschichtungsmoleküle für biokompatible, auf Magnetit basierende Kolloide sind Derivate von Dextran und Polyethylenglycol (13, 15). In dieser Arbeit beschreiben wir eine neue Präparationsmethode von Magnetit-Protein-Partikeln durch direkte Kopräzipitation von Eisensalzen und Proteinen. Als Modellprotein wird Humanserumalbumin (HSA) verwendet, das als Hauptprotein des humanen Blutserums an der Oberfläche von Partikeln zur Verwendung in medizinischen Diagnostik- und Therapieverfahren sehr gute Voraussetzungen für die Biokompatibilität der MagnetitPartikel besitzt. Dabei wurde gefunden, dass die meisten der primären Präzipitationsprodukte zunächst biologisch inaktiv (z. B. nicht von HSA-spezifischen Antikörpern erkennbar) sind und erst durch weitere chemische Aktivierungsschritte biologisch aktiviert werden können. Das Verfahren der chemische Aktivierung und dessen Optimierung wird beschrieben und eine Modellvorstellung für diesen Aktivierungsschritt präsentiert. Magnetit-Nanopartikel-Kopplungsprodukte mit unterschiedlichen Biomolekülen (z. B. Antikörpern, Protein A) gehören zu den für eine Verwendung in humanmedizinischen Strategien favorisierten Transportvehikeln für bioaktive Moleküle. Deshalb wurden die von uns erhaltenen Magnetit-HSA-Komplexe in einem zweistufigen Glutaraldehyd Verfahren chemisch aktiviert und kovalent mit Protein A und Antikörpern (IgG) gekoppelt. TFH Wildau, Wissenschaftliche Beiträge 2006 Für die Bewertung der biologischen Aktivität der MagnetitProtein-Partikel wurde ein Festphasenassay unter Verwendung von Nitrocellulosemembranen als Trägermaterial und fluoreszenzmarkierten (FITC) immunologischen Nachweisreagenzien entwickelt und eingesetzt. Der Festphasenassay wurde mittels Photo-Imaging bzw. Laserscanner-ImagingTechnik ausgewertet und dokumentiert. 2. Methoden und Materialien 2.1 Herstellung der Magnetit-Protein-Partikel Die Präparation der Magnetit-HSA-Partikel erfolgte durch Kopräzipitation von Eisensalzen mit HSA. Dabei wurden 1,3 ml einer Eisenstammlösung (Fe(II)-Chlorid, Fe(III)Chlorid, äquimolar) und 2mg HSA (in 1 ml destilliertem Wasser) vermischt und mittels 0,5 ml Ammoniak präzipitiert. Nach sofortiger Zugabe von ca. 40 ml destilliertem Wasser und guter Vermischung (Vortex) wurden die magnetischen Komplexe mittel eines Magneten an der Röhrchenwand konzentriert und der Überstand dekantiert. Die Waschung wurde noch dreimal wiederholt und die Partikelpäparation in 4 Aliquots (1 ml) geteilt. Präzipitierte Magnetit-Partikel ohne HSA im Fällungsansatz wurden als Kontrolle parallel hergestellt. 2.2 Chemische Aktivierung der MagnetitProtein-Partikel Zur chemischen Aktivierung wurden Aliquots der Magnetit-HSA-Partikel mit unterschiedlichen organischen Säuren (z. B. Zitronensäure, Weinsäure und Oxalsäure) bei 20°C ca. 30 Sekunden inkubiert, danach viermal mit destilliertem Wasser gewaschen und in 1 ml Wasser resuspendiert. Die Inkubation erfolgte mittels unterschiedlicher Konzentrationen und Volumina der Säuren. Das Gesamtvolumen der magnetisch abgeschiedenen Magnetit-Protein-Partikel wurde vor und nach dem Säurebehandlungsschritt bestimmt. 2.3 Festphasenassay zur Bestimmung der biologischen Aktivität 2 µl der aliquotierten Magnetit-HSA-Partikel-Präparationen, einschließlich Verdünnungen, wurden auf Nitrocellulosestreifen aufgetüpfelt und angetrocknet. Auf den gleichen Streifen wurden Negativkontrollen (z. B. Magnetit-Partikel) und Positivkontrollen (z. B. HSA-Verdünnungen und fluoreszenzmarkierte Antikörper) getüpfelt. Nach einem Blockierungsschritt der Oberfläche des Trägermaterials mittels 0,1% (w/v) Gelantine in PBS wurden die Streifen mit einem FITC markierten anti-HSA-Antikörper 3 Stunden inkubiert, mit PBS viermal gewaschen und danach mittels Photoimager bzw. Laserscanner ausgewertet. Alle 47 Inkubations- und Waschschritte erfolgen unter leichter Bewegung der Streifen in einer Inkubationswanne auf einem Laborschüttler. Bei der Auswertung und Dokumentation der Nitrocellulosestreifen wurde zunächst eine Bestrahlung mittels visuellem Licht (vis.) und danach mittels UV-Licht (uv) zur Anregung der Fluoreszenz (FITC) vorgenommen. Mittels des (vis.)-Bildes ist eine Quantifizierung des Magnetits in den Präparationen möglich. Eine grüne Fluoreszenz der (uv)-Bilder zeigt die Bindung des Antikörpers (biologische Aktivität) quantitativ auswertbar an. 2.4 Glutaraldehydaktivierung der MagnetitHSA-Partikel Zur Kopplung weiterer Proteine an Magnetit-HSA-Partikel wurden mittels Oxalsäure aktivierte Magnetit-HSA-Partikel mit Glutaraldehyd aktiviert. Dazu wurden Aliquots der Partikel-Präparation mit 1 ml 2,5% (w/v) Glutaraldehyd vermischt, 1 Stunde bei Raumtemperatur leicht geschüttelt und anschließend dreimal mit destilliertem Wasser gewaschen. 2.5 Kopplung von Protein A und Aktivitätstest Die unter 2.4 aktivierten Magnetit-HSA-Partikel wurden in 200 µl destilliertem Wasser resuspendiert und mit 100 µg Protein A (25 µl) zunächst 2,5 Stunden bei Raumtemperatur und anschließend über Nacht bei 4°C leicht geschüttelt. Nach Waschung mit destilliertem Wasser kann der Aktivitätstest durchgeführt werden. Der Aktivitätstest erfolgt wie unter 2.3 beschrieben als Festphasenassay auf Nitrocellulosestreifen. Als Nachweissonde wird ein FITC-fluoreszenzmarkierter Antikörper (Kaninchen) verwendet. 2.6 Materialien Es wurden Chemikalien und Biochemikalien folgender Firmen verwendet: FeCl2x4H2O (Fluka), FeCl3x6H2O (Riedel-deHaen), Ammoniak (Riedel-deHaen), Oxalsäure, Weinsäure und Citronensäure (Fluka), PBS (phosphate buffered saline) (Sigma), Glutaraldehyd (Sigma), HSA (Sigma), Protein A (ICN), Anti-HSA FITC-markiert (ICN), IgG-FITC-markiert (anti-Huhn, Kaninchen) (Sigma), Nitrocellulosemembranen 0,45 µm (Bio-Rad), Gelantine (Bio-Rad) Abb. 1: Chemische Aktivierung von Magnetit-HSA-Partikeln von anti-HSA Antikörpern). Obwohl die Magnetit-HSAPartikel deutlich weniger Magnetit (vgl. Abbildung 1 (vis.)) enthalten, sind diese sehr gut mittels Magnet aus Lösungen abscheidbar. Abb. 2: Optimierung der chemischen Aktivierung für MagnetitHSA-Partikel Die chemische Aktivierung kann mittels unterschiedlicher organischer Säuren (z. B. Zitronensäure, Weinsäure und Oxalsäure) erreicht werden (vgl. Abbildung 2). Die beschriebenen organischen Säuren wurden durch ein Screening unter Verwendung des von uns entwickelten Festphasenassays aus einer hohen Zahl von Kandidatenverbindungen selektiert. Optimale Ergebnisse erhält man mit Oxalsäure. Die optimale Oxalsäurekonzentration beträgt 1,5 % (w/v). Es können Magnetit-HSA-Partikel mit hoher biologischer Aktivität und zur magnetischen Beweglichkeit ausreichend hohem Magnetitgehalt präpariert werden. 3. Ergebnisse und Diskussion 3.1 Herstellung von Magnetit-Protein-Partikeln und chemische Aktivierung Magnetit-Protein-Partikel können durch direkte Kopräzipitation von Proteinen aus Eisensalzlösungen hergestellt werden. Als Modellprotein wurde HSA verwendet. Die primären Fällungsprodukte (HSA/M) weisen zwar einen hohen Magnetitgehalt (vgl. Abbildung 1 (vis)) auf, sind aber wie Magnetit-Präparationen (M, Negativkontrolle) biologisch inaktiv, da keine fluoreszenzmarkierten Antikörper gebunden werden können (vgl. Abbildung 1 (uv)). Die HSA-Verdünnungsreihe und der fluoreszenzmarkierte Antikörper (Positivkontrollen) liefern deutliche Fluoreszenzsignale. Erst nach Aktivierung mit organischen Säuren (vgl. z. B. Oxalsäure, Abbildung 1) gelingt der Nachweis von biologischer Aktivität (Bindung 48 Abb. 3: Optimierung der Oxalsäurebehandlung Die Konzentration und das zur Aktivierung verwendete Volumen der Oxalsäure, bezogen auf definierte Partikelzahlen, spielen bei der Aktivierung ebenfalls eine Rolle TFH Wildau, Wissenschaftliche Beiträge 2006 (vgl. Abbildung 3). Durch Verwendung unterschiedlicher Säurekonzentrationen (von 0,1-1,5% (w/v)) kann man Magnetit-HSA-Partikel mit unterschiedlich hohem Magnetitgehalt erhalten. Bei dem Aktivierungsschritt sinkt das Volumen der Magnetit-HSA-Partikel durch Reduktion des Magnetitgehaltes beträchtlich. Reine Magnetit-Partikel werden unter diesen Reaktionsbedingungen vollständig aufgelöst. Abb. 5: Schema der Zweistufen-Glutaraldehyd-Aktivierung Abb. 6: Präparation und biologische Aktivität von Magnetit-HSAProtein A-Partikeln Abb. 4: Modell der chemischen Aktivierung Die Ergebnisse der Experimente führen zu einer Modellvorstellung für die chemische Aktivierung (Abbildung 4). Während der chemischen Aktivierung werden zunächst biologisch inaktive Magnetit-HSA-Partikel, in denen die Erkennungsepitope für die anti-HSA-Antikörper (FITC-fluoreszenzmarkiert) durch Magnetit an der Partikeloberfläche verdeckt sind, in biologisch aktive Partikel überführt. Die organischen Säuren beseitigen Magnetit und legen Erkennungsepitope des HSA an der Oberfläche der Partikel frei. Dabei wird das Volumen der Partikel deutlich reduziert. 3.2 Glutaraldehydaktivierung von Magnetit-HSAPartikeln und Kopplung von Proteinen Magnetit-HSA-Partikel sind durch die an der Oberfläche der Partikel liegenden Proteinregionen sehr gut geeignet für Strategien zur kovalenten Kopplung von Biomolekülen mittel unterschiedlicher Kopplungsreagenzien. In Abbildung 5 sind die Optimierungsergebnisse einer zweistufigen Aktivierungsmethode von Magnetit-HSA-Partikeln mittels Glutaraldehyd schematisch zusammengefasst. Das Verfahren ermöglicht die kovalente Kopplung von Immunglobulinen (IgG) und Protein A. Für die präparierten Magnetit-HSA-Protein A-Partikel ist der Aktivitätstest unter Verwendung des Festphasenassays in Abbildung 6 dargestellt. Zur Kopplung werden relativ hohe Protein- TFH Wildau, Wissenschaftliche Beiträge 2006 konzentrationen (100 µg pro 225 µl Ansatz) benötigt, die nicht vollständig gekoppelt werden. Die Abbildung 6 zeigt die Überstandsanalyse von 2 Präparationen. Die Partikelpräparationen zeigen hohe biologische Aktivität des über Glutaraldehyd gekoppelten Protein A (Bindung von FITC-markierten Antikörpern über den Fc-Teil an Protein A). Als Negativkontrolle werden Magnetitpartikel, als Positivkontrollen eine Protein A Verdünnung und MagnetitHSA-Protein A-Kontrollpartikel verwendet. Magnetit-HSAProtein A-Partikel wurden zur Größenbestimmung mittels Atomic Force Mikroskopie untersucht (vgl. Abbildung 7). Es konnte eine Größe von ca. 93 nm bestimmt werden. Die Abbildung zeigt ein 3D-Bild eines Magnetit-HSA-Protein A-Nanopartikels auf einer Siliciumoberfläche. Abb. 7: Atomic Force Microscopy (AFM) 49 3. Zusammenfassung Das neue Präparationsverfahren ermöglicht die Präparation von biologisch aktiven Magnetit-Protein-Partikeln. Dazu werden die Proteine direkt aus einem Gemisch von Fe(II)- und Fe(III)-Salzen unter Verwendung von Ammoniak als Fällungsmittel kopräzipitiert. Die entstehenden Präzipitate sind zunächst biologisch inaktiv und müssen mittels eines zusätzlichen chemischen Reaktionsschrittes aktiviert werden. Unter den unterschiedlichsten, mittels Festphasenassay geprüften, Aktivierungsstrategien zeigten sich organische Säuren (z. B. Zitronensäure, Weinsäure und Oxalsäure) als effektivste Aktivierungmittel. Die chemische Aktivierung hängt von den Aktivierungsbedingungen (z. B. Temperatur und Konzentration der organischen Säuren) unter denen die primären Präzipitationsprodukte behandelt werden ab. Zur Präparation von biologisch hochaktiven Magnetit-HSA-Partikeln wurde die Einwirkung von 1,5%-iger (w/v) Oxalsäure bei Zimmertemperatur als optimaler Aktivierungsschritt bestimmt. Während der Säurebehandlung vergrößert sich die Protein/Magnetit-Rate sehr stark. Wahrscheinlich wird dabei oberflächlich auf dem Magnetit-Protein-Komplex abgelagertes Magnetit durch die organischen Säuren gelöst und Proteinstrukturen freigesetzt (Nachweis von Antikörper-Erkennungsepitopen mittels Festphasenassay). Die Untersuchungen lassen ein Modell der chemischen Aktivierung (vgl. Abbildung 4) postulieren, dass eine beachtliche Volumenreduktion der primären Präzipitationsprodukte während des chemischen Aktivierungsschrittes zeigt. Nach diesem Schritt sind Proteinregionen an der Oberfläche der Partikel frei zugängig und werden dadurch nachweisbar (z. B. durch fluoreszenzmarkierte (FITC) Antikörper). Die biologische Aktivität der Magnetit-Protein-Komplexe wurde mittels eines neu entwickelten Festphasenassays unter Verwendung von Nitrocellulosemembranen als Trägermaterial und fluoreszenzmarkierten Antikörpern als Nachweisreagens bestimmt. Der Test ermöglicht die parallele Testung einer Vielzahl unterschiedlicher Proben, einschließlich Positiv- und Negativkontrollen, im Screeningverfahren. Der Test ist automatisierbar. Chemisch aktivierte Magnetit-HSA-Partikel sind favorisierte magnetische Partikel für die chemische Kopplung von unterschiedlichen Biomolekülen. Sie könnten als generell einsetzbare Vehikel zur Bindung und zum Transport von biologisch oder medizinisch interessanten Molekülen wie Protein A, Immunglobulinen (IgG), medizinisch interessanten Antikörpern und anderen Proteinen verwendet werden (vgl. Abbildung 4). Die chemische Kopplung von Biomolekülen an die präparierten Magnetit-HSA-Partikel gelingt z. B. mittels Glutaraldehyd. Magnetit-HSA-Protein A-Partikel, die durch direkte Präzipitation von Magnetit-HSA-Partikeln, chemische Aktivierung und ein zweistufiges Glutaraldehydverfahren zur kovalenten Kopplung von Protein A präpariert wurden, könnten als generell verwendbares Transportvehikel zum Transport von Protein A-bindungsfähigen Antikörpern in biologischen Systemen verwendet werden. Magnetit-HSA-Protein A-Nanopartikel mit hohen IgG-Bindungskapazitäten wurden präpariert und mittels Atomic Force Mikroskopie (AFM) charakterisiert. Sie besitzen eine Größe von ca. 93 nm. 50 Literatur [1] Y.J. Wang, S.M. Hussein, G.P. Krestin, Eur. Radiol. 11 (2001) 2319. [2] C. Alexiou, W. Arnold, R.J. Klein, et al., Cancer Res. 60 (2000) 6641. [3] A. Ito, K. Tanaka, T. Kobayashi, et al.,Cancer Sci. 94 (2003) 308. [4] M. Levin, N. Carlesso, R. Weissleder, et al., Nature Biotech. 18 (2000) 410. [5] A.E. Merbach, E. Toth (Eds.), The Chemistry of Contrast Agents in Medicinical Magnetic Resonance Imaging, Wiley Chichester, 2001. [6] R. Weissleder, D.D. Stark, B.L. Engelstad, et al.,Am. J. Roentgenol. 152 (1989) 167. [7] Q.A. Pankhurst, J. Conolly, et al., J. Phys. D 36 (2003) R167. [8] P. Tartaj, M.P. Morales, et al., J. Phys. D 36 (2003) R182. [9] C.C. Berry, A.S.G. Curtis, J. Phys. D 36 (2003) R198. [10] U. Häfeli, W. Schütt, J. Teller, M. Zborowski, Scientific and Clinical Applications of Magnetic Carriers, Plenum Press, Nerw York, 1997. [11] L. Babes, B. Denizot, G. Tanguy, et al., J. Colloid Interface Sci. 212 (1999) 474. [12] R. Weissleder, A. Bogdanov, et al., Adv. Drug Delivery Rev. 16 (1995) 321. [13] R. S. Molday, D. Mackenzie, J. Immunol. Methods 52 (1982) 353. [14] Y. Zhang, N. Kohler, M. Zhang, Biomaterials 23 (2002) 1553. [15] C. W. Jung, Magn. Reson. Imaging 12 (1995) 675. Danksagung Die Verfasser danken Herrn R. Ries (TFH Wildau, Physikalische Technik) für die Größenbestimmung der Partikel mittels AFM und Herrn M. Springer (TFH Wildau, Ingenieurwesen/Wirtschaftsingenieurwesen) für die graphische Gestaltung der Abbildungen. Autoren Dr. sc. nat. Hans-Dieter Hunger Technische Fachhochschule Wildau Fachbereich Ingenieurwesen/Wirtschaftsingenieurwesen Tel. +49 3375 508-459 [email protected] Dipl. Biochem. Katerina Vaskova University Ss. “Cyril and Methodius”, 1000 Skopje, Republic of Macedonia TFH Wildau, Wissenschaftliche Beiträge 2006 PUR-Kaltformweichschaumstoff – eine interessante Rohstoffquelle für neue Polyurethansynthesen Hagen Koch, Wolfgang Stuhr, Bernhard W. Naber Zusammenfassung Es wurde ein chemisches Recyclingverfahren für PUR entwickelt, welches durch Einsatz eines Extruders und in Tandemfahrweise betriebener Nachreaktionsbehälter kontinuierlich gestaltet wurde. In Nebenreaktionen entstandene primäre aromatische Amine werden in einer synchron zur Hauptreaktion verlaufenden Umsetzung in stickstoffhaltige Polyole umgewandelt. Die chemischen und anwendungstechnischen Eigenschaften der nach diesem Verfahren hergestellten Recyclatpolyole werden dargestellt. Diese Polyole sind zur Formulierung harter, halbharter und zähharter zelliger und nichtzelliger PUR geeignet. Die Betrachtung ökonomischer und ökologischer Gesichtspunkte schließt die Arbeit ab. 1. Einleitung Polyurethane (PUR) sind als erdölstämmige Produkte stark vom Preis für Erdöl abhängig. Dass Erdöl wegen der begrenzten Vorräte, der steigenden Aufwendungen für Förderung und Prospektion und der politischen Unwägbarkeiten in den Hauptförderländern jemals wieder zu „chemiefreundlichen“ Preisen zu erhalten ist, ist wohl nicht anzunehmen. Gleichzeitig sorgen die aktuelle Umweltgesetzgebung („TASi“) und die Diskussion zur Kohlendioxidproblematik („Treibhauseffekt“) für immer mehr Druck, Kunststoffströme, insbesondere Produktionsabfälle, einer sinnvollen Wiederverwertung zuzuführen. Für PUR gibt es seit langer Zeit tragfähige physikalische Verfahren, mittels derer solche Ströme einer ökonomisch und ökologisch sinnvollen Verwendung zugeführt werden können. Es sei hier an solche Verfahren wie Flockenverbund für Weichschaumstoffe, Plattenherstellung aus zerkleinerten Hartschaumstoffen und den Einsatz als Ölbinder erinnert. Es sei an dieser Stelle auf das Buch „Recycling von Polyurethan-Kunststoffen“ von Werner Raßhofer, Heidelberg: Hüthig, 1994, ISBN 3-929471-08-6, hingewiesen, das in einzigartiger Vollständigkeit in die verschiedenen Recyclingverfahren für PUR einführt. Die thermische Entsorgung von PUR-Abfällen in modernen Verbrennungsanlagen ist unkritisch. Es hat in der Vergangenheit umfangreiche Untersuchungen gegeben, PUR in Verbindung mit Hausmüll und hausmüllähnlichen Gewerbeabfällen zu verbrennen. Der hohe Heizwert dieser Kunststoffklasse ist für diese Technologie vorteilhaft, zumal sie auch für stark verschmutzte und vermischte PUR-haltige Abfallströme geeignet ist (z. B. Shredderleichtfraktion, Baustellenabfälle, post-consumer-Abfälle). TFH Wildau, Wissenschaftliche Beiträge 2006 Die besondere chemische Struktur der PUR, insbesondere der PUR auf Basis von Polyetherpolyolen, erlaubt jedoch den chemischen Abbau dieser Polymere zu neuen polyolischen Rohstoffen, die der Umsetzung mit Isocyanaten zu neuen PUR mit interessanten Eigenschaften zugänglich sind. Bisher haben sich derartige Verfahren nicht umfassend durchsetzen können. Das könnte sich angesichts der eingangs beschriebenen Situation am Erdöl- und Chemikalienmarkt ändern. Voraussetzung ist die Verfügbarkeit eines chemisch und technisch einfachen, robusten Verfahrens zur wirtschaftlichen Herstellung von definierten PUR-Rohstoffen. Die folgende Arbeit soll ein derartiges Verfahren vorstellen. Das Verfahren wurde zum Patent angemeldet. Für die nach diesem Verfahren hergestellten Recyclingpolyole, die daraus hergestellten PUR-Komponenten, PUR-Systeme und PUR wurde das Markenzeichen „POLYPURIT“ beim Deutschen Patent- und Markenamt angemeldet. 2. Voraussetzungen Wie für jedes sinnvolle Recyclingverfahren sind auch für das chemische Recycling von PUR einige wenige, jedoch unumgängliche Voraussetzungen zu erfüllen: – Es müssen gleichmäßige Stoffströme vorliegen. Diese Voraussetzung ist essentiell für eine kostenverträgliche Lagerwirtschaft. Sie wird von Produktionsabfällen meist erfüllt. – Es müssen hinreichend große Stoffströme vorliegen. Diese Voraussetzung schließt eine aufwendige Sammellogistik und Lagerwirtschaft aus und ist ausschlaggebend für die Wirtschaftlichkeit des Recyclingprozesses. Diese Voraussetzung wird von Produktionsabfällen meist erfüllt. – Es müssen saubere Stoffströme vorliegen. „Sauber” ist hier in Sinne von „frei von (physikalischen/ mechanischen) Verunreinigungen” zu verstehen. Diese Forderung wird fast nur von Produktionsabfällen erfüllt. – Es müssen reine Stoffströme vorliegen. „Rein” ist hier im Sinne von chemischer Einheitlichkeit zu verstehen. Diese Forderung wird praktisch nur von Produktionsabfällen erfüllt. Auf dem Gebiet der PUR-Weichschaumstoffe werden diese Voraussetzungen gewöhnlich nur von Abfallströmen aus der Herstellung von Automobilsitzpolstern erfüllt. Die hier beschriebenen Arbeiten wurden mit Produktionsabfällen eines deutschen Herstellers von Automobilsitzen durchgeführt. Der Weichschaumstoff war ein PolyetherPMDI-Schaumstoff (Kaltform-Weichschaumstoff) eines namhaften deutschen Systemhauses. 51 3. Möglichkeiten der Chemie Schon seit den 50er Jahren des vorigen Jahrhunderts sind vielfältige Versuche unternommen worden, aus PUR wieder (die damals sehr teuren) Rohstoffe zurückzugewinnen. Sinnvollerweise setzten alle diese Verfahren an den Reaktionsmöglichkeiten der Urethangruppe an. Die Urethangruppe ist chemisch ein Ester der Carbaminsäure. Damit sind praktisch alle Möglichkeiten, die diese Struktur an chemischen Umsetzungen bietet, nutzbar. Einige dieser Möglichkeiten sind: – Hydrolyse: Spaltung der Urethangruppe durch Wasser oder Wasserdampf in (Polyether-) Polyol und die den eingesetzten Isocyanaten entsprechenden aromatischen primären Amine. Die Hydrolyse hat nie technische Bedeutung erlangt. – Aminolyse: Spaltung der Urethangruppe durch primäre und/oder sekundäre aliphatische Amine. Die erhaltenen Produkte haben gegenüber Isocyanaten eine so hohe Reaktivität, dass diese praktisch nicht gesteuert werden kann. Problematisch ist auch die unkontrollierte und unkontrollierbare Bildung von Nebenprodukten. Die Aminolyse hat nie technische Bedeutung erlangt. – Polyolyse: Spaltung der Urethangruppe durch Umsetzung mit (Polyether-) Polyolen. Diese Methode ist nur sehr bedingt anwendbar, da die entstehenden Produkte schon bei sehr geringen PUR-Gehalten (~5 Ma.-%) sehr hohe Viscositäten zeigen. Das Verfahren hat keine verbreitete Anwendung gefunden. – Acidolyse: Spaltung der Urethangruppe durch (organische) Säuren und/oder Säureanhydride. Diese Methode wurde nie technisch realisiert wegen der Bildung wenig definierter Produktgemische. – Glycolyse: Spaltung der Urethangruppe durch Umsetzung (Umesterung) mit mehrwertigen, meist zweiwertigen, Alkoholen (Glycolen). Die Reaktion ist technisch einfach mit reproduzierbaren Ergebnissen zu führen. Durch Reaktion mit Wasser, welches unvermeidlich in den Glycolen und den eingesetzten PUR vorhanden ist, entstehen durch Nebenreaktionen (Hydrolyse) die den Isocyanaten entsprechenden primären aromatischen Amine. Die Glycolyse hat in Verbindung mit einer Methode zur Blockierung der aromatischen Amine technische Anwendung gefunden. 4. Warum Glycolyse? Die Glycolyse ist eine überschaubare Reaktion zur Spaltung der Urethangruppe. Sie ist nach der üblichen Nomenklatur der organischen Chemie eine Umesterung. Die Einsatzstoffe sind preiswert und nicht giftig (maximale Gefahreneinstufung „Xi“), die Reaktionsbedingungen sind nicht sehr scharf und der Gesamtprozess läuft unter Normaldruck in vertretbaren Zeiten ab. Alle bekannten Glycolyseanlagen arbeiten diskontinuierlich in Rührapparaten. Diskontinuierliche Prozesse haben den Nachteil, dass sie relativ lange Nebenzeiten (Füllen, Heizen, Kühlen) benötigen. So ist praktisch nicht mehr als ein Ansatz pro Schicht möglich. Dazu kommen die unvermeidlichen Qualitätsschwankungen von Ansatz zu 52 Ansatz. Rührapparate sind, einschließlich der Nebenaggregate, sehr voluminös. Voraussetzung für einen brauchbaren technischen Glycolyseprozess ist die Schaffung von Möglichkeiten zur Maskierung/Umsetzung der unvermeidlich entstehenden primären aromatischen Amine Toluylendiamin (TDA) und/oder Diphenylmethandiamin (MDA). Diese müssen zu ungiftigen, mit Isocyanat reaktiven Verbindungen umgewandelt werden, da primäre aromatische Amine als Krebserzeuger gelten. Ein Gehalt an diesen Verbindungen von > 0,1 Ma.-% führt dazu, daß die Recyclingpolyole als „krebserzeugend“ zu kennzeichnen sind. Das ist ein k.o.Kriterium. Solche Polyole sind nicht verkehrsfähig. Normale Glycolysate, hergestellt ohne Entaminierungsschritt, enthalten 2-5 Ma.-% Amine. Der von der TSA Stahl- und Anlagenbaugesellschaft mbH entwickelte Prozess enthält einen synchron zur Glycolyse ablaufenden Schritt, in dem der Gehalt an primären aromatischen Aminen sicher auf Gehalte von <0,1 Ma.-% gesenkt wird. Damit entfällt die Kennzeichnungspflicht, und die Produkte können mit den für den Umgang mit Chemikalien üblichen Vorsichtsmaßnahmen eingesetzt und behandelt werden. Weiterhin ist anzustreben, den Prozess kontinuierlich zu gestalten, um die Nachteile der diskontinuierlichen Prozessführung zu vermeiden. Der Prozess soll kompakt, kontinuierlich und robust sein. Damit scheiden Anlagen mit Rührapparaten als Hauptreaktoren aus. 5. Reaktorauswahl und Reaktionsführung Um ein kontinuierliches Verfahren zum chemischen Recycling von PUR-Weichschaumstoffen zu konzipieren, muss zuerst der Reaktortyp festgelegt werden. Als Reaktionsapparate für eine kontinuierliche Prozessführung kommen nur bestimmte Kneter oder Extruder in Frage. Bei genauerer Betrachtung erweisen sich verfügbare kontinuierlich arbeitende Kneter als ungeeignet, da die Einstellung definierter Verweilzeiten und damit reproduzierbarer Reaktionsbedingungen kaum möglich ist. Die Einhaltung dieser Parameter ist jedoch für den Erfolg des Prozesses ausschlaggebend. Sehr viel besser als Kneter scheinen Extruder geeignet zu sein. Diese Maschinen, eigentlich zum Einziehen, Schmelzen, Mischen und Formen von thermoplastischen Kunststoffen konstruiert, erwiesen sich nach konstruktiver Anpassung als hervorragend geeignet, um die Reaktion von PUR-Weichschaumstoffen mit Glycolen zu führen. Die im Extruder einstellbaren Reaktionsbedingungen hinsichtlich Druck, Durchmischung und Stoff- und Energieaustausch ermöglichen die Durchführung der Hauptreaktion in wenigen Minuten. Durch Nachschalten von gerührten Reaktionsapparaten ist die Stabilisierung des Recyclingpolyoles leicht möglich. Synchron zur Reaktion von PUR-Weichschaumstoff mit Glycolen ist die Reaktion zum Abfangen der primären aromatischen Amine durch deren Umsetzung mit Glycidethern leicht möglich. Das Reaktionsprodukt aus Amin und Entaminierungsmittel Glycidether ist ein stickstoffhaltiges Polyol. TFH Wildau, Wissenschaftliche Beiträge 2006 Die Nachschaltung eines Entgasungsbehälters kann sinnvoll sein, wenn das Recyclingpolyol zur Herstellung von zellfreien PUR verwendet werden soll. Bei diesem Schritt kann die Eigentemperatur des Polyoles genutzt werden. Der gesamte Prozess verläuft (außer im Extruder) ohne erhöhten Druck bei Temperaturen um 200 °C. Die gesamte Anlage ist geschlossen. Damit entfällt die Notwendigkeit des Einsatzes von Inertgas. Eine Einstufung der Anlage als explosionsgefährdeter Bereich ist nicht gegeben. Mit Ausnahme von physikalischen Verunreinigungen (z. B. Sand, fremde Kunststoffe, < 2 Ma.-%, bezogen auf Schaumstoff) und aus dem Nachreaktor abdestillierenden leichtflüchtigen Produkten (z. B. Wasser, Aktivatoramine aus dem Schaumstoff, ca. 1,0-1.5 Ma.-%) ist der gesamte kontinuierliche Glycolyseprozess praktisch abfallfrei. Es empfiehlt sich jedoch, dem Extrudereinlauf einen Metalldetektor/-abscheider vorzuschalten. Metallische Verunreinigungen haben in Extrudern fatale Wirkungen! Die chemischen Eigenschaften wurden wie folgt bestimmt: OH-Zahl: Aminzahl: Gehalt an MDA: Säurezahl 8. Eigenschaften von PUR aus Recyclingpolyolen Zur Abklärung der rezepturtechnischen Eigenschaften der Recyclingpolyole wurden Abmischungen mit einem Gehalt von 90 Ma.-% des entgasten Recyclingpolyoles hergestellt. Die Abmischungen enthielten keine physikalischen und/ oder chemischen Treibmittel. Die Umsetzung erfolgte mit Polymer-MDI Lupranat® M 20 S der BASF AG bei NCO-Index 90, 100 und 110. Erwartungsgemäß wurden zellfreie PUR mit folgenden Eigenschaften erhalten: 6. Möglichkeiten und Grenzen NCOIndex Der beschriebene kontinuierliche Glycolyseprozess von PUR-Kaltform-Weichschaumstoff ist optimiert. Im Verlauf der Entwicklungsarbeiten zeigte sich, dass der Prozess nach Anpassung grundsätzlich auch zum Recycling anderer PUR, z. B. von halbharten Integralschaumstoffen und harten Isolierschaumstoffen, geeignet ist. Anzupassen sind in diesen Fällen die Entaminierungsmittel und die Reaktionsbedingungen in Extruder und Nachreaktor. Nicht geeignet ist der Prozess zum Recycling von (Weich-) Schaumstoffen, die Polymerpolyole (grafted polyols) enthalten. Die aufgepfropfte thermoplastische Phase, oft SAN, schmilzt undefiniert und bildet nach Abkühlung unregelmäßige Teile, die zwar abfiltriert werden können, deren Entsorgung jedoch kostenaufwendig ist. Dieser Sachverhalt schränkt auch das Recycling von PUR-Blochweichschaumstoffen ein. Für die Aufarbeitung von PUR aus der Shredderleichtfraktion und PUR aus post-consumer-Fraktionen ist der beschriebene Glycolyseprozess ebenfalls nicht geeignet. Die die Anlage verlassenden Produkte sind teerartig schwarz, übelriechend, hochviscos und nicht reproduzierbar. 90 100 110 7. Eigenschaften der Recyclingpolyole Die die kontinuierliche Glycolyseanlage verlassenden Polyole sind mittelbraun gefärbt und haben einen geringen, charakteristischen Geruch. Die folgende Tabelle stellt einige technologisch relevante Stoffeigenschaften zusammen: Viscositäts-Temperaturverhalten 20°C 10.500 - 11.600 mPa·s 25°C 6.000 - 9.000 mPa·s 35°C 3.400 - 4.700 mPa·s 45°C 1.800 - 3.100 mPa·s 55°C 910 - 1.400 mPa·s Stockpunkt: +2 °C bis +7 °C Flammpunkt > 130 °C (nach Pensky-Martens) TFH Wildau, Wissenschaftliche Beiträge 2006 320 - 360 mg KOH/g (Phthalsäureanhydridmethode) 40 - 45 mg KOH/g (Perchlorsäuremethode) < 0,1 Ma.% (HPLC, Hochdruckflüssigchromatographie) < 0,1 mg KOH/g (Natronlauge) Härte Zugfestigkeit Bruchdehnung Shore A N/mm² % 92 94 95 19 - 22 24 - 30 28 - 31 15 - 19 10 - 16 8 - 10 E-Modul (0,050,25%) N/mm² 800 - 850 950 - 1.020 1.060 - 1.140 Die Ergebnisse entsprechen dem erwarteten Verlauf der physikalisch-mechanischen Eigenschaften in Abhängigkeit vom NCO-Index. Es ist darauf hinzuweisen, dass die Ergebnisse an keiner anwendungsorientierten PUR-Rezeptur gewonnen wurden. Die Ergebnisse liefern primär nur Aussagen zur Struktur des Polyoles und zu den Möglichkeiten der rezepturtechnischen Beeinflussung der damit herstellbaren PUR. Diese Daten lassen folgende Schlussfolgerungen zu: – Die Polyole sind für die Formulierung von Systemen zur Herstellung harter und halbharter PUR geeignet. Das gilt für zellige und nichtzellige PUR. – Die Rückführung in Weichschaumstoffsysteme ist nicht möglich. – Die aus den glycolysierten PUR-Weichschaumstoffen stammenden unveränderten Weichschaumpolyole im Recyclingpolyol wirken in Verbindung mit den Reaktionsprodukten der Entaminierung als interner Weichmacher/Schlagzähmodifier. Das Recyclingpolyol sollte besonders geeignet sein zur Formulierung harter, halbharter und zähharter PUR-Schaumstoffe, Integralschaumstoffe und Verguss- und Beschichtungsmassen. Aus der Literatur und früheren eigenen Arbeiten ist abzuleiten, dass insbesondere folgende Eigenschaften durch den Einsatz von Glycolysaten beeinflusst werden: – Durch den Gehalt an aromatischen Gruppen sollte der Wert für Wärmeleitfähigkeit sinken. – Durch den Gehalt an langkettigen Polyethern wird die Schlagzähigkeit verbessert. – Bei harten Schaumstoffen kann sich der Anteil an offenen Zellen erhöhen. – Recyclingpolyole wirken der Phasentrennung in Polyolkomponenten entgegen. – In einigen Fällen scheint sich die Hochtemperaturbeständigkeit zu verbessern. 53 9. Und die Ökonomie? Autoren Die in der Arbeit vorgestellten Ergebnisse gelten streng nur für Polyole aus der Technikumsanlage, die durch die TSA Stahl- und Anlagenbaugesellschaft mbH entwickelt und gebaut wurde. Diese Anlage liefert heute hinreichend große Polyolmengen zur anwendungstechnischen Ausprüfung dieser Produkte. Wirtschaftlichkeitsberechnungen zeigen, dass bereits Anlagen mit einer Kapazität von ca. 200 jato Sekundärpolyole zu Preisen unterhalb derer von frischen Hartschaumpolyolen liefern können. Werden Entsorgungskosten und die Kosten für Logistik gegengerechnet, verbessert sich das Bild nochmals. Derzeit laufen Arbeiten zur Schaffung einer Anlage zur Erzeugung industriell relevanter Mengen an Recyclingpolyol. Durch Glycolyse mit integrierter Entaminierung her gestellte Recyclingpolyole sind keine Konkurrenz für Frischpolyole, sondern sie ergänzen die verfügbare Polyolpalette sinnvoll. Hagen Koch, Wolfgang Stuhr, Bernhard W. Naber TSA Stahl- und Anlagenbaugesellschaft mbH Rudolf-Breitscheid-Str. 22 01983 Großräschen Tel. +49 3573-3185 [email protected] 10. Ökologie Das Verfahren ist bei Betrachtung unter ökologischen Gesichtspunkten hervorragend geeignet, die Umwelt von Abfallstoffen zu entlasten, indem diese einer anspruchsvollen Wiederverwendung zugeführt werden. Die guten anwendungstechnischen Eigenschaften der nach dem beschriebenen Verfahren hergestellten Polyole sorgen dafür, daß Frischpolyole vorteilhaft ersetzt und ergänzt und damit die knappen Ölresourcen geschont werden können. Die Glycolyse ist kein downcycling, sondern ein sich selbst tragender upcycling- Prozess mit hoher Wertschöpfung. Oft wird die Frage gestellt, ob und wie die unter Verwendung von Recyclingpolyolen hergestellten PUR recyelt werden können. Da diese PUR chemisch eben auch „nur“ PUR sind, stehen diesen Produkten die gleichen Wege des Recyclings offen wie PUR aus Frischpolyolen. Wieviele chemische Recyclingkreisläufe die PUR / die Polyole ohne merkliche Schädigung durchlaufen können, wurde nie untersucht. Durch oxidative Vorgänge, Vermischungen und andere (z. B. thermische) Schädigungen auf molekularer Ebene ist jedoch davon auszugehen, dass die Anzahl der Kreisläufe durchaus begrenzt ist. Durch geschickte Formulierung der sekundären PUR-Systeme ist die Lebensdauer aber weit hinauszuschieben. In keinem Falle werden die Möglichkeiten, die physikalische Recyclingprozesse für PUR bieten, durch den Einsatz von Recyclingpolyole enthaltende PUR eingeschränkt. 11. Danksagung Unser Dank gilt dem BMBF und dem InnoRegio-Programm, das die Arbeiten zur Entwicklung des kontinuierlichen Glycolyseverfahrens für PUR-Kaltform-Weichschaumstoffe großzügig förderte. Weiterhin gilt unser Dank der Technischen Fachhochschule Wildau, insbesondere in der Person von Herrn Prof. Dr. Gerhard Behrendt, für die zielführenden Diskussionen und die analytische Unterstützung. 54 TFH Wildau, Wissenschaftliche Beiträge 2006 Entwicklung einer Anlage zur kontinuierlichen Herstellung von PET-Recyclingpolyolen Rainer Langenstraßen, Stanislav Fulev, Andreas Apel, Bodo Gebert, Dieter Lehmann 1. Einleitung Diese Arbeit hat die Entwicklung einer Anlage zum Ziel, mit der aus festem Polyethylenterephthalat (PET), wie es als Produktionsabfall bei seiner Herstellung und Verarbeitung entsteht, durch Umesterungen in Gegenwart von Glykolen und/oder oligomeren Estern Aromatische Polyesterpolyole (APP) als Rohstoffe für Polyurethane kontinuierlich hergestellt werden können. Die Arbeit baut auf den bisherigen Entwicklungen zur diskontinuierlichen Herstellung von Recyclingpolyolen aus PET-Abfällen an der Technischen Fachhochschule Wildau auf [1][2][3][4][5]. Mit Hilfe dieses Verfahrens können Polyesterpolyole verschiedener Eigenschaften für unterschiedliche Einsatzgebiete, z. B. Polyurethan-Hartschaumstoffe, -Beschichtungen, -Vergussmassen etc., hergestellt werden, die nur durch Modifizierungen in der Menge der Ausgangsstoffe und der Verfahrensbedingungen an die Erfordernisse angepasst werden. Dieses Verfahren liefert im diskontinuierlichen Betrieb qualitativ hochwertige Polyesteralkohole in einem breiten Parameterbereich. Auf Grund des hohen Aromatenanteils besitzen sie einen inhärenten Flammschutz [1][2]. Über Grundlagenuntersuchungen zum Lösevorgang von PET in verschiedenen Lösungsmitteln unter thermischer und mechanischer Beanspruchung und zur Umesterung der PET-Lösung zu oligomeren Produkten unter diskontinuierlichen Laborbedingungen, die auf einer Miniplantanlage ausgeführt wurden, ist bereits berichtet worden [4][5][6]. Aufbauend auf diesen Ergebnissen soll eine kontinuierlich arbeitende Anlage konstruiert und gebaut werden, die zur Bestimmung der Verfahrensparameter der kontinuierlichen Glykolyse von PET dient. Die in dieser Arbeit ermittelten verfahrenstechnischen und konstruktiven Grundlagen stellen die Basis zur Maßstabsvergrößerung für die Konstruktion und den Bau größerer Anlagen, einer Technikums- und darauf aufbauend einer Pilotanlage, dar. Für ein kontinuierliches Verfahren zur Herstellung von Polyesterpolyolen aus PET gibt es weltweit kein Beispiel und auch keine geschützte Lösung, so dass mit dieser Arbeit wissenschaftliches und technisches Neuland betreten wird. Das rohstoffliche Recycling der PET-Abfälle ist bisher nur diskontinuierlich durchgeführt worden [7][8][9][10]. Das diskontinuierliche Verfahren hat jedoch eine Reihe von Nachteilen, die vor allem in der langen Lösephase für das PET im Glykolyse-Gemisch, in längeren Reaktionszeiten, in den schwankenden Parametern der Produkte sowie in der zu geringen Wirtschaftlichkeit begründet liegen [11]. Ein kontinuierliches Verfahren hätte demgegenüber die Vorteile einer konstanten Produktqualität und einer verbesserten Wirtschaftlichkeit [12]. Nach eigenen Kostenabschätzungen gewinnt ein kontinuierliches Ver- TFH Wildau, Wissenschaftliche Beiträge 2006 fahren bei einem Durchsatz von mehr als etwa 1000 t/a an Wirtschaftlichkeit gegenüber einer diskontinuierlichen Verfahrensweise, da dann die Vorteile des kontinuierlichen Verfahrens (geringere Personalkosten, gleichbleibende Produktqualität) die Nachteile (höhere Investitionskosten, höherer Energiebedarf) überwiegen. 2. Stand der Wissenschaft und Technik Eine Zusammenfassung zur Chemie der Herstellung von Polyethylenterephthalat einschließlich der Darstellung der nicht verwerteten Nebenprodukte und zur Glykolyse zu Polyesterpolyolen ist in der oben zitierten Arbeit [4] gegeben worden. Die systematischen Untersuchungen sowohl des Lösevorgangs von PET in unterschiedlichen Lösegemischen als auch der daran unmittelbar anschließenden Umesterungsreaktion zur Herstellung von Polyesterpolyolen [4] ergaben ein Spektrum von optimalen Lösebedingungen insbesondere unter Verwendung von Diethylenglykol, gegebenenfalls im Gemisch mit anderen Glykolen, und dem bei der PET-Herstellung als Nebenprodukt anfallenden Oligoesterkondensat (OEK). Aus den Ergebnissen konnte für ein optimales Lösegemisch eine Zusammensetzung von 8 bis 13 Gew.-% OEK in Diethylenglykol abgeleitet werden, das eine 3- bis 4-mal höhere Lösegeschwindigkeit für PET als reines Diethylenglykol (DEG) besitzt. Da die Lösegemische jedoch im Anschluss an den Lösevorgang als Glykolyse-Reagenzien dienen, ist die Entwicklung optimaler Löse- und Glykolysegemische unter Betrachtung sowohl der Löse- als auch der Glykolysephase einschließlich der Eigenschaften der erhaltenen APP vorzunehmen. Wesentlichstes Ergebnis der Untersuchungen zur Umesterungsreaktion war die Ermittlung von Glykolysemischungen, die überraschenderweise sehr viel kürzere Reaktionszeiten ermöglichen, als bisher bekannt war. Die Reaktionszeiten betragen nur 12 bis 40 Minuten anstelle der sonst erforderlichen 4 bis 5 Stunden. Dieses Ergebnis ist für den kontinuierlichen Prozess von herausragender Bedeutung. Ein wichtiger Kennwert der Polyole ist die Äquivalentkonzentration an Hydroxylgruppen (Hydroxylzahl, OH-Zahl, OHZ, Dimension mg KOH/g). Bei konstanter Funktionalität, d. h. der durchschnittlichen Anzahl Hydroxylgruppen je Molekül (bei den hier behandelten APP ist fn = 2) steht diese in direktem Zusammenhang zur mittleren Molmasse und damit zu den Verarbeitungseigenschaften der Polyole und den Eigenschaften der daraus hergestellten Produkte. Um Polyesterpolyole mit definierten OH-Zahlen herzustellen, die zur Verarbeitung zu bestimmten Polyurethanen geeignet sind, muss die Umesterungsreaktion vor 55 Erreichen des Reaktionsendes abgebrochen werden. Die Eignung der so erhaltenen Polyesterpolyole zur Herstellung von Polyurethan-Hartschaumstoffen wurde durch Formulierung zu A-Komponenten und deren Umsetzung mit dem Polyisocyanat Lupranat® M20A zu Hartschaumstoffen nachgewiesen. Insbesondere sind Polyol-Rezepturen entwickelt worden, die zu tieftemperaturstabilen PUR-Hartschaumstoffen (Dimensionsstabilität von -190 bis +190 °C) umgesetzt werden können. Das Verfahren der Glykolyse von PET sollte sich auf Grund der bisher untersuchten Prozessvariablen und der Erkenntnisse aus vorhergehenden Versuchen zur Umesterung im Labormaßstab in kontinuierlicher Betriebsweise ausführen lassen. Im Rahmen vorhergehender FuE-Aktivitäten zur Herstellung von Recyclatpolyolen durch Glykolyse/Aminolyse von Polyurethanen [13] (dort weitere Zitate) waren im Versuchstechnikum der List AG (Schweiz) Versuche mit einem kontinuierlich arbeitenden Mischkneter durchgeführt worden, die zu überraschend guten Ergebnissen und weiter verkürzten Reaktionszeiten bei Recycling-Verfahren führten. Da das Verfahren zur Herstellung von PET-Polyesterpolyolen trotz völlig unterschiedlicher chemischer Abläufe und Reaktionsgeschwindigkeiten sowie unterschiedlicher mechanischer Eigenschaften der Ausgangsstoffe ähnliche Verfahrensabläufe erfordert wie das Verfahren der Glykolyse/Aminolyse von Polyurethanen, war die Annahme gerechtfertigt, dass sich auf der Grundlage der bisherigen Erfahrungen und Verfahrensentwicklungen ein kontinuierliches Verfahren in einem dazu geeigneten Apparat durchführen lässt. Daher ist der für diese Untersuchungen an der Technischen Fachhochschule Wildau verwendete Mischkneter der Firma List AG (Bilder 1 und 2) auch für die Entwicklung im Rahmen der vorliegenden Arbeit als Basis für die Weiterentwicklung zu Reaktoren für das PolyesterpolyolVerfahren eingesetzt worden, bei dem die Reaktionszeiten stoffbedingt länger sind. Bild 1: Zweiwellen-Mischkneter (Grundgerät) Kontinuierlich arbeitende Knetreaktoren besitzen eine hervorragende Misch- und Knetwirkung für Mehrphasenreaktionen. Ihre Arbeitsweise ist dadurch charakterisiert, dass die Quervermischung des Reaktionsgutes von dessen axialem Transport weitgehend entkoppelt ist. Sie arbeiten umweltschonend und mit hoher Energieeffizienz und weisen eine präzise Produkttemperaturführung auf. Große freie Querschnitte garantieren eine effektive Abführung entstehender Gase und Dämpfe [14][15]. 56 Bild 2: ZweiwellenMischkneter (Innenansicht) Eine Patentrecherche zu kontinuierlich arbeitenden Reaktoren, die wie der an der Technischen Fachhochschule Wildau vorhandene Mischkneter nach dem Prinzip des Zweiwellenmischkneters aufgebaut sind, hat ergeben, dass derartige Geräte zwar im Prinzip bekannt sind, aber in aller Regel nicht für bestimmte Verfahren patentiert sind. Weiterhin sind wesentliche Merkmale, die für das zu untersuchende Glykolyse-Verfahren zur Herstellung von Polyesterpolyolen aus PET erforderlich sind, bei diesen Anlagen nicht vorhanden. In der Recherche wurden Mischer, Mischkneter bzw. Reaktoren zur Durchführung von mechanischen, thermischen und/oder chemischen Prozessen mit flüssigen, hochviskosen oder rieselfähigen festen Stoffen ermittelt. Mit einer Ausnahme ist kein Bezug zu einem konkreten Stoffsystem genannt. Diese Geräte besitzen jeweils mehrere der folgenden Merkmale: – zylindrisches oder (angenähert) doppelzylindrisches Gehäuse, – (angenähert) waagerechte Anordnung, – eine Welle oder (mindestens) zwei achsparallele Wellen, – Wellen mit Rühr-/Knetelementen unterschiedlicher Gestaltung, – Anordnung der Rühr-/Knetelemente mit Versatz, – Rührwellen mit Schnecken, – Gegenelemente an der Innenwand, – die Anordnung der Rührelemente und Gegenelemente sorgt für eine Reinigung der Innenwand, der Rührelemente und der Gegenelemente, – die Anordnung der Rührelemente und Gegenelemente bewirkt eine axiale Förderung des Produktes, – durch die Rührelemente und Gegenelemente werden Knetspalten gebildet, die eine Knetung und Scherung des Produktes bewirken, – Gehäuse beheizbar und/oder kühlbar, – Wellen und/oder Rührelemente beheizbar und/oder kühlbar, – absatzweise oder kontinuierliche Arbeitsweise ist möglich, – in einem Fall ist ein Stator-Rotor-System mit Durchbrüchen genannt, durch die das Produkt periodisch durchtreten kann, wodurch es homogenisiert wird. Die hier zu entwickelnde Anlage stellt entgegen den ermittelten technischen Lösungen eine speziell für die Durchführung der Glykolyse von Polyester-Reststoffen zur kontinuierlichen Herstellung von Polyesterpolyolen entwickeltes Gesamtsystem dar, das mit speziellen Merkmalen ausgestattet werden musste [16]. TFH Wildau, Wissenschaftliche Beiträge 2006 3. Ergebnisse 3.1. Modellierung Die mathematische Modellierung der Löse- und Umesterungsschritte mit allen Nebeneffekten und -reaktionen ist die wesentliche Voraussetzung für die Konstruktion des Reaktors und die Simulation des darin ablaufenden Verfahrens. Die umfassende Kenntnis aller Prozessvariablen und deren Einfluss auf das Reaktionsgeschehen einschließlich der Temperaturverhältnisse und der Verteilungen im Reaktor ist die Voraussetzung für die Konstruktion und den Bau eines kontinuierlichen Reaktors, die kontinuierliche Durchführung des Verfahrens, eine weitgehende computergestützte Regelung und einen hohen Automatisierungsgrad des Gesamtverfahrens. Dazu sind folgende Teilaufgaben definiert worden: – Entwicklung des Reaktorraumes der Miniplantanlage als Basis zur Entwicklung des kinetischen Reaktionsmodells, – Entwicklung eines speziellen Rechenprogramms auf der Basis vorhandener Software zur Berechnung des Modells und – weitergehende Verfeinerung des Modells zum Zweck der Beschreibung der verfahrenstechnischen Prozesse in der Miniplantanlage als Grundlage für den kontinuierlichen Reaktor. Als Ergebnis dieses Komplexes wurde ausgehend von belastbaren Daten für das Verfahren zum Löseverhalten, zu den Reaktionsvariablen, der Zusammensetzung der Polyesterpolyole, der Reaktorgeometrie und den verfahrenstechnischen Variablen ein Modell für die Durchführung unter stationären sowie quasi-kontinuierlichen Bedingungen als Basis für die spätere Verfahrensdurchführung im kontinuierlichen Reaktor erwartet. In der Literatur wurden mathematische Modellierungen der Depolymerisation von Nylon sowie des hydrolytischen Abbaus von PET ermittelt [17][18]. Die Methoden sind jedoch auf den vorliegenden Fall nicht anwendbar. Da die chemische Reaktion mit ihren Abhängigkeiten von Temperatur, Druck, Mischungsvorgängen, Verweilzeiten usw. als wichtigste Komponente des Systems anzusehen ist, wurde die mathematische Modellierung zunächst auf den diskontinuierlichen Reaktionsablauf der Glykolyse beschränkt und mit einer Reihe von vereinfachenden Annahmen begonnen: – homogene ortsunabhängige Reaktion – Ausklammerung thermischer, mechanischer und katalytischer Einflüsse – keine Berücksichtigung von Nebenreaktionen – reines DEG als Glykolysereagens Dazu wurde das Prinzip einer kinetischen Modellierung entwickelt und auf die Glykolyse von PET angewendet. Dabei wurde folgende Umesterungsreaktion betrachtet: PET + DEG Æ Zwischenprodukte + EG Æ Umesterungsprodukte + EG mit EG = Ethylenglykol Bei dieser Reaktion werden die Kettenlängen von 75 bis 300 Einheiten beim PET auf < 10 Einheiten bei den Produkten abgebaut. Zwei Modelle wurden entwickelt: TFH Wildau, Wissenschaftliche Beiträge 2006 a) das vollständige Modell und b) das Klassenmodell. Die Simulation nach a) bezieht alle Teilreaktionen der Umsetzung ein, indem sie alle vorkommenden Molekülkettenlängen einzeln betrachtet, während die Simulation nach b) nur Klassen von Reaktionen unterscheidet, indem jeweils 10 Kettenlängen des Ausgangsstoffes PET bzw. der Zwischenprodukte zusammengefasst sind. Dadurch sinkt die Zahl der Unbekannten auf ein beherrschbares Maß, und die Behandlung der gesamten PET-Umsetzungen wird möglich (s. Bilder 3 und 4). Bild 3: Schema der Hauptreaktion als vollständiges Modell Bild 4: Schema für ein Klassenmodell Das vollständige Modell wurde anschließend dem Klassenmodell gegenübergestellt. In diesem theoretischen Vergleich konnte das Klassenmodell dadurch bestätigt werden, dass hinreichend identische, plausible Kurvenverläufe für die Konzentrationen der Zwischen- und Endprodukte erhalten wurden. Die nachstehende Reaktionsgleichung drückt die PET-Degradation vereinfacht aus: PET + DEG ' ODET + EG(↑) mit ODET = „Oligodiethylenterephthalat“ (Oligoester) Die Reaktion umfasst folgende Prozesse: – Kettenverkürzung: PETi, mit i = 75 ... 350, geht über in ODETj, mit j = 1 ... 10 (i bzw. j: Anzahl der Monomereinheiten im Molekül). – Substitution: EG wird in den Ketten durch DEG ersetzt. – Komplexe Reaktionsdynamik: Neben endständiger Kettenverkürzung findet auch Kettenzerfall und Kettenwachstum statt. Der theoretische Vergleich des Klassenmodells mit dem vollständigen Modell, zunächst am Beispiel sehr kleiner Polyesterketten, hat folgendes ergeben (s. Bild 5): 57 beträgt. Das entsprechende Verhältnis in der Reaktionsmischung des vorliegenden Experiments mit OEK beträgt dagegen etwa cOH(DEG) : cOH(OEK) = 6 : 1. Bild 5: Darstellung eines Klassenmodells: Reaktionsverlauf von PET und ODET – Im Falle der Umesterung von PET1, PET2 und PET3 ist es noch praktikabel, alle Substitutionsreaktionen zu behandeln. Daraus resultiert ein vollständiges Modell, welches man dem Klassenmodell gegenüberstellen kann. In diesem theoretischen Vergleich konnte das Klassenmodell bestätigt werden. – Klassenvariablen sind folglich legitime Mittel der kinetischen Beschreibung. Die Aufgabe bestand darin, das Klassenmodell dem vollständigen Problem der Herstellung von PET-Recyclingpolyolen anzupassen. Vor einer Erweiterung des Klassenmodells auf das gesamte reale Reaktionssystem ist ein erster experimenteller Nachweis der Übereinstimmung des Modells mit dem realen Reaktionsverlauf versucht worden, um den empirischen Beleg zur hohen Güte der Simulation komplexer chemischer Abbauprozesse in Klassen zu erbringen. Mit der experimentellen Verifikation erschienen folgende Ziele realistisch: Prognose der Produktzusammensetzung im Prozess des chemischen Recyclings, Optimierung von Rezepturen und kontinuierlichen Verfahrensabläufen, Anwendung des Modells auf weitere Degradationsverfahren. Zur Vereinfachung des komplexen Reaktionssystems wurde Oligoesterkondensat (als Gemisch von wenigen niedermolekularen Oligoestern) mit Diethylenglykol umgesetzt, und zwar einmal unter Rückfluss und einmal unter Abdestillieren des entstehenden Ethylenglykols. Beide Versuche haben ergeben, dass in diesem Fall keine Umsetzung der höhermolekularen Bestandteile durch Glykolyse zu niedermolekulareren Produkten stattfindet, sondern im Gegenteil der Anteil der höhermolekularen Oligoester zunimmt. Die Esterkondensation überwiegt hier gegenüber der Spaltung. Somit lässt sich dieses Experiment nicht als vereinfachte PET-Glykolyse auffassen, und es ist nicht aussagefähig zur Bestätigung des Klassenmodells. Als mögliche Erklärung kann angenommen wer den, dass in einer Glykolysereaktion, die von PET ausgeht, das Konzentrationsverhältnis von OH-Gruppen im DEG (cOH(DEG)) zu OH-Gruppen im Polyester (cOH(PET)) am Beginn der Reaktion etwa cOH(DEG) : cOH(PET) = 375 : 1 58 Daher konkurrieren die OH-Gruppen des DEG und der im OEK enthaltenen unterschiedlichen Oligoester im vorliegenden Experiment viel stärker miteinander um die Umesterungsreaktion an den Estergruppen, als es bei Glykolyse des Polyesters der Fall ist, mit der Folge, dass die Kettenverkürzung durch DEG nicht mehr die vorherrschende Reaktion ist, sondern von Kettenverlängerungs-, Veresterungs- und Umbaureaktionen der Oligoester untereinander überlagert wird. Eine Weiterführung der Untersuchungen zur Modellierung sollte über drei Stufen von Versuchen führen: – Experimente zur Bestimmung der Geschwindigkeitskonstanten und der Reaktionsordnung ohne Berücksichtigung der Abdestillation von Ethylenglykol. Ergebnis dieses Experimentes sollten die gemessenen Konzentrationen aller beteiligten Stoffe in ihrem zeitlichen Verlauf sein. – Experimente zur optimalen Einstellung der Korrekturparameter. Unter unverändert gehaltenen Bedingungen, jedoch unter Berücksichtigung der Abdestillation von EG, sollte eine Folge von Konzentrationswerten erhalten werden, um einen Ansatz zu entwickeln, in dem die Destillation realistisch simuliert wird. Danach sollte das Klassenmodell durch Nutzung des fixierten Destillationsterms angepasst und auf dieser Grundlage die Korrekturparameter optimiert werden. – Experimente zur Bewertung des Klassenmodells unter Variation des Temperaturverlaufs und Veränderungen in der stofflichen Zusammensetzung. Das Klassenmodell erweist sich dann als erfolgreich, wenn die optimierten Korrekturparameter auch auf diese Fälle anwendbar bleiben. In der Erwartung, dass sich auf dieser Grundlage Formulierungen und Verfahrensbedingungen optimieren und die Zusammensetzung der Produkte nachvollziehen lassen, wäre bei erfolgreichem Verlauf dieser Experimente die vollständige Reaktion mittels des Klassenmodells beschrieben worden, so dass die Verfahrenssteuerung mit Hilfe dieses Modells ermöglicht oder mindestens unterstützt worden wäre. Die hier zusammengefasste Modellierung ist einschließlich aller mathematischen Ableitungen und Schlussfolgerungen komplett in einer internen Studie niedergelegt [19]. Die bis hierher erhaltenen Ergebnisse werden als ein vielversprechender Ansatz zur Beschreibung jeder Art chemischer Abbauprozesse angesehen, die es wert sind, bei sich bietender Gelegenheit fortgesetzt zu werden, da erwartet werden kann, dass das Modell die Zusammensetzung der Produkte liefert, Rezepturen bzw. Verfahrensbedingungen optimieren kann, die Verfahrenssteuerung übernehmen kann und auf andere Depolymerisationsreaktionen übertragbar ist und dass sich Möglichkeiten der Theoriebildung eröffnen. TFH Wildau, Wissenschaftliche Beiträge 2006 3.2. Versuchsanlage zur kontinuierlichen Glykolyse von PET 3.2.1. Konstruktion und Bau der Versuchsanlage Ziel dieses Arbeitsabschnitts ist ein funktionsfähiger, gegenüber dem im Aufbereitungstechnikum der Technischen Fachhochschule Wildau vorhandenen Mischkneter der List AG modifizierter und mit der erforderlichen Peripherie zu einer Versuchsanlage komplettierter Reaktor, in dem die anschließenden grundlegenden Untersuchungen zur kontinuierlichen Glykolyse von PET durchgeführt werden können. Der vorhandene Mischkneter (s. Bilder 1 und 2) besteht aus einem mit Thermalöl beheizten Mantel und zwei beheizten Wellen, die hydraulisch angetrieben werden. Die Wellen arbeiten ineinandergreifend und gleichläufig mit einem Drehzahlverhältnis von 4:5. Auf den Wellen sind Knet- und Mischelemente derart angeordnet, dass mit ihrer Hilfe sehr hohe Scherkräfte erzeugt und durch diese eine sehr gute Zerkleinerung und Durchmischung des Reaktionsgemisches erreicht wird. Dabei ist die intensive Quervermischung von der axialen Transportbewegung weitgehend entkoppelt, so dass nur eine geringe Rückvermischung auftritt [14]. Die Reaktionstemperatur wird durch die ständige Kontrolle über das Thermalöl-Heizaggregat und eine Isolation der Reaktoraußenwand in sehr engen Grenzen konstant gehalten, um eine hohe Qualität des Reaktionsprodukts sicherzustellen. Der anfängliche, im Projektantrag niedergelegte Plan sah folgenden Aufbau des Reaktors vor: Der Reaktor soll in einer ersten Zone, der Lösezone, Elemente zum schnellen Lösen von Feststoffen in einem erwärmten Glykolysegemisch aufweisen. Dazu sind die Glykolysereagenzien ständig vorgewärmt in diese Zone zu transportieren. Aus dieser Zone wird das Reaktionsgemisch in die zweite Reaktionszone transportiert, in der die eigentliche Umsetzung unter intensivem Umwälzen zur Beschleunigung der Transportprozesse erfolgt. Während der Umsetzung frei werdende flüchtige Stoffe werden am Ende der Zone abgezogen. In der dritten Zone erfolgt der Austrag über ein Filter, durch das ungelöste Anteile zurückgehalten werden. Nach dem Filtrieren des Reaktionsprodukts kann dieses in einen Sammeltank abgefüllt werden. Das Basisgerät soll zur Durchführung des kontinuierlichen Verfahrens durch folgende Entwicklungen gemäß den Anforderungen des kontinuierlichen Betriebs verändert werden: – Ableitung von konstruktiven Elementen aus dem Reaktionsmodell sowie den verfahrenstechnischen Anforderungen für den Mantel und die Wellengestaltung, – Entwicklung einer Konstruktion für den Innenraum mit einer Löse-, einer Umesterungs- und einer Nachbehandlungszone, – Entwicklung und Konstruktion der Dosiereinrichtungen, insbesondere der Feststoffdosierung (PET- bzw. Mischpolymer-Granulate, -Flocken oder -Mahlgut), – Entwicklung der Filtrations- und Entgasungseinheiten innerhalb oder außerhalb des Reaktors zum Entfernen fester und leichtflüchtiger bzw. gasförmiger Nebenprodukte, – Einbauten zur Erfassung zusätzlicher Messdaten, z. B. eine Reihe von Widerstandsthermometern zur Erfassung TFH Wildau, Wissenschaftliche Beiträge 2006 des Temperaturverlaufs in den Reaktorzonen, in-line-Viskosimetersonden zur Ermittlung der Qualität der Durchmischung und Erfassung des Reaktionsfortschritts, – Einbau einer Sonde am Reaktorausgang zur ständigen Kontrolle wichtiger Parameter, z. B. des OH-Gehaltes über FTIR-Messungen, – Einrichtung zur Steuerung und Überwachung des Reaktors. Im Verlauf der Bearbeitung haben sich auf der Basis der Grundlagenuntersuchungen [4], aus Diskussionen mit Fachleuten der Verfahrenstechnik, des Anlagenbaus und des Sondermaschinenbaus sowie bei Experimenten mit dem Reaktor während der Bau- und Erprobungsphase wesentliche Modifizierungen gegenüber dem anfänglichen Konzept erforderlich gemacht, um mit dem vorhandenen Grundgerät in kontinuierlichem Betrieb die Glykolyse von PET ausführen zu können. Die anfangs vorgesehene Arbeitsaufgabe, die Konstruktion und Bau von austauschbaren Rührelementen auf den Wellen und von Schikanen für die Reaktorwandung betraf, wurde nach den Ergebnissen aus den Versuchen sowohl an der Miniplantanlage als auch insbesondere am Mischkneter und nach den oben genannten Gesprächen nicht mehr als sinnvoll angesehen. Bild 6: Fließschema der kontinuierlichen Glykolyseanlage Bild 7: Gesamtansicht der kontinuierlichen Glykolyseanlage Es wurde ein Anlagenkonzept mit teilweiser Kreislaufführung entwickelt. Bild 6 zeigt das Fließschema der konzipierten Anlage, Bild 7 eine Gesamtansicht der fertiggestellten Anlage. Die einzelnen Anlagen-Komponenten haben folgende Funktion: 59 – Vorratsgefäße mit Dosierpumpen: Diese dienen der – – – – – – – – – 60 Zuführung der flüssigen Komponenten (Glykole, Katalysator-Lösungen) in den Reaktor. beheizbares Vorratsgefäß: In diesem Gefäß wird die OEK-Paste aufgeschmolzen, um sie anschließend mit einer Pumpe in den Reaktor fördern zu können. Rohrförderer für PET-Granulat: Eine Schnecke fördert das Granulat mit einstellbarer und steuerbarer Geschwindigkeit durch ein zylindrisches Rohr in den Reaktor. Pendelgasleitung (Druckausgleichsleitung): Diese sorgt für einen Druckausgleich, indem sie die Gasräume im Reaktor und im Überlaufbehälter miteinander und durch die Destillationskolonne mit der Atmosphäre verbindet und auf diesem Wege einen ausgeglichenen, dem Atmosphärendruck nahekommenden Druck in der Anlage sicherstellt. So wird garantiert, dass die Füllstände im Reaktor und im Überlaufbehälter gleich sind, und Störungen im Produktfluss werden ausschlossen. Kreislaufführung des Produktstroms: Es ist ein in der chemischen Reaktionstechnik übliches Verfahren, den Produktstrom teilweise in den Reaktor zurückzuführen (Schlaufen- oder Kreislaufreaktor) [20][21][22]. Dadurch wird insbesondere bei sehr komplexen Reaktionen eine Vergrößerung der Leistung des Reaktors, eine Einengung des Verweilzeitspektrums, eine Erhöhung der Selektivität und/oder eine Verbesserung der Ausbeute erzielt. In Abhängigkeit vom Rückführungsverhältnis nähert sich das Verhalten des Reaktors dem eines ideal durchmischten Rührkesselreaktors an. Ziel dieser Maßnahme ist es im vorliegenden Fall, durch Einstellung des Rückstroms und der Verweilzeit der Reaktionsmischung die Produkteigenschaften im Hinblick auf das gewünschte Spektrum zu steuern. Destillationskolonne: Die Destillationskolonne stellt ein komplexes Rückflusssteuerungssystem, bestehend aus Demister, Kühler und Wärmetauscher, dar. Sie dient der Fraktionierung und Abtrennung der flüchtigen Nebenprodukte, insbesondere des bei der Umesterung des PET entstehenden und abzudestillierenden Ethylenglykols sowie des mit den PET-Produkten eingeschleppten Wassers, aus der Reaktionsmischung. Überlauf-/Nachreaktionsbehälter: Dieser Behälter ist Bestandteil der Kreislaufführung. Der Inhalt des Behälters wird zur Beförderung der Nachreaktion durch einen Rührer vermischt. Der Behälter hat für Probenahmen ein Bodenablassventil. Füllstandsmesser: Da der Überlaufbehälter zur Füllstandssicherung im Reaktor und zur Nachreaktion der Reaktionsmischung dienen soll, muss der Füllstand durch Füllstandsmesssonden erfasst werden. Dadurch wird eine Steuerung wahlweise per Hand oder über das Prozessleitsystem möglich. Filter: Die Filteranlage ist als Doppelfilter ausgeführt, bei dem zwischen den beiden Filtern umgeschaltet werden kann. Auf der Basis einer Druckdifferenzmessung vor und hinter dem jeweils arbeitenden Filter wird der Zeitpunkt festgelegt, wann auf das andere Filter umgeschaltet und das erste Filter gereinigt wird. So ist eine Filtration im kontinuierlichen Betrieb möglich. Stromteiler: Der Stromteiler dient zur gezielten Einstellung der Teilung des Volumenstroms im Kreislaufsys- tem. Auf der Basis dieser Einstellung ist das Verhältnis zwischen Kreislaufstrom und Produktstrom bekannt. – Entgasungseinrichtung: Auf Grund der kräftigen Vermischung des Reaktionsgutes im zu etwa zwei Dritteln gefüllten Reaktor enthält das Produkt gelöste Gase und leicht flüchtige Komponenten. Diese stellen bei der Herstellung von Polyurethanen aus dem Polyol einen unzulässigen Störfaktor dar, da sie bei der PolyurethanReaktion in Form von kleinen Gasblasen freigesetzt werden bzw. als Gasbildungskeime fungieren können, die infolge der fortschreitenden Härtung nicht mehr aus dem Material austreten und so zu Materialfehlern führen können. Aufgabe der Entgasungsanlage ist es, die gelösten Gase und insbesondere entstehende leicht flüchtige Komponenten in einer kontinuierlichen Arbeitsweise weitestgehend aus dem Polyol zu entfernen. – Wärmeisolierung: Zur Minimierung von Wärmeverlusten des Heizsystems sind der Reaktor und alle Anlagenkomponenten einschließlich der Verbindungs- und Heizungsleitungen mit einer verkleideten Isolierschicht versehen. – Schutzgasspülung: Zur weitgehenden Unterdrückung von Oxidationen, die zu Abbauprodukten und somit zu Qualitätsverminderungen, z. B. Verfärbungen, führen, ist eine Spülung der Gasatmosphäre mit einem Inertgas, z. B. Stickstoff, erforderlich. – Steuerungssystem: Eine MSR-Technik und Steuersoftware, bestehend aus einer speicherprogrammierbaren Steuerung (SPS) und einem Prozessleitsystem, ermöglichen die Steuerung und Visualisierung der Anlage mit einem Computer. Die Heizeinrichtungen, die Pumpen und anderen Fördereinrichtungen und Ventile zur Steuerung der Stoffströme, der Rührer und die Messsonden für Temperaturen, Füllstände und Druckdifferenz sind mit dem Steuerungssystem verbunden. Das Steuerungssystem erlaubt sowohl eine Handsteuerung als auch den automatischen Betrieb der Anlage. Die im Vorhaben anfangs vorgesehene IR-Sonde zur kontinuierlichen Bestimmung der OH-Zahl des Produktes wurde nicht verwirklicht, da es nach Erfahrungen aller Nutzer dieser Methode und nach eigenen Versuchen nicht möglich ist, auf diese Weise verlässliche Werte der OH-Zahl der Polyole zu erhalten. Das Gleiche gilt für NMR-Sonden. Die einzige Methode, die zuverlässige Werte für die OHZahl liefert, ist die Titration nach Veresterung mit Acetanhydrid bzw. Phthalsäureanhydrid. Diese Bestimmung ist jedoch für den kontinuierlichen Betrieb zu zeitraubend. Eine schnelle Überprüfung der Produktqualität ist z. B. durch Messung der Viskosität von temperierten Proben (Viskosimeter Rheostress® 300, ThermoHaake) im Rotations- und Oszillationsmodus möglich. Eine direkte Messung der Viskosität im Produktstrom wäre wegen der hohen Temperatur und der daraus resultierenden sehr niedrigen Viskositätswerte mit einem entsprechend hohen Fehlerpotential dagegen nicht praktikabel. 3.2.2. Betrieb der Versuchsanlage Die Erprobung der kontinuierlichen Anlage wurde auf der Basis von APP-Rezepturen, wie sie in den Grundlagenuntersuchungen an der Miniplantanlage entwickelt wurden, insbesondere derjenigen mit sehr kurzer Reaktionsdauer [4][23], ausgeführt. Dabei wurden die Ziele verfolgt, TFH Wildau, Wissenschaftliche Beiträge 2006 – diese kurzen Reaktionszeiten auf der kontinuierlichen Anlage zu bestätigen, – zu untersuchen, welchen Einfluss das Verhältnis zwischen Kreislaufgeschwindigkeit und Gesamtströmung (sog. Rückführungsverhältnis) auf die Produkteigenschaften hat, – Standardrezepturen zu entwickeln und – mit auf der Anlage hergestellten APP Probeverschäumungen zu Polyurethan-Hartschaumstoffen zur Bestätigung der Anwendbarkeit auszuführen. a) Ermittlung der optimalen Verweilzeit Zunächst wurden Versuche mit vollständiger Kreislaufführung ausgeführt, um die optimale Verweilzeit im Reaktor für die Glykolyse von PET zu bestimmen. Die vollständige Kreislaufführung ohne kontinuierliche Produktentnahme ist als Batch-Versuch im kontinuierlichen Reaktor aufzufassen, die als Bindeglied zwischen echten Batch-Versuchen in der Miniplantanlage und kontinuierlicher Reaktionsführung im Mischknetreaktor dient. Versuchsdurchführung: Die berechneten Mengen DEG und OEK werden aus den Vorratsgefäßen über die entsprechenden Pumpen bei laufenden Reaktorwellen in den vorgeheizten Reaktor einschließlich Überlaufbehälter eingefüllt. Der Reaktor wird auf 230 °C geheizt. Die berechnete Menge PET wird auf einmal über den Rohrförderer zugegeben. Anschließend wird auf 250 °C geheizt. Die gesamte Reaktionsmischung wird vollständig im Kreislauf gefahren, d. h. das Rückführungsverhältnis beträgt 100 %. Während des Versuchs wird die Destillatmenge beobachtet. Nach beendetem Lösen des PET werden der Reaktionsmischung nach 15, 30, 45, 75 Minuten, 2 und 3 Stunden Reaktion Proben entnommen und der Versuch anschließend beendet. Von den Proben werden OH-Zahl, Säurezahl und Viskosität bestimmt. Als Glykolysemischung wurde ein Gemisch aus 81 Teilen DEG und 27 Teilen OEK auf 100 Teile PET verwendet. Der Lösevorgang wurde durch Probenahmen am Überlaufbehälter verfolgt. Er dauerte etwa 10 Minuten. Die anschließende Reaktionsphase ist in Bild 8 dargestellt, indem die Destillatmenge (MDest.) sowie die OH-Zahl und die Viskosität der entnommenen Proben über der Zeit aufgetragen sind. Nach den Ergebnissen ist bei der verwendeten Rezeptur je nach eingestellter Verweilzeit zwischen 30 und 75 Minuten eine OH-Zahl von 340 bis 280 mg KOH/g erreichbar. ten der Einsatzstoffe eingestellt wurden, im Bereich der oben ermittelten optimalen Verweilzeiten ausgeführt. Versuchsdurchführung: Nach dem Befüllen des Reaktors wird anfangs wie oben auf 100%igen Kreislauf und nach Ablauf einer Verweildauer (30, 45 bzw. 60 min, bezogen auf den Mischkneter) durch Umschalten des Stromteilers und Zuschalten der Dosiereinrichtungen und der Produktpumpe auf kontinuierlichen Betrieb (Durchlauf) umgeschaltet, wobei kein Kreislauf-Anteil gefahren wird (Rückführungsverhältnis 0 %). Die Strömungsgeschwindigkeit wird jeweils entsprechend der Verweilzeit eingestellt. Dem Produktstrom werden halbstündlich Proben entnommen, von denen Analysen wie oben angefertigt werden. Die Ergebnisse bei drei verschiedenen Verweilzeiten sind in Bild 9 und 10 dargestellt. Bild 9: Verlauf der OH-Zahl der Reaktionsmischung bei unterschiedlichen Verweilzeiten Bild 10: Verlauf der Viskosität der Reaktionsmischung bei unterschiedlichen Verweilzeiten Die Verweilzeiten im Mischkneter entsprechen etwa folgenden Produktströmungsgeschwindigkeiten (Durchsatz): Verweilzeit 30 min 45 min 60 min Bild 8: Verlauf der Glykolyse bei vollständiger Kreislaufführung Auf Basis dieser Ergebnisse wurden kontinuierliche Versuche mit drei Verweilzeiten, die durch die Dosiergeschwindigkei- TFH Wildau, Wissenschaftliche Beiträge 2006 Durchsatz 24 l/h (26 kg/h) 18 l/h (20 kg/h) 12 l/h (13 kg/h) Aus diesen Versuchen ergibt sich, dass nach einer relativ kurzen Einlaufzeit (Einlaufkurve etwa 30 Minuten) die Produktparameter im wesentlichen konstant sind und den Werten aus dem Batch-Versuch (s. Bild 8) entsprechen. Alle angeführten Verfahrensbedingungen haben 61 sich bewährt und können entsprechend den jeweils angestrebten Parametern des Polyols eingestellt werden. b) Untersuchung des Einflusses des Kreislaufanteils Wie schon im Abschnitt 3.2.1 erwähnt, wurde die Glykolyseanlage als Schlaufen- bzw. Kreislaufreaktor ausgeführt, um das Verweilzeitspektrum einengen, die Selektivität und Leistungsfähigkeit des Reaktors erhöhen sowie die Produkteigenschaften gezielt beeinflussen zu können. Die Versuche hierzu wurden analog den kontinuierlichen Versuchen unter a) (zweite Vorschrift) ausgeführt, jedoch unter Einstellung verschiedener Kreislaufanteile, und zwar 20, 40, 60 und 80 %. Die Versuche unter a) entsprechen dem Kreislaufanteil 0 %. Die Verweilzeit wurde jeweils so eingestellt, dass sie 45 Minuten unter den Bedingungen ohne Kreislauf entspricht. Die Versuchsergebnisse sind in den Bildern 11 und 12 dargestellt. c) Anpassung der Rezeptur Auf der Basis der unter a) und b) erprobten Reaktionsbedingungen wurden mehrere Rezepturen auf der Anlage in längeren Versuchsläufen erprobt. Proben zur Analyse der Produktparameter wurden dem Produktstrom halbstündlich entnommen. Tabelle 1 zeigt einige Ergebnisse. Versuchs-Nr. 1 Rezeptur [Teile auf 100 T. PET]: DEG 81 PEG 200 0 Octandiol 0 OEK 27 Reaktionsbedingungen: Verweilzeit [min] 30 Rückführungsverhältnis [%] 0 Versuchsdauer [h] 6 Produkteigenschaften: OH-Zahl [mg KOH/g] 350±4 Säurezahl [mg KOH/g] 1,0 ηrot/25°C [mPa·s] 5900 ± 150 ηosz/25°C [mPa·s] 5960 ± 140 2 3 4 5 81 0 0 27 81 10 0 26 60 0 20 20 76 0 16 26 45 40 8 45 80 8 30 60 8 30 40 8 288±3 0,9 8510 ± 120 8560 ± 110 281±4 0,96 7950 ± 150 8030 ± 170 282±4 0,8 9810 ± 180 9860 ± 150 310±5 1,1 8020 ± 130 8070 ± 150 Tabelle 1: Kontinuierliche Versuche mit unterschiedlichen Rezepturen Nach diesen Versuchen hat sich die kontinuierliche Glykolyseanlage im längeren Betrieb bewährt und liefert aromatische Polyesterpolyole in konstanter Qualität. Bild 11: Verlauf der OH-Zahl der Reaktionsmischung bei unterschiedlichen Rückführungsverhältnissen d) Probeverschäumungen Aus den unter c) hergestellten APP-Mustern wurden PURHartschaumstoffe nach den Standardformulierungen in Tabelle 2 hergestellt. Tabelle 3 zeigt die Ergebnisse. Formulierung Nr. 1 2 3 4 Zusammensetzung der A-Komponente (Mengen in %): APP Nr. 90 07 093 093 APP-Menge 94 75 94 80 Katalysatorgemisch 0,6 21 1 15 Tegostab® 8433 0,4 0,5 Tegostab® 8404 1 1 Wasser 5 3 4,5 4 B-Komponente (auf 100 % A-Komponente): Lupranat® M20A 134 125 408 Lupranat® M20S 380 - 5 093 89 5 1 5 306 - Tabelle 2: Beispielformulierungen für PUR-Hartschaumstoffe aus APP Bild 12: Verlauf der Viskosität der Reaktionsmischung bei unterschiedlichen Rückführungsverhältnissen Nach kurzen Einlaufzeiten stellen sich bei den erprobten Rückführungsverhältnissen jeweils relativ konstante Produktparameter ein. Bei höheren Rückführungsverhältnissen werden Produktparameter wie bei längeren Verweilzeiten erhalten. Nach den bisherigen Ergebnissen hat sich die Fahrweise mit teilweiser Rückführung bewährt. Es kann erwartet werden, dass die Größe des Rückführungsverhältnisses einen Einfluss auf die Stabilität der Produktparameter, insbesondere der Viskosität und der Kristallisationsneigung, hat, da das Verweilzeitspektrum verändert wird. Nach dem gegenwärtigen Entwicklungsstand scheint ein Rückführungsverhältnis von 60 % optimal. 62 Formulierung Nr. 1 Raumgewicht [g/l] 33 Dimensionsstabilität [%]: 120 °C -1,4 150 °C -2,7 170 °C -3,9 -130 °C -1,2 -170 °C -4,5 -190 °C Druckfestigkeit [MPa] 0,08 Biegefestigkeit [MPa] Bruchdehnung [%] - 2 45 3 50 4 60 5 80 +0,3 +3,5 -3,8 % 0,09 0,33 14,0 0 0 +0,7 -0,4 -0,8 0,17 0,50 7,8 -0,8 +0,2 +0,8 -0,2 -0,6 -2,5 0,25 0,65 7,7 -0,3 -2,5 -3,8 -1,0 -3,5 1,45 - Tabelle 3: PUR-Hartschaumstoffe aus in der kontinuierlichen Anlage hergestellten APP-Mustern TFH Wildau, Wissenschaftliche Beiträge 2006 Aus den in der kontinuierlichen Glykolyseanlage hergestellten APP sind PUR-Hartschaumstoffe mit dem gleichen Eigenschaftsspektrum herstellbar wie aus den bisher diskontinuierlich hergestellten APP [3]. 4. Zusammenfassung Aufbauend auf den Ergebnissen an der Miniplantanlage zur Glykolyse von PET [4][23] wurde durch Ergänzung mit neuen Bauelementen gemäß den verfahrenstechnischen Anforderungen des kontinuierlichen Betriebs, die aus den Ergebnissen der Grundlagenuntersuchungen abgeleitet wurden, und durch Entwicklung eines Steuerungssystems eine kontinuierlich arbeitende Anlage entwickelt, konstruiert und gebaut. Mit dieser Anlage wurden Untersuchungen des Löse- und Umesterungsverhaltens der Polymeren in den Glykolysemitteln ausgeführt und so die Verfahrensparameter für die kontinuierliche Herstellung der APP festgelegt. Diese Parameter wurden durch Erprobung mit Standardmischungen zur Herstellung von APP einschließlich Charakterisierung der hergestellten Polyole und Probeverschäumungen bestätigt. Die mathematische Modellierung der komplexen chemischen Reaktion führte zu einem vielversprechenden Ansatz zur Beschreibung chemischer Abbauprozesse. Die ermittelten verfahrenstechnischen und konstruktiven Grundlagen stellen die Basis für die Konstruktion und den Bau größerer Anlagen nach Abschluss des Vorhabens zunächst bei einem internationalen Partner dar. Danksagung Das dieser Arbeit zugrunde liegende Vorhaben wurde mit Mitteln des Bundesministeriums für Bildung und Forschung unter dem Förderkennzeichen 03I0202 gefördert. Die Verantwortung für den Inhalt dieser Veröffentlichung liegt bei den Autoren. Die Autoren danken dem Bundesministerium für Bildung und Forschung für die finanzielle Unterstützung der hier dargestellten Arbeiten im Rahmen des InnoRegio-Wettbewerbs. Den Firmen List AG, Arisdorf (Schweiz), CTA Anlagenbau GmbH, Fürstenwalde, TSA GmbH, Doberlug-Kirchhain, Lausitzer Edelstahltechnik GmbH, Doberlug-Kirchhain, und Sigmar Mothes Hochdrucktechnik GmbH, Berlin, sei für hilfreiche konstruktive Beratung, Entwicklung und Ausführung der Anlagenkonstruktion herzlich gedankt. Der Firma Krauss-Maffai Kunststofftechnik GmbH, München, danken wir für die kostenlose Bereitstellung von PET-Ware und der Firma Trevira GmbH, Guben, für die kostenlose Bereitstellung von Oligoesterkondensat. Herrn Karl-Heinz Schmidt danken wir für die Herstellung und Prüfung von Hartschaumstoff-Proben. Literatur [1] G. Behrendt, A. Lobeda, M. Pohl: Verfahren zur Herstellung von Polyesteralkoholen sowie Polyesteralkohole; DE-OS 199 18 650 (16. 4. 1999/27. 1. 2000); PCT/WO 99/54380 (16. 4. 1999/28. 10. 1999) [2] G. Behrendt, M. Pohl, H.-D. Hunger: Polyester-Polymerpolyole für Polyurethane und Verfahren zu ihrer Herstellung; DE-PS 199 15 125 (25. 03. 1999/19. 10. 2000/5. 7. 2001) [3] R. Eftimova, Y. Loseva, K.-H. Schmidt, M. Wotzka, P. Wagner, G. Behrendt: Polyester Polyols from Waste PET Bottles for Polyurethane Rigid Foams; Wissenschaftliche Beiträge der TFH Wildau 2003, S. 19-25 [4] R. Langenstraßen, S. Fulev, A. Apel, B. Gebert, D. Lehmann, G. Behrendt: Entwicklung der Grundlagen für eine Laboranlage zur kontinuierlichen Herstellung von PET-Recyclingpolyolen (Darstellung des Standes der Arbeiten im InnoRegio-Projekt); Wissenschaftliche Beiträge der TFH Wildau 2004, S. 34-45 [5] R. Langenstraßen: Kontinuierliche Herstellung von aromatischen Polyesterpolyolen aus PET-Abfällen, Projekt im Rahmen der InnoRegio-Initiative des BMBF; Poster auf dem Tag der offenen Tür der TFH Wildau 2004 [6] R. Langenstraßen, S. Fulev, R. Evtimova, G. Behrendt: Investigation of the Polyethylene Terephthalate (PET) Transesterification Reaction; Vortrag auf der Ninth Conference of Chemistry and Physical Chemistry of Oligomers, Odessa, Sept. 2005 [7] Ch.-H. Chen et al.: Studies of Glycolysis of Poly(ethylene terephthalate) Recycled from Postconsumer Soft-Drink Bottles. I.; Journal of Applied Polymer Science, 80 (2001), S. 943-948; II., loc. cit., S. 965-962; III., loc. cit. 87 (2003), S. 2004-2010 [8] J. Milgrom: Polyethylene Terephthalate; in R. J. Ehrig (Hrsg.): Plastics Recycling, Products and Processes; Carl Hanser Verlag, München Wien New York Barcelona 1992 [9] F. P. La Mantia, M. Vinci: Recycling poly(ethylene terephthalate); Polymer Degradation and Stability 45 (1994), S. 121-125 [10] T. Spychaj, D. Paszun: New Trends in Chemical Recycling of Poly(ethylene terephthalate); Macromol. Symp. 135 (1998), S. 137-145 [11] M.-D. Umbach: Marktstudie: Aromatische Polyesterpolyole (APP); Diplomarbeit, TFH Wildau 2003 [12] G. Kielburger: Von Batch zu Konti; Process (2003) 1, S. 3 [13] S. Fulev, R. Langenstraßen, G. Behrendt: Untersuchungen zur Herstellung von aromatischen Polyesterpolyolen für elastische Polyurethane; Wissenschaftliche Beiträge der TFH Wildau 2005, S. 74-78 [14] J. List: Großvolumige Knetreaktoren; cav 5/94, Nr. 288; J. List: Kontinuierlicher Misch-/Knetreaktor; ibid. 09/2003, S. 42, Nr. 445; LIST-CRP, Firmenschrift List AG, 2000 [15] A. Diener: Herstellen und Aufarbeiten von Polymeren mit großvolumigen Knetern; Vortrag auf dem 6. Kunststoffkolloquium, Schwarzheide, 15. 9. 2005 [16] G. Behrendt, R. Langenstraßen, B. Gebert, H.-D. Hunger, A. Diener, Th. Isenschmid: Verfahren und Vorrichtung zur Herstellung von Recyclat-Polyolen aus Polyestern; DE-OS 10 2004 014 163 (17. 3. 2003/9. 12. 2004) [17] A. Ogale: Depolymerization of Nylon 6: Some Kinetic Modelling Aspects; Journal of Appl. Polym. Science 29 (1984), S. 3947-3954 TFH Wildau, Wissenschaftliche Beiträge 2006 63 [18] J. R. Campanelli, M. R. Kamal, D. G. Cooper: A Kinetic Study of the Hydrolytic Degradation of Polyethylene Terephthalate at High Temperatures; Journal of Appl. Polym. Science 48 (1993), S. 443-451 [19] A. Apel: Mathematische Modellierung der Umesterung von PET zu aromatischen Polyesterpolyolen; unveröffentlichte Studie, Technische Fachhochschule Wildau, 2004 [20] H. Franke, K. Schiefer (Hrsg.): Lueger Lexikon der Verfahrenstechnik, Stuttgart 1970 [21] K. Winnacker, L. Küchler: Chemische Technik, Prozesse und Produkte, 5. Aufl., Weinheim [22] M. Baerns, H. Hofmann, A. Renken: Chemische Reaktionstechnik, Stuttgart, New York 1987 [23] R. Langenstraßen, A. Apel, S. Fulev, B. Gebert, D. Lehmann: InnoRegio FIRM: Entwicklung der Grundlagen für eine Anlage zur kontinuierlichen Herstellung von PET-RecyclingPolyolen; Schlussbericht, Wildau 2006 Autoren Dr. Rainer Langenstraßen Technische Fachhochschule Wildau Fachbereich Ingenieurwesen/Wirtschaftsingenieurwesen Tel. +49 3375 508-502 [email protected] Dipl.-Math. Andreas Apel Technische Fachhochschule Wildau Fachbereich Ingenieurwesen/Wirtschaftsingenieurwesen Dipl.-Ing. Stanislav Fulev Technische Fachhochschule Wildau Fachbereich Ingenieurwesen/Wirtschaftsingenieurwesen Dipl.-Ing. Bodo Gebert Technische Fachhochschule Wildau Fachbereich Ingenieurwesen/Wirtschaftsingenieurwesen Dipl.-Ing. Dieter Lehmann Technische Fachhochschule Wildau Fachbereich Ingenieurwesen/Wirtschaftsingenieurwesen 64 TFH Wildau, Wissenschaftliche Beiträge 2006 Technologiegestützter After Sales Service Margit Scholl Motivation Die unternehmensweite Integration von Daten, Prozessen und Dienstleistungen wird auch für KKU (Klein- und Kleinstunternehmen) immer notwendiger und verlangt die Konzeption von unterstützenden Anwendungssystemen, die für das hier betrachtete Klientel in einfacher Art und Weise handhabbar sein müssen. Gleichzeitig wird eine aktuell gehaltene Qualifikation der Fach- und Führungskräfte angesichts des fortschreitenden Strukturwandels hin zur wissensbasierten Informations- und Dienstleistungsgesellschaft zum entscheidenden Standortfaktor, von dem die Innovationskraft und Wettbewerbsfähigkeit der Wirtschaft abhängt. In diesem Beitrag soll ein praxisorientierter Lösungsansatz aufgezeigt werden, um Produkte und Dienstleistungen zwischen KMU bzw. zwischen KMU und öffentlicher Verwaltung zu vermitteln, transparent darzustellen und damit letztlich Kundenzufriedenheit und Kundenbindung zu optimieren. Gemeinsam mit Partnern wurde die Idee entwickelt und praktisch umgesetzt, dass die Optimierung von Prozessen durch Nutzung einer Lernplattform via Internet möglich ist, bei gleichzeitiger Senkung der Prozesskosten durch webbasierte Qualifizierung und Betreuung. Die bisherigen Ergebnisse dieses Entwicklungsprozesses wurden im September 2006 auf dem 3. Fernausbildungskongress an der Bundeswehrhochschule in Hamburg im Workshop „Möglichkeiten technologiegestützter Bildungskonzeptionen für KMU“ als Erfahrungsworkshop präsentiert [1]. Hintergrund Über den vielfältigen Einsatz einer extrem einfachen und intuitiv nutzbaren eLearning-Plattform konnte bereits an dieser Stelle berichtet werden [2]. Die Anwendungsberei- Abb. 1: Zugangsseite zur Sudile-Lernplattform des Fachbereichs Wirtschaft, Verwaltung und Recht, http://www.sudile.com/tfh-wildau TFH Wildau, Wissenschaftliche Beiträge 2006 che für eLearning-Kurse werden unseren Möglichkeiten entsprechend kontinuierlich erweitert wie es die Abb. 1 verdeutlicht. Da barrierefreie Anwendungen inzwischen ein unverzichtbares Qualitätsmerkmal moderner Software sind, das auch vom Gesetzgeber eingefordert wird, wurde die Lernplattform im letzten Jahr barrierefrei umgestaltet. Der Umgestaltungsprozess, die Einhaltung allgemeiner Standards und aufgetretene Probleme konnten im Februar 2006 auf dem Internationalen Rechtsinformatik Symposion in Wien aufgezeigt und erläutert werden [3]. Im Mai diesen Jahres konnten wir die Plattform und Kurse auf der ersten internationalen eLearning-Konferenz Afrika in Addis Abeba präsentieren [4]. Das neue Anwendungsfeld Ziel eines internen, kooperativen Forschungsprojektes der Autorin war es, beispielhaft für das Hauptgeschäftsfeld „Reinigung“ der bebra-Gesellschaft für Verwaltungsentwicklung mbH, die darin enthaltenen Verfahrenshinweise für die Kunden (Kommunen) in einer didaktisch fundierten und elektronischen Form mit Hilfe der Lernplattform der Sudile-durchdachtes eLernen GbR so aufzubauen und bereit zu stellen, dass sie zukünftig als integraler Bestandteil der Geschäftsprozesse in die Dienstleistung der bebra GmbH eingehen können. D.h., Ausgangspunkt unserer Idee der Prozessoptimierung sind interne Behördenprojekte, die unter Hinzuziehung von Dienstleistern u. a. Kostensenkungen zum Gegenstand haben. Über Kostenreduzierung lassen sich interne Behördenprojekte finanzieren. Mit dem Umsetzen von Prozesswissen in das Lernsystem resultiert ein zeit- und ortsunabhängiger, aktiver und nachhaltiger Erwerb von professionellem, angewandten Wissen für alle beteiligten Verwaltungsmitarbeiter (als Kunden) bei gleichzeitiger Optimierung der Betreuung durch die beratende Firma (als Dienstleister). Abb. 2: Layoutanpassung der Plattform an das CI der bebraGesellschaft für Verwaltungsentwicklung mbH 65 Als konkretes Beispiel wurde in partnerschaftlicher Kooperation das Prozesswissen zur Senkung von Reinigungskosten in die Lernplattform umgesetzt. Dabei musste das Aussehen des Lernsystems dem CI (Corporate Identity) der bebra GmbH angepasst werden (s. Abb. 2). Erste Ergebnisse konnten am Stand der bebra GmbH auf der Messe „Moderner Staat“ im November 2005 in Berlin gezeigt werden. Das für die Geschäftsprozesse notwendige Spezialwissen wurde unter pädagogischen und didaktischen Gesichtspunkten als elektronische Lerneinheiten praxisorientiert an der konkreten Dienstleistung vom Geschäftspartner selbst eingepflegt und kann jetzt als tägliche Businesshilfe genutzt werden (s. Abb. 3). Von Bedeutung sind dabei die extrem einfache, intuitive Handhabung für alle beteiligten Nutzergruppen und die vielfältigen Kommunikationsformen wie Chat, Wiki, Forum und E-Mail. Das zu vermittelnde Wissen in Firmen kann sehr umfangreich sein und die Zeitknappheit der Firmenmitarbeiter für die Inhaltserstellung ist ein zentrales Problem. Umso wichtiger ist die Einfachheit der Inhaltserstellung und ein schneller, unkomplizierter Umgang mit dem Anwendungssystem. Zusammenfassend halten wir die folgenden Aspekte unseres Ansatzes innovativ: – Relevante Inhalte werden vom Geschäftspartner in einfacher Weise selbst erstellt – Inhalte sind praxisorientiert am tatsächlichen Businessprozess angepasst – Geschäftsprozesse werden für alle Beteiligten systematisiert und transparenter – Notwendiges Wissen führt zu einer zielgerichteten Qualifizierung aller Beteiligten. Wir halten unseren Ansatz generell auf viele Dienstleistungsprozesse zwischen Geschäftspartnern anwendbar. Insbesondere wird er auch interessant für Abläufe mit geringer Durchlaufquote und hoher Vergessensrate, da das Anwendungssystem dann als Nachschlagewerk fungieren kann. Einmal übertragen, werden auch die Einsparpotenziale unseres Ansatzes sichtbar: Vorbereitungs-, Reise-, Beratungszeit werden minimiert und weniger Präsenz beim Kunden ist notwendig. Die standardisierte, aber flexible gemeinsame Arbeitsgrundlage der Geschäftsprozesse vermeidet Missverständnisse und spart ebenfalls Zeit. Demgegenüber werden die Kommunikationsmöglichkeiten webbasiert verbreitert und qualifizieren die Beteiligten ebenfalls. Ausblick Abb. 3: Prozesswissen der Dienstleistung umgesetzt in einen eLearning-Kurs. Übersicht des Kurses „Gebäudereinigung“ als Mindmap für die im Prozess involvierten Mitarbeiter. Das Design der Plattform verweist darüber hinaus auf die weiteren Kommunikations- und Arbeitsmöglichkeiten. Über das Vorgehen zum Aufbau des Kurses „Gebäudereinigung“, den aktuellen Stand und die konkreten Erfahrungen konnte auf dem Internationales Rechtsinformatik Symposium 2006 im Workshop „Wissensbasiertes Prozessmanagement in Verwaltungsnetzwerken“ berichtet werden [5]. Die Umsetzung im Kooperationsprojekt erfolgte in drei Phasen: – Strukturierung der Prozessinformationen – Erstellung der spezifischen Inhalte – didaktische Überarbeitung. Eine der wichtigsten Erkenntnisse für den Dienstleister bebra GmbH war, dass die Systematisierung und Überarbeitung der eigenen Prozesse zur Kundenbetreuung nicht nur für die Verwaltung (den Kunden), sondern auch für den Dienstleister selbst einen Gewinn darstellen. Während der aktuellen Projektarbeit entwickelte sich das Lernsystem zur Hilfe für konkrete Wissensaneignung und als Nachschlagewerk. Die vielfältigen Kommunikationsformen und die Dokumentenstandardisierung führt zu einer gezielteren Projektbetreuung, erhöhten Lernbereitschaft durch Qualifizierung während des Projektes und am Ende zur Qualitätssicherung durch Übergabe von standardisierten Leistungen. 66 Der dargestellte Ansatz scheint auch dafür geeignet, dass sich KKU über dieses produktionsbezogene Nachdenken und Darstellen ihrer Dienstleistung in einem Lernsystem im Wettbewerb besser behaupten können. Denn diese Entwicklung hat zur Folge, dass die Mitarbeiter automatisch stärker in eine lebensbegleitende Weiterbildung einbezogen werden. Nach wie vor besteht ein enormes Potenzial an betrieblichen Einsatzmöglichkeiten von eLearning via Internet. Doch Untersuchungen zeigen [6], dass der Umfang der Nutzung von eLearning insbesondere für KMU weit hinter den Erwartungen zurückbleibt. Gerade kleine und mittlere Unternehmen sind es aber, die von den organisatorischen Vorteilen, die eLearning bietet, besonders profitieren könnten. Denn gerade sie sind darauf angewiesen, Weiterbildung flexibel und arbeitsplatznah ohne längere Freistellungen zu organisieren. Ein kostengünstiges eLearning für passgenaue Qualifizierung ist für KKU dringend notwendig! Doch wie kann man es sinnvoll nahe bringen? Zumal ein elektronischer Weiterbildungsmarkt existiert, der nicht auf die Bedürfnisse von KMU zugeschnitten ist. In einer Studie des europäischen Kooperationsprojekts „Ariel“ (Analysing and Reporting on the Implementation of Electronic Learning in Europe, [7]) wird zusammengefasst, dass KMUs von Entwicklern einerseits „als Zielgruppe verschmäht“ werden und andererseits Produkte nicht geeignet sind und am Bedarf der Zielgruppe vorbei gehen. Unsere Idee ist, elektronische Fort- und Weiterbildung anhand der elektronischen Optimierung von Geschäftsprozessen im Bereich der KKU zu etablieren. Mit den eigenen Geschäftsprozessen als Basis dürften die KKU dem Thema offener gegenüber stehen. Daher haben wir im BMBF-Programm zur Förderung angewandter Forschung an Fachhochschulen im TFH Wildau, Wissenschaftliche Beiträge 2006 Verbund mit der Wirtschaft (FH3) den Projektantrag „Blended Coaching als Basis für ein integratives Dienstleistungskonzept für KKU“ eingereicht. Darin wird eine webbasierte Qualifizierung und Betreuung vorgestellt, die als internetgestütztes Coachen bezeichnet werden kann - wir nennen es „Blended Coaching“. Es stellt eine neue Form der Kundenbetreuung innerhalb der Dienstleistungen dar, die einerseits eine höhere Transparenz der Arbeitsprozesse ermöglicht und anderseits den Kunden höhere Eigenverantwortung abverlangt. Neben dem individuellen Know-how-Gewinn und der Förderung eines lebensbegleitenden Lernens im betrieblichen Umfeld, das konkret in die jeweiligen Geschäftsprozesse integriert werden soll, wird das Projekt die Stabilität von Unternehmensstrukturen der beteiligten KKU deutlich stärken. Es bleibt zu hoffen, dass die AiF-Begutachtung positiv ausfallen und zu einer Förderung führen wird. Autorin Prof. Dr. Margit Scholl Technischer Fachhochschule Wildau Fachbereich Wirtschaft, Verwaltung und Recht Tel. +49 172 3214682 [email protected] http://www.tfh-wildau.de/scholl Partner Horst Jung, Tobias Dressler bebra–Gesellschaft für Verwaltungsentwicklung mbH Veilchenweg 5 D , 14772 Brandenburg Christian Niemczik Sudile – durchdachtes eLernen GbR Jägerstraße 36 , 14467 Potsdam Literatur [1] Scholl, M., T. Dressler, Ch. Niemczik und El. Brenstein; eBusiness + eGovernment + eLearning: Technologiegestützter After Sales Services in KMU, Workshop, 3rd Distance Training Convention, 19.-21.9.2006, Helmut-Schmidt-Universität, Universität der Bundeswehr, Hamburg, 2006. Dr. Elke Brenstein Lernen-Gestalten In der Heide 4, 14476 Potsdam [2] Scholl, M.; Einführung von eLearning am Fachbereich Wirtschaft, Verwaltung und Recht - Konsequenzen und Ausblick, TFH Wildau, Wissenschaftliche Beiträge, Heft 2005. [3] Koppatz, P., Ch. Niemczik und M. Scholl; Online für alle: Barrierefreier Zugang zu Webinhalten;IRIS 2006, Internationales Rechtsinformatik Symposium, Wien, 16.-18.2.2006; Schriftenreihe Rechtsinformatik, Druck im Erscheinen, 2006. [4] Scholl, M. und Ch. Niemczik; SUDILE learning platform - Blended Learning Scenarios at the University of Applied Sciences Wildau (Demonstration); 1st International Conference on ICT for Development, Education and Training; ELearning Africa! UNCC, Addis Ababa, Ethiopia, May 24 - 26, 2006, forthcoming. (2006) [5] Scholl, M., H. Jung und Ch. Niemczik; Qualifizierung und Einsparungen in den Verwaltungen – durch webbasierte Betreuung zum Erfolg, Workshop „Wissensbasiertes Prozessmanagement in Verwaltungsnetzwerken“, IRIS 2006, Internationales Rechtsinformatik Symposium, Wien, 16.-18.2.2006, Schriftenreihe Rechtsinformatik, Druck im Erscheinen. (2006) [6] Loebe und Servering (Hrsg.), eLearning für die betriebliche Praxis, f-bb gGmbH, Bertelsmann Verlag, Bielefeld 2003, ISBN 3-7639-3112-0. [7] http://www.hyblearn.odl.org/EN/Home.htm, http://www. checkpoint-elearning.de/article/1053.html TFH Wildau, Wissenschaftliche Beiträge 2006 67 Theorie und Praxis erfolgreicher Blended Learning-Konzepte Ulrike Tippe, Bertil Haack 1 Ausgangssituation 1.1 Weiterbildungsbedarf und wirtschaftliche Grenzen In nahezu allen beruflichen Bereichen wächst der Bedarf an hoch qualifiziertem Fachpersonal. Als Beispiele seien die Begutachtung von Kfz-Schäden etwa nach Unfällen und die medizinische und pflegerische Versorgung älterer Menschen genannt: Aufgrund entsprechender gesetzlicher Anforderungen müssen Schadensgutachter mehrfach pro Jahr an Pflichtweiterbildungen teilnehmen. Ebenfalls aufgrund gesetzlicher Anforderungen sowie infolge der demografischen Entwicklung wächst der Bedarf an Qualifizierungsmaßnahmen für Mediziner und Pflegekräfte enorm. Beispielsweise werden allein im Bundesland Brandenburg bis zum Jahr 2010 insgesamt ca. 5.200 zusätzliche Fachkräfte im Bereich der Altenpflege benötigt [MASGF Brandenburg 2005, 77]. In allen diesen Fällen wird die berufliche Weiterbildung im gleichzeitig enger werdenden wirtschaftlichen Rahmen immer schwieriger und ist aufgrund des großen organisatorischen und finanziellen Aufwandes kaum mehr auf traditionellem Wege realisierbar. Als Ausweg bietet sich der Einsatz von Blended Learning-Lösungen an, in denen traditionelle Lehr- und Lernformen einerseits und eLearning mit Hilfe geeigneter elektronischer Werkzeuge andererseits sinnvoll kombiniert werden. (Als eLearning werden im hiesigen Kontext alle internetbasierten Lernund Qualifizierungsmaßnahmen verstanden, wobei die eLearning-Module auch als WBTs, d.h. als Web Based Trainings bezeichnet werden.) 1.2 Blended Learning als mögliche Antwort Um den dargelegten Qualifizierungsbedarf bewältigen zu können, müssen innovative Aus- und Weiterbildungswege gefunden werden. Die Lehr- und Lernformen in der Ausund Weiterbildung sind organisatorisch wie inhaltlich anzupassen. Insbesondere ist nach modernen Wegen und Plattformen für die beruflichen Qualifizierungsmaßnahmen zu suchen und diese sind einzusetzen (vgl. hier und im Folgenden [Arnold 2004] und [Niegemann 2004] sowie [Baumgartner 2003]). Lösungswege hierfür zeigen sich beispielsweise im Bereich von Fernstudiengängen an Universitäten und Fachhochschulen. Dort werden Phasen des Selbstlernens mit Präsenzunterricht kombiniert, wobei besonders das Selbstlernen durch geeignete eLearning-Module unterstützt wird. Obwohl hohe Erwartungen an das eLearning gestellt wurden, hat es in seiner „Reinform“ nicht den durchschlagenden Erfolg gehabt: Fördert doch der völlige Verzicht auf den direkten Kontakt zum Dozenten in vielen Fällen nicht den Lernerfolg bzw. fehlt doch den Lernenden auch 68 häufig der zwischenmenschliche Kontakt zu anderen Kursteilnehmern. Aber auch der finanzielle Aufwand für die Erstellung von eLearning-Modulen ist beträchtlich: Im Falle professionell entwickelten eLearning-Contents werden für eine Stunde Kurslaufzeit (das ist die Zeit, die ein WBT benötigt, um alle Lernsequenzen durchzuspielen, ohne individuelle Pausen, Lern- und Bearbeitungszeiten usw. zu berücksichtigen) je nach Erstellungsaufwand Preise zwischen 10.000 € bis hin zu 60.000 € berechnet. Die beschriebenen Nachteile führten nach einem anfänglichen eLearning-Hype zu einer ersten Ernüchterung, der mittlerweile eine Konsolidierungsphase folgt. So hat sich in der letzten Zeit der Begriff des „Blended Learning“ eingebürgert. Dieser beschreibt ein Lernarrangement, das alle vorhandenen Lernformen (Präsenzseminare, Bücher, eLearning-Module) so miteinander kombiniert, dass der Lernprozess bestmöglich durchgeführt werden kann. Insbesondere macht die Kombination von Präsenzseminaren und eLearning-Angeboten aus mehreren pädagogischen Gesichtspunkten Sinn und erweist sich gegenüber reinem eLearning als Erfolg versprechender. Somit geht es in der Praxis darum, Lernkonzepte zu entwickeln, die diese Aspekte berücksichtigen. Dabei ist einerseits festzustellen, dass es in zahlreichen Fachgebieten gut ausgearbeitete Präsenzseminare gibt und dass mittlerweile ausgefeilte, leicht erlernbare Werkzeuge zur Erstellung von eLearning-Modulen existieren („Rapid eLearning“). Andererseits fehlt es jedoch vielerorts nach wie vor an didaktisch hochwertigen eLearning-Modulen bzw. entsprechendem Know-how und entsprechender Unterstützung für die Entwicklung derartiger eLearningBausteine. Die Frage nach erfolgreichem Blended Learning muss also an diesem zuletzt genannten Faktum ansetzen und praktikable Ansätze bereitstellen, die insbesondere didaktische Erwägungen einbeziehen. 1.3 Wege zu erfolgreichem Blended Learning Das vorliegende Papier widmet sich der grundsätzlichen Frage, wie Blended Learning erfolgreich gestaltet werden kann. Dabei nimmt es einerseits auf theoretische Überlegungen Bezug und zeigt andererseits anhand ausgewählter Beispiele, wie die Theorie in Sinne einer guten Praxis genutzt und umgesetzt werden kann. Im Einzelnen wird zunächst dargelegt, was unter „erfolgreichem“ Blended Learning verstanden werden kann. Diese Überlegungen führen zu einem Vierklang aus Inhalt, Technik, Pädagogik/Didaktik und Soziologie als Erfolgsfaktoren für Blended Learning sowie zu je einer abstrakten Prozess- und Objektsicht auf das Blended Learning (Kapitel 2). Hiervon ausgehend wird durch Bezugnahme auf zwei Blended Learning-Projekte der Autoren gezeigt, wie die Objektsicht sinnvoll konkretisiert und für die Praxis handhabbar gestaltet werden kann (Kapitel 3). Danach TFH Wildau, Wissenschaftliche Beiträge 2006 werden Ergebnisse der Anwendung dieser Objektsicht in den angesprochenen Projekten vorgelegt (Kapitel 4). Zusammen mit den vorangehenden Überlegungen führen sie zu einer abschließenden Bewertung, inwieweit erfolgreiches Blended Learning möglich ist (Kapitel 5). 2 Konzeptionelle Ansätze zur Entwicklung, Bereitstellung und Nutzung von Blended Learning-Lösungen 2.1 Wann ist eine Blended Learning-Lösung eigentlich erfolgreich? Nachdem Blended Learning offensichtlich kein Selbstgänger ist, stellt sich Frage wie es „möglichst erfolgreich“ gestaltet und vor allem was unter „möglichst erfolgreich“ verstanden werden kann. Bei der Beantwortung kommt es auf die Perspektive an, aus der diese Frage betrachtet wird. Beispielsweise heißt „erfolgreich“ aus Sicht des Lernenden, dass er mit Hilfe des Blended Learning-Angebotes einen auf ihn zurecht geschnittenen und damit für ihn angemessenen Weg durch das zu lernende Themengebiet finden und sich dieses effektiv und effizient erschließen kann. Aus Sicht des Anbieters von Blended Learning-Lösungen bedeutet „erfolgreich“ natürlich auch, dass der Lerner mit dem Bildungsangebot im eben genannten Sinne zurecht kommt und zufrieden ist. Spätestens dann aber, wenn der Anbieter auch die Aufgabe der Entwicklung von Blended Learning-Kursen wahrnimmt, besitzt „erfolgreich“ mindestens eine weitere Facette. Jetzt kommt es ebenso darauf an, die Entwicklung verschiedener Blended Learning-Pakete mit unterschiedlichen Lerninhalten möglichst effektiv und effizient zu gestalten. Insgesamt führen alle verschiedenen Sichten auf „möglichst erfolgreiche“ Blended Learning-Lösungen zur Frage nach sinnvollen Konzepten für die effektive und effiziente Entwicklung, Bereitstellung und Nutzung entsprechender Blended Learning-Angebote. Diese Aspekte betreffen einerseits die Prozesse eben der Entwicklung, Bereitstellung und Nutzung einer Blended Learning-Lösung sowie andererseits das Artefakt „Blended Learning-Lösung“ selbst in seiner Eigenschaft als Operationsobjekt (Produkt bzw. Handlungsgegenstand) dieser Prozesse. Wie bereits eingangs angedeutet wurde, muss hierbei die Sicht des Lerners als ausschlaggebend eingeschätzt und daher vor allen anderen Bezügen berücksichtigt werden: Nur dann, wenn der Lerner erfolgreich mit dem Artefakt lernen kann, haben sich die Entwicklung, Bereitstellung und Nutzung des Artefaktes gelohnt. Anders ausgedrückt: Didaktische Überlegungen müssen als Basis für die in Rede stehenden Prozesse und das Artefakt Blended Learning-Lösung dienen. Umgekehrt dürfen diese aber auch nicht losgelöst von anderen Betrachtungsebenen gesehen werden: Natürlich spielen beispielsweise auch die Lerninhalte und das Miteinander im Lernprozess eine wesentliche Rolle. 2.2 Der Vierklang aus Inhalt, Technik, Pädagogik/ Didaktik und Soziologie als Erfolgsfaktor Um erfolgreich eLearning-Module zu entwickeln und in ein Blended-Learning-Konzept zu integrieren, ist zu vergegenwärtigen, dass hierbei neben dem Content im TFH Wildau, Wissenschaftliche Beiträge 2006 Wesentlichen drei weitere Bereiche zu berücksichtigen sind. Es handelt sich prinzipiell um – inhaltliche, – technische, – pädagogisch/didaktische sowie – soziologische Aspekte, die alle miteinander verbunden bzw. voneinander abhängig sind und damit gemeinsam in einem aufeinander abgestimmten harmonischen Vierklang zu beachten sind. Die folgende Abbildung verdeutlicht die relevanten Themen und Schlagworte sowie deren Zusammenhänge: Darstellung Struktur Lernplattform Qualität Usertracking Autorentools Methodik/Didaktik Methodik / Didakti k Standards Technik Technik Inhalte Inhalte Blended Learning Teletutoring / Betreuung Interaktivität Modularität Umsetzung Umsetzung Trainerausbildung Web Based Trainings Abb. 1: Betrachtungsebenen für Blended Learning-Konzepte 2.3 Prozesssicht: Ein Vorgehensmodell für Entwicklung, Einsatz und Anwendung von eLearning-Komponenten Analog zur Entwicklung und zum Einsatz „normaler“ Software muss ein geeignetes Vorgehensmodell Basis jedweder multimedial gestützten Aus- oder Weiterbildung sein. Mit seiner Hilfe werden alle Schritte zur Entwicklung und Durchführung des Qualifizierungsangebotes koordiniert. Es wird so festgelegt, wer wann was zu tun hat beziehungsweise tun darf. Darüber hinaus enthält es Festlegungen über die dabei jeweils einzusetzenden Methoden und Werkzeuge sowie über die erwarteten Arbeitsergebnisse. Die Entwicklung einer Blended Learning-Anwendung ist ein Projekt und kann als solches etwa mittels des folgenden, aus der Softwareentwicklung bekannten Vorgehensmodells organisiert werden (vgl. beispielsweise [Balzert 2000] sowie ergänzend [Pawlowski 2001]): Abb. 2: Ein mögliches eLearning-Vorgehensmodell 69 Kennzeichnend darin ist das Zusammenspiel von Leistungserbringungsprozess, Führungs- und Supportprozessen. Die Leistungserbringung erfolgt beispielsweise in den Phasen Geschäftsanalyse, Design, ..., Einsatz mit zugehörigen Meilensteinen und Arbeitsergebnissen. Sie wird mittels der Führungsprozesse Projekt- und Qualitätsmanagement geplant, durchgeführt, kontrolliert und gesteuert und erfährt innerhalb der Supportprozesse die notwendige Bereitstellung etwa einer Qualitäts- und Testorganisation. 2.4 Objektsicht: Das Modell BLESS Die Prozesssicht muss nun noch durch eine geeignete Sicht auf das Operationsobjekt ergänzt werden. Dazu bietet sich die Blended Learning Systems Structure BLESS [Derntl / Motschnig-Pitrik 2005, S. 113ff.] an. Sie liefert ein Modell, nach dem der Aufbau eines eLearning-Systems gestaltet, verstanden, beschrieben und realisiert werden kann. Hier wird ebenso wie in der Prozesssicht von den Ähnlichkeiten und Übereinstimmungen in der Entwicklung, Bereitstellung und Nutzung von „normaler“ Anwendungssoftware und Blended Learning-Lösungen ausgegangen. Zusätzlich werden die für eLearning respektive Blended Learning als notwendig herausgestellten Betrachtungsebenen Fachinhalt (Lernstoff), Technik (Entwicklungs- und Lernplattform), Didaktik (Gestaltung des Lernangebotes) und Soziologie (Zusammenarbeit der Lehrenden und Lernenden) sowie deren Beziehungen zueinander berücksichtigt. Dieser „Vierklang“ wird durch Integration der einzelnen Aspekte in einem Schichtenmodell mit insgesamt sechs verschiedenen Ebenen erreicht: – Layer 0: Learning Theory & Didactic Baseline Festlegung der umzusetzenden Lerntheorie und der didaktischen Ausrichtung des Kurses als „Treiber“ für alle weiteren Layer – heutzutage lauten die Stichworte Konstruktivismus und Handlungsorientierung – Layer 1: Blended Learning Courses Repräsentation des konkreten Blended Learning-Angebotes Lerntheorie Anwendung Layer 0: Lerntheorien und Didaktische Grundlagen Layer 1: Blended Learning Kurse Visualisierung, Modellierung M1 Layer 2: Kursszenarien Modularisierung Plattformunabhängig Mn Layer 3: Blended Learning Patterns Implementierung Layer 4: Webtemplates Instanziierung Plattformabhängig Layer 5: Lernplattformen Technologie Abb. 3: Das BLESS-Modell [Derntl / Motschnig-Pitrik 2005] 70 – Layer 2: Course Scenarios – Learning Traces Denkbare, sinnvolle und mögliche Kursabfolgen – Layer 3: Blended Learning Patterns – Learnflow Patterns Wiederkehrende Lernabläufe – Layer 4: Templates – Learnflow Templates Vorgefertigte Vorlagen zur Nutzung innerhalb einer eLearning-Anwendung – Layer 5: Learning Platform Technische Basis des eLearning-Angebotes Die Zusammenhänge der Ebenen werden aus Abbildung 3 ersichtlich. 2.5 Umsetzung in die Praxis In der Praxis kommt es nun darauf an, die skizzierten Konzepte so zu konkretisieren, dass sie als Grundlage für die Entwicklung, Bereitstellung und Nutzung von Blended Learning-Lösungen dienen können. Nachstehend werden die Charakteristika eines konkreten, in der praktischen Anwendung befindlichen BLESS-konformen Konzeptes für die Entwicklung, den Einsatz und die Anwendung von Blended Learning-Lösungen zusammengefasst. 3 Konkretisierung der konzeptionellen Ansätze 3.1 Werkzeuge: Learning Management Systeme und Autorentools (Layer 5) Bezüglich der Werkzeuge („Technik“) ist grundsätzlich zwischen „Learning Management Systemen“ („Lernplattformen“) und „Autorenwerkzeugen“ zu unterscheiden. Vereinfacht ausgedrückt dienen Learning Management Systeme (LMS) vorrangig zur Verwaltung/Administration von Inhalten und Nutzern (Lerner, Moderatoren), wohingegen die Autorenwerkzeuge („Autorentools“) zur Erstellung der Module (Web Based Trainings, WBTs) gedacht sind. Oftmals sind in Learning Management Systemen bereits Autorentools integriert, die häufig jedoch hinsichtlich der Funktionalität bzw. der Lerntheorie Verwendung multimedialer Komponenten eingeschränkt sind. Aus diesem Grunde werden separate AuVerbesserung torenwerkzeuge angeboten, die die Erstellung didaktisch hochwertiger eLearning-Module ermöglichen. Um Anwendung diese Module erfolgreich in Learning Management Systeme integrieren zu M2 können, haben sich in den letzten Jahren Standards etabliert (SCORM, Design AICC). Sowohl Learning Management Systeme als auch Autorentools, die Support jeweils die üblichen Standards erfüllen, gibt es mittlerweile viele am Funktionalitäten Markt. Auch ihre Funktionalitäten bzw. Möglichkeiten der Integration von multimedialen Komponenten sind ähnlich, so dass der Fokus nun mehr auf die Erstellung von Technologie Inhalten, d.h. auf didaktische und pädagogische Aspekte gelegt werden TFH Wildau, Wissenschaftliche Beiträge 2006 sollte. Anders formuliert: Die Technik ist da, sie muss jetzt „nur noch“ optimal genutzt werden. (Die Autoren setzen einerseits das Open Source Learning Management System „ILIAS“ und andererseits das Autorentool „Dynamic Power Trainer“ der Firma Dynamic Media ein.) 3.2 Methoden: Learning Traces, Learnflow Pattern und Learnflow Templates (Layer 2-4) Im Gegensatz zur Technik stellt das methodische Vorgehen bei der Entwicklung von eLearning-Lösungen nach wie vor eine große Herausforderung dar. Grundsätzlich ist es zunächst durch die Erstellung von Drehbüchern und deren Umsetzung mittels Autorenwerkzeugen geprägt. Darüber hinausgehend kommen Learning Traces, Learnflow Pattern und Learnflow Templates zum Einsatz: – Learning Traces Learning Traces bieten die Möglichkeit, verschiedene Kursabfolgen („tracks“) im Rahmen eines eLearningAngebotes zu realisieren und dem Lernenden so die Auswahl des für ihn entsprechend seiner Vorkenntnisse bzw. Wünsche optimalen Kursangebotes zu gestatten. Abb. 4: Learning Traces – Learnflow Pattern Learnflow Pattern sind Lernmuster bzw. -abläufe, die in allen Lehr- und Lernprozessen wiederkehren und die die Umsetzung der je spezifischen Lernprozesse mittels geeigneter wiederkehrender Bausteine erlauben (vgl. [Derntl / Motschnig-Pitrik 2003]). Als Beispiele seien die Erarbeitung von Begriffen oder fachlichen Zusammenhängen durch den Lernenden sowie die Erledigung von Übungs- oder Prüfungsaufgaben genannt. – Learnflow Templates Learnflow Templates sind schließlich vorgefertigte abstrakte Bausteine einer eLearning-Anwendung. Sie realisieren Learnflow Pattern und können durch geeignetes „Customizing“ konkretisiert („instanziiert“) und auf die jeweilige eLearning-Anwendung zugeschnitten werden. Durch dieses Vorgehen wird die Wiederverwendung der eLearning-Bausteine analog der Wiederverwendung von Software ermöglicht. Die entwickelten eLearningKomponenten können wie ein Gerüst in verschiedenen Themenbereichen mit jeweils anderen fachlichen Inhalten genutzt werden, indem beispielsweise jeweils eine Rahmengeschichte zugrunde gelegt wird, in die der Lernstoff TFH Wildau, Wissenschaftliche Beiträge 2006 und die Prüffragen eingebettet sind, und deren Inhalt, Kontext sowie die handelnden Personen je nach Lerninhalt ausgetauscht oder variiert werden. 3.3 Lösung: Konzeption und Realisierung eines eLearning-Moduls (Layer 1-2) Bei der Konzeption und Realisierung eines eLearningModuls sind aus Sicht der Layer 1 und 2 mindestens die folgenden vier Aspekte zu beachten, die hier auch im Sinne von Handlungsempfehlungen verstanden werden sollen: – Didaktische Qualität (Komplexität, „Merkbarkeit“) Hier kommt es ganz wesentlich darauf an, ein klares, differenziertes Lernangebot vorzulegen, das auf das Nötigste reduziert ist („Didaktische Reduktion“). Den Lernenden sollte es ermöglicht werden, ihr subjektives Wissen einzubringen, indem sie Neues mit bereits Erlerntem verknüpfen können. Dies schließt eine genaue Zielgruppenanalyse mit ein. Hinsichtlich der „Merkbarkeit“ ist einerseits eine Orientierung an der „magischen Sieben“ empfehlenswert: Eine Person kann sich bis zu sieben Begriffe, Bilder, Punkte o.ä. recht gut merken. Mehr Information auf einer Seite oder in einem Lernobjekt können nicht mehr so gut von den Lernenden verarbeitet werden. Andererseits sind Verknüpfungen von Neuem mit Bekanntem durch Visualisierung (passende Bilder / Animationen) und Wiederholung gut geeignet, um das Ziel, den Lernstoff in das Langzeitgedächtnis zu transportieren, zu erreichen. – Struktur („Innere Ordnung“) Insbesondere hinsichtlich der „Merkbarkeit“ und den damit notwendigen Wiederholungsmöglichkeiten des Lernstoffs ist eine klare modulare Struktur erforderlich. Innerhalb der Module sollten Inhalte, Zusammenfassungen, Zwischenfragen, Kommentare usw. stets an derselben Stelle und in gleichen Abständen erfolgen. Diese „logischen Strukturen“ dürfen nicht aufgebrochen, sondern müssen strikt eingehalten werden. – Lerntyporientierung Um Ganzheitliches zu praktizieren, ist das „Lernen mit allen Sinnen“ gefordert. Das heißt, dass Lernen über unterschiedliche Sinneskanäle (sensorische Kanäle) erfolgt. Hier wird zwischen auditiven, visuellen oder optischen und kinästhetischen oder handlungsorientierten Lerntypen unterschieden, wobei in der Regel Mischformen mit unterschiedlich stark ausgeprägten Schwerpunkten in die eine oder andere Richtung vorliegen. Grundsätzlich können folgende Gestaltungshinweise gegeben werden: Visualisierungen nutzen, Bilder und Texte müssen zusammenpassen, zusammenhängende Bilder und Worte müssen räumlich beieinander liegen und gleichzeitig präsentiert werden, Animationen gezielt einsetzen (bei „Anfängern“ mehr, bei „Fortgeschrittenen“ weniger). – Handlungsorientierung Die Handlungskompetenz setzt sich aus den Komponenten „Fachkompetenz“, „Methodenkompetenz“ und „Sozialkompetenz“ zusammen. Diese mit Hilfe von eLearning-Modulen auszubilden, ist mit Sicherheit ein anspruchsvolles Ziel. Auf den ersten Blick liegt es nahe, anzunehmen, dass mit Blended Learning lediglich Fachwissen angemessen vermittelt und damit nur die Fachkompetenz ausgebildet werden kann. Dennoch ist 71 es möglich, die anderen Kompetenzfelder ebenfalls zu fördern. Ein Weg dazu besteht z.B. darin, den Lernstoff in eine Rahmenhandlung einzubinden, die aus dem Umfeld hervorgeht, aus dem der Lernende stammt, das er gut beurteilen kann und in dem er sich weitestgehend auskennt. Aus diesem Kontext heraus Inhalte zu vermitteln, Entscheidungen (Zwischenfragen) und den Aufbau neuer inhaltlicher Verknüpfungen abzuverlangen, also Handlungsprodukte als wesentliches Merkmal handlungsorientierten Unterrichts herstellen zu lassen [Jank/Meyer 1991, S. 356], führt weit über das reine Vermitteln von Inhalten/Fakten hinaus. 4 Zwei Beispiele: Umsetzung der Theorie in die Praxis 4.1 Charakteristika des konkreten Blended Learning-Systems Ausgehend von obigen Überlegungen haben die Autoren zwischenzeitlich ein BLESS-konformes Blended LearningSystem konzipiert und prototypisch in zwei Anwendungsfällen zum Einsatz gebracht. Das System basiert auf der Lernplattform ILIAS und wurde mit dem Dynamic Power Trainer als Autorenwerkzeug realisiert. Es besitzt zusammengefasst folgende Merkmale: – Ein flexibles Vorgehensmodell mit einer spezifischen Kombination von Präsenz- und Selbstlernanteilen je eLearning-Kurs, – eine innovative Kombination von Learning Traces, Learnflow Pattern und Learnflow Templates, – die Verbindung moderner Autoren- und Lernmanagementsysteme auf Basis aktueller Schnittstellen (Stichwort: SCORM) sowie – Lernunterstützung durch den Einsatz von elektronischen Tutoren, Hotline-Support via Mail, Kommunikation in Chat-Rooms und Foren. Aufgrund dieses flexiblen Lösungsdesigns ist das System universell im Rahmen von „Teleausbildungsmaßnahmen“ einsetzbar. Es kann durch das oben erwähnte Customizing – speziell: durch den Austausch des modular strukturierten Lernstoffs – relativ leicht in vielen Fachgebieten genutzt werden und damit einen Beitrag zur effektiven und effizienten Befriedigung des eingangs geschilderten Weiterbildungsbedarfs leisten. Konkret steht es zurzeit prototypisch für Weiterbildungsmaßnahmen im Rahmen der Qualifikation von Kfz-Schadensgutachtern sowie auf dem Gebiet der Schulung von Pflegekräften für den Einsatz in der Gerontopsychiatrie zur Verfügung. 4.2 Weiterbildung von Kfz-Schadensgutachtern Kfz-Schadensgutachter sind gesetzlich verpflichtet, sich regelmäßig fortzubilden. Zukünftig ist geplant, einen Teil dieser Ausbildung via Blended Learning zu realisieren, um beispielsweise Reisekosten der Gutachter für die Fahrten zum Schulungsort einzusparen, aber auch um den Gutachtern die Möglichkeit zu bieten, die eigenen Lernzeiten und die eigene Lerngeschwindigkeit festzulegen. Hier exemplarisch drei Bildschirmansichten aus dieser, auf einer Rahmenhandlung basierenden Blended LearningLösung: 72 Abb. 5: Einführung in die Rahmenhandlung, Vorstellung der agierenden Personen Der Avatar „Klaus, die Maus“ führt den Lernenden in die Rahmenhandlung (Verkehrsunfall) ein und stellt die handelnden Personen vor. Abb. 6: Wissensvermittlung Die Wissensvermittlung erfolgt in einer je gleichen Weise: Neben einem durch ein „i“ gekennzeichneten Informationsblock, in dem das behandelte Thema zusammengefasst und das eigentliche Lernziel formuliert werden, gibt es den Wissensblock sowie den Hinweisblock: Innerhalb des mit einer Glühlampe gekennzeichneten Wissensblocks werden die detaillierten Lerninhalte dargestellt. Im Hinweisblock (symbolisiert durch ein Ausrufungszeichen in einem Dreieck) stehen schließlich interessante Ergänzungen zu den Lerninhalten sowie Tipps zu den später zu beantwortenden Übungsfragen. Abb. 7: Wissensüberprüfung TFH Wildau, Wissenschaftliche Beiträge 2006 Nach jeder Lerneinheit muss sich der Lernende den durch ein „?“ gekennzeichneten Prüffragen unterziehen. Er kann so seinen Lernerfolg ermitteln und den weiteren Kursablauf daraus ableiten (z.B. Fortgang im Kurs bei fehlerfreier Beantwortung oder Rückschritt zu vorherigen Kursabschnitten bei fehlerhaften Antworten). 4.3 Weiterbildung von Pflegekräften Im Pflegebereich befinden sich Ideen zur Umsetzung von eLearning-Maßnahmen zumindest teilweise noch in den „Startlöchern“, d.h. Blended-Learning-Konzepte haben bisher kaum oder gar nicht Eingang in die Aus- und Weiterbildung von Mitarbeitern gefunden. So steht eine vergleichbare Entwicklung beispielsweise im Falle gerontopsychiatrischer Pflegedienstleistungen noch aus. Entsprechende Lehr- und Lernwege müssen neu konzipiert werden. Dabei gilt es nicht nur, die jeweiligen fachlichen Fähigkeiten zu berücksichtigen und auszubilden, sondern auch den wachsenden Anforderungen an die Managementkompetenzen der Pflegekräfte gerecht zu werden. Dies ist zum Beispiel vor dem Hintergrund sich ausdifferenzierender Organisationsformen in der Gerontopsychiatrie vonnöten. Ebenfalls von der Standard-Lösung ausgehend wurde bereits ein erster Prototyp für die Blended Learning basierte Weiterbildung von Pflegekräften im Bereich der Gerontopsychiatrie entwickelt. Hier die drei den vorangehenden Bildschirmansichten entsprechenden Screenshots aus diesem Prototyp. Sie zeigen die Verwandtschaft der verschiedenen eLearning-Lösungen, d.h. sie verdeutlichen, dass die einzelnen Lösungen durch Customizing eines vorgegebenen Standards entstanden sind: Abb. 8: Einführung in die Rahmenhandlung, Vorstellung der agierenden Personen Abb. 10: Wissensüberprüfung Insgesamt wird deutlich, dass bei beiden Entwicklungen nach ein und demselben Schema vorgegangen wurde. Der Einsatz von Learnflow Patterns und Learnflow Templates (BLESS-Layer 3 und 4) hat die Entwicklung im Rahmen der Projekte nicht nur vereinfacht sondern insbesondere auch wirtschaftlicher gemacht. Den Autoren liegen allerdings noch keine gesicherten Erkenntnisse bzw. Kalkulationen vor, ob diese Ergebnisse auf andere Projekte übertragbar sind. Die bisherigen Erfahrungen stimmen jedoch zuversichtlich. 5 Abschließende Bewertung Qualifizierungsmaßnahmen mittels des präsentierten Blended Learning Systems tragen in stärkerem Maße als tradierte Weiterbildungsaktivitäten den wachsenden betriebswirtschaftlichen Anforderungen an entsprechende Maßnahmen in verschiedenen Fachgebieten wie z. B. Medizin und Pflege Rechnung. Beispielsweise erfordern sie keine komplette Freistellung der Teilnehmenden von ihrer Arbeit, verringern Reisekosten und -zeiten und reduzieren damit die Ausfallzeiten und -kosten für den jeweiligen Arbeitgeber. Insofern ist dieses Konzept ebenso für niedergelassene Ärzte wie für Pflegekräfte, kleinere und mittlere Unternehmen, Ingenieurbüros, Gutachter etc. geeignet, die sich regelmäßig fortbilden müssen, deren berufliche und / oder wirtschaftliche Situation ihnen aber erhebliche Grenzen für diese Weiterbildungsmaßnahmen setzt. Darüber hinaus stellt eine Konzeption von Blended Learning-Kursen nach dem BLESS-Modell die Weichen für eine perspektivisch günstigere Entwicklung qualitativ hochwertiger eLearning-Module. Abb. 9: Wissensvermittlung TFH Wildau, Wissenschaftliche Beiträge 2006 73 Literatur Patricia Arnold u.a.: „E-Learning, Handbuch für Hochschulen und Bildungszentren“. BW Bildung und Wissen, 2004 Helmut Balzert: „Lehrbuch der Software-Technik“. Spektrum Akademischer Verlag, 2000 Peter Baumgartner: „Didaktik, eLearning-Strategien, Softwarewerkzeuge und Standards- Wie passt das zusammen?“ Erschienen in Maike Franzen: „Mensch und E-Learning – Beiträge zur E-Didaktik und darüber hinaus“. Aarau, Sauerländer, 2003 Michael H. Breitner, Gabriela Hoppe (Hrdg.): „E-Learning-Einsatzkonzepte und Geschäftsmodelle“. Physica-Verlag, 2004 Michael Derntl, Renate Motschnig-Pitrik: „Pattern for Blended, Person-Centered Learning: Strategy, Concepts, Experiences and Evaluation”. Technical Report No. TR-20033004, Department of Computer Science and Business Informatics, University of Vienna, Oktober 2003 Michael Derntl, Renate Motschnig-Pitrik: „The role of structure, patterns, and people in blended learning”. Internet and Higher Education 8 (2005) 111-130 Werner Jank, Hilbert Meyer: „Didaktische Modelle”. Cornelsen Scriptor, 1991 MASGF (Ministerium für Arbeit, Soziales, Gesundheit und Familie) des Landes Brandenburg (Hg.): „Brandenburger Fachkräftestudie – Entwicklung der Fachkräftesituation und zusätzlicher Fachkräftebedarf“. Potsdam, 2005 Helmut Niegemann u.a.: „Kompendium E-Learning. X.media.press“. Springer, 2004 Jan Pawlowski: „Das Essener-Lern-Modell (ELM): Ein Vorgehensmodell zur Entwicklung computerunterstützter Lernumgebungen“. Dissertation, Essen, 2001 Autoren Prof. Dr. Ulrike Tippe Technische Fachhochschule Wildau Fachbereich Betriebswirtschaft/ Wirtschaftsinformatik Tel. +49 3375 508-556 [email protected] Prof. Dr. Bertil Haack Technische Fachhochschule Wildau Fachbereich Wirtschaft, Verwaltung und Recht Tel. +49 3375 508-914 [email protected] 74 TFH Wildau, Wissenschaftliche Beiträge 2006 Ein webbasiertes Evaluationssystem für Hochschulen Ralf Vandenhouten, Miriam Selz 1 Einleitung Angetrieben durch die Hochschulgesetzgebung, Maßnahmen zur systematischen und regelmäßigen Veranstaltungsevaluation von Fachbereichen zu ergreifen [4] [5], wurde das Projekt „Webbasiertes Evaluationssystem“ vom Total Quality Management (TQM) der Technischen Fachhochschule Wildau (TFH Wildau) angeregt. Um einen hohen Qualitätsstandard der Lehre sicherzustellen, wollte die TFH Wildau die Qualität der Veranstaltungen messbar machen und suchte nach technischen Verbesserungsmöglichkeiten. Ziel bei diesem Projekt war eine umfassende Lösung, die es auf einfache und kostengünstige Art ermöglicht, Evaluationsdaten zu erheben, elektronisch zu erfassen und auszuwerten sowie den Dozenten und der Hochschulleitung zur Verfügung zu stellen. Die Lehreinheiten erhalten auf diese Weise einen schnellen und fundierten Einblick in ihre Leistungen sowie eine entsprechende Einschätzung und können daraus konkrete Anregungen zur Weiterentwicklung ihrer fachlichen Kompetenz gewinnen. Die aus der Evaluierung hervorgehenden Informationen können zudem zur internen Rechenschaftslegung sowie zur kontinuierlichen Qualitätssicherung und -verbesserung genutzt werden. 2 Hintergrund 2.1 Das Qualitätsmanagement an der TFH Wildau In dem Zeitraum 2004-2006 wird ein umfassendes Qualitätsmanagementsystem, das TQM-Projekt (TQM: Total Quality Management oder Umfassendes Qualitätsmanagement) an der TFH Wildau eingeführt. In diesem Rahmen wurde ein hochschulspezifisches System zur internen Evaluation des Studiums an der TFH Wildau entwickelt. Für die Regelung inhaltlicher und organisatorischer Rahmenbedingungen der internen Evaluation wurde eine zentrale Evaluationskommission unter Leitung des Vizepräsidenten Qualitätssicherung gebildet, welcher mittlerweile als fester Bestandteil in der Aufbauorganisation der TFH Wildau verankert ist. Das interne Evaluationssystem umfasst die Evaluationsarten: – studentische Lehrevaluation – Dozentenbefragung – Kennzahlenbewertung – Fachevaluation. [3] 2.2 Evaluierung Die Evaluierung ist ein periodisch/zyklisch und/oder anlassbezogen genutztes Verfahren der Qualitätssicherung zur Analyse, Bewertung und Förderung der Qualität der Lehre im Hochschulwesen. Neben hochschulinternen Qualitätslenkungsmechanismen (Korrektur- und Verbes- TFH Wildau, Wissenschaftliche Beiträge 2006 serungsmaßnahmen) bietet sie damit Vorraussetzungen für den Leistungsvergleich mit anderen Hochschulen und kann (soll) bei der leistungsorientierten Mittelzuweisung (hochschulintern und -extern) berücksichtigt werden. Evaluation wird so zum Entwicklungsfaktor (Organisations/Strategieentwicklung, Mittelverteilung) der Hochschule, erhöht die Transparenz der Lehr- und Studienprozesse und stärkt die Eigenverantwortung der Hochschule. Wesentliche Managementaufgaben des TQM an der TFH Wildau sind das Erfassen der Zufriedenheit der Studenten und Mitarbeiter (Dozenten, Professoren) und das Ableiten und Umsetzen von Maßnahmen. [3] 2.2.1 Studentische Evaluierung Die Evaluierung der Lehre an der TFH Wildau ist eine Umfrage zu einzelnen Vorlesungen, die jeweils gegen Ende der Vorlesungszeit mit Hilfe von Fragebögen durchgeführt wird. Bei der studentischen Evaluierung von Lehrveranstaltungen geht es darum festzustellen, ob der Dozent seine Ziele sinnvoll gewählt hat und ob die Methoden des Dozenten dazu geeignet sind, diese Ziele zu erreichen. Oberstes Ziel der Evaluierung ist die Verbesserung der Qualität der Lehre, darunter werden mehrere Zielsetzungen verfolgt: 1. ein zeitnahes Feedback der Studierenden an die Dozenten 2. Analyse der Lehr- und Lernsituation in den Studiengängen 3. Erkennen von Potenzialen für Verbesserungen der Lehrund Lernsituation 4. Vergleich der Evaluationsergebnisse für Studiengänge über mehrere Semester 5. Umsetzen von geeigneten Maßnahmen in den Fachbereichen und an der Hochschule. Die Studierenden sind die Zielgruppe der Lehrveranstaltungen. Zufriedene Studenten werden durch hohe Lehrqualität, die eine regelmäßige Kontrolle und stetige Verbesserung erfordert, gewonnen. [3] 3 Ausgangssituation und Anforderung 3.1 Klassische Durchführung der studentischen Lehrevaluation an der TFH Wildau Mit Hilfe eines klassischen Erhebungsbogens wurden erstmals im Sommersemester 2003 Meinungen der Studierenden, studienfachgebunden in der letzten Lehrveranstaltung des Semesters, erhoben. Grundlage der Durchführung waren die Verteilerlisten für die einzelnen Fachbereiche. Auf deren Basis wurde ein entsprechender Druckauftrag sowie ein Beschaffungsauftrag für Materialien erteilt. Das umfangreiche Sortieren, Klammern, Eintüten der Erhebungsbögen sowie deren Beschriftung auf Basis der Verteilerlisten erfolgte durch die Autoren des TQM. Diese 75 Bögen wurden in den jeweiligen Dekanaten zur Abholung durch die Dozenten bereitgestellt. Diese Planung und Durchführung vollzog sich innerhalb eines Semesters. Nach Ablauf des Erhebungszeitraumes wurde anhand der Verteilerliste der Rücklauf überprüft. Die Bögen wurden eingelesen und es erfolgte die Erstellung der fachbereichsspezifischen Auswertungsunterlagen. [3] 3.1.1 Schwächen 1 Die Planung, Durchführung und Auswertung der schriftlichen Lehrevaluation bedarf eines sehr hohen Kapazitätsbedarfs (Material und Papier) 2 Manuelles Papierhandling und Archivierung erfordert zusätzliche Ressourcen und ist fehleranfällig. 3 Aufgrund des vom Direktstudium abweichenden Studienablaufs und des daraus resultierenden erhöhten Kapazitätsaufwandes ist die Durchführung der Evaluation des Fernstudiums verschoben worden. Zu dem bestehenden Aufwand der Fernevaluierung führte die nachträglich organisierte Evaluierung und Auswertung zu einem erheblichen Mehraufwand. 4 Durch den festgelegten terminlichen Ablauf konnten dual-orientierte Studiengänge nicht evaluiert werden. Die Evaluierung wurde durch die Studiengangkoordinatoren unabhängig organisiert. Die Ergebnisse waren daher nicht Bestandteil der gesamten Evaluation. Die Erhebungsbögen mussten separat von den übrigen statistisch ausgewertet werden. Insgesamt hatte dies einen beträchtlichen Personalmehraufwand zur Folge. 5 Seminargruppen, welche sich in der Diplomphase befanden, wurden ebenfalls zum genannten Zeitpunkt nicht erfasst. Hier vollzog sich die Handhabung wie unter Punkt (3). 6 Das Programm zur statistischen Auswertung ist bezüglich der Auswahl spezifischer Auswertungsparameter sehr unflexibel. 7 Eingetütete Erhebungsbögen wurden z.T. nicht selbständig durch die Dozenten im Dekanat abgeholt, dadurch entstand für die Mitarbeiter in den Fachbereichsdekanaten ein entsprechender Mehraufwand. 3.2 Bedarf Um diesen Schwächen entgegenzuwirken, wurde die Anwendung der Methode „Online-Befragung“ anstelle der schriftlichen Befragung vom TQM Team analysiert und die Anforderung dem Studiengang Telematik der TFH Wildau übermittelt. Das Hauptanliegen war, eine höhere Effektivität der studentischen Evaluation zu erreichen. Da die Evaluation begleitend zu allen anderen Aufgaben durchgeführt wird, sollte der Aufwand für die Vorbereitung, Durchführung und Auswertung deutlich reduziert werden und die Auswertung zeitnah den Dozenten zur Verfügung gestellt werden. 4 Projektbeschreibung Um den Evaluierungsprozess effizienter, flexibler und zeitunabhängiger zu gestalten, wurde das „Webbasierte Evaluationssystem“ vom Studiengang Telematik ent- 76 wickelt. Es handelt sich dabei um ein Umfrage-System zur elektronischen und webbasierten Unterstützung der gesamten Lehrevaluation. (Abb. 4.1) Abb. 4.1: Aufbau des Webbasierten Evaluationssystems Die wesentlichen Charakteristika sind: – wahlweise papiergebundenes oder papierloses webbasiertes System, – anonyme Befragung, – effiziente und automatisierte Lehrevaluation, – zeitsparende, einfache Vorbereitung und Auswertung. Durch unterschiedliche Mechanismen für die Datensicherheit und den Datenschutz kann das webbasierte Evaluierungssystem als 100 % anonym gelten. Es besitzt eine differenzierte Nutzer- und Rollenverwaltung für Administratoren, Dozenten/Mitarbeiter und die (Hochschul-)Leitung. Verschiedene Administratorrollen und mehrstufige Zugriffsrechte erlauben es, intern festzulegen, welche Rolle welche Zugriffsrechte hat (z. B.: Dekan: Einsicht in alle Auswertungen nur der Dozenten seines Fachbereiches durch entsprechendes Ein- bzw. Ausblenden der Dozentennamen). Unmittelbar nach der Abgabe der Bewertungen durch die Studierenden und Datenerfassung der Fragebögen besteht die Möglichkeit, über passwortgeschützte Dozenten- und Benutzerkonten Einsicht in die Ergebnisse der Evaluation zu nehmen (sofern vom Administrator der entsprechende Zugriff freigegeben wurde). 4.1 Einführungsphase an der TFH Wildau und erkannte Probleme Die Lehrevaluation mit dem webbasierten System wurde vom 03.01. bis 14.01.2005 innerhalb des Direktstudiums Wintersemester 04/05 erstmalig ausschließlich online durchgeführt. Um eine hohe Beteiligung zu erzielen, wurden den Seminargruppen PC-Labore zugeteilt. Im Sommersemester 2005 erfolgte die Evaluation, wiederum ausschließlich online, nach dem Bedarf der Fachbereiche. Eine durchgängige Online-Evaluation in den PC-Laboren der TFH hätte einen ähnlich hohen Aufwand in der Raumplanung wie im WS 04/05 erfordert. Basierend auf den Erfahrungen und Rückmeldungen der Professoren, Lehrbeauftragten und Studenten im WS 04/05 wurden Veränderungen im Ablauf vorgenommen, der Fragebogen überarbeitet und gekürzt sowie das System bezüglich der Einsatzmöglichkeiten weiterentwickelt. TFH Wildau, Wissenschaftliche Beiträge 2006 In diesem Wintersemester wurde die Evaluation in der Zeit vom 12.12.2005 bis 13.01.2006 durchgeführt. Durch die Weiterentwicklung des Evaluierungssystems konnte den Dozenten die Möglichkeit angeboten werden, die Evaluation auch mit vollautomatisch scannbaren Fragebögen durchzuführen (Abb. 4.2). [2] Abb. 4.2: Ausschnitt des scannbaren Fragebogens mit Barcode 4.2 Ablauf und Funktionsweise der Lehrevaluation mit dem Evaluierungssystem Die Evaluierung der Lehre an der TFH Wildau wird immer gegen Ende der Vorlesungszeit durchgeführt. Folgende Möglichkeiten zur Evaluierung bestehen: – die Bewertung während der Lehrveranstaltung am PC mit Code – die Bewertung während der Lehrveranstaltung mit Fragebögen – die Bewertung außerhalb der Lehrveranstaltung am PC mit Code. Die ausschließlich webbasierte Befragung bietet sich besonders für Veranstaltungen im EDV-Bereich an. Über das Internet können Teilnehmer mit einem Berechtigungscode Formulare ausfüllen und so papierlos an der Befragung teilnehmen. Zudem kann bequem von zu Hause aus der Online-Fragebogen ausgefüllt werden. (Abb. 4.3) Der Vorteil der papiergebundenen Umfrage ist die Unabhängigkeit von EDV-Infrastruktur und der dadurch mögliche universelle Einsatz in allen Fachbereichen der Hochschule (z.B. in beliebigen Seminarräumen). [1] [2] Abb. 4.3: Screenshot: Editierbarer Online-Fragebogen 4.2.1 Erstellen der Codes/Fragebögen Ein Fachbereichs- oder Studiengangsadministrator kann Lehrveranstaltungen beim System anmelden, wobei er nur den Namen der Lehrveranstaltung, die Studiengruppe, TFH Wildau, Wissenschaftliche Beiträge 2006 die Lehrkraft und die Zahl der Teilnehmer angeben muss. Das System generiert daraufhin für jede Lehrveranstaltung einmal verwendbare Teilnehmercodes in druckbarer Form bzw. Fragebögen, die mit einem Barcode gekennzeichnet sind. Die Anzahl der Codes/Fragebögen entspricht der eingegebenen Seminargruppenstärke. Die Seminargruppensprecher bzw. die Professoren erhalten nach dem Ausdruck die Codes/Fragebögen in verschlossenen Umschlägen und diese Codes werden im Losverfahren an die Teilnehmer der Lehrveranstaltung verteilt. Die Studierenden loggen sich mit ihrem Zugangscode ein und können den Fragebogen anschließend entweder im Rechnerlabor oder von irgendeinem anderen internetfähigen PC aus (z. B. auch ungestört zu Hause) bearbeiten und abschicken. Die Fragebögen werden ebenfalls in der Lehrveranstaltung verteilt, von den Studenten ausgefüllt, eingesammelt und in einem verschlossenen Umschlag an das TQM zurückgegeben. Die ausgefüllten Fragebögen werden mit Scannern und einer in das System integrierten Bildverarbeitungsapplikation erfasst und von dieser automatisch in die zentrale Datenbank eingepflegt. Jeder Code bzw. Fragebogen kann nur einmal verwendet werden. Dadurch wird sichergestellt, dass Studierende keine Mehrfachbewertungen abgeben können. Durch dieses Verfahren ist die Anonymität der Studierenden nicht nur gewährleistet, sie ist durch die beschriebene Vorgehensweise auch transparent. Es gibt zu keinem Zeitpunkt eine Verknüpfung zwischen dem Zugangscode und persönlichen Informationen (wie z.B. Email-Adresse, Matrikelnummer), die Studierende bei der Abgabe ihrer Bewertung verunsichern könnte. [1] [2] 4.2.2 Auswertung Sofern vom Hochschul-Administrator der entsprechende Zugriff freigegeben wurde, können Dozenten, Dekane und die Hochschulleitung gemäß ihren Berechtigungen unmittelbar nach Abgabe der Bewertungen online Einsicht in die Auswertung nehmen. Dafür stehen drei verschiedene Auswertungsvarianten zur Verfügung (die jedoch vom Hochschul-Administrator ganz oder teilweise vorübergehend deaktiviert werden können, z.B. während einer Prüfungsphase): 1 Auswertung einer Lehrveranstaltung: zeigt zu jeder Einzelaussage des Fragebogens die Häufigkeiten der einzelnen Antworten (1 bis 7) an. (Abb. 4.4) 2 Gesamtbewertung eines Dozenten: zeigt ebenfalls die Liste aller Aussagen des Fragebogens, jedoch gehen hier nicht die Bewertungen nur einer Lehrveranstaltung, sondern aller Lehrveranstaltungen dieses Dozenten (im jeweiligen Semester) ein. (Abb. 4.5) 3 Dozentenvergleich: erzeugt eine Vergleichsliste entweder aller Lehrkräfte eines Fachbereichs oder der gesamten Hochschule, die entweder alphabetisch sortiert (Abb. 4.6) oder als Rangliste entsprechend dem Bewertungsergebnis ausgegeben werden kann. Für jeden Dozenten wird zu jeder Frage der Median sowie das Quantil als Referenzparameter ermittelt und farblich dargestellt. Für jeden Studiengang und Fachbereich werden außerdem pro Frage die Mediane über alle Lehrveranstaltungen der Einheit errechnet, um einen Vergleich zu ermöglichen. [1] [2] 77 Abb. 4.4: Screen Shot, Auswertung: Lehrveranstaltung Abb. 4.5: Screen Shot, Auswertung: Gesamtbewertung eines Dozenten 4.3.1 Datensicherheit Das System hält sämtliche Daten in einer leistungsfähigen Datenbank, so dass außerhalb dieser Datenbank zu keinem Zeitpunkt evaluationsrelevante Daten gehalten werden, auch keine Auswertungs- oder Zwischenergebnisse. Der Hauptgrund dafür ist eine sichere und konsistente Datenhaltung. Durch Integration des Datenbankservers in den Backup-Prozess des Rechenzentrums wird die Datensicherheit gewährleistet. Das System legt in der Datenbank keine Auswertungsdaten ab, sondern ausschließlich die Original-Bewertungen der Studierenden. Auswertungen werden daraus zur Laufzeit (on-the-fly) generiert, wenn sie angefordert werden. Sämtliche Bewertungsdaten bleiben in der Datenbank auch nach Ablauf eines Semesters bestehen, so dass Auswertungen noch zu einem viel späteren Zeitpunkt möglich sind, und zwar für alle Nutzergruppen. Damit wird auch die Revisionssicherheit gewährleistet. [1] 4.3.2 Datenschutz Ein weiterer wichtiger Aspekt ist der Datenschutz der Dozenten. Jede Lehrkraft erhält einen eigenen Account für den Zugang zum System, mit dem Auswertungen eigener Lehrveranstaltungen eingesehen werden können, jedoch nicht die anderen Lehrkräfte. Vergleichende Darstellungen werden (soweit überhaupt vom Administrator freigeschaltet) anonymisiert, d.h. alle Dozentennamen (außer dem eigenen) werden ausgeblendet. Das Zugangssystem verwendet eine sichere 128-Bit Passwortverschlüsselung mit Hilfe eines Hash-Verfahrens (Einweg-Verschlüsselung). Auf diese Weise können Passwörter nicht rekonstruiert werden, nicht einmal vom Datenbank-Administrator. Falls eine Lehrkraft ihr Passwort vergisst, muss vom Administrator oder vom System ein neues Passwort generiert werden. Die Standard-Option sieht vor, dass das Passwort vom System zufällig erzeugt und dann automatisch per Email an die Lehrkraft gesendet wird. Lehrkräfte können ihr Passwort jederzeit ändern. [1] Abb. 4.6: Screen Shot, Auswertung: anonymer Dozentenvergleich 4.3.3 Nutzer- und Rollenverwaltung für Administratoren und Dozenten Mit der differenzierten Nutzer- und Rollenverwaltung für Administratoren und Dozenten kann ein DozentenAdministrator Accounts für die Dozenten einrichten. Ein Fachbereichs- oder Studiengangsadministrator kann Lehrveranstaltungen beim System anmelden, wobei er nur den Namen der Lehrveranstaltung, die Studiengruppe, die Lehrkraft und die Zahl der Teilnehmer angeben muss (alternativ kann dies auch von einem Hochschul-Administrator zentral für alle Lehrveranstaltungen gemacht werden). [1] 4.3 Datensicherheit und Datenschutz Das webbasierte Evaluationssystem ist mit unterschiedlichen Mechanismen für die Datensicherheit, insbesondere einem Zugriffsschutz ausgestattet. Ein durchdachtes Rechte- und Rollenmodell für Administratoren, Personen der Hochschulleitung und Dozenten sowie die sichere Aufbewahrung der Umfragedaten gewährleisten den Schutz vor Missbrauch. 4.4 Anonymität Ein wesentliches Kriterium für die Aussagekraft eines jeden Evaluationsverfahrens ist die Unbefangenheit der teilnehmenden Bewerter (in diesem Fall der Studierenden). Um diese Unbefangenheit zu gewährleisten, ist es erforderlich, dass das Evaluationsverfahren vollständig anonym ist. Anonymität bedeutet hier, dass keine Lehrkraft in der Lage sein darf, herauszufinden, welche 78 TFH Wildau, Wissenschaftliche Beiträge 2006 Bewertung ein einzelner Student abgegeben hat. Dies wird im System dadurch gewährleistet, dass ein Student in der Datenbank nicht namentlich hinterlegt wird, sondern nur als anonymer Datensatz. Selbst der zugehörige Teilnehmercode für den sicheren Zugang zum System wird unmittelbar nach Abgabe der Bewertung aus der Datenbank gelöscht, so dass es nicht einmal bei Kenntnis des von einem Studierenden verwendeten Teilnehmercodes möglich ist, dessen Bewertung zu ermitteln, auch nicht bei vollem Administrator-Zugriff auf die Datenbank. Das System kann deshalb als 100 % anonym gelten. Darüber hinaus sollte die Anonymität nicht nur sichergestellt, sie sollte für die Bewerter auch transparent sein. Wegen der oben beschriebenen Vorgehensweise wäre das System beispielsweise auch dann anonym, wenn die Teilnehmercodes per Email an die Studierenden verschickt würden, da die Codes ja nach Abgabe der Bewertung aus der Datenbank gelöscht werden. Für die Studierenden wäre diese Anonymität aber nicht transparent. Es würde ein Zusammenhang zwischen ihrem Zugangscode und einer eindeutigen Kennung ihrer Person (nämlich ihrer Email-Adresse) hergestellt. Sie können nur „glauben“, dass niemand diesen Zusammenhang missbraucht, sicher wissen können sie es nicht. Einem Studierenden, der seinen Zugangscode per Email erhält, kann die Anonymität nicht transparent erscheinen, da bereits die Email selbst eine Verbindung zwischen seiner Identität und dem (vermeintlich anonymem) Code darstellt. Zumindest das versendende System muss also die Verbindung kennen. Die einzig wirklich sichere (und psychologisch überzeugende) Variante ist deshalb die, die Studierenden selbst die Zuordnung zwischen sich und den Codes (und zwar unbeaufsichtigt) vornehmen zu lassen, d.h. durch Verlosen der Codes. Aus diesem Grund haben bei diesem System die Studierenden die Anonymisierung selbst in der Hand. [1] 5 Softwaretechnische Entwicklung, Technisches Umfeld, Tests und Installation Der Weg zur Softwarelösung war und ist durch enge Abstimmung mit dem Qualitätsmanagement der TFH Wildau geprägt. Nur so konnte sichergestellt werden, dass eine Anwendung entwickelt wurde, die den Anforderungen gerecht wird und sich in der Praxis bewährt. Bei der Entwicklung der Internetapplikationen wurde konsequent auf moderne und leistungsfähige Technologien sowie ausgereifte Open Source Frameworks gesetzt. Auf dieser Basis wird eine breite Palette von Systemplattformen und Schnittstellen unterstützt und die bestmögliche Integration der Applikation in bestehende Infrastrukturen und eine nachhaltige Wartbarkeit gewährleistet. Das webbasierte Evaluationssystem ist modular und wurde in der plattformunabhängigen Sprache „Java“ entwickelt. Die Web-Applikation baut auf den Frameworks Turbine und Torque auf und ist auf jedem browserfähigen Rechner bedienbar. Turbine ist ein servletbasiertes, als Open Source verfügbares MVC-Framework (MVC = Model View Controller) zur Erstellung von leistungsfähigen und robusten Webapplikationen. Die Idee des MVC-Musters ist die TFH Wildau, Wissenschaftliche Beiträge 2006 Trennung von Anzeige (View), Daten (Model) und der Steuerung (Controller). Torque ist als Persistenzschicht das Bindeglied der Applikation zum jeweils verwendeten Datenbanksystem. Die Scanner-Anwendung ist eigenständig und wurde mit SWT (Standard Widget Toolkit) entwickelt. Darin integriert ist die Bildverarbeitung, welche die eingescannten Barcodes und die Kreuze auf den Papierfragebögen automatisch erkennt, auswertet und über eine eigene HTTPSchnittstelle zum Evaluationsserver sendet. Im Sommersemester 2004 wurde das System im Studiengang Telematik erfolgreich getestet. Hierbei wurden die technischen Kapazitäten der Telematik-Labore genutzt. Im Wintersemester 2004/2005 konnte die Anwendung hochschulweit eingeführt werden. Die Testläufe ergaben keine technischen Probleme, so dass das System am Hochschulrechenzentrum integriert werden konnte und nun dort gehostet und gepflegt wird. 6 Projektergebnis Die Anforderungen an das System und die Auswertung sind mit diesem Projekt vollständig erfüllt worden. Die entwickelte Software versetzt das TQM in die Lage, groß angelegte Evaluationen von Lehrveranstaltungen, Studiengängen und Fachbereichen ohne langwierige Erfassungs- und Auswertungssaufwände und mit einem hohen Automatisierungsgrad abzuwickeln. Gleichzeitig bleibt die Flexibilität gewährleistet, jederzeit neue Fragebögen zu integrieren und außer der Hauptanwendung Lehrevaluation auch andere Befragungsfelder zu bearbeiten. Neben der Onlinebefragung kann es auch für die Verarbeitung von Papierfragebögen eingesetzt werden. Der Personalaufwand reduziert sich auf ein Minimum und die Software erstellt, vollautomatisiert, sofort nach dem Bewerten die statistische Auswertung in übersichtlicher Form für Dozenten und die administrativen Organe. Zur Etablierung des Systems an der TFH Wildau trugen im Wesentlichen folgende Punkte bei: – Die Integration des webbasierten Evaluationssystems in den Evaluierungsprozess der Hochschule, – dessen stetige Weiterentwicklung und – seine Anpassung an die konkreten Bedürfnisse der Hochschulorganisation. Dies wirkte sich auch auf die Umfragebeteiligung aus, die von 51,3 % im Wintersemester 2004/05 auf 62 % im Wintersemester 2005/06 anstieg. 7 Weitere Planung Es ist geplant, das System im gesamten internen Hochschulnetzwerk, incl. der angegliederten Institutionen (Weiterbildung, Fernstudium), einzusetzen. Die im Rahmen des TQM durchgeführten Evaluationen (Evaluierungsarten) weisen Entwicklungspotentiale auf, welche den Einsatz und Weiterentwicklung dieses Systems begründen. Bei der traditionellen Dozentenbefragung sowie der Absolventenbefragung treten ähnliche Schwächen und Probleme auf wie in der studentischen Evaluation (siehe Kapitel 3.1.1 Schwächen). 79 Aufgrund des sehr hohen Kapazitätsbedarfs bezüglich der Planung, Durchführung und Auswertung der Dozentenbefragung wurde analog zur studentischen Lehrevaluation die Methode „Online-Befragung“ analysiert. Gegenwärtig wird der Einsatz des flexibel (u. a. individuelle Fragebogengestaltung) auf die Bedürfnisse anpassbaren Systems geplant und vorbereitet. In Bezug auf das Fernstudium an der TFH Wildau wurde der Online-Fragebogen inhaltlich angepasst und zum Wintersemester 2005/2006 den Fernstudierenden angeboten. Nicht nur angesichts der Tatsache, dass Fernstudenten für ihr Studium bezahlen, wird von ihnen eine qualitativ hochwertige Ausbildung erwartet. Sie sind außerdem vielfach Multiplikatoren, deren Meinung über die TFH Wildau und die dort vorgefundene Studienqualität ganz wesentlich das Image der Hochschule in der Gesellschaft prägt. Um diese Qualität zu messen, bietet sich die Online-Befragung mit dem vorgestellten System in idealer Weise an. Autoren Prof. Dr. rer. nat. Ralf Vandenhouten [email protected] Miriam Selz, B. Eng. [email protected] Technische Fachhochschule Wildau Fachbereich Ingenieurwesen/Wirtschaftsingenieurwesen Studiengang Telematik Tel. +49 3375 508-359, -616 Referenzen [1] Ralf Vandenhouten, Dokumentation des webbasierten Evaluationssystems, „Evalus“ Version 3.0, 2004-2005 http://eval.tfh-wildau.de:8080/evaluation/ [2] Internetanwendung „Evalus“ Version 3.0, 2004-2005, http://eval.tfh-wildau.de:8080/evaluation/ [3] Andrea Schmid, Ziele und Aufgaben des TQM an der TFH Wildau, http://www.tfh-wildau.de/tqm [4] Beschluss: 3. Juli 1995, Zur Evaluation im Hochschulbereich unter besonderer Berücksichtigung der Lehre, Entschließung des 176. Plenums vom 3. Juli 1995, http://www.hrk.de [5] Beschluss: 21./22. Februar 2000, Evaluation der Lehre – Sachstandsbericht mit Handreichungen, vom 190. Plenum am 21./22. Februar 2000 zur Kenntnis genommen, http://www.hrk.de 80 TFH Wildau, Wissenschaftliche Beiträge 2006 Projektstudie zum Logistik- und Technologiekonzept für eine Drehautomatenfertigung Robert Deininger 1. Einleitung Im Rahmen der Lehrveranstaltung Produktionslogistik des Studienganges Unternehmenslogistik erhielt unser Projektteam den Auftrag zur Entwicklung eines Technologie- und Logistikkonzeptes für die Montage von Drehautomaten mit integrierter Farbgebung und Verpackung einschließlich der Erstellung der Konzeption für die Montagehalle. Das Projektteam bestand aus 5 Studenten des Studienganges Logistik der Technischen Fachhochschule Wildau. Die Projektarbeit wurde durch Herrn Robert Deininger geleitet. Die Systemanalyse sowie die Prozessbeschreibung wurde unter Verantwortung von Herrn Sebastian Forkert erstellt. Das Hallenlayout und die Erfassung der Basisdaten erfolgte unter Leitung von Herrn Dirk Ryborz. Die weiteren Teammitglieder Frau Silvana Adolph und Herr Jan-Jaap van Wikselaar wurden bedarfsweise in die Bearbeitung einzelner Aufgaben eingebunden. Die Betreuung des Projekts erfolgte durch den Dozenten der TFH Wildau, Herrn Prof. Dr.-Ing. habil. Bernd Hentschel. Als wesentliche Ausgangsdaten waren die Hallenabmessungen sowie die Takte der einzelnen Montageschritte gegeben. Ferner standen folgende Ausgangsprämissen zur Verfügung: – Anzahl der Tore für die Anlieferung von Baugruppen – Anzahl der technologischen Stationen der Montage – Anzahl der Arbeitskräfte pro Montagetakt – Montagezeiten je Arbeitsgang – Erzeugnisspezifische Vorgaben für die einzelnen Baugruppen (Maße, Gewichte) – Standzeiten für Grundierung und Lackierung sowie Trocknung der Baugruppen Ferner sollte nach Möglichkeit auf Zwischenlagerstufen verzichtet und ein Anlieferkonzept für die Baugruppen auf Just-in-Time oder Ship-to-Line Basis erstellt werden. 2. Technologischer und Logistischer Ablauf Der technologische Ablauf beschreibt die Verrichtungsfolge in der bestimmte Tätigkeiten auszuführen sind. Die Technologie bestimmt dabei die erreichbare Produktivität qualitativ als auch quantitativ. Unter Technologie versteht man damit die Gesamtheit der Verfahren zur Produktion und der zur Verfügung stehenden Mittel. Der Bereich Logistik beschreibt alle Zwischenschritte der Fertigung. Damit umfasst die Logistik alle Aktivitäten im physischen Raum zur Zeitüberbrückung von Gütern und Personen, einschließlich deren Umgruppierung. Der technologisch-logistische Ablauf beschreibt damit wie eine Art Prozessbeschreibung alle Aktivitäten in deren Verrichtungsfolge mit deren Normzeit zur Verrichtung TFH Wildau, Wissenschaftliche Beiträge 2006 der Montage- und Handlingschritte. Zusätzlich wurden die Anzahl der notwenigen Arbeitskräfte für den jeweiligen Arbeitsschritt ermittelt. Als Hilfsmittel standen Programme wie Microsoft Excel und Microsoft Projekt zur Verfügung. Zur Erstellung eines Gesamtkonzeptes wurden alle Teilabläufe einschließlich aller Teilschritte von der Anlieferung bis zur Endmontage zeitlich und räumlich zugeordnet. Von der Baugruppenanlieferung bis zur Fertigstellung des Drehautomaten wurden so ca. 200 Schritte zeitlich und räumlich erfasst. Dies wird am Beispiel der Anlieferung der Baugruppen für ein Los von 3 Drehmaschinen-Unterkästen dargestellt (Abb.1). Abb. 1: Technologisch-logistischer Ablauf In dieser Abbildung sind die einzelnen technologischen Schritte ihrer Ausführung nach sowie die Abfolge der logistischen Abläufe dargestellt. Analog wurde diese Analyse für alle übrigen Teilschritte des Produktionsprozesses betrachtet. Durch diese Prozessbeschreibung ist für jeden Mitarbeiter erkennbar, welche Schritte er wann, in welcher Zeit und an welchem Ort zu erfüllen hat. Für den Mitarbeiter ist damit auch erkennbar, welchen Teil er im Gesamtprozess darstellt und welche Schritte ihm vor- und nachgelagert sind. Dadurch ist eine Standardisierung der Abläufe möglich. Die Prozesse werden transparent und sie können auf dieser Grundlage optimiert, verändert oder neu gestaltet werden. Durch die Prozessanalyse des technologisch-logistischen Ablaufes werden auch Probleme visualisiert und können mit einem systematischen Problemlösungsverfahren untersucht werden. Dabei wurden folgende Grundsätze für die Lösung angewandt. 1 Problem analysieren 2 Ursache- Wirkungsprinzip anwenden, d. h. alle Einflüsse auf das Problem erfassen 3 Maßnahmen für die Lösung generieren und anwenden 4 Erfolg der Problemlösung prüfen 81 Der technologisch-logistische Ablauf stellt damit die Gesamtheit aller theoretischen Untersuchungen zum Prozess der Drehautomatenfertigung dar und ist die Grundlage der weiteren Arbeit für die Produktionsplanung. Takt 5 Takt 6 3. Lösungskonzept Die Betrachtung einer möglichen Lösung erfolgte durch Variantenanalyse mit der die Kenngrößen Platzbedarf, Rüstzeit, Standzeit und Transportgeschwindigkeit verglichen wurden. Die Variantenanalyse erfolgte dabei auf der Grundlage der gegebenen Fertigungstakte: Takt 1 Takt 2 Takt 3 Takt 4 Anlieferung des Unterkastens im Wareneingang. Sichtkontrolle, mechanische Kontrolle, Dichtheitskontrolle (Ultraschall). Zwischenlagerung im Pufferlager bzw. Transport zum 1. Montageplatz. Anlieferung Räderkasten, Spindelkasten, Oberteil (Anlieferkonzept: Just-in-Time) Zeitansatz 60 min / 1 Arbeitskraft Ausrichtung des Unterkastens in Waage-Justage auf dem Transportsystem Verbohren und Verschrauben des Räderkastens mit dem Spindelkasten Zeitansatz 90 min / 1 Arbeitskraft Einbau der Spindeltrommel und Laufprüfung Zeitansatz 300 min / 2 Arbeitskräfte Einbau des Antriebsmotors und der Drehzahlwechselräder Zeitansatz 240 min / 1 Arbeitskraft Montage von Mittelwelle, Hauptschlitten, Schneckenwelle und oberer Steuerwelle einschließlich der Funktionsprüfung Zeitansatz 1170 min / 1 Arbeitskraft Takt 7 Takt 8 Takt 9 Takt 10 Takt 11 Takt 12 Takt 13 Takt 14 Takt 15 Takt 16 Montage Kurvenscheibe für Oberschlitten und ggf. Kurventrommel für unabhängige Vorschubeinrichtung Zeitansatz 420 min / 1 Arbeitskraft Montage untere Steuerwelle, Schaltung für Spindeltrommel, Kurvenscheiben für Unter- und Seitenschlitten, Schneckenwelle für unteren Steuerwellenantrieb, Kurventrommel für unabhängigen Vorschub Zeitansatz 900 min / 2 Arbeitskraft Montage Pumpenkombination Zeitansatz 180 min / 1 AK Ein und Testlauf des Drehautomaten Zeitansatz 2280 min / 1 Arbeitskraft Transport des Drehautomaten mit Hilfe des Transportsystems zur Farbvorbehandlung Zeitansatz 180 min / 1 Arbeitskraft Farbvorbehandlung des Drehautomaten (Spachteln, Schleifen und Abkleben) Zeitansatz 360 min / 2 Arbeitskräfte Antransport des Drehautomaten in die Farbgebung Spritzen des Vorlack Zeitansatz 270 min / 1 Arbeitskraft Transport in die Trockenkabine und Trocknen Zeitansatz 60 min / 1 Arbeitskraft Optische Prüfung und Transport Transport zum zweiten Spritzen Zeitansatz 60 min / 1 Arbeitskraft Einfahren des Drehautomaten in die Spritzkabine und Spritzen des Decklack Zeitansatz 60 240 min / 1 Arbeitskraft Transport in die Trockenkabine und Trocknen Zeitansatz 60 min / 1 Arbeitskraft Bereitstellung des Drehautomaten zur Verpackung Verpackung des Drehautomaten Zeitansatz 360 min / 2 Arbeitskräfte Verladung der Maschinen Zeitansatz 20 min / 1 Arbeitskraft Abb. 2: Hallengrundriss 82 TFH Wildau, Wissenschaftliche Beiträge 2006 Nach der Analyse der einzelnen Takte wurde mit der Planung des Hallen-Layouts auf der Grundlage der vorgegebenen Hallendaten begonnen. Für die Erstellung der Hallenskizzen standen die Programme AutoCAD und Mircosoft Viso zur Verfügung. Aufgrund von vorliegenden Studienkenntnissen und dem engen Zeitfenster wurde das System Microsoft Visio verwandt. Folgende Hauptparameter der zweischiffigen Halle waren dabei gegeben: Länge 96 m, Breite 2x18 m mit 6 m Stützenabstände in Längsrichtung. Den damit erstellten Hallengrundriss zeigt Abbildung 2. In den damit erstellten Hallenplan wurde zentral der Bürobereich und in der zweiten Ebene der Leitstand der Halle vorgesehen. Da der Hallengrundriss die physische Grenze der Produktionskapazität bildet, wurden mehrere Varianten mit dem Ziel untersucht, auf der Grundlage der gegebenen Basisdaten und der gegebenen Mittel das Maximalprinzip durchzusetzen, d.h. das größtmögliche Ergebnis zu erreichen. Um den Logistikaufwand so gering wie nötig zu halten, wurde die Montage als Fließfertigung gewählt. Da die Qualität des Erzeugnisses von entscheidender Bedeutung ist, wurden die Grundsätze des Qualitätsmanagement konsequent berücksichtigt. 3.1 Auswahl der Technologien Da die in der Fertigung befindlichen Maschinen bei Störungen nur mit extrem großem Handling-Aufwand aus der Montagelinie zu nehmen sind, wurde die Möglichkeit des Kraneinsatzes untersucht. Mit einem Brückenkran können Lasten in alle drei Achsrichtungen gleichzeitig bewegt werden. Das Arbeitsfeld des Kranes wird nur durch die Abmessungen von Laufkatze, Kranbrücke, Fahrwerke und Seilantrieb eingeschränkt. Die Ausrüstung der Halle mit Kranbrückenträgern ist möglich. Ein Kran ermöglicht auch das in Takt 1 beschriebene Umsetzen der angelieferten Großteile vom Lastkraftwagen auf das Transportsystem. Des weiteren ist es möglich am Montageplatz 1 mit Hilfe des Kranes ohne zusätzlichen Aufwand Montageteile wie z.B. den Spindelkasten am Unterkasten zu montieren. Durch weitere Untersuchungen der notwendigen Transport- und Umsetzungsanforderungen wurde der Einsatz von vier Brückenkransystemen mit je 32 t Tragfähigkeit konzipiert. Ein reibungsloses Handling innerhalb der Produktion erfordert ein Transportsystem, dass die Anforderungen der Produktion vollständig erfüllt. In einer Variantenuntersuchung wurden die Leistungsparameter sowie Vor-und Nachteile der möglichen Transportsysteme verglichen. Auf dieser Grundlage wurde ein flurgebundenes Transportsystem als effizienteste Lösung ermittelt. Die weitere Auswahl wurde nach folgenden Kriterien vorgenommen: Fahrzeugbezogene Auswahlkriterien – Fahrantrieb – Bauform – Lenksystem – Lenkart – Bedienart – Tragfähigkeit – Leistung – Fahrgeschwindigkeit TFH Wildau, Wissenschaftliche Beiträge 2006 Einsatzbezogene Auswahlkriterien – Transportgut – Einsatzbedingungen (Arbeitsumgebung) – Auslastung des Flurförderzeuges, Einsatzzeit Vorschriftenbezogene – Unfallverhütungsvorschriften Auswahlkriterien – Arbeitssicherheit Unter Einbeziehung dieser Kriterien ist ein fahrerloses Transportsystem als Lösung ermittelt worden, welches mit automatisch gesteuerten Fahrzeugen arbeitet. Die Transportwagen bewegen sich ferngesteuert auf einer im Hallenfußboden eingelassenen Induktionschleife. Die Einsatzbedingung im Rahmen der Farbgebung musste jedoch noch genauer untersucht werden. Im Bereich der Farbgebung könnte es wegen der starken „Farbdampf -Entwicklung“ an den Transportwagen zu Störungen kommen. Ferner wäre die Farbgebung im unteren Bereich des Drehautomaten nicht möglich. Daher wird der Drehautomat am Ende des Takts 8 auf ein schienengeführtes Transportsystem umgesetzt. Im Takt 8 erfolgt auch die Montage der Pumpenkombination einschließlich der Qualitätsprüfung aller Komponenten. Um an den einzelnen Montagen eine Versorgung mit allen Montageteilen sicherzustellen war der Einsatz eines Staplersystems unerlässlich. Durch eine Variantenanalyse konnte ein Flurförderzeug mit einem Hubgerüst, das eine vertikale Lastbewegung ausführen kann, ausgewählt werden. Nach DIN 18225 und den Arbeitsstätten-Richtlinien müssen in Arbeits- und Lagerräumen über 1000 m2 die Verkehrswege eindeutig gekennzeichnet sein. Es gibt ausschließlich Fußwege, ausschließlich Fahrwege und gemeinsame Fuß- und Fahrwege; außerdem ist zu unterscheiden zwischen Richtungs- und Gegenverkehr. Damit wurde es notwendig im Hallen-Layout diese Wege mit einer Breite von 3 m in den Grundriss aufzunehmen. Durch die Breite von 3 m ist es möglich das auch in Spitzenlastzeiten mit Begegnungsverkehr es zu keinerlei Engpässen bei der Versorgung der Montagen kommt. Wegen des Gewichtes und der Abmessungen der Anbauteile ist die manuelle Montage am Unterkasten nicht möglich. Durch die spezifische Analyse der weiteren Parameter wie Platzbedarf und max. Hebelast wurde ein Drehkran ausgewählt. Drehkrane sind in der Regel ortsfest, können jedoch auch durch Aufsetzen auf ein Fahrwerk (gleisgebunden oder gleislos) bzw. Ponton mobil gemacht werden. Obwohl sie häufig auf Flurniveau angeordnet sind bzw. auf Flurniveau verfahren, werden sie als flurfrei eingestuft, da die Verfahrbewegung der Katze, die Dreh- oder Schwenkbewegung des Auslegers und somit die Förderbewegung für Güter flurfrei und oberhalb der eigentlichen Arbeitsebene ausgeführt wird. Um eine höchstmögliche Verfahrbarkeit des Systems sicherzustellen, muß ein Kransystem mit gleislosem Fahrwerk genutzt werden, so ist es möglich die vom Mitarbeiter in der Produktion benötigten Montageteile immer optimal zum Unterkasten auszurichten und danach zu montieren. Aufgrund der vielen Montageschritte und den daraus resultierenden verschiedenen Montagepunkten ist es notwendig, dass mehrere dieser Systeme einsetzt 83 Abb. 3: Layout der Fertigungshalle werden, um zeitlich optimal abgestimmte Montagelinien zu erzeugen. Die Farbgebung stellt ein wichtiges Glied der Produktionslinie dar. Im Takt 9 erfolgt die Anlieferung des Drehautomaten in die Farbvorbehandlung, nach dem Umsetzen auf das schienengeführte Transportsystem. Im Takt 10 – Farbvorbehandlung erfolgt das manuelle Abkleben und Spachteln des Drehautomaten. Danach wird dieser über das Transportsystem in die Spritzkabine zur manuellen Farbgebung verbracht. Zu beachten ist, dass in der Spritzkabine besondere Vorgaben zum Explosionsschutz gelten. Nachdem das Spritzen abgeschlossen ist, wird der Drehautomat über das Transportsystem in die Trockenkabine geschleust. Dort wird die erste Farbschicht bei ca. 90°C eine Stunde getrocknet. Im Anschluss erfolgt eine Qualitätssichtkontrolle. Sollte ein Fehler festgestellt werden, wird der Drehautomat über ein Verschiebegleis auf eine Ausweichstrecke verbracht. Da in dieser Bearbeitungsphase nur eine Pufferzeit von etwa 60 min zur Verfügung steht, hätte der Qualitätsbeaufrage so auf der Ausweichstrecke die Möglichkeit die Qualitätsprüfung fortzusetzen. Gegebenenfalls wäre es nun möglich, das auf der Ausweichstrecke alle Nacharbeiten erfolgen. Über ein weiteres Verschiebegleis wird der Drehautomat wieder vor die Spritzkabine gebracht und kann in der nächsten Produktionslücke eingesteuert werden. Nachdem nun der Drehautomat die erste Farbgebung erfolgreich durchlaufen hat, beginnt die Einsteuerung in die zweite Farbgebung. Auch nach der zweiten Farbgebung ist eine Trocknung vorgesehen. Danach besteht wiederum die Möglichkeit des Transports über ein Verschiebegleis auf die Ausweichstrecke, um eventuelle Nacharbeiten durchzuführen. Der Drehautomat befindet sich nun am Ende der Fertigungslinie und wird mit Hilfe des Brückenkranes in die Transportverpackung gehoben. Der Wagen des Transportsystems kann nun über die Ausweich- 84 strecke wieder zurückgeführt werden. Das Verpacken des Drehautomaten erfolgt nun manuell in einem speziellen Verpackungsbereich. Dort sind alle Verpackungsmaterialien in einem Pufferlager verfügbar. Beim Verpacken ist die Ladungssicherung in der Transportkiste zu gewährleisten. Die Zolldokumente sind, wenn erforderlich, ebenfalls vom Verpackungsbereich vorzubereiten. Die Zollabnahme wird Stichprobenartig durch das Personal der Zollbehörde durchgeführt. Die Verpackung geschieht unter der Maßgabe, dass die Transportösen an der Maschine genutzt werden können. Dieses Verfahren ist notwendig, um die Transportkiste mit Hilfe eines Krans bewegen zu können. Der Drehautomat kann nach dem Abschluss des Taktes 15 somit in den Versandbereich verbracht werden. Der Versandbereich ist direkt am Haupttor positioniert, dadurch ist ein einfaches Einfahren des Lastkraftwagens zur Übernahme möglich. Nach der Verladung des Gutes durch den Versender erfolgt die Sicherung der Ladung durch den Frachtführer. Mit den zum Einsatz für die Drehautomatenfertigung gewählten technischen Lösungen ergibt sich folgendes Layout für die Fertigungshalle – siehe Abb. 3. 4. Simulation Die Komplexität der Aufgabenstellung stellt im Zusammenspiel mit den gewählten Teillösungen eine schwierig zu überblickende Gesamt-Soll-Konzeption dar. Durch eine genaue Analyse der vorgeschriebenen Rahmenbedingen war die Simulation in Echtzeit unerlässlich. Eine Simulation wird genutzt um komplexe dynamische Systeme analysieren zu können. Die Wirkung der Einflussfaktoren kann so genau untersucht werden, um Erkenntnisse über das reale System zu erhalten. Das Simulationsmodell stellt damit die Gesamtheit aller Abläufe in der Fertigung von TFH Wildau, Wissenschaftliche Beiträge 2006 der Anlieferung bis zum Versand in Echtzeit dar. Die Simulation visualisiert jedes Problem welches innerhalb der Montage auftreten kann. Die verschiedenen Stellgrößen, wie z. B. das Anlieferzeitfenster können so genau betrachtet und optimiert werden. Zur Simulation wurde das System Simpro 4.1.0 benutzt. Dieses System stellt den Studieninhalt der Lehrveranstaltung „Anwendung logistischer Systeme“ dar. Simpro ist ein universelles Simulationspaket zur Untersuchung des dynamischen Verhaltens komplexer Produktionssysteme. Das so erstellte Modell zeigte die Probleme der Fertigung auf. Im Rahmen des Lösungskonzepts fand eine Bewertung der ermittelten Daten statt. Die Prozesse wurden so genau analysiert und in Teilprozesse zerlegt – siehe Abb. 4. Damit wurde es möglich als ersten Schritt die Schwachstellen innerhalb der einzelnen Montageschritte zu erkennen. Das Hauptproblem, welches sich erstmals in der Simulation darstellte, war die hohe Bearbeitungszeit von ca. 88 h. Durch eine genaue Analyse der einzelnen Takte und der zur Verfügung stehenden Lösungen, wurde die Variante der doppelten Montagen gewählt. Das bedeutet, dass bestimmte Montagetakte nun an zwei Montageplätzen gleichzeitig ablaufen. Der Prozess wurde so parallelisiert. Die Schaffung von zusätzlichen Pufferplätzen an den Montagestationen verkürzt die Montagezeit weiter, da die Bereitstellung nun nicht mehr gleichzeitig mit der Montage geschehen muss. stellen. Um nun die ermittelten Parameter im Kontext mit den physischen Grenzen der Halle betrachten zu können, wurde das Simulationsmodell in die Produktionshalle gesetzt. Dadurch wurde es möglich in den engen Grenzen der Halle die Auslastung der Transportwege sowie die Funktion des fahrerlosen Transportsystems zu untersuchen. Als Schwachstelle wurde das Anlieferkonzept erkannt. Mit den so erhaltenen Informationen wurde eine Analyse erstellt, die zum Ziel hatte, eine neue Strategie zur Belieferung zu entwickeln. Da es während des Produktionsprozesses zu einem permanenten Bedarf an Montageteilen kommt, ist es nicht möglich diese per Just-in-Time anzuliefern. Durch die Belegungszeit des Brückenkranes im Hallenabschnitt der Belieferung musste das Anlieferkonzept verändert werden. Nach eingehender Prüfung der Möglichkeiten wurde die Variante der Schaffung eines Zwischenlagers außerhalb der Produktionshalle als optimale Lösung ermittelt. Dadurch ist es möglich die Belieferung der einzelnen Montageplätze individuell zu bestimmen und so größtmögliche Flexibilität zu gewährleisten. Die jetzt geschaffene Soll-Konzeption stellt damit einen hohen Grad der Zielerreichung dar – siehe Abb. 5. Abb. 5: Simpro Simulation im Hallenlayout Abb. 4: Simpro Simulation Durch die so geschaffene Prozessoptimierung wurde die Anzahl der Maschinen im Prozess und damit der Durchsatz erhöht. Im Rahmen einer Potential-Analyse des so geschaffenen Soll-Zustandes wurde ermittelt, dass durch das Ausführen von mehren Montageschritten an einem Montageplatz die Prozessdurchlaufzeit des Drehautomaten verkürzt werden kann. Zum Beispiel wurde so während der Montage der Spindeltrommel und der Laufprüfung schon mit der Montage des Antriebsmotors begonnen. Der so nochmals optimierte Prozess wurde nun in der Simulation dargestellt und erwies sich als vorteilhaft. Durch eine weitere Anpassung der Montagen wurde ein verbesserter Montagefluss erreicht. Dadurch wurde die Gesamtmontagezeit je Drehautomat und die Durchlaufzeit verkürzt. Dabei wurden alle Anforderungen des Qualitätsmanagementsystems vollständig beibehalten. Darüber hinaus wurden zusätzliche Stellflächen geschaffen, um die Durchführung von weiteren Qualitätsprüfungen sicherzu- TFH Wildau, Wissenschaftliche Beiträge 2006 5. Pädagogischer Effekt Elementare Bestandteile im Studienschwerpunkt Unternehmenslogistik an der TFH Wildau sind die Vermittlung von Kenntnissen über Strukturen, Strategien und Systemen zur Lösung logistischer Aufgaben. Eine hohe Bedeutung bei der Vermittlung dieses Wissens, hat die Einbindung von konkreten Fallbeispielen aus der Industrie innerhalb der Lehrveranstaltungen. Zur Umsetzung dieser Ziele und Methoden wurde das Studienfach Produktionslogistik ganzheitlich auf die Erarbeitung eines logistischen Gesamtkonzeptes am Beispiel der Fertigung von Werkzeugmaschinen ausgerichtet. Für die Studenten ergabt sich daraus eine sehr praxisnahe Aufgabenstellung, die zahlreiche theoretische Kenntnisse aus dem Grundstudium abfordert. Zum einen waren fundierte Kenntnisse im Projektmanagement notwendig, um Anforderungen zur Teamorganisation, sowie zur Zeit- und Ressourcenplanung zu bewältigen. Zum anderen wurde durch die Bearbeitung des Projektes die Betrachtung von komplexen 85 Systemen weiter geschult. Die vorlesungsübergreifende Projektarbeit förderte das vernetzte Denken und die Anwendung unterschiedlicher Lehrinhalte des Studiums. Durch die Problemstellung in den einzelnen Bereichen war es notwendig die unterschiedlichen Varianten der Lösungsmöglichkeiten und die damit verbunden technischen Umsetzungen zu untersuchen. Diese Projektarbeit setzte die Anwendung eines breiten Spektrums an Wissen, sowie ein sehr gutes technisches Verständnis bei den Teammitgliedern voraus. So war es notwendig Probleme der Organisationsentwicklung, der Planung von logistischen Systemen und der Analyse technischer Lösungen zu verknüpfen. Dieses Projekt setzte einen hohen Anteil an Eigeninitiative voraus, um die komplexen Problemstellungen außerhalb der Hochschule zu untersuchen. Durch die Einbeziehung eines Austauschstudenten wurde die Projektarbeit positiv beeinflusst. Durch die damit eingebrachte „andere Sicht“, wurde die Projektarbeit, insbesondere die Problemdiskussion zusätzlich bereichert. Die deutschen Studenten konnten so für das Arbeiten an einem gemeinsamen Projekt mit ausländischen Studenten ein hohes Maß an Erfahrungswerten gewinnen. Die Förderung der Teamarbeit und die damit verbundene Arbeitsteilung ermöglichte jedem Teammitglied auf einem speziellen Gebiet Kernkompetenzen zu entwickeln und dadurch das Team individuell zu prägen. Bei auftretenden Problemen und Fragen war es dem Team jederzeit möglich den betreuenden Dozenten des Projektes Herrn Prof. Dr. –Ing. habil. Bernd Hentschel zu konsultieren. Den Studenten zeigte die eigenständige Ausarbeitung des umfangreichen Gesamtprojektes die Probleme und Herausforderungen bei der Planung von produktionslogistischen Systemen, die in einer herkömmlichen Vorlesung nur schwer zu vermitteln wären. 6. Zusammenfassung Dem Projektteam war die Aufgabe gestellt das technologische und logistische Konzept für die Produktion von Drehautomaten in einer vorhandenen Halle bei vorgegeben Arbeitstakten zu erarbeiten. Durch die Variantenanalyse der verschiedenen technologischen Möglichkeiten bezüglich der maßgeblichen Kenngrößen wie Platzbedarf, Rüstzeit, Standzeit und Transportgeschwindigkeit wurden die Technologien ausgewählt und dass Hallenlayout für die konzipierte Fließfertigung mittels Microsoft Visio erstellt. Die entwickelte Fertigung besteht aus 6 Montage – und 4 Pufferplätzen. In der Farbvorbereitung bestehen zwei Arbeitsplätze sowie ein Bereitstellungsplatz. Im Bereich der Farbgebung wurden zur Vermeidung eines Produktrücktransports nach der Farbvorbereitung jeweils eine Spritz- und Trockenkabine hintereinander angeordnet. Im Bereich der Verpackung sind zwei Arbeits- und zwei Versandplätze vorgesehen. Dies ermöglicht auch während Spitzenlastzeiten eine problemlose Bearbeitung. Mit dem erarbeiteten Soll-Konzept wurde die Zielstellung der Lehrveranstaltung erreicht und durch die Anwendung einer logistischen Simulationssoftware eine komplexere Problembearbeitung durchgeführt. 86 Anmerkungen Dank gilt dem wissenschaftlichen Mitarbeiter, Herrn Dipl.Ing. Peter Wasser, der dem Projektteam bei der Erstellung der Simulation Unterstützung gewährte. Teammitglieder Robert Deininger Technische Fachhochschule Wildau Fachbereich Ingenieurwesen/Wirtschaftsingenieurwesen – Logistik [email protected] Sebastian Forkert Technische Fachhochschule Wildau Fachbereich Ingenieurwesen/Wirtschaftsingenieurwesen – Logistik [email protected] Dirk Ryborz Technische Fachhochschule Wildau Fachbereich Ingenieurwesen/Wirtschaftsingenieurwesen – Logistik [email protected] Silvana Adolph Technische Fachhochschule Wildau Fachbereich Ingenieurwesen/Wirtschaftsingenieurwesen – Logistik [email protected] Jan-Jaap van Wikselaar Hogeschool van Arnehm en Nijmegen Hoger Economisch en Administratief Onderwijs – European Logistics [email protected] Autor Robert Deininger Technische Fachhochschule Wildau Fachbereich Ingenieurwesen/Wirtschaftsingenieurwesen – Logistik [email protected] TFH Wildau, Wissenschaftliche Beiträge 2006 „Telekommunikation und Gesellschaft“ – ein neues Angebot im Master-Studiengang Telematik Bernhard Eylert Einleitung Im Sommersemester 2005 wurde zum ersten Mal die Lehrveranstaltung „Telekommunikation und Gesellschaft“ als Wahlpflichtfach für Studierende des Studiengebiets Telematik angeboten. Sie hat auf Anhieb gleich sehr großen Anklang bei den Studierenden gefunden. Die Idee zu dieser Veranstaltung entsprang einer früheren engen Zusammenarbeit des Autors während seiner Chairmanship des UMTS Forums mit dem Digital World Research Center (DWRC) an der Universität von Surrey in Guildford (GB), wo sich der Autor mit dem Thema „The Social Shaping of Mobile Communications“ intensiv auseinander gesetzt hat. Die Lehrveranstaltung wird auch im Sommersemester 2006 angeboten und durchgeführt. Inhalt und Ziele Zentrales Thema der Lehrveranstaltung „Telekommunikation und Gesellschaft“ ist, Verständnis dafür zu entwickeln, dass technische und technologische Prozesse sich im gesellschaftlichen und kulturellen Umfeld entfalten und dort auch gestaltet werden. Damit gibt es keine ‚isolierten’ Technologien, die nur für sich selbst und unabhängig stehen, sondern sie sind a priori gesellschaftlich, kulturell oder politisch, selten technologisch, determiniert. Das Thema wird inhaltlich anhand von historischen Entwicklungen beispielhaft entwickelt und dargestellt, durch studentische Referate und Erarbeitung eines Fallbeispiels ergänzt und mit einer Projektarbeit abgeschlossen. Laut Module-Handbuch sollen die Studierenden – die wesentlichen soziologischen Theorien kennen lernen und in den Vergleich zu technisch-naturwissenschaftlichen Verfahrensweisen stellen. – die Zusammenhänge zwischen neuen Technologien und dem sozialen Umfeld (z. B. Entwicklung und Konsum) erkennen und einer kritischen, wissenschaftlichen Nachhaltigkeitsanalyse unterwerfen. – in der Lage sein, Fallstudien zu bewerten und aus ihnen beispielsweise abzuleiten, in welcher Weise soziale Identitäten wie Geschlecht, Rasse, Sexualität sich auf den Einsatz technologischer Endgeräte im Sozialgefüge des alltäglichen Umgang auswirken. – die Fähigkeit erlangen, eigene Fallstudien zu erstellen. – in der Lage sein, die behandelten Themen und Objekte in einen größeren soziologischen Zusammenhang, wie Medienpräsenz und Globalisierungsdebatte, zu stellen. Darüber hinaus werden als weitere Ziele verfolgt: – Erweiterung des eigenen Blickwinkels über den „Tellerrand“ des eigenen Studiengebiets hinaus – Eigene Gestaltung interessanter Projekte TFH Wildau, Wissenschaftliche Beiträge 2006 – Möglichkeit der Publikation hervorragender Ergebnisse in Workshops mit anderen Hochschulen und der Industrie bzw. Printmedien In den einzelnen Arbeitsabschnitten sollen die Studierenden deutlich machen, dass sie die Interdependenz zwischen technologischer Entwicklung und gesellschaftlich/ kulturellen/politischen Einflüssen verstanden haben, diese interpretieren und Schlussfolgerungen daraus ziehen können. Aufbau des Seminars Zunächst befassen wir uns mit einigen philosophischen Grundlagen unseres Studiengebiets, um zu verstehen, wo wir herkommen und wohin sich die Wissensgebiete entwickeln/entwickelt haben. U. a. spielt dabei eine ganz große Rolle, mit welchen Methodiken sich die Wissenschaftler die jeweiligen Gebiete erobert und sich so von ihren Mutterwissenschaften abgekoppelt haben. In manchen Fällen gibt es auch wieder ein „zurück“ in dem Sinne, dass man die gemeinsamen Wurzeln entdeckt und darauf neue Strategien aufbaut. Im zweiten Teil, The Social Shaping of Technology, geht es darum zu verstehen, wie sich die Soziologen mit der Thematik „Technologie“ auseinandersetzen, wie sie Technologie verstehen und welche technologischen Determinismen sich aus den produzierten Objekten, einschließlich der Medien, und deren Wirkung auf die Gesellschaft (social factors) ableiten und strukturieren lassen. Ausgehend davon werden im dritten Teil die politischen und soziokulturellen Einflüsse auf die Technologien beispielhaft erläutern. Im vierten Teil werden dann alle Determinismen anhand der Entwicklung von UMTS beispielhaft aufgeführt, erläutert und in einen Gesamtzusammenhang gebracht. Dieses Beispiel soll musterhaft für die weiteren Referate, Case Studies und Projekte dienen. Die Studierenden mögen sich daran bei ihrer individuellen Arbeit orientieren. Als Basisliteratur wird verwendet: – MacKenzie/Wajcman, The Social Shaping of Technology, Open University Press, 1999, ISBN – Eylert, The Mobile Multimedia Business, Wiley & Sons, 2005, ISBN 0-470-01234-X Weitere Literatur wird aktuell im Seminar ausgegeben. Herausragende Ergebnisse der Lehrveranstaltung Sommersemester 2005 Im Anschluss an diese Einführung werden drei hochinteressante Seminararbeiten vorgestellt, die schon jetzt z. T. 87 lebhaftes Interesse über die TFH Wildau hinaus gefunden haben: – Markus Czok und Marc Gurczik haben mit ihrer Arbeit zum Thema „Das Handy als alltägliches Lifestyle-Objekt“ in einer regionalen Studie analysiert, wie zum einen die Gruppe der 12-25jährigen sich dem modernen Trend der Mobilkommunikation nähern und deren Dienste nutzen. Dem stellen sie die Gruppe 50+ gegenüber und analysieren deren Handynutzungsverhalten. Diese Ergebnisse waren schon für einen Netzbetreiber sehr interessant und informativ. – Henri Schmidt und Stefan Lehmann widmeten sich dem Thema „Möglichkeiten durch E-Sport für Wirtschaft und Gesellschaft“ und stellten Möglichkeiten und Grenzen dieses neuen Kommunikationstrends dem klassischen Sport mit allen seinen Facetten gegenüber. Das Thema hat besonders bei uns in Deutschland und in Großbritannien großes Interesse gefunden. – Michael Ring und Peter Ungvári untersuchten ein im Mai 2005 hochaktuelles Thema „Einführung, Nutzen und Gefahren durch Funkchips (RFIDs)“ am Beispiel des neuen Bundespersonalausweis und beleuchteten die Wechselwirkung zwischen Einführung und Kommunikation mit der Bevölkerung. Das Seminar zum gleichen Thema im Sommersemester 2006 hat ähnliches Interesse geweckt. Über die sich abzeichnenden interessanten Ergebnisse wird zu einem späteren Zeitpunkt berichtet. Es ist beabsichtigt, ein neues gemeinsames Projekt mit der University of Surrey noch im Herbst 2006 zu starten. 88 Autor Prof. Dr. Bernhard Eylert Technische Fachhochschule Wildau Fachbereich Ingenieurwesen/Wirtschaftsingenieurwesen – Mobile-Commerce Tel. +49 171 5230000 [email protected] TFH Wildau, Wissenschaftliche Beiträge 2006 Studie: Das Handy als alltägliches Lifestyle-Objekt Markus Czok, Marc Gurczik 1 Einleitung Die rasante Entwicklung auf dem Handymarkt ist stets in den Medien, doch selten wird über die Nutzer berichtet, die das Handy mittlerweile als alltäglichen Gebrauchsgegenstand akzeptiert haben. Diese Studie soll einen Überblick schaffen, über die Gewohnheiten von Handynutzern und die Veränderungen deren Kommunikations- und Konsumverhaltens, die aus der Nutzung eines Mobiltelefons resultieren. Zusätzlich werden auch Personen der Altersgruppe 50+ auf ihr Kommunikationsverhalten hin untersucht und nach ihren Bedürfnissen an ein Handy und dessen Dienste befragt. Dazu werden zwei Umfragen über den täglichen Gebrauch des Mobiltelefons durchgeführt. Dabei ist zu beachten, dass bei einer Online-Umfrage über das Internet keine repräsentativen Ergebnisse über die Gewohnheiten der Altersgruppe 50+ erzielt werden können. Für die Altersgruppe 50+ kann im Allgemeinen nicht zu den, mit dem Internet vertrauten Personengruppen gezählt werden. Somit ist es notwendig, die Umfrageergebnisse der Online-Umfrage mit einer, auf der Straße durchgeführten Befragung zu ergänzen, um zusätzliche Informationen von dieser Altersgruppe in Bezug auf deren Kommunikationsverhalten und deren Anforderungen an neue Produkte und Dienste zu erhalten. Die Online-Befragung richtet sich vorwiegend an die jüngere Generation im Alter von 12-25 Jahren und enthält zusätzliche Fragen über die Nutzung von Diensten und Funktionen, wie z.B. die Nutzung von MMS oder einer integrierten Digitalkamera. Die Auswertung der Umfragen wird dann nach Altersgruppen geordnet vorgenommen, wobei das Hauptaugenmerk auf der Altersgruppe von 12-25 Jahren und von 50 Jahren aufwärts liegt. Zusätzlich werden noch weitere Studien aus dem Internet einbezogen um ein allgemeingültigeres Ergebnis zu erzielen. Dabei wird darauf geachtet, dass nur seriöse Studien, wie die jährlich durchgeführte JIM-Studie vom Medienpädagogischen Forschungsverbund Südwest in Kooperation mit der Landesanstalt für Kommunikation Baden-Württemberg (LFK) und der Landeszentrale für private Rundfunkveranstalter Rheinland-Pfalz (LPR) verwendet werden. 1.1 Applikationen – Services – Kosten Bei der Befragung werden hauptsächlich drei verschiedene Arten von Funktionen untersucht. Zum einen Funktionen, die unmittelbar mit der Kommunikation über das Mobiltelefon in Verbindung stehen. Neben dem klassischen Telefonieren sind das vor allem SMS, MMS und Internet. Obwohl man die beiden letzteren auch teilweise zu den Zusatzfunktionen eines Telefons zählen kann, die nur noch bedingt zur Kommunikation mit anderen Menschen dienen. Zu diesen Zusatzfunktionen zählen vor allem die Kamera, der MP3-Player oder auch das Radio, sowie die TFH Wildau, Wissenschaftliche Beiträge 2006 Möglichkeiten Klingeltöne, Logos und Spiele auf das Mobiltelefon laden zu können. Als dritter wichtiger Punkt neben diesen Funktionalitäten spielt die Möglichkeit zur Individualisierung eine entscheidende Rolle. Die vorher genannte Klingeltöne und Hintergrundbilder sind ein Teil der Individualisierung. Eine weitere Möglichkeit ist das Austauschen der Oberschale. Diese Befragung soll die grundsätzlichen Unterschiede in der Nutzung von Applikationen und Diensten zwischen den nachfolgend beschriebenen Zielgruppen zu Tage fördern. Der ursprüngliche Sinn des Mobiltelefons lag darin zu telefonieren, d.h. Sprachdienste standen im Vordergrund. Das ändert sich nun mit den nachfolgenden Generationen. Neue Dienste und Applikationen treten in den Vordergrund. Beim Mobilfunk werden grundsätzlich zwei verschiedene Arten von Verträgen unterschieden. Die Verträge mit monatlicher Abrechnung (Postpaid) und die mit Vorauszahlung (Prepaid). Bei den Postpaid-Verträgen gibt es eine Reihe an Variationen und die Gebühren pro Gesprächseinheit können stark variieren. Je nach Vertragsart unterscheiden sich die Grundgebühren der Verträge, sowie die Minutenpreise. Einige Anbieter bieten Minutenpakete an, anderen zeit- und ortsabhängige Vergünstigungen. Die zusätzlichen Tarifoptionen, wie etwa die Gebührentaklung, sind zusätzliche Eckpunkte eines Vertrages. Anhand der Umfragen soll festgestellt werden, ob es für die verschiedenen Altersgruppen eine Tendenz zu einer spezifischen Vertragsart gibt. Seit der Einführung flächendeckender digitaler Mobilfunknetze im Jahre 1990 haben sich im Laufe der Zeit neben der Telefonie, verschiedene Zusatzdienste entwickelt und etabliert. Während der Markt noch nicht bereit und auch Geräte und Ausrüstung anfangs noch nicht dazu geeignet waren, ergaben sich später durch immer fortschreitende Miniaturisierung von Bauteilen und Erhöhung von Prozessorleistung und Speicherkapazitäten ganz neue Möglichkeiten. Einen Siegeszug hat dabei die SMS (Short Message Service) gemacht. Sie wurde anfänglich als Abfallprodukt kostenlos angeboten. Als die Netzbetreiber aber dann die wachsende Beliebtheit erkannten, wurde die SMS kostenpflichtig. Mittlerweile generiert der SMS-Dienst die höchsten Erträge der Netzbetreiber. Im Jahre 2003 wurde rund 16 Milliarden SMS in Europa verschickt. SMS liegen bei einem Preis zwischen 9 und 19 Eurocent. Verwandte Dienste sind EMS (Enhanced Message Service) und vor allem MMS (Multimedia Messaging Service). Die MMS bietet die Möglichkeit, neben Text auch Bilder, Ton und Videos zu versenden. Die Kosten zum Versenden einer MMS sind abhängig von der Größe der MMS und beginnen bei ca. 39 Eurocent. Im Jahr 2002 begannen die Hersteller, Digitalkameras in ihre Mobiltelefone einzubauen. Mittlerweile ist kaum 89 noch ein Telefon auf dem Markt zu finden, das keine Digitalkamera hat. Die Qualität die anfänglich sehr schlecht war, hat sich mittlerweile auch auf ein akzeptables Maß gesteigert. Einher, mit der Möglichkeit Fotos aufzunehmen, geht die Möglichkeit Bilder auf dem Telefon zu speichern, sowie Musik und Videos. Viele Mobiltelefone besitzen zudem auch einen integrierten Musikplayer oder ein Radio. Da der interne Speicher in Mobiltelefonen nicht sehr groß ist, kommt immer mehr der Trend auf, Speicherkarten in die Mobiltelefone einzusetzen. Damit ist eine enorme Erhöhung der Speicherkapazität verbunden. Diverse Anbieter bieten die Möglichkeit Klingeltöne und Logos (Hintergrundbilder) auf das Mobiltelefon zu laden. Hier gibt es verschiedene Kostenmodelle. Es gibt die Möglichkeit einzelne Bilder oder Musikstücke herunterzuladen oder ein so genanntes Monatsabo abzuschließen und monatlich eine gewisse Anzahl von Bildern oder Klingeltönen herunterzuladen. Die Kosten liegen dabei einmalig bei ca. 1 bis 3 Euro oder monatlich bei ca. 5 Euro. Durch steigende Übertragungsgeschwindigkeiten im Mobilfunk, durch HSCSD, GPRS und UMTS werden nicht nur Webanwendungen und Internet interessanter, es können auch viele neue Dienste realisiert werden, wie etwa Videostreaming oder Videotelefonie. Neben dem Internet gibt es auch die Möglichkeit E-Mails und Faxe zu versenden. Die Preise für Datendienste liegen bei GPRS als volumenbasiertem Übertragungsverfahren zwischen 9 und 19 Eurocent pro 10kb-Datenpaket. Die meisten Mobiltelefone sind heutzutage mit einem Java-Interpreter ausgestattet, der es ermöglicht Java-Anwendung auf dem Mobiltelefon laufen zu lassen. Der Funktionsumfang dieser Java-Laufzeitumgebung ist jedoch sehr eingeschränkt. Es gibt die Möglichkeit Spiele und Programme auf das Telefon zu laden. Einige davon gibt es als Freeware im Internet, andere müssen kostenpflichtig aufs Mobiltelefon geladen werden. Hier liegen die Kosten ungefähr so hoch wie bei den Klingeltönen und Logos. Mit der fortschreitenden Miniaturisierung der Terminalkomponenten und Erweiterung der Möglichkeiten der Mobiltelefone werden immer weitere kostenpflichtige Zusatzdienste (Value-Added Services) auftauchen. 1.2 Erläuterung der Zielgruppen Um eine möglichst breite Grundlage zur Auswertung und somit eine allgemeingültige Aussage zu erhalten, werden zwei Zielgruppen für die Umfrage definiert die relativ breit gefächert sind. Die erste Zielgruppe sind Jugendliche, die ein Handy besitzen im Alter von 12-25 Jahren. Zur Befragung dieser Personengruppen wurde eine Online-Umfrage durchgeführt, da viele Jugendliche einen Zugang zu diesem Medium haben und somit auch die nötige Resonanz erreicht wird. Da die meisten Jugendlichen ein Handy besitzen und auch die Zielgruppe vieler Geschäftsideen, wie dem Versenden von Logos oder Klingeltönen sind, wurde in der Online-Umfrage zusätzlich auf Nutzung derartiger Zusatzfunktionalitäten eingegangen. Ergänzend dazu wurden noch Jugendliche am Berliner Alexanderplatz befragt, da sich an der Online-Umfrage kaum Jugendliche im Alter von 12-20 Jahren beteiligt haben. Dafür wurde der gleiche Fragebogen wie bei der Online-Umfrage verwendet. 90 Die zweite Zielgruppe beinhaltet Personen über 50 Jahren. Jedoch wurden in dieser auch Personen befragt die kein Handy besitzen, um die Gründe dafür zu erfahren. Für diese Generation wurde ein Fragebogen erstellt, der speziell auf diese Zielgruppe ausgerichtet ist. Diese Unterteilung wurde gewählt, um eine spätere Gegenüberstellung der beiden Altersgruppen zu ermöglichen. Somit können die verschiedenen Interessen der Personen aus den beiden Zielgruppen an dem Design, der Marke oder beispielsweise den Funktionen eines Handys in Erfahrung gebracht werden. Außerdem können so mögliche Interessenschwerpunkte der Zielgruppen ausgewertet und gegenübergestellt werden. Auf die daraus entstehenden Erfahrungswerte wird in den folgenden Kapiteln näher eingegangen. 1.3 Die Umfrage Wie schon zuvor erwähnt, wurden zwei verschiedene Umfragen durchgeführt. Die Online-Umfrage für die Jugendlichen (siehe Anhang 1.1) wurde auf einer Webseite zugänglich gemacht. Zusätzlich wurden noch diverse EMails mit dem Link auf diese Webseite verschickt, damit genügend Teilnehmer bei dieser Umfrage mitmachen. Da sehr wenig Jugendliche im Alter von 12-20 an der OnlineUmfrage teilnahmen, wurde am Berliner Alexanderplatz das Ergebnis mit Hilfe einer Straßenumfrage ergänzt. In diesen Umfragen sollten die beliebtesten Handymarken, Vertragspartner und Zahlungsarten der Jugendlichen und jungen Erwachsenen ermittelt werden. Zusätzlich gab es aber noch eine Frage die Auskunft darüber geben sollte, wer die Handyrechnungen bezahlt. Ein weiterer Themenkomplex in dieser Umfrage waren die Funktionen, wobei sowohl nach der Wichtigkeit als auch nach der Häufigkeit der Nutzung der verschiedenen Funktionen gefragt wurde. Dabei fand das Austauschen und Herunterladen von Klingeltönen, Musik oder Bildern besondere Beachtung. Aber auch die Nutzung der Möglichkeit zur persönlichen Anpassung des Handys in Bezug auf Hintergrundbilder, eigene Klingeltöne oder auswechselbare Oberschalen wurde untersucht. Um die Auswirkungen eines Verlustes des Handys auf die sozialen Kontakte der betroffenen Person zu erfassen, wurde abschließend noch gefragt, ob eine Kopie des Adressspeichers existiert oder ob alle Telefonnummern dann auch verloren sind. Weiterhin war es möglich noch Anregungen zu diesem Thema in ein Textfeld zu schreiben. Diese Umfrageergebnisse wurden zentral auf dem Server abgelegt und mussten dann nicht erst digitalisiert werden. Die Ergebnisse der Straßenumfrage wurden dann hinzugefügt. Mit Hilfe der Online-Umfrage konnten auch, wie erwartet, nicht genügend Personen der zweiten Zielgruppe, die der über 50-jährigen, angesprochen und befragt werden. Deshalb wurde zusätzlich eine Umfrage für diesen Personenkreis auf dem Berliner Alexanderplatz durchgeführt. Für diese Umfrage wurden Fragebögen angefertigt, die speziell auf die Gewohnheiten dieser Personengruppe eingehen. Die Fragebögen wurden nochmals in zwei Gruppen unterteilt: Ein Fragebogen für Personen die ein Handy besitzen und ein Fragebogen für Personen die kein Handy besitzen. Dies ist notwendig um auch die Wünsche und Erwartungen an ein Handy von der Personengruppe TFH Wildau, Wissenschaftliche Beiträge 2006 zu erhalten, die (noch) kein Handy besitzt. Es wurde außerdem nach dem Grund gefragt, warum diese Personen sich noch kein Handy zugelegt haben oder warum sie sich kein Handy zulegen wollen. Die Umfrage erfasste ebenfalls das Alter und Geschlecht der Befragten, um eventuelle Tendenzen diesbezüglich herauszustellen. Auch hier wurden die beliebtesten Vertragspartner, Handyhersteller und Zahlungsarten, also Postpaid oder Prepaid, ermittelt. Weitere Fragen sollten Auskunft über die Gewohnheiten in Bezug auf die generelle Nutzung des Mobiltelefons der Befragten geben, also ob diese das Handy stets dabei und eingeschaltet haben und welche Funktionen des Handys am häufigsten genutzt werden. Die letzte Frage in dem Teilbereich für die Handybesitzer geht auf die Wünsche an das zukünftige Handy für die befragte Personengruppe ein. Also ob das Handy speziell für ältere Personen angepasst werden muss und wie diese Anpassungen aussehen könnten. 2. Mobiltelefon als alltägliches Lifestyle-Objekt Das Mobiltelefon hat sich immer mehr in unserem Alltag etabliert und ist heutzutage für viele Personen das wichtigste was sie mit sich herumtragen. Der Verlust des Handys stellt dann meist den „Weltuntergang“ für den Betroffenen dar. Wie sehr sind wir von diesem Gebrauchsgegenstand abhängig? Und wie sehr wirkt sich das Handy auf soziale Kontakte aus? Ist es überhaupt noch vorstellbar ohne ein Handy zu leben? Die Beantwortung dieser und weiterer Fragen hat sich diese Auswertung der Umfrage als Ziel gesetzt. 2.1 Die Wahl der Marke Diese Studie untersucht unter anderem die Markentreue von Mobilfunknutzern, zum einen die Markentreue zum Gerätehersteller, andererseits die Markentreue zu einem bestimmten Netzanbieter oder Service-Provider. Es soll gezeigt werden, ob es eine altersabhängige Markentreue zu einem bestimmten Hersteller oder Netzbetreiber gibt. Die Umfrage liefert keine konkreten Ergebnisse dazu, da die Frage „Sind sie einer bestimmten Marke treu?“ zu sehr subjektiven Ergebnissen geführt hätte. Es soll daher durch andere Befragungsinhalte geklärt werden, ob eine Markentreue abgeleitet werden kann. Während die Hersteller klar voneinander abzugrenzende Unternehmen sind, die mit ihren Produkten auf dem Markt gegeneinander konkurrieren, ist die Situation bei den Netzbetreibern und Mobilfunkprovidern nicht ganz so einfach. Die Netzbetreiber sind hier noch eindeutig zu unterscheiden. Sie bieten Dienste auf ihrem eigenen Mobilfunknetz an. Dagegen sieht die Situation bei den Serviceprovidern schon anders aus. Sie bieten Tarife unterschiedlich Netzbetreiber an, die sich erheblich von denen der Netzbetreiber unterscheiden können. Auf dem Markt sind verschiedene Tarife und Tariffierungsmöglichkeiten anzutreffen. Grundsätzlich kann zwischen den Laufzeitverträgen und den Prepaid-Karten unterschieden werden. Laufzeitverträge sind meist mit einer Laufzeit von 24 Monaten verbunden, bieten dafür aber TFH Wildau, Wissenschaftliche Beiträge 2006 geringere Gebühren und ein subventioniertes Mobiltelefon. Bei der Prepaid-Karte zahlt man für das Mobiltelefon wesentlich höhere Preise und auch die Gebühren sind teurer, dafür ist man an keine Vertragslaufzeit gebunden. Da die Umfrage nicht explizit nach dem ServiceProvider gefragt hat, kann an dieser Stelle nicht ermittelt werden, ob es sich um direkte Verträge bei den Netzbetreibern oder Verträge über Service-Provider handelt. Die Studie stellt die Marke des Netzes in den Vordergrund. Der Provider soll an dieser Stelle vernachlässigt werden. Neben der Frage der Markentreue, ist ebenfalls die Frage von Interesse, ob es einen bevorzugten Mobiltelefonhersteller gibt oder ob es bei den verschiedenen Altersgruppen Auffälligkeiten bezüglich der Wahl des Handyherstellers gibt. Die Auswertungen der Umfrage, sowie die Erfahrungen bei der Umfrage können hierbei Aufschluss über verschiedene Fragestellungen geben. Folgende Fragen versucht diese Umfrage zu beantworten: – Gibt es Besonderheiten oder Auffälligkeiten bei einer der beiden Zielgruppen? – Gibt es einen bevorzugten Hersteller innerhalb der beiden Zielgruppen? – Gibt es einen bevorzugten Netzbetreiber innerhalb einer der beiden Zielgruppen? – Ist eine Markentreue bei einer der beiden Zielgruppen erkennbar? – Gibt es auffällige Unterschiede oder Gemeinsamkeiten zwischen beiden Zielgruppen bezüglich der vorher gestellten Fragen? Die Umfrage bei den Jugendlichen hat eindeutig Siemens als beliebtesten Handyhersteller ergeben. Von den befragten Personen haben 19 Siemens als den bevorzugten Hersteller angegeben. Mit insgesamt 12 Stimmen nimmt Nokia hier den zweiten Rang in der Beliebtheit ein, dicht gefolgt von Sony-Ericsson mit 8 Stimmen. Weit abgeschlagen in dieser Umfrage sind die Hersteller Motorola mit 4 Stimmen und Sagem mit einer Stimme zu finden. Dieses Ergebnis war schon in etwa so zu erwarten, doch dass eine so deutliche Mehrheit Siemens und nicht Nokia bevorzugt, ist etwas überraschend. Auf die Frage, ob die Marke entscheidend für den Kauf eines Handys ist, haben nur wenige Befragte mit Ja geantwortet und einen Hersteller nennen wollen. Dies zeigt, dass sich Jugendliche nach den neuesten Entwicklungen am Markt richten und sich nicht auf einen Hersteller fixieren. In der Zielgruppe der Jugendlichen hat nur ein kleiner Teil der Befragten die Nutzung von Funktionen wie dem Herunterladen von Klingeltönen oder Bildern in der Umfrage angegeben. Diese Gruppe lässt sich allerdings in Bezug auf das Alter eingrenzen, denn nur Jugendliche im Alter von 12 bis 14 Jahren nutzen diese Handyfunktionen. Mit zunehmendem Alter verliert sich jedoch das Interesse daran. Unter den Jugendlichen ab 15 Jahren aufwärts war nicht ein Befragter zu finden der für derartige Downloads Geld ausgibt. Durch den Wunsch nach Nutzung dieser Funktionen entsteht auch ein Wunsch nach einem aktuellen Gerät mit der richtigen Auflösung, um beispielsweise die heruntergeladenen Bilder in hoher Qualität darstellen zu können. Dies ergab auch das Ergebnis der Umfrage, in der fast alle Jugendlichen im Alter von 12 bis 14 ein 91 aktuelles Handy von einem speziellen Hersteller als wichtig empfanden. Eine weitere Auffälligkeit hat sich bei der Frage nach der Häufigkeit der Nutzung verschiedener Dienste/ Funktionen des Handys ergeben. Bei der Personengruppe ab 18 Jahren übertrifft die Nutzung des Telefondienstes die der Nutzung der SMS-Funktion erwartungsgemäß, wohingegen die Befragten von 13 bis 17 Jahren eindeutig das Versenden von Kurzmitteilungen vor dem Telefonieren favorisierten. Die Teilnehmer, die eine Nutzung von Funktionen wie dem Fotografieren oder dem Hören von Musik über das Handy, angekreuzt hatten, gaben meist auch an, dass diese nur selten genutzt werden. Daraus lässt sich schließen, dass die zuvor erwähnten Funktionen eher als unwichtig unter den Jugendlichen angesehen werden. Der beliebteste Provider unter den Befragten ist Vodafone mit 17 Stimmen. Doch hier ist der Abstand zum Zweitplatzierten o2 mit 10 Stimmen im Verhältnis größer als bei der Frage bezüglich des Handyherstellers weiter oben. T-Mobile landet mit 8 Stimmen auf dem dritten Platz. Es gab 6 Befragte die als Vertragspartner E-Plus und 3 die Debitel angaben. Es gab es nur einen Befragten der einen anderen Provider als die Üblichen, nämlich Hutchison, angegeben hat. Bei der Frage nach dem beliebtesten Hersteller sowie Provider haben sich bei den Teilnehmern der Umfrage keine geschlechtspezifischen Vorlieben ergeben. Es scheint also nicht geschlechterabhängig zu sein welche Marke und welcher Provider genutzt wird. Anders verhält es sich bei dem Altersabhängigkeiten. Zwar ist bei den Altersgruppen keine Tendenz bezüglich der Handymarke zu erkennen jedoch ist deutlich zu sehen, dass bei den jüngeren Befragten Prepaid sehr verbreitet ist. Bei den Personen unter 20 nutzt jeder zweite diese Art des Vertrages. Dies nimmt dann mit zunehmendem Alter ab, so dass, von den Personen über 24 Jahren, nur noch ein einziger mit einer Prepaid Karte telefoniert. Bei den Befragten der zweiten Zielgruppe also Personen über 50 Jahren zeigt sich, dass auch innerhalb dieser Altersgruppe ein Trend zu Nokia und Siemens Handys besteht. Unter den Befragten gibt es 15 Nokia und 14 Siemens Nutzer. Die anderen Handyhersteller sind bei den Umfrageergebnissen weit abgeschlagen und werden nur von sehr wenigen Personen der befragten Altersgruppe genutzt. Es gab jeweils nur einen Befragten der ein Motorola, Sagem, Ericsson oder Alcatel Handy verwendet. Bei der Beliebtheit der Vertragspartner in dieser Altersgruppe befinden sich Vodafone und T-Mobile gleichauf an der Spitze mit jeweils 10 Stimmen. Weit dahinter rangieren andere Vertragspartner wie o2, Debitel und E-Plus mit jeweils nur 2 Stimmen. Da aber viele Befragte den Vertragspartner nicht wussten, ist dieser Teil nicht sehr aussagekräftig. Allerdings wussten die meisten Personen, ob sie mit einem Vertrag oder einer Prepaid Karte telefonieren. Die Auswertung der Umfrage für die Senioren ergab, dass wie bei den ganz jungen Befragten zwischen 12 und 19 die Nutzung einer Prepaid Karte sehr beliebt bzw. verbreitet ist. Die Teilnehmer begründeten diese Vorliebe häufig mit den niedrigeren Kosten. Auch dies lässt auf eine seltenere Nutzung des Mobiltelefons unter diesen Teilnehmern schließen. Bei den älteren Personen ist aber nicht wie bei den jüngeren eine Kostenkontrolle 92 der Grund für die seltene Nutzung, sondern meist weil sie kein Bedarf haben. Auch hier ist eine Tendenz in Bezug auf das Alter der Befragten zu erkennen. Unter den Befragten zwischen 50 und 60 Jahren sind gerade einmal drei Personen mit einer Prepaid Karte zu verzeichnen. Dagegen telefonieren etwa 60 Prozent aus der Gruppe der Befragten im Alter über 60 Jahre mit einer Prepaid Karte. Bei näherer Nachfrage ergab sich als Grund dafür die geringeren Kosten. Diese Tendenz verdeutlicht, dass es für Ältere billiger ist eine wiederaufladbare Karte zu nutzen, wenn sie wenig telefonieren, nur angerufen werden oder das Handy nur für den Notfall brauchen. Auffällig ist, dass viele der Befragten aus der älteren Zielgruppe den eigenen Provider nicht kennen und teilweise sogar nicht einmal den Hersteller des Handys. Aus diesen Tatsachen kann geschlossen werden, dass sich ältere Personen nicht viel mit ihrem Handy auseinandersetzen. Diese Erkenntnis wird durch die Ergebnisse bei der Frage nach genutzten Kommunikationsdiensten bestätigt. Bei dieser Frage hat ein Großteil der Teilnehmer ausschließlich die Nutzung des Telefondienstes angegeben. Nur wenige nutzen die SMS Funktion und wenn dann auch nur selten. Andere Funktionen werden nur von einem Befragten genutzt. Dieser ist allerdings als Ausnahme zu werten, denn diese Person hat das Handy sogar als Modem verwendet. Die Frage ob die jeweilige Person das Handy oft dabei und auch eingeschaltet hat ergab, dass viele Personen dieser Zielgruppe das Handy oft zu Hause lassen und nur in ganz bestimmten Situationen mitnehmen. Auch diese Ergebnisse tragen zu dem Eindruck bei, dass ältere Leute das Handy nicht oft benutzen. Zusätzlich wird bei dieser Frage eine Tendenz in Bezug auf das Alter der Teilnehmer erkennbar. Je älter die Personen werden um so mehr von ihnen lassen das Handy oft zu Hause oder schalten es nicht ein. Die Gruppe unter den Befragten die kein Handy besitzen, haben laut den Ergebnissen der Umfrage auch kein Interesse an einem Handy. Teilweise gab es regelrechte Abneigung gegen Handys von dieser Personengruppe. Auch das Argument der zu hohen Kosten ist zweimal gefallen. Überraschendes Ergebnis bei der Frage, ob sich die Personen ein Handy zulegen würden, wenn die Bedienung einfacher und übersichtlicher wäre, ist, dass etwa die Hälfte der Befragten sich für ein Handy entscheiden würden. Hauptargumente gegen den Kauf eines Handys sind die zu kleinen Tasten und die kleine Schrift auf einem winzigen Display. Aber auch die Menüführung wurde stark kritisiert in der Form, dass es zu viele unnötige Untermenüs gibt. Diese Tatsache und die Erfahrung, dass Dienste außer Telefonie und SMS selten genutzt werden, zeigt die Bereitschaft der älteren Personengruppe auf viele Zusatzfunktionen zu Gunsten der Übersichtlichkeit der Menüführung zu verzichten. Auch die Ergebnisse auf die Frage nach der Wichtigkeit der Marke des Handys tragen zu dem Eindruck der Unzufriedenheit der älteren Generationen mit der Menüführung bei. Denn die Entscheidung für eine spezielle Marke hängt bei dieser Personengruppe größtenteils von der Menüführung ab. Aus diesem Grund sind die meisten Älteren ihrer jeweiligen Handymarke treu, denn sie sind bereits mit dem Menü vertraut. TFH Wildau, Wissenschaftliche Beiträge 2006 2.2 Design vs. Funktionalität Die Studie soll zeigen, dass gerade bei Jugendlichen das Design im Vordergrund steht, bei der Zielgruppe der älteren Menschen aber eher die Funktionalität. Jedoch beschreibt Funktionalität in diesem Fall nicht alle möglichen Funktionen die ein modernes Mobiltelefon zu bieten hat. Vielmehr sind hier Grundfunktionalitäten gemeint. Dazu gehört das Telefonieren und SMS schreiben. Es geht ebenfalls um die Bedienbarkeit der Telefone und ihrer einzelnen Funktionen. Design ist etwas weiter zu fassen, als die bloße äußere Erscheinung. Hier geht es ebenfalls um Funktionen, allerdings eher um neuartige Zusatzfunktionen, wie Kamera, MP3-Player usw. Design umfasst auch, die Möglichkeiten zur Individualisierung des Handys. Klingeltöne und Logos sind hier wichtige Indikatoren für eine Tendenz zum Design. Bei der Zielgruppe der über 50-jährigen konnten über 17 Prozent derer, die ein Mobiltelefon besitzen, nicht sagen um welche Marke es sich handelt. Den Produkttyp konnte kein Einziger sagen. Jedoch gab es die beinahe einhellige Meinung, dass die Menüführung zu kompliziert sei, zu viele Funktionen am Handy seien, die Schrift auf dem Display zu klein sei und/oder die Tasten zu klein seien. Mitsamt dem Fakt, dass Telefonieren und in gewissem Maße SMS schreiben, fast die einzigen Funktionen sind, die Befragte dieser Altersgruppe nutzen, lässt den Schluss zu, dass Funktionalität hier an erster Stelle steht. Die Menschen möchten ein Mobiltelefon, welches die beiden Grundfunktionalitäten einfach und übersichtlich zur Verfügung stellt und fühlen sich mit den momentan am Markt befindlichen Geräten, nicht verstanden. Design spielte eine sehr geringe Rolle. Nur wenige Befragte erwähnten, dass ihnen die Größe des Handys wichtig sei. Bei den jugendlichen Befragten, sah die Situation ganz anders. Hier konnten fast alle Befragten den Typen ihres Handys bestimmen. Es handelte sich dabei auch fast ausschließlich um aktuellere Modelle. Bei der Frage welche Funktionen die Jugendlichen nutzen, gaben 100 Prozent an das sie das Telefon und SMS benutzen. 35 Prozent der Befragten nutzen auch MMS, jedoch sehr selten oder ab und zu. 45 Prozent der Befragten nutzen die Handykamera. 11 Prozent nutzen das Mobiltelefon als MP3-Player. Immerhin 17 Prozent surfen im Internet, aber das auch sehr selten. Die Frage nach der Individualisierung des Mobiltelefons ist bei den jugendlichen Befragten sehr unterschiedlich ausgefallen. 35 Prozent der Befragten sagten das sie ihr Mobiltelefon persönlich anpassen würden und das vor allem durch Klingeltönen (23 Prozent) und Logos (15 Prozent). Dabei waren vor allem die unter 18-Jährigen an diesen Möglichkeiten interessiert. Die Möglichkeit mit dem Telefon Dateien auszutauschen nutzen ca. 15 Prozent und dann vor allem für Bilder (11 Prozent) und Musik (9 Prozent). Letztendlich zeigt das, dass die Jugendlichen die Möglichkeiten, die ihr Mobiltelefon Ihnen bietet, vielmehr nutzen als die Menschen der älteren Generation. Diese brauchen vor allem das Telefonieren und das SMS schreiben. Es kann also gesagt werden, dass junge Menschen das Telefon eher als Designobjekt sehen, während ältere Menschen eher den ursprünglichen Nutzen des Telefons in den Vordergrund stellen. TFH Wildau, Wissenschaftliche Beiträge 2006 2.3 Der Kostenfaktor Während bei der Generation der über 50-jährigen lediglich 80 Prozent ein Mobiltelefon besaßen, haben nur 10 Prozent gesagt, das sie zusätzliche Dienste nutzen. Die zusätzlichen Dienste beschränkten sich zumeist auf die Weckfunktion des Mobiltelefons. Nur ein einziger Befragter hat das Telefon noch zusätzlich als Modem verwendet. 90 Prozent der Befragten dieser Zielgruppe nutzen das Mobiltelefon nur selten oder ab und zu zum Telefonieren. Lediglich 10 Prozent nutzen es oft oder sehr oft zum Telefonieren. 35 Prozent derer die ein Mobiltelefon besitzen nutzen es auch zum Schreiben von SMS-Nachrichten. In dieser Altersgruppe war kein Befragter zu finden der für kostenpflichtige und teure Dienste Geld ausgegeben hätte. Ganz anders ist die Situation bei den Jugendlichen zwischen 12 und 25 Jahren. Bei der Umfrage ist ersichtlich geworden, dass nur Jugendliche unter 15 Jahren, das kostenpflichtige Herunterladen von Bildern oder Klingeltönen in Anspruch nehmen. Über dieser Altersgruppe ist kein Befragter zu finden, der diese Dienste in Anspruch nimmt. Während bei der Personengruppe 12-17 eher das Versenden von Kurzmitteilungen favorisiert wird, ist es bei den ab 18-jährigen eher das Telefonieren, obwohl immer noch sehr viele SMS versendet werden. Die Kosten, die durch die Mobiltelefonnutzung entstehen, werden bei den über 18 Jährigen zu 79 Prozent von den Befragten selbst getragen. Ca. 15 Prozent sagt, dass die Eltern die Rechnung bezahlen. Bei 5 Prozent in dieser Altersgruppe teilen sich Befragte und deren Eltern die Telefonrechnung. Anders ist die Situation bei den unter 18 Jährigen. Hier geben insgesamt 80 Prozent an, dass sie sich die Telefonrechnung mit Ihren Eltern teilen. Bei 13 Prozent zahlen die Eltern die gesamte Rechnung und bei 5 Prozent zahlen die Befragten selbst. Während bei den Jugendlichen ab 18 Jahren die Laufzeitverträge mit ca. 79 Prozent anzutreffen sind und Prepaid-Karten mit 21 Prozent, ist es bei den unter 18 Jährigen noch häufiger eine Prepaid-Karte. Da PrepaidKarten wesentlich höhere Tarife haben, schließen viele Eltern für ihre Kinder einen Vertrag ab, um so günstigere Tarife nutzen zu können. 3. Fazit Die Auswertung der Umfrage bei den Jugendlichen hat ergeben, dass das Handy für die jüngeren Befragten dieser Zielgruppe eine größere Rolle spielt als bei den Jugendlichen ab 20 Jahren. Von den jüngeren nutzen mehr die Zusatzfunktionen, wie etwa das Herunterladen von Bildern oder Klingeltönen. Unter diesen Personen nimmt das Handy auch einen höheren Stellenwert ein, denn im Durchschnitt wird das Mobiltelefon von jüngeren häufiger genutzt als von Jugendlichen ab 20 Jahren. Vergleicht man die Nutzung zusätzlich mit der Zweiten Zielgruppe, den über 50-jährigen, fällt auch hier auf, dass jüngere Leute das Handy häufiger gebrauchen. Die Wichtigkeit eines aktuellen Handys wurde von den Jüngsten der Befragten als sehr hoch angegeben. Dies verdeutlicht den hohen Stellenwert des Mobiltelefons unter dieser Personengruppe und zeigt, dass es einen festen Platz in dem Leben eines 93 Heranwachsenden einnimmt. Bei der Frage ob ein Verlust des Handy auch den Verlust aller Telefonnummern und Adressen zur Folge hat ergab sich, dass nicht einmal 70 Prozent der Jugendlichen eine Kopie des Telefonspeichers besitzen. Dies bestätigt die Behauptung, dass das Handy eine enorm wichtige Rolle im Leben von diesen Befragten einnimmt und zeigt das der Verlust Folgen für deren soziale Kontakte hat. In dem Marktsegment des Handys für Personen ab 50 Jahren besteht jedoch nach der Umfrage noch starker Handlungsbedarf. Die Handyhersteller haben die Bedürfnisse der Personengruppe über 60 Jahren lange außer Acht gelassen und keine speziell angepassten Produkte für diese Zielgruppe entwickelt und auf den Markt gebracht. Diese Studie zeigt aber, dass es einen Bedarf nach einem einfachen auf wenige Funktionen reduzierten Handy gibt. Mit einem solchen Produkt können, wenn man nach den Ergebnissen der Umfrage geht, noch weitere Personen vom Nutzen eines Handys überzeugt werden. In dieser Altersgruppe ist allerdings ein starker Trend zu sehr seltener Nutzung des Telefons zu erkennen. Daraus lässt sich auf die geringe Wichtigkeit eines Mobiltelefons für die Befragten über 60 Jahren schließen. Diese Personen haben das Handy also noch nicht vollständig als alltäglichen Gebrauchsgegenstand akzeptiert. Diese Aussage wird auch von den Ergebnissen der Umfrage gestützt, die ergab, dass das Handy in dieser Altersgruppe hauptsächlich für den Notfall angeschafft wurde. Jedoch ist in diese Gruppe der Anteil der Personen, die das Handy meist zu Hause lassen sehr hoch. Dies stellt einen Widerspruch dar, denn wenn das Handy zu Hause liegt kann es im Notfall nicht helfen. Die Studie zeigt, dass die Generationen, die von klein auf mit einem Mobiltelefon aufwachsen, mehr Interesse an der Nutzung des Handys zum Telefonieren oder an der Nutzung der Zusatzfunktionen besitzen. Von diesen Personen wird das Handy als Lifestyle-Objekt anerkannt. Die Umfrage hat gezeigt, dass ältere Menschen eher auf die grundlegenden Funktionen Wert legen, als auf viele Spielereien. Es ist einerseits kein Bedarf an den angeboten Diensten dar oder die Dienste können aufgrund der immer komplexer werdenden Menüstruktur und den immer dichter werdenden Informationsangeboten nicht mehr erschlossen werden. Ältere Menschen benötigen ein Mobiltelefon bei dem sie die Grundfunktionen einfach und schnell bedienen können. Ganz im Gegensatz dazu stehen die jugendlichen Befragten, die neben den Grundfunktionen eines Mobiltelefons, nämlich Telefon und SMS, auch viele Zusatzfunktionen nutzen. Da der Mobilfunkmarkt in Deutschland nahezu gesättigt ist, versuchen die Anbieter nun mit kostenpflichtigen Zusatzdiensten auf den Markt zu kommen. Deshalb wird sich in Zukunft das Angebot an kostenpflichtigen Zusatzdiensten eher noch verstärken und gerade die heranwachsende Generation wird auf dieses Informationsangebot und diese Services anspringen. Ein wichtiges Thema dürfte dabei auch die Finanzierung der Nutzung solcher Dienste stehen. Der Kostenfaktor von solchen Zusatzdiensten ist enorm. Viele Menschen unterschätzen diese Kosten und verschulden sich hoch. Die Umfrage hat gezeigt, dass gerade beim Nachwuchs die 94 Nutzung solcher kostenpflichtigen Zusatzdienste zunimmt. Das Handy wird immer mehr zum Lifestyle-Objekt. Aber Lifestyle-Objekte haben ihren Preis und so muss man auch beim Handy immer den Kosten-Nutzen Faktor im Auge behalten. 4. Danksagung Wir danken Prof. Dr. Bernd Eylert für die Unterstützung bei der Ausarbeitung dieser Studie, sowie für die interessante Aufgabenstellung. Die Vorlesung Telekommunikation und Gesellschaft hat uns eine neue, interessante Perspektive auf die Telekommunikation gegeben, wo nur allzu oft nur auf technische Aspekte geachtet wird und die Frage nach den Wechselwirkungen mit der Gesellschaft zu kurz kommt. Autoren Markus Czok Sittestraße 3c, 13437 Berlin Tel. +49 30 41718845 [email protected] Marc Gurczik Am Comeniusplatz 5, 10243 Berlin Tel. +49 174 1800999 [email protected] TFH Wildau, Wissenschaftliche Beiträge 2006 Einführung, Nutzen und Gefahren durch Funkchips Michael Ring, Peter Ungvári 1 Einleitung Der Austausch von Informationen gehört für jeden Menschen zum Alltag. Ob ein Bestellschein ausgefüllt wird oder auf einem Flughafen der Pass eines Menschen kontrolliert, es werden dabei immer Informationen über Menschen, Waren oder Prozesse ausgetauscht. Mit der zunehmenden Globalisierung und dem damit verbundenen internationalen Personen- und Güterverkehr wird es erforderlich, Informationen, insbesondere auch über Menschen, über Landesgrenzen hinweg, zugänglich und austauschbar zu machen. Die Lösung dieser Problematik erfordert dabei den Einsatz moderner und leistungsfähiger Technologien. Es muss einerseits der Zugang zu den Datensätzen als solches ermöglicht werden. Dies wird in vielen Fällen über das bereits bestehende Internet realisiert. Andererseits muss die Zuordnung des Menschen oder auch eines Transportgutes zu dem entsprechenden Datensatz erfolgen, was speziell im Bereich Datenschutz und Datensicherheit eine Vielzahl von Konsequenzen nach sich zieht. Die Zuordnung der Daten muss somit fälschungssicher und trotzdem für den Menschen zumutbar realisiert werden. RFID ist ein Mittel, um die Identifikation von Menschen und Gütern zu ermöglichen, welches die Eigenschaft besitzt kontaktlos zu arbeiten. Es ist somit möglich, ohne eine feste Verbindung zum Informationssystem Daten und Identifikationsschlüssel zu übertragen. Mit dieser Ausarbeitung sollen die Möglichkeiten und die Funktionsweise von RFID und insbesondere auch die Gefahren und Missbrauchspotentiale betrachtet werden. Es sollen dabei vor allem die für den Umgang mit personenbezogenen Daten relevanten Aspekte der RFID-Technologie untersucht und die Grundlagen der Erfassung und Auswertung biometrischer Daten erörtert werden. Aufgrund aktueller, politischer Entwicklungen wird dabei der Schwerpunkt auf die Einführung des neuen, digitalen Reisepasses gelegt, welcher im November 2005 eingeführt werden soll. Es wird dabei auf die Umsetzung der technischen Problemstellungen, die Art der gespeicherten Daten und die Probleme beim internationalen Austausch dieser Daten, speziell im Bereich des Flugverkehrs eingegangen. Abb. 1: RFID-Komponenten TFH Wildau, Wissenschaftliche Beiträge 2006 Da mit Einführung einer neuen Technologie durch alle Bevölkerungsschichten hindurch auch gesellschaftliche Probleme und Folgen entstehen können, wird abschließend die Akzeptanz der Technologie als solches und des digitalen Reisepasses in Form einer Umfrage untersucht und ausgewertet. 2 Grundlagen 2.1 Grundlagen RFID RFID steht für „Radio Frequency Identification“ und ermöglicht, wie bereits der Name beschreibt, die Identifikation auf Basis von Funksignalen. Die Umsetzung einer RFID-Infrastruktur erfordert im Wesentlichen drei Arten von Komponenten: – RFID-Sender – RFID-Transponder – Datenbank bzw. Informationssystem. Der RFID-Sender ist dabei eine Sende- und Empfangsstation, welche in der Lage ist mit RFID-Transpondern in der näheren Umgebung zu kommunizieren und Informationen über die identifizierten Transponder mittels eines Netzwerkes an ein Informationssystem, welches über eine Datenbank verfügt, weiterzuleiten. Das Informationssystem ist dabei üblicherweise in Form einer Client-/ ServerArchitektur realisiert. Die RFID-Transponder bestehen aus wenigen Schaltkreisen, welche ausschließlich auf bestimmte Funk-Frequenzen reagieren. Passive RFID-Transponder benötigen keine eigene Stromversorgung, wie z. B. eine Batterie, wodurch sie über eine sehr hohe Lebensdauer verfügen. Die Distanz zum Auslesen des Transponders ist von den eingesetzten RFID-Sendern und deren Montage abhängig und liegt dabei zwischen wenigen Zentimetern und maximal zwei Metern. Auf dem RFID-Transponder kann dabei nur eine begrenzte Anzahl von Informationen gespeichert werden, wodurch zwei gängige Verfahren zur Speicherung von Daten möglich sind: – Speicherung aller Informationen auf dem Transponder – Speicherung eines Identifikationsschlüssels auf dem Transponder Die Möglichkeit alle Informationen auf dem Transponder zu speichern ist ausschließlich in solchen Fälle sinnvoll, wo es nur eine beschränkte Menge an Informationen gibt bzw. der Zugang zu einer Datenbank, aufgrund der Art der Anwendung, nicht uneingeschränkt möglich ist. Die Möglichkeit ausschließlich einen Identifikationsschlüssel auf dem Transponder zu speichern bietet sich vor allen Dingen dann an, wenn die Menge der Informationen den Speicherplatz des Transponders übersteigt und darüber hinaus der Zugang zu einer Datenbank, in welcher die entsprechenden Informationen abgelegt sind, dauerhaft möglich ist. 95 Beide Lösungen bieten dabei verschiedene Vor- und Nachteile, welche je nach dem zu lösenden Problem sorgfältig gegeneinander abgewägt werden müssen. Es sind darüber hinaus auch Mischformen beider Anwendungsmöglichkeiten realisierbar, bei welchen eine Auswahl von relevanten Daten direkt auf dem Transponder gespeichert ist und zusätzlich weitere Informationen mittels eines gespeicherten Schlüssels aus einer Datenbank geladen werden können. Die Möglichkeiten die RFID-Technologie anzugreifen lassen sich im Wesentlichen in zwei Bereiche unterteilen. Einerseits besteht die Gefahr, dass der RFID-Transponder durch Unberechtigte ausgelesen und die enthaltenen Daten gespeichert werden. Andererseits können Gefahren auch dadurch entstehen, dass der Zugang zum Informationssystem bzw. dessen Datenbank, mittels welcher die Verknüpfung von Identifikationsschlüsseln und Daten möglich ist, nicht ausreichend reglementiert oder geschützt ist. Es ist so unter Anderem möglich die Kommunikation zwischen Sendern und Transpondern mitzuhören und die übermittelten Daten zu speichern. Um diese sehr einfach zu realisierenden Angriffe zu unterbinden und so das Mitlesen sensibler Daten zu erschweren kommen bei personenbezogenen Anwendungen häufig moderne Verschlüsselungsverfahren zum Einsatz. 2.2 Anwendungsgebiete RFID kommt in verschiedenen Anwendungsgebieten zum Einsatz. Ziel ist dabei immer die Identifikation, die Ortung sowie das sog. „Tracing“, also die Verfolgung eines Objektes oder einer Person. Der Hauptnutzen der Technologie entstand dabei im Bereich der Logistik und des Transportwesens. Mittels RFID ist es möglich z. B. einen GüterContainer mit einer eindeutigen Kennung zu versehen, und diesen an den einzelnen Punkten des Transportweges zu identifizieren und in einer Datenbank zu registrieren. Für den Transportunternehmer sowie dessen Kunden ist es somit möglich, jederzeit den aktuellen Standort des Containers bis auf die genaue Position innerhalb eines Containerlagers zu bestimmen. Die erzeugten Daten dienen neben dem Abfragen des aktuellen Standortes des Containers auch zur Analyse des Transportweges und im größeren Umfang auch von Transportflüssen und ganzen Logistikketten. Logistikunternehmen erhalten somit wertvolle Informationen, welche unmittelbar in die zeitliche und finanzielle Optimierung von Prozessen einfließen können. Auch in anderen Anwendungsgebieten hat sich RFID etabliert. Bereits heute basieren viele der eingesetzten Mechanismen zur Diebstahlerkennung auf Basis der RFID-Technologie. Es kann z. B. mittels RFID festgestellt werden, dass ein Produkt, welches nicht bezahlt wurde, aus dem Geschäft entfernt wird. In Zukunft kann dieser Mechanismus z. B. auch für das Bezahlen von Waren genutzt werden. Wenn der Kunde und die Ware bekannt und beim Geschäft registriert sind, könnte das Bezahlen eines Produktes einfach durch das Verlassen des Geschäftes realisiert werden, da der entsprechende Produktwert unmittelbar vom Konto des identifizierten Kunden abgebucht werden kann. Große Handelsketten wie z. B. die METRO oder Tengelmann forschen auf diesem Anwendungsgebiet. 96 Die am Beispiel von Waren oder Containern dargestellten Anwendungen lassen sich dabei auch sehr leicht auf den Menschen übertragen. Es wäre somit möglich z. B. die Reiseroute eines Menschen ähnlich der Route eines Containers zu verfolgen, da z. B. an jedem besuchten Flughafen ein Datensatz mit Zeit, Ort und ggf. sogar dem Reiseziel der betreffenden Person erzeugt und zentral gespeichert werden kann und ggf. ein automatischer Alarm ausgelöst wird, wenn eine Person z. B. nicht zur Aus- oder Einreise berechtigt ist. Die Problematik liegt dabei neben der Identifikation des gespeicherten Schlüssels und der Ermittlung der zum Schlüssel passenden Informationen auch darin, die Zugehörigkeit vom Identifikationsschlüssel und der betreffenden Person einwandfrei feststellen zu können. Es werden für personenbezogene Anwendungen somit Daten benötigt, welche anhand der individuellen Merkmale einer Person eine eindeutige Identifikation ermöglichen. Daten mit diesen Eigenschaften werden als biometrische Daten bezeichnet. 3 Der digitale Reisepass Am 1. November des Jahres 2005 wird der neue digitale Reispass in Deutschland eingeführt. Dieser soll mit 59 € rund doppelt soviel wie der „klassische“ Reisepass kosten. Anhand gespeicherter biometrischer Daten soll zum einen die Verbindung zwischen der Person und deren Reispass verstärkt werden und zum anderen soll auf diesem Wege die Fälschungssicherheit erhöht werden. Als Kerntechnologie kommt dabei RFID zur Datenspeicherung und Kommunikation zum Einsatz. Im Folgenden wird erläutert was biometrische Daten sind, wie diese erhoben werden und welche Probleme mit der Entwicklung und Einführung des neuen digitalen Reispass entstanden sind bzw. noch entstehen können. Mit der Einführung des neuen Reisepasses im Jahr 2005 wird dabei ausschließlich das Gesichtsbild als Identifikationsmerkmal verwendet. Erst im Jahr 2007 soll neben dem Gesichtsbild auch der Fingerabdruck als Pflichtmerkmal ergänzt werden. 3.1 Biometrische Daten Noch vor wenigen Jahren schien die Biometrie ein Wesen der Zukunft zu sein. Menschen wurden höchsten in Science-Fiction-Romanen mit dieser Materie und deren Anwendungsgebieten konfrontiert. Doch was damals noch futuristisch schien, ist heute bereits Realität und wird ab dem 1. November diesen Jahres mit der Einführung des neuen digitalen Reisepasses für Jedermann zum Alltag. Auch wenn es so scheint als sei die Biometrie eine Wissenschaft des 20. Jahrhundertes, muss gesagt werden, dass die Ursprünge dieser scheinbar neuen Wissenschaft bis in das Jahr 1500 v. Chr. zurückreichen. In dieser Zeit zeichneten bereits die Babylonier ihre Handelsverträge mit dem eigenen Fingerabdruck ab. In China und Japan wurden Fingerabdrücke bereits zwischen 600 und 900 n. Chr., ebenfalls als Stempel und Siegel, eingeführt. Darüber hinaus wurde in China erstmals den Fingerabdruck als Beweismaterial in Strafprozessen eingesetzt. Leonardo Da TFH Wildau, Wissenschaftliche Beiträge 2006 Vinci setzte sich als erster im 15. Jahrhundert wissenschaftlich mit der Vermessung menschlicher Körperteile auseinander. Seine Ergebnisse sind bis heute eine wesentliche Grundlage für Forschungen auf dem Gebiet der Biometrie. Einen weiteren Meilenstein setzte Marcello Malphigi, ein bedeutender Wissenschaftler an der Universität von Bologna. Dieser erforschte im 17. Jahrhundert die Poren der menschlichen Haut und stieß als erster auf das sog. Papillarlinienmuster auf den menschlichen Fingerkuppen (vgl. Abb. 2). Darauf aufbauend formulierte der englische Wissenschaftler Francis Galton im 19. Jahrhundert Aussagen über die Individualität des Fingerabdrucks. Trotz der langen Geschichte steht die Biometrie heute noch am Abb. 2: Papillarlinienmuster Anfang ihrer Entwicklung. In der heutigen Zeit wird die Biometrie wie folgt definiert: „Biometrie ist die Technik der Erkennung von Personen anhand persönlicher Charakteristika, z. B. Gesicht und Fingerabdruck.“ [5]. Die am bekanntesten und geläufigsten biometrischen Daten sind – der „klassische “ Fingerabdruck und – der genetische Fingerabdruck. Der genetische Fingerabdruck wird heute erfolgreich in der Verbrechensbekämpfung und -aufklärung angewandt. Trotz großer und zahlreicher Erfolge in der Verbrechensaufklärung ist diese Methode heute noch umstritten und deren Einsatz nach wie vor sehr kostenintensiv. Der genetische Fingerabdruck wird als biometrisches Merkmal in dieser Ausarbeitung deshalb nicht weiter betrachtet. Das wohl am bekannteste und älteste biometrische Merkmal ist der Fingerabdruck. Dieser wird ebenfalls unter anderem in der Verbrechensaufklärung, zur Überführung von Straftätern angewandt. Die Bestimmung bzw. Ermittlung des Fingerabdrucks erfolgt nach einem alten Verfahren, welches auch schon Francic Galton für seine Forschungen angewandt hat. Im Gegensatz zur damaligen Zeit erfolgt die Erfassung heute automatisiert mit Hilfe von Scannern und Computern. Dabei werden aus dem Fingerabdruck mittels einer Software eindeutige Merkmale extrahiert. Dies sind zum einen Verzweigungen und zum anderen das Ende, welche die Papillarlinien beschreiben. Diese Merkmale bezeichnete Galton als Minutien (lateinisch: Kleinigkeit). Die heutigen automatisierten Verfahren nutzen zu 80 % die Minutien zur Erfassung des Fingerabdrucks. Die restlichen 20 % nutzen unter anderem die Lage und Richtung der Hauptlinien. Obwohl nahezu alle Systeme identische Verfahren anwenden, existieren heute eine Vielzahl an Techniken zur Erkennung der Merkmale. Man unterscheidet hier zwischen kontaktfreien und kontaktbehafteten Systemen. Die kontaktfreien Sensoren haben den Vorteil, wie die Bezeichnung schon andeutet, dass der Finger nicht auf den Sensor gelegt werden muss. Dies hat den Vorteil, dass der Sensor wesentlich langsamer verdreckt und somit auch hygienische Aspekte gewährleistet sind. TFH Wildau, Wissenschaftliche Beiträge 2006 Bei der kontaktfreien Methode werden heute hoch auflösende Kameras und Ultraschall-Sensoren verwendet. Diese sind jedoch sehr teuer, so dass heute vor allem kontaktbehaftete Sensoren Anwendung finden. Diese sind darüber hinaus billiger und kompakter als kontaktfreie Sensoren und eignen sich somit besser für Massenanwendungen. Dabei werden heute sowohl Silizium- als auch Druck-Sensoren angewandt. Wie die vier erwähnten Technologien den Fingerabdruck im Einzelnen scannen, kann Tabelle 1 entnommen werden. hoch Eine Ausnahme bezüglich der Größe ist die CCDauflösende Kamera. Dieses System funktioniert relativ einfach. Kameras Ein Prisma wird von einer Seite bestrahlt und von einer anderen Seite zeichnet eine Kamera die Reflexion der Lichtstahlen auf, die entstehen wenn auf der dritten Seite ein Finger aufgelegt wird. Ultraschall- Eine weitere Möglichkeit ist die Abtastung des RillenSensoren profils mittels Ultraschall. Ultraschallwellen tasten den Finger nach Höhen und Tiefen ab und können somit den Fingerabdruck rekonstruieren. SiliziumSensor Ein Siliziumkern misst die elektrische Aufladung zwischen den Papilliarlinien und erstellt so ein 8-bit Graustufenbild. DruckSensoren Auf der Chipoberfläche befinden sich winzige Widerstandssensoren. Wenn ein Finger auf den Drucksensor gelegt wird, ändert sich der Widerstand an den Stellen, an denen die Papilliarlinien auf dem Sensor aufliegen. Diese Sensoren sind nur wenige Millimeter dick und eignen sich dadurch für den Massenmarkt. Tab. 1: Technologien zur digitalen Erfassung des Fingerabdrucks Ein weiteres biometrisches Merkmal ist das menschliche Gesicht. Im Gegensatz zur Fingerabdruckerkennung ist die Gesichtserkennung eine sehr junge Wissenschaft und kaum älter als 10 Jahre. Das US-amerikanische Verteidigungsministerium („DoD“ – Department of Defense) legte in den 90iger Jahren mit dem „Face Recognition Program“ (FERET) die ersten Grundlagen und testete bereits erste automatisierte Systeme. Nach der Jahrtausendwende erfolgte eine Neuauflage und Erweiterung der Tests unter dem Namen „Facial Recognition Vendor Test“. In Deutschland beschäftigt sich seit dem Jahre 2002 das „Bundesamt für Sicherheit in der Informationstechnik“ (BSI) mit der Untersuchung von Algorithmen zur Gesichtserkennung. Abb. 3: Vorgehensweise bei der Template-Erzeugung 97 Man unterteilt den Prozess der Gesichtserkennung dabei in drei wesentliche Arbeitsschritte: – Template erzeugen, – Referenzdatensatz erzeugen und – Gesichtsbilder vergleichen. Um den Vergleich zweier Gesichtsbilder schneller und einfacher zu gestalten werden zunächst die Merkmale des Gesichts erfasst und in einem Merkmalsdatensatz, dem sog. Template gespeichert (vgl. Abb. 3). Es werden in erster Linie solche Merkmale erfasst, welche sich nur schwer durch Mimik verändern lassen, zum Beispiel die obere Kante der Augenhöhlen, die Gebiete um die Wangenknochen und die Seitenpartien des Mundes. Abb. 4: Vorgehensweise bei der Referenzdaten-Erzeugung Im nächsten Arbeitsschritt werden Referenzdaten erzeugt (vgl. Abb. 4). Diese werden dann zur Identifikation von Personen angewandt. Die Referenzdatenbank entsteht durch das Einspeichern von Gesichtsbildern. Dabei werden die bereits erfassten Merkmale der Templates mit den neuen Bildern verglichen und ggf. um weitere Merkmale ergänzt bzw. verfeinert. Um veränderte Kopfhaltungen oder auch Mundöffnungen berücksichtigen zu können, werden zur Erstellung des Referenz-Templates auch mehrere Gesichtsbilder aus zum Beispiel Videosequenzen genutzt. Die Referenzdaten-Erzeugung verfeinert die zuvor erzeugten Templates. Im letzten Schritt, dem Vergleich der Gesichtsbilder, werden die gespeicherten Bilder bzw. Gesichtsmerkmale mit Hilfe komplexer mathematischer Algorithmen kombiniert und verglichen. Im Ergebnis erhält man den Grad der Ähnlichkeit mit dem gespeicherten Template bzw. Referenzdatensatzes. offen Dieses Merkmal kann ohne weitere Hilfsmittel beobachtet werden. (z. B. Gesicht) leicht verdeckt Ein Nebenstehender kann dieses Merkmal beobachten (z. B. Fingerabdruck) verdeckt Dieses Merkmal kann nur mit Hilfe eines bestimmten Detektors erfasst werden. (z. B. Retina-Muster) diskret/ schwer verdeckt Das Merkmal ist nicht direkt beobachtbar, sondern das Ergebnis, welches eine (geheime) Funktion aus dem Personenverhalten analysiert. Das Abhören von Messdaten bringt keine auswertbare Information. Tab. 2: Verfahren zum Vergleich von Gesichtsmerkmalen Im Bereich der Gesichtserkennung werden heute neben dem beschriebenen Prinzip auch noch weitere Verfahren angewandt: 98 Neben den erwähnten biometrischen Merkmalen/Verfahren existieren auch weitere, wie – Iriserkennung, – Stimmerkennung und – Handgeometrie. Weiterführend werden nur die ausführlich beschriebenen Merkmale Fingerbadruck und Gesicht betrachtet, da diese als neues Merkmal digital im neuen Reisepass gespeichert werden. Die Entscheidung seitens der Europäischen Union für das Gesicht als primäres Identifikationsmerkmal beruht auf eine Empfehlung der UN-Zivilluftfahrt-Organisation (International Civil Aviation Organization – ICAO). Der Fingerabdruck wurde als eine Art „Ersatzmerkmal“ zusätzlich mit aufgenommen, da dieser sich durch eine hohe Praxistauglichkeit auszeichnet. Des Weiteren soll der Fingerabdruck die Flexibilität bei den Kontrollen erhöhen. An Stellen, an denen die Gesichtserkennung aufgrund schlechter Beleuchtungsverhältnisse oder bei einem eventuellen Massenandrang nicht möglich ist, soll dennoch eine Identifikation möglich sein. 3.2 Anwendungsgebiete Biometrie Wie bereits festgestellt wurde, werden biometrische Merkmale ab November dieses Jahres digital auf RFID-Funkchips im neuen Reisepass gespeichert. Das tatsächliche Anwendungsgebiet der Biometrie ist allerdings wesentlich größer. Zum einen findet diese Wissenschaft Anwendung, um wichtige Dokumente (zum Beispiel den Reispass) fälschungssicherer zu gestalten. Zum anderen werden biometrische Daten hauptsächlich dort angewandt, wo die Identität eines Menschen eine eminent wichtige Rolle spielt und verlässlich und schnell ermittelt werden muss. Heutige Anwendungen sind – Sicherung von Computern und Daten (Samsung führte als erster Notebook-Hersteller die User-Authentifizierung über einen Fingerabdruck ein.) – Zugangskontrollen (Das Militär setzte mit als erstes die Personenidentifikation anhand biometrischer Merkmale zur Zugangskontrolle an Hochsicherheitsgebäuden ein.) – Auszahlung von Sozialgeldern (Das erste Land, welches biometrische Daten, den Fingerabdruck, zur Überprüfung der rechtmäßigen Auszahlung von Sozialgeldern einführte, war Südafrika. Ausschlaggebend hierbei war der hohe Anteil an Analphabeten in der Bevölkerung. Ähnliche Systeme bzw. Verfahren befinden sich in Kolumbien und Spanien in der Einführung und nutzen ebenso den Fingerabdruck.) – Arbeitszeiterfassung (Eine Supermarktkette mit 450 Supermärkten erfasst die Arbeitszeiten des Personals anhand der Identifikation über den Fingerabdruck. Der anfängliche Widerstand des Personals konnte aufgrund einer Datenschutzüberprüfung überbrückt werden.) Das wohl bekannteste und aktuellste Anwendungsbeispiel für biometrische Merkmale ist, wie bereits mehrfach erwähnt, der neue digitale Reispass. Mittels der neuen Daten sollen Personen besser, schneller und vor allen Dingen sicherer Identifiziert werden können. Des Weiteren wird so eine Verbesserung der Fälschungssicherheit erzielt. Für die Identifizierung existieren zwei Systeme: TFH Wildau, Wissenschaftliche Beiträge 2006 – AFIS (Automatisches Fingerabdruck Identifizierungssystem) – AFAS (Automatisches Fingerabdruck Authentifizierungssystem) Beim AFIS wird der Fingerabdruck gescannt und anhand einer Datenbank identifiziert. Dabei wird der Fingerabdruck mit allen in der Datenbank gespeicherten Abdrücken verglichen. Das Ergebnis ist eine Liste mit allen möglichen Treffern, welche sortiert nach der Trefferwahrscheinlichkeit ausgegeben wird. AFAS wird zur Identifizierung über den Fingerabdruck beim neuen Reispass angewandt. Zusätzlich zum gescannten Fingerabdruck fordert das System eine Identität an. Diese Identität bzw. deren Identifikationsschlüssel liefert der Reispass bzw. dessen RFID-Chip. Das System vergleicht dann den zur ermittelten Identität gespeicherten Fingerabdruck in der Datenbank mit dem gescannten Abdruck. 3.3 Gefahrenpotentiale Alle vorgestellten Verfahren ähneln sich dadurch, dass die biometrischen Merkmale in Merkmalsvektoren abgespeichert werden. Beim digitalen Reisepass kommt dabei der Merkmalsvektor des Referenzmusters, der von Benutzern bei der Registrierung bzw. den Ämtern erstellt wird (Enrollment-Prozess) zum Einsatz. Dieser wird in einer Datenbank und dem Reisepass abgespeichert und dient dem Vergleich mit Testmustern. Testmuster werden bei jeder Authentifizierung der Person erstellt. Aus verfahrensabhängigen Gründen kommt es meist aber zu kleinen Ungenauigkeiten bei der Erstellung, so dass die Merkmalsvektoren trotz identischer Quelle, dem Inhaber des Reisepasses, nicht vollständig identisch sind. Deshalb wird beim Vergleich des Referenzmusters mit dem Testmuster der genaue Unterschied mit Hilfe von Abstandsmetriken (z. B. Hamming-Distanz oder Euklidische Distanz) ermittelt. Wird ein vordefinierter Schwellwert nicht überschritten, so gelten die Muster als identisch. Die Festsetzung des Schwellwertes beeinflusst die „false accept rate“1 und die „false reject rate“2. Man kann dabei sagen, dass je höher der Schwellwert gewählt wurde, das System umso sicherer ist. Abb. 5: Angriffe auf RFID [7] Biometrische Daten lassen sich somit durch direkte Täuschung des Systems adaptieren. Täuschung heißt, dass ein echtes biometrisches Merkmal durch ein Imitat ersetzt wird. Der Fingerabdruck kann so zum Beispiel durch TFH Wildau, Wissenschaftliche Beiträge 2006 künstliche Finger aus Wachs oder Silikon nachempfunden werden. Auch einer eventuellen Lebendprüfung kann mittels eines nachempfundenen Pulsierens widerstanden werden. Auch ein Gesicht ließe sich mit Wachs und Silikon adaptieren. Die Iris, auch wenn sie als Merkmal beim digitalen Reisepass nicht zum Einsatz kommt, könnte in diesem Szenario anhand einer Kontaktlinse nachempfunden werden. Generell kann eine Fälschung von biometrischen Merkmalen nur mit sehr hohem und kostenintensivem Aufwand betrieben werden. Ein weiteres Angriffsszenario ist der so genannte Akquisitionsangriff. Hier wird versucht biometrische Daten anderer Personen zu erlangen. Mit welchem Erfolg ein solcher Angriff durchgeführt werden kann, ist abhängig vom biometrischen Merkmal selbst. So kann ein Fingerabdruck vergleichsweise Einfach erfasst werden, da dieser von Jedermann unfreiwillig an jedem berührten Gegenstand hinterlassen wird. Dieser ist somit passiv erfassbar. Eine Einstufung aller biometrischen Merkmale kann Tab. 3 entnommen werden. Elastische Graphen Es werden markante Stellen (sog. Knoten) im Gesicht gesucht und untereinander verbunden. Das entstehende Gitter wird mit dem Gitter eines normierten Referenzbildes verglichen, dabei wird versucht mit Drehung, Streckung und Stauchung die Bilder aufeinander abzubilden. Die verbleibenden Unterschiede ergeben das Maß für die Ähnlichkeit. Geometrische Dieses Verfahren ähnelt dem der elastischen Graphen. Merkmale Dabei bilden die relativen Positionen zueinander einen Vektor. Der Abstand zwischen diesem Vektor zu dem des Referenzbildes ergibt die Ähnlichkeit der Bilder. Eigenfaces Grundlage für dieses Verfahren ist eine Sammlung von Basisbildern des Gesichts. Diese werden so kombiniert, dass sie mit dem zu vergleichenden Bild so ähnlich wie möglich sind. Tab. 3: biometrische Merkmale – Einstufung [1] Biometrische Daten lassen sich nicht nur über einen Aquisitionsangriff erfassen und daraufhin digitalisieren, sondern unter Umständen auch direkt vom RFID-Chip ausspähen. Dies ist zum einen davon abhängig, ob die Chips die Daten von sich aus, ohne Überprüfung bzw. Authentifizierung des Anfragers preisgeben, und zum anderen ist das Ausspähen von Daten davon abhängig, ob biometrische Daten direkt auf dem Chip gespeichert werden, oder ob lediglich eine ID gespeichert ist, welche einen Datensatz in einer zentralen Datenbank referenziert. Beim digitalen Reisepass werden beide Varianten miteinander kombiniert eingesetzt. Im letzteren Fall wäre das Angriffsziel nicht der Chip selbst, sondern die Datenbank. Eine weitere Alternative im Ausspähen von biometrischen Daten ist das Mithören der Kommunikation zwischen Sender und Transponder. Hier können Angreifer den Datenaustausch mithören, wenn dieser nicht verschlüsselt erfolgt. Hier ist die Sicherheit zusätzlich von der kryptographischen Qualität der Verschlüsselung abhängig. Grundsätzlich ist das Ausspähen von biometrischen Daten, sowohl beim direkten Datenabruf vom Chip, als auch beim Abhören der Kommunikation, abhängig von der Signalreichweite möglich. Je größer die maximale, 99 zum Auslesen benötigte Rechweite ist, desto unauffälliger und unbemerkt lassen sich biometrische Daten unbefugt erfassen. Eine weitere Missbrauchsgefahr stellt die Zweckentfremdung der Daten dar. Mit Zeckentfremdung ist gemeint, dass die Daten über die Authentifizierung des „Merkmalinhabers“ hinaus für einen Zweck genutzt werden, für den diese nicht erhoben wurden. Eine Möglichkeit besteht in der Verfolgungsmöglichkeit einer Person von einem entfernten zentralen Punkt aus. Des Weiteren besteht die Gefahr, dass Daten unzulässigerweise an Dritte weitergegeben werden. Im Allgemeinen kann man sagen, dass auf die Einhaltung der datenschutzrechtlichen Bestimmungen besonders geachtet und dies überprüft werden muss. 3.4 Gegenmaßnahmen Um Angriffe abzuwehren, welche direkt das Auslesen der Daten des RFID-Transponders zum Ziel haben, wird beim neuen digitalen Reispass ein zweistufiges Sicherheitssystem verwendet. Mit der ersten Stufe, dem sog. „Basic Access Control“, werden zunächst der Name, das Geburtsdatum, das Geschlecht sowie das Gesichtsbild des Passinhabers geschützt. Die Daten werden dabei mittels eines geheimen Schlüssels kodiert, welcher laut BSI eine Stärke von 56 Bit besitzt und somit mit gängigen DES-Schlüsseln vergleichbar ist. Der Schlüssel wird dabei mittels eines Algorithmus aus den Daten des maschinenlesbaren Teils des Reispasses erzeugt. Die Errechnung des Schlüssels erfordert somit einen direkten, optischen Zugang zum geschützten Dokument, also dem Reisepass. Die zweite Stufe, „Extended Access Control“ genannt, wird erst nach der Einführung des Fingerabdrucks als zusätzliches Merkmal verwendet. Es handelt sich dabei um einen Public-Key-Authentisierungsmechanismus sowie einer Public/Private-Key-Infrastruktur (PKI), welche es dem RFID-Chip des Reisepasses ermöglicht, die Zugriffsrechte des Lesegerätes anhand eines Zertifikates zu verifizieren. Es obliegt dabei dem Land, welches den Pass herausgegeben hat, festzulegen, welche Zertifikate benötigt werden um auf bestimmte Daten zuzugreifen. Es ist somit auch möglich ausländischen Lesegeräten nur einen beschränkten Zugriff auf die Daten zu gewähren. Auch bei der zweiten Sicherheitsstufe soll das Auslesen der Daten aus einem geschlossenen Reispass generell unterbunden werden. 3.5 Politische und Gesellschaftliche Probleme Die zentrale und internationale Organisation für die Verbesserung der Sicherheit von Reisedokumenten ist die ICAO (International Civil Aviation Organization). Aufgabe der ICAO ist es, Spezifikationen und Standards für Reisedokumente für eine weltweite Interoperabilität zu schaffen. Eines der bedeutendsten Programme der ICAO ist das MRTD (Machine Readable Travel Documents). Bis 2001 beschäftigte man sich im MRTD der MRZ (Machine Readable Zone) auf Reisedokumenten. Nach den Anschlägen vom 11. September 2001 in New York wurden in den USA neue Sicherheitsgesetze verabschiedet. Ein 100 Beschluss mit großen Auswirkungen sah die Einführung von biometrischen Merkmalen als Sicherheitsstandard von Reisedokumenten vor. Aufgrund dessen verabschiedete die ICAO im Mai 2004 den Standard bzw. die Spezifikation für die interoperable Nutzung von biometrischen Daten und deren Speicherung in der MRZ. Die wichtigsten Punkte sahen das Gesicht als zwingendes biometrische Merkmal in Reisedokumenten für alle Länder vor. Als Speicher- und Kommunikationstechnologie wurde RFID empfohlen. Ebenso wurde eine einheitliche Datenstruktur verabschiedet. Alles darüber hinausgehende, zum Beispiel die zusätzliche Speicherung des Fingerabdrucks als biometrisches Merkmal, ist optional und obliegt den nationalen Interessen des jeweiligen Landes. Auf Basis dieser Spezifikationen verabschiedete die Europäische Union am 13. Dezember 2004 die Einführung von digitalen Reisepässen. Dieser Beschluss sah, gemäß den standardisierten Forderungen der ICAO vor, das Gesicht als biometrisches Merkmal in der ersten Stufe und RFIDals Datenhaltungs- und Kommunikationstechnologie vor. In der zweiten Stufe soll zusätzlich der Fingerabdruck als biometrisches Merkmal gespeichert werden. Mit den internationalen Vorgaben ergaben sich die heutigen Probleme und Kritiken. Nach dem Beschluss der Einführung des Reisepasses schlugen Datenschützer in Deutschland Alarm. Man kritisierte RFID als eine zu unsichere Technologie, da unter anderem die Kommunikation nicht sicher genug gegen unbefugtes Abhören sei. Die USA erschlugen diese Kritik mit dem Argument, dass die Signalstärke lediglich ein Abhören in einem Umkreis von 10 cm zuließe. Aufgrund dieser kleinen Reichweite wurden keine datenschutzrechtlichen Maßnahmen für notwendig befunden. Nach Messungen des „National Institute of Standards and Technology“ (NIST), welche die Kritiken bestätigten, und zunehmenden öffentlichem Druck, wurde das Problem jedoch anerkannt und die Verschärfung der Sicherheits- sowie Verschlüsselungsmaßnahmen vorangetrieben. Ein zentrales Problem dabei sind internationale Differenzen in der Anwendung des Datenschutzes. Da Datenschutz-sichernde Mechanismen gemäß ICAO optional sind, entstehen Konflikte zwangsläufig dann, wenn ein Land entsprechende Funktionen implementiert, ein anderes dagegen nicht. Innerhalb Europas sollte es hier jedoch keine Probleme geben, da man sich europaweit über die notwendigen Sicherheitsaspekte und -problematiken verständigt hat. Eine langfristige, politische Lösung dieser Konflikte im internationalen Bereich steht dabei noch aus, wobei insbesondere die USA sowie der mittlere und nahe Osten im Zentrum der Diskussionen stehen. Datenschutzrechtliche Aspekte spiegeln sich auch in gesellschaftlichen Problemen bzw. Ängsten wieder. Gemäß einer, von einer Computerzeitschrift im Jahr 2001, durchgeführten Umfrage (3676 Teilnehmer), haben über die Hälfte aller Befragten Angst vor einem unbefugten Zugriff auf die Daten und Missbrauch. Damit verbunden lehnten bereits damals 11.9 % eine Identifizierung über biometrische Daten generell ab. Mit der zunehmenden Thematisierung der mit dem neuen digitalen Reisepass verbundenen Problematiken, speziell im Bereich des Datenschutzes, ist die gesellschaftliche Skepsis dabei eher TFH Wildau, Wissenschaftliche Beiträge 2006 gestiegen als gesunken. Nicht zuletzt spielt dabei auch die Politik der USA, welche sich die weltweite Bekämpfung des Terrorismus zum Ziel gesetzt hat und dabei immer wieder mit ihren, für europäische Verhältnisse, zweifelhaften Methoden in den Medien steht, eine nicht zu unterschätzende Rolle. 4 Umfrage zum Thema RFID 4.1 Voraussetzungen Da RFID und der neue digitale Reisepass Themen sind, welche alle Altersgruppen betreffen, wurde versucht, mit der vorliegenden Umfrage auch möglichst alle Altersgruppen abzudecken. Dabei wurden 58 Personen im Alter zwischen 16 und 76 Jahren beider Geschlechter befragt. Die Verteilung der Altersgruppen stellt sich dabei wie folgt dar: 4.2.1 Basiswissen zur RFID-Technologie sowie allgemein zum Datenschutz Es wurde im Rahmen der Umfrage deutlich, dass sowohl der Begriff RFID, als auch die Kenntnis über diese Technologie (Frage 1) den wenigsten Umfrageteilnehmern bekannt waren, was aufgrund des durchschnittlichen Wertes von 3,8 deutlich wurde. Im Gegensatz dazu waren die meisten Teilnehmer der Meinung, ausreichend über die Thematik Datenschutz informiert zu sein (Frage 6/Durchschnittswert 2,2). Über die Vor- und Nachteile der RFID-Technologie im Bezug auf den Datenschutz waren die Einschätzungen des eigenen Kenntnisstandes relativ Ausgewogen (Frage 7/ Durchschnittswert 2,7). Dies war nach den Aussagen vieler Teilnehmer auch dadurch bedingt, dass das Thema wenige Tage zuvor erneut durch die Medien gegangen war und als Folge dessen, dass Otto Schilly die endgültige Einführung des digitalen Reisepasses zum 1. November 2005 bekannt gegeben hatte. Zusammenfassend ist zu sagen, dass die Kenntnisse über die Themen RFID, Datenschutz, sowie die damit in Zusammenhang stehenden Vor- und Nachteile sich relativ ausgewogen darstellen. Dies wird anhand des Durchschnittswertes dieses Fragenkomplexes von rund 2,87 deutlich. Aufgrund der Medienpräsenz des Themas im Zeitraum der Umfrage sollte jedoch davon ausgegangen werden, dass der Wert deutlich höher hätte ausfallen müssen. Die Umfrage wurde dabei am frühen Nachmittag in einem gut besuchten Einkaufszentrum durchgeführt. Es wurde darüber hinaus keine Vorauswahl von Umfrageteilnehmern durchgeführt, so dass davon ausgegangen werden kann, dass Menschen verschiedener Gesinnungen und verschiedener gesellschaftlicher Schichten befragt wurden. Es wurden jedem Teilnehmer 10 Fragen gestellt, welche im Wesentlichen in drei Bereiche unterteilt werden können: – Basiswissen zur RFID-Technologie sowie allgemein zum Datenschutz (Fragen 1, 6, 7) – Kenntnisse über den neuen digitalen Reisepass und dessen Anwendung (Fragen 2, 3, 4, 5) – Meinungsfragen den digitalen Reisepass betreffend (Fragen 8, 9, 10) Es ist allgemein anzumerken, dass die Fragen rein subjektiv beantwortet wurden. Auch wenn Teilnehmer angegeben haben, z. B. über die RFID-Technologie informiert zu sein, kann dies nicht objektiv bewertet werden. Jeder Teilnehmer hatte dabei die Möglichkeit auf jede Frage mit den Zahlen von 1-5 zu Antworten, wobei 1 für „trifft zu“ und 5 für „trifft nicht zu“ steht. 4.2.2 Kenntnisse über den neuen digitalen Reisepass und dessen Anwendung Dieser Fragenkomplex zielte speziell darauf ab, den subjektiven Wissensstand über das Thema des digitalen Reisepasses und im Speziellen auch biometrischer Daten zu ermitteln. Die meisten Teilnehmer der Umfrage wussten worum es sich generell beim neuen digitalen Reisepass handelt (Frage 2/Durchschnittswert 2,2). Auch die Tatsache, warum der Reisepass eingeführt werden soll war im Wesentlichen bekannt (Frage 3/Durchschnittswert 2,6). Der Begriff der biometrischen Daten war mehr als der Hälfte der befragten Personen bekannt (Frage 4/Durchschnittswert 2,2). Welche biometrischen Daten gespeichert werden sollen, wussten nur etwas weniger Teilnehmer (Frage 6/Durchschnittswert 3). Auch wenn bei der direkten Nachfrage aufgefallen ist, dass nur ein geringer Anteil der befragten Teilnehmer wirklich beide Merkmale (Gesichtsbild, Fingerabdruck) benennen konnten. Der tatsächliche Wert ist somit wahrscheinlich um einiges schlechter. Der Durchschnittswert dieses Fragenkomplexes liegt mit 2,5 über dem erwarteten Durchschnitt, obwohl wie bereits erwähnt beim direkten Nachfragen selten korrekte Antworten kamen und der Wert somit, auch in Anbetracht der Medienpräsenz des Themas, höher hätte ausfallen müssen. 4.2 Auswertung Zur Interpretation der gesammelten Umfrageergebnisse werden die drei genannten Bereiche der Umfrage im Folgenden einzeln ausgewertet. Zur Interpretation der Ergebnisse werden zum Teil auch Informationen, welche aus Gesprächen mit den Teilnehmern während der Umfrage stammen, herangezogen. 4.2.3 Meinungsfragen den digitalen Reisepass betreffend Der letzte Fragenkomplex zielte darauf ab, die Meinungen zu einzelnen Themen und weniger Wissen abzufragen. Zunächst wurde erfragt, ob der jeweilige Teilnehmer den Behörden und Ämtern im Umgang mit seinen Daten vertraut. Das Ergebnis ist mit einem Durchschnittswert von Abb. 6: Altersgruppenverteilung der Umfrage TFH Wildau, Wissenschaftliche Beiträge 2006 101 3,7 (Frage 8) äußerst negativ ausgefallen. Die Aufklärung über das Thema digitaler Reisepass seitens der Regierung hielten die Wenigsten für ausreichend (Frage 9), was an einem vernichtenden Durchschnittswert von 4,5 deutlich wurde. Im Gespräch mit den Teilnehmern wurde klar, dass das Thema zwar in den Medien präsent war, jedoch politische und technische Begründungen und Erklärungen gänzlich vermisst wurden. Viele Teilnehmer waren dabei erstaunlicherweise der Meinung, dass die mangelhafte Informationspolitik seitens der Regierung durchaus gewollt und somit vorsätzlich war. Abschließend wurde die Frage gestellt, ob der jeweilige Teilnehmer für oder gegen die Einführung des neuen digitalen Reisepass ist, was mit einem Durchschnittswert von 3,1 (Frage 10) zu einem ausgewogenen Ergebnis führte. Viele Teilnehmer merkten an, dass nicht zuletzt der erhöhte Preis des neuen Reisepasses gegen dessen Einführung spricht. Dieser sehr wichtige Themenkomplex zeigte deutlich, wie viel Aufklärungs- und Überzeugungsarbeit seitens der Regierung und der Ämter noch zu leisten ist, um ein positives und weniger skeptisches Meinungsbild dem neuen Reisepass gegenüber zu erreichen. und des weltweiten Informationsaustausches ein nicht zu unterschätzender Stellenwert zukommt. Zusammenfassend ist zu sagen, dass Entwicklungen, welche jeden einzelnen Menschen betreffen, und dazu zählt der neue Reisepass unumstritten, grundsätzlich ein hohes Maß an Kommunikation erfordern und eben diese Kommunikation, zu der auch nicht zuletzt die Aufklärung gehört, ein absolutes Killerkriterium für den Erfolg einer Idee ist, die letztendlich doch nur zu Einem beitragen soll, unser aller Sicherheit. Anmerkungen 1 Referenzmuster und Testmuster stammen von unterschiedlichen Personen stammen. Dennoch erkennt das System sie als von ein und derselben Person stammend an. Ist diese Fehlerrate zu hoch, muss der Schwellwert heruntergesetzt werden. 2 Das System erkennt nicht die gleiche Person, obwohl Referenzmuster und Testmuster von der gleichen Person stammen. Literatur 4.3 Externe Umfragen Im Rahmen einer Internet-Recherche wurden weitere Meinungsumfragen zum Thema des neuen Reisepasses gefunden. Dabei ist insbesondere auf eine Umfrage der Website www.neuer-reisepass.de hinzuweisen, deren Fragen bereits von über 17.000 Teilnehmern beantwortet wurden. Das Ergebnis fällt dabei deutlich negativer aus, als bei der im Rahmen dieser Ausarbeitung durchgeführten Umfrage. Rund 2/3 der Teilnehmer halten die Einführung des digitalen Reispasses für unnötig und stehen der Gesamtproblematik eher negativ gegenüber. Auch diese Umfrage kommt mit 72,1 Prozent zu dem deutlichen Ergebnis, dass die Aufklärung seitens der Regierung ungenügend ist. [1] TeleTrust e. V. Verein zur Förderung der Vertrauenswürdigkeit von Informations- und Kommunikationstechnik (http: //www.teletrust.de) [2] Analyse biometrischer Verfahren (http://www.biometrieinfo. de) [3] BSI – Bundesamt für Sicherheit in der Informationsindustrie (http://www.bsi.de) [4] ePass: die neuen biometrischen Ausweise (http://www.neuerreisepass.de) [5] Bundesministerium des Innern (http://www.bmi.bund.de) [6] c’t Magazin für Computertechnik (Ausgaben 21.02.2005/ 13.06.2005) [7] Zeitschrift Comuterwoche (http://www.computerwoche.de) 5 Zusammenfassung und Schlussfolgerungen Autoren Die Thematik des digitalen Reisepasses hat sich als sehr komplex dargestellt. Neben einer Vielzahl technischer Problemstellungen, welche zwar schon thematisiert, trotzdem jedoch noch nicht endgültig gelöst sind, sind auch politische und gesellschaftliche Aspekte durch die Thematik betroffen. Durch alle involvierten Themengebiete hindurch wird vor allem ein zwingender Bedarf deutlich, der Bedarf an Kommunikation. Es ist dabei neben der Bildung eines internationalen Konsens, zum einheitlichen Umgang mit Identitätsdokumenten und dem Aufbau der damit verbundenen Infrastruktur zum weltweiten und sicheren Datenaustausch, vor allem die Aufklärung der eigenen Bevölkerung erforderlich. Der digitale Reisepass ist ein Schritt in Richtung mehr Sicherheit im internationalen Personenverkehr. Man muss jedoch auch die richtigen Akzente im Bezug auf den internationalen Datenschutz setzen, einer Thematik, welcher mit dem Fortschreiten der Globalisierung 102 B. IC Sc. Michael Ring Technische Fachhochschule Wildau Fachbereich Ingenieurwesen/Wirtschaftingenieurwesen Master-Studiengang Telematik, Seminargruppe TM/04 [email protected] B. IC Sc. Peter Ungvári Technische Fachhochschule Wildau Fachbereich Ingenieurwesen/Wirtschaftingenieurwesen Master-Studiengang Telematik, Seminargruppe TM/04 [email protected] TFH Wildau, Wissenschaftliche Beiträge 2006 Möglichkeiten durch E-Sport für Wirtschaft und Gesellschaft Henri Schmidt, Stefan Lehmann Einleitung Dank der permanenten Weiterentwicklung der Mikroelektroniktechnologie gewinnen in der heutigen Gesellschaft Freizeitbeschäftigungen abseits der konventionellen Sportaktivitäten immer mehr an Bedeutung. Mit der Einführung der ersten Spielkonsolen, Ende der sechziger Jahre, begann eine Entwicklung, welche heute, unter anderem, mit dem Namen „E-Sport“ bezeichnet wird. Doch was bedeutet E-Sport eigentlich? „Der Begriff E-Sport (auch: eSport; englisch kurz für electronic sport) bezeichnet das wettbewerbsmäßige Spielen von Computer- oder Videospielen im Mehrspielermodus. E-Sport versteht sich entsprechend der klassischen Definition als eigene Sportdisziplin, welche sowohl Spielkönnen (Hand-Augen-Koordination, Reaktionsschnelligkeit) als auch taktisches Verständnis (Spielübersicht, Spielverständnis) erfordert.“ [WI05] Mannschaften werden beim E-Sport als Clans bezeichnet. Solche Clans sind im Allgemeinen hierarchisch organisiert. Ein Spiel zwischen zwei verschiedenen Clans bezeichnet man als Clan War. Solche Clan Wars können entweder in einem lokalen Netzwerk oder über das Internet ausgetragen werden. Clan Wars können entweder nur aus Spaß, zu Trainingszwecken, durchgeführt werden, dann spricht man von Friendly Wars oder aber als normaler Clan War im Ligabetrieb. Zu den bekanntesten Ligen in Deutschland zählen die ESL (Electronic Sports League), die NGL (Netzstatt Gaming League), die GIGA Liga (Liga des TV-Senders Giga) und die WWCL (World Wide Championship of LAN-Gaming). Während die ersten drei Ligen hauptsächlich über das Internet ausgespielt werden, wird die WWCL, wie der Name schon sagt, ausschließlich auf so genannten „LAN Partys“ durchgeführt. Die Spieler der Topclans in diesen Ligen werden in der Szene als Progamer bezeichnet, um ihre Professionalisierung hervorzuheben. Der Begriff des „Progaming“ stammt urtümlich aus Südkorea. Um das Jahr 1997 herum entwickelten sich dort die ersten Progamerstrukturen, da Breitbandanschlüsse von der Regierung subventioniert und normale Spielkonsolen mit hohen Einfuhrzöllen belegt wurden und so sich die Spieler auf den PC als Spielmedium konzentrierten. Einer der ersten und bekanntesten Spieler dieser Progamerszene war der Spieler des Echtzeitstrategiespiels „Starcraft“ mit dem Namen „Slayers Boxer“. Der Erfolg des Progamings aus Südkorea hatte später auch seine Auswirkungen im amerikanischen und europäischen Raum. Schon im Jahre 1998 kam der erste amerikanische Progamer mit dem Namen „fatal1ty“ („Quake II & III“) hinzu, welcher sich durch lang anhaltende Siegesserien einen Namen machte. Zahlreiche andere Spieler folgten diesen Vorbildern. Der Durchbruch kam jedoch mit der Veröffentlichung einer Modifikation des Spiels Halflife mit dem Namen „Counter-Strike“, welches einen erheblichen Zuwachs an Onlinespielern verursachte. TFH Wildau, Wissenschaftliche Beiträge 2006 Counter-Strike ist ein Egoshooter, in welchem ein Team jeweils das andere Team am Durchführen einer bestimmten Aufgabe zu hindern versucht. Zu diesen Aufgaben zählen beispielsweise das Legen einer Bombe oder das Befreien von virtuellen Geiseln. Die Szene in Südkorea ist heute sehr professionalisiert. Progamer werden von Konzernen gesponsort und geniessen ein ähnlich hohes Ansehen wie Popstars. Ist solch ein Erfolg auch hier möglich? Wie weit sind wir in Europa und speziell in Deutschland? Diesen Themen soll diese Arbeit gewidmet sein. Technische Grundlagen Spiele, welche per Internet im Multiplayermodus gespielt werden können, nutzen im Allgemeinen die gleiche Netzwerkstruktur und haben ähnliche Ansprüche an dieses Netzwerk, weshalb an dieser Stelle kurz darauf eingegangen werden soll. Onlinespiele enthalten neben der eigentlichen Spiellogik, der grafischen Benutzeroberfläche auch eine Netzwerkkomponente, welche die Kommunikation über das Internet oder das LAN kontrolliert. Oft entscheidet die Qualität der Netzwerkkomponente, ob ein Spiel online zu einem Erlebnis wird oder nicht. Normalerweise verbindet sich der Rechner des Spielers mit einem eigenständigen Serverprogramm irgendwo im Internet. Alle gängigen Spieletitel verfügen über ein dediziertes Serverprogramm, welches nur die Aufgabe hat, den Netzwerkverkehr zwischen den einzelnen Clientrechnern zu kontrollieren und die Spielsituation zu kontrollieren. Hier wird entschieden, ob Spieler A bspw. den Spieler B getroffen hat oder nicht. Erst nach der Rückmeldung vom Server, wird ein vermeintlicher Treffer zu einem wirklichen Treffer. Es liegt auf der Hand, dass an dieser Stelle auf dem Clientrechner prediktive Algorithmen zum Einsatz kommen müssen, welche in gewissem Ausmaß Situationen voraus berechnen müssen, damit das Spiel flüssig läuft und keine störenden Bild 1: Verzeichnisdienstarchitektur Pausen aufgrund von nicht vorhandenen Daten auftreten. Das Konzept der dedizierten Serverprogramme erlaubt es, dass das Vermieten von so genannten Gameservern zu einem lukrativen Geschäft werden kann, denn der Serverbetreiber kann je nach Ausstattung seiner PCs, mehrere dedizierte Serverprogramme nebeneinander laufen lassen. Diese Programme 103 benötigen nur einen Bruchteil der Rechnerperformance, der eigentlichen Spielprogramme. Zwar haben die meisten Spielprogramme auch einen eigenen Serverpart, aber dieser wird, wenn überhaupt, meist nur auf LANs genutzt. Um sich mit einem Server zu verbinden, nutzen viele Spieler Servertools (Verzeichnisdienste) wie All-Seeing-Eye, GameSpy oder www.gametiger.net. Dies sind Stand-alone Programme oder Weboberflächen, welche es ermöglichen das Internet nach Servern zu durchsuchen (siehe Bild links, Pfeil 1). Es werden dann, je nach Programm, Informationen über das laufende Spiel und die Serverkonfiguration gegeben. Ist ein Spieler dann auf einem Server eingeloggt (siehe Bild links, Pfeil 2). So kann das Spiel beginnen. Nun sind der Pingwert und die Bandbreite von größter Wichtigkeit. Der Pingwert beschreibt dabei die Zeit, welches ein Datenpaket zum Server benötigt und zurück. Je geringer diese Zeit ist, desto besser kann man auf bestimmte Ereignisse im Spiel reagieren. Gerade bei Egoshootern ist diese Latenzzeit äußerst wichtig. Mit Fastpath, also dem Ausschalten von Interleaving (1) bei ADSL-Anschlüssen, können Pingzeiten von unter 10ms erreicht werden. Pingzeiten, welche größer als 100ms sind, verursachen deutliche Nachteile in der Reaktionsfähigkeit gegenüber den Mitspielern. Die Bandbreite ist ein weiterer Faktor, welcher erhebliche Nachteile im Onlinespiel bringen kann. Je mehr Spieler sich auf einem Server befinden, bzw. je mehr passiert was den Spieler in irgendeiner Weise betrifft, desto mehr Daten müssen übertragen werden. Schlecht implementierte Netzwerkprotokolle haben schon einige Onlinespiele durch dieses Problem unspielbar gemacht, da sie einfach zu viel Traffic verursachten und so bei zu vielen Spielern auf einem Server, bei Klienten mit geringer Bandbreite sogenannte „Lags“ verursachten. „Lags“ sind Pausen im Spielfluss die aufgrund fehlender Daten entstehen. Dank DSL tritt dieses Problem heutzutage nicht mehr so häufig auf, da diese Technik mehr als genug Bandbreite für alle gängigen Spiele bereitstellt. Trotzdem ist zu bemerken, dass die Bandbreite den Spielen, in Hinblick auf die maximalen Spielerzahlen auf einem Server, Grenzen setzt. Spiele wie Battlefield 2 unterstützen immerhin bis zu 64 Spieler gleichzeitig auf einem Server. Es gibt Server, welche erheblich mehr Spieler unterstützen, jedoch wenden diese einige Tricks an, so dass im Endeffekt nicht wirklich alle Spieler sich in der gleichen virtuellen „Welt“ befinden. Zur Sprachkommunikation werden sogenannte Voicetools eingesetzt, welche auf dem Prinzip der IP-Telefonie basieren. klären? Was ist mit etablierten Sportarten, welche auch nicht unbedingt einer körperlichen Ertüchtigung dienen, wie Golf oder Schießsport? Kann man überhaupt Sport nur auf die körperliche Ertüchtigung reduzieren oder gehört nicht viel mehr auch das gesamte Rahmenwerk zum Sport: seine Fans, die Wettkämpfe, die Sponsoren, die Preise, das Nationalbewusstsein und vieles mehr? Es liegt auf der Hand, dass viele Sportarten eher mit köperlicher Ertüchtigung zu haben als E-Sport und dennoch gibt es viele Gemeinsamkeiten zwischen diesen beiden „Spheren“. Wie auch bei konventionellen Sportarten gab es in den letzten Jahren beim E-Sport einen starken Drang zur Professionalisierung. Es wurde und wird immer schwerer für den Hobbyspieler, sich mit den Besten der Szene zu messen. Dieser Unterschied wird gemeinhin unterschätzt. Heute verbreitete Netzwerkcomputerspiele sind im Allgemeinen so komplex und ausgefeilt in der Art der Nutzerinteraktion und des Spielprinzips, dass es vom Anfänger zum Progamer ein weiter Weg ist. Wie bei traditionellen Sportarten spielen auch bestimmte trainierbare körperliche oder geistige Fertigkeiten eine besondere Rolle. Dazu gehören beispielsweise die Hand-Augen-Koordination, die generelle Reaktionsfähigkeit oder das taktische Verständnis einer bestimmten Spielsituation. Die Frage, ob E-Sport tatsächlich ein Sport ist, kann hier nicht letztendlich geklärt werden, da es zahlreiche verschiedene Definitionen gibt, was Sport sei, bzw. was er nicht sei. Jedoch soll anhand einiger Stichpunkte gezeigt werden, dass E-Sport ähnliche Aspekte besitzt, wie traditioneller Sport: Physiologie: Strukturen: Wettkämpfe: Medialisierung: Technisierung: Reaktionsschnelligkeit, Hand-Augen Koordination, etc. Clans, Ligen, Deutscher E-Sport Verband (www.e-sb.de) Clan Wars, Lan Parties, etc. GIGA eSport sendet mehrmals wöchentlich Neuigkeiten, viele verschiedene Webseiten berichten (bspw.: www.ingame.de) Profiequipment verfügbar: Grafikkarten, Mäuse, Pads etc. Jedoch gibt es auch einige Problemfelder, in welchen E-Sport gegenüber traditionellen Sportarten noch Aufarbeitungsbedarf hat: Psychologie: Gesellschaft: bisher keine gute Vorbereitung auf die psychischen Strapazen E-Sport wird in der Gesellschaft noch nicht als Sport wahrgenommen Vergleich zwischen E-Sport und reellem Sport Probleme & Vorurteile Das Bundesverwaltungsgericht entschied mit einem Urteil vom 9.März 2005, mit folgendem Text: „ [...] Auch der Umstand, dass viele Spiele auch unter Wettbewerbsbedingungen veranstaltet werden können, führt noch nicht dazu, dass aus der Teilnahme am Spiel Sport wird. Computerspiel ist selbst dann kein Sport, wenn es im Wettbewerb veranstaltet wird. Typischerweise wird ein Computerspiel nicht gespielt, um sich zu `ertüchtigen`.[...]“ [LI05], dass E-Sport kein Sport ist. Doch kann man solche gesellschaftlichen Fragen vor Gericht Neben den schon im Vergleich zwischen E-Sport und traditionellem Sport aufgedeckten Problemfeldern, gibt es einige zusätzliche Probleme, welche die gesellschaftliche Akzeptanz erschweren. Dazu gehört die mittlerweile gängige Praxis der Medien zwischen Gewaltverbrechen aller Art eine Verbindung zum Hobby des Täters herzustellen, welches in einigen Fällen das Computer-Spielen ist. Tatsache ist jedoch, dass bisher keine umfangreichen Studien zu diesem Thema durchgeführt wurden und allenfalls Mut- 104 TFH Wildau, Wissenschaftliche Beiträge 2006 maßungen zu einer Verbindung zwischen dem Computerspielen und den Taten hergestellt werden können. Nach dem Amoklauf des Schülers in Erfurt waren die schuldigen Faktoren schnell gefunden, doch allzu oft werden allgemeine gesellschaftliche Probleme einfach ausgeblendet und das Problem auf wenige Ursachen reduziert. Ein weiteres Problem ist, dass in der Bevölkerung ein starkes Bewusstsein besteht, dass viele Spiele zu blutrünstig und somit den Kindern nicht zumutbar seien. Tatsächlich gibt es einige Spiele, die nur Gewaltverherrlichung zum Inhalt haben. Doch solche Spiele setzen sich auf Dauer nicht bei der Masse durch, wie die Onlinespielerzahlen zeigen. Professionelle Spieler verzichten lieber auf die „Extraportion“ Blut, wenn es denn erlaubt ist, da solche Effekte meist eher störend sind und ablenken. Außerdem gibt es noch die „UnterhaltungssoftwareSelbstkontrolle“ (USK), welche es den Eltern erleichtern soll, die richtige Entscheidung beim Kauf von Spielen für ihre Sprösslinge zu treffen. Softwarefirmen können gegen eine Gebühr ihr Produkt auf die Kinder- und Jugendtauglichkeit prüfen lassen. Die Kennzeichnung eines Softwareprodukts ist seit der Novellierung des Jugendschutzgesetztes im Jahre 2003 verpflichtend. Die Kennzeichnung muss auf der Verpackung des Produkts, sowie auf den entsprechenden Datenträgern deutlich erkennbar sein. Die Spiele werden von unabhängigen Mitarbeitern begutachtet und eingestuft. Die Kennzeichnung der Spiele kann in sechs Stufen erfolgen: – freigegeben ohne Alterbeschränkung – freigegeben ab 6 Jahren – freigegeben ab 12 Jahren – freigegeben ab 16 Jahren – keine Jugendfreigabe Verweigert jedoch die USK eine Kennzeichnung, bspw. weil ein Spiel den Krieg verherrlicht oder leidende Menschen in einer menschenunwürdigen Situation darstellt (nach §15 Abs. 2 JuSchG), so ist eine darauf folgende Indizierung durch die Bundesprüfstelle für jugendgefährdende Medien (BPjM) überaus wahrscheinlich. Dass Eltern trotzdem die Blutrünstigkeit der Spiele anprangern, welche ihre Kinder spielen, bedeutet also nur, dass sie sich entweder noch nicht mit der Thematik auseinander gesetzt haben oder dass sie ihrer Fürsorgepflicht nicht nachkommen. Neben dem Akzeptanzproblem gibt es noch das Glaubwürdigkeitsproblem, welches von vielen Herstellern von Computerspielen bisher unzureichend beachtet wird. Werden Spiele über das Internet ausgetragen, befinden sich die Spieler zumeist an ihrem heimischen Rechner. Wie jede Software sind auch Spiele durch andere „bösartige“ Software „knackbar“. Je populärer ein Spiel wird, desto größer wird die Anzahl der Spieler, welche sich durch das Anwenden sogenannter Cheatprogramme einen Vorteil verschaffen wollen. So können Spieler bspw. durch das Anwenden eines „Cheats“ die Wände ausblenden („Wallhack“), die Gegner automatisch anvisieren („Aimbot“) oder sich sonstige Vorteile verschaffende Informationen anzeigen lassen. Die Anzahl der verfügbaren „Cheats“ variiert dabei meist nach den implementierten Sicherheitsvorkehrungen des Spielherstellers solchen „Cheats“ vorzubeugen und der Verbreitung des jeweiligen Spiels. Denn auch hier gilt: die Nachfrage bestimmt das Angebot. Doch zumindest TFH Wildau, Wissenschaftliche Beiträge 2006 im professionellen Bereich kann es sich ein Spieler nicht leisten, einfach auf „Cheats“ zurückzugreifen. Viel zu oft muss er die Wettkampfsituation auf einer öffentlichen Veranstaltung bestreiten. Schummeln ist dort so gut wie unmöglich. Durch die Probleme in der Vergangenheit haben die Hersteller dazu gelernt und so enthält nahezu jedes neue bekanntere Onlinespiel einen Anticheatalgorithmus, welcher das Schummeln erschweren soll. Ein weiteres Problem ist die mangelnde Bewegung bei allen Arten von Computerspielen. Das ausdauernde Verharren in einer Sitzposition wirkt sich auf die Dauer negativ auf die Gesamtkonstitution des Menschen aus. Auch Haltungsschäden resultieren oft aus dem langwierigen Sitzen. Für die Augen ist das andauernde Fokussieren auf den relativ nahen Monitor anstrengend und ermüdend. Es bedarf einer umfangreichen Aufklärung, dass die Spieler das Bewusstsein erlangen, eine Ausgleichssportart zu betreiben. Für das Sitzen am PC gibt es eine Reihe von Übungen und Hilfsmitteln, welche das Arbeiten und Spielen daran, auf die Dauer „gesünder“ machen. Zu den Hilfsmitteln gehören bspw. ergonomische Eingabegeräte, strahlungsarme Monitore und eine vorteilhafte Positionierung der Peripheriegeräte, denn es gibt bestimmte Winkel und Entfernungen, in welchem die Geräte besonders günstig stehen. E-Sport in Südkorea – ein etablierter Markt Trotz allen Problemen und Vorurteilen, gibt es ein Land, in welchem E-Sport ein mittlerweile anerkannter sportlicher Event ist. Die Akteure haben den gleichen Bekanntheitsgrad wie Popstars. Es existieren dort schon drei Fernsehsender, welche ausschließlich über das beliebte Echtzeitstrategiespiel „Starcraft“ berichten. Das bekannte „Team-Intel“ bekommt ein monatliches Gehalt gezahlt und Ablösesummen für Spielerwechsel zu zahlen ist durchaus nichts Ungewöhnliches mehr. Genauso normal ist es, dass professionelle Clans in Südkorea einen oder mehrere finanzkräftige Sponsoringpartner hinter sich zu stehen haben, welche die Clans mit Equipment oder auch monetär unterstützen, denn es lohnt sich. Der hohe Bekanntheitsgrad der Spieler in den entsprechenden Zielgruppen macht das Geschäft für beide Sponsoringpartner sehr attraktiv. Um zum Profispieler zu werden ist die Motivation für viele Jugendliche besonders groß, sich längerfristig mit einem bestimmten Spiel zu beschäftigen, um in diesem einen Spiel immer besser zu werden. Zudem locken hohe Preisgelder und Gehälter viele Jugendliche, den Beruf des Profispielers anzustreben. Diese Situation hat auch jedoch ihre Schattenseiten. Man geht davon aus, dass bereits ca. 10% [WI205] der Jugendlichen Südkoreas süchtig nach dem Internet sind. Schon heute werden regelmäßig Spiele zwischen den „Helden“ der hiesigen Szene in richtigen Fußballstadien durchgeführt. An einem einzigen E-Sport Event nehmen bis zu 100.000 Menschen teil. Im Dezember 2004 entschloss sich das dortige Ministerium für Kultur und Tourismus dazu, Pläne für ein eigenständiges E-Sportstadium zu prüfen, um Südkorea damit zum Vorreiter in der Welt zu machen. [KR05] 105 Bild 3: Bis zu 100.000 Menschen bei einem einzigen E-Sport Event in Südkorea Der weltweit größte E-Sport Event: die World Cyber Games (WCG), fand bisher dreimal in Südkorea statt. Zweimal in Seoul (2001 & 2003) und einmal in Daejeon (2002). Bei den WCG 2005 werden Preise von insgesamt über 400.000$ ausgespielt. Damit ist das WCG zwar nicht das höchstdotierte, aber bei weitem das prestigeträchtigste Turnier auf der ganzen Welt, da über 60 Nationen daran teilnehmen. Über eine Million Spieler nahmen 2004 an den Vorrunden zur WCG teil und hatten ca. 2,5 Millionen Zuschauer. Ähnlich wie bei den olympischen Spielen werden die Besten der Besten in einer zwölfmonatigen Qualifikationsphase ermittelt. Am Ende dieser Qualifikationsphase steht ein nationales Finale. Die Sieger dieses Finales bilden die Nationalmannschaft eines Landes und fahren zu den WCG. Im Jahre 2003 errang die deutsche Nationalmannschaft mit dreimal „Gold“ und zweimal „Silber“ den Weltmeistertitel. Die globale Organisation der gesamten Spiele obliegt bis heute Südkorea. Die WCG 2005 werden in Singapur, also wieder im asiatischen Raum, stattfinden. Innerhalb von 5 Jahren erreichten die WCG eine Anzahl von teilnehmenden Ländern, wie die Fußballweltmeisterschaft und die olympischen Spiele erst in über 50 Jahren erreichten. eifern ihren Vorbildern in Südkorea nach und fahren zum Teil selbst nach Südkorea, um dort mit ihrem „Hobby“ Geld zu verdienen. Zwar werden Progaming-Clans auch in der restlichen Welt von Sponsoren unterstützt, aber nicht in dem Umfang wie in Südkorea. Die fortschreitende Professionalisierung kann an der zunehmenden Anzahl von eigenständigen Clans mit ausgefeilten Sponsorenkonzepten gesehen werden, welche teilweise richtige Fan-Communities unter sich vereinen. Die Tatsache, dass E-Sport größtenteils auf der Internettechnologie basiert, macht den Fankontakt einfacher. Die Communities wachsen viel schneller als bei traditionellen Sportarten. Es treffen sich täglich mehrere 100.000 Spieler auf den Servern weltweit, um gegeneinander die unterschiedlichsten Spiele zu spielen. Bild 5: Serverstats von gamespy (30. Juni 2005, 20 Uhr) Bild 4: Länderteilnahme an sportlichen Wettbewerben Wie auch die traditionelle Sportszene, so ist auch die ESportszene immerwährenden Veränderungen unterworfen, so findet bspw. zurzeit in Südkorea ein Wechsel, vom lange Zeit favorisierten, aber technisch altbackenen „Starcraft“, hin zum neueren „Warcraft 3“ statt, welches ebenso ein Echtzeitstrategiespiel ist. E-Sport national und international Südkorea ist der restlichen Welt in Sachen „E-Sport“ um einiges voraus. Doch Jugendliche aus Amerika und Europa 106 Die Serverstats von „gamespy“ (www.gamespy.com) zeigen die deutliche Dominanz der Egoshooter im Onlinebereich. Bis auf „Neverwinter Nights“ entsprechen alle hier aufgelisteten Titel diesem Genre. Während in Südkorea vorwiegend Echtzeitstrategiespiele die E-Sportszene bestimmen, sind es im restlichen Teil der Welt vor allen Dingen Egoshooter, welche von der E-Sportszene favorisiert werden. Zahlreiche Onlinemagazine widmen sich mittlerweile dem Thema „E-Sport“ und mit „Giga eSports“ ging unlängst auch die erste reine E-Sport TV Sendung „on air“, welche ausschließlich über Neuigkeiten und Trends in der E-Sportszene berichtet. Viele verschiedene Webangebote bieten Livereportagen und Analysen von Clan Wars an. Zudem informieren sie über Neuigkeiten, bspw. Updates oder Patches der Spielesoftware und andere relevante Fakten. Als Beispiele seien hier die beiden E-Sport Portale: www.ingame.de und www.gamelinks.de genannt, welche sich auf zahlreichen Unterseiten mit zahlreichen aktuellen Onlinespieletiteln befassen. TFH Wildau, Wissenschaftliche Beiträge 2006 Besonders gut lässt sich die zunehmende Unterstützung der Bevölkerung und die damit zunehmende Akzeptanz des E-Sports auch an den Unterstützungen staatlicher Institutionen für die World Cyber Games ablesen. da man erkennen kann, dass es vielerlei Unterstützung von Sportministerien gab. Ein weiteres Indiz dafür, dass man solche Fragen nicht juristisch klären kann, sondern ein rein gesellschaftliches Problem ist. Bemerkenswert ist auch der Sieg eines 21-jährigen Chinesen im November 2004 beim E-Sportevent „ACON Fatal1ty Shootout“ an der chinesischen Mauer. Der junge Chinese Meng Yang bezwang den Progamerstar „Fatal1ty“ aus Amerika, welcher bis dahin als der unbezwungene Champion des Egoshooters „Quake III“ galt, und gewann damit den höchsten Einzelpreis, welcher jemals in der Geschichte des E-Sports ausgespielt wurde. Das Preisgeld von 125.000$ entspricht ca. 1.000.000 chinesischen Renminbim, wofür ein chinesischer Arbeiter im Durchschnitt 100 Jahre arbeiten muss. Yang sagte zu seinem Sieg: „[...] I practiced hard to play in this exhibition because I wanted to play my idol ... I’ve studied him for 5 years and dreamed of playing the number one gamer in the world [...]” [FAT05] Mit der Gründung des „Deutschen eSport Bundes” (ESB) am 11.12.2004 schlossen sich die beiden separaten Verbände, DeSpV und DeSV, zusammen, um gemeinsam den deutschen E-Sport gegenüber der Öffentlichkeit und der Politik adäquat zu repräsentieren. Die Mitgliedschaft an diesem Verband steht jeder Person offen, welche sich für den E-Sport einsetzen möchte. Der Verband wird seit der Gründung von Repräsentanten der Wirtschaft, wie beispielsweise „Intel”, „ATI” und „Shuttle”, unterstützt und arbeitet eng mit der USK (UnterhaltungssoftwareSelbstkontrolle) zusammen. Damit ist gewährleistet, dass die E-Sportszene in Deutschland sich in Zukunft auf einen soliden Rahmenverband verlassen kann, welcher als Mittler zwischen E-Sportszene und der Wirtschaft fungieren kann. Man kann gut erkennen, dass sich der E-Sport langsam etabliert. Gesellschaftliche Auswirkungen des E-Sports Bild 6: Öffentliche Institutionen, welche die Teams der jeweiligen Länder bei der Teilnahme zur WCG 2004 unterstützten Bemerkenswert ist hierbei, dass das deutsche Team trotz des Weltmeistertitels aus dem Jahre 2003 scheinbar keinerlei Unterstützung aus öffentlichen Mitteln erhielt. Außerdem scheint die Frage, ob es sich bei E-Sport um wirklichen Sport handelt, in vielen Ländern schon geklärt zu haben, TFH Wildau, Wissenschaftliche Beiträge 2006 Vor allem Jugendliche sind von den Auswirkungen des ESports betroffen. Es entstehen völlig neue Strukturen, wie virtuelle Communities oder Freundeskreise. Oft kommt es vor, dass zwei Spieler eines Clans sich nie persönlich treffen, da sie in zwei unterschiedlichen Ländern oder einfach weit voneinander entfernt wohnen. Das Internet als Grundlage der Kommunikation löst die geografische Abhängigkeit einer Sportmannschaft auf. Es entstehen neue Verbindungen zwischen verschiedenen Nationalitäten, die vorher vielleicht unmöglich erschienen. Dass Menschen eventuell einen größeren virtuellen Freundeskreis, als einen realen Freundeskreis haben, wirft neue Fragen auf. Inwiefern sind solche Freundschaften mit realen Freundschaften vergleichbar? Was ist mit Menschen, die nur noch virtuelle Freunde haben? Diese Abhängigkeit vom Internet schafft Platz für Gefahren, wie der Sucht nach dem Internet. In Südkorea wurde dieses Problem schon erkannt, jedoch fehlen momentan noch Lösungsansätze für dieses Problem. Für gesellschaftliche Randgruppen birgt der E-Sport jedoch auch große Chancen. Denn die gesamtkörperliche Verfassung ist bei vielen Onlinespielen relativ egal und somit haben körperlich Behinderte unter Umständen die 107 Möglichkeit einen Sport auszuüben und Erfolgserlebnisse zu erfahren, welche ihnen sonst verwehrt blieben. Die Welt wird zwar auf der einen Seite zusammen wachsen, da körperliche, geografische oder nationale Unterschiede schwinden. Im Gegensatz dazu wächst jedoch unter Umständen der Verlust des persönlichen Kontakts zu anderen Menschen in der Realwelt. Jedoch muss man hier fairer Weise erwähnen, dass gerade bei erhöhtem Professionalisierungsgrad der persönliche Kontakt in der Realwelt eher steigt, da die größeren Veranstaltungen, wie das WCG Finale oder die WWCL lokal ausgetragen werden. Auch für den Arbeitsmarkt bietet der E-Sport völlig neue Perspektiven. Es entstehen Berufe, wie es sie vorher nicht gab, da das Organisieren, Durchführen und Verwalten von E-Sport-Events völlig andere Anforderungen an die Auszuführenden stellt als traditionelle Sportarten. So haben sich bspw. bei professionellen E-Sport Clans mehrere Aufgabenbereiche herauskristallisiert: Spieler: Spielen von Clan Wars Organisatoren: Vorbereiten & Durchführen von Clan Wars, LANs, etc. Redaktionell: Betreuen der redaktionellen Inhalte der Clanhomepage Web: Erstellen und Warten der Clanhomepage Live: Durchführen von Livereportagen via IRC, Radio, TV Forum: Betreuung der Fan-Community Video: Erstellen und Bearbeiten von Videos über den Clan Dies zeigt, dass es verschiedene Möglichkeiten im E-Sport gibt, beruflich tätig zu werden und nicht alle haben mit bloßem Spielen zu tun. Auch abseits der Clans entsteht Bedarf für entsprechende Fachkräfte. Mit zunehmender Größe und Häufigkeit von E-Sport Events wächst die Notwendigkeit von Fachleuten mit entsprechendem Netzwerkwissen. Auch Promotionexperten, Grafikdesigner und Betriebswirtschaftler werden benötigt, um entsprechende Projekte, wie LAN Parties etc., durchzuführen. Die erste Generation von Onlinespielern dringt nun langsam in die Arbeitswelt der ehemals Erwachsenen ein. Sie haben einen ganz anderen Blickwinkel auf diese Thematik, als die etablierte Generation, da sie selbst Teil der E-Sportszene waren oder zumindest verstehen, um was es dabei geht. Diese Durchdringung wird wahrscheinlich langfristig die Akzeptanz erhöhen und den E-Sport zu einer etablierten Sportart neben den traditionellen Sportarten machen. Clans haben ähnliche Auswirkungen auf den Spieler wie traditionelle Sportvereine. Durch die hierarchische Organisationsstruktur wird den Spielern eine Teamfähigkeit vermittelt. Das gemeinsame Erarbeiten von Taktiken und der sprachliche Austausch während des Clan Wars machen die Spieler kommunikativer, da sie lernen müssen, wichtige Inhalte in kurzer Zeit zusammenzufassen, die Taktik zu bereden usw.. Außerdem lernen die Spieler auch, konstruktiv mit Kritik umzugehen, denn nur wer Ratschläge annimmt, ist in der Lage sich weiterzuentwickeln. Auch die Eltern von morgen werden wahrscheinlich bewusster mit dieser Thematik umgehen, da sie mit den Möglichkeiten und Problemen mehr anzufangen wissen, als die heutige Elterngeneration. Schon im frühen Alter werden Kinder heutzutage mit Telekommunikationstechnologie in Verbindung gebracht. 108 Das Handy wird zu einem Gebrauchsgegenstand, genauso wie es die Kommunikation und das Spielen über das Internet wird. Inwieweit dies die Gesellschaft konkret verändern wird, lässt sich schwer abschätzen. Möglichkeiten für die Wirtschaft (Sponsoring) E-Sport hat das Potential sich zu einer Trendsportart zu entwickeln. Die Tatsache, dass hier ein Markt mit ausgeprägten Chancen und Risiken wartet und dass bereits erste ökonomische Erfolge gefeiert werden konnten, hat auch Marketingführer von Topfirmen und Pressevertreter aufmerksam werden lassen. Zu diesem Zweck rief Frank Sliwka, geschäftsführendes Vorstandsmitglied des deutschen eSport Bundes, eine Veranstaltung ins Leben, in der sowohl Geschäftsleute der E-Sport Szene, Presse, Firmen wie auch ganz normale Besucher eine Diskussion zu diesem Thema führen können. Die „Internationales eSport Forum 2005“ genannte Veranstaltung fand im Juni 2005 im Congress Center Düsseldorf (CCD) statt und konnte mit Referenten aus der Wirtschaft und Wissenschaft aufwarten. Unter Anderem, war ein Vortrag von Don S. Kim (Managing Director von AC Entertainment und Unternehmensmitglied von Samsung) zu hören der sich mit dem Thema „Why a big company like Samsung is sponsoring eSport events“ [KI05] befasste. Er führte als Beispiel für E-Sport Marketing, eine der größten E-Sportveranstaltungen weltweit, die World Cyber Games an. Er stellte dar, dass ein Event mit 1 Millionen Spielern und 2,5 Millionen Zuschauern weltweit in 63 Ländern die beste Möglichkeit sei, um Marketingerfolge in einer Zielgruppe zu erreichen. Spiele sind das Medium der Zukunft. Sie beinhalten Unterhaltung in Form von Musik, Filmen, Grafik, Story, dem Spiel an sich und Wettbewerb. Sie berühren auch gesellschaftliche Aspekte der Zukunft wie Kommunikation über Netzwerke oder MMORPGs (Massivly Multiplayer Online Role Playing Games). Es scheint sich herauszukristallisieren, dass Spieler eine dankbare Zielgruppe darstellen: sie passen sich schnell an und liefern Meinungen über neue Produkte, haben Einfluss auf den Kauf von IT Technologien und zählen zu den „Power Buyers“, die mehr kaufen und mehr bezahlen. Laut Don S. Kim ist E-Sport Sponsoring eines der kosteneffektivsten Marketinginstrumente. Des Weiteren erreicht dadurch die Wirtschaft die junge Generation. Die Kultur ist international und zeigt ein starkes Wachstum, der Geist von E-Sport vermittelt Menschlichkeit, Freundschaft und Fairplay, das Image erscheint fortgeschritten, hoch technisiert und führend. Dadurch besteht beim Zielpublikum laut Kim die Möglichkeit, eine dauerhafte Markenloyalität zu erreichen. Aus einem Vortrag von Philip Militz (Managing Director Scoopcom!) geht hervor, dass der typische Spieler ein Alter zwischen 14 und 29 Jahren besitzt, zu 97% männlich ist und 20% der Spieler über 500 € im Monat für „Luxusartikel“ zur Verfügung hat, 20% über 250 € und weitere 24% über 100 €. 60% stimmten der Aussage zu „Probiere immer wieder gerne Neues“ und 76% der Aussage „Kauf von Markenartikeln lohnt sich“. [MI05] TFH Wildau, Wissenschaftliche Beiträge 2006 Um in Deutschland einen ähnlichen Markterfolg wie in den asiatischen Ländern mit E-Sport zu erreichen, müssen erst die Vorraussetzungen dafür geschaffen werden, so Christian Sauer vom Clan „OCRANA“, der international vertreten ist und einer der ältesten Clans in Deutschland. Es müsse eine Verbesserung der Wahrnehmung von E-Sport innerhalb der Gesellschaft geschaffen werden, konsequente Orientierung an den Bedürfnissen und Wünschen der Zielgruppen, vereinfachter inhaltlicher und technischer Einstieg in den aktiven E-Sport und die Schaffung zuschauertauglicher und -freundlicher Formate angestrebt werden. Auch wäre die Schaffung von Identifikationsmöglichkeiten durch Stars und Marken, die Darstellung des E-Sport als geeignete Kommunikationsplattform auch für traditionelle Unternehmen, die Etablierung eines E-Sport-Verbandes, sowie eine Konsolidierung der Ligenvielfalt und die Marktforschung mit Wertdarstellung der Rechte der richtige Weg. (1. Juli 2005, http: //www.esportforum.com/vortraege/Vortrag_Sauer.pdf) Zur Entwicklung des E-Sport Sponsoring meint Rene Korte (Managing Director Gamers Wear and mtw), dass 1998 E-Sport noch ein sponsorenfreier Raum und kommerzfeindlich war und dagegen 2005 über 100 Sponsoren aus der Wirtschaft mit hoher Vertriebs- und Brandingwirkung vorhanden sind. Allerdings sei es bis heute nicht geschafft worden, die großen Marken außerhalb der Technikindustrie zu überzeugen. Er sieht jedoch E-Sport als eine wirtschaftstreibende Kraft mit Beschäftigungsperspektiven an und meint, E-Sport habe „[...] in den letzen Jahren zu einem echten Gründerboom geführt, fern jeder Kapitalismus und Heuschrecken Diskussion!“. [KO05] Jedoch fehle weiterhin professionelle Unterstützung und Mut zur Bereitstellung von Kapital. Die Chancen des Sponsoring sieht Rene Korte in der Tatsache, dass E-Sport interaktive Marketingmöglichkeiten mit direktem Feedback und Input für Produkte und Produktentwicklungen bietet. „Gaming is a global language“ [KO205] eröffnet die Möglichkeit weltweit einen Markt zu erschließen. Die Risiken des Sponsoring lägen im fehlenden Vertrauen gegenüber des E-Sports und seinen Organisationen und der hohen Anforderung an Professionalität, welche aber teilweise aufgrund fehlender monetärer Mittel nicht erfüllt werden kann. Die Unternehmen würden die Beschädigung der eigenen Marke durch öffentliche Diskussionen fürchten. Der Weg zur Besserung wäre die Aufklärung im eigenen Unternehmen und Verständnis für soziale Umstände. die Möglichkeit der Teilnahme zu geben. Über einen InfoButton hatte der Befragte die Möglichkeit, sich über die Motivation und Urheber der Umfrage zu informieren. Bild 7: Screenshot der Umfrage Es wurden 13 Fragen gestellt, die einem kurzen Interview entsprechen, um einen groben Überblick der wichtigsten Informationen zu erhalten. Dabei wurden die Fragen so gestaltet, dass sie später statistisch möglichst gut auswertbar sind. Da es im Internet eine Flut von Umfragen, Marktforschungen und auszufüllenden Formularen gibt, haben wir versucht den Bogen schnell ausfüllbar zu gestalten, da nach unseren Einschätzungen unsere Zielgruppe wenig Motivation hat sich lange mit einem Fragebogen aufzuhalten. Um die Umfrage publik zu machen, bedienten sich die Autoren dieser Arbeit verschiedener Internetforen die hauptsächlich von Spielern besucht werden (http://forum.counterstrike.de/bb/, http://www.esl-europe.net/de/forum/, http: //www.piranho.com/home/boards), einem Hinweis auf einer privaten Webseite sowie verstärkt dem Medium IRC (Internet Relay Chat), welches als ein Hauptkommunikationskanal für Spieler verschiedener Richtungen und Herkunft benutzt wird. Auf diese Weise wurden 319 Umfragen gesammelt. Die effektiv verwertbare Anzahl von Umfragen (nach Entfernung von versehentlich doppelt abgegebenen Ergebnissen und mutwilligen Falschangaben) belief sich auf 301. Durch Unterscheidung der bei der Speicherung der Umfrage mitprotokollierten IP Adressen wird davon ausgegangen, dass 301 Personen an der Umfrage beteiligt waren. Die ersten drei Fragen bezogen sich auf Herkunftsland, Geburtsjahr und Geschlecht. Auswertung des Fragebogens Um aus erster Hand an Statistiken und Meinungen von Spielern zu kommen, wurde ein Fragebogen im Internet zugänglich gemacht. Er richtete sich hauptsächlich an diejenigen Internetbenutzer, die bereits Kontakt mit Online Games oder eSport hatten. Der Fragebogen war in Form eines im Internet üblichen Formulars gehalten, die Antworten waren meist vorgegeben und konnten aus einer vorhandenen Liste ausgewählt werden und in Einzelfällen hatte der Befragte die Möglichkeit, selbst Text frei einzugeben. Die Befragung war in den Sprachen Deutsch und Englisch verfügbar um auch internationalen Interessenten TFH Wildau, Wissenschaftliche Beiträge 2006 Bild 8: Altersverteilung 109 Der Großteil der Umfrageteilnehmer war zwischen 16 und 21 Jahre alt, 92 % waren männlichund 8 % weiblich. Unsere Umfrage erreichte hauptsächlich deutsche Personen. Die darauf folgenden Fragen beschäftigten sich tiefer mit dem Thema E-Sport. Es wurde dabei davon ausgegangen, dass die Befragten bereits mit den Begriffen vertraut sind und das Feedback, welches gegeben wurde hat auch gezeigt, das es keine Schwierigkeiten beim Verstehen der Fragen gab. Der folgende Abschnitt wird die Fragen auflisten und erklären sowie die gesammelten Ergebnisse darstellen. Frage 4: Spielst du in einem Clan? (ja/nein) Hier wurde versucht herauszufinden, wie groß der Anteil der organisierten Spieler ist, also Jenen, die in Clans oder Gilden sich mit anderen Spielern zusammengeschlossen haben. 47 % der Befragten sind Mitglied in einem Clan oder einer clanähnlichen Gemeinschaft, 53 % sind clanlos. Frage 5: Wie viele Stunden bist du ungefähr täglich mit dem Spielen oder/und Organisieren von OnlineSpielen beschäftigt? (bis zu 1 Stunde/2-4 Stunden/4-6 Stunden/mehr als 6 Stunden) Das Ergebnis dieser Fragen war eine durchschnittliche Spieldauer von ca. 2,5 Stunden pro Tag unter allen 301 Befragten. Die genaue Verteilung war wie folgt: Bild 9: Tägliche Spielzeit Frage 6: Welches Spiel spielst du am häufigsten online? (Auswahl einer Liste derzeit populärer Online Spiele) Es wurde versucht, eine Liste der zurzeit bekanntesten Online Spiele zu erstellen und die Teilnehmer der Umfrage daraus wählen zu lassen. Falls der Befragte sein favorisiertes Spiel nicht in der Liste auffinden konnte, konnte er ein Feld mit einer freien Texteingabe ausfüllen. Die Tatsache, dass 50 Nennungen für „anderes Spiel“ vorliegen und dass eine Vielzahl von Spielen im Feld mit der freien Texteingabe angegeben wurde, spiegelt die große Diversität auf dem Online Spielemarkt wider. Viele der alternativen Spielenennungen waren so genannte „Browser Games“, welche man direkt über den Webbrowser nach einer meist kostenlosen Anmeldung spielen kann. Als das beliebteste Spiel zeichnete sich eindeutig „Counter-Strike 1.6“ ab, welches nun mehr seit bereits 5 Jahren auf dem Markt ist. Es gehört auch zur Gruppe der Egoshooter, welche 61 % aller Nennungen ausmachten. Nahezu alle genannten Egoshooter haben taktische Elemente, was den besonderen Reiz auszumachen scheint. 15 % der genannten Spiele kann man im Bereich „Rollenspiele“ einordnen, Echtzeitstrategiespiele sind mit 5 % vertreten. Der Bereich der „anderen Spiele“ teilt sich in Sportspiele, Strategiespiele, Rollenspiele und weitere Egoshooter auf. 110 Bild 10: Populärste Online-Spiele Frage 7: Spielst du in einer Liga? (ja/nein) Die Frage zielte darauf ab, diejenigen Clanspieler oder Einzelspieler abzugrenzen, die in einer Liga gegen andere Spieler antreten und um Platzierungen oder Preisgelder spielen. Man könnte diese Gruppe auch als den Teil der Befragten bezeichnen, die am aktivsten am E-Sport teilnehmen. 35 % der Befragten gaben an, in einer Liga mitzuspielen, 65 % spielen in keiner Liga. Dabei ist anzumerken das bestimmte Online Spiele keine Eigenschaften mit sich bringen die ein Ligaspiel möglich machen sondern teilweise auch ein spielinternes Ranking der Spieler oder Clans/Gilden bieten (z. B. viele Rollenspiele). Frage 8: Wird dein Clan gesponsort? (ja/nein) 22 % der Befragten gaben an, einen Sponsor für ihren Clan zu haben, was 46 % aller Clanspieler dieser Umfrage ausmacht. Wenn die Angaben wahrheitsgemäß waren, werden also knapp die Hälfte aller Clanspieler in Form von Geld, Hardware oder Dienstleistungen von Firmen oder Privatpersonen unterstützt. Frage 9: Hast du selbst schon Geld verdient mit dem Organisieren bzw. Spielen von Online-Spielen? (ja/nein) Die Frage richtete sich an alle Teilnehmer, die schon einmal Geld verdient haben durch Gewinnen von Turnieren, regelmäßige Gelder von Sponsoren oder Bezahlung für Teilnahme oder Organisation von Spielen oder E-Sport Veranstaltungen. 16 % der Befragten haben bereits Geld mit diesen Tätigkeiten verdient, 84 % bisher nicht. Frage 10: Könntest du dir vorstellen, deinen Lebensunterhalt mit eSports zu verdienen? (ja/nein) Hier sollte sich zeigen, ob die Spieler ihr Hobby auch zum Beruf machen oder lieber das Spielen als Nebentätigkeit weiterführen würden. 32 % haben Interesse am hauptberuflichen Spielen, 68 % waren dagegen. Frage 11: Verfolgst du regelmäßig die Spiele bekannter Clans oder Spieler? (ja/nein) Ähnlich wie bei bereits etablierten Sportarten, wie Fußball oder Basketball, gibt es in der E-Sport Szene bekannte Spieler oder Stars, Fans und auch Spielübertragungen. Bisher werden die Spiele über Livestreams im Internet oder durch Zuschauermöglichkeiten die das Spiel selbst bietet übertragen, der TV Sender GIGA zeigt in seiner täglichen E-Sports Sendung Spitzenspiele auch im Fernsehen. Des Weiteren gibt es unzählige Webseiten die über die Spiele der Spitzenclans berichten. 31 % der Umfrageteilnehmer verfolgen laut ihren Angaben regelmäßig Spiele bekannter Clans, 69 % antworteten mit nein. TFH Wildau, Wissenschaftliche Beiträge 2006 Frage 12: Ist dein Freundeskreis im Onlinebereich oder im „wahren Leben“ größer? Frage 13: Welche Freunde davon sind dir wichtiger? („wahres Leben“ / online / beide gleich) Die beiden Fragen sollten die soziale Stellung von Freunden im „wahren Leben“ und im „virtuellen Leben“ online beleuchten. 81 % der Teilnehmer gaben an, einen größeren Freundeskreis im „wahren Leben“ zu besitzen, 19 % haben mehr Freunde im Online Bereich. Allerdings gibt es hier auch viele Überschneidungen, einige Teilnehmer der Umfrage wiesen uns darauf hin, dass es durchaus gemischte Verhältnisse von Online- und „wahrem“ Leben gibt: – „Meine Freunde im wahren Leben sind zu 90% die gleichen wie im Onlinebreich.“ – „Onlinefreunde können auch zu Freunden im ‚wahren Leben’ werden.“ – „Viele von meinen ‚Onlinefreunden’ sind meine ‚Reallifefreunde’ oder eher andersrum. Wir kennen uns alle privat, und zocken zusammen.“ Die Frage nach der Wichtigkeit der Freunde aus dem realen Leben und dem Online Leben sollte eine Gewichtung dieser sozialen Beziehungen erkennbar machen. 81 % der Befragten sind die Freunde aus dem realen Leben wichtiger, 5 % bevorzugen ihre Online Freunde und 14 % machen keinen Unterschied zwischen Freunden aus der Onlinewelt und dem wahren Leben. Auch zur Frage der Wichtigkeit folgten Kommentare der Befragten: – „Da ich den Großteil meiner ‚Onlinefreunde’ schon seit Ewigkeiten kenne, sind die mir auch ans Herz gewachsen.“ – „[…] sind mir alle gleich wichtig, ich mach da keine Unterschiede... ich kenn die ausm Clan beispielsweise schon seit 2 Jahren... ich treff mich mit denen 2mal im Jahr mindestens... also es gibt da kaum Unterschiede... zwar sieht man sie weniger aber das Verhältnis ist gleich […]“ Die 14. Frage war keine Frage an sich sondern bot Platz für die oben bereits angeführten Kommentare und Meinungen. Hier haben einige Teilnehmer auch die Gelegenheit genutzt um ihre persönliche Meinung zum Thema E-Sport zu äußern: – „Persönlich finde ich, dass E-Sport nicht wirklich eine Disziplin ist, die etwas mit Sport zu tun hat. Schön, wenn es Leute gibt die damit Geld machen können. Ich würde es nicht wollen.“ – „E-Sport ist ein Hype“ – „E-Sport ist meiner Meinung nach kein Sport und sollte auch nicht in diesen Status erhoben werden.“ – „E-Sport ist meiner Meinung nach eine der dämlichsten Erfindungen, die es gibt. Spiele sind kein ‚Sport‘.“ – „E-Sport ist ein Wunschtraum irgendwelcher Leute die besser mal vor die Tür gehen sollten.“ – „Fordert mehr E-Sport in der Gesellschaft!“ – „E-Sport ist ne Leidenschaft“ – „der E-Sport wird eines Tages sicherlich in .de so groß sein wie in Japan und den andern asiatischen Ländern, irgendwann wird dieses auch als Beruf angesehen“ – „pro-Gaming macht die Spiele kaputt, sobald das Gewinnen im Vordergrund steht, bleibt der Spass mehr und mehr auf der Strecke...“ TFH Wildau, Wissenschaftliche Beiträge 2006 Schlussfolgerungen aus den Ergebnissen der Befragung Um repräsentative Ergebnisse zu erhalten, welche die Gesamtheit aller Spieler berücksichtigt, wäre sicher eine komplexer angelegte Umfrage und ein weitaus längerer Zeitraum nötig (Umfrage lief zwei Tage) gewesen. Jedoch ist es auch möglich aus diesem Ausschnitt von Spielern einige Erkenntnisse und Tendenzen abzulesen. Die Altersübersicht zeigt, dass der Großteil der Teilnehmer im Bereich von 16 bis 21 Jahren liegt, jedoch das Feld der Spieler sich auch breiter in den jüngeren und älteren Bereich fächert. Mit 2,5 Stunden durchschnittlicher Spielzeit pro Tag sind sie bereit, einen relativ großen Teil ihrer Freizeit für ihr Hobby zu opfern. Das die teamspielfähigen Onlinespiele in der Häufigkeitsverteilung der gespielten Titel an erster Stelle stehen scheint einen besonderen Reiz beim Zusammenspiel mit anderen Menschen aufzuzeigen, das Egoshooter an erster Stelle stehen ist eher darauf zurückzuführen das es in diesem Bereich die meisten und auch ersten onlinefähigen Titel auf dem Markt gibt. Rollenspiele, die einen erhöhten Zeitaufwand benötigen, sind schwächer vertreten. Die Tatsache, dass knapp die Hälfte aller befragten Spieler sich in Clans oder clanähnlichen Gemeinschaften zusammenfinden, lässt auf einen erhöhten Spielspaß bei Verknüpfung des Spiels mit einer sozialen Komponente schließen. Der Anteil der Ligaspieler mit 35 % deutet darauf hin, dass neben den Gelegenheitsspielern ein gutes Drittel der Befragten sich in einem organisierten Wettkampf mit anderen Spielern messen wollen und demnach zu aktiven E-Sportlern gezählt werden können. Relativ überraschend war die Tatsache, dass 46 % aller Clanspieler angaben, eine Form von Sponsoring in ihrem Clan zu erfahren. Es wird angenommen, dass dieses Sponsoring hauptsächlich in Form von Dienstleistungen und Bereitstellung von Spieleservern umgesetzt wird und eher in seltenen Fällen direkt Geld an die Spieler bezahlt wird. Das wird auch deutlich bei der Frage nach bisherigen Geldeinnahmen durch Onlinespiele, bei der 16 % angaben, schon einmal Geld mit ihrem Hobby verdient zu haben. Ein größerer Teil der Befragten, mit 32 %, könnte sich jedoch vorstellen, sogar den Lebensunterhalt mit E-Sport zu verdienen, was sich fast mit der Anzahl der Ligaspieler deckt. Fast dieselbe Größe haben mit 31 % die Anzahl der Spieler, die regelmäßig Spiele bekannter Clans oder Spieler verfolgen und ein Vergleich mit den Daten der Ligaspieler hat ergeben, dass Teilnehmer die in einer Liga spielen auch größtenteils jene sind, die aktiv das Spielgeschehen in den bekannteren Bereichen der E-Sportszene verfolgen. Die eher sozial bezogenen Fragen zum Thema Freundeskreis online und offline ergaben, dass ein Großteil der Umfrageteilnehmer den Menschen im wahren Leben mehr Bedeutung zurechnet und dort auch den größten Freundeskreis hat. Jedoch gibt es hier auch Überschneidungen, da mit Menschen aus dem Alltag auch Online kommuniziert wird und weil aus Bekanntschaften die im Onlinebereich entstehen auch in der realen Welt soziale Beziehungen entstehen. Einige der Teilnehmer wiesen uns darauf hin, dass der Unterschied zwischen den Gruppen Online- und Offlinefreunde als nicht sehr signifikant darzustellen sei. 111 Schlusswort LAN-Party: Party, auf welcher bis zu mehrere Hundert PCs lokal vernetzt werden Es wurde gezeigt, dass der E-Sport ein großes Potential besitzt und für das Marketing von Unternehmen unterschiedlicher Branchen ein gutes Mittel ist, die Zielgruppe der „Heranwachsenden“ zu erreichen. Der E-Sport hat in weniger als zehn Jahren eine beachtliche Entwicklung durchgemacht. An den „World Cyber Games“ nehmen schon fast so viele Länder teil, wie an den Olympischen Spielen. Deutschland steht zwar momentan noch in den internationalen Wettkämpfen relativ gut da, doch darf hier auch von staatlicher Seite der Trend nicht verschlafen werden. Urteile wie in dem Abschnitt „Vergleich zwischen E-Sport und reellem Sport“ sind nicht nur unnötig, sondern auch schädlich, da sie die öffentliche Wahrnehmung beeinflussen und so die Entwicklung in Deutschland unter Umständen stagnieren lassen. Langfristig ist ein Erfolg, ähnlich wie in Südkorea, auch hier in Deutschland durchaus denkbar. Aber es ist nicht anzunehmen, dass dies so extrem geschehen wird, wie dort. Europa wandelt sich nicht so schnell. Dinge brauchen hier Zeit sich zu entwickeln. Mit der Gründung des „Deutschen eSport Bundes“ wurde ein Schritt in die richtige Richtung getan, E-Sport in der öffentlichen Gesellschaft besser zu repräsentieren. Wir möchten uns abschließend bei all jenen bedanken, die an unserer Umfrage teilgenommen haben und unsere Fragen teilweise so ausführlich beantworten haben. Außerdem gilt unser besonderer Dank unserem Dozenten Prof. Dr. Bernd Eylert, welcher uns in seinem Seminar „Telematik und Gesellschaft“ ermöglicht hat, ein Thema zu behandeln, welches uns beide auch privat seit einiger Zeit beschäftigt und deshalb auch besonderen Spaß macht. MMORPGs: Massive Multiplayer Online Rollplay Games, Spiele bei welchen oft Hunderte Spieler auf einem Server an einem virtuellen Rollenspiel teilnehmen Fußnoten (1) Interleaving ist ein Verfahren, welches durch Umsortierung der Übertragungsbits Burstfehler verteilt Progamer: professioneller Spieler Quake III: sehr populärer Egoshooter, welcher meist „Mann gegen Mann“ gespielt wird Starcraft: das derzeit noch populärste Echtzeitstrategiespiel in Südkorea USK: Unterhaltungssoftware Selbstkontrolle, freiwillige Selbstkontrolle der Spieleindustrie zur Einstufung der Software in bestimmte Altersgruppen Wallhack: Ein Schummelprogramm, welches es erlaubt in einem Egoshooter durch Wände zu schauen WCG: World Cyber Games, jährlich stattfindender, größter, ESport Event Literatur/Quellen [WI05] 29.Juni 2005, de.wikipedia.org/wiki/Esports [LI05] 29.Juni.2005, Lietzkow, Seite 1, www.esportforum.com/ vortraege/Vortrag_Lietzkow.pdf) [WI205] 30.Juni 2005, de.wikipedia.org/wiki/E-sport [KR05] 30.Juni 2005, www.korea.net/news/news/ newsView.asp?serial_no=20041217018&part=108 &SearchDay= [FAT05] 1. Juli.2005, www.fatal1ty.com/news/ ?type=PR&ID=15 [KI05] 1. Juli 2005, Kim, http://www.esportforum.com/ vortraege/Vortrag_Kim.pdf [MI05] 1. Juli 2005, Militz, http://www.esportforum.com/ vortraege/Vortrag_Militz.pdf [KO05] 1.Juli 2005, Korte, http://www.esportforum.com/ vortraege/Vortrag_Korte.pdf, Seite 10 [KO205] 1. Juli 2005, Korte, http://www.esportforum.com/ vortraege/Vortrag_Korte.pdf, Seite 11 Glossar Aimbot : Ein Schummelprogramm, welches Gegner automatisch anvisiert. BPjM: Bundesprüfstelle für jugendgefährdende Medien Cheatprogramme: Programme, welche es erlauben in Spielen zu schummeln Autoren B. IC. Sc. Henri Schmidt Technische Fachhochschule Wildau [email protected] Counter-Strike: derzeit bekanntester Taktik – Egoshooter Echtzeitstrategiespiel: Spiel, in welchem man, meist in isometrischer Ansicht, verschiedene Einheiten in Echtzeit befehligt Egoshooter: ein Spiel, welches eine virtuelle Welt in einer 3DEgoansicht darstellt und meistens ein Teamspiel unterstützt B. IC. Sc. Stefan Lehmann Technische Fachhochschule Wildau [email protected] fatal1ty: Jonathan Wendel, einer der ersten amerikanischen Progamerstars Gameserver: Ein Rechner im Internet, auf welchem dedizierte Serverprogramme (meist) unterschiedlicher Spiele laufen IRC: Internet Relay Chat, eines der ältesten und größten Chatsysteme Lags: Sekundenaussetzer bei einem Onlinespiel aufgrund mangelhafter Datenkommunikation 112 TFH Wildau, Wissenschaftliche Beiträge 2006 Qualitative analysis of AWJ factors affecting the surface roughness Sergej Hloch, Stanislav Fabian Abstract 1 Introduction The paper deals with experimental research and evaluation of abrasive waterjet cutting technology process by evaluation of technological factors, which influence the microgeometry (average roughness) of 10 mm thick stainless steel tooled workpiece surface through design of experiments. Significance of six chosen process factors – independent variables (traverse rate, abrasive mass flow rate, pressure, J/T abbreviation and feeding direction that influence the surface quality has been evaluated by factors experiment type 26. The surface quality has been evaluated by static quality characteristic average roughness Ra. The multiple nonlinear regression equation obtained from ANOVA gives the level quality Ra as a function of the treatment factors. Different factor significance has been found, which generated surface profile under defined conditions by abrasive waterjet. The regression equations obtained from ANOVA and multiple linear regressions give the level quality Ra as a function of the treatment factors. Design of Experiments is a standard statistical technique used in quality engineering, manufacturing, and other industries to identify significant or sensitive factors (independent variables) and levels their factor values that influence system performance and variability. This technique is especially useful when there is the need to understand the interactions and effects of several system variables and an absence of concrete information. Manufacturing engineers can use experimental designs to establish a cost-effective set of experiments to identify factors and levels that have the most and least impact on system performance. In current European conditions raising emphasis is posed to manufacturing processes quality with minimal environmental impact, connected with lower energetic and material consumption. Competition and scientific progress requires introduction of technologies that perform challenging claims of modern production in automation field, from economy, environmental and energy efficiency point of view. Abrasive waterjet cutting represents all of these claims. Fig. 1. AWJ cutting process model; factors vs. parameters TFH Wildau, Wissenschaftliche Beiträge 2006 113 2 Related and previous works N Abrasive waterjet machining belongs among complicated dynamical and stochastic processes with incomplete information about mechanism and side effects character. Their complicated appearance in large amount and parameters multiform determining process behaviour in large number of relations among parameters, and their interactions. [15] Their complicacy incomplete knowledge functioning mechanisms and large amount of factors entering to the process complicate of mathematical model fitting by theoretical and analytical methods [12, 16]. Vice versa a mathematic-statistical method allows fitting of statistical models even from relative large amount input data. The nature of the mechanisms involved in the domain of AWJ machining is still not well understood but is essential for AWJ control improvement. In spite of great research effort and good knowledge in the field of progressive technologies there are number unexplained facts. One of them is influence of process factors on workpiece surface quality. [6, 10] The work presented in that study investigates a micro-geometrical aspect of the cutting quality of the average roughness. It is necessary to ensure asked quality characteristic of the cutting surface, which conditional to knowledge of the process function dependency between product quality parameters and abrasive waterjet manufacturing system factors [9]. Most scientific papers concerning to the evaluation of microgeometrical features of abrasive waterjet cutting are available [1, 2, 3, 4, 7, 11]. The object is to determine the final shape of the surface quality, which is a function of the geometric characteristics of the abrasive waterjet tool and its awj factors that are divided into two basic groups (fig.2); direct and indirect. Factors of indirect group influenced quality of the created tool where hydro-dynamic factors, mixing factors and abrasive factors belong. These factors influence the qualitative characteristics of the tool, the speed, diameter kinetic energy of the stream. Generated tool through these factors enters to the cutting technology process at material at the large number locality, by means of direct factors. There belongs traverse rate; stand off distance, impact angle and number of passes. Through cutting factors, created tool hits the workpiece the at upper erosion base (fig.1), where erosion process begins [11, 13]. In order to investigate the influence of abrasive waterjet process factors on average roughness Ra cutting quality, full factorial design for four independent variables has been designed. Full factorial analysis was used to obtain the combination of values that can optimize the response within the region of the four dimensional observation spaces, which allows one to design a minimal number of experimental runs. Among the many process variables that influence the cutting results, four have been selected and considered as factors in the experimental phase. The variable of each constituent at levels: –1, and +1 is given in Table 1. The experimental cuts have been performed in a random sequence, in order to reduce the effect of any possible error. A 26 full factorial analysis has been used with 3 replicates at the center point, leading the total number of 64 experiments. Considering that the four levels of the x1, x2, 114 Factors Factor level Var. Terminology and dimension -1 +1 0,1/1 0,14/1,2 500 1 x1 J/T abbreviation [mm] 2 x2 Abrasive mass flow rate [g.min-1] 300 3 x3 Pressure [MPa] 200 350 4 x4 Traverse rate [mm.min-1] 70 120 5 x5 Depth [mm] 6 x6 Traverse direction 1 9 -180 180 Table 1. Coded independent variables at defined levels x3, x4, x5, x6 and variables are –1 and 1, the designed matrix is 64-obsevations for dependent variable Ra. The graphical interpretations of factorial design is illustrated in the figure (2) Specimens series A has been made with indenpendent variable – factor J/T at high level 0,14/1,2 (+1) and specimens series B with lowest level of J/T abbreviation. The behaviour of the present system can describe the nonlinear polynomial exponential equation (1), which includes all interaction terms regardless of their significance: y = b0 x0 + b1 x1 + b2 x2 + b3 x3 + b4 x4 + b5 x5 + b6 x6 ... + b123456 x1 x2 x3 x4 x5 x6 (1) Fig.2. Experimental methodology graphic illustration of specimens’ series A and B For investigation of the influence of the traverse rate the samples created for this purpose have been cut in two directions +180° and –180° (fig. 4). Traverse direction has been added to the experiment to explain the significance with connection of the selected factors. 2.1 Experimental set up A two dimensional abrasive waterjet machine Wating, was used in this work with following specification: work table x-axis 2000 mm, y-axis 3000 mm, z-axis discrete motion, with maximum traverse rate of 250 mm.min-1. The highpressure intensifier pump was used the Ingersoll-Rand Streamline model with maximum pressure 380 MPa. As a cutting an Autoline cutting head from Ingersoll-Rand head has been used. The mechanical properties and chemical composition of the workpiece with austenitic composition is shown in table 2. The properties of each sample are: length 35 mm, width 8 mm, and height 10 mm. Abrasive machining conditions used in this study are listed in the table 2. The abrasive used in this experiment is Barton garnet, mesh 80, which is widely used for abrasive waterjet machining. TFH Wildau, Wissenschaftliche Beiträge 2006 The stainless steel has been chosen as a target material upon these grounds: material is very attractive, because of its resistance to corrosion; it can provide significant value creation for the end user when considering all of the important attributes and how they help to bring reliability, performance, and safety to industry and the consumer. Fig. 4 shows the samples made according DoE (tab. 2, fig. 2). Constant factors Values Variable factors Standoff 2 mm Pressure p [MPa] Abrasive material Barton Traverse rate v [mm.min-1] Garnet Mesh 80 Cutting head AutolineTM Impact angle ϕ 90° Values 200/350 Fig. 5 Measurement procedure 70/120 J/T abbreviation 0,14/1,2 0,1/1 Abrasive mass flow rate [g.min-1] 200/500 Target material: Stainless Material thickness h [mm] 1/9 steel AISI 304 C max 0.07%, Mn max 2.0%, P max 0.045%, S max 0.03% Si max 1%, Cr max 18/20%, Ni 10% Tensile Strength Rm 540/680 [N.mm-2], Slip Limit Rp 0.2% 195 [N.mm-2], HRB = 88 System characteristics of Streamline pump Double Water pressure (max) 380 MPa Intensifier type effect Intensifier power 50 kW Intensification ratio 20:1 Oil pressure (max) 20 MPa Accumulator volume 2l Table 2. Experimental set up Fig. 6 Example of created workpiece surface by abrasive waterjet Fig. 3 Production of samples (B – series) Fig. 4 Example samples of A and B series 2.2 Measurement procedure A digital surftest Mitutoyo 301 has been used to calculate the average roughness with 0.01 µm precision of measurement. The measurement procedure consisted of measure variable dependent average roughness Ra in 1, and 9 mm with replicates of 6-times. The measurement dependent variables are shown on figure 4. TFH Wildau, Wissenschaftliche Beiträge 2006 3 Statistical results The quantitative description of the conditions effects on average roughness was performed. Response surface methodology is an empirical modelling technique used to evaluate the relationship between a set of controllable experimental factors and observed results. The results were analyzed using the analysis of variance as appropriate to the experimental design used. The normality of experimental measured data has been tested according Shapiro-Wilkson test criteria for its good power properties as compared to a wide range of alternative tests. Shapiro-Wilkson test proved that 64 values experiments is not greater than critical value Wα = 0.788 for n = 6 and α = 0.05, respectively value of probability p is out of range, as preferred significance level α, we can accept the null hypothesis about normal distribution measurements repeatability. Figure 5 shows those residual values do not show heteroskedasticity – during of measurement of dependent variable average roughness variance of Ra 115 values has not been observed. Figure 6 shows the normal probability plot of residual values. Computed value obtained reliability for Shapiro-Wikson test of normality p = 0.020032 and value of W criteria W = 0.95114. According inequality Wα ≥ W, we can accept H0 hypothesis about residual values probability. Fig. 9: Pareto charts shows that pressure as a controlable factor was found to be the most sufficient parameter that affects the average roughness Fig. 7: Normal probability plot Fig. 9 graphically displays the influence magnitudes of the effects, which are sorted from largest to smallest, from the obtained results. The most important factors affecting the AISI 304 surface quality x5 – material thick, x3 – pressure, x1 – J/T abbreviation, x4 – traverse speed and two interactions. The value of adjusted determination coefficient adj = 0,8535 is high to advocate for a high significance of the model. The significance of independent variables is interpreted in the Pareto chart of standardized effects for variable Ra (fig. 7). The following figure shows factors significance of treatment factors in % expression. Fig. 8: Predicted vs. residual values The regression equation obtained after analysis of variance gives the level of average roughness as a function of independent variables: J/T abbreviation, abrasive mass flow rate, pressure, traverse speed, traverse direction and material thickness. All terms regard their significance are included in the following equation: Ra = 10, 06 + 1, 97x1 − 1, 74x 2 −4, 35x 3 + 4, 30x 4 + 11, 03x 5 − 0, 013x 6 (2) Where: y is the response, that is average roughness of the surface and x1, x2, x3, x4, x5, x6 are coded values of the variables J/T abbreviation, abrasive mass flow rate, pressure and traverse rate and the depth. The model has been checked by several criteria. The fit of the model has been expressed by the coefficient of determination R2 = 0,90234 which was found to be for equation indicating that 90,23% for the model of the variability in the response can be explained by the models. The value also indicates that only 9,77% of the total variation is not explained by the model. This shows that equation is suitable model for describing to the response of the average roughness. 116 Fig. 10: Factors significance As can be seen the most important factor is material thickness with significance 51,89%. The second factor affecting the quality of surface roughness of stainless steel is pressure 20,45%, third factor is traverse rate 20,20%, J/T abbreviation 9,27% and abrasive mass flow rate 8,17%. Traverse direction in that an experiment is not significant – has no diametric significance on surface quality of average roughness. But significance of that factor increase as the material hardness decrease. It has been observed at the factor designed experiment where the cast aluminium has been used as a target material. As can be seen from the picture 10 the percentual value of absolute value is higher than controllable factors; traverse rate, pressure, abrasive mass flow rate and J/T abbreviation, that indicates that there are associated factors that has a significance influence and has not been included and classified by factor analysis. For TFH Wildau, Wissenschaftliche Beiträge 2006 exact explain of the model fig. 2 a new experiments will be provided. From present state of the art the two factors come in to account abrasive mesh and orifice stand off. The following figures 11, 12, 13 show fitted surfaces of pressure, rate of speed, J/T abbreviation, and abrasive mass flow rate and depth. Three-dimensional surface plots showing predicted microgeometrical quality feature the Ra as a function of independent variable – factors. Figure 10 shows fitted surface of thickness material and traverse direction. Thickness of material is most important factor. x1 factor in not controllable, but it is necessary to know the function in the relationship among the controllable factors. The second significant factor is traverse speed. The darker colour means higher values of surface roughness. The roughness numeric values increases as the traverse rate increase. This observation agrees with the results on stainless steel. With increasing depth average roughness strongly increases that is caused mainly by factors – traverse speed, abrasive mass flow rate and J/T abbreviation. Fig. 11 Fitted surface of material thickness and traverse rate. Threedimensional surface plot showing predicted average roughness as a function of material thickness [mm] and traverse rate [mm.min-1] Fig. 12 Fitted surface of material thickness and pressure. Threedimensional surface plot showing predicted average roughness as a function of material thickness [mm] and pressure [MPa] Observations proved influence of selected independent variables on surface roughness. Figures 8, 9, 10, 11 are graphical representation of factors change combination on average roughness measured in three various depths TFH Wildau, Wissenschaftliche Beiträge 2006 Fig. 13 Fitted surface of material thickness and J/T abbreviation. Three-dimensional surface plot showing predicted average roughness as a function of material thickness [mm] and J/T abbreviation [mm] for samples set A and B where is proven influence of factor x1 (fig. 10). With increasing depth the number values of average roughness increases. The second significant factor is pressure which significantly affects the average roughness (fig. 11). The third significant factor is traverse rate that relates with size and active length of cutting tool. The influence of the traverse rate is shown on the figure 10. As can be seen from graphic interpretations average roughness shows week experimental dependence on change combinations of variable parameters in depth 1 mm. With increasing depth average roughness strongly increases that is caused mainly by factor x3, x4 (pressure and traverse speed) (fig.8), (fig.9). The roughness significantly increases as the traverse rate increases. The importance of pressure and traverse rate and their significance with interaction material thickness confirm their importance at the cutting of hard machining materials. The impact of J/T abbreviation is shown on Figure 12. The important fact is that J/T abbreviation with level –1 (0,1/1) creates more coherent stream. The smaller diameters of diamond orifice and focus tube produce water with higher speed of abrasive water jet. Therefore the surface quality improves with higher pressure and smaller diameter because an abrasive water jet disposes with higher energy concentrated to smaller area of the workpiece. With an increase in the abrasive-mass flow rate, the quality of surface - Ra characteristics improves (fig. 11). But according to planned level conditions that factor there is range of abrasive mass flow rate from 300 g.min-1 to 500 g.min-1. From that mentioned reason high abrasive-mass flow rates influence to roughness, is less significant. As the abrasive mass flow rate increases, speed of the abrasive water jet reduces. The main reason is that the higher the mass-flow rate, the higher the number of abrasive particles is that must share the kinetic energy of the water jet. It is assumed that at low values of the factor x2, the particles do not collide one with another. They hit the material with a maximum velocity and maximum possible kinetic energy. The final result is that the abrasive mass flow rate has the less influence as hydrodynamics 117 parameters, pressure and J/T abbreviation. The increase in the number of impacting particles at lower traverse rates contributes to the improved surface finish. [6] FABIAN, S, HLOCH, S. Príspevok k technickým možnostiam zvyšovania kvality produktov technológie vysokorýchlostného hydroabrazívneho prúdu. In: AT&P journal. 1335-2237 : XII, 2005. 66 - 68. (strany 66 - 68 , 2005), 4 Conclusion [7] GOMBÁR M. Tvorba štatistického modelu drsnosti obrobeného povrchu s využitím Matlab. In Výrobné inžinierstvo. (s. 14-17) 2006. The problem analyzed in these pages is the study of abrasive water jet cutting in terms micro cutting quality. The quality parameter average roughness has been measured and evaluated according DoE. This analysis has pointed out that variable independent, pressure; abrasive mass flow rate, pressure, traverse rate and material thickness factor influence the morphology of cutting surface. It has been found that influence of process factors is variable related to different depth. Evaluation has been carried according to design of experiments. Full factorial design has been used as a statistical method to study effects of selected process factors. The pressure, abrasive mass flow rate, traverses rate, J/T abbreviation, material thickness, traverse direction as independent variable, has been evaluated their significance and their impact to the average roughness as a dependent variable. Obtained polynomial regression equation after analysis of variance gives the level quality as a function of the process factors. It has been found that pressure, and traverse rate are important with the depth. It has been observed that dominant factors influencing quality are pressure, traverse rate that directly determine quality of the tool – high-speed waterjet connected with thickness material and are most significant at the cutting of hard machining materials. According the experiment it has not been confirmed the significance of traverse direction at the cutting of hard machining materials. A new experiment in the future will be held with consideration of the mesh of solid phase and stand off, as object to reduce of significance absolute member in the model. References [1] Annoni, M., Monno M. A lower limit for the feed rate in AWJ precision machining. In. BHR Group 2000 Jetting Technology, p. 285-295, ISBN 1 86058 253 2. [2] Benko, M., Novák-Marcincin, J. Pocítacová podpora prípravy programov pre rezanie vodným lúcom. In: Automatizácia a pocítacová podpora predvýrobných etáp, výrobných a technologických procesov: 27.-28. marec 2001. Žilina : ŽU, 2001. s. 48-51. [3] Hloch, S. - Fabian, S. Abrasive waterjet process factors sensitivity identification. In: Annals of DAAAM for 2005 and proceedings of 16th international DAAAM Symposium, Austria. 1726-9679 : 16, 2005. 159 - 160. [4] Chen, F.L.; Siores, E. The effect of cutting jet variation on striation formation in abrasive water jet cutting, Industrial Research Institute Swinburne, Swinburne University of Technology, PO Box 218, Melbourne, VIC 3122, Australia, Received 3 March 2000; accepted 10 January 2001, International Journal of Machine Tools & Manufacture 41 (2001) 1479–1486. [5] FABIAN, S. - LORKO, M. Some trends of development of measuring instruments and systems. In: Wissenschaftliche Beiträge. no. 6 (2004), p. 12-14. ISSN 0949-8214 118 [8] Hashish, M. An Improved Model for Erosion by Solid Particle Impact. In: Proc. Of the 7th International Conference on Erosion by Liquid and Solid Impact, ELSI VII, Cambridge, England, Sept. 1987, 66/1-66/9, [9] Hashish, M. Machining of Hard Materials with AbrasiveSuspension Jets, Proceedings of the 9th American Waterjet Conference, (Dearbom, Michigan, August 23-26, 1997), pp. 267-280. [10] Híreš O. The study of cutting surfaces quality. In: Funkcné povrchy 2004: Trencín, 27.-28. máj 2004. Trencín: Trencianska univerzita, 2004. ISBN 80-8075-021-1. [11] Híreš, O. Povrchové úpravy kovov. Trencín : Trencianska univerzita, ISBN 80-8075-040-8 (viaz.) [12] Hloch S., Ragan E., Radvanská A.: Application of factorial design to study the effects of the selected abrasive waterjet factors on sound pressure level. In. Proc. Of 4th DAAAM International Conference on Advanced Technologies for Developing Countries, Osijek Croatia, ISBN 3-901509-49-6. [13] Hloch, S. Fabian, S. Rimár, M.: Design of Experiments Applied on Abrasive Waterjet Factors Sensitivity Identification. In: Nonconventional Technologies Review. 1454-3087 2005. 119 - 126. [14] Jurisevic, B., Coray, P. S., Heiniger, K. C., Junkar, M.: Tool Formation Process in Abrasive Water Jet Machining. In: Proceedings of the 6th International Conference on Management of Innovative Technologies MIT’2003 – post-conference edition. Ljubljana: University of Ljubljana. 2003. s. 73–85. [15] Lebar, A., Junkar, M. Simulation of abrasive water jet cutting process. Modelling Simul. Mater. Sci. Eng. 12 (2004) 1159–1170. [16] Lupták, M. Study of the measuring and scanning methods in the processes of the cutting and machining with waterjet. In Proc. Metalurgia Junior 05, Den doktorandov HF Košice, 2005. [17] Palko, A., Smrcek, J., Tuleja, P. Koncové efektory pre roboty 1. In: Strojárstvo. roc. 8, c. 12 (2004), s. 56-57. [18] Vasilko, K., Kmec, J. Delenie materiálu : Teória a technológia. Presov: DATAPRESS Presov, 2003. 232 s. ISBN 80-7099903-9. Acknowledment The authors would like to acknowledge the support of Scientific Grant Agency of the Ministry of Education of Slovak Republic, Commission of mechanical engineering, metallurgy and material engineering, for their contribution to projects: – 1/1095/04 – Optimization of abrasive waterjet cutting technology process, by mathematical and experimental planning, (70%) – 1/2209/05 Developing method for rising reilability and safety of production systems operation.(30%) TFH Wildau, Wissenschaftliche Beiträge 2006 Authors Assoc. prof., Ing. Stanislav Fabian, PhD. Faculty of Manufacturing Technologies, Technical University of Kosice with the seat in Presov, Department of Technology System Operation, Štúrova 31, 080 01 Prešov, Slovakia [email protected] Ing. Sergej Hloch, PhD. Faculty of Manufacturing Technologies, Technical University of Kosice with the seat in Presov, Department of Technology System Operation, Štúrova 31, 080 01 Prešov, Slovakia [email protected] TFH Wildau, Wissenschaftliche Beiträge 2006 119 Primary Energy Balance and Energy Pay-back Time after Insulating an Outer Wall – Comparing Northern Europe and the Eastern Mediterranean Region Lutz B. Giese, Asude Eltez 1 Introduction According to data from German Ministry of Economy [1], in 2000 the primary energy demand of the FR Germany amounted to 14278 PJ or 3966 TWh (primary energy consumption world-wide in 2000: approx. 410 EJ). The contribution from Renewable Energy Sources amounted in Germany that time totally only 2%. During the same period, Germany shared 4% of the anthropogenous emission of the greenhouse gas CO2 (24 Gtons per year worldwide), while owning only 1.4% of the world’s population (82.3 mill. capita). Furthermore, in 2000 in Germany the final energy consumption amounted to 9197 PJ or 2555 TWh. The private sector shared 27.7% of the final energy consumption. Figure 1 shows that 78% of the private final energy were consumed for space heating, 11% for hot water supply [2]. Thus, around 2000 the German private households consumed approximately 550 TWht for space heating. Still the main part is supplied by centralised or individual heating systems. As specific gross consumption of old-standard buildings, approximately 250 kWh/(m2*a) of final energy (including warm water and losses) can be taken into account. – the drastic lowering of the specific energy consumption (= RUE) is very effective and the first step followed by – the application of Renewable Energy Sources (RES) According to these data, taking a specific annual heat demand of 70 kWh/(m2*a) for space heating plus 12.5 kWh/(m2*a) for hot water into account, by the measures of “Rational Use of Energy” (RUE) the German final energy demand in the private sector could be reduced by minimum 300 TWh annually (same as around 30 bill. norm-m3 of natural gas). As second step, the application of “Renewable Energy Sources” in private buildings can furthermore decrease the demand for fossil fuels. Totally, all those measures may result into a potential to save up to 100 mill. tons of CO2 emission annually in Germany. This paper is to propagate energy conservation as an important tool to save primary energy consumption, in order – to reduce the import of fossil fuels and thus to strengthen the domestic economy, and – to reduce the emission of the greenhouse gas CO2. and thus to decrease the climatic effect. By application of eco-balancing methods and the rules of EnEV 2002, the saving of primary energy and the related energy pay-back time (EPBT) will be estimated after insulating 1 m2 of outer wall (of a private building) with 10 cm of rockwool. Two locations will be compared, (i) Potsdam/ Deutschland and (ii) Izmir/Türkiye. 2 Thermal Performance of Buildings Figure 1: Final energy consumption of private households in Germany in 2001 [2]. In 2002, in Germany the “Energieeinsparverordnung EnEV” was passed by the German Parliament [3] combining the standards of insulation and heating installations. A low-energy standard was fixed for new buildings, annually demanding 70 kWh/(m2*a) of useful energy with respect to German standard climatic conditions: heating-degree days Gt,19,10 = 2900 Kd/a, – inner temperature θi = 19°C – heating-end temperature θe,HE = 10°C – duration of the heating period nd;HP = 185 d/a Some adaptation of existing building to new standards is obligatory, too. Comparing to the state of the art, 120 Before estimating the primary energy savings and their effect to the eco-balance, the thermal performance of buildings should be explained first with special respect to the transmission heat losses (republished from [4], compare [3]). The heat balance of a building is ruled by gains and losses and furthermore by the heat supply. Finally, it has to be defined which items have to be corrected and to be taken into account. Furthermore, it has to be distinguished clearly between final energy and useful energy. 2.1 Losses by Transmission and Ventilation Whenever the inner air temperature θi of a building exceeds the outer air temperature θe, the building looses heat by transmission through all construction units covering the building such as walls, roof and/or ceiling, floor and windows. The losses depend on the heat transmission coefficient U (in W/[m2*K]), TFH Wildau, Wissenschaftliche Beiträge 2006 1 1 U = ------ = ------------------------------R Rs,i + ∑(dj/λR,j) + Rs,e (1) the area Aj and the position (see (1)). Thus, losses through construction units not touching the outer air but lateral and unheated parts of the building are lower and have to be corrected by the factor Fx,j. Summarizing all construction units of a single building including heat bridges (∆UHB), the loss dQT /dt (in W) affected by the temperature difference ∆θ can be calculated using equation (2): dQT /dt = (∑[Uj*Aj*Fx,j] + ∆UHB*∑Aj) * ∆θ j (2) j Where construction units are joining, buildings are changing air by ventilation with the environment and thus are loosing heat. Furthermore, opening the windows and the doors causes ventilation. The volumetric heat capacity of air cair amounts to 0.34 Wh/(m3*K). The volume of the air Vair filling a building amounts to – 3/4 to 4/5 of the outer volume. The air change rate should be – 0.5 to 0.7 per hour, usually old buildings have a higher change rate. Thus, the ventilation heat loss dQV /dt is: dQV /dt = cair * n * Vair * ∆θ (4) The influence of body-heat is higher in private buildings and might reach 25-50% of the internal gains. It can be estimated that the usable share of the electric consumption plus the body-heat nearly is equal to the measured electric consumption in private households. The second source of heat is the solar radiation, which enters seasonally varying the building - mainly through translucent glassing but also partly through opaque construction units. The solar gains dQS,t /dt through all windows of a building (translucent) depend on the orientated specific intensity of the solar radiation IS,or and the window properties as transmissivity of the glassing g, area AW, the latter corrected due to e.g. geometry and frames (factor Fcorr): dQS,t /dt = ∑(IS,or*∑[Fcorr*g*AW]) j (5) j 2.3 Heat Balance of a Building Summarizing all losses (corrected by the factor rT for the reduction of the inner air temperature) and gains TFH Wildau, Wissenschaftliche Beiträge 2006 Qh = rT*(QT+QV) − (ηS*QS+ηi*Qi) (6) For instance annual or monthly heat balances can be calculated in this way. Simplifying it, the heat demand during a period of observation consists of the difference of losses Ql and gains Qg (rT and η can be taken as 0.95): Qh = rT*Ql − η*Qg (7) Replacing the annual heat losses by the specific heat loss coefficients HT and HV (in W/K) and implementing the heating-degree days Gt (see (9)) the following formula is gained: Qh = rT*f*Gt*(HT+HV) − η*(QS+Qi) = 0.95*0.024 kh/d*Gt*(HT+HV) − 0.95*(QS+Qi) (8) Gt = ∑(nd,θ(a),j*[θi−θe]) (9) j Gt,20,15: Æ Inner air temperature θi = 20°C Gt,20,15: Æ Heating end temperature θHE = 15°C (3) 2.2 Gains from Internal Sources and Solar Illumination To overcome those losses, buildings gain heat not only from the heater but also from internal and solar sources. Internal heat gains derive from persons and electric and other consumers within the heated zone. Taking a (total area specific) heat flow dqi /dt such as – 6 W/m2 in commercial buildings or – 5 W/m2 in private buildings into account, the internal gains can be calculated (4). dQi /dt = dqi /dt * Ause (corrected by ηS or ηi) during a period e.g. of one day, the energy budget within this period can be calculated and the additional periodical heat demand Qh can be estimated. 3 Eco-balancing the Rockwool Insulation 3.1 Input Data Sets As model object a small private building with the following properties was taken into account (building: 1 m2 of its outer walls, heating system): Building: single-occupancy house Construction before 1950 date: Floor space: 200 m2 (net) Before q ≥ 200 kWhth/(m2*a); U (wall) = 1.36 W/(m2*K) modernisation: h,old After q = 50 kWhth/(m2*a); U (wall) = 0.31 W/(m2*K) modernisation: h,new Heating system Construction after 1995 date: Type: gas heater, “Brennwert” Distribution: inside the heated area, radiators System 55/45 temperature: Before Primary energy factor eP,old = 1.1(-1.2) modernisation: After Primary energy factor eP,new = 1.5 modernisation: Table 1 shows the calculation of the heat transmission coefficient U for the vertical outer wall consisting of solid bricks with mortar cover (inside and outside) and occasionally insulation layer. According to the results, the transmission heat loss of the wall decreases down to 22.8% if insulated (without respect to heat bridges). 121 ρraw,j Layer λR,j dj hT,new = (Uj,new*Aj*Fx,j + ∆UHB*Aj )/Aj = kg/m m Rs; d/λR W/(m*K) m2*K/W Rs,i - - - 0,130 Mortar 1800 0.015 1,00 0,015 Bricks 1600 0.365 0,68 0,537 Rockwool 100 0.100 0,04 2,500 Mortar 1800 0.015 1,00 0,015 qT,old = rT*f*Gt,20,15*hT,old = 0.95*0.024 kh/d* Rs,e - - - 0,040 3875 Kd/a*1.46 W/(m2*K) = 128.7 kWh/(m2*a) Without insulation 1/U 0.737 U 1.357 With insulation 3.237 3 To evaluate the performance, three different climatic data sets had been taken into account, (i) reference climate Germany, (ii) Potsdam/Berlin climate (Germany), and (iii) Izmir climate (Türkiye). °C °C °C °C °C °C °C °C °C °C °C °C °C Kd/a d Kd/a d Potsdam D -0.9 0.2 3.7 8.0 13.2 16.6 17.9 17.5 13.9 9.4 4.2 0.7 8.7 3989 278 3210 198 Izmir TR 8.3 9.2 11.7 15.3 19.7 23.9 27.0 27.0 23.1 18.6 14.4 10.0 17.4 1410 151 760 75 Table 2. Reference climates (long term monthly average of the daily mean outer air temperature, heating degree days and duration of the heating period, taken from [6], [7] and [8]). Table 2 shows the monthly averages of the daily mean outer temperature, the heating-degree days and the duration of the heating period for the three climates. 3.2 Specific and Total Transmission Heat Losses and Primary Energy Demand Taking the reference climate Germany from table 2 into account, HT (here for 1 m2: ≡ hT) is calculated according to (10) HT = ∑[Uj*Aj*Fx,j] + ∆UHB*∑Aj j with: – Correction factor – Surface area – Heat bridge correction (10) j Fx,j = 1.0 Aj = ∑j A j = 1 m2 ∆UHB = const = 0.1 W/(m2*K) Thus, for the old and new specific transmission heat loss the following results are gained: hT,old = (Uj,old*Aj*Fx,j + ∆UHB*Aj )/Aj = (1.36 + 0.1) W/(m2*K) = 1.46 W/(m2*K) 122 (13) qT,new = rT*f*Gt,19,10*hT,new = 0.95*0.024 kh/d* 0.309 Reference D -1.3 0.6 4.1 9.5 12.9 15.7 18.0 18.3 14.4 9.1 4.7 1.3 8.9 3875 275 2900 185 (12) The related, total transmission heat loss (old and new) within one heating period amounts to: Table 1. Calculation of the heat transmission coefficient U of an vertical, outer building wall (adapted from [5]). Location Jan Feb Mar Apr May Jun Jul Aug Sep Oct Nov Dec Year Gt,20,15 nd Gt,19,10 nd (0.31 + 0.1) W/(m2*K) = 0.41 W/(m2*K) (11) 2900 Kd/a*0.41 W/(m2*K) = 27.0 kWh/(m2*a) (14) Thus, by the insulation the transmission heat loss is reduced down to 21.0%. The related primary energy demand (old and new) amounts to: qP,old = qT,old * eP,old = 128.7 kWh/(m2*a) * 1.1 = 141.6 kWhPE /(m2*a) (15) qP,new = qT,new * eP,new = 27.0 kWh/(m2*a) * 1.5 = 40.5 kWhPE /(m2*a) (16) By insulation, the reduction of the primary energy demand amounts according to (17) to 101.1 kWhPE /(m2*a) (reduction down to 28.6%): ∆qP = qP,old – qP,new = (141.6 – 40.5) kWhPE /(m2*a) = 101.1 kWhPE /(m2*a) (17) 3.3 Primary Energy Content of Rockwool and Energy Pay-back Time Adapting the data from [9], the primary energy content PEI of rockwool amounts to 17.5 MJ/kg. Respecting the – density of rockwool ρ = 50 kg/m3 and – calculating 1 kWh = 3.6 MJ, with PEI = 17.5 MJ/kg ≡ 875 MJ/m3 ≡ 243 kWh/m3 (18) and – respecting the thickness of d = 0.1 m of rockwool insulation – the area specific pei pei = PEI * d = 243 kWh/m3 * 0.1 m = 24 kWh/m2 (19) the energy pay-back time (EPBT) for the rockwool layer can be estimated to amount to pei 24 kWhPE /m2 EPBT = --------- = --------------------------- = 0.24 a 101.1 kWhPE /(m2*a) ∆qP (20) without any respect to additional primary energy demand for mortar and additives. 3.4 EPBT for Rockwool Insulation in Potsdam and Izmir Taking the data from tab. 2 for Potsdam and Izmir into account, the calculations in 3.2 and 3.3 (formulas (10) to (20)) were executed again on those data. TFH Wildau, Wissenschaftliche Beiträge 2006 Tab. 3 shows the results comparing Potsdam in Germany and Izmir in Turkey (plus former results for the reference location Germany). Thus, it can be seen that the EPBT is a function vs. reciprocal specific heat demand. This effect is known from pre-insulated buildings: As lower the initial heat demand is, as longer lasts the (ecological and economical) amortisation of a insulation project. Nevertheless, every decrease of the primary energy consumption and costs is finally feasible. Finally, within half a year also in Izmir the PEI of the rockwool is amortisated. Location Reference D Potsdam D Izmir TR Gt,20,15 Kd/a 3875 3989 1410 Gt,19,10 Kd/a 2900 3210 760 qT,old kWh/m2a 128.7 132.8 46.9 qT,new kWh/m2a 27.0 30.0 7.1 qP,old kWhPE/m2a 141.6 146.1 51.7 10.7 2 qP,new kWhPE/m a 40.5 45.0 ∆qP kWhPE/m2a 101.1 101.1 41.0 EPBT a 0.24 0.24 0.59 Table 3. Input data set and results of total transmission heat losses (per m2), primary energy demand, its reduction and the energy payback time, comparing reference location Germany, Potsdam/Germany and Izmir/Turkey (based on the climatic data from tab. 2) 5 Summary Taking for buildings a specific annual heat demand of 70 kWh/(m2*a) for heating plus 12.5 kWh/(m2*a) for hot water into account, by the measures of “Rational Use of Energy” the German final energy demand in the private sector could be reduced by 300 TWh annually (same as up to hundred Mtons of CO2) (a = year). This paper will summarize some data for Germany compared to Turkey and evaluate the ecological feasibility of a 10 cm thick rockwool insulation of an outer building wall. The energy pay-back time for the locations Potsdam/Germany and Izmir/Turkey will be calculated and interpreted. Furthermore, this paper is to propagate energy conservation as an important tool (i) to save primary energy consumption, in order (ii) to reduce the import of fossil fuels and thus to strengthen the domestic economy, and (iii) to reduce the emission of the greenhouse gas CO2 and thus to decrease the climatic effect. Keywords Energy Pay-back Time, Insulation, Energy Conservation, Rational Use of Energy 4 Conclusions Coservation of energy – also called as “Rational Use of Energy” (RUE) – in private households provides a high potential for saving of energy. Still the consumption of buildings is too high and furthermore the contribution of RES is too low. Space heating shares e.g. in Germany still 40% of the final energy consumption [10]. In private buildings, more than 4/5 of the energy consumption are heat. Rational Use of Energy is a very effective tool to reduce the greenhouse gas emissions, to decrease the annual energy costs and furthermore it prepares the integration of Renewable Energy Sources. The planner who aims at optimizing the energy demand of buildings should follow the two steps, (i) step 1 is to decrease the building’s demand and increase the efficiency of the heating system - Æ RUE – and then (ii) step 2 is to apply Renewable Energy Sources - Æ RES. The rules of the German EnEV can be applied successfully on existing buildings (compare [11]. However, the up-coming EU directive 2002/91/EC [12] is expected to stimulate the development towards improving the standards also of the existing buildings. A building energy passport will be obligatory. The results of the ecological balance give a clear evidence that insulation of outer walls can be an ecoeffficient and sustainable way to avoid emissions, if the work is properly done and convenient materials are used. Furthermore, from the view of the specific investment RUE measures often are very cost efficient and convenient as first step to reduce the emissions. TFH Wildau, Wissenschaftliche Beiträge 2006 Acknowledgement The authors would like to thank very much the the German Academic Exchange Service DAAD, the University of Applied Sciences TFH Wildau, and the Mugla University for the provided supports. This paper is published related to the Energy Symposium in the Mugla University in May 2006. References [1] BMWi (ed.), Energie Daten 2002 – Nationale und internationale Entwicklung, Federal Ministry of Economy and Technology, 2002 [2] BINE, Energiesparen zu Hause, BasisEnergie, 9, Fachinformationszentrum Karlsruhe, 2001 [3] Gierga, M., EnEV Energieeinsparverordnung, Arbeitsgemeinschaft Mauerziegel im Bundesverband der Deutschen Ziegelindustrie e.V., 2002 [4] Giese, L.B., Estimating the Standard Heat Requirement of Buildings Using Graphical and Other Methods to Prepare the Application of RUE and RES Measures.- In: Kaplanis, S.N. & Kostoulas, A. [ed.]: Proc. Int. Conf. on ‚The Integration of the Renewable Energy Systems into the Building Structures Patras/ Greece: 88-94; Patras, 2005. [5] Sohn, M., & Fürkus, S., Beratungsbericht über die Energieeinsparung vor Ort für das Zweifamilienhaus Giese, [unpublished], 2001 123 [6] DIN V 4108-6, Waermeschutz und Energie-Einsparung in Gebaeuden: Waermetechnisches Verhalten von Gebaeuden – Teil 6: Berechnung des Jahresheizwaerme- und des Jahresheizenergiebedarfs, Beuth Verlag, 2003 [7] http://www.stadtklima.de [8] Lemke, K., Untersuchungen zur Regenerativen Energieversorgung der IYTE-Universitaet in Izmir/Tuerkei, Diploma Thesis FHTW Berlin, 2003. [9] http://www.architektur.tu-darmstadt.de/buildingmaterials [10] Pistohl, W., Handbuch der Gebaeudetechnik, 2, Werner Verlag, 1998 [11] Loehlein, U. (ed.), EnEV unter Beruecksichtigung der Bestandsimmobilie, Hammonia, 2002 [12] Directive 2002/91/EC, (on the) Energy Performance of Buildings (from 16 December 2002), European Parliament and Council, 2002 Authors Lutz B. Giese, Dr. rer. nat. Institut für SolareEnergieTechnik (SET) am TWZ e.V., an der Technischen Fachhochschule Wildau [email protected] Asude Eltez, Ass. Prof. Dr. (PhD) Faculty of Engineering, Mugla University Mugla/Türkiye [email protected] 124 TFH Wildau, Wissenschaftliche Beiträge 2006