masterarbeiten 2011

Transcription

masterarbeiten 2011
STUDIUM
Masterarbeiten 2011
HSR Hochschule für Technik Rapperswil ■ Oberseestrasse 10 ■ Postfach 1475 ■ CH-8640 Rapperswil
Telefon +41 (0)55 222 41 11 ■ [email protected] ■ www.hsr.ch
Vorwort des Prorektors
Im Masterstudium findet eine gezielte Vertiefung der Ausbildung in den Bereichen Technik, Informationstechnologie sowie Bau- und Planungswesen statt. Die
Masterstudierenden erweitern ihre Fachkenntnisse sowie Methoden- und Selbstkompetenzen aufgrund der guten Einbindung in ein Forschungsteam. In der
noch stärker projektorientierten Ausbildung profitieren die Masterstudentinnen
und -studenten von den besten Fachleuten auf ihrem Gebiet. Die Studierenden
wirken aktiv bei Projekten mit, die einen bestehenden Forschungsschwerpunkt
aufweisen, was eine hohe Spezialisierung in diesem Themenfeld ermöglicht. Mit
der Masterarbeit beweisen sie ihre Fähigkeit, eine umfassende Arbeit, die hohen
methodischen sowie konzeptionellen und wissenschaftlichen Ansprüchen gerecht
wird, selbstständig durchzuführen.
Ich freue mich, Ihnen gemeinsam mit den hoch motivierten Masterabsolventen
und -absolventinnen sowie Ihren Betreuern die Abschlussarbeiten vorzustellen.
Überzeugen Sie sich selbst von der Qualität und den Ergebnissen dieser ausserordentlichen Leistungen.
Rapperswil, im März 2011
Jean-Marc Piveteau
Prorektor
3
Examinatoren
Prof. Oliver Augenstein
Prof. Heinz Domeisen
Prof. Dr. Frank Ehrig
Prof. Dr. Markus Henne
Prof. Hansjörg Huser
Prof. Dr. Josef M. Joller
Prof. Dr. Albin Kenel
Dr. Christian Marti
Prof. Matthias Rommel
Prof. Dr. Hansruedi Schneider
Prof. Dr. Joachim Schöffel
Prof. Dr. Guido Schuster
Prof. Peter Sommerlad
Prof. Dr. Jürg Speerli
Prof. Felix Wenk
Expertinnen und Experten
Johannes Abegg
Prof. Dr. Bryan T. Adey
Prof. Dr. Ivar Austvoll
Dr. Hans Bärfuss
Martin Botzler
Dr. Peter Derleth
Ralph Eismann
Dr. Juan Gruber
Hans Gschwend
Dr. Rolf Guldenfels
Dr. Karjoth Günter
Prof. Bernhard Hämmerli
Dr. Klaus Hornberger
Ludger Klostermann
Dierk König
Dr. Guido Lauber
Prof. Dr. Michael Niedermeier
Christoph Ruch
Prof. Dr. Tom Ryen
Nadia Semadeni Wicki
4
Themen, Diplomandinnen und Diplomanden
Master Research Unit Environmental Engineering
Alternative Wasserkraftnutzungen – Abwasserkraftwerk Morgental
Fernando Bonato
8
Fischdurchgängigkeit und Kleinwasserkraft im Kanton Zürich
David Walti
9
Optimierung von Geschiebesammlern
Timotheus Wepf
10
Praxistaugliches Bemessungsverfahren für kombinierte
Pfahl-Plattenfundationen (KPP)
Martin Schierscher
11
Quantifizierung klimatischer Einflüsse auf Porenwasserspannungen in
ungesättigten Böden
Jan Amstutz 12
Runout analysis of rapid, flow-like landslides
Philipp Fitze
13
Sanierung Töss Orüti – Steg
Stefanie Berchtold
14
Thermische und optische Charakterisierung von Parabolrinnenkollektoren
Marco Larcher15
Traglastversuche an hochfesten Stahlbetonstützen
Gion Blumenthal
16
Master Research Unit Innovation in Products, Processes and Materials
Auslegung und Aufbau einer automatischen Laserschweissanlage
Dominique Martin
18
Bewertung des Einsatzes von Simulationstools zur Auslegung von
dreidimensionalen, metallfolienhinterspritzten Kunststoffbauteilen
Thomas Reber
19
Machbarkeitsstudie zum Dampfschiff «Schaffhausen»
Roman Frei
20
Master Research Unit Public Planning
Vergleich zwischen einzelbauwerk- und netzfokussierten Erhaltungsstrategien
für Verkehrsinfrastrukturen am Beispiel der A19 bei Grengiols
Ulrich Stüssi
22
Vision Lachen 2030
Reto Rogger
23
5
Themen, Diplomandinnen und Diplomanden (Fortsetzung)
Master Research Unit Sensor, Actuator and Communication Systems
Efficient Implementation and Evaluation of Methods for the Estimation of Motion
in Image Sequences
Robert Hegner
26
Energieeffiziente Kompression von Multi-Kavitäten-Druckdaten in Echtzeit
Silvan Forrer
27
Kopfgestenerkennung mit 3D-Beschleunigungs- und Drehratensensoren
Mario Jurcevic
28
Master Research Unit Software and Systems
6
C3P0
Thomas Corbat
30
Conflict Detection and Resolution of XACML Policies
Florian Huonder
31
DeepSpace-8
Pascal Kesseli
32
Optimizing XACML Policies
Stefan Oberholzer
33
ReDHead
Lukas Felber
34
Scala Refactoring
Mirko Stocker
35
Transcompiler-Infrastruktur
Martin Seelhofer
36
TrueSense in the Cloud
Roland Krummenacher
37
Master Research Unit Environmental Engineering
Die MRU Environmental Engineering realisiert interdisziplinäre Forschungsprojekte
aus den Schwerpunkten «Bauingenieurwesen», «Technischer Umweltschutz» und
«Erneuerbare Energien». Die MRU verfügt über ein Forschungsteam aus allen Sparten der Naturwissenschaften und des Engineering, von dem die Masterstudierenden
profitieren.
An der MRU beteiligte Institute
Die MRU «Environmental Engineering» wird von den folgenden Instituten der HSR
gemeinsam getragen und zentral koordiniert:
–– Institut für Bau und Umwelt IBU
–– Institut für Energietechnik IET
–– Institut für Umwelt- und Verfahrenstechnik UMTEC
–– Institut für Solartechnik SPF
7
DiplomandFernando Bonato
ExaminatorProf. Dr. Jürg Speerli
ExperteDr. Guido Lauber, Emch+Berger AG, Spiez
Master Research Unit
Environmental Engineering
Projektpartner
Rüesch Engineering AG, Herisau, AR
Fernando
Bonato
Alternative Wasserkraftnutzungen – Abwasserkraftwerk Morgental
Ausgangslage: Im Rahmen der Förderung der erneuerbaren Energien werden vermehrt auch Trinkwasser- und Abwasserkraftwerke geplant und realisiert. Abwasserkraftwerke können neben der Erzeugung von elektrischer Energie auch einen
wichtigen Beitrag zu Gunsten der Gewässerqualität leisten.
Aufgabenstellung: In dieser Masterarbeit sollen in einer ersten Phase die technologischen und kommerziellen Entwicklungsmöglichkeiten von Trinkwasser- und Abwasserkraftwerken aufgezeigt werden. In einer zweiten Phase soll ein Abwasserkraftwerk, welches die Ableitung des gereinigten Abwassers der ARA Hofen bis zur ARA
Morgental beinhaltet, ausgearbeitet werden. In einer dritten Phase soll die Sanierung
des Bergerbachs, welcher ein Teil des Projektgebietes entwässert, geplant werden.
Situationsplan Projektgebiet
Schema Toskammer
Ein neuer Querschnitt des Bergerbachs
8
Ergebnis: Die Untersuchungen haben unter anderem ergeben, dass Trink- und Abwasserkraftwerke eine sehr positive Umweltbilanz aufweisen, da sie in bestehende Infrastrukturen integriert werden können. Neben der ARA Hofen befindet sich
die Wasserfassung des geplanten Abwasserkraftwerks. Eine 5 km lange, erdverlegte
Druckleitung mit einem Durchmesser von 700 mm führt das gereinigte Abwasser bis
zur Zentrale, welche direkt neben dem Areal der ARA Morgental liegt. In der Zentrale wird eine vertikale, vierdüsige Peltonturbine mit einer Leistung von 1.1 MW angeordnet, welche eine jährliche Stromproduktion von ca. 4.1 GWh aus erneuerbarer
Energie erzeugt. Die Gestehungskosten belaufen sich auf 10.6 Rp/kWh. Für den Fall,
dass die Turbine nicht in Betrieb genommen werden kann, wird parallel zur Turbine eine Bypassleitung eingerichtet. Die hauptsächliche Energieumwandlung erfolgt
dann durch ein leistungsfähiges Ringkolbenventil mit elektrischem Regler, welches
ebenfalls als Druckstossminderung eingesetzt werden kann. Das durch den Bypass
abgeleitete Wasser gelangt in die Toskammer, wo die restliche Energie des Wassers
abgeleitet wird. Der Bergerbach wurde untersucht und die Ergebnisse zeigen, dass
er nicht hochwassersicher ist und verschiedene ökologische Defizite aufweist. Als Lösungsvorschlag für den Bergerbach wurde eine neue, naturnahe Gerinnegeometrie
dimensioniert, welche aufgrund der Schutzziele für ein HQ30/ HQ100 die beste Variante darstellt, da sich so Synergien zwischen ökologischer Aufwertung und Hochwasserschutz nutzen lassen. Mit den vorgeschlagenen Massnahmen im Bergerbach wird
ein genügender Hochwasserschutz gewährleistet und das Ökosystem für Pflanzen
und Tiere wieder hergestellt.
DiplomandDavid Walti
ExaminatorDr. Christian Marti
ExperteNadia Semadeni Wicki, Axpo AG, Baden
Master Research Unit
Environmental Engineering
Projektpartner
Baudirektion Kanton Zürich; Amt für Abfall, Wasser,
Energie und Luft (AWEL)
David
Walti
Fischdurchgängigkeit und Kleinwasserkraft im Kanton Zürich
Nicht fischgängiges Absturzbauwerk am Ellikerbach bei Ellikon
Ausschnitt aus dem Übersichtsplan der zu sanierenden Absturzbauwerke (rot: 1. Priorität, gelb: 2. Priorität, grün: 3. Priorität)
Ausgangslage: Das revidierte Bundesgesetz über den Schutz der Gewässer (Gewässerschutzgesetz GSchG), welches zum 1. Januar 2011 in Kraft getreten ist, verfolgt
unter anderem die Absicht, der längst bestehenden Forderung der Fischdurchgängigkeit mit finanziellen Anreizen einen neuen Umsetzungsschwung zu verleihen. Es
verpflichtet sämtliche Kantone, bis Ende 2012 eine Übersicht über die zu sanierenden
Gewässerabschnitte und Wasserkraftanlagen inklusive erster Massnahmevorschläge
zu erarbeiten. Der Kanton Zürich will zu diesem Zweck in einem ersten Schritt das
rund 400 km umfassende kantonale Gewässernetz untersuchen. Bei grösseren Abstürzen sind die kantonalen Behörden neben der Problematik der Fischdurchgängigkeit immer wieder mit der Frage konfrontiert, ob im Sinne der Förderung erneuerbarer Energien ein Kleinwasserkraftwerk betrieben werden könnte. Zur Beurteilung
der eingereichten Nutzungsgesuche will der Kanton Zürich eine Übersicht über die
Abstürze erarbeiten, bei welchen aufgrund der Absturzhöhe und Wasserführung
tatsächlich ein wirtschaftlich interessantes und nutzbares Potential vorhanden ist.
Vorgehen: Im Rahmen dieser Studie werden die kantonalen Fliessgewässer auf
ihre Fischdurchgängigkeit untersucht. Dazu wird das Gewässernetz nach Auswertung der vorhandenen Vermessungsdaten sowie Festlegung der Kriterien bezüglich
Fischdurchgängigkeit begangen und die Hindernisse für die Fischwanderung werden aufgenommen. Mit Hilfe eines Bewertungskonzeptes werden die Abstürze und
Bauwerke anschliessend in verschiedene Sanierungsprioritätsstufen bezüglich Fischdurchgängigkeit eingestuft. Weiter wird bei den grösseren Abstürzen untersucht, ob
sich diese aufgrund der Absturzhöhe und Wasserführung zur Nutzung von Kleinwasserkraft eignen. An potentiellen Standorten bezüglich Kleinwasserkraftnutzung werden anschliessend die Jahresproduktionen berechnet. Im letzten Teil werden konzeptionelle Überlegungen zur Projektierung solcher Kleinwasserkraftanlagen gemacht.
Ergebnis: Die Untersuchung hat ergeben, dass die kantonalen Fliessgewässer zahlreiche Hindernisse für die Fischwanderung aufweisen. In den untersuchten Gewässerabschnitten fallen 90 Absturzbauwerke in die erste Prioritätsstufe und sind dringend
zu sanieren. Zudem wurde aufgrund der Ermittlung der Jahresproduktionen ersichtlich, dass im Kanton Zürich noch sechs interessante Standorte zur Kleinwasserkraftnutzung vorhanden sind.
Potentieller Standort einer Kleinwasserkraftanlage an der Glatt bei
Glattfelden
9
DiplomandTimotheus Wepf
ExaminatorProf. Dr. Jürg Speerli
ExperteDr. Guido Lauber, Emch+Berger AG, Spiez
Master Research Unit
Environmental Engineering
Timotheus
Wepf
Optimierung von Geschiebesammlern
Versuchsreihe zur Optimierung der Funktionsweise von Geschiebesammlern
Ausgangslage: Zum Schutz vor Überschwemmungen im Bereich eines Schwemmkegels wird durch technische Massnahmen das Geschiebe im Oberlauf zurückgehalten. Diese Geschiebesammler haben oft eine Dosierungsfunktion. Das heisst, dass
das Geschiebe temporär zurückgehalten und bei abklingender Hochwasserwelle
ausgespült wird. Daraus ergeben sich zwei Probleme: Im Zeitabschnitt des temporären Rückhalts ergeben sich Erosionserscheinungen im Unterlauf. Weiter konnte in
Modellversuchen beobachtet werden, dass bei fehlendem Schwemmholz der Geschiebesammler bei abklingender Hochwasserwelle grösstenteils entleert werden
kann. Eine Überschwemmung und Übersarung im Unterlauf kann die Folge sein.
Versuchsstand an der HSR Hochschule für Technik Rapperswil
Modellversuch zur Rückhaltewirkung der Sortiersperre
Sortiersperre am Palanggenbach im Kanton Uri
10
Vorgehen: Es ergeben sich vier Anforderungen an die Funktion eines Geschiebesammlers. Erstens soll ein übermässiger Austrag bei abklingender Hochwasserwelle verhindert werden. Zweitens soll ein Geschiebeaustrag von feineren Fraktionen
während des Ereignisses gewährleistet werden. Drittens soll der Geschiebetransport
bei kleineren Ereignissen nicht eingeschränkt werden und viertens der finanzielle
Aufwand für den Unterhalt bzw. die maschinelle Räumung des Geschiebesammlers möglichst gering sein. Für die Modellversuche wurde eigens ein Versuchsstand
erstellt. Verschiedenste Typen von Ausleitbauwerken von Geschiebesammlern wurden getestet und die Erreichbarkeit der Ziele untereinander verglichen. Die Ausleitbauwerke unterscheiden sich in der Funktion der Dosierung und Filterung. Unter
Filterung wird ein selektiver Rückhalt von groben Komponenten verstanden, wobei
feine Komponenten ungehindert durchdriften können. Die Untersuchung umfasste
Modellversuche mit einer Sortiersperre (Filterung), einer Grunddole (Dosierung) und
einer gesteuerten Schütze (Dosierung).
Ergebnis: Mit Dosiersperren können die angestrebten Ziele nicht erreicht werden.
Die Modellversuche zeigten, dass die Ersetzung der Dosierung durch die Filterung
entscheidende Vorteile bringt. Je nach Stababstand kann die Sperre für kombinierte Schwemmholz- und Geschiebeführung oder reine Geschiebeführung optimiert
werden. Durch die Filterung kann ein teilweiser Geschiebetrieb permanent aufrechterhalten werden. Ein übermässiger Geschiebeaustrag bei einer abklingenden Hochwasserwelle kann durch die mechanische Rückhaltewirkung effektiv verhindert werden. Die Funktion der Sortiersperre bei einem Schwemmholzanfall bedarf weiterer
Untersuchungen. Die Selbstentleerung und die Spülung sowie die Durchgängigkeit
bei kleineren Ereignissen soll zukünftig genauer analysiert werden.
DiplomandMartin Schierscher
ExaminatorProf. Dr. Hansruedi Schneider
ExperteDr. Rolf Guldenfels, Bundesamt für Verkehr, Bern
Master Research Unit
Environmental Engineering
Martin
Schierscher
Praxistaugliches Bemessungsverfahren für kombinierte Pfahl-Plattenfundationen (KPP)
Analyse des Tragverhaltens mit der FEM zur Herleitung eines praxistauglichen Bemessungsverfahrens
Ausgangslage: Die Kombinierte Pfahl-Platten-Gründung (KPP) ist eine geotechnische
Verbundkonstruktion, welche sowohl die Tragwirkung der Platte wie auch diejenige
der Pfähle berücksichtigt. Diese Gründungsform wird in der Schweiz selten als KPP
bemessen, sondern als reine Pfahlfundation. Ein Grund dafür ist das unverständliche
Bemessungskonzept für KPP in der Norm SIA 267.
Bild 1: Die Fundation von schweren Hochhäusern erfordert oft den
Einsatz von reinen Pfahlgründungen oder als wirtschaftliche
Alternative eine KPP
Bild 2: Komplexe Interaktion der beiden Gründungselemente Pfahl und
Platte bei einer kombinierten Pfahl-Platten-Gründung (KPP)
Vorgehen: Das Tragverhalten einer KPP wird massgeblich durch die Steifigkeit der
beteiligten Elemente beeinflusst. Diese können mit bekannten Ansätzen berechnet
werden. Die Koppelung der beiden Teilsysteme erfolgt mithilfe eines Interaktionsfaktors, welcher die gegenseitige Beeinflussung der Elemente erfasst. Für die Bemessung einer KPP stehen unterschiedliche Verfahren zur Verfügung. Es muss zwischen
numerischen 3D-FE-Verfahren und numerischen oder analytischen Näherungsverfahren unterschieden werden. Für das in dieser Arbeit geforderte Handberechnungsverfahren kommt nur ein analytisches Näherungsverfahren in Frage. Die im Literaturstudium zusammengetragenen Bemessungsverfahren weisen teilweise grössere
Abweichungen zu den Resultaten des numerischen 3D-FE-Verfahrens auf. Anhand
des Ansatzes von Randolph wurde ein praxistaugliches Bemessungsverfahren entwickelt, welches als Eingabegrössen die Steifigkeit der beteiligten Elemente und
einen Interaktionsfaktor benötigt. Die Berechnung der Eingabewerte konnte praxistauglich vereinfacht und in parametrisierten Diagrammen dargestellt werden. Die
Überprüfung des neuentwickelten Bemessungsverfahrens erfolgte anhand von drei
Beispiel-KPPs. Es konnte in allen Fällen eine wesentliche Verbesserung der Genauigkeit erreicht werden. Das neue Bemessungsverfahren wurde anschliessend in Anwendungsbeispielen zur Berechnung von bereits ausgeführten und instrumentierten
KPPs herangezogen. Ein Vergleich zwischen den numerischen 3D-FE-Berechnungen,
dem Bemessungsverfahren und den effektiven Messwerten weist eine ausreichend
genaue Übereinstimmung auf.
Fazit: Es hat sich gezeigt, dass im Bereich der KPP noch einiges optimiert werden
kann. Es wird empfohlen, den Abschnitt über die KPP in der Norm SIA 267 zu überarbeiten. Das in dieser Arbeit entworfene Bemessungsverfahren zeigt auf, dass ein
praxistauglich vereinfachtes Verfahren eine genügende Genauigkeit erreichen kann.
Eine vermehrte Anwendung der KPP in der Schweiz ist allein aus wirtschaftlicher
Sicht erstrebenswert. Durch ein geeignetes Pfahllayout kann zusätzlich auch die Anfälligkeit der Gründung gegen Verkippen und Setzungsdifferenzen reduziert werden.
Bild 3: Querschnitt durch eine 3D-FE-Berechnung einer KPP mit 16
Pfählen
11
DiplomandJan Amstutz
ExaminatorProf. Dr. Hansruedi Schneider
ExperteDr. Rolf Guldenfels, Bundesamt für Verkehr, Bern
Master Research Unit
Environmental Engineering
Jan
Amstutz
Quantifizierung klimatischer Einflüsse auf Porenwasserspannungen in
ungesättigten Böden
Rutschung in Pontresina GR, 04.07.2010 (Quelle: Kanton Graubünden)
Ausgangslage: Hanginstabilitäten gehören zu den häufigsten Naturgefahren der
Schweiz. Insbesondere die oberflächennahen Rutschungen werden meist durch
heftige Niederschlagsereignisse ausgelöst. In der klassischen Geotechnik wird angenommen, dass der Böschungsbruch durch das Ansteigen des Grundwasserspiegels verursacht wird. In den oberflächennahen Zonen von steilen Hängen ist jedoch
meist gar kein Grundwasserspiegel vorhanden. Deshalb muss ein grosser Teil der
Rutschungen auf eine andere Ursache zurückzuführen sein. In ungesättigten Böden
haben Porenwasserspannungen einen wesentlichen Einfluss auf die Böschungsstabilität. Die sogenannten Saugspannungen verleihen dem ungesättigten Boden eine
scheinbare Kohäsion. Durch Infiltration von Regenwasser wird diese scheinbare Kohäsion im Boden zerstört. Dieser Vorgang kann die Böschungsstabilität so stark reduzieren, dass eine Rutschung ausgelöst wird.
Vorgehen: Aufgrund von hochaufgelösten Niederschlagsprognosen und lokalen Böschungsneigungen wurde ein regionales Hangrutschvorhersagemodell entwickelt.
Basierend auf gut dokumentierten Ereignissen konnte überprüft werden, ob dieses
Modell die Gefahr zeitlich und örtlich richtig einschätzt. Des Weiteren wurden Laboruntersuchungen durchgeführt mit dem Ziel, die sich zeitlich verändernden Porenwasserspannungen in ungesättigten Böden als eine Folge der Infiltration von Regenwasser zu quantifizieren. Die Ergebnisse der Infiltrations- und Evaporationsversuche
wurden mit den Resultaten einer FE-Modellierung verglichen.
Hangrutschvorhersage aufgrund der Niederschlagsprognosen
COSMO-7
Tensiometermessungen beim Infiltrationsversuch im physikalischen
Modell
12
Ergebnis: Es wurde gezeigt, dass die oberflächennahen Rutschungen im Fall Napf
2005 und teilweise auch im Fall Appenzell 2002 aufgrund der hochaufgelösten Niederschlagsprognosen COSMO-7 und den regionalen Böschungsneigungen gemäss
dem digitalen Höhenmodell DHM25 prognostizierbar waren. Bei den Prognosen zum
Ereignis Appenzell 2002 wurden die Niederschlagsintensitäten unterschätzt. Dies ist
der Grund, weshalb die Rutschungen in diesem Fall nur teilweise vorausgesagt werden konnten. Aufgrund eines physikalischen und numerischen Modells konnten die
klimatischen Einflüsse auf Porenwasserspannungen beim Bodenmaterial «Sand von
Teufen» quantifiziert werden. Es hat sich herausgestellt, dass die Resultate der FEModellierung bei bekannten Bodeneigenschaften relativ gut mit Messergebnissen
des physikalischen Modells übereinstimmen.
Graduate Candidate
Philipp Fitze
ExaminerProf. Dr. Hansruedi Schneider
Co-Examiner
Dr. Rolf Guldenfels, Bundesamt für Verkehr, Bern
Master Research Unit
Environmental Engineering
Project Partner
University of British Columbia, Vancouver
Philipp
Fitze
Runout analysis of rapid, flow-like landslides
A review of common methods and back-analysis of two examples
Introduction: A growing population and a need for natural resources is resulting
in new developments on or below unstable slopes. This trend and more extreme
weather conditions are responsible for an increasing number of landslides, resulting
in huge socioeconomic losses. Debris flows, debris avalanches, rock avalanches, and
flow slides are amongst the most dangerous landslides. They are extremely rapid and
cause significant destruction along their path, often far from their origin.
Hazard analysis of flow-like landslides, consisting of a stability analysis
and, very important, a run-out analysis
USGS debris-flow experiments used for numerical back-analysis
Result of the numerical runout simulation of the Goldau rock avalanche,
1806, Switzerland
Objective: Runout analysis, used for the prediction of landslide motion and its effects, is a very important assessment component for the management of landslide
risks. The overall objective of this thesis is to present a broad view of the post-failure
motion of landslides. Different runout approaches are discussed and applied to the
USGS debris flow experiments and the case study: the Goldau rock avalanche. The
ultimate goal, however, is the creation of a substantial database of calibrated input
parameters for the numerical models. This database may in future be a useful tool
for predicting landslides.
Result: Runout prediction methods can be empirical or analytical. The empirical
methods use correlations of real events to estimate the runout distance, but they
are generally not capable of estimating the intensity parameters, and show a large
scatter. In sensitive areas it is recommended to use the more rigorous analytical approaches which are capable of accounting for local geometry and materials. Analytical approaches include the sliding block model and depth-averaged continuum
dynamic models. Both models were tested and used in this work. For the continuum
dynamic models, DAN and DAN3D were used; in the former, the landslide motion
is simulated along a user prescribed path and in the latter, across three-dimensional
terrain. These models are capable of accounting for strain-dependent, non-hydrostatic internal stresses, material entrainment; and varying rheologies along the path.
They are efficient and have been tested against and back-calculated full-scale tests,
showing good results. The back-calculations for the USGS debris-flow experiments
and the Goldau rock avalanche performed in this work confirm the capability of
DAN and DAN3D to model a large variety of flow-like landslides. Since these models
are based on the «equivalent fluid» approach, a hypothetical landslide mass based
on a rheological relationship, typical patterns regarding the rheology and motion
mechanisms of different landslides have to be identified through back-calculation
of real events. Some typical patterns of debris flow and rock avalanches have been
identified in this work: self-channelization in debris flows; the lubricating effect of
eroded liquefiable path material; and a mud surge ploughed on the margins in rock
avalanches, all resulting in a larger impact area. The back-calculated rheology-parameter in this work, together with other reported values, can be used for a forward
prediction of the runout of landslides in similar environments.
13
DiplomandStefanie Berchtold
ExaminatorDr. Christian Marti
ExperteJohannes Abegg, Flussbau AG, Zürich
Master Research Unit
Environmental Engineering
Projektpartner
Baudirektion Kanton Zürich; Amt für Abfall, Wasser,
Energie und Luft (AWEL)
Stefanie
Berchtold
Sanierung Töss Orüti – Steg
Variantenstudium und Vorprojekt
Ausgangslage: Im Zuge der grossen Gewässerkorrektionen wurde die Töss Mitte des
19. Jahrhunderts stellenweise begradigt und eingeengt. Um der Tiefenerosion entgegenzuwirken, wurden vorwiegend im hinteren Teil der Töss Schwellen errichtet.
Aus heutiger Sicht führten diese Massnahmen u.a. zu einem ökologisch verarmten
und monotonen Fliessgewässer. Zudem ist die Hochwassersicherheit nicht gegeben.
Situation
Aufgabenstellung: Für den rund 1.8 km langen Streckenabschnitt Orüti – Steg soll
ein Sanierungsvorschlag auf Stufe Vorprojekt ausgearbeitet werden. Der Sanierungsvorschlag soll u.a. einen differenzierten Hochwasserschutz gewährleisten,
sowie eine ökologische Aufwertung beinhalten, welche die Vorgaben des neuen
Gewässerschutzgesetzes bezüglich Durchgängigkeit und Raumbedarf erfüllt. In diesem Abschnitt soll zudem die Geschiebetransportkapazität erhöht werden. Diese
Anforderungen werden unter folgenden Randbedingungen gestellt: geringe mittlere
Abflüsse, verhältnismässig grosse Abflüsse bei Hochwasser sowie jährliches Trockenfallen der Töss. Basierend auf bestehenden Gerinnevermessungen, hydrologischen
Angaben und einer Geschiebehaushaltstudie der Töss wurden sechs Varianten zur
Sanierung der Töss mit den oben genannten Zielen ausgearbeitet. Anschliessend
wurden die sechs Varianten verglichen und bewertet. Die Bestvariante «Nachhaltigkeit» wurde schliesslich auf Stufe Vorprojekt ausgearbeitet.
Ergebnis: Die Strecke Orüti – Steg weist sowohl hochwasserschutztechnische als auch
ökomorphologische Defizite auf. Mit der Bestvariante «Nachhaltigkeit» werden die
Defizite in diesem Abschnitt bestmöglich und unter Berücksichtigung der bestehenden Eigenheiten behoben. Die Bestvariante enthält folgende Massnahmenelemente:
Töss im Ist-Zustand mit Steinmantelsperre
–– Gerinneverbreiterungen
–– Lenkbuhnen zur Konzentration des Abflusses
–– Aufgelöste unstrukturierte Blockrampen
–– Entfernung von Schwellen und Steinmantelsperren
–– Einbau von ingenieurbiologischen Massnahmen zur Abflusskonzentration bzw.
zur Aufwertung der Ökologie
–– Neugestaltung der Mündungsbereiche von Seitenbächen
–– Erstellung eines Biotops
–– Objektschutz bei Hochwasser
–– Natürliche Fischaufstiegshilfen bei Abstürzen
–– Gewässerzugänge für die Bevölkerung
Ausschnitt aus der Situation der Bestvariante; v.l. Objektschutz, Biotop,
entfernte Querverbauung, aufgelöste unstrukturierte Blockrampe
14
Mit den oben vorgeschlagenen Massnahmen können die vorgegebenen Ziele erreicht werden. Die vorgeschlagene Bestvariante kann sowohl aus hydraulischer wie
auch aus ökologischer Sicht ausgeführt werden.
DiplomandMarco Larcher
ExaminatorProf. Matthias Rommel
ExperteRalph Eismann, ETH, Zürich
Master Research Unit
Environmental Engineering
Marco Larcher
Thermische und optische Charakterisierung von Parabolrinnenkollektoren
Einleitung: In meiner Projektarbeit 2 konstruierte ich einen Parabolrinnenkollektor
mit der Bezeichnung PRK1. Die Aufgabe der Masterarbeit bestand darin, diesen Kollektor zu bauen und anschliessend thermisch und optisch zu charakterisieren.
Abbildung 1: Thermisches Modell des Receivers mit allen in EES und
Matlab modellierten Wärmequellen und Wärmeströmen
Abbildung 2: Auf Tracker montierte PRK1, die verwendeten Strahlungsmessgeräte und das Windmessgerät
Aufgabenstellung: Die thermischen Messungen beinhalten eine Wirkungsgradkennlinienmessung (WGK-Messung) und eine thermische Verlustmessung (UL-Messung).
Bei der WGK-Messung soll der Kollektor mit einem Tracker des SPF der Sonne nachgeführt werden, um den Konversionsfaktor sowie die thermischen Verluste (unter
Einstrahlung) messen zu können. Zusätzlich sollen die thermischen Verluste über
die Auskühlung des Receivers ermittelt werden (Nachmessung ohne Solarstrahlung).
Für die optische Charakterisierung ist eine Simulation eines einzelnen Sonnenstrahls
mittels Laser geplant. Anhand der Auftreffpunkte des Laserstrahls auf dem Absorberrohr sollen Rückschlüsse auf die Reflektorgeometrie gezogen werden.
Ergebnis: Der PRK1 wurde zu Beginn der Masterarbeit zusammengebaut. Ein zweiter Testkollektor, der ursprünglich als Messemodell geplant war (PolyTrough1200),
wurde uns von der Firma NEP zur Verfügung gestellt. Für die Verifizierung der thermischen Messungen wurden die Modelle beider Parabolrinnenkollektoren mit den
Programmen Matlab und EES, entsprechend der Abbildung 1, abgebildet. Die Ergebnisse der WGK-Messung waren inkonsistent und führten zu keinen brauchbaren
Resultaten. Verschiedene mögliche Gründe hierfür wurden untersucht (ungenügende Fokussierung der Kollektoren, ungenügend genaue Ausrichtung auf dem Tracker
und insgesamt zu wenige auswertbare Messtage). Für die UL-Messung wurden die
Kollektoren ebenfalls auf dem Tracker montiert. Eine Holzabdeckung wurde über die
Kollektoren gebaut, um während der Nacht den langwelligen infraroten Strahlungsaustausch zwischen Himmel und Kollektor zu unterbinden und so definierte Randbedingungen zu schaffen. Die UL-Messung führte bei beiden Kollektoren zu brauchbaren Resultaten (Abbildung 3). Für die optische Charakterisierung der Kollektoren
wurde ein neuer Messaufbau entwickelt, mit dem der Auftreffpunkt eines senkrecht
zur Kollektorebene eintreffenden Laserstrahls auf dem Absorberrohr bestimmt werden konnte. Aus den Messungen konnten Reflektorbereiche bestimmt werden, die
nicht ausreichend genau orientiert sind. Es ist möglich, aus den Messungen den Anteil der direkten Solarstrahlung abzuschätzen, der nicht auf das Absorberrohr konzentriert wird und so zu optischen Verlusten führt.
Abbildung 3: Auswertung der UL-Messung mit linearer Approximation
und dem theoretischen Verlauf
15
DiplomandGion Blumenthal
ExaminatorProf. Dr. Albin Kenel
ExperteChristoph Ruch, alphabeton AG, Ruswil
Master Research Unit
Environmental Engineering
Gion
Blumenthal
Traglastversuche an hochfesten Stahlbetonstützen
Experimentelle Untersuchung an gedrungenen zentrisch-belasteten Stützen
Ausgangslage: Vorfabrizierte Druckglieder sind heute vom Bau nicht mehr wegzudenken. Die Firma alphabeton AG aus Ruswil produziert solche Druckglieder. Dabei
werden hochfeste Betone mit Zylinderdruckfestigkeiten von über 100 MPa eingesetzt. Der Längsbewehrungsgehalt liegt vielfach über 8 %. Um ihre Produkte weiterzuentwickeln, arbeitet die Firma alphabeton AG mit externen Partnern zusammen.
Spiralbewehrung Ø6, s=24 mm; Zerreissen der Querbewehrung
Bügelbewehrung Ø20, s=300 mm; Ausknicken der Längsstäbe
Runder Prüfkörper mit Rissbild und bei Versuchsende
16
Aufgabenstellung: Untersucht werden soll einerseits das Abplatzverhalten und die
Resttragfähigkeit hochfester Stützen in Abhängigkeit von Bügelabständen und Bügeldurchmessern. Andererseits soll die Wirkungsweise gestossener und verschweisster Bügel analysiert werden. Weitere Variationsparameter sind die Querschnittsform,
der Längs- und Querbewehrungsgehalt, die Querbewehrungsart und die Lasteinleitungsbedingungen. An 52 Traglastversuchen soll das Traglastverhalten von gedrungenen zentrisch-belasteten Prüfkörpern untersucht werden.
Fazit: Die Ergebnisse der Traglastversuche zeigen, dass die Quer- und Längsbewehrung eine Perforationsfläche zwischen Bewehrungsüberdeckungsbeton und Kernbeton erzeugen. Mit zunehmender Perforationsfläche reduziert sich die maximale
Bruchlast des Druckglieds. Nach dem Abplatzen des Überdeckungsbetons kann die
Last nicht gesteigert werden, da zum einen die Restquerschnittsfläche des Betons
kleiner ist und zum anderen der mechanische Bewehrungsgehalt der Umschnürung
zu gering ist. Bei gleichem Bewehrungsgehalt der Umschnürung wirkt eine Querbewehrung mit kleinerem Durchmesser und kleinerem Abstand günstiger als eine
Querbewehrung mit grösserem Durchmesser und grösserem Abstand. Die Längsstauchung des Prüfkörpers beim Zerreissen der Querbewehrung hängt einerseits
vom mechanischen Bewehrungsgehalt der Umschnürung und andererseits vom Bügeldurchmesser ab.
Master Research Unit Innovation in Products, Processes and Materials
Die MRU IPPM beschäftigt sich schwerpunktmässig mit innovativen Entwicklungen
für einzelne Produkte, Systeme oder ganze Anlagen, die den betrieblichen Anforderungen entsprechen. Grundlage für alle Entwicklungsprozesse ist die Anwendung einer Entwicklungssystematik und die Betrachtung des gesamten Produktlebenszyklus
bis zur Produktentsorgung. Ein wichtiger Bestandteil ist hierbei die Kenntnis moderner Fertigungsprozesse und Werkstoffe. Die Entwicklung geschieht in den meisten
Fällen in Zusammenarbeit mit einem oder mehreren Industriepartnern oder im Rahmen öffentlich geförderter Projekte.
An der MRU beteiligte Institute
Die MRU «Innovation in Products, Processes and Materials» (IPPM) wird von den
folgenden Instituten gemeinsam getragen und zentral koordiniert:
–– Institut für Labortechnologie ILT
–– Institut für Mechatronik und Automatisierungstechnik IMA
–– Institut für Produktdesign, Entwicklung und Konstruktion IPEK
–– Institut für Werkstofftechnik und Kunststoffverarbeitung IWK
–– Institut für Anlagen- und Sicherheitstechnik SITEC
17
DiplomandDominique Martin
ExaminatorProf. Heinz Domeisen
ExperteHans Gschwend, Hilti AG, Schaan, FL
Master Research Unit
Innovation in Products, Processes and Materials
Projektpartner
Roth + Co. AG, Oberuzwil, SG
Dominique
Martin
Auslegung und Aufbau einer automatischen Laserschweissanlage
Schema der Anlage
Roboterzelle
Ausgangslage: Die Firma Roth + Co. AG ist ein namhafter Schweizer Produzent von
Temperatursensoren, betreibt ein SCS-zertifiziertes Messlabor für thermische Grössen und ist seit kurzem erstes Primärlabor (designiertes Institut für die Messgrösse Temperatur) der Welt. Für die Herstellung der mechanischen Bauteile für die
Thermosensoren im eigenen Hause verwendet die Firma Roth + Co. AG eine Laserschweissanlage. Diese Anlage konnte bisher nur manuell betrieben werden. Um die
wachsende Nachfrage nach grossen Serien kostengünstig und effizient zu erfüllen,
wurde die Automatisierung der Anlage notwendig. Die bestehende Laserschweissanlage wurde genau analysiert und in einem weiteren Schritt mögliche Konzepte zur
automatisierten Bestückung erarbeitet. Eine der grössten Herausforderungen war
die Abdeckung des stark variierenden Teilespektrums. So sollten mit ein und derselben Anlage Rohre mit einem Durchmesser von 2 bis 30 Millimeter und einer Länge
von 10 bis 440 Millimetern gehandhabt werden können.
Vorgehen: Aufgrund der flexiblen und gut ausbaubaren Möglichkeiten wurde das
Konzept mit einem Industrieroboter gewählt und umgesetzt. Es wurde darauf geachtet, den Roboter mit möglichst wenigen Änderungen in die bestehende Anlage
zu integrieren. Da hier ein Laser der Klasse 4 sowie ein Roboter zum Einsatz kommen, wurde ein spezielles Augenmerk auf die Sicherheit gelegt. So wurde eine Sicherheitssteuerung verwendet, welche ausschliesslich für die sicherheitsrelevanten
Komponenten wie die Überwachung des Zellenzutritts zuständig ist. Zur Steuerung
der Anlage wurde ein Touchpanel eingesetzt. Dieses besitzt selber keine Intelligenz
und dient lediglich zur Darstellung der Zustände der Anlage, sowie zur Eingabe von
Parametern. Um den Prozess optimal betreiben zu können wurde die Programmierung der gesamten Anlage neu realisiert. Die Steuerung der Schweissanlage wird
wie bis anhin auf der SPS ausgeführt. Der Roboter wurde autonom programmiert,
so dass alle Bewegungen und Entscheide von der Robotersteuerung übernommen
werden. Dabei ist die Synchronisation zwischen Roboter und SPS von zentraler Bedeutung.
Ergebnis: Die Anlage wurde komplett aufgebaut und entspricht den Anforderungen.
Sie gewährleistet ein zuverlässiges Arbeiten. Es konnte durchgehend die Sicherheitskategorie 3 realisiert werden. Der Roboter weist die gewünschte Wiederholgenauigkeit auf. Die automatisierte Laserschweissanlage wird der Firma Roth + Co. AG eine
effiziente Produktion der Thermofühler ermöglichen. Damit können bis zu 1440 Teile
in einer Nacht geschweisst werden.
Roboter beim Greifen eines Röhrchens
18
DiplomandThomas Reber
ExaminatorProf. Dr. Frank Ehrig
ExperteLudger Klostermann, Innovatur, Jona
Master Research Unit
Innovation in Products, Processes and Materials
Thomas
Reber
Bewertung des Einsatzes von Simulationstools zur Auslegung von dreidimensionalen,
metallfolienhinterspritzten Kunststoffbauteilen
Unterstützung von Bauteil- und Werkzeugauslegung
Ausgangslage: Für die Herstellung dekorativer, dreidimensionaler Bauteilgeometrien
im Metallfolienhinterspritzen wird zunächst ein Zuschnitt aus der Metallfolie ausgestanzt und dieser anschliessend in einem Tiefziehwerkzeug umgeformt. Im letzten
Arbeitsgang wird dieser Vorformling dann mit Kunststoff in einem Spritzgiesswerkzeug hinterspritzt. Wichtige Bewertungskriterien für die hergestellten Bauteile sind
Faltenbildung, Rissbildung, Verfärbung und Abformung der Konturen. Die Auslegung und Abstimmung der einzelnen Prozessschritte zur Erzielung qualitativ ausreichender Bauteile erfolgt heute experimentell und bedarf einer Vielzahl von Iterationsschleifen, die zeit- und kostenintensiv sind.
Schema des entwickelten Reibwertmessgeräts
Ziel der Arbeit: Realisierung einer «gekoppelten» Simulation des Vorform- und Hinterspritzprozesses mit der Analyse und Bewertung der Einflüsse der Einstellparameter und Werkstoffkennwerte auf die Bauteileigenschaften. Die Werkstoffkennwerte
sind experimentell zu ermitteln und mit Literaturwerten zu vergleichen.
Ergebnis: Die Literaturrecherche hat einerseits gezeigt, dass dieser Prozess in der
Durchgängigkeit so noch nicht simuliert wurde. Andererseits liessen sich nur Werkstoffdaten für vergleichsweise dicke Bleche finden, welche das Verhalten dünner
Bleche ungenau beschrieben. Folgende Punkte wurden experimentell bestimmt:
–– Die Materialkennwerte wurden durch Zugversuche ermittelt.
–– Die Reibwerte wurden mittels eigens entwickelter Apparatur für verschiedenste
Haftvermittler und Metalloberflächen ermittelt.
–– Grenzformänderungskurven wurden durch die ETH Zürich zur Verfügung gestellt
und wurden auf die Zugversuche skaliert.
Zusammenwirken der Einflüsse auf das Metallfolienhinterspritzen
–– Die Dehngrenze für die Martensitbildung und die Oberflächenveränderungen
wurde ermittelt.
Alle Messresultate und Erkenntnisse wurden in Simulationen von Versuchsbauteilen
umgesetzt.
–– Der Einfluss der Parameter auf die Simulation und den Vorformprozess wurde
ermittelt.
–– Die Koppelung der Spritzgusssimulation und der Vorformung wurde realisiert.
–– Der Metallfolienhinterspritzprozess wurde in einer Simulation berechnet.
Simulationsergebnisse des Vorformprozesses für ein Praxisbauteil (oben:
Reales Bauteil, unten: Simulation)
Die Arbeit wurde mit der Umsetzung der Erkenntnisse auf ein Seriebauteil weitergeführt. Es konnte gezeigt werden, dass durch die Simulation vor der Herstellung
die Problemzonen der Umformung der Werkzeuge erkennbar sind. Die Erkenntnisse
wurden abschliessend auf ein Praxisbauteil übertragen. Auch dort wurden realitätsnahe Ergebnisse erzielt.
19
DiplomandRoman Frei
ExaminatorProf. Dr. Markus Henne
ExperteProf. Dr. Michael Niedermeier, Hochschule Ravensburg-Weingarten,
Weingarten
Master Research Unit
Innovation in Products, Processes and Materials
Roman
Frei
Machbarkeitsstudie zum Dampfschiff «Schaffhausen»
Nachbau des Schiffskörpers nach heutiger Bauweise
Ausgangslage: Das Dampfschiff «Schaffhausen» war mit einer Länge von über 44
Metern das grösste auf dem Untersee und dem Rhein eingesetzte Dampfschiff. Es
handelte sich um einen in den Jahren 1912/13 von den Gebrüdern Sulzer entwickelten und gebauten Flachdecker für 400 Passagiere. Während Jahrzehnten verkehrte
die «Schaffhausen» erfolgreich als Kursschiff, bis sie aus wirtschaftlichen Gründen
im Jahre 1967 die letzte Fahrt nach Romanshorn antrat und verschrottet wurde. Die
einst stolze Flotte von insgesamt fünf Dampfschiffen der Schweizerischen Schifffahrtsgesellschaft Untersee und Rhein URh war somit endgültig Geschichte. Endgültig?
Das Originalschiff im Einsatz (Bild aus dem Stadtarchiv Schaffhausen:
www.stadtarchiv-schaffhausen.ch)
CAD: Visualisierung der Stahlstruktur des neuen Dampfschiffes
Strömungssimulation: Vergleich des neuen Schiffskörpers mit dem
Original
20
Ziel der Arbeit: Im Rahmen einer Machbarkeitsstudie sollte der Nachbau der «Schaffhausen» überprüft werden. Dabei galt es, den heutigen gesetzlichen Vorschriften im
Schiffbau sowie den gesellschaftlichen und wirtschaftlichen Ansprüchen Rechnung
zu tragen. Das Ziel dieser Arbeit bestand darin, den Schiffskörper nach moderner
Bauweise zu konstruieren und zu dimensionieren. Weiter sollte die mechanische Festigkeit überprüft werden. Zudem sollte mittels numerischer Strömungssimulation ein
Vergleich des neuen Schiffskörpers zum Original hinsichtlich Widerstandsverhalten
erstellt werden.
Ergebnis: Um den geltenden Krängungsvorschriften gerecht zu werden, wurde der
Schiffskörper um einen Meter verbreitert. Nebst besserer Stabilität im Wasser wird
gleichzeitig das Platzangebot für die Passagiere erhöht. Die tragende Stahlstruktur
wurde mittels CAD dreidimensional konstruiert. Die ursprüngliche Querspant-Bauweise wurde durch die heute gängige Art mit Längsspanten ersetzt. Die Längsfestigkeit wurde überprüft, indem der Querschnitt vom Hauptspant als Biegeträger betrachtet wurde. Zu den maximal zulässigen Zug- und Druckspannungen resultierte
ein Sicherheitsfaktor von über 1,2. Das CAD-Modell diente ausserdem als wichtiges Hilfsmittel für die Gewichtsprognose. Die 70 Tonnen Gesamtgewicht des neuen
Schiffskörpers sind für einen Nachbau unkritisch. Der Formwiderstand des von Wasser umströmten Schiffskörpers wurde mittels Computational Fluid Dynamics (CFD)
ermittelt. Der Wert des neuen Schiffskörpers liegt dabei trotz grösserer Breite und
mehr Tiefgang in ähnlicher Grössenordnung wie jener des Originalschiffes. Die Ergebnisse führen zum Fazit, dass die Konstruktion des Schiffskörpers mechanisch sowie auch bezüglich des Strömungsverhaltens den heutigen Anforderungen gerecht
wird.
Master Research Unit Public Planning
Das Studienziel des «Master in Public Planning» orientiert sich an den Forderungen
einer nachhaltigen Raum- und Landschaftsplanung und umfasst in einem ganzheitlichen Ansatz planerische, kulturelle, wirtschaftliche, technische und soziale Lehrinhalte. An der MRU «Public Planning» werden die Projekte in den Forschungsschwerpunktthemen Siedlungs- und Freiraumplanung, Landschaftsplanung und naturnaher
Tourismus, Verkehrsplanung und Infrastruktur sowie Regionalplanung und Agglomerationspolitik abgewickelt:
An der MRU beteiligte Institute
Die MRU «Public Planning» wird von den folgenden Instituten gemeinsam getragen
und zentral koordiniert:
–– IBU, Institut für Bau und Umwelt
–– ILF, Institut für Landschaft und Freiraum
–– GTLA, Institut für Geschichte und Theorie der Landschaftsarchitektur
–– IRAP, Institut für Raumentwicklung
21
DiplomandUlrich Stüssi
ExaminatorProf. Felix Wenk
Experte
Prof. Dr. Bryan T. Adey, Institut für Bau- und Infrastrukturmanagement (IBI), ETH Zürich, Zürich
Master Research Unit
Public Planning
Ulrich
Stüssi
Vergleich zwischen einzelbauwerk- und netzfokussierten Erhaltungsstrategien
für Verkehrsinfrastrukturen am Beispiel der A19 bei Grengiols
Ausgangslage: Im Kontext der Erhaltung von Verkehrsinfrastrukturen entstehen Kosten unterschiedlicher Art und es gilt, den Ansprüchen verschiedener Interessengruppen zu genügen. Da Verkehrsinfrastrukturen hierzulande praktisch flächendeckend
bestehen, wird ihrer Erhaltung grosse Bedeutung zugeschrieben. Vor diesem Hintergrund gilt es an die aktuelle Forschung anzuknüpfen und bestehende Ansätze
weiterzuverfolgen. Die Grundlage dafür bilden aktuelle Untersuchungen am Institut
für Bau- und Infrastrukturmanagement der ETH Zürich auf dem Gebiet des Erhaltungsmanagements.
Zusammensetzung der Gesamtkosten der Erhaltung
Vergleich Einzelbauwerk- und Netzfokus auf einem Abschnitt; rot die
Objekte eines Abschnitts, blau der Einzelbauwerkfokus und grün der
Netzfokus
Gesamtkosten der Erhaltung [Mio. CHF] des untersuchten Streckenabschnitts
22
Vorgehen: Darauf basierend wird an einem Praxisbeispiel untersucht, wie sich einzelbauwerk- und netzfokussierte Erhaltungsstrategien auf die zu erwartenden Kosten
auswirken und wie, abhängig von Abschnitts- und Regionalcharakteristiken, solche
Strategien optimal festgelegt werden können.
Ergebnis: Die netzfokussierte Erhaltung schnitt im Vergleich der beiden Ansätze, unter Berücksichtigung der Rahmenbedingungen, um rund 15% günstiger ab. Dabei unterschieden sich die beiden Ansätze bedeutend in den Strassennutzerkosten.
Die Objektkosten unterschieden sich in Abhängigkeit des Ansatzes kaum und die
Kosten Dritter lieferten einen praktisch vernachlässigbaren Anteil zu den Gesamtkosten. Eine Gegenüberstellung der Ansätze mit Blick auf die Strassennutzerkosten
zeigte eine erstaunliche Abhängigkeit solcher von Abschnitts- und Regionalcharakteristiken. Diese Abhängigkeit ergibt sich aus der Festlegung der Verkehrsführung
während den Erhaltungsmassnahmen. Für den Einzelbauwerkfokus spricht ein grösserer Freiraum in der Wahl der Verkehrsführung während den Erhaltungsmassnahmen. Der Vorteil des netzfokussierten Ansatzes ist die aufgrund gleichzeitiger
Erhaltungsmassnahmen an mehreren Objekten reduzierte Dauer der Bautätigkeit.
Beide Aspekte beeinflussen die Höhe der Strassennutzerkosten. Unter Berücksichtigung der Vorteile der beiden Ansätze konnten Empfehlungen zur Optimierung der
Erhaltungskosten unter dem Netzfokus formuliert werden. So wird vermutet, dass
beide Aspekte (höherer Freiheitsgrad bei der Wahl der Verkehrsführung beim Einzelbauwerk- und reduzierte Dauer der Bautätigkeit beim Netzfokus) in gewissem
Sinne vereint werden könnten und so in der Erhaltungsplanung mit dem Netzfokus
zu minimalen Gesamtkosten der Erhaltung führen. Auch wenn dieser Ansatz nicht
weitergeführt wurde, bietet er doch eine Grundlage für weitere Untersuchungen
und Anstoss zu weiterer, praxisrelevanter Forschungstätigkeit auf dem Gebiet des
Erhaltungsmanagements.
DiplomandReto Rogger
ExaminatorProf. Dr. Joachim Schöffel
ExperteDr. Klaus Hornberger, Hornberger Architekten AG, Zürich
Master Research Unit
Public Planning
Reto
Rogger
Vision Lachen 2030
Entwicklungsvorschlag für die kommunalen Infrastrukturen auf Basis von Alternativ- und Variantenlösungen
Auftrag: Mit der Vision Lachen 2030 werden Wege und Möglichkeiten einer langfristigen Planung der Landreserven auf dem gesamten Gemeindegebiet von Lachen
aufgezeigt – v.a. für die Realisierung öffentlicher Infrastrukturen wie Schulhäuser,
Sportanlagen und -bauten sowie Kultureinrichtungen. Dabei sollen einerseits die unterschiedlichen Möglichkeiten der künftigen Nutzung des Gemeindegebiets geprüft
werden und andererseits dargestellt werden, wo sinnvollerweise eine Entwicklung
stattfinden sollte, wo Reserven erhalten bleiben müssen oder aufgegeben werden
können und welche Schlüsselgrössen die Siedlungsentwicklung massgeblich beeinflussen. Ferner versteht sich die Vision Lachen 2030 als eine vorbereitende Planung
für die Zonenplanrevision.
Luftbild Lachen 2002
Bevölkerungsprognose für 2030
Vorgehen: 1. Bestandesaufnahmen und -analysen auf der Ebene Parzelle und der
Ebene Siedlungsgefüge der Gesamtgemeinde sowie Prognosen und Annahmen zur
zukünftigen Entwicklung der Gemeinde Lachen. 2. Erarbeitung und Diskussion von
Entwicklungsvarianten: Trendszenarien der Parzellen- und der Landnutzung sowie
städtebauliche Visionen «Siedlungsgefüge Lachen 2030». 3. Analytische Abwägung
durch Konfrontation der Entwicklungsvarianten, Bewertung der Einzelaspekte und
Herausstellen von Planungsentscheiden besonderer Tragweite. 4. Strategischer Entwicklungsvorschlag «Lachen 2030».
Fazit: Die Projektentwicklung erfordert einerseits den Blick auf die betroffenen Parzellen, auf ihre heutige Nutzung, auf brachliegende Nutzungen und auf bestehende
oder geplante Bauten und deren Nutzungszyklen. Andererseits muss das Spektrum
der Entwicklungsmöglichkeiten des gesamten Siedlungsgefüges, künftiger Siedlungserweiterungen sowie der Nutzungsstruktur des Gemeindegebiets überprüft
werden. Beide Blickwinkel werden unter Beizug relevanter Daten und Prognosen zur
zukünftigen Entwicklung der Gemeinde Lachen eingenommen. Bearbeitungsmethode und Vorgehensweise wurden theoriegeleitet entwickelt, entsprechend dem «state of the art» in der Stadtentwicklung.
Potenzielle Entwicklungsschwerpunkte im Siedlungsgefüge
23
Master Research Unit Sensor, Actuator and Communication Systems
An der MRU SAC werden mit mikroelektronischen Tools Sensoren selbst entwickelt.
Die damit gewonnenen Daten werden dann mit Algorithmen bearbeitet und / oder
mit Kommunikationssystemen an Aktoren übermittelt. Das systematische Denken
wird in dieser MRU mit modernster Regeltechnik abgedeckt und die Kommunikationstechnik wird von der Antenne bis zur Internetapplikation beherrscht. Die Studierenden erlernen und vertiefen je nach Spezialisierung bedeutende Kenntnisse in
Elektronik und Mikroelektronik, Embedded Systems, digitaler Signal- und Bildverarbeitung, Systemdynamik und Regelungstechnik, Telekom- und Computernetzwerken sowie Hochfrequenztechnik.
An der MRU beteiligte Institute
Die MRU «Sensor, Actuator and Communication Systems» wird von den folgenden
Instituten gemeinsam getragen und zentral koordiniert:
–– Institut für Kommunikationssysteme ICOM
–– Institut für Mikroelektronik und Embedded Systems IMES
25
Graduate Candidate
Robert Hegner
ExaminerProf. Dr. Guido Schuster
Co-ExaminerAssoc. Prof. Dr. Tom Ryen, Assoc. Prof. Dr. Ivar Austvoll
Master Research Unit
Sensor, Actuator and Communication Systems
Project Partner
University of Stavanger, Norway
Robert
Hegner
Efficient Implementation and Evaluation of Methods for the Estimation of Motion
in Image Sequences
image sequence
directional filter
compute component velocities
directional filter
compute component velocities
directional filter
compute component velocities
directional filter
compute component velocities
combine
component
velocities
Introduction: Optical flow estimation (the estimation of the apparent motion of
objects in an image sequence) is used in many applications, including video compression, object detection and tracking, robot navigation, and so on. This project
focussed on one specific optical flow estimation algorithm, which uses directional
filters and an AM-FM demodulation algorithm to estimate the velocities.
flow vectors
Objective: The main goals of this project were
–– implementing the algorithm in CUDA (parallel computing architecture developed
by NVIDIA) to make use of the huge parallel computing power of modern GPUs
(graphic processing units).
–– extending the algorithm to a multiresolution scheme to allow the estimation of
higher speeds (Pyramid Algorithm).
Overview of the Basic Algorithm
–– integrating the algorithms into an (existing) Matlab GUI which allows comparison
of the new algorithm with other optical flow estimation algorithms.
Level 3
Level 2
Level 1
Level 0
M/8
v2 = 2 v3
M/4
v1 = 2 v2
M/2
v = v0 = 2 v1
M
Downsampling
8
N/
4
N/
2
N/
N
Downsampling of the image sequence for the Pyramid Algorithm
Extended Matlab GUI for the comparison of different optical flow
estimation algorithms
26
Result: The speedup of the CUDA implementation (running on a GeForce GTX 260
with 216 parallel cores) compared to an existing Matlab implementation (running on
an Intel Core 2 Quad 2.4GHz) is several thousand times (depending on the dimensions of the image sequence). For most of the image sequences used for evaluation,
the accuracy of the Pyramid Algorithm is better than or comparable to the accuracy
of the OpenCV implementation of the famous Lucas-Kanade algorithm. Due to the
large spatial support of the directional filters, the algorithm has some problems handling motion discontinuities, particularly in the border regions of an image sequence.
The estimation of high speeds was achieved by computing a rough estimate of the
(high) speeds in a downsampled image sequence. The motion in the full-resolution
image sequence can then be compensated before estimating the speeds on the fullresolution image. These new estimates of the compensated speeds can finally be
used to refine the first rough estimates. This procedure can be applied recursively
over several levels (Pyramid Algorithm). One problem of the pyramid implementation of the algorithm is that unreliable estimates from downsampled levels can have
a negative impact on the estimations at the full-resolution level.
DiplomandSilvan Forrer
ExaminatorProf. Dr. Guido Schuster
ExperteDr. Juan Gruber, Kistler AG, Winterthur
Master Research Unit
Sensor, Actuator and Communication Systems
Silvan
Forrer
Energieeffiziente Kompression von Multi-Kavitäten-Druckdaten in Echtzeit
Aufgabenstellung: Aufgabe dieser Arbeit war es, ein Datenkompressionsverfahren
zu entwickeln. Dieses soll in der Kompression von Druckdaten, welche im Spritzgussprozess von verschiedenen Sensoren aufgezeichnet werden, zur Anwendung kommen. Der Zweck davon ist, durch die kleinere Datenmenge den Energieverbrauch für
die Funkübertragung zu reduzieren. Das Funkübertragungssystem ist paketbasiert.
Weitere Anforderungen bestanden in der Echtzeitfähigkeit und Robustheit gegenüber Datenverlusten. Ziel war es, einen lauffähigen Algorithmus auf einem eingebetteten System zu entwickeln.
Multi-Kavitäten-Druckdaten
Energiebedarf mit und ohne Kompression
Vorgehen/Technologien: Für den Kompressionsalgorithmus wurde ein verlustbehaftetes Differenzkodierungsverfahren gewählt. Dessen Funktionsweise besteht – vereinfacht beschrieben – darin, durch möglichst gute Prädiktion die Messwerte vorherzusagen. Übertragen werden soll nur der nicht vorhersagbare oder stochastische
Anteil am Signal. Dieses Differenzsignal wird mit einem arithmetischen Kodierer kodiert. Der Prädiktor, welcher die Vorhersage macht, ist das Herzstück dieses Verfahrens. Als Besonderheit wurde das populäre, aber in der Datenkompression wenig
verbreitete Kalman-Filter gewählt. Der Einfluss von verlorenen oder beschädigten
Daten wird mittels speicherbasierter Extrapolation so gering wie möglich gehalten.
Ergebnis: Der entwickelte Codec wurde auf einem Low-Power-Mikrocontroller mit
ARM Cortex-M3 Core implementiert. Mit diesem System konnte, gegenüber einer
Datenübertragung von Rohdaten, eine Reduktion der Energieaufnahme um den
Faktor fünf erzielt werden. Dies gelang durch die Verkleinerung der Datenmenge
um das Zehnfache und die effiziente Implementierung des Kompressionsverfahrens.
Die Komprimierung und Dekomprimierung der Daten wird in weniger als einem
Achtel der Aufzeichnungszeit ausgeführt und garantiert somit die Echtzeitfähigkeit.
Blockdiagramm des Encoders
27
DiplomandMario Jurcevic
ExaminatorProf. Dr. Guido Schuster
ExperteDr. Peter Derleth, Phonak AG, Stäfa
Master Research Unit
Sensor, Actuator and Communication Systems
Mario
Jurcevic
Kopfgestenerkennung mit 3D-Beschleunigungs- und Drehratensensoren
Ausgangslage: Diese Master Thesis beschäftigt sich mit der Gestenerkennung, insbesondere mit Kopfgesten. Es wurde eine Gestenerkennung für Kopfbewegungen mit
Beschleunigungs- und Drehratensensoren entwickelt.
Beschleunigungssensor des HearNet
Vorverarbeitung der Beschleunigungsdaten
HMM für die Kopfgeste links
28
Vorgehen: Um die Kopfgesten zu erkennen, werden zwei Sensormodule am Körper
befestigt: Ein Modul wird am Kopf befestigt, das andere wird am Oberkörper getragen. Das System zur Kopfgestenerkennung verwendet HearNet zur Aufzeichnung
der Beschleunigungen. HearNet besteht aus einem Koordinator und ein bis mehreren Sensormodulen. Der Koordinator ist dafür zuständig, dass die Sensormodule
synchron abtasten. Das Sensormodul hat jeweils einen 3D-Beschleunigungssensor.
Ein weiteres Sensorsystem wurde verwendet, um die Drehraten des Kopfes aufzuzeichnen. Dieses System stammt aus einer vorangegangenen Arbeit zur Gang-Analyse. Mit den aufgezeichneten Beschleunigungen und Drehraten wurden dann verschiedene Methoden getestet, um die Kopfgesten aus den Daten herauszufinden.
Um die Kopfgesten aus den Beschleunigungsdaten herauszufinden, werden diskrete und kontinuierliche HMM verwendet. Für die Kopfgestenerkennung mit den
Drehraten wurden verschiedenste statische Klassifizierer getestet. Es wurde auch
eine Kopfgestenerkennung in Bewegung gemacht. Die Gestenerkennung ist zusätzlich erschwert, weil die Bewegung (Gehen, Rennen) die Beschleunigungen bzw. die
Drehraten am Kopf stört.
Ergebnis: Mit dem HearNet konnten die Bewegungen des Kopfes zuverlässig erkannt werden. Die kontinuierlichen HMM zeigten dabei eine viel bessere Leistung
als die diskreten HMM. Die Kopfgestenerkennung in der Bewegung funktionierte
aber auch mit den kontinuierlichen HMM nicht. Die Störungen durch die Bewegung
waren für eine Erkennung zu gross. Die Kopfgestenerkennung mit dem zweiten System, dem Gang-Analyse-System, funktioniert zuverlässig. In Bewegung funktioniert
die Kopfgestenerkennung auch zuverlässig. Der Aufwand für die Gestenerkennung
ist für die beiden Systeme unterschiedlich. Die Gestenerkennung mit den Beschleunigungssensoren ist einiges aufwändiger als jene mit den Drehratensensoren.
Master Research Unit Software and Systems
Die MRU Software and Systems bietet die Kompetenzschwerpunkte «Software Engineering» und «Secure Unified Communications» am Standort Rapperswil an. Im
«Software Engineering» befassen sich Dozierende und Studierende u. a. mit automatisierten Tests und Builds, effektivem Umgang mit grossen Softwaresystemen,
Anwendungen im Enterprise-, GIS- und Web-Umfeld sowie Entwicklungsautomatisierung für Open-Source-Umgebungen. Den Schwerpunkt für «Secure Unified Communications» bilden u. a. zukunftsgerichtete Kommunikationstechnologien mit speziellem Fokus auf Performance- und Netzwerkmanagementaspekte, kryptografisch
sicheren Übertragungs- und Authentisierungsmethoden, sowie der Konvergenz von
Sprach- und Datendiensten (z. B. Voice-over-IP).
An der MRU beteiligte Institute
Die MRU «Software and Systems» wird von den folgenden Instituten am Standort
Rapperswil gemeinsam getragen:
–– Institut für Software IFS
–– Institute for Networked Solution INS
–– Institute for Internet Technologies and Applications ITA
29
Graduate Candidate
Thomas Corbat
ExaminerProf. Peter Sommerlad
Co-Examiner
Martin Botzler, Siemens Building Technologies, Zug
Master Research Unit
Software and Systems
Thomas
Corbat
C3P0
C-Plus-Plus-Parser-for-C++0x
Introduction: The C++ Standards Committee is working on a new standard for C++,
unofficially bearing the name C++0x. To fully profit from the new possibilities and
features, a programmer needs to use his tools to support them. We at the Institute
for Software, as participants in the Eclipse C++ Development Tooling (CDT) project,
are eager to improve this integrated development environment (IDE) continuously, especially with our focus on automated refactoring support. Such tools rely on
source code representation in an abstract form, usually represented through an abstract syntax tree (AST). In this Master‘s thesis we continue to build this cornerstone
to support C++0x, a parser for constructing that AST.
An example symbol table tree, showing the existing declarations and
possible locations for the declaration of variable «i»
Objective: In a preceding term project we started to develop C3P0, a parser with an
understandable grammar, from scratch. Its eventual purpose is to recognize C++0x
code, for which it constructs a CDT-AST. The success of this term project motivated
us to continue the work on C3P0 in this Master‘s thesis. The focus was on three
major goals:
–– Implement a symbol table for storing information about declarations to enable
semantic decisions in the parser.
–– Deal with preprocessing directives to fully support C++ programs.
–– Have the parser construct a CDT-AST.
Result: The objectives have been achieved.
–– The symbol table has been implemented in tree form. It records declared types
and allows their resolution to perform decisions on the parser‘s rule alternatives.
The preprocessor handles all preprocessing directives to create a single
character stream, tokenized by the lexer. The parser creates the CDTAST.
–– The standalone preprocessor (C2P0 – C++-Preprocessor-for-C++0x) can deal with
conditional inclusion, source file inclusion and macro expansion. It transforms the
input files into a character stream and creates a position map to retain the original
source locations.
–– The parser, capable of recognizing the new C++ standard, constructs a CDT-AST
for the recognized code. Currently, it is not possible to create CDT-AST nodes for
all new features, as they are not yet available.
Although the C3P0 project is not completely finished, this Master‘s thesis shows that
it is possible to develop a parser incrementally and with a grammar base, even for
a language as complex as C++. In addition to the work done on implementing the
C3P0 parser, this Master‘s thesis also contributed to C++ standardization by recognizing inconsistencies and editorial mistakes in the standard draft.
The position map allows initial token resolution, pointing at the original
location in the source file, through the offset in the preprocessor output.
30
Graduate Candidate
Florian Huonder
ExaminerProf. Dr. Josef M. Joller
Co-Examiner
Dr. Günter Karjoth, IBM, Zurich Research Laboratory, Rüschlikon
Master Research Unit
Software and Systems
Florian
Huonder
Conflict Detection and Resolution of XACML Policies
Automatic Support for Policy Creation
Introduction: The eXtensible Access Control Markup Language (XACML) is an OASIS
approved standard for access control. The XACML specification also provides a set
of combining algorithms to resolve conflicts. Conflicting policies are policies that
are applicable to the same request but result in different responses. It is up to an
administrator to design the policies in such a way that the semantics are respected
within the conflict resolution. We introduce algorithms for conflict detection and
conflict resolution that enable an administrator to detect and to resolve conflicts in
a sensible way.
The hatched areas denote conflicts
Directed Acyclic Graph representing the conflict resolutions
Approach: XACML policies can easily be represented as n-dimensional rectangles.
In this form conflicts among XACML policies can be detected with well-established
algorithms used to detect overlaps within geometric figures. These algorithms are
the Plane Sweep Algorithm, which performs well in static policy deployments, and
the AABB – AABB Intersection Algorithm that performs well in more dynamic policy
deployments. For conflict resolution we follow two basically different approaches.
The first algorithm, Cutting Planes Algorithm, cuts the intersecting part from the
overruled policy. This results in a policy deployment where only one policy is applicable at the same time. The second algorithm, Precedence Stringing Algorithm, orders
the policies in such a way that the first applicable policy has the highest precedence.
These policies are then combined under the first-applicable combining algorithm.
We also propose an algorithm for handling the special case of regular expressions.
Regular expressions can be expressed as finite automata and intersections can easily
be detected with our proposed algorithm. All conflict resolution algorithms depend
on a directed acyclic graph that represents the conflict resolutions.
Result: We propose three algorithms for conflict detection:
–– Plane Sweep Algorithm
–– AABB – AABB Intersection Algorithm
–– Regex Intersection Algorithm
With these three algorithms we are able to detect every conflict among XACML policies. We further propose two algorithms for conflict resolution:
–– Cutting Planes Algorithm
–– Precedence Stringing Algorithm
The resolution transformed into an XACML policy tree
With these two algorithms we are able to resolve all conflicts in a reasonable way.
We also made a proof of concept implementation to demonstrate the feasibility of
our algorithms.
The source code is available on http://www.herasaf.org/research.html.
31
Graduate Candidate
Pascal Kesseli
ExaminerProf. Peter Sommerlad
Co-Examiner
Martin Botzler, Siemens Buildung Technologies, Zug
Master Research Unit
Software and Systems
Pascal
Kesseli
DeepSpace-8
Loop Analysis and Transformation towards STL Algorithms
DS-8 Logo
Introduction: One of the very first things prospective programmers are taught, after having written their first «Hello World» to the console, are the possibilities and
proper use of loops and iterations. Unfortunately, loops and iterations are always a
potential source of errors and complexity in programming. The C++ programming
language tries to solve this problem with its Standard Template Library (STL), which
– among other things – attempted to mitigate the complexity of loops by providing
them encapsulated in reusable generic standardized algorithms. Even though STL
algorithms provide remarkable benefits, like code readability, they are not used as
frequently as they could be. Reasons for this unfavorable situation are manifold, but
its implications can be summarized into one hypothesis: Large portions of today‘s
C++ code can be considerably simplified by replacing custom loops with calls to generic STL algorithms. This leaves the problem of recognizing suitable loops, matching
them with a corresponding standard algorithm and transforming the loop into an
algorithm call expression.
Objective: Manual transformation of loops to safer and more expressive STL algorithm calls is expensive, challenging and error-prone. Therefore, possibilities, requirements and implementation options of automatic loop transformations have been
analyzed in the scope of this Master‘s thesis. The nominal objectives of this task are
listed in the following:
–– Statistical analysis of larger existing code bases
–– Research and formulate transformation systems
–– Implement proposed systems in an Eclipse CDT (C++ Development Tools) plug-in
Benefits of STL algorithms to code readability
Screenshot of final plug-in
32
Result: The focus of the resulting Eclipse plug-in implementation has been set to
the two common STL algorithms «for_each» and «find/find_if». Using tree pattern
matching algorithms on the program code‘s abstract syntax tree (AST), loops equivalent to the STL algorithm calls can be identified surprisingly reliably. The implementation also features a natural support for conversion of the loop‘s body to C++0x
Lambdas, STL or TR1 bind functors, greatly shortening the resulting code. The project has proven room for automatic code transformation in areas where others have
not even dared to try. While safe fully-automatic code transformation has proven
to be impossible, the plug-in can guide developers in transforming their code semiautomatically to call STL algorithms instead of existing error-prone loops.
Graduate Candidate
Stefan Oberholzer
Examiners
Prof. Oliver Augenstein, Prof. Dr. Josef M. Joller
Co-Examiner
Prof. Bernhard Hämmerli, Hochschule Luzern, Horw
Master Research Unit
Software and Systems
Stefan
Oberholzer
Optimizing XACML Policies
Conflict Detection, Transformation and Minimization
Introduction: Companies and other organizations are making more and more use
of XACML-based access control solutions. Administrators of XACML access control
policies are facing the problem of building an efficient policy set that resolves conflicts between policies as intended.
Objective: The following tasks on policies are defined in this thesis
–– Define parallel algorithms to detect conflicts between policies.
–– Define parallel algorithms to optimize policy sets.
Creating a policy set out of policies with precedence definition
Flattening an existing policy tree
–– This work focuses on XACML 3. As XACML 2 is in use in most companies and organizations a description will be given of how the proposed algorithms and solutions can also be applied to it.
Result: Two parallel algorithms to detect conflicts between policies are proposed.
The first allocates the extreme points of the policies to the processes. Each one detects conflicts and forwards the result to the neighboring processes if a policy cannot
be completely resolved. The other algorithm is optimized for the case where a large
number of policy groups exist only in conflict with each other. In the case of policy
set optimization an algorithm to minimize targets is proposed. In addition to this,
operations on a policy set are defined. This includes adding a policy to resolve the
conflicts as intended and transforming the policy tree to reduce the number of levels, or to add additional levels in the policy tree defined by the policy set. To test the
correctness of these operations an existing mapping to description logic has been
extended with the algorithms new to XACML 3. The proposed algorithms support
an administrator in creating a policy tree by optimizing targets, detecting conflicts
and creating a policy tree out of a set of rules. The operations optimize the evaluation performance of a policy set.
XACML policy in XML, description logic and graphical description
33
Graduate Candidate
Lukas Felber
ExaminerProf. Peter Sommerlad
Co-Examiner
Martin Botzler, Siemens Building Technologies, Zug
Master Research Unit
Software and Systems
Lukas
Felber
ReDHead
Refactor Dependencies of C/C++ Header Files
Introduction: Even though C++ is one of the most widespread programming languages and is used in many different areas very effectively, C++ IDEs only have
limited support for features fostering agile development. Such features, for example
refactoring, have been made popular by Java‘s IDEs, most notably Eclipse‘s Java Development Tools (JDT), and are considered a must-have feature of an IDE by many
developers today. At HSR‘s Institute for Software, several improvements to Eclipse‘s
C/C++ Development Tooling (CDT) have been developed, and this work continues
that tradition.
The ReDHead menu
Objective: In the scope of this master thesis, the ReDHead tool was developed, adding the ability to optimize header dependencies of C++ programs in CDT. ReDHead‘s
features provide functionality to statically analyze the include dependencies of C++
files and provide suggestions on how the include structure of a C++ software project can be optimized.The aim of these optimizations is to (1) improve code quality,
(2) reduce code coupling, (3) lower compile-time and (4) improve the speed of the
development. Existing C++ projects often span millions of lines of code distributed
over hundreds of files. Long-living projects tend to develop a complex net of include
dependencies leading to an unmanageable physical architecture of the system. As a
side effect of huge coupling and often unnecessary parts not being removed, compile times rise significantly. Hence, the possibility to approach such design issues supported by an automated static include analysis tool is a crucial advantage.
Result: This is a list of features that the ReDHead tool provides:
–– Organize/Optimize includes
Static code coverage
–– Find unused includes
–– Directly include referenced files
–– Find unused files
–– Static code coverage
Organize Includes
34
Graduate Candidate
Mirko Stocker
ExaminerProf. Peter Sommerlad
Co-Examiner
Dierk König, Canoo Engineering AG, Basel
Master Research Unit
Software and Systems
Mirko
Stocker
Scala Refactoring
Automated Refactoring Tools for Scala IDEs
The refactoring library is already part of the official Scala IDE for Eclipse.
Introduction: In this thesis, I developed a refactoring tool for the Scala programming
language. Scala is a modern language developed by Professor Martin Odersky and
his team at EPFL. It combines various aspects from object oriented and functional
programming models. While it supports the developers with many powerful features, it is still fully compatible with code written in Java, allowing projects to mix
Scala and Java. Most modern integrated development environments (IDE) support
the developer with automated refactorings. Having such support reduces the time
needed and therefore the difficulty of applying a refactoring; it is also less errorprone than doing the same operations manually. If Scala is to become widely used
in companies, it also needs to provide tools, including integrated development environments. There are already several Scala IDEs, but their refactoring support is still
very limited.
Objective: The primary goal of this thesis is to support Scala IDEs with automated
refactoring tools. The refactoring functionality is offered in the form of a library, so it
can be integrated into and shared among different IDEs and other tools designed to
refactor Scala code. To demonstrate the implemented refactorings, the library has to
be integrated into the Eclipse based Scala IDE. A second goal is to make the creation
of new automated refactorings as simple as possible, enabling interested developers
to implement their own refactorings or other code transformations.
Result: A library that uses the Scala compiler and contains everything that is needed
to create automated refactorings and code transformations for Scala. The following
refactorings have been implemented:
Extract Method moves a selection of expressions into a new method.
–– Rename for all the names that are used in the source code.
–– Extract Method to extract a selection of statements into a new method.
–– Extract Local to introduce a new local variable for an existing expression.
–– Inline Local to replace references to a local variable with its right-hand side.
–– Organize Imports to clean up the imported dependencies of a source file.
These refactorings are all fully integrated into the Scala IDE for Eclipse, along with an
online help that explains the usage of each refactoring. The implemented refactorings are already part of the current development builds of the Scala IDE for Eclipse
and have been presented at Scala Days 2010, the first Scala conference.
Extract Local refactoring allows users to introduce a new name for an
expression.
35
DiplomandMartin Seelhofer
ExaminatorProf. Hansjörg Huser
ExperteDr. Hans Bärfuss, PDF Tools AG, Bachenbülach
Master Research Unit
Software and Systems
Projektpartner
PDF Tools AG, Winkel
Martin
Seelhofer
Transcompiler-Infrastruktur
Zur Übersetzung von Code einer auf C# basierenden Mastersprache nach Java und C++
Einleitung: In dieser Master Thesis wird die Entwicklung einer Transcompiler-Infrastruktur beschrieben, welche Quellcode von einer von C# abgeleiteten Mastersprache in verschiedene Zielsprachen übersetzen kann. Die Arbeit baut auf einer
Diplomarbeit aus dem Jahre 2006 auf, in welcher die Machbarkeit des Transcompiler-Ansatzes für eine Teilmenge von C# nach Java nachgewiesen wurde. Auftraggeber für dieses Projekt ist die PDF Tools AG, welche daran interessiert ist, ihre aktuelle
C++-Codebasis ihrer Werkzeuge in eine Mastersprache zu migrieren und daraus automatisiert den Quellcode für die drei Zielsprachen C#, Java und C++ zu generieren.
Auf diese Weise können die Werkzeuge der PDF Tools AG ihren Kunden nativ zur
Verfügung gestellt werden.
Abbildung 1: Ist vs. Soll
Abbildung 2: Der Weg zum Ziel
Abbildung 3: Resultierende Architektur
36
Aufgabenstellung: Zu den wichtigsten Zielen und Aufgaben dieser Master Thesis gehören das Festlegen der Elemente der Mastersprache, das Formulieren eines
Konzepts für das Mapping nach Java und C++ sowie der Entwurf und die Implementation des Ganzen im Rahmen einer vollständigen, in Visual Studio integrierten
Transcompiler-Infrastruktur. Was die Mastersprache betrifft, so geht es hauptsächlich
darum, für deren Sprachelemente einen Weg aufzuzeigen, wie diese transformiert
und in die Zielsprachen übersetzt werden können. Gerade beim Mapping nach C++
gibt es dabei diverse Schwierigkeiten, weil sich einige konzeptionelle Ansätze der
.NET-Plattform fundamental von C++ unterscheiden. Ein Beispiel dafür ist die Speicherverwaltung, welche auf der .NET-Plattform automatisiert mittels Garbage Collection abläuft, in C++ aber in voller Verantwortung des Programmierers liegt.
Ergebnis: Entstanden ist im Rahmen des Projekts eine umfangreiche TranscompilerInfrastruktur, welche die angestrebten Ziele erfüllt. Die Mastersprache liegt in Form
einer LR(1)-Grammatik vor, welche von der C#-3.0-Sprachspezifikation abgeleitet ist.
Diese wird mithilfe eines Scanner- und Parser-Paares auf MPLEX/MPPG-Basis (von lex
und yacc abgeleitete Generatoren im .NET-Umfeld) in einen abstrakten Syntaxbaum
übersetzt und mit Typinformation angereichert. Diese Information wird für die Transformation und Codegeneration in den Zielsprachencode sowie für die Unterstützung
von Syntax Highlighting und den Intellisense-Support in Visual Studio benötigt. Die
Transcompiler-Infrastruktur steht dabei als einfach zu installierendes Erweiterungspaket für Visual Studio 2010 sowie als eigenständige Konsolenanwendung für das
Batch-Processing zur Verfügung.
DiplomandRoland Krummenacher
ExaminatorProf. Hansjörg Huser
ExperteDr. Hans Bärfuss, PDF Tools AG, Bachenbülach
Master Research Unit
Software and Systems
Projektpartner
BizTelligence Consulting Wettstein, Windisch
Roland
Krummenacher
TrueSense in the Cloud
Entwicklung von Architekturvarianten für die Windows-Azure-Plattform anhand einer CRM-Applikation für Retail-Shops
und deren Umsetzung
Einleitung: Im Internet existiert er schon länger: Der gläserne Kunde. Spezialisierte
Software registrieren auf Online-Shops jeden Klick, zeichnen auf, welche Produkte
sich der Einkaufende wie lange angeschaut hat und wie er sich innerhalb des virtuellen Einkaufszentrums bewegt. In der realen Welt sind wir noch nicht so weit. Die
Marketing-Abteilungen der Detailhändler wissen zwar, wer die Kunden sind und
was sie gekauft haben – was die Kunden jedoch angeschaut und NICHT gekauft haben, weiss niemand. Dabei wäre diese Information genauso wichtig, da die Marketing-Aktivitäten aufgrund dieser Erkenntnisse besser koordiniert und die Ausgaben
dadurch gesenkt werden könnten. Das Start-Up-Unternehmen BizTelligence möchte
diese Marktlücke schliessen.
Darstellung der Kundenströme einer Kantine als Heatmap.
Das Innere eines Windows-Azure-Datencenters.
Eine SaaS-Architekturvariante der Applikation mit Windows Azure.
Aufgabenstellung: Die Idee ist, dass in Filialen mit an der Decke montierten Kameras gezählt wird, wie lange Kunden vor einem Regal stehengeblieben und wo
wie viele Kunden durchgegangen sind. Aufgrund eines Grundrisses der Filiale soll
dann den Verkaufsmitarbeitenden aufgezeigt werden, welche Gänge und Regale
stark frequentiert sind und welche wiederum eher schwachen Zulauf haben. Neben der Übernahme und dem Ausbau der bestehenden Prototyp-Applikation zur
Produktreife, ging es der BizTelligence bei dieser Masterarbeit vor allem auch darum
zu evaluieren, wie sie als kleines Start-Up-Unternehmen ohne finanzielle Mittel und
ohne eigene IT-Hosting-Infrastruktur das Bedürfnis von Grosskunden mit vielen Filialen bewältigen kann. Konkret soll geprüft werden, in welcher Form die Applikation
in der Cloud von Windows Azure installiert und gehostet werden kann und welche
Software-Architektur sich dafür am besten eignet.
Ergebnis: Windows Azure stellt hauptsächlich eine Platform-as-a-Service (PaaS) zur
Verfügung. Auf dieser Plattform können Applikationen und Daten hochskalierbar
und hochverfügbar (99.95 % zugesicherte Uptime, dreifach repliziert) gehostet
werden. Die Schnittstellen, beispielsweise zur Cloud-Datenbank SQL Azure, wurden dabei möglichst äquivalent zu herkömmlichen Applikationen oder Technologien entwickelt, wodurch lokale Software-Komponenten und Cloud-Services sehr
einfach miteinander kommunizieren können. Der grösste Unterschied ist jedoch das
Finanzierungsmodell: Anstelle einer Up-Front-Investition in IT-Infrastruktur bezahlen
die Nutzer nur das, was sie effektiv benötigen – stunden- und kilobytegenau abgerechnet. Für den Markteintritt von BizTelligence wurde schliesslich eine Architektur
evaluiert und umgesetzt, welche das Hosting der Applikation in der Cloud vorsah.
Langfristig jedoch ist geplant, die Applikation mandantenfähig als Software-as-aService in der Cloud zu betreiben, wodurch die enorme Skalierbarkeit von Windows
Azure erst richtig ausgenützt werden kann.
37