epilog - Informatik

Transcription

epilog - Informatik
epilog
Präsentation der
Diplomarbeiten der
Fakultät für Informatik
Wintersemester 2008
VORTRÄGE
Die Fakultät für Informatik präsentiert die Diplomarbeiten des letzten
halben Jahres in einer Posterausstellung und ausgewählten Vorträgen.
Ziel der Veranstaltung ist es, einen Einblick in das breite Spektrum der
Themen und Aufgabenstellungen der Abschlussarbeiten an den
verschiedenen Instituten und Arbeitsbereichen zu geben.
PROGRAMM
4. Dezember 2008
15:00 Uhr
Eröffnung der Posterausstellung
unter Anwesenheit der AutorInnen und BetreuerInnen der ausgestellten
Poster.
16:00 Uhr
Vorträge (im HS6 )

Begrüßung und Einleitung Dekan G. Steinhardt, Vizerektorin S. Seidler

Vorträge zu den nominierten Diplomarbeiten

Gastvortrag: IT und Beratungskarriere am Beispiel IBM –
Welche Kompetenzen sind gefragt?
DI Gabriele Fischer
Learning Leader Central & Eastern Europe, Middle East,
Austria & Switzerland, IBM Global Business Services
18:00 Uhr
Vergabe der Auszeichnungen
mit anschließendem Buffet
Für die beste Diplomarbeit wird von einer Jury aus Professorinnen und
Professoren der Fakultät unter dem Vorsitz von Studiendekan Rudi
Freund,
der
mit
4.000
€
dotierte
"Distinguished
Young
Alumnus/Alumna"-Award vergeben. Beurteilungskriterien sind dabei die
Diplomarbeit sowie der gehaltene Vortrag der von den Instituten
nominierten Absolventinnen und Absolventen.
Dey-Fuch Chiu
Penta G - A Game Engine for Real-Time Rendering Research
Institut für Computergraphik und Algorithmen, Arbeitsbereich
Computergraphik
Thomas Flanitzer
Security mechanisms for low-end embedded systems
Institut für Rechnergestützte Automation, Arbeitsbereich
Automatisierungssysteme
Markus Triska
Solution Methods for the Social Golfer Problem
Institut für Informationssysteme, Arbeitsbereich Datenbanken und
Artificial Intelligence
Peter Wiedermann
A Generalized PBQP Instruction Selector for the LLVM Compiler
Framework
Institut für Computersprachen, Arbeitsbereich Programmiersprachen
und Übersetzerbau
Das beste ausgestellte Poster wird mit dem mit 1.000 € dotierten „Best
Poster Award“ ausgezeichnet. Zusätzlich gibt es für Firmen die
Möglichkeit, spezielle "Firmenpreise" an die von der Fakultät nominierten
Vortragenden zu vergeben.
2
Zuverlässigkeitsmodell für eine DECOS SoC Komponente präsentiert mit
dem von einer einzelnen Komponente sowie von verteilten Applikationen
aufbauend auf solchen Komponenten die Zuverlässigkeit quantitativ evaluiert
wird.
Die
Parameter
für
das
Modell
werden
von
einer
Prototypimplementierung
übernommen.
Durch
die
Variation
der
Modellparameter
werden
Designentscheidungen
und
Technologie
/Applikations-Beschränkungen analysiert. Besonderes Augenmerk wird auf
transiente Fehler gelegt, die durch Partikeleinschläge (kosmische Strahlung
und Rückstände vom Herstellungsprozess) verursacht werden. Diese haben
einen gewichtigen Anteil an der Ausfallsrate elektronischer Systeme und
gewinnen weiter an Bedeutung durch die fortschreitende Miniaturisierung
der Halbleitertechnologien und der Verringerung der Spannungsversorgung.
Ein weiterer Fokus liegt bei der Betrachtung von Designfehler im Kontext der
integrierten
Ausführung
von
Applikationen
mit
unterschiedlichen
Zertifizierungsstufen und bei dem Nutzen von Designdiversität für
redundanten Komponenten.
DIPLOMARBEITEN
INSTITUT FÜR TECHNISCHE INFORMATIK
Arbeitsbereich Real Time Systems
Andreas Kanzler
Ein graphisches Frontend für die Zeitanalyse von Echtzeitprogrammen
Studium: Diplomstudium Informatik
BetreuerIn: Ao.Univ.Prof. Dr. Peter Puschner
Abstrakt: Bei der Entwicklung von Computersystemen wird das Verständnis
über das Laufzeitverhalten dieser Systeme immer wichtiger. Speziell bei
Echtzeitsystemen stellt dies eine notwendige und wichtige Information dar,
da nur so Aussagen über die Einhaltung der definierten Zeitschranken
gemacht werden können. Ziel dieser Arbeit ist das Design und die
Entwicklung einer Applikation, die es erlaubt, das Zeitverhalten von
Programmen besser zur verstehen. Die Informationen aus der Zeitanalyse
werden von Komponenten bereitgestellt, welche nicht Bestandteil dieser
Arbeit sind. Die Analysen werden von diesen Komponenten mittels
messbasierter Zeitanalyse erstellt. Die Analyseinformationen werden von der
entwickelten Applikation graphisch visualisiert und können vom Benutzer
interaktiv abgefragt werden. Zusätzlich besteht für den Benutzer teilweise
die Möglichkeit, in den Analyseablauf einzugreifen.
Christian Pucher
A Framework for Validation of Virtual Gateways in the DECOS Architecture
Studium: Masterstudium Technische Informatik
BetreuerIn: O.Univ.Prof. Dr. Hermann Kopetz
Abstrakt: Die DECOS Architektur ist eine integrierte Architektur und
versucht, die Vorteile von verteilten und integrierten Architekturen zu
vereinen. Dazu wird das Gesamtsystem in nahezu unabhängige Teilsysteme,
sogenannte Distributed Application Subsystems (DASs), unterteilt. Die
Kommunikationsinfrastruktur für die DASs wird von virtuellen Netzwerken
zur Verfügung gestellt, welche auf einer zeitgesteuerten Basisarchitektur
implementiert sind. Oft ist es notwendig für ein DAS, Information mit einem
anderen DAS auszutauschen, dies ist die Aufgabe eines Gateways.
Gateways sind in der DECOS Architektur als virtuelle versteckte Gateways
implementiert (d.h. unsichtbar für die Applikation). Neben dem Weiterleiten
von Nachrichten von einem Netzwerk ins andere, sind Gateways auch dafür
verantwortlich, etwaige semantische oder operative Unstimmigkeiten
zwischen den verbundenen Netzwerken aufzulösen. Eine weitere wichtige
Aufgabe von Gateways ist das Encapsulation Service, welches für die
Fehlereingrenzung verantwortlich ist, sowie für die selektive Weiterleitung
von Nachrichten, um Bandbreite zu sparen. Ziel dieser Arbeit ist die
Validierung der Gateway Services durch experimentelle Evaluierung. Um
diese Aufgabe bequem zu lösen, stellen wir ein Framework vor, das die
Möglichkeit bietet, das System zur Laufzeit zu überwachen und welches
automatische Testläufe unterstützt.
Hubert Kraut
Reliability Assessment of DECOS System-on-a-Chip Components
Studium: Masterstudium Technische Informatik
BetreuerIn: Univ.Ass. Dr. Roman Obermaisser
Abstrakt: Das DECOS SoC Komponentenmodell beschreibt eine Architektur
der nächsten Generation, die eine Plattform für die einfache Integration
verschiedenster Typen eingebetteter Applikationen (z.B. Unterhaltungs-,
Avionik-, Automobil- und Industrieelektronik) bietet. Den Kern dieser
Architektur bildet das zeitgesteuerte NoC, das eine deterministische
Kommunikation zwischen den heterogenen Komponenten über einen
gemeinsamen Bus unterstützt. Die dadurch inhärente Fehlerisolation
ermöglicht eine nahtlose Integration unabhängig entwickelter Komponenten
mit möglicherweise unterschiedlichen Zertifizierungsgraden. Zusätzlich
unterstützt das DECOS SoC Komponentenmodell die dynamische
Rekonfiguration von Komponenten bei sich ändernden Applikationsanforderungen, z.B. im Hinblick auf Ressourcenverteilung, Fehlertoleranz
und Energiemanagement. In dieser Arbeit wird ein generisches
3
4
Thomas Strnad
Validation of the DECOS Encapsulated Execution Environment
Wolfgang Wögerer
The Loss of Explicity for Static WCET Analysis during Compilation
Studium: Diplomstudium Informatik
BetreuerIn: O.Univ.Prof. Dr. Hermann Kopetz
Studium: Diplomstudium Informatik
BetreuerIn: Ao.Univ.Prof. Dr. Peter Puschner
Abstrakt: The DECOS (Dependable Embedded COmponents and Systems)
integrated architecture allows the integration of different embedded
application sub-systems with different criticality into the same hardware
infrastructure. In the DECOS integrated architecture, computational
resources (CPU time, memory, I/O) and communication resources (network
bandwidth) are shared among multiple software components in order to
reduce the number of deployed embedded computer nodes, which implies
the reduction of system cost. The DECOS integrated architecture consists of
four layers: the I/O layer, the application layer, the middleware layer, and
the core layer. Distributed soft- ware applications run at the application
layer. So called DECOS high-level services (virtual network service, virtual
gateway service, diagnostic service) are executed in the middleware layer.
The core layer provides services that are in charge of predictable and faulttolerant communication among different DECOS integrated nodes. In order
to perform a seamless integration of different software modules that may
be developed by different vendors, the DECOS integrated architecture
services guarantee that different applications do not affect the operation of
each other in an undesired manner: An application job that is executed in
one of the DECOS components can not affect other application jobs or
DECOS services. A prototype implementation of the DECOS integrated
architecture was developed at the Vienna University of Technology. The
encapsulated execution environment is in charge of preventing non- specified
interaction among the application jobs (implemented as LXRT tasks)
executed in the DECOS components. The encapsulated execution
environment is implemented by using the Linux operating system with RTAI
and LXRT patches. The objective of this work is to validate whether LinuxRTAI-LXRT fulfils the requirements to be used as an encapsulated execution
environment in the DECOS integrated architecture. Validation is performed
by means of software implemented fault injection (SWIFI). SWIFI is usually
deployed to emulate the occurrence of hardware faults. In this work, SWIFI
is used to perform the emulation of software faults in order to observe, if a
faulty application job that is executed in a DECOS component can affect the
operation of other application jobs or the DECOS services.
Abstrakt: Die Analyse der worst-case Laufzeit der Prozesse eines
Echtzeitsystems ist eine wichtige Unteraufgabe bei der Konstuktion dieser
Systeme. Speziell für harte Echtzeitsysteme, bei denen ein Fehlverhalten
zum Verlust menschlichen Lebens führen kann, muss garantiert sein, dass
in jedem Fall alle Deadlines des Systems eingehalten werden. Eine statische
Analyse der worst-case Laufzeit kann die dafür nötigen sicheren (Über)Approximationen bieten. Diese (Über-)Approximationen bergen das Risiko in
sich, dass diese hoch über der wirklichen worst-case Laufzeit liegen und
dass das System als ganzes nicht gebaut werden kann, wenn die
berechneten Laufzeiten berücksichtigt werden sollen. Viele Programme für
Echtzeitsysteme werden heute in einer höheren Programmiersprache wie C
geschrieben. Hauptsächlich da der Objektcode unter anderem Informationen
darüber enthält welche Prozessorinstruktionen tatsächlich ausgeführt
werden, basiert die statische Laufzeitanalyse nach dem momentaten Stateof-the-Art auf Objektcode. Es zeigt sich, dass bei der statischen
Laufzeitanalyse von Objektcode Probleme aufteten, die bei der statischen
Laufzeitanalyse von Code einer höeren Programmiersprache nicht existent
sind. Abstrakt gesehen kann man sagen, dass bestimmte Informationen für
die
statische
Laufzeitanalyse
aus
dem
Code
einer
höheren
Programmiersprache einfacher zu extrahieren sind als jene aus
equivalentem Objektcode. In anderen Worten, die Programmrepräsentation
einer höheren Programmiersprache ist für diese Information expliziter als
die Programmrepräsentation in Objektcode. Diese Diplomarbeit analysiert
diesen Verlust an Explizitität und will damit die Forscher auf dem Gebiet der
Laufzeitanalyse unterstützen die richtigen Ansatzpunkte zu finden, um diesen
Verlust
an
Explizitheit
zu
reduzieren
und
damit
bessere
Laufzeitanalysesysteme zu schaffen.
5
6
Abstrakt: Die Einführung einer elektronischen Patientenakte (EPA) befindet
sich in Österreich derzeit noch in der Planungsphase. Die technische
Umsetzung ist zwar durch die österreichische Bundesregierung in Auftrag
gegeben und von diversen Firmen und Arbeitskreisen geplant, allerdings
wird der künftige Benutzer in den Prozess der Entwicklung derzeit nicht
ausreichend eingebunden. Aus diesem Grund wurde diese Studie über die
Akzeptanz einer elektronischen Patientenakte an 170 Personen
durchgeführt. Im Rahmen der vorliegenden Arbeit wurde analysiert, welche
geplanten Aspekte einer EPA von den Testpersonen auf positive, oder aber
negative Resonanz stoßen. Dabei wurden Informationen über Trends,
Bedürfnisse, Erwartungen und Neigungen der befragten Benutzer erhoben,
aber auch Ängste und Unsicherheiten, die sich vorwiegend auf den Bereich
des Datenmissbrauchs beziehen, erfasst. Zunächst wurden Hypothesen zum
Thema elektronische Patientenakte in Österreich im Allgemeinen erarbeitet,
die durch die durchgeführte Befragung verifiziert oder falsifiziert wurden.
Dabei zeigte sich, dass der Großteil (78%) der befragten Testpersonen
bereits konkrete Vorstellungen von einer EPA hat. Dabei zeigen die
verschiedenen Altersgruppen bei mehreren relevanten Fragestellungen keine
signifikanten Unterschiede, z.B. glauben ältere (>40 Jahre) ebenso wie
jüngere Menschen (< 40 Jahre) an einen persönlichen Nutzen durch eine
EPA. Ein tendenzieller Unterschied der Altersgruppen konnte allerdings in
Bezug auf die Verwaltung der in einer EPA gespeicherten medizinischen
Daten erfasst werden. Ältere Menschen wollen dabei anfallende Daten von
geschulten Personen verwalten lassen, während jüngere Benutzer ihre
Daten selbst verwalten wollen. Als Ergebnis der durchgeführten Studie
wurden deutliche Trends in Bezug auf Nutzung, Ängste und Ideen der
zukünftigen Nutzer eines solchen Systems identifiziert.
INSTITUT FÜR RECHNERGESTÜTZTE AUTOMATION
Arbeitsbereich Automatisierungssysteme
Simone Awender
Anforderungsanalyse in Bezug auf den Nutzungskontext eines webbasierten
Buchhaltungssystems für Einnahmen / Ausgabenrechner
Studium: Masterstudium Information and Knowledge Management
BetreuerIn: Ao.Univ.Prof. Dr. Thomas Grechenig
Abstrakt: Als Ziel der vorliegenden Diplomarbeit wird eine Anforderungsanalyse für die Realisierung einer Benutzerschnittstelle für ein webbasiertes
Buchhaltungsprogramm für Einnahmen / Ausgabenrechner erstellt, wobei
aktuelle Methoden des Usability Engineering eingesetzt und gängige
Standards implementiert werden. Besonderer Fokus wird dabei auf die
Bedürfnisse zukünftiger Benutzer und den Aspekt Barrierefreiheit gelegt, um
neben den identifizierten Zielgruppen auch behinderten Anwendern eine
optimale Nutzung zu ermöglichen. Zu Beginn werden die gängigsten
Techniken der Fachdisziplin mit ihren spezifischen Vor- und Nachteilen einer
potentiellen Umsetzung diskutiert. Der Planungsprozess wird ebenso
vorgestellt wie die Werkzeuge, die zu dessen Realisierung verwendet werden
können. Anhand eines konkreten Fallbeispiels wird aufgezeigt, welche
Probleme in der Realisierungsphase auftreten können und in wie weit die
Methoden des Usability Engineerings anwendbar sind. Dabei werden
zunächst die betroffenen Benutzergruppen erhoben, die sich jeweils
hinsichtlich ihrer grundsätzlichen Einstellung und Bereitschaft, ihrer
Kenntnisse und Erfahrungen unterscheiden. Des weiteren werden bereits
etablierte Anwendungen detailliert untersucht und ausgesuchte Elemente als
Basis ins Fallbeispiel integriert, um den Benutzern eine gewohnte und damit
intuitiv verwendbare Applikation anbieten zu können. Abschließend wird das
Umfeld einer solchen Anwendung im Falle einer tatsächlichen
Markteinführung beleuchtet, damit auch marktspezifische Anforderungen
auf die Gestaltung der Oberfläche Einfluss nehmen können. Als Ergebnis der
Arbeit wurde ein Prototyp der Anwendung entwickelt, der die essenziellen
Erkenntnisse aus dieser Arbeit enthält und damit zeigen kann, inwieweit
moderne Erkenntnisse des Usability Engineering dazu beitragen können, die
Bedienbarkeit und somit die Akzeptanz der Benutzer zu erhöhen.
Andreas Berger
Analyse von Software Engineering Teams in Bezug auf die Rollenvergabe zur
Optimierung der Team-Performance in der Gruppenbildungsphase
Studium: Diplomstudium Informatik
BetreuerIn: Ao.Univ.Prof. Dr. Thomas Grechenig
Abstrakt: In den letzten Jahren wurde die Steigerung und die Optimierung
von Team-Performance in Software Engineering Prozessen ein zentrales
Problem der Disziplin, nicht nur deshalb, weil die Personalkosten den
wesentlichsten Bestandteil an den Gesamtprojektkosten ausmachen,
sondern auch weil immer mehr Projekte in (Klein-)Gruppen durchgeführt
werden. Diese Teams rekrutieren sich oft aus Personen, die sich zumeist
untereinander nicht kennen und daher einen Gruppenbildungsprozess, in
dem Rollen zugeordnet und genauer ausdifferenziert werden, durchlaufen
müssen. Die gängigen Methoden zur Team-Performance-Steigerung
versuchen nun mittels Persönlichkeitsprofilen von Rollen und gegenseitigen
Skill-Evaluierungen der Teilnehmer eine Optimierung des TeambildungsProzesses durch geschickte Rollenvergabe zu erreichen. Diese Methoden
René Baranyi
Erhebung und Evaluierung von Akzeptanz und Nutzung der zukünftigen
elektronischen Patientenakte in Österreich
Studium: Masterstudium Medizinische Informatik
BetreuerIn: Ao.Univ.Prof. Dr. Thomas Grechenig
7
8
haben jedoch das Problem immanent, dass sie - bedingt durch ihren
methodischen Ansatz – nicht bereits zum Zeitpunkt der Entstehung der
Teams angewandt werden können und dadurch nur beschränkt von Nutzen
sind. Eine möglichst frühe Teamoptimierung ist vor allem wichtig, weil mit
der Zeit die Team-Performance zunimmt: Der Output eines Teams ist in den
ersten Teambildungs-Phasen signifikant schlechter als in den späteren. Es
sollten also Methoden entwickelt werden, die schon zu einem früheren
Zeitpunkt greifen können, bestenfalls beim ersten Treffen. Zu diesem Zweck
analysiert die folgende Arbeit Teams bei der Rollenvergabe bereits in ihrer
Genesis und ermöglicht so Klassifizierungen von Gruppen, die dann später
kritisch evaluiert werden. Dabei wird besonderes Augenmerk auf die
Evaluation von Zufriedenheit mit der erhaltenen Rolle gelegt.
Folgeforschungen haben so die Möglichkeit, Strategien von erfolgreichen
und zufriedenen Gruppen zu fördern und Methoden der nicht erfolgreichen
Gruppen zu vermeiden.
Thomas Flanitzer
Security mechanisms for low-end embedded systems
Studium: Masterstudium Technische Informatik
BetreuerIn: Ao.Univ.Prof. Dr. Wolfgang Kastner
Abstrakt: Home and Building Automation (HBA) systems use control
networks for accessing devices inside buildings to improve the building's
efficiency, flexibility and control. Typical applications include the control of
lighting, heating, ventilation and air-conditioning. In such systems, a special
device class called Sensors, Actuators and Controllers (SACs) can be be
identified to have the typical characteristics of low-end ES. SACs play an
important role in HBA systems and are often used in large numbers. The
goal of this thesis is to provide general security in low-end ES while still
allowing to run arbitrary and uninspected (and possible erroneous and
malicious) application programs. The system as well as its environment
should be protected against security attacks. Various existing mechanisms
for improving application level security are reviewed and evaluated in terms
of applicability to low-end embedded systems. Suitable mechanisms are
selected and combined into a concept architecture which is introduced as
an efficient and secure solution for providing resistance to any kind of
software-based attack. The feasibility and effectiveness of the architecture is
demonstrated with a Proof-of-Concept (PoC) implementation which was
developed as part of the thesis. The PoC closely resembles the typical
functional profile of a SAC device. A test environment, consisting of an HBA
network, was built and several examples and tests were run. In these tests,
the PoC delivered some interesting and promising results which support the
potential of the proposed architecture.
Hannes Brandstetter
Heimautomationssystem - Theorie und Praxis
Studium: Masterstudium Informatikmanagement
BetreuerIn: Ao.Univ.Prof. Dr. Wolfgang Kastner
Abstrakt: War die Gebäudeautomatisierung bisher hauptsächlich im Büround Industriebereich verbreitet, wurde durch neue Produkte und Konzepte
die Idee der Automation in die Wohnzimmer getragen. Dank der
Liberalisierungen am Telekomsektor, dazu zählt vor allem die Freigabe von
Frequenzbereichen, welche für lizenzfreie Nutzung europaweit oder gar
weltweit zur Verfügung gestellt wurden, konnten dem Endnutzer einfach zu
bedienende und in der Anschaffung günstige Steuersysteme angeboten
werden. Der Markt ist mittlerweile unübersichtlich, verschiedenste Systeme
konkurrierender Hersteller sind nicht miteinander kompatibel, dennoch
konnten sich einige Standards etablieren, welche jeweils von mehreren
Herstellern unterstützt werden. Die vorliegende Masterarbeit behandelt in 3
Teilen verschiedene Aspekte der Heimautomatisierung. Im ersten Teil wird
versucht die Kriterien zu ermitteln, welche für Automatisierungssysteme im
Allgemeinen und Heimautomatisierung im Speziellen zur persönlichen
Entscheidungsfindung relevant sein können. Im zweiten Teil werden
bestehende Standards, Systeme und Systemkomponenten dargestellt. Im
dritten Teil wird ein konkretes Projekt vorgestellt, welches mit bewährten
Standardkomponenten eine kostengünstige individuelle Haussteuerung
verwirklicht, wobei auf möglichst offene Architektur geachtet wurde, um
später Schnittstellen für bestehende und zukünftige Systeme entwickeln und
einbinden zu können. Die Masterarbeit als solches, insbesondere das PraxisProjekt soll geeignet sein, im fachtheoretischen und fachpraktischen
Unterricht sowohl Grundkenntnisse der Automation zu vermitteln, als auch
einen vertiefenden Einblick in die Funktionsweisen von Heimautomation zu
ermöglichen.
9
Sascha Frühwirth
Ein hybrides Verfahren zur automatischen Rekonstruktion von
handzerrissenen Dokumentenseiten mittels geometrischer Informatinen
Studium: Diplomstudium Informatik
BetreuerIn: Ao.Univ.Prof. Dr. Thomas Grechenig
Nicole Gabriel
Anforderungsanalyse eines Patienten-Kiosk-System für das Krankenhaus
Güssing
Studium: Masterstudium Wirtschaftsinformatik
BetreuerIn: Ao.Univ.Prof. Dr. Thomas Grechenig
Abstrakt: Die gegenständliche Diplomarbeit beschäftigt sich mit der
Möglichkeit, gewisse administrative Tätigkeiten in einem Krankenhaus auf
die Patienten zu übertragen. Anhand des Fallbeispiels "Allgemeines
10
Öffentliches Krankenhaus Güssing" werden die Funktionalitäten eines
elektronischen Patienten-Kiosk-Systems analysiert, wobei die Terminreservierung, die Terminanmeldung und die Anzeige von Lageplänen die
grundlegenden Funktionalitäten bilden. Basis der Diplomarbeit ist die
Definition von fachlichen Grundlagen zur Anforderungsanalyse sowie der
Methodik für die Erarbeitung dieser. Ausgehend von der Erhebung des IstZustandes und der Definition der An- und Abmeldeprozesse von Patienten
wird eine umfassende Analyse durchgeführt, welche Anforderungen das
Patienten-Kiosk-System erfüllen soll und wie der Einsatz des Systems zuvor
genannte Prozesse verändert.
Thomas Heinz
Optimierung des Business Continuity Managements von Klein- und
Mittelunternehmen mittels ITIL v3
Studium: Masterstudium Wirtschaftsinformatik
BetreuerIn: Ao.Univ.Prof. Dr. Thomas Grechenig
Abstrakt: Heute wird die Informationstechnologie noch sehr oft als Mittel
zum Zweck betrachtet, die strategischen Vorteile durch einen effizienten
Einsatz
werden
oft
übersehen.
Im
Falle
eines
Ausfalls
der
Informationstechnologie kommen die fatalen Auswirkungen zum Vorschein,
welche durch unzureichende präventive Maßnahmen ausgelöst werden. Im
Zentrum der vorliegenden Arbeit steht die vergleichende Untersuchung
aktueller präventiver Methoden und deren Potential für die Notfallplanung
betreffend die IT von Unternehmen. Dabei werden im Speziellen die
Methoden Business Continuity Management und IT-Service Continuity/Disaster Recovery analysiert, wobei der Fokus auf Anforderungen von
KMUs liegt. Bei der Methode Business Continuity Management steht der
prozessorientierte Ansatz im Vordergrund, wobei Geschäftsabläufe in
Unternehmen als sensibel eingestuft werden, welche bei einem Ausfall die
schwerwiegendsten Auswirkungen haben. IT-Service Continuity beinhaltet
hingegen Maßnahmen für die Sicherstellung einer Beständigkeit bezüglich ITServices von Unternehmen. Diese Maßnahmen werden mit der Methode
Disaster Recovery beschrieben. Im weiteren Verlauf der vorliegenden Arbeit
werden Maßnahmen beschrieben, die eine effiziente Verbesserung der ITServices in Unternehmen ermöglichen. Diese Maßnahmen werden mit Hilfe
des aktuellen ITIL-Bandes Continual Service Improvement beschrieben. Als
Fallbeispiele werden in dieser Arbeit zwei unterschiedliche Unternehmen und
deren Notfallmethoden im Detail dargestellt. In diesem Abschnitt werden
entsprechend den Eigenschaften der verschiedenen Unternehmen
Maßnahmen vorgeschlagen, wie Notfallplanung eingeführt oder verbessert
werden kann. Als Ergebnis der vorliegenden Arbeit konnte gezeigt werden,
dass die Möglichkeiten des IT-Service Continuity/Disaster Recovery für
kleinere Unternehmen durchaus ausreichend sind, während die Methoden
des umfassenderen Business Continuity Management aus Kostengründen
eher für größere Unternehmen geeignet sind. Zusätzlich konnte aufgezeigt
werden, wie eine Verbesserung der IT-Services durch Methoden des
Continual Service Improvements stattfinden kann.
Elham Hedayati-Rad
Analyse, Auswertung und Visualisierung umfangreicher textueller Daten mit
dem Schwerpunkt der elektronischen Bürgerzufriedenheitserhebung als
Aspekt des e-Government
Studium: Diplomstudium Informatik
BetreuerIn: Ao.Univ.Prof. Dr. Thomas Grechenig
Abstrakt: In der vorliegenden Arbeit wird aufbauend auf der theoretischen
Basis der empirischen Sozialforschung ein Einblick in die Problematik der
Analyse
unstrukturierter
Texte
im
Umfeld
von
Bürgerzufriedenheitserhebungen erarbeitet. Gerade im Bereich des e-Government
ist die Partizipation der Bürger wünschenswert und wichtig, weil nur bei
Vorliegen von Feedback der Bürger eine positive Verbesserung Veränderung
verwaltungstechnischer und organisatorischer Abläufe möglich wird. Ein
wichtiges Mittel für die Erhebung der Bürgermeinung sind Umfragen und
Interviews. Die Zielsetzung dieser Arbeit ist es, einen Überblick über die
relevanten Gebiete der empirischen Sozialforschung und über die
technischen Aspekte der Auswertung von Umfragen zu schaffen, wobei
neben der Erhebung und Analyse quantitativer Daten ganz besonders die
Erhebung und Analyse qualitativer Daten eine wichtige Rolle spielt. Gerade
bei Bürgerbefragungen sind häufig Antworten in Form unstrukturierter Texte
zu finden, deren Auswertung mit hohem Zeitaufwand und somit hohen
Kosten verbunden ist. Im technischen Teil dieser Arbeit werden die
grundlegenden Algorithmen vorgestellt, die notwendig sind, um qualitative
Daten in Form von unstrukturierten Texten analysieren zu können, wobei ein
Überblick über aktuelle Softwarelösungen gegeben wird. Abschließend wird
anhand
einer,
im
Rahmen
der
Diplomarbeit,
ausgewerteten
Bürgerzufriedenheitsumfrage die Anwendung der vorgestellten Algorithmen
demonstriert.
Eduard Hirsch
Quantum cryptography applied for safety relevant systems
Studium: Diplomstudium Informatik
BetreuerIn: O.Univ.Prof. Dr. Gerhard-Helge Schildt
Abstrakt: Diese Diplomarbeit befasst sich mit einer der neu aufkommenden
Ideen, die die Quantuen Theorie hervor gebracht hat: Quanten
11
12
Kryptographie. Zuerst werden Grundlagen vermittelt, sprich grundlegende
kryptographische Methoden welceh in der klassischen Kryptographie benutzt
und anschließend beschrieben werden mit dem Focus auf eine Szenerie, die
später erstellt wird. Dabei handelt es sich zum Beispiel um RSA,
Authentifizierung und verschiedenste andere Punkte die wichtig sind bevor
Verschlüsselungs mehtoden überhaupt angewandt werden können. Wenn
die klassischen Konzepte klar sind wird Quanten Kryptographie näher
diskutiert, wobei zuerst oberflächlich die Prinzipien der Quanten Theorie
besprochen werden. Unter anderem werden Quantenzustände und
Superpositionen besprochen. Speziell wird auch der Fokus auf
Verschränkung und das No-Cloning Theorem gelegt. Zusätzlich wird der
Vater der heutigen Quanten Kryptrographie Protokolle (BB84 Protokoll)
präsentiert, um die grundlegenden Prinzipien zu verstehen. Weiters wird die
Verwendung von Quanten Kryptographie in einem sicherheitsrelevanten
System untersucht. Das heißt für dieses Dokument, dass eine
Beispielumgebung skizziert wird, wleche moderne klassische, mit Quanten
Kryptographie
verbindet.
Dabei
gilt
es
eine
zentrale
Kommunikationsumgebung, die auf IPSec basiert und fähig ist, mehrere
verbundene Kernkraftwerke zu kontrollieren und teilweise zu administieren,
wobei Grenzen und Möglichkeiten der Quanten Kryptogrpahie aufgezeigt
werden. Wirklich wichtig dabei ist die Zuverlässigkeit und Verfügbarkeit des
System und Strategien, wie das gewährleistet werden kann. Zum Schluss
wird die erstellte Szenerie überprüft und auf Brauchbarkeit untersucht.
Dabei werden Authentifizierung, das IPSec Protokoll und verschiedene
andere Attacken betrachtet und ausgewertet. Folglich zeigt dieses
Dokument, mit welchen Maßnahmen man Quanten Kryptographie für den
Einsatz in sicherheitsrelevanten Systemen bereit machen kann. Neue
Quanten kryptographische und bereiets allgemein angewandte Methoden
werden also kombiniert um eine gut funktionierende Kommunikationsumgebung zu erhalten. Verschiedenste Methoden werden diskutiert, elche
sehr komplex sind und das Hintergrundwissen steigt, je mehr man sich mit
dem Thema befasst. Deshalb werden die hier verwendeten Methoden nur
bis zu einem gewissen Grad behandelt, weil der Fokus auf der
Zusammenarbeit zwischen den verschiedenen Protokollen und Technologien
liegt.
Communication (NFC) wurde nun zusätzlich die Nutzung als elektronische
Geldbörse für mobile Bezahlung (M-Payment) realisiert. Die vorliegende
Arbeit beschäftigt sich zunächst mit den Grundlagen von Bezahlsystemen im
Allgemeinen sowie gängigen Technologien zur Datenübertragung. Kern der
Arbeit ist die Identifizierung möglicher Sicherheitsrisiken und die Erarbeitung
von Kriterien, die für die Akzeptanz von M-Payment beim Endanwender
wichtig sind. Basis für entsprechende Bewertungen waren vor allem Studien
und Meinungsumfragen von Endanwendern über die Nutzung oder
Ablehnung von M-Payment sowie Erhebungen zum Thema Sicherheitsrisiken
im Bereich der Datenübertragung. Im Rahmen der vorliegenden Arbeit
konnte
klar
aufgezeigt
werden,
dass
derzeit
noch
zahlreiche
Sicherheitsrisiken bei der Nutzung von Mobile Contactless Payment, das ist
M-Payment mittels NFC, bestehen. Als kritische sicherheitsrelevante
Erfolgsfaktoren bei der Etablierung von Mobile Contactless Payment konnten
folgende Parameter identifiziert werden: die sichere Kommunikation der
Geräte, die Wahl des Trägermediums, der Einsatz einer geeigneten und
ausgereiften Software, Prävention von Anwendungs-fehlern, der vertrauliche
Umgang mit Daten, die Sicherheit der Smart Card sowie die Einhaltung
allgemein gültiger Sicherheitsaspekte. Zusammenfassend konnte gezeigt
werden, dass erst durch die Berücksichtigung dieser identifzierten
Sicherheitskriterien die Endanwender-akzeptanz von Mobile Contactless
Payment entscheidend erhöht werden kann, woran bisherige Projekte
scheiterten.
Kariem Hussein
Design and Development of a Standards-Based Authoring Framework for
Software Requirements Specifications
Studium: Diplomstudium Informatik
BetreuerIn: Ao.Univ.Prof. Dr. Thomas Grechenig
Abstrakt: Da sich die Softwareindustrie immer noch ständig weiter
entwickelt, ist es für Firmen nötig, ihre Absichten in der Form von
Anforderungsdokumentation niederzuschreiben und diese Anforderungen
sowohl intern, als auch mit ihren Kunden zu kommunizieren. Beim Verfassen
der
Anforderungsdokumentation
verwenden
Autoren
heutzutage
hauptsächlich Textverarbeitungsprogramme, sowie zusätzliche Software zur
Erstellung von Grafiken. Diese Kombination von Werkzeugen bietet nur sehr
wenige der Eigenschaften, die für die Erstellung, Prüfung, oder Wartung von
solcher Dokumentation nötig ist, wie etwa transparente Versionierung,
automatisierte Publizierung und erweiterbare Schnittstellen zur Verbindung
von externen Systemen. Das in dieser Arbeit vorgestellte Authoring
Framework bietet Verbesserungen auf all den angesprochenen Ebenen und,
aufgrund des Standars-basierten Konzeptes, Integrationspunkte für
bestehende Software. Diese Arbeit zeigt, wie die einzelnen Teile der
Komponenten des Frameworks — das Dokumentenformat, das
Autorensystem, sowie das Repository — zusammen wirken, um eine
Yvonne Hren
Identifikation und Analyse sicherheitsrelevanter Kriterien für Mobile
Contactless Payment-Systeme zur Förderung der Akzeptanz beim
Endanwender
Studium: Masterstudium Informatikmanagement
BetreuerIn: Ao.Univ.Prof. Dr. Thomas Grechenig
Abstrakt: Das Mobiltelefon dient heutzutage neben seiner primären Funktion
als
Kommunikationsmedium
zur
Bereitstellung
unterschiedlichster
Informationen. Durch die Entwicklung der drahtlosen Near Field
13
14
Umgebung für die effiziente Erstellung von Dokumenten zu schaffen. Bereits
bestehende Lösungen für das Dokumentenformat und das Autorensystem
werden analysiert und gegenübergestellt. Für beide Komponenten
beschreibt diese Arbeit Kriterien, die dafür verwendet werden können,
Lösungen für den Einsatz zur Dokumentationserstellung zu bewerten. Die
daraus resultierenden Ergebnisse werden bei der Architektur und beim
Design des Authoring Frameworks eingesetzt.
Christian Kekeiss
Einsatz von Honeyclient Technologien zur Steigerung der Sicherheit im
universitärem Umfeld
Studium: Masterstudium Software Engineering und Internet Computing
BetreuerIn: Ao.Univ.Prof. Dr. Thomas Grechenig
Abstrakt: Angriffe auf IT-Systeme sind heute weit verbreitet und stellen eine
große Gefahr für Computernetzwerke dar. Bisher wurden dabei vor allem
Server angegriffen, welche allerdings bereits relativ gut erforscht sind,
wobei sich im Forschungsbereich Honeypots und Honeynets als Analysetool
etabliert haben. In letzter Zeit tritt in Netzwerken jedoch immer häufiger
eine neue und weitgehend unerforschte Angriffstechnik auf, die eine
ernstzunehmende Gefahr für IT-Systeme darstellen. Dabei handelt es sich
um client-seitige Angriffe, bei denen Fehler in der Clientsoftware für
Attacken genutzt werden. Die Clientrechner können dabei vom User völlig
unbemerkt angegriffen werden. Ein Detektionstool für client-seitige Angriffe
ist daher von großer Bedeutung für die Sicherheit von Computersystemen,
da bisherige Techniken dafür nicht genutzt werden können. Einen
Lösungsansatz bietet jedoch die neu entwickelte Methodik der Honeyclients,
welche für die Detektion solcher Angriffe entwickelt wurden. Dadurch stellen
sie einen sehr wichtigen Faktor in der Erhöhung der Sicherheit für ITSysteme dar. Honeyclients sind ein spannendes, neues Forschungsgebiet
mit vielen unterschiedlichen Umsetzungsvarianten. Ein Vergleich der
Leistungsfähigkeit und der Eignung für spezifische Problemstellungen der
einzelnen Systeme liegt jedoch bisher kaum vor. Die vorliegende Arbeit
leistet einen Beitrag zu einem übersichtlichen Vergleich zwischen
verschiedenen Honeyclients. Es wird zunächst eine Einführung in das
Konzept der Honeyclients gegeben. Anschließend werden unterschiedliche
Implementierungen von Honeyclients vorgestellt und in Hinblick auf eine
Anwendung in einem universitären Netzwerk evaluiert. Abschließend werden
die Daten daraufhin analysiert, ob die theoretischen Unterschiede zwischen
verschiedenen Honeyclients, die aus der Literatur bekannt sind, auch in der
Praxis bestehen.
Harald Kahler-Ullepitsch
Planung, Systemarchitektur und Aufbau der betrieblichen Infrastruktur für
ein großes Tagesprintmedium in Österreich
Studium: Masterstudium Wirtschftsinformatik
BetreuerIn: Ao.Univ.Prof. Dr. Thomas Grechenig
Berk Kaynak
Development of electronic health records in the United States, England and
Denmark
Studium: Masterstudium Wirtschftsinformatik
BetreuerIn: Ao.Univ.Prof. Dr. Thomas Grechenig
Abstrakt: Im Rahmen der vorliegenden Arbeit wird das aktuelle
Forschungsgebiet rund um die vieldiskutierte elektronische Gesundheitsakte
näher untersucht. In diesem Bereich werden jedes Jahr verschiedene
Produkte auf den Markt gebracht, wobei hier allerdings noch ein großer
Bedarf an Verbesserungen besteht. Obwohl die meisten medizinischen
Institute heutzutage von elektronischer Dokumentation Gebrauch machen,
weist die bereits bestehende Infrastruktur größtenteils gravierende Mängel
auf. Das reine Abspeichern von Gesundheitsakten auf einem Rechner kann
nicht als elektronischer Datenaustauch bezeichnet werden, da die
übertragung dieser Dokumente in elektronischer Form nicht gewährleistet
ist. Heutzutage besteht ein starker Bedarf an der landesweiten
Implementierung
von
elektronischen
Gesundheitsakten,
um
den
elektronischen
Datenaustausch
zwischen
den
verschiedenen
Krankenhäusern und anderen medizinischen Instituten zu ermöglichen. Das
Ziel der vorgelegten Magisterarbeit ist es, bereits durchgeführte,
landesweite Implementierungsprojekte von elektronischen Gesundheitsakten
in drei unterschiedlichen Ländern vergleichend zu analysieren: USA,
Dänemark und England. Als Ergebnis der Arbeit wurden relevante Kriterien
identifiziert und tabellarisch präsentiert, die entscheidende Faktoren für eine
erfolgreiche landesweite Implementierung aufzeigen. Gleichzeitig dient die
erarbeitete Tabelle als Basis für einen aussagekräftigen Vergleich von
beliebigen Ländern mit umfassenden, landesweiten Implementierungsprojekten von elektronischen Gesundheitsakten.
15
Wolfgang Köhler
Simulation of a KNX network with EIBsec protocol extensions
Studium: Diplomstudium Informatik
BetreuerIn: Ao.Univ.Prof. Dr. Wolfgang Kastner
Abstrakt: Systeme der Gebäudeautomation beschäftigen sich mit der
automatischen Steuerung von Heizungsanlagen, Belüftungssystemen, Licht
und Beschattung. KNX/EIB ist ein verbreiteter Standard in der
Gebäudeautomation. EIBsec ist eine Erweiterung dieses Standards um
Sicherheitskonzepte wie sichere Kommunikation, Schlüsselverwaltung,
Datenintegrität,
Vertraulichkeit,
Aktualität
und
Authentifizierung
16
sicherzustellen. Diese Konzepte sind notwendig um KNX/EIB in
sicherheitskritischen
Aufgabengebieten
wie
Zutrittskontrollen
und
Alarmierungssystemen einsetzen zu können. In der vorliegenden
Diplomarbeit werden die Konzepte von KNX/EIB vorgestellt. Das Verhalten
von KNX/EIB und dessen Erweiterung EIBsec wird an Hand einer Simulation
untersucht und ein Vergleich von für diesen Zweck verfügbaren Frameworks
erstellt. In weiterer Folge wird das Simulations-Framework OMNeT++ im
Detail präsentiert, das die Simulation eines KNX/EIB basierten Netzwerkes
erlaubt. Bei der Modellierung der Objektstrukturen wurde auf eine flexible
Erweiterung des KNX/EIB Netzwerks besonders Wert gelegt. Die
Implementierung untersucht im Speziellen, wie sich das Netzwerkverhalten
ändert, wenn eine bestehende KNX/EIB Installation um das Protokoll EIBsec
erweitert wird. Die durch die Simulation gewonnenen Daten sind in
beliebigen Applikationen auswertbar.
Johannes Kuch
Technologische Methoden und Mechanismen zur Erhöhung der
Vertraulichkeit von VoIP-Verbindungen
Studium: Masterstudium Software Engineering und Internet Computing
BetreuerIn: Ao.Univ.Prof. Dr. Thomas Grechenig
Abstrakt: Das Telefon begleitet die Menschheit seit seiner Erfindung vor nun
mehr als 150 Jahren. Es gab ständig Weiterentwicklungen und
Neuerungen, die den anfänglichen Apparat zur Kommunikation via Sprache
mittlerweile zu einem multifunktionalen Gerät für vielerlei Aufgaben reifen
ließen. Der neueste Trend auf diesem Gebiet heißt Voice-over-IP (VoIP) und
befindet sich seit einigen Jahren auf einem rasanten Vormarsch. Durch die
Verbreitung des Internets und TCP/IP im LAN-Bereich findet sich fast
überall eine geeignete Infrastruktur, um darauf aufbauend Telefoniedienste
zu betreiben. Durch das Aufkommen von immer einfacheren Produkten, die
sich diese Technologie zunutze machen, steigt nun die Verbreitung weiter.
Wie jede neue Technologie, die Vorteile bringt, gibt es auch bei VoIP Risiken
und Probleme beim Einsatz, welche auch berücksichtigt werden müssen.
Dazu soll aufgezeigt werden, wo Schwachstellen von derzeitigen VoIPProtokollen sind, was man dagegen tun kann und inwieweit der Einsatz von
Sicherungsmaßnahmen Besserung bringt bzw. was für Nachteile durch den
Einsatz dieser auftreten können. Die vorliegende Arbeit soll hierbei einen
aktuellen Überblick über verwendete und mögliche Technologien zur
Sicherung von VoIP und der zugrunde liegenden Infrastruktur geben.
Aufgrund der rasant wachsenden Technologien bieten andere Werke meist
eine überalterte und/oder nicht vollständige Sicht auf die aktuelle
Entwicklung, sodass diese zwar als Quellen herangezogen werden können,
aber nicht ausreichen. Auch steht bei dieser Arbeit die ganzheitliche
Betrachtung im Vordergrund, sodass sowohl VoIP als auch die zugrunde
liegende Infrastruktur als Gesamtheit analysiert wird. Im Rahmen der
vorliegenden Arbeit wird klar aufgezeigt, dass es für die Absicherung von
VoIP-Verbindungen eine Vielzahl von Möglichkeiten gibt, deren Einsatz stark
von den Anforderungen an die Sicherheit und den technischen Möglichkeiten
der VoIP-Geräte abhängt.
Ulrich Krenn
Analyse und Lösungsansätze zum Problem des Monitorings in der SAPBetriebsführung
Studium: Masterstudium Informatikmanagement
BetreuerIn: Ao.Univ.Prof. Dr. Thomas Grechenig
Abstrakt: Diese Arbeit befasst sich mit den Voraussetzungen und
Funktionalitäten, die IT Management Software – besonders im Bereich des
SAP-Systemmonitorings – aufweisen muss, um einen reibungslosen Betrieb
der IT-Systeme zu gewährleisten. Zunächst wird ein Anforderungskatalog
erstellt, der auf unternehmensinternen (Sicherheits-)zielen ebenso wie auf
internationalen Standards basiert. Als zentrale Fragestellung der
vorliegenden Diplomarbeit wird analysiert, ob der Funktionsumfang des „SAP
Solution Managers" der SAP AG geeignet ist, als eigenständige SystemMonitoring-Lösung für SAP Systeme eingesetzt zu werden. Dabei wird
anhand konkreter Fallbeispiele eines IT-Outsourcers diskutiert, ob der „SAP
Solution Manager" eine ergänzende oder ersetzende Rolle gegenüber
anderen kommerziellen Lösungsmöglichkeiten darstellt. Zusätzlich wird
dieser Vergleich der unterschiedlichen IT Management Softwarelösungen
tabellarisch präsentiert. Abschließend konnte klar aufgezeigt werden, dass
der SAP Solution Manager eine immer entscheidendere Rolle für den SAP
Systembetrieb einnimmt, aber nur in einem Teilbereich klare Vorteile
gegenüber den Konkurrenzprodukten aufweist.
Doris Lederer
Untersuchung über die Anwendbarkeit einer EPK-Referenzmodellierung am
prototypischen Beispiel der Kreditprozesse einer Universalbank
Studium: Masterstudium Wirtschaftsinformatik
BetreuerIn: Ao.Univ.Prof. Dr. Thomas Grechenig
Abstrakt: Unter einem Referenzmodell wird strukturiert abgelegtes
Domänenwissen verstanden, das in den meisten Fällen über die
Geschäftsprozesse abgebildet wird. Heute existiert eine Vielzahl an
verschiedenen Referenzmodellen, die den unterschiedlichen Domänen
17
18
(Handel, Industrie, Controlling, PPS-Systeme, ...) zuzuordnen sind. Die
verschiedenen Referenzmodelle weisen unterschiedliche Modellierungsmethoden sowie Modellierungstiefen auf. Ein allgemein akzeptierter
Standard für die Beschreibung von Referenzmodellen hat sich bis jetzt noch
nicht durchgesetzt. Die vorliegende Arbeit stellt den Forschungsbereich
Referenzmodellierung sowie die Methoden der Modellierung von
Referenzmodellen dar und wendet diese im Bereich des Kreditprozesses im
Privatkundenbereich einer Universalbank an. Eine weit verbreitete Methode
zur Referenzmodellierung stellt das Phasenmodell zur konfigurativen
Referenzmodellierung dar. Es besteht aus den fünf Phasen Projektziel
definieren,
Referenzmodellierungstechnik
definieren,
Referenzmodell
erstellen, Referenzmodell evaluieren und Referenzmodell vermarkten. Für
die Referenzmodellierung eignet sich besonders die Modellierungssprache
EPK (Ereignisgesteuerte Prozessketten), die sich aufgrund ihrer
anschaulichen Abbildung von Kontrollflüssen und ihrer Eignung für
Modellnutzer auch ohne fundiertes modelltechnisches Vorwissen großer
Beliebtheit erfreut. Im Rahmen der vorliegenden Arbeit wurde der
Kreditprozess zur Förderung der Verständlichkeit, Allgemeingültigkeit,
Anpassbarkeit und Anwendbarkeit des Referenzmodells in mehrere
Teilprozesse zerlegt. Ferner wurde der vollständige Kreditprozess abgebildet
sowie die Inhalte der Funktionen im Text beschrieben. Durch die
Verwendung von ARIS Business Architect als Modellierungswerkzeug
konnten nicht nur die einzelnen Funktionen und Ereignisse des
Kreditprozesses dargestellt werden, sondern auch die beteiligten Personen,
Dokumente und Anwendungssysteme. Um den Konnex zur Praxis
herzustellen, wurden Experteninterviews durchgeführt. Die gewonnenen
Informationen finden sich in den Modellen wieder. Das erstellte
Referenzmodell beinhaltet alle relevanten Prozessschritte im Kreditgeschäft
des Privatkundenbereichs einer Universalbank und kann zur qualitativen
Verbesserung
sowie
der
zeitlichen
Beschleunigung
der
Applikationsentwicklung beitragen.
Sicherheitsproblemen. Aktuelle Lösungsansätze um solche Attacken
einzuschränken basieren hauptsächlich auf serverseitigen Eingabefiltern,
"Input Filtern". Das Erstellen von passenden Input Filtern kann schwierig und
fehleranfällig sein.Andere Ansätze müssen vom Endbenutzer angewandt
werden. Aufgrund von Beobachtungen von filterbasierten Lösungen und
deren Problemen, stelle ich einen neuen Ansatz vor, der die Vorteile der
Fähigkeiten eines Web Browsers beim Ausführen von JavaScript ausnutzt,
um bösartigen Input zu erkennen. Dies geschieht ohne Involvierung des
Endbenutzers. In dieser Arbeit werde ich die Notwendigkeit für neue
Methoden erklären, einen Überblick über meinen Ansatz geben und die
"Proof-of-concept" Implementierung, die ich erstellt habe beschreiben:
SWAP (Secure Web Application Proxy), ist ein System, das eine
modifizierteVersion des Mozilla Firefox Browsers und einen Reverse Proxy
kombiniert, um eine serverseitige Lösung zur Bekämpfung von "reflected"
und "stored cross-site scripting" Attacken zu erhalten. Anschließend werde
ich einen Testablauf beschreiben, der die Fähigkeiten der Implementierung
bestätigt. Zu diesem Zweck wurde ein Testsystem erstellt, das SWAP mit
Real-World Applikationen testet. Mein Ansatz liefert völlige Transparenz für
den Client und ist daher eine brauchbare Alternative um Endbenutzer vor
"cross-site scripting" Attacken zu beschützen.
Tomislav Maricevic
Design and architecture of a Nationwide ID infrastructure project in Republic
of Croatia
Studium: Masterstudium Wirtschaftsinformatik
BetreuerIn: Ao.Univ.Prof. Dr. Thomas Grechenig
Abstrakt: In den letzten Jahrzehnten hat sich die Sicherheitssituation in der
Welt drastisch verändert. Terrorismus, illegale Einwanderung, Fälschung
von Identifikationen und Dokumenten haben es für Regierungen notwendig
gemacht, neue Lösungen zu suchen, um ihre Bürger zu schützen. National
ID hat sich als ideale Lösung für viele Regierungen gezeigt.
Personalausweise und elektronische Reisepässe sind typische Endprodukte
von solchen Projekten. Welche Methoden und Mechanismen für diesen
Zweck benutzt werden, ist umstritten. Im Mittelpunkt der Diskussion steht,
in welchem Umfang die Regierung die Kontrolle über Privatdaten erhalten
soll, wie lange die Daten gespeichert werden und wer den Zugriff auf diese
äußerst sensitiven Daten hat. Weitere Fragen beziehen sich auf die zu
verwendende Technologie. Obwohl die Technologie einen weiten Schritt
gemacht hat, ist es fraglich, ob sie reif genug ist, Regierung und Bürger
wirklich zufrieden zu stellen. Anhand eines konkreten National ID Projektes in
Kroatien wird ein möglicher Lösungsweg im Rahmen dieser Arbeit
vorgestellt und unterschiedliche Aspekte vergleichend diskutiert.
Christian Ludl
SWAP: A proxy-based solution for mitigating XSS attacks
Studium: Masterstudium Software Engineering und Internet Computing
BetreuerIn: Privatdoz. Dr. Engin Kirda
Abstrakt: Aufgrund der steigenden Anzahl von Web Seiten, der
zunehmenden Komplexität der Web Applikationen und der immer größer
werdenden Bedeutung, die das World Wide Web in den letzten Jahren
erfahren hat, nimmt auch die Forderung nach Absicherung der involvierten
Technologien zu. Schwachstellen wie "Buffer Overflows" in der zugrunde
liegenden Infrastruktur wie Web Server oder Betriebssystem haben an
Bedeutung verloren, während die Sicherheitsaspekte auf höheren Ebenen
immer wichtiger wurden. Insbesondere bei großen Web Applikationen zählen
"cross-site
scripting"
Attacken
heutzutage
zu
den
größten
19
20
sicherheitsrelevante Fehler in diesen Applikationen alltäglich, so sehr, dass
mittlerweile sogar mehr als zwei Drittel aller gemeldeten Sicherheits\-lücken
diese Programmgattung betreffen. Black-Box Tests sind ein gängiges Mittel
um die Qualität von Software zu verbessern und Fehler darin aufzuspüren.
Für webbasierte Applikationen existieren viele Programme, die das
Entdecken
von
sicherheitsrelevanten
Fehlern
automatisieren
und
vereinfachen sollen. So genannte extit{Scanner} oder extit{Fuzzer}
konfrontieren die Applikation mit fehlerhaften Eingabewerten und schließen
aus den Antworten auf das Vorhandensein einer Sicherheitslücke. Diese
Programme haben allerdings beträchtliche Nachteile beim Navigieren einer
webbasierten Applikation, da sie oft an Formularen scheitern, die ein
Vordringen in die Tiefen der Applikation verhindern. Ebenso stellt sie eine
Abfolge an Unteraufgaben vor unlösbare Probleme, wenn die Reihenfolge
dieser Schritte von Bedeutung ist, wie beispielsweise das Befüllen des
virtuellen Einkaufwagens und das nachfolgende Bezahlen mit Kreditkarte in
einem Webshop. Diese Arbeit präsentiert, implementiert und evaluiert
einige Methoden die es sich zum Ziel setzen eine höhere Testabdeckung
innerhalb einer webbasierten Applikation zu erreichen. Zuerst werden aus
bestehenden Anwendungsfällen der Applikation Informationen gewonnen die
es sowohl erlauben einen Scanner mit sinnvollen Eingabedaten anzureichern
als auch komplexe Arbeitsabläufe zu ermöglichen, die ein Vordringen in die
Tiefen der Applikation erst erlauben. Weiters ist es möglich von diesen
vorgegebenen Informationen zu abstrahieren und so automatisiert weitere
Testfälle zu erzeugen und auszuführen.
Andreas Mauczka
Evaluating Object-Oriented Software Metrics for Source Code Change
Analysis - A Study on Open Source Projects
Studium: Masterstudium Wirtschaftsinformatik
BetreuerIn: Ao.Univ.Prof. Dr. Thomas Grechenig
Abstrakt: Ziel dieser Arbeit ist es den Bereich der Software-Metriken,
konkreter den Bereich der Validierung von Software-Metriken, um einen
neuen Ansatz zu erweitern. Die gängige Vorgehensweise zur Validierung von
Software Metriken besteht darin, die Werte, die von den Metriken generiert
wurden, Fehler-Daten in einer statistischen Analyse gegenüber zu stellen.
Die Vorgehensweise in dieser Arbeit widerspricht diesem Ansatz insofern,
als dass die Werte der Metriken dem sogenannten Wartungsaufwand
(Maintenance Effort) gegenüber gestellt werden. Dieser Wartungsaufwand
kann in der Form von Changed Lines gemessen werden und in
automatisierter Form gesammelt werden. Dies ermöglicht eine
ausreichende Stichprobengröße, die wiederum zuverlässiger Schlüsse ziehen
lässt. Änderungen am Source Code sind meistens risikobehaftet und teuer.
Änderungsdaten
stellen daher
einen
interessanten
Aspekt
des
Qualitätsmanagements dar. Ein Ziel dieser Arbeit ist es daher ein Model
vorzustellen, das in der Lage ist, unter der Zuhilfenahme von Software
Metriken, Änderungen aufzuzeigen Um eine ausreichend große Anzahl an
Projekten analysieren zu können, werden Open Source Projekte als
Datenquelle benutzt. In der Studie werden zwei Metriken-Suiten zur
Bewertung der Projekte hinzugezogen. Mittels selbst-geschriebener Parser
werden die Daten für die statistische Analyse aufbereitet. Die Validierung
selbst erfolgt durch Anwendung der Regressionsanalyse. Changed Lines und
die Summe aus Non-Commenting Source Statements (NCSS) und Changed
Lines bilden die abhängigen Variablen. Die von den Metriken erzeugten
Werte stellen die unabhängigen Variablen dar. Ein Set von Hypothesen,
basierend auf Annahmen und Konzepten aus der einschlägigen Literatur,
wird den Ergebnissen der Regressionsanalyse gegenüber gestellt. Das
Ergeb-nis zeigt, dass je „anspruchsvoller“ eine Metrik ist, d.h. je komplexer
sie ist, desto geringer ist ihre Aussagekraft als Prädiktor für die abhängigen
Variablen.
Robert Messner
Anforderungsgetriebene Szenarienevaluierung zur Modernisierung von
Qualitätssystemen in der Fertigungsindustrie
Studium: Masterstudium Software Engineering und Internet Computing
BetreuerIn: Ao.Univ.Prof. Dr. Thomas Grechenig
Abstrakt:
Qualitätsicherung
ist
eine
zentrale
Säule
in
der
Fertigungsindustrie, wobei in diesem Bereich in vielen Unternehmen in den
letzten Jahren Softwarelösungen historisch gewachsen sind, die heutzutage
nicht mehr State of the Art sind und einer Erneuerung unterzogen werden
müssen, um auf dem Markt konkurrenzfähig bleiben zu können. Ziel dieser
Arbeit ist es aufzuzeigen, wie man Legacy Systeme identifiziert und
klassifiziert, und wie man eine Strategie zur Modernisierung entwickelt, die
für das Unternehmen als Ganzes eine optimale Lösung darstellt. Nach
einem allgemeinen Überblick über die Grundlagen der Qualitätssicherung
wird anhand eines konkreten Fallbeispiels im Rahmen der vorliegenden
Arbeit untersucht, welche Maßnahmen zur Modernisierung des
bestehenden, Software- basierten Qualitätsystems am optimalsten geeignet
sind. Dabei wird anhand einer Szenario-basierten Entscheidungsfindung und
eines Reverse-Engineerings eine vergleichende Analyse durchgeführt, die
Vor- und Nachteile der unterschiedlichen Strategien aufzeigt.
Sean Mc Allister
In-depth security testing of Web applications
Studium: Masterstudium Software Engineering und Internet Computing
BetreuerIn: Privatdoz. Dr. Christopher Krügel
Abstrakt: Die Komplexität von webbasierten Applikationen hat in den
vergangenen Jahren stetig zugenommen, oft ziehen sie in Bezug auf
Funktionalität und Design mit herkömmlichen Desktopapplikationen gleich.
Gemeinsam
mit
der
steigenden
Popularität
wurden
auch
21
22
Systemen, jedoch stellen sich den Herstellern als auch dem Anwender
einige technologische Herausforderungen. So ist besonders dem Aspekt der
Sicherheit vermehrt Aufmerksamkeit zu widmen, denn die funkbasierte
Übertragung von Nachrichten bietet Angreifern eine Vielzahl an
Möglichkeiten, die Grundwerte Integrität, Verfügbarkeit und Vertraulichkeit
zu verletzen. Diese Magisterarbeit fasst die Anforderungen, Probleme und
Eigenschaften
von
Wireless-Protokollen
beim
Einsatz
in
der
Gebäudeautomation zusammen. Zunächst werden im Rahmen dieser Arbeit
Anwendungsbeispiele
erarbeitet,
welche
das
Einsatzgebiet
des
Gebäudeautomations-Systems beschreiben. Weiters werden Kriterien
definiert, die ein modernes Gebäudeautomations-System heute erfüllen
muss. Darauf aufbauend werden relevante Protokolle vergleichend
untersucht und eine tabellarische Zusammenfassung der wichtigsten
Eigenschaften heute verfügbarer Protokolle erstellt. Anhand eines konkreten
Anwendungsbeispiels, das spezifische Eigenschaften und Anforderungen an
das System festlegt, konnte abschließend gezeigt werden, in welchen
spezifischen Bereichen noch Entwicklungsbedarf besteht.
Jürgen Moser
Entwurf und Entwicklung eines E-Mail basierten Issue Tracking-Systems zur
Umsetzung eines effektiven Issue Managements in IT-Projekten
Studium: Masterstudium Wirtschaftsinformatik
BetreuerIn: Ao.Univ.Prof. Dr. Thomas Grechenig
Abstrakt: Unter Issue Tracking versteht man das Verfolgen von Aspekten,
welche bei der Durchführung von Projekten auftreten und deren Verlauf
beeinflussen können. Diese Arbeit befasst sich damit, wie Issue Tracking mit
Hilfe von E-Mail zur Unterstützung von Projektmanagement in IT-Projekten
optimal eingesetzt werden kann. Die aus dieser Analyse gewonnenen
Erkenntnisse stellen die Basis für den Entwurf und die Entwicklung eines
mailbasierten Issue Tracking-Systems dar. E-Mail stellt ein heutzutage sehr
intensiv genutztes Kommunikationsmittel dar, wobei es nicht mehr nur zum
Versenden und Empfangen von Nachrichten benutzt wird, sondern vermehrt
der Bedarf entsteht, E-Mail in zahlreichen weiteren Anwendungsgebieten
einzusetzen. Diese erstrecken sich von der Verwendung als Terminplaner
und Datenarchiv über Taskmanagementaktivitäten bis hin zur Nutzung als
Issue Tracking-Instrument. Diese Bedürfnisse können bislang aber nur
unzureichend abgedeckt werden, da sich der Mailstandard seit nunmehr
über 20 Jahren kaum weiterentwickelt hat und somit die am Markt
dominierenden Mailprogramme diese Anforderungen nicht entsprechend
erfüllen. Im Rahmen der vorliegenden Arbeit wird ein detaillierter
Anforderungskatalog erstellt, der die wesentlichen Parameter für effizientes
mailbasiertes Issue Tracking umfasst. Der Lösungsansatz sieht die Nutzung
hierarchisch angeordneter Tags vor, mit denen eingehende und gesendete
Nachrichten näher beschrieben werden können. Mit Hilfe dieser flexiblen
Struktur können die eingeschränkten Möglichkeiten bei Verwendung von
Mailordnern überwunden werden. Im Rahmen der vorliegenden Arbeit wurde
des
Weiteren
ein
funktionsfähiger
Prototyp
entworfen,
der
Projektmanagement-Aufgaben effizient unterstützt. Dabei wurde der
Opensource
E-Mail
Client
„Mozilla
Thunderbird“
entsprechend
weiterentwickelt.
Stephan Muri
Entwicklung eines webbasierten Prototyps zur Unterstützung des
Risikomanagements für IT-Sicherheitsrisiken in großen Infrastrukturen
Studium: Masterstudium Software Engineering und Internet Computing
BetreuerIn: Ao.Univ.Prof. Dr. Thomas Grechenig
Abstrakt: Das Risikomanagement für große IT-Infrastrukturen stellt
heutzutage eine komplexe Herausforderung dar. Sowohl die initiale Risikound Bedrohungsanalyse als auch die Wartung der Infrastruktur inklusive
Erfassung der aktuell vorhandenen Risiken und Bedrohungen ist äußerst
aufwändig. Ein kritischer Faktor der Risiko- und Bedrohungsanalyse ist ihre
Vollständigkeit. Als Unterstützung des Risikomanagement-Prozesses und zur
Sicherung der erforderlichen hohen Qualität gibt es verschiedene Methoden
und Werkzeuge. Ziel dieser Diplomarbeit ist es, einen Prototyp zur
Unterstützung des Risikomanagements für große IT-Infrastrukturen zu
entwickeln. Hierzu werden die theoretischen Grundlagen für die ITSicherheit, das Security Engineering und das Risikomanagement in der
Arbeit dargelegt. Anhand eines Fallbeispiels werden die Anforderungen an
ein solches Werkzeug erarbeitet und umgesetzt. Der im Rahmen der
Diplomarbeit erstellte Prototyp unterstützt das Risikomanagement während
des gesamten Risikomanagementprozesses und hilft dabei, die Bedrohungen
und Risiken einer großen IT-Infrastruktur während der gesamten Lebenszeit
zu überwachen und zu warten.
Thomas Mund
Identifizierung und Evaluierung von Wireless-Protokollen in der
sicherheitskritischen Gebäudeautomation
Studium: Masterstudium Informatikmanagement
BetreuerIn: Ao.Univ.Prof. Dr. Thomas Grechenig
Abstrakt: In der Vergangenheit wie auch heute noch werden
Gebäudeautomations-Systeme hauptsächlich aus kabelgebundenen Netzen
und Komponenten aufgebaut. Es gibt allerdings Anzeichen für einen Trend
hin
zu
funkbasierten
Lösungen.
Drahtlose
Netzwerke
in
der
Gebäudeautomation haben einige Vorteile gegenüber verdrahteten
23
24
wird vorwiegend für den didaktischen Bereich geeignete Software
ausgewählt, um anhand derer verschiedener Möglichkeiten aufzuzeigen sie
portabel zu machen. In der Folge wird der Sachverhalt falsifizieren, wo das
nicht möglich ist. Im Rahmen der Arbeit werden die Vorteile und Grenzen
von Software-Sammlungen wie "Portable Apps" aufgezeigt, "MojoPac", ein
portables Betriebssystem auf Basis von Microsoft Windows wird untersucht
sowie eine Ubuntu Linux Distribution lauffähig auf einem USB-Stick
untergebracht -- vollständig zum Zwecke der Software-Entwicklung
angepasst (z.B. C, C++, Java, Perl, C#). Das Hauptergebnis der Analyse ist,
dass moderne USB-Hardware tatsächlich geeignet ist, um darauf portable
Applikationen zu installieren und zu betreiben. Es ist jedoch darauf zu
achten, nicht die preiswertesten Modelle zu kaufen, um nicht Gefahr zu
laufen, einen USB-Stick zu erhalten, der die eigene Arbeit auf Grund von
Performance-Problemen mehr beeinträchtigt als unterstützt, gerade dann
wenn ein ganzes Betriebssystem darauf installiert wurde. Mit einiger
Anpassungsarbeit ist die Chance, Software von einem USB-Stick starten zu
können, sehr hoch, wie die analysierten Ansätze mit "Portable Apps",
"MojoPac", Linux und der "Digitalen Schultasche" gezeigt haben. Diese
Masterarbeit gibt dem Lehrer einen guten state-of-the-art Überblick über
den aktuellen Stand in Sachen mobiles Lernen.
Markus Opitz
Stickware - Portable Applikationen - Fachdidaktische Betrachtungen zum
Einsatz von Stickware in der Lehre und Weiterbildung
Studium: Masterstudium Informatikmanagement
BetreuerIn: Ass.Prof. Dr. Monika Di Angelo
Abstrakt: Digitale Daten zu transportieren war nie leichter als heute.
Wurden in der Vergangenheit persönliche Daten normalerweise über
Disketten und CDs ausgetauscht, so ist diese Aufgabe mittels mobilen
Massenspeichern, wie USB-Sticks, relativ einfach geworden. Die
Geschwindigkeit der Laufwerke ist enorm gestiegen, während die Preise
gleichzeitig drastisch gefallen sind. Diese Massenspeicher sind im täglichen
Gebrauch sehr wertvoll und das wichtigste ist wohl, dass sie nicht nur zur
Datenspeicherung, sondern auch dazu verwendet werden können, Software
darauf auszuführen. Mit der immer größer werdenden Speicherkapazität ist
es möglich, ganze Applikationen auf einem USB-Stick mitzunehmen. Der
große Vorteil von USB-Sticks im Vergleich zu rein statischen Datenträgern
ist es, Daten leicht verändern zu können. So ist es möglich, persönliche
Daten ebenso wie die damit verbundenen Applikationen mitzunehmen, ohne
an einen spezifischen Computer und seine Konfiguration gebunden zu sein.
Software portabel zu machen ist eine große Verbesserung, die es
ermöglicht, unabhängig von der lokal installierten Software eines Computers
zu arbeiten. "portable applications", "portable apps" oder "stickware" sind die
Terme, die weithin verwendet werden, um Applikationen zu beschreiben, die
in dieser Art "portabel" gemacht wurden. Dieser Vorzug schließlich ist es,
der in Lernkontexten so interessant ist. Während man in konventionellen
Lernsituationen seine gesamten Arbeitsmaterialien (wie Stift, Papier und
Bücher) dabei hatte, so wird in unserer zunehmend globalisierten Welt ein
großer Teil dieser Arbeit mit Computern erledigt. Und genau da liegt das
Problem: Der Wechsel von einer Lernumgebung zu einer anderen bedeutet
automatisch auch den Wechsel von einem Computer zu einem anderen,
also z.B. von der Schule nach Hause. Das führt zwangsläufig zu zwei oder
mehreren Betriebssystem-Profilen und der Mühe, diese Systeme zu warten
und zu synchronisieren. Es ist nicht mehr so einfach, all seine Materialien
dort zu haben, wo sie gerade gebraucht werden. Es gibt einen großen
Bedarf an einer Lösung, die es ermöglicht, das Lernmaterial, die ComputerSoftware, Profile, Einstellungen sowie alle nötigen Daten jederzeit zur Hand
zu haben. Das wissenschaftliche Projekt "Digitale Schultasche" zeigt den
klaren Bedarf zur Verwendung von portabler Software im didaktischen
Bereich. Daher lautet eine der wissenschaftlichen Fragen, ob es möglich ist,
die Aufgabe von konventionellen Festplatten durch handelsübliche USB-Sticks
zu ersetzen. Das wird anhand eines Stichprobentests von aktuell auf dem
Markt erhältlichen USB-Sticks ermittelt, deren Performance gemessen,
verglichen und bewertet wird. Eine andere untersuchte Fragestellung ist, ob
der Einsatz von portablen Applikationen durchführbar sowie praktikabel ist.
In einem weiteren Schritt wird untersucht, ob auch normalerweise auf
Festplatten installierte Applikationen ohne portabel einsetzbar sind. Zuerst
25
Michael Paier
Konzept zur automatisierten Sensorüberwachung von Wohnungen im
Passivhausstil
Studium: Masterstudium Wirtschaftsingenieurwesen Informatik
BetreuerIn: O.Univ.Prof. Dr. Gerhard-Helge Schildt
Abstrakt: Die vorliegende Arbeit behandelt das Thema „Konzept zur
Sensorüberwachung von Wohnungen im Passivhausstil“. Zentrale Aufgabe
der Arbeit ist eine Wohnung im Passivhausstil mit Sensoren zu überwachen
um alle energetischen Vorgänge festzustellen. Dadurch soll ein besseres
Verständnis für das Wärmeverhalten und mögliches Optimierungspotential
solcher Wohnungen festgestellt werden. Zu Beginn der Arbeit wird
Grundwissen und die wichtigen Aspekte über den Passivhausstil vermittelt.
Heizung, Energieverbrauch und eine ökonomische Betrachtung wird
erläutert. Darauf folgend werden Energie-und Wärmequellen und verlustquellen in einem Haushalt analysiert und betrachtet. Der nächste
Punkt beschäftigt sich mit Sensoren, die in einem Haushalt für eine
Überwachung eingesetzt werden können. Ein reales Projekt wird vorgestellt,
für das ein Konzept für eine Überwachung erstellt wird. Das Projekt wird
analysiert, eine Volumensberechnung durchgeführt und die gewonnenen
Erkenntnisse in das Konzept eingearbeitet. Das fertige Konzept liefert eine
mögliche Umsetzung einer kompletten sensorischen Überwachung der
Wohnung. Als Nachweis, das die entworfene Lösung funktioniert, wird am
Schluss dieser Arbeit eine Umsetzung des Projekts im kleinen Rahmen
vorgestellt, welche die entworfene Lösung im Konzept bestätigt. Im
26
Abschließenden
zusammengefaßt
durchgeführt.
Kapitel
werden
die
und eine abschließende
gewonnenen
Betrachtung
Ergebnisse
der Arbeit
Martha Rossa
Evaluierung der angemessenen Einsatztauglichkeit von Open Source CRMSystemen im KMU-Umfeld
Studium: Diplomstudium Wirtschaftsinformatik
BetreuerIn: Ao.Univ.Prof. Dr. Thomas Grechenig
Prasanna Kumari Payani
Options for enhancing the health administration system in Andhra Pradesh,
India by using Health-ID-Cards
Abstrakt: Für Unternehmen ist es heutzutage zunehmend schwieriger, sich
im steigenden Preiskampf von Produkten und Dienstleistungen vom
Mitbewerb hervorzuheben und sich in der Bemühung um den Kunden zu
behaupten. Eine Möglichkeit, sich von Konkurrenzunternehmen zu
differenzieren, ist der Einsatz einer umfassenden Unternehmensstrategie,
die in allen verkaufsorientierten Geschäftsaktivitäten den Fokus auf den
Kunden und die Kundenbeziehung legt. Diese Unternehmensstrategie ist die
Einführung
eines
Kundenbeziehungsmanagements,
des
"Customer
Relationship Management" (CRM), das sich als unternehmensweites, ITgestütztes Führungs- und Organisationsprinzip versteht. Für immer mehr
der mehrheitlich kleinen und mittleren österreichischen Unternehmen
gewinnt daher die Einführung eines möglichst umfassenden und
kostengünstigen „Customer Relationship Management“-Systems als
unterstüztendes Instrument bei der Kundengewinnung und langfristigen
Kundenbindung zunehmend an Bedeutung. Gleichzeitig versuchen Anbieter
von „Open Source“-Software, nachdem sich der Stellenwert von „Open
Source“- Produkten im Server-Bereich über die Jahre entscheidend gefestigt
hat, vermehrt auch den bisher vielfach ausschließlich von „Closed Source“Anbietern besetzten Bereich der Business-Applikationen zu erobern. Die
vorliegende Diplomarbeit beschäftigt sich daher mit der Frage, inwieweit
sich ein „Open Source“-CRM-Produkt in Microsoft Umgebungen kleiner und
mittlerer Unternehmen (KMU), hinsichtlich abgedeckter CRM-Fachbereiche,
enthaltenem Funktionsumfang und Zusammenspiel mit bestehenden Systemund Applikationskomponenten als kostengünstige und vor allem
ernstzunehmende Alternative zu kommerziellen "Closed Source"-CRMProdukten positionieren und behaupten kann. Dabei stellt die Erarbeitung
einer allgemeinen Anforderungsmatrix an CRM-Software für KMU und eines
davon abgeleiteten, produktunabhängigen Bewertungsrasters für CRMSoftwareprodukte
in
Ermangelung
geeigneter
vorgefertigter
Vergleichsinstrumente aus der Fachliteratur einen der beiden Kernbereiche
dieser Arbeit dar. Den zweiten Kernbereich bildet die anhand der
erarbeiteten Vergleichsinstrumente unabhängig voneinander durchgeführte
Bewertung der beiden für den jeweiligen Anbieterbereich stellvertretend
herangezogenen CRM-Applikationen, vtiger CRM 5.0.3 (Open Source) und
Microsoft Dynamics CRM 3.0 (Closed Source), im Rahmen eines
Praxistests
mit
anschließendem
Vergleich
der
einzelnen
Bewertungsergebnisse.
Studium: Masterstudium Software Engineering und Internet Computing
BetreuerIn: Ao.Univ.Prof. Dr. Thomas Grechenig
Andreas Prein
Didaktische Entwürfe zum Pflichtgegenstand „Angewandte Programmierung“
des ersten Jahrganges einer HTL für Informationstechnologie
Studium: Masterstudium Informatikmanagement
BetreuerIn: Ass.Prof. Dr. Monika Di Angelo
Abstrakt:
Der
Begriff
Didaktik
beschreibt
ganz
allgemein
die
Unterrichtslehre, also die Kunst des Lehrens aber auch die Wissenschaft
von der Methode des Unterrichts. Die zentrale Frage einer Fachdidaktik
lautet allgemein formuliert: „Was soll wann, wie und mit welchem Ziel
gelehrt werden?“ Der Begriff Informatik wurde aus „Information“ und
„Mathematik“ als zusammengesetztes Kunstwort in die deutsche Sprache
übernommen. Die Programmierung, ein Teilbereich der Informatik, soll den
Schülern mittels Fachdidaktik vermittelt werden. Die Problematik besteht
darin, die Lerninhalte, welche aus dem Lehrplan der höheren Lehranstalt für
Informationstechnologie – Schulformkennzahl 8490 – des ersten Jahrgangs
aus dem Pflichtgegenstand 11 „Angewandte Programmierung“ entnommen
wurden, schülergerecht aufzubereiten und den Schülern mittels praxisnaher
Beispiele verständlich zu machen. Beim Vermitteln der Inhalte spielt die vom
Vortragenden gewählte Unterrichtsmethode eine entscheidende Rolle. Der
Lehrer sollte bestrebt sein, seine Methode so zu wählen, dass der
Unterricht von den Schülern stets als spannend und interessant und nicht
als langweilig wahrgenommen wird. Ziel dieser Arbeit ist es, den Lehrplan
für den Pflichtgegenstand „Angewandte Programmierung“ so zu entwickeln,
dass der größtmögliche Lernerfolg bei den Schülern erzielt wird. Dabei wird
versucht, verschiedene Methoden zu verwenden, und somit die Schüler zu
motivieren und aktiv in den Unterricht mit einzubinden. Die 15
Unterrichtseinheiten des ersten Semesters werden mittels Stundenbilder in
einer praxiserprobten Form detailliert dargestellt. Im Anschluss an jede
Einheit werden die Inhalte nochmals detailliert beschrieben, und
gegebenenfalls mit Praxisbeispielen untermauert. Weiters sind im Anhang
Prüfungsfragen, die das gesamte Stoffgebiet umfassen, aufgelistet. Da ich
selbst die Absicht verfolge, in naher Zukunft als Vortragender an einer HTL
tätig zu sein, hatte und habe ich stets größtes Interesse an diesem Thema.
27
28
bis heute praktisch unverändert blieben. Immer neue Zusatzentwicklungen
ließen die Komplexität der Systeme stark ansteigen. Durch dieses
historische Wachstum sind die hoch integrierten Systeme sehr schlecht
dokumentiert, schwer nachvollziehbar und aufwändig zu warten. Ebenso
fehlen bis heute einheitliche Standards zur Datenübertragung. Hohe
Implementierungs- und steigende Wartungskosten der nicht-standardisierten
Schnittstellen der Legacy-Systeme, sowie der proprietären Formate beim
unternehmensübergreifenden Datenaustausch stellen die Motivation dieser
Arbeit dar, in der die Schnittstellenproblematik sowohl innerhalb der BankenIT, als auch zu externen Partnern der Bank analysiert wird. Zur
Veranschaulichung der Problematik wird als Fallbeispiel das System INPAR
der Firma First Data Austria GmbH vorgestellt. INPAR ist ein typischer
Vertreter für bankübergreifenden, automatisierten Datenaustausch mit
Zugriffen auf Mainframe-Datenbanken. Die Analyse hat zum Ergebnis, dass
sich sowohl XML als Datenformat, als auch XML Schema als Metasprache
im Bankensektor weiterhin durchsetzen werden. Dies trifft sowohl auf der
Ebene der Vereinheitlichung des europäischen Zahlungsverkehrssystems,
als auch auf das Fallbeispiel zu. Weiters wurde ausgearbeitet, dass die
Anwendung von Web Services auf Basis offener, internetbasierter Protokolle
beim Fallbeispiel INPAR zu entsprechenden Vorteilen in Flexibilität und
Erweiterbarkeit führen würde. Zusammenfassend wird aufgezeigt, dass neue
Technologien auf die Interprozesskommunikation in hoch komplexen,
historisch gewachsenen Systemen anwendbar sind, und entsprechende
Vorteile nach sich ziehen.
Gerd Schaffer
Requirements Analyse und Design für ein betreutes Softwaresystem in
geregelten Domänen
Studium: Masterstudium Information and Knowledge Management
BetreuerIn: Ao.Univ.Prof. Dr. Thomas Grechenig
Christian Schanes
Durchführungskonzept eines Penetrationstests anhand einer IT- Infrastruktur
eines Unternehmens mit mobilen Clients
Studium: Masterstudium Software Engineering und Internet Computing
BetreuerIn: Ao.Univ.Prof. Dr. Thomas Grechenig
Abstrakt: Die Abhängigkeit von IT-Systemen für Unternehmenszwecke nimmt
laufend zu. Angriffe auf diese können die Anforderungen bezüglich
Verfügbarkeit, Vertraulichkeit und Integrität der Daten stören und somit für
das Unternehmen Verluste verursachen. Die Systeme müssen dabei derart
abgesichert werden, dass der Aufwand für einen Angreifer höher ist als der
entstehende Nutzen durch einen erfolgreichen Angriff. Die vorliegende
Arbeit beschäftigt sich mit Penetrationstests, einer möglichen Testtechnik
zur Überprüfung der Sicherheit von Infrastrukturen. Dabei führen Tester
simulierte Angriffe durch, um vorhandene Schwachstellen im System zu
ermitteln und die Ausnutzbarkeit darzustellen. Die Anwendung von
Penetrationstests erfolgt beim laufenden System, wodurch auch
Installations- und Konfigurationsfehler in der Betriebsumgebung ermittelt
werden.
Für
eine
umfangreiche
Sicherheitsbetrachtung
können
Penetrationstests einen wichtigen Teil beitragen, um die Systeme
abzusichern. Die Möglichkeiten und Limitierungen von Penetrationstests
werden in dieser Arbeit anhand eines Anwendungsbeispiels dargestellt,
indem ein Penetrationstestkonzept definiert wird. Dieses berücksichtigt
erforderliche Testtechniken für die eingesetzten Technologien und diskutiert
des Weiteren organisatorische Aspekte für die Durchführung.
Martin Schwarzbauer
Design and Development of a traceability Framework for small Software
Development Teams - A message based approach
Studium: Diplomstudium Informatik
BetreuerIn: Ao.Univ.Prof. Dr. Thomas Grechenig
Abstrakt: In der Softwareentwicklung werden Verfolgbarkeit des
Informationsflusses
und
Nachvollziehbarkeit
von
Entscheidungen
(Traceability) oft eher als bürokratisches Hemmnis denn als Möglichkeit zur
Effizienzsteigerung
gesehen.
Dadurch
sind
gerade
kleinere
Softwareentwicklungsteams kaum motiviert, die genannten Konzepte
anzunehmen und einzuführen. Diese Arbeit hat das Ziel, eine akzeptable
Lösung für das Verknüpfen von Projektzwischenergebnissen (Artefakten) zu
präsentieren – eine Methode, um Applikationen in der Softwareentwicklung
zu integrieren – um es auch kleinen Softwareentwicklungsprojekten zu
ermöglichen, Traceability mit einem vertretbaren Aufwand zu erreichen und
daraus Vorteile zu ziehen. Das Hauptproblem ist die Tatsache, dass
verschiedenste Applikationen zur Unterstützung der Softwareentwicklung im
Einsatz sind, sodass ein gemeinsamer Kommunikationsstandard etabliert
werden muss, um den Informationsaustausch zwischen beliebigen
Zusammenstellungen dieser Applikationen zu ermöglichen. Der hier
Paul Schindler
Analyse der Schnittstellenproblematik in Banken-IT-Strukturen anhand des
Fallbeispiels INPAR
Studium: Masterstudium Medizinische Informatik
BetreuerIn: Ao.Univ.Prof. Dr. Thomas Grechenig
Abstrakt: Aus historischer Sicht nehmen Banken bei der Verarbeitung
großer Datenmengen in der IT-Welt eine Vorreiterrolle ein, wobei bereits in
den 1960er Jahren Informatik zum Einsatz kam. Die im Back-Office
verwendeten Alt-Applikationen (Legacy-Systeme) wurden in maschinennahen
Sprachen wie COBOL oder Assembler implementiert, deren Grundstrukturen
29
30
präsentierte Vorschlag ist ein XML-basiertes Nachrichtenformat:
Nachrichten mit Informationen zur Identifikation von Artefakten sowie
Nachrichten, die Beziehungen zwischen jeweils zwei Artefakten definieren.
Der Einsatz von Nachrichten anstelle von Schnittstellen erlaubt eine lose
Kopplung der Applikationen, sodass diese integriert werden können, ohne
die applikationsinternen Konzepte anzutasten. Dadurch werden schnelle
Resultate erzielt, etwa durch Erweiterung einer Anwendung, die somit
Nachrichten an eine zweite Anwendung verschickt, die diese verarbeitet und
optisch für Benutzer aufbereitet. Dadurch ist der erste Schritt Richtung
Traceability umgesetzt, unter verhältnismäßig geringem Aufwand. Die
Verwendung von XML als Basis ermöglicht das automatische Validieren von
Nachrichten sowie das Erweitern um zusätzliche Informationen, um eine
engere Zusammenarbeit zwischen einzelnen Applikationen zu ermöglichen.
Als Machbarkeitsstudie wurden zwei Applikationsprototypen entwickelt – eine
für Anforderungsmanagement und eine für Testverwaltung – und diese so
erweitert,
dass
sie
durch
das
präsentierte
Nachrichtenformat
kommunizieren. Das System zeigt, dass damit Verknüpfungen über
Anwendungsgrenzen hinweg erstellt werden können und dass dadurch ein
Mehrwert gegeben ist. Aufgrund der ausgetauschten Informationen könnten
zum Beispiel Berichte über Testabdeckung oder Testergebnisse zu einzelnen
Anforderungen erstellt werden.
und im Bezug zur Wiederverwendung einzelner Module bewertet. Zusätzlich
dienen pädagogische Grundlagen über die Bedeutung von Musik in der
Kindesentwicklung, sowie allgemeine musikalische Wirkungsweisen zum
besseren Verständnis der Thematik. Den Kernpunkt dieser Arbeit bildet die
Entwicklung eines Prototyps, mit welchem Kinder im Vorschulalter unter
Anwendung von TUIs digitale Musiksequenzen abspielen und speichern
können. Ziel war es, ein innovatives Interface für Musik zu entwickeln,
welches einige Funktionen bereits vorhandener Prototypen vereint. Eine
abschließende Evaluierung gibt Aufschluss über etwaige Verbesserungen,
wobei die angewandte Art von Technologie durchaus vom Teilnehmerkreis
akzeptiert wurde, jedoch die Methoden teilweise als zu komplex erschienen.
Weitere gesammelte Ergebnisse und auch Eindrücke sollen als Basis für
Folgeprojekte dienen.
Alexander Terczka
Heuristische Methoden zur Abwehr von Distributed Denial of Service
Angriffen auf HTTP-Dienste
Studium: Diplomstudium Informatik
BetreuerIn: Ao.Univ.Prof. Dr. Thomas Grechenig
Abstrakt:
Das
Internet
ist
zu
einem
der
wichtigsten
Kommunikationswerkzeuge geworden und aus heutiger Sicht nicht mehr
wegzudenken. Vor allem öffentliche Webdienste bilden die Basis für eine
Vielzahl von Anwendungen von Unterhaltung, über Handel bis zur
Verwaltung. Distributed Denial of Service Angriffe (DDoS-Angriffe) sind zur
Zeit die größte Gefahr für öffentliche Webdienste. Bei einem DDoS-Angriff
wird ein Zielsystem mit Hilfe einer großen Zahl von Clients so stark belastet,
dass legitime User die Services des Zielsystems nicht mehr benutzen
können. Ein DDoS-Angriff verwendet dafür die gleichen Protokolle und Wege
wie ein legitimer User und kann daher nur schwer erkannt werden.
Gefährlichkeit eines DDoS-Angriffs liegt darin, dass er auch ein fehlerloses
System treffen kann, da die Ressourcen eines Systems immer limitiert sind,
aber die Ressourcen des Angreifers sehr groß sein können. Die Arbeit
erklärt die für einen Webdienst notwendigen Protokolle IP, TCP und HTTP
und zeigt deren Schwachstellen.
Ausgehend von dieser Basis wird
beschrieben welche Angriffe möglich sind und welche Auswirkungen sie auf
die Servicestruktur haben. Von diesen Angriffsmethoden ausgehend werden
mögliche Abwehrtechniken vorgestellt und in Hinblick auf ihre Effizienz
untersucht. Diese Techniken kommen aus der Praxis, aus der Forschung
und von kommerziellen Anbietern. Außerdem wurden im Rahmen dieser
Arbeit eigene Methoden zu Abwehr entwickelt und als Prototyp
implementiert. Die Besonderheit dieser Methoden liegt darin, dass jede
einzelne gezielt einen bestimmten Angriffstyp abwehren kann.
Eine
Kombination unterschiedlicher Techniken bildet dadurch in Summe eine
wirkungsvolle Abwehr, die die Auswirkungen eines Angriffs stark reduziert.
Sai Giridhar Sreerama
Analysis and concept of an electronic health record solution for rural Andhra
Pradesh
Studium: Masterstudium Software Engineering und Internet Computing
BetreuerIn: Ao.Univ.Prof. Dr. Thomas Grechenig
Manfred Sturmlechner
Prototypische Entwicklung eines Tangible Musical Interfaces für Kinder im
Vorschulalter
Studium: Masterstudium Software Engineering und Internet Computing
BetreuerIn: Ao.Univ.Prof. Dr. Thomas Grechenig
Abstrakt: Musik ist nicht nur ein Unterhaltungsmedium, sondern stellt auch
in der Kindesentwicklung eine sehr wichtige Komponente dar, da frühes
Musizieren die kognitive Entwicklung auf überdurchschnittliche Weise positiv
beeinflusst. Die vorliegende Arbeit befasst sich mit innovativen Interfaces für
Musik, welche aus dem Forschungsbereich Tangible Computing stammen.
Tangible User Interfaces (TUIs) dienen als Schnittstelle zwischen Anwender
und digitalen Prozessabläufen. Eine Vielzahl an Applikationen im Bereich der
digitalen Musikerzeugung bedient sich dieser Technologie. Eine fokussierte
Recherche über TUI-Anwendungen von innovativen Interfaces für Musik soll
ein grundlegendes Wissen schaffen. Dieses wird in weiterer Folge analysiert
31
32
andere Werkzeuge Evaluierungsfunktionalität für Web-Barrierefreiheit
anbieten, die durch integrierte Evaluierungswerkzeuge, Plug-ins, oder
Extensions
ausgeführt
werden.
Um
diese
Integration
der
Evaluierungswerkzeuge für Web-Barrierefreiheit in Anwendungen zu
erleichtern, müssen diese Werkzeuge Informationen austauschen.
Anwendungen müssen die Evaluierung delegieren und auslösen, und
Evaluierungswerkzeuge
müssen
einheitliche
Protokolle
für
den
Datenaustausch einhalten. Diese einheitliche Datenformate und Protokolle
sind idealerweise Plattform-unabhängig, Hersteller-neutral, und Gebührenfrei
um die größte mögliche Unterstützung zu erzielen. Weiters müssen diese
Formate
praktikabel
und
einfach
zu
implementieren
für
die
Werkzeughersteller sein. Diese Studie untersucht ein verteiltes Modell für
Werkzeugunterstützte Evaluierung der Web-Barrierefreiheit dass auf
Technologien des Semantic Web beruht. Es erforscht Anforderungen und
identifiziert viel versprechende Techniken um die Konstruktion solcher
Kollaborativen Systeme zu ermöglichen, die von unterschiedlichen
Entwicklern die verschiedene Werkzeuge verwenden benutzt wird um
barrierefreie Web-Auftritte zu entwickeln und warten. Obwohl es
Herausforderungen gibt um solche Systeme zu realisieren, ist der Ansatz
prinzipiell erfüllbar. Es geht verhältnismäßig wenige Risiken und hohe Nutzen
für die Anwendungshersteller.
Arbeitsbereich Mustererkennung und Bildverarbeitung
«vorname» «name»
«titel»
Studium: «studium»
BetreuerIn: «betreuerIn»
Abstrakt: «abstract»
INSTITUT FÜR INFORMATIONSSYSTEME
Florian Breier
J3DVN - a generic framework for 3D software visualization
Arbeitsbereich Distributed Systems
Studium: Masterstudium Software Engineering und Internet Computing
BetreuerIn: Ao.Univ.Prof. Dr. Harald Gall
Shadi Abou-Zahra
Tool-Supported Web Accessibility Evaluation
Abstrakt: Die Analyse von Software Architekturen und Software Evolution
erzeugt Daten. Visualisierung macht solche Daten verständlicher. Die
Verwendung von drei Dimensionen in solchen Visualisierungen erhöht die
mögliche Anzahl gleichzeitig darstellbarer Metriken. Existierende Tools für
eine solche Aufgabe sind für gewöhnlich auf einzelne Probleme spezialisiert,
lassen sich dann aber nicht verwenden, wenn eine andere Aufgabe damit
gelöst werden soll. Wir stellen ein Modell vor, das die Erzeugung
dreidimensionaler Datenvisualisierung erleichtert. Das Modell ist erweiterbar
und stellt somit eine generische Lösung für viele verschiedene Probleme
dar. Es ist insofern flexibel, als dass Repräsentationen der Daten in Echtzeit
geändert werden können, womit es auf der Stelle möglich wird,
verschiedene Repräsentationen/Aspekte derselben Datenbasis zu erkennen.
Wir haben ein Visualisierungs-Framework implementiert, welches unsere
Bedürfnisse erfüllt, und wir haben es verwendet, um unser Modell zu
validieren, indem wir sinnvolle Kombinationen von Metriken visualisiert
haben.
Studium: Diplomstudium Informatik
BetreuerIn: Univ.Prof. Dr. Schahram Dustdar
Abstrakt: Obwohl es derzeit eine breite Auswahl von Evaluierungswerkzeuge
für Web-Barrierefreiheit gibt, wurden die meisten für Zwecke der
Qualitätskontrolle entwickelt eher als für andauernde Qualitätssicherung. Es
scheint dass viele der Evaluierungswerkzeuge für Web-Barrierefreiheit
getrennte Evaluierungsprozesse fördern anstatt diese in den natürlichen
Entwicklungsprozess zu integrieren. Es scheint auch dass die
Evaluierungswerkzeuge nur für bestimmte Entwickler konzipiert wurden
anstatt die breite Vielfalt der Web-Entwickler zu beachten. Ein wirksamerer
Ansatz wäre die Sicherstellung von Werkzeug-Unterstützung während des
gesamten
Entwicklungsprozess,
einschließlich
der
Konzipierung,
Implementierung,
und
der
Wartung.
Idealerweise
wäre
die
Evaluierungsfunktionalität
in
den
existierenden
Entwicklungs
und
Managementsysteme eingebunden anstatt diese durch getrennte
Evaluierungswerkzeuge
anzubieten.
Zum
Beispiel,
dass
Gestaltungswerkzeuge, Code-Editoren, Content Management Systeme und
33
Andreas Cvitkovich
34
Integration a news platform and distribution services into a pan-European
News network
Michael Katai
Design and Implementation of a Context Aware, Rules Driven and
Distributed Publish/Subscribe Collaboration Systems
Studium: Diplomstudium Informatik
BetreuerIn: Univ.Prof. Dr. Schahram Dustdar
Studium: Diplomstudium Informatik
BetreuerIn: Univ.Prof. Dr. Schahram Dustdar
Abstrakt: Im Zuge dieser Arbeit wurde die Entwicklung an NEDINE
vorangetrieben, ein von der EU gefördertes Projekt, das sich den
grenzüberschreitenden Zusammenschluß von Nachrichtenagenturen zum
Ziel gesetzt hat. Dabei gilt es, eine Vielzahl an Problemen in den Griff zu
bekommen, die durch die räumliche aber auch sprachliche Trennung der
Partner sowie deren unterschiedliche Geschäftsmodelle entstehen. Erst ein
klar strukturiertes Modell mit sauberem Systementwurf basierend auf
offenen Web services ermöglichen einen reibungslosen Betrieb des
Gesamtsystems. Viele Probleme und Aspekte bei der Nachrichtenverteilung
müssen jedoch erst einmal innerhalb einer nationalen Nachrichtenagentur
berücksichtigt und gelöst werden, diese werden daher ebenfalls gründlich
beleuchtet sowie Strategien aufgezeigt, mit denen man die anfallende
Informationsflut auf eine Art und Weise löst, die auch gesteigerten
Ansprüchen an Skalierbarkeit genügt. Im Rahmen des EU-Projekts NEDINE
sollen technische Services von Nachrichtenagenturen mit ähnlichen
Geschäftsfeldern zu einem europäischen Nachrichtennetzwerk integriert
werden, beispielhaft werden die dazu benötigten Komponenten und
Integrationsschritte bei der Pressetext Nachrichtenagentur GmbH
ausführlich diskutiert, die in ähnlicher Form auch bei anderen aktuellen und
künftigen Partnern des Projekts auftreten.
Abstrakt: In der heutigen Zeit sind Mitarbeiter nicht mehr auf fixe
Arbeitsplätze angewiesen. Die zur Verfügung stehenden Technologien
ermöglichen einen flexiblen Einsatz unter Verhältnissen, die jenen eines
Büroarbeitsplatzes gleich kommen. Mobile Geräte bieten einen ähnlichen
Komfort und auch Geschwindigkeiten, wie die bisherigen fixen Arbeitsplätze.
CARDDIPUSCO zeigt eine neuartige Architektur und erweitert die bisherigen
Technologien um die Aspekte von hierachischem Kontext in Zusammenhang
mit einem regelbasierten Nachrichtenaustausch über Peer-to-Peer-Netze.
Kontext im engeren Sinn ist ein Begriff, der den Zusammenhang zwischen
Daten beschreibt. Diese Arbeit zeigt einen Ansatz, der Kontext mit zwei
Aspekten betrachtet, um die Feinheit der Kontext-Benachrichtigungen zu
bestimmen. Weiters wird eine flexible und leicht zu handhabende Methode
gezeigt, um Regeln zu definieren, die Anwendern erlaubt ihren gewünschten
Informationsbereich zu beschreiben. Weiters erweitert diese Arbeit
Kontextinformation, um diese mit anderen in Relation zu setzen, so daß
Kontextinformation zusätzlich in einer hierachischen Ordnung anzusehen ist.
CARDDIPUSCO baut ein Zwei-Schichtenmodell zur Definition der
Benachrichtungsregeln und wird zeigen, wie der Einsatz von regelbasierter
Kontextdefintion eine Erweiterung der bisherigen Möglichkeiten darstellt.
Hannes Kaiser
Analyse von Geschäftsprozessen unter Berücksichtigung von
Wechselbeziehungen zwischen Daten- und Rollendefinitionen der
Prozessteilnehmer
Matthias Knoll
Modellgetriebene Spezifikation von BPMN und Transformation von BPMN zu
BPEL mit openArchitectureWare
Studium: Diplomstudium Wirtschaftsinformatik
BetreuerIn: Univ.Ass. Dr. Uwe Zdun
Studium: Diplomstudium Informatik
BetreuerIn: Univ.Prof. Dr. Schahram Dustdar
Abstrakt: Die Business Process Execution Language (BPEL), als
blockbasierte Sprache, hat sich in den letzten Jahren zu einem der
Standards zur Spezifizierung von Prozessen etabliert. Die graphbasierte
Business Process Modelling Notation (BPMN) wurde für den graphischen
Entwurf von Prozessen entwickelt. Im Zuge eines einheitlichen
Entwicklungsprozesses ist die automatische Transformation von BPMN
Modellen zu BPEL Code wünschenswert. Diese Transformation ist jedoch
Aufgrund fundamentaler Unterschiede der beiden Modellierungssprachen
kompliziert, da BPMN und BPEL zwei unterschiedliche Ansätze zur
Beschreibung des Kontrollflusses verwenden. Im Zuge dieser Diplomarbeit
sollen diese Unterschiede erläutert und unterschiedliche Methoden
erarbeitet werden, die, mit vertretbaren Einschränkungen, bestimmte
Klassen von BPMN Modellen transformieren können. Diese sollen
Abstrakt: WS - BPEL basierte Geschäftsprozesse zeichnen sich durch den
Einsatz in heterogenen serviceorientierten Architekturen aus. Gängige
Designmethoden separieren die Modellierung von Service Orchestrierungen
von
Sicherheitsanforderungen
und
den
Rollendefinitionen
der
Geschäftsprozessteilnehmer. Als Konsequenz werden die entstehenden
Wechselbeziehungen dieser beiden Geschäftsprozessanforderungen nicht im
finalen Prozessmodell berücksichtigt. Diese Arbeit widmet sich der Analyse
von Geschäftsprozessen unter den genannten Anforderungen, durch
Berücksichtigung von WS Security basierten Web Services und
BPEL4People - basierten Rollendefinitionen der Geschäftsprozessteilnehmer.
35
36
kombiniert und ein Ansatz zur Transformation einer großen Bandbreite von
Modellen präsentiert werden.
E-Mail, eröffnet ungeahnte Grenzen einer formlosen Kontaktaufnahme. Das
sogenannte Chatten signalisiert den aktuellen Trend des neuen
Kommunikationsstiels. Diese Arbeit beschreibt wie und zu welchem Preis
sich die Kommunikation auch in Ihrer Sprache verändert hat. Darüber
hinaus wird das Werkzeug Internet und dessen Funktionalitäten am Beispiel
des E-Learnings näher erläutert. Damit wird auch der Weg zu einer
modernen und zeitgemäßen Aus- und Weiterbildung thematisiert und wie
beispielhaft heute via Onlineprüfungen und Lernforen sich die neuen
Informationsquellen unserer Zeit entwickelt haben. Unter dem Motto „time
is money“ ist unsere Gesellschaft vom stetigen Trubel und Stress geprägt.
Ein Leben auf der Überholspur und die Suche nach Erfolg durch Flexibilität
sind Zeichen unserer Zeit. Diskutiert werden auch die Folgen durch die
„Computerisierung“, welche auch einen enormen Einfluss auf unsere
Sprachentwicklung nimmt. Im Sinne einer modernen KundInnenorientierung
und Verwaltungsvereinfachung bestehen nunmehr viele Möglichkeiten, auch
auf elektronischem Weg seine Amtsgeschäfte zu erledigen. Dies bezeichnet
man als E-Government. Dieses Kapitel setzt sich mit dem Einsatz
modernster Informations- und Kommunikationstechnologien im Bereich der
öffentlichen Verwaltung auseinander. Im Vordergrund dabei steht die
Verbesserung, Vereinfachung und Beschleunigung der Behördenwege, also
die Abwicklung von Anträgen und Verfahren. Ein modernes und vor allem
engagiertes Projekt namens One Laptop per Child kurz „OLPC“ wird
vorgestellt und schließt damit den Kreis einer modernen und zeitgemäßen
Denkungsweise.
Die
Entwicklung
einer
neuen
und
vor
allem
Völkerverbindenden Technologie speziell für unterentwickelte Länder der
dritten Welt zeigt einmal mehr auch wie wichtig es ist, eine globale
Vernetzung herzustellen.
Markus Krumpöck
Maintainability Aspects of the Website Development Life Cycle
Studium: Diplomstudium Informatik
BetreuerIn: Univ.Prof. Dr. Schahram Dustdar
Abstrakt: Die Entwicklung von Websites geschieht in vielen Fällen noch
immer “adhoc”. Daraus resultiert, dass Änderungen in den Anforderungen
(etwa ein grafisches Redesign) oftmals zu einer völligen Neuimplementierung
führen. Erschwerend kommt hinzu, dass Websites und Webapplikationen
aufgrund der hohen Dynamik des Webs wesentlich häufiger Änderungen
unterworfen sind als klassische Software für den Desktop, da diese nicht
nur auf Software bestehen sondern auch aus Inhalten und Änderungen
wesentlich einfacher ausgerollt werden können. Die Vielfalt an verschiedenen
Programmiersprachen und Technologien für die Implementierung
dynamischer Webapplikationen sowie die Verfügbarkeit verschiedenster
Frameworks und Template Engines verkomplizieren die Situation zusätzlich.
Daher ist es Ziel dieser Diplomarbeit die Erstellung von “Best Practices” und
eines Leitfadens, wie man besser wartbare Websites konzipieren und
implementieren kann. Diese Arbeit wird versuchen welche Hauptpunkte bei
der Konzipierung einer Website hinsichtlich Wartbarkeit und Skalierbarkeit
hinsichtlich der Informationsarchitektur, des Layouts, der Webapplikationen
usw. zu berücksichtigen sind und wie die Wartung mit vertretbarem
Aufwand durchgeführt werden kann. Neue oder zusätzliche Funktionalität
sollte hinzugefügt werden können ohne dass eine komplette Änderung der
Architektur notwendig ist. In dieser Arbeit möchte ich zeigen wie
Wartbarkeit in einer von 2003 bis 2008 durchgeführten Fallstudie erreicht
wurde, wobei die Website nach dem Redesign basierend auf diesen
Leitlinien aus etwa 6.700 Dokumente bestand und mittlerweile (Stand Juni
2008) auf über 55.000 Dokumente angewachsen ist.
Juraj Oprsal
Transactional Replication in a .NET Environment
Studium: Masterstudium Software Engineering und Internet Computing
BetreuerIn: Univ.Ass. Dr. Karl M. Göschka
Abstrakt: Replikation als wichtiger Mechanismus in Erzielung von
Zuverlässigkeit verteilter Systeme ist bereits umfangreicher Forschung
unterlegt gewesen. Verschiedene Ansätze die Erreichbarkeit während
Systemdegradation (z.B. Netzwerktrennung) zu verbessern haben sich
traditionell auf pessimistische Replikationsprotokolle konzentriert, welche
Update-konflikte während Degradation vermeiden. Vor kurzem wurde eine
neue Klasse an optimistischen Replikationsprotokollen vorgestellt, die
weniger restriktiv als pessimistische Protokolle ist und die es erlaubt,
Erreichbarkeit und Konsistenz eines Systems auszubalancieren. Es können
handelbare und nicht-handelbare Konsistenzbedingungen im System definiert
werden, wobei die ersten während Systemdegradation gegen Erreichbarkeit
gehandelt werden können. Active Replication Per Partition Protocol (ARPPP)
ist ein konkretes Replikationsprotokoll, das diese Balancierung anwendet. Es
Ruza Martinovic
Kommunikationsformen im Wandel der Zeit unter dem Gesichtpunkt sozialer
und psychologischer Entwicklungen sowie der Auswirkungen auf die heutige
Gesellschaft
Studium: Masterstudium Informatikmanagement
BetreuerIn: Dr. Martin Weissenböck
Abstrakt: Diese Arbeit diskutiert neben der geschichtlichen Entwicklung des
Internets viel mehr noch die Auswirkungen auf das soziale Umfeld und die
Folgen durch die zunehmende Modernisierung und Entwicklungen in der
heutigen Zeit. Die wichtigste und unerlässlichste Kommunikationsform, die
37
38
ist eine Modifikation der klassischen aktiven Replikation. In einem gesunden
System fordert ARPPP strenge Konsistenz, also erlaubt keine Operation, die
gegen eine beliebige Konsistenzbedingung stoßt. Im Falle eines
Knotenausfalls oder einer Netzwerktrennung werden vorübergehend alle
handelbaren Konsistenzbedingungen von ARPPP aufgehoben und somit alle
Operationen, die keine nicht-handelbaren Bedingungen betreffen, erlaubt,
auch wenn die handelbaren Bedingungen verletzt werden können. Nachdem
das Netzwerk sowie alle Systemknoten heilen, wird strenge Konsistenz im
System – während sogenannter Rekonciliation – wiederhergestellt. Die
Kontribution dieser Arbeit ist die Prototypimplementierung und –evaluierung
des ARPPP Replikationsprotokolls unter Microsoft .NET in der C#
Programmiersprache. Basierend auf Eigenschaften des .NET Frameworks
2.0, unterstützt der Prototyp sowohl Transaktionen, als auch geschachtelte
Replikaaufrufe. Die Ergebnisse der Evaluierung indizieren, dass der
zusätzliche Bedarf an Überprüfen von Konsistenzbedingungen nicht nur
einen höheren Aufwand mit sich bringt, sondern auch die Ursache für öftere
Transaktionsabbrüche bei manchen gleichlaufenden Operationen ist. Dies ist
jedoch das erwartete Verhalten, das auf den Bedarf einer sorgfältigen
Definition von Konsistenzbedingungen in jeder Applikation verweist.
Online-Auktionssystem entwickelt werden kann, das verlässlicher ist als die
existierenden Systeme.
Gernot Schmied
Integrated Cisco and UNIX network architectures
Studium: Masterstudium Informatikmanagement
BetreuerIn: Univ.Prof. Dr. Schahram Dustdar
Abstrakt:
Diese
Publikation
beschäftigt
sich
mit
hybriden
Netzwerkarchitekturen auf Basis von UNIX-Betriebssystemen, Linux, BSD
und Cisco, somit mit Aspekten der Signalisierung (Routing) und des
Forwardings. IPv4, IPv6 und Multicast-Routing werden behandelt.
Sunil Pilani
Smart Card based Online-Auctioning
David Ulbing und Thomas Winkler
Semantic Description and Lookup of Web Services in Distributed Systems
Studium: Diplomstudium Informatik
BetreuerIn: Univ.Ass. Dr. Karl M. Göschka
Studium: Masterstudium Technische Informatik
BetreuerIn: Univ.Ass. Dr. Uwe Zdun
Abstrakt: Bei Online-Auktionen von Bundesanleihen langt gewöhnlich eine
große Anzahl von Geboten knapp vor der Auktions-Deadline ein, was zu einer
unerwünschten Spitzenlast des Servers führt und die Verlässlichkeit
gefährdet. Diese Arbeit beschäftigt sich mit einer Proof of Concept
Architektur und deren Implementierung für höhere Verlässlichkeit in Webbasierten
Online-Auktionen
von
hohem
Emissionsvolumen
an
Bundesanleihen, indem die Höchstbelastungen, die im Rahmen der
Versteigerung auftreten, und somit die Hardware-Kosten reduziert werden.
Die Architektur basiert auf dem Prinzip, dass Spitzenbelastungen vermieden
werden können, wenn die Annahme der Gebote auf eine gewisse Zeitspanne
verteilt wird, sogar über die Auktions-Deadline hinaus. Um dieses Ziel zu
erreichen, kommuniziert die Auktions-Webapplikation mit einer Smart Card
seitens des Clients, um den Auktionsgeboten einen verlässlichen Zeitstempel
zuzuordnen und sie mit zufälliger Zeitverzögerung dem Server zu
übermitteln. Die Proof of Concept Prototyp Implementierung zeigt, dass dies
einen möglich Zugang darstellt. Die Zeit, die benötigt wird, um einen
verlässlichen Zeitstempel hinzuzufügen und eine Signatur auf der Smart
Card zu generieren, ist minimal. Evaluierungsergebnisse zeigen, dass schon
mit den geringen zeitlichen Unkosten einer Smart Card Applikation, ein
39
Abstrakt: Ziel dieser Masterarbeit ist die Definition eines neuen Ansatzes für
das Beschreiben bzw. Aufinden von Web Services in verteilten Systemen.
Um dies zu gewährleisten werden zunächst alle notwendigen Anforderungen
an die Beschreibungssprache bzw. an Mechanismen für das Auffinden von
Web Services identifiziert. Weiters findet eine Evaluierung vorhandener
Beschreibungssprachen bzw. Lookup-Techniken statt. Basierend auf den
Ergebnissen dieser Evaluierung wird ein Semantic Lookup-Service realisiert,
welches Schnittstellen für dynamisches Einfügen bzw. Abfragen von Web
Services zur Verfügung stellt. Darüber hinaus sollte ein Framework
implementiert werden, in welchem man komplexe, domänenspezifische
Anfragen, die in einer objektorientierten Skriptsprache definiert werden,
erstellen bzw. auswerten kann. Aufgrund der Komplexität des in unserem
Semantic Lookup-Service verwendeten Standards OWL-S wird ein
sogenanntes Publisher Tool bereitgestellt, welches bei der Erstellung einer
OWL-S Beschreibung eines Web Services helfen soll.
Gerhard Wagner
Evaluation of Smart Card Access for Web Applications
40
Konzepte für Compliance am Beispiel von Modul Driven Software
Development und serviceorientierten Architekturen
Studium: Diplomstudium Informatik
BetreuerIn: Univ.Ass. Dr. Karl M. Göschka
Studium: Diplomstudium Informatik
BetreuerIn: Univ.Ass. Dr. Uwe Zdun
Abstrakt: Oft werden Smart Cards verwendet, um die Sicherheit von
Softwaresystemen zu erhöhen. Beispiele dafür sind Anwendungsbereiche
wie Online Banking- oder E-Government-Applikationen. Diese Lösungen
beruhen auf einheitlichen Zugangsmechanismen mit dem entsprechenden
Support der Hersteller. Um die Sicherheit von kundenangepassten
Webapplikationen zu erhöhen, wäre es von Vorteil wenn diese
Webapplikationen auf Applikationen einer smart card zugreifen könnten.
Leider verhindern die Sicherheitsmechanismen der Webbrowser die
Möglichkeit mit der Hardwareperipherie und demzufolge mit der smart card
zu kommunizieren. Diese Diplomarbeit
untersucht und evaluiert zwei
Lösungen, um aus einer Webbrowser-Umgebung auf smart cards
zuzugreifen. Die erste Lösung verwendet das Browser-Plug-In-Interface – in
unserem Fall Mozilla Firefox – und eine Kartenbibliothek, um sich mit der
Java Card zu verbinden. Die zweite Lösung zeigt, wie ein in einen
Webbrowser eingebettetes Programm die normale „Java Virtual Machine“
verwendet, um mit dem Kartenleser zu kommunizieren. Die Untersuchung
zeigt, dass eine geschützte Java-Anwendung benutzerfreundlicher und die
Lösung mit dem Plug-in und der Library wegen dem aufwändigen Aufbau
komplexer ist.
Bernhard Wehinger
A case study and experimental evaluation of Web services in mobile
computing
Abstrakt: Die Sicherstellung von Compliance mit Hilfe von Kontrollen ist ein
Thema mit dem sich Organisationen weltweit auseinandersetzen müssen.
Aus diesem Grund beschäftigt sich diese Arbeit mit Kontrollaspekten in
Geschäftsprozessen. Die Basis dafür bilden modellgetriebene Software
Entwicklung (MDSD) und serviceorientierte Architekturen (SOA). Der Fokus
dieser Arbeit liegt auf der Definition eines Meta-Modells für Kontrollen in
Geschäftsprozessen, dessen Hauptziel es ist, Compliance Kontrollen zu
dokumentieren. Dies ermöglicht die Erweiterung von GeschäftsprozessModellen um spezifische Informationen hinsichtlich Kontrollen. Neue
Einsatzmöglichkeiten ergeben sich: Web Services und BPEL Prozesse lassen
sich
als
Kontrollen
klassifizieren
und
beschreiben.
Compliance
Anforderungen und Risken können mit Kontrollen assoziiert werden. Die
Suche nach Kontrollen und Kontrollelementen wird unterstützt. Aufbauend
auf einem View-based-Modeling-Framework (VbMF) erweitert das Modell für
Kontrollen eine Reihe von existierenden und unterschiedlichen Modellen. Im
VbMF repräsentiert jedes der Modelle eine andere Ansicht auf einen
Geschäftsprozess. Der Einsatz von MDSD Technologie im VbMF ermöglicht
das Generieren von Code durch Verwendung von einem oder mehreren
Modellen als Input. Mögliche Einsatzszenarien des generierten Outputs
wären die Dokumentation von Kontrollen in Form von Webseiten,
Webservices die Kontrollen repräsentieren (in Java implementiert),
technische Beschreibung von Webservices (WSDL), sowie ausführbare, um
Kontrollen erweiterte Prozessspezifikationen in BPEL. Die Anwendbarkeit des
Kontrollmodells wird validiert, indem Kontrolldokumentation aus Modellen
generiert wird.
Studium: Diplomstudium Informatik
BetreuerIn: Univ.Prof. Dr. Schahram Dustdar
Abstrakt: Mobile digitale Helfer wie Pocket PCs und Smartphones haben in
vielen Bereichen unseres Lebens Einzug genommen, da diese Geräte immer
schneller und ihre Möglichkeiten ständig erweitert werden. Durch die
Erweiterung der Infrastruktur für mobiles Internet, kann man nahezu immer
und überall online gehen. Es liegt deshalb nahe, mobile Geräte, die über
genügend Rechenkapazität und Resourcen verfügen, als Server für diverse
Services zu nutzen. Ziel dieser Arbeit ist es, Context Informationen auf
einem mobilen Gerät zur Verfügung zu stellen. Das entwickelte Framework
basiert auf OSGi und läuft auf allen Geräten die J2ME/CDC mit Personal
Profile unterstützen. Weiters wird angenommen, dass keine zentralisierte
Infrastruktur zur Verfügung steht, was einen Discovery Mechanismus für
Geräte und Services erfordert. Besondere Aufmerksamkeit wird dabei
Standard Web Services gewidmet, die auf den mobilen Geräten gehostet
werden müssen und als Kommunikationsmethode dienen.
Arbeitsbereich Database and Artificial Intelligence
Paul Bohunsky
VENTip - Methodology and Implementation of Table Interpretation
Studium: Diplomstudium Informatik
BetreuerIn: Univ.Prof. Dr. Reinhard Pichler
Abstrakt: Ein Großteil an Information im Web ist in Tabellen dargestellt, um
Menschen das Verstehen dieser zu vereinfachen. Da HTML es ermöglicht
Tabellen auf verschiedenste Arten darzustellen ist die Extraktion von
tabellarischer Information für automatisierte System nicht einfach. Aus
diesem Grund ist es wichtig Methoden zu finden, die nicht nur den HTML
Code in Betracht ziehen. Das Ziel dieser Arbeit war es, ein System zu
entwickeln, das, basierend auf der visuellen Darstellung, das Verstehen von
Wilfried Weisl
41
42
Tabellen ermöglicht. Wir stellen einen Ansatz vor, der die automatische
Extraktion von Tabellen ermöglicht und diese in ein Ausgabeformat
überführt,
das
für
weitere
Verarbeitung,
wie
relationale
Datenbankintegration geeignet ist. Um unseren Ansatz auch zu evaluieren,
generierten wir auch eine Ground Truth von Web Tabellen. In dieser Arbeit
stellen wir (i) eine Methode zum effizienten Erstellen einer Ground Truth von
Web Tables vor - ebenfalls WTGT ein Tool, das all den Anforderungen
unserer Methode entspricht. Weiters präsentieren wir (ii) VENTip: eine
Methode um Web Tabellen zu \Verstehen" wobei Verstehen den gesamten
Prozess von Extraktion und Interpretation bezeichnet. Als letztes
präsentieren wir die (iii) Implementierung der vorgestellten Methoden - eine
online verfügbare Version des Extraktionsparts und separaten nicht-online
zugänglichen Code für Tabelleninterpretation.
Studium: Masterstudium Software Engineering und Internet Computing
BetreuerIn: Univ.Prof. Dr. Reinhard Pichler
Abstrakt: Join Operationen spielen bei Datenbanksystemen eine
entscheidende Rolle. Sie gehören zu den wichtigsten Operationen und
beeinflussen stark die Leistung des gesamten Systems. Nahezu jeder
namhafte Datenbankhersteller liefert seine Produkte mit XML Unterstützung
aus und ermöglicht so Datenbankabfragen mit XPath oder XQuery. Somit
sind strukturelle Joins sehr wichtig, um eine effiziente Abfrage zu
ermöglichen. Im Laufe der Zeit wurden zahlreiche Algorithmen veröffentlicht,
welche die verschiedensten Strategien haben, um möglichst effizient zu
arbeiten. Die wichtigste Gemeinsamkeit ist die Nummerierung der Knoten.
Dieser Index macht es möglich schnell und effizient die Beziehung zwischen
zwei Knoten zu ermitteln.
Yansen Darmaputra
An Application of Heuristic Route Search Techniques for a Scalable Flight
Search System
Studium: DDP Computational Logic
BetreuerIn: Univ.Prof. Dr. Reinhard Pichler
Abstrakt: A meta-search engine is a search engine that forwards user query
to several other search engines and aggregates the results. In flight search
domain, meta-search engine has some inherent weaknesses. They can not
find all routes from low-cost airlines and they don’t support the concept of
mixing flights between airlines in different alliances. This thesis proposes a
mashup solution for the problem. A mashup application uses data from
other resources (called content provider) to create a new application with
new feature and functionality that is not offered by any of the content
provider. In the flight search system that we build, the data are originated
from airline websites. Extracting data from the Web has several obstacles
such as password-protected sites, cookies, JavaScript, Session IDs, Web
forms iterations, deep Web navigation, and dynamic changes on websites.
We use wrapper generation technology from Lixto to solve the obstacles
and do the data extraction. Some data cleaning method is also performed to
the wrapper output to clean unnecessary annotations. In the algorithm,
flight search problem is regarded as graph search problem with airports as
the nodes and pair of airports where exist direct flights between them as
the edges. We introduce hub identification heuristic concept to ensure
system’s scalability. Instead of analyzing and evaluating all possible routes to
reach the destination, this heuristic only evaluates a fraction of all possible
combinations that possibly contain the best routes.
Peter Gansterer
Umsetzung einer e-Learning Applikation für SQL mithilfe eines regelbasierten
Bewertungssystems
Studium: Diplomstudium Informatik
BetreuerIn: Univ.Prof. Dr. Reinhard Pichler
Abstrakt: Für die Lehrveranstaltung "Datenmodellierung" wird ein e-Learning
System entwickelt, das den vorhandenen Modus der Prüfungen und
Übungen für das Lösen von SQL Aufgaben ersetzen soll. Es wird eine
Webapplikation entwickelt, wo Studierende Aufgabenstellungen online
bearbeiten können und direktes Feedback über die Richtigkeit der Lösung
bekommen. Ein Ziel dabei ist die Entlastung der Lehrveranstaltungsbetreuer
durch die automatische Bewertung der Lösungen. Die beiden wesentlichen
Komponenten bei der Umsetzung des Systems waren: ein System zur
Bewertung der Aufgaben und ein möglichst effizientes Userinterface. Zur
Bewertung einer SQL Eingabe wird das Statement auf der entsprechenden
Übungsdatenbank ausgeführt und die Ergebnistupel werden mit dem SollErgebnis verglichen. Zusätzlich wird die Eingabe auch auf strukturelle bzw.
semantische Korrektheit getestet. Bei der Entwicklung des Userinterfaces
wurde auf Übersichtlichkeit und effiziente Navigation geachtet aber auch die
Aufbereitung des Userfeedbacks spielt dabei eine wesentliche Rolle. Für die
semantische Bewertung, für die Interpretation der Ergebnisdifferenzen und
für die Aufbereitung des Userfeedbacks kommt ein einfaches, eigens
Markus Dorner
Optimizations of structural join algorithms
43
44
entwickeltes Regelsystem zum Einsatz. Die vorgestellten Konzepte wurden in
einer Prototyp-Implementierung erarbeitet und getestet.
Abstrakt: Das Communication Center ist ein Fernüberwachungs- und
Steuerungsgerät mit eingebauten GSM Modem, das zum Messen von Daten
und zum Steuern von Geräten eingesetzt werden kann. Die Verwaltung der
Geräte erzeugt in Szenarien, in denen mehrere Communication Center
dezentral eingesetzt werden, einen erheblichen Aufwand. Um die
Geräteeinstellungen zu ändern, müssen sie entweder vor Ort aufgesucht
oder über das GSM Modem fernkonfiguriert werden. Die gemessenen Daten
können nicht kumuliert aus den Geräten ausgelesen werden und somit ist
die Beobachtung der Daten über einen längeren Zeitraum schwierig. Es soll
eine Webapplikation entwickelt werden, die diese Probleme löst und die
Verwaltung der Geräte vereinfacht. Die Geräte sollen über ein
benutzerfreundliches Webinterface wartbar sein und sollen aus der
Applikation heraus automatisiert konfiguriert werden. Um das Problem der
Datenaufzeichnung zu lösen, soll eine Funktionalität zum automatischen
Auslesen und Speichern der aufgezeichneten Daten geschaffen werden.
Diese Daten sollen in ein Standardformat wie Excel exportierbar sein und
statistisch ausgewertet werden können. Die vorliegende Arbeit beschäftigt
sich mit der Entwicklung der Applikation, sie beschreibt diesen Prozess von
den technischen Grundlagen, über die Analyse bis hin zur fertigen
Applikation.
Mario Jerome Kofler
Open Source Java EE Application Server functionality, configuration and
performance on the basis of Geronimo, JBoss and Glassfish
Studium: Diplomstudium Informatik
BetreuerIn: Univ.Prof. Dr. Reinhard Pichler
Abstrakt: Mit der Entwicklung von E-Government und umfangreicher
Geschäftsabwicklung mit Hilfe des World Wide Webs erfreuen sich
Anwendungsserver immer größerer Beliebtheit. Einfache Webserver
Lösungen erweisen sich oft als unzureichend im Hinblick auf Nutzbarkeit und
Skalierbarkeit. Mit zunehmender Anzahl, gleichzeitig zu erwartender
Benutzer, erhöht sich der Bedarf an Replikation und anderen
performancesteigernden Techniken. Weiters sollte eine Schichtenarchitektur
in Betracht gezogen werden, welche klar zwischen den verschiedenen
Komponenten einer Anwendung unterscheidet. Die Java Platform Enterprise
Edition (Java EE) legt eine derartige Schichtenarchitektur nahe. Zusätzlich zu
Java EE Applikationsservern von großen kommerziellen Anbietern erweisen
sich in letzter Zeit auch Open Source Varianten als wettbewerbsfähig. Diese
Arbeit vermittelt die Konzepte des Java EE Frameworks und gibt einen
Überblick über Anwendungsserver. Dabei wird näher auf die Enterprise Java
Bean (EJB) 3.0 Technologie eingegangen, welche eine komfortable
Möglichkeit bietet, Geschäftsanwendungen für das Java EE Framework zu
erstellen.
Nach
einer
detaillierten
Behandlung
der
einzelnen
Serverkonfigurationen wird die EJB Performanz mit Hilfe einer
Testanwendung und einfachen Geschäftsszenarien untersucht. Das
Hauptaugenmerk liegt auf den momentan wichtigsten Open Source
Anwendungsservern Geronimo, JBoss und Glassfish. Performanztests
beschränken sich auf die Benutzung von EJB 3.0 innerhalb einer
Geschäftsanwendung.
Andere
Anwendungsbereiche,
wie
die
Veröffentlichung als Web Service, werden außer Betracht gelassen. Im
Laufe der Analyse werden Einzelserver getestet, Clusterbildung mit mehr als
einer Serverinstanz wird jedoch nicht behandelt. Diese Arbeit dient als
Entscheidungshilfe für Unternehmen, welche den Einsatz von EJB 3.0 in
Verbindung mit einem Open Source Anwendungsserver in Betracht ziehen.
Mei Sin Lee
Data Mining on Empty Result Queries
Studium: DDP Computational Logic
BetreuerIn: Privatdoz. Dr. Nysret Musliu
Abstrakt: A database query could return an empty result. According to
statistics, empty results are frequently encountered in query processing.
Accordingly, one wishes to detect such a query from the beginning in the
DBMS, before any real query evaluation is executed. This will not only
provide a quick answer, but it also reduces the load on a busy DBMS. Many
data mining approaches deal with mining high density regions, or frequent
data values. A complimentary approach is presented here, in which we are
mining for combination of values or range of values that do not appear
together, resulting in empty result queries. We focus our attention on
mining not just simple two dimensional subspace, but also in multidimensional space. We are able to mine heterogeneous data values. Our
goal is to find the maximal empty hyper-rectangle. Our method mines query
selection criteria that returns empty results, without using any prior domain
knowledge. Mined results can be used in a few potential applications in
query processing. In the first application, queries that has selection criteria
that matches the mined rules will surely be empty, returning an empty
result. These queries are not processed to save execution. In the second
application, these mined rules can be used in query optimization. It can also
Martin Kulnigg
Die Communication Center Management Plattform: Eine Webapplikation zur
Hardwaresteuerung/-überwachung
Studium: Diplomstudium Wirtschaftsinformatik
BetreuerIn: O.Univ.Prof. Dr. Georg Gottlob
45
46
be used in detecting anomalies in query update. We study the experimental
results obtained by applying our algorithm to both synthetic and real life
datasets.
Data representation, queries and updates in probabilistic and uncertain
databases
Studium: Diplomstudium Informatik
BetreuerIn: Univ.Prof.Dr. Reinhard Pichler
Andreas Mager
Automatisiertes Verständnis von formularbasierten Webseiten durch
statistische Klassifikation der Seiten und Elemente
Abstrakt: Das Gebiet der probabilistischen und ungewissen Datenbanken ist
seit über einem Jahrzehnt Gegenstand der Forschung und gewinnt durch
aktuelle Anwendungen zunehmend an Bedeutung. Beispiele dieser
Anwendungen sind. die Zusammenführung unterschied-licher Datenbestände
mit umfangreichen und komplexen Strukturen, die Auswertung
fehlerbehafteter Sensordaten (z.B. RFID), die Speicherung von Ergebnissen
von genetischen Sequenzierungen und Anwendungen wie Google Base.
Ungewisse Datenbanken enthalten für zumindest einen Datensatz mehrere
Möglichkeiten, die aber nicht gleichzeitig zutreffen können. Man spricht in
diesem Zusammenhang von mehreren „möglichen Welten“, die auf diese
Weise dargestellt werden. Eine klassische Datenbank besitzt nur eine
Ausprägung und damit gibt es für diese auch nur eine mögliche Welt.
Probabilistische Datenbanken enthalten zusätzlich zu den alternativen
Möglichkeiten
auch
eine
Information
darüber,
mit
welcher
Wahrscheinlichkeit eine Alternative eintritt. Für den Benutzer einer
probabilistischen Datenbank soll es keinen Unterschied in der Schnittstelle
im
Vergleich
zu
klassischen
Datenbanksystemen
geben.
Die
Herausforderung besteht in der Repräsentation der Daten in ungewissen
Datenbanken. Es ist aus Speicherplatzgründen unmöglich, alle möglichen
Welten für sich zu speichern. Es muss daher nach Verfahren gesucht
werden, wie derartige Datenbanken in kompakter Form repräsentiert
werden können. Auch für die Operationen Abfrage und Änderung gilt es,
transformierte und äquivalente Operationen zu finden, die direkt auf die
kompakte Repräsentation angewandt werden, da eine Anwendung dieser
Operationen auf alle möglichen Welten aus Zeit- und Aufwandsgründen
ausscheidet. Die Arbeit bietet eine Zusammenschau von drei verbreiteten
Verfahren, die in der Literatur für die Repräsentation von derartigen
Datenbanken vorgeschlagen wurden. Das Resümee gibt eine Empfehlung für
eine der Darstellungen und für zukünftige Untersuchungen.
Studium: Diplomstudium Informatik
BetreuerIn: Univ.Prof. Dr. Reinhard Pichler
Abstrakt: Betrachtet man die Repräsentation des Wissens, spiegelt das
World Wide Web, so wie es heute existiert, sehr deutlich gesellschaftliche
Eigenschaften der Personen wieder, die es erschaffen haben und es warten.
Es ist nicht möglich eine bestimmte Frage an "die Menschheit" zu stellen.
Genausowenig ist es möglich eine bestimmte Frage an "das Internet" zu
stellen. Es ist notwendig zu wissen, welche Menschen oder welche Gruppe
von Menschen beziehungsweise welche Gruppe von Webseiten man fragen
muss, um eine gewünschte Antwort zu erhalten. Dazu kommen noch die
Sprache und die Form, in der die Fragen gestellt werden müssen, um vom
Gegenüber verstanden zu werden. In dieser Arbeit wird ein Weg
beschrieben um diese unstrukturierten Datenbanken auf ein strukturiertes
Domänenmodell abzubilden. Die Arbeitsschritte sind das Klassifizieren der
Webseiten, Aufteilen in Formulare, Klassifizieren der Formulare, Aufteilen in
Elemente und schließlich das Klassifizieren der Elemente. Getestet wurden
mehrere etablierte Textklassifikationsalgorithmen. Unter anderen der BayesAlgorithmus, er wird auch in der Software "Spamassassin" zur
Spamerkennung verwendet. Mit verschiedenen Vorfiltern wurde untersucht
ob es möglich ist das Ergebnis der im Hinblick auf das Klassifizieren von
reinen Texten ohne Strukturinformation entwickelten Klassifikationsalgorithmen
durch
das
Hinzufügen
(oder
Weglassen)
von
Strukturinformationen in einer für diese Algorithmen nutzbaren Form zu
verbessern. Um die Algorithmen und Vorfilter vergleichen zu können wurden
die Qualitätsmerkmale Precision, Recall, Spezifität, Fallout und F-Maß
ermittelt. Der nächste Schritt ist die Integration dieses Annotierungssystems als Modul in das Projekt MetaMorph, welches gerade am Institut
für Informationssysteme, Arbeitsgruppe für Datenbanken und Artificial
Intelligence, gemeinsam mit dem Spin-Off Lixto Software GmbH. entwickelt
wird. Diese Arbeit stellt eine Basis für eine Reihe weiterer Projekte dar. Bis
das Internet, viel mehr das World Wide Web, zu einem Semantic-Web
geworden
ist,
wird
noch
sehr
viel
Arbeit
notwendig
sein.
Annotierungssysteme, wie das in dieser Arbeit beschriebene, sind eine
Möglichkeit um Eigenschaften eines Semantic-Web schon jetzt zu erhalten.
Emmanouil Paisios
Generic Programming for Graph Problems Using Tree Decompositions
Studium: DDP Computational Logic
BetreuerIn: Privatdoz. Dr. Nysret Musliu
Abstrakt: Tree decomposition hat eine zunehmende Bedeutung als
Werkzeug zur Lösung von Graphenproblemen, bedingt durch wichtige
algorithmische Eigenschaften der Klasse der Graphen mit beschränkter
treewidth. Ein wichtiges Theo- rem von Courcelle [Cou90] besagt, dass
Eigenschaften eines Graphen die in MSO Logik beschrieben werden können,
Richard Ostrcil, Dr.
47
48
in linearer Zeit für Graphen mit beschränkter treewidth entschieden werden
können. Dies gibt den theoretis- chen Hintergrund für die tractability vieler
Graphenprobleme, intractability im Allgemeinen und für die oben erwähnte
Graphenklasse regte es zu vie- len Algorithmen für MSO-definierbaren
Problemen an. Bodlaender schlägt in [Bod97] einen Ansatz vor zum Design
von Algorithmen mittels dynamis- cher Programmierung unter der
Verwendung von tree decomposition. Dieser Ansatz stellt eine
verallgemeinerte Methode vor, mittels der sich auch bereits vor dieser
Arbeit vorgestellte Algorithmen entwerfen hätten lassen, wichtiger jedoch
diese Methode kann verwendet werden um neue Algorithmen für eine
Vielzahl von Graphenproblemen zu konstruieren. In dieser Diplomarbeit
haben wir diesen Ansatz untersucht und imple- mentiert. Das Ergebnis ist
ein System, das Bodlaender’s Methode ver- wendet und das es erlaubt
spezifische Teile des Algorithmuses mittels Plu- gins zu beschreiben. Um die
Verwendbarkeit und Effizienz des Systems einzuschätzen haben wir einen
Algorithmus für Dreifärbung als Plugin im- plementiert.
und mittels Tests zu evaluieren. Im Rahmen dieser Diplomarbeit wurde der
Prozess zur allgemeinen Verarbeitung - vom zugrunde liegenden Problem
unabhängig - dieser Datalogregeln implementiert. Am Beispiel des
Programms SAT wurde die automatische Transformation von Monadischem
Datalog in ”normales” Datalog für die verwendeten Datalog Interpreter (DLV,
DLV Complex und DLV Complex mit externem Prädikat) durchgeführt und die
Applikation mit unterschiedlichen Parametern ausführlich getestet. Als
Ergebnis konnte gezeigt werden, dass dieser Ansatz ein großes Potential hat
und mit Hilfe von allgemeinen Datalog Interpretern realisiert werden kann.
Zudem hat sich herausgestellt, dass dieses Thema noch viel Potential zur
Verbesserung bietet.
Lukas Steiner
Einbindung von automatisiert extrahierten Webdaten in Internet Portalen
Studium: Diplomstudium Wirtschaftsinformatik
BetreuerIn: O.Univ.Prof. Dr. Georg Gottlob
Abstrakt: In der heutigen Zeit wird es für große Unternehmen, die eine
Vielzahl an verschiedenen Arbeitsprozessen zu koordinieren haben, immer
wichtiger in jedem Segment ihres Aufgabenbereiches eine möglichst
effiziente Softwarelösung zu haben. Um jedoch nur wenige Ressourcen bei
der Benutzung dieser Programme zu verbrauchen, werden dringend neue
Technologien benötigt, die den Anwendern eine Erleichterung und
Hilfestellung bei der Nutzung bieten sollen. Diese Diplomarbeit zeigt einen
realisierbaren Lösungsansatz auf, welcher nicht nur die technische
Integration und Kommunikation von verschiedenen Unternehmensanwendungen berücksichtigt, sondern auch für die Benutzung dieser
Applikationen
einen
möglichst
anwenderorientierten
und
ressourcenschonenden
Weg
mit
einbezieht.
Im
Rahmen
eines
Forschungsprojektes,
wurden
die
Voraussetzungen
für
eine
Systemlandschaft geschaffen, welche die Verarbeitung und Darstellung von
automatisiert extrahierten Informationen in einem für industrielle Zwecke
geeignetem Szenario simuliert. In dieser Forschungsumgebung wurden
unterschiedliche Technologien zur Systemintegration und -transformation
evaluiert und anschließend in dem für die Automobilindustrie sehr wichtigen
Bereich der Qualitätssicherung umgesetzt, wobei auch der Schwerpunkt auf
eine systemunabhängige Darstellung gelegt wurde. Das Projekt wurde im
Forschungsverein Electronic Commerce Competence Center – EC3 unter
dem Namen „in2ex - Case Study Integration mit SAP Portal“ publiziert und
schenkt den Technologien der Firmen SAP und Lixto besondere
Berücksichtigung.
Christoph Singewald
Efficient problem solving based on datalog transformations
Studium: Diplomstudium Informatik
BetreuerIn: Univ.Prof. Dr. Reinhard Pichler
Abstrakt:
Viele
interessante
algorithmische
Probleme
in
der
Computerwissenschaft können im Allgmeinen nur mit hohem Aufwand auf
einer Rechenmaschine gelöst werden. In diesem Zusammenhang sind in den
letzten Jahren parametrisierbare Probleme immer wichtiger geworden. Es
konnte gezeigt werden, dass viele harte Probleme effizient lösbar werden,
wenn ein Parameter durch eine Konstante begrenzt ist. Besitzt ein Problem
diese Eigenschaft, bezeichnet man es als fixedparameter-lösbar (engl. fixedparameter tractable). Bei Problemen aus dem Bereich der Graphentheorie
ist die Baumweite (engl. treewidth) ein solcher Parameter. Aufgrund des
Courcelle’schen Theorems wissen wir, dass sämtliche Grapheigenschaften,
die sich mittels Monadic Second Order Logic (MSO) ausdrücken lassen, auf
Graphen mit beschränkter Baumweite effizient entscheidbar sind. Gottlob et
al. haben vor kurzem Monadisches Datalog (jedes Prädikat ist einstellig)
über Strukturen mit beschränkter Baumweite als Alternative zu (MSO)
vorgeschlagen. Dieser Ansatz sieht theoretisch vielversprechend aus. Eine
praktische Evaluierung war aber bislang ausständig. Das Ziel dieser
Diplomarbeit war es, den Monadischen Datalog Ansatz zu implementieren
49
Markus Triska
Solution Methods for the Social Golfer Problem
50
Studium: Masterstudium Computational Intelligence
BetreuerIn: Privatdoz. Dr. Nysret Musliu
Thomas Zwierschitz
An Extensible and Configurable Record Linkage Framework
Abstrakt: Das "social golfer problem" (SGP) ist ein kombinatorisches
Optimierungsproblem. Die Aufgabe besteht darin, p*g Golfer in g Gruppen
zu je p Spielern für w Wochen so einzuteilen, dass sich je zwei Spieler
höchstens einmal in derselben Gruppe treffen. Eine SGP-Instanz wird durch
das Tripel g-p-w bezeichnet. Das ursprüngliche Problem besteht darin, das
maximale w zu bestimmen sodass die Instanz 8-4-w gelöst werden kann.
Das SGP ist ein interessantes Puzzle und Benchmark-Problem, und tritt
zudem in zahlreichen praktischen Anwendungen wie Kodierung,
Verschlüsselung und Überdeckungs-Problemen auf. In dieser Diplomarbeit
werden vorhandene Ansätze zum Lösen von SGP-Instanzen präsentiert und
verbessert. Wir zeigen, dass das zum SGP gehörige "completion problem"
NP-vollständig ist. Wir korrigieren mehrere Fehler in einem vorhandenen
SAT Encoding für das SGP, und schlagen eine Modifikation vor, die zu einer
erheblichen Senkung der Laufzeit führt, wenn man SGP-Instanzen mit
gängigen SAT-Solvern löst. Wir entwickeln einen neuen und frei verfügbaren
Constraint Solver über Finite Domains, um mit einer vorhandenen
Constraint-basierten Formulierung für das SGP zu experimentieren. Mit dem
Solver lösen wir das ursprüngliche SGP für 9 Wochen, was dem derzeit
besten mit kommerziellen Solvern erzielten Ergebnis für diese Instanz
entspricht. Wir stellen eine neue Greedy-Heuristik und eine neue "greedy
randomised adaptive search procedure" (GRASP) für das SGP vor. Dies ist
die erste metaheuristische Methode, mit der das ursprüngliche SGP optimal
gelöst werden kann. Auch auf anderen Instanzen erzielen wir mit unserer
Methode Ergebnisse, die existierenden Ansätzen gleichkommen oder sie
übertreffen.
Studium: Diplomstudium Informatik
BetreuerIn: Univ.Prof. Dr. Reinhard Pichler
Arbeitsbereich Knowledge Based Systems
Minh Dao Tran
Default Reasoning on Top of Ontologies with dl-Programs
Studium: DDP Computational Logic
BetreuerIn: O.Univ.Prof. Dr. Thomas Eiter
Abstrakt: We study the usefulness of description logic programs (dlprograms) in implementing Reiter's default logic on top of a description logic
knowledge base (DL-KB). To this end, we investigate transformations from
default theories to dl-programs based on different algorithms for evaluating
default theory extensions, namely select-defaults-and-check and selectjustifications-and-check. In each transformation, additional constraints are
exploited to prune the search space based on conclusion-conclusion or
conclusion-justification relations. The implementation was deployed as new
part of the dl-plugin in dlvhex, and evaluated with various experimental test
ontologies, which showed promising results.
Alexander Feder
Methods of Affective Artificial Intelligence and an Application for Traffic
Simulation with Emotional Drivers
Engelbert Wimmer
Integration von e-Learning in ein Kompetenzmanagementsystem
Studium: Masterstudium Computational Intelligence
BetreuerIn: Ao.Univ.Prof. Dr. Hans Tompits
Studium: Masterstudium Wirtschaftsinformatik
BetreuerIn: Ao.Univ.Prof. Dr. Jürgen Dorn
Abstrakt: Emotionen spielen eine zentrale Rolle in unserem Leben, dennoch
wurden sie bis noch vor kurzem im Bereich der KI ignoriert. Dies änderte
sich durch die Entstehung des neuen Forschungsgebietes Affective
Computing. Dieses behandelt hauptsächlich die Erkennung und die Synthese
von Emotionen. Diese Arbeit liefert einen Überblick über manche der
Methoden des Affective Computings, einschliesslich diverser Theorien zur
menschlichen Emotion sowie relevante Emotionsmodelle zur Anwendung in
Agentensystemen. Weiters wird -- aufbauend auf einem speziellen
hormonellen Emotionsmodell -- eine Anwendung zur Verkehrssimulation mit
emotionalen Agenten vorgestellt, die im Zuge dieser Arbeit entwickelt
wurde. Mit diesem Modell haben die Agenten die Möglichkeit sich glücklich,
traurig, zornig oder ängstlich zu "fühlen" -- Zustände, die ihr Fahrverhalten
beeinflussen. Experimente mit dieser Simulation bestätigen Erkenntnisse aus
der Verkehrspsychologie; so konnte mit verschiedenen Persönlichkeitstypen
Abstrakt: Ziel dieser Arbeit ist die Kooperation von e-Learning mit einem
Kompetenzmanagementsystem zu untersuchen. Um einen Daten-austausch
zwischen den beteiligten Plattformen zu ermöglichen, werden (State of the
Art) Standards verwendet und erweitert. Zudem wurde für Testzwecke ein
e-Learning Kurs im Bereich Datenbanken entwickelt. Die Metadaten dieses
Kurses werden daraufhin genützt, um das Zusammenspiel zwischen allen an
einem Datenaustausch involvierten Plattformen zu evaluieren. Das Ergebnis
dieser Evaluierung wird in einem Protokoll festgehalten. In diesem Protokoll
wird dargestellt, wie ein Kompetenzprofil verwendet und nach Absolvierung
eines Kurses aktualisiert wird.
51
52
reproduziert werden, dass Emotionen einen negativen Einfluss auf das
Fahrverhalten und somit auf die Staubildung haben.
Christian Eis
RASCALLI Platform: A Dynamic Modular Runtime Environment for Agent
Modeling
Sonja Leder
Anforderungen, Konzeption und Schnittstellen für ein medizinisches
Multimediaarchiv
Studium: Diplomstudium Informatik
BetreuerIn: Ao.Univ.Prof. Dr. Harald Trost
Abstrakt: Wir beschreiben die Architektur und Implementierung der
RASCALLI Plattform, einer Laufzeit- und Entwicklungsumgebung für
Softwareagenten. Der zentrale Beitrag dieser Arbeit ist die Anwendung
moderner
komponentenbasierter
Entwicklungsmethoden
auf
die
Implementierung von Agenten, die es erlaubt, solche Agenten aus einer
Menge wieder verwendbarer Komponenten zusammenzufügen. Mehrere
unterschiedliche Agenten können in einer einzelnen Instanz der Plattform
gleichzeitig ausgeführt werden, wodurch die Evaluierung und der Vergleich
von einzelnen Komponenten, sowie von kompletten Agentenarchitekturen
ermöglicht wird. Schließlich erleichtert die Service-orientierte Architektur der
Plattform die Integration von externen Komponenten.
Studium: Diplomstudium Informatik
BetreuerIn: Ao.Univ.Prof. Dr. Uwe Egly
Abstrakt: Medizinische Multimediaarchive sind durch die EU-weiten
Diskussionen über elektronische Patientenakten ein sehr aktuelles Thema.
Ziel dieser Arbeit ist es, die Anforderungen an ein Multimediaarchiv zu
erheben. In Folge sollen auch mögliche Probleme einer zentralen
Patientenakte aufgezeigt werden. Die Aufgabe eines Multimediaarchivs
besteht darin, Dokumente, die in verschiedenen Formaten vorliegen, zu
erfassen, zu archivieren und anzuzeigen. Die Analyse der medizinischen
Daten ergibt die fünf Formate: Text, Grafik, Bilder, Audio und Video. Unter
Berücksichtigung der medizinischen Standards und der IHE-Profile werden
die Auswirkungen auf das Design und auf die Schnittstellen untersucht. Die
Einhaltung der medizinischen Standards ist wichtig, um die Interoperabilität
zwischen verschiedenen Systemen garantieren zu können. Die beiden
bedeutendsten sind "Health Level Seven" (HL7) für den Austausch von
Patientendaten und "Digital Imaging and Communications in Medicine"
(DICOM) für den Austausch radiologischer Bilddaten. Darüberhinaus vereint
die Initiative "Integrating the Healthcare Enterprise" (IHE) diese Standards in
ihren Integrationsprofilen. IHE beschreibt den Zugriff auf elektronische
Patientendaten zwischen Gesundheitsdiensteanbietern in den Profilen
"Cross-Enterprise Document Sharing" (XDS) und "Cross-enterprise
Document Sharing for Imaging" (XDS-I). Unter Berücksichtigung dieser
Profile werden die verschiedenen Schnittstellen, die ein Archiv anbieten
muss, entworfen. Im einzelnen handelt es sich um die Schnittstelle vom
Archiv zum Dokument, zum Krankenhausinformationssystem, zum Viewer
und zur Datenbank. Patientenbezogene Gesundheitsdaten sind besonders
sensibel und schutzwürdig, daher muss bei der Realisierung auch der
Datenschutz und die Datensicherheit berücksichtigt werden. Der Schutz
personenbezogener Daten ist ein Grundrecht und in den verschiedensten
Gesetzen geregelt. So müssen bei der Verarbeitung bestimmte Richtlinien,
die in den allgemeinen Grundsätzen beschrieben sind, eingehalten werden.
DOMAIN, ein Multimediaarchiv der Firma SIEMENS, zeigt ein Beispiel aus
der Praxis. Abschließend werden die Initiativen zur geplanten
österreichischen Patientenakte ELGA ("Elektronischer lebensbegleitender
Gesundheitsakt") beleuchtet.
Andrea Hess
A Mobile Context Framework Based On Wireless Sensor Networks
Studium: Masterstudium Software Engineering und Internet Computing
BetreuerIn: O.Univ.Prof. Dr. Günther Haring
Abstrakt: Since an ever-growing demand for 'smart' computer systems
capable of monitoring or adapting to their environments arose throughout
the preceding decade, sensing technologies have gradually found their way
from embedded systems and cybernetic research into various fields of
computer science (e.g., ubiquitous computing, medical computer science).
This thesis is concerned with the design and implementation of a mobile
context-sensing framework based on a wireless sensor network. The
particular contributions of this work are a generic software architecture for
context-aware applications and an approach to overcome the calibration
problem in wireless sensor networks. The calibration approach proposed
involves automatic as well as user-controlled calibration of sensors. To
demonstrate the feasibility of the context-framework, it has been
prototypically implemented for the use in mobile scenarios. For this purpose,
wireless network nodes equipped with sensors capable of measuring
environmental conditions, such as light, temperature, humidity, and sound,
and sensing motion have been used to provide information on the context of
a moving person. In this thesis, the design and implementation of the
context-sensing framework is detailed and the experiments carried out to
describe the calibration challenges are summarised. Finally, the thesis
Keinem Arbeitsbereich zugeordnet
53
54
outlines the design and results of a mobile HCI study where the prototype of
the framework has been successfully used. In this mobile HCI study, the
influence of motion and environmental conditions on the users of mobile
applications has been investigated by means of the context information
captured by the context-sensing framework.
Abstrakt: We propose an algorithm for the automatic detection of topics in
song lyrics. It mainly consists in the application of basic text mining
techniques on a lyrics collection and clustering the terms found in the lyrics
into topics by using non-negative matrix factorization (NMF). The resulting
clusters are labeled by hand. A small-scale evaluation is used in order to
create these labels. The study proves that the identified topics are coherent
and recognizable. The result of applying our method to a collection of songs
is an information retrieval system which can be queried for topics and topic
combinations.
Ufuk Karakoc und Serkan Uzun
Analyse und Bewertung von Web-Usability bei medizinischen
Informationssystemen (insbesondere von medizinischen Datenbanken).
Studium: Masterstudium Informatikmanagement
BetreuerIn: Ao.Univ.Prof. Dr. Ernst Schuster
Hasibe Yildiz
Virtual Private Networks (VPNs) in der Medizin
Abstrakt: Die Informationstechnologien haben sich mit den Möglichkeiten
des freien Zugriffs, dank des jedermann zugänglichen Internet, rasant
entwickelt. Die Fülle an Informationen, die sich stetig erweitert, macht
Datenbanken zu einem Muss, um einen Überblick über das angebotene
Wissen zu bewahren. Auch im beruflichen Alltag ist ein effizientes
Weiterkommen nur durch die richtige Verwaltung der Daten und des
Wissens gesichert. Da die Menge an Informationen ständig wächst, wird es
für die Anwender immer schwieriger, an das gewünschte Ziel zu gelangen.
Aber auch ein fortschrittliches Informationssystem kann oft durch seine
Mängel das Erwünschte nicht optimal vermitteln. Die vorliegende Arbeit
setzt sich mit der Web Usability von Informationssystemen auseinander.
Vom Erscheinungsbild bis zum Inhalt, von der Strukturierung bis zur
Erreichbarkeit, aus technischer wie auch aus gestalterischer Sicht, wurde
analysiert, was einem Benutzer beim Erlangen seiner gesuchten
Informationen hilft oder was ihn daran behindert. Als Themenschwerpunkt
dienen medizinische Datenbanken, die zuerst im Allgemeinen definiert
werden, und anschließend an drei Fallbeispielen aus der Sicht der Web
Usability konkret analysiert werden. Das Ziel dieser Arbeit ist es, Kriterien
herauszuarbeiten, die zu einer effektiven und effizienten Nutzung von
Informationssystemen beitragen. Anhand mehrerer Blickpunkte in dieses
Themengebiet soll gezeigt werden, wie vielfältig gearbeitet werden muss,
wenn ein benutzergerechtes Informationssystem gestaltet werden soll, und
was für Auswirkungen es haben kann, falls man diese Kriterien nicht
beachtet. Die detaillierten Analysen der drei Fallbeispiele, die auch graphisch
dargestellt sind, sollen zur Unterstützung des Zieles dienen und zeigen,
welche Auswirkungen aus Sicht der Web Usability zu erwarten sind.
Studium: Masterstudium Medizinische Informatik
BetreuerIn: Ao.Univ.Prof. Dr. Ernst Schuster
Abstrakt: Diese Arbeit befasst sich mit der Erstellung einer sicheren
Verbindung über das Internet mit einem virtuellen privaten Netzwerk im
gesundheitlichen Bereich. Es werden bestimmte Rechner/Hosts (z.B.
bestimmte Rechner ev. in einer bestimmten oder in mehreren Abteilungen
in einem Spital, Fachärzte in deren Ordinationen, Experten/Forscher aus
bestimmten geographischen Gebieten oder sogar aus der ganzen Welt)
ausgewählt, welche über diese Verbindung miteinander kommunizieren
dürfen. Nur diese - und keine anderen - vorher bestimmten Hosts sollen in
der Lage sein, sich an den Server zu verbinden. Hierzu wird nicht das
„klassische“ VPN genutzt, sondern die Kommunikation soll mittels
Zertifikaten, mit denen sich Server und Clients über ein Sicherungsprotokoll dem so genannten Secure Socket Layer (SSL)/Transport Layer (TLS) – das
sich an Hypertext Transfer Protocol (HTTP) anlehnt, gegenseitig ausweisen
können, erfolgen. Dabei soll keine speziellen Software auf den Hosts
installiert werden, da dies die Arbeit nur verzögert und es sehr aufwendig
ist, alle Hosts, die ja örtlich weit voneinander entfernt sein können, zu
administrieren. HTTPS (HTTP mit SSL/TLS) wird deshalb bevorzugt, da
jeder Rechner mit einer Internetanbindung sicherlich einen Internetbrowser
aufweist. Somit ist es nicht not-wendig, einen zusätzlichen Clienten zu
installieren. Die große Administrierarbeit kann auf dieser Weise vermieden
werden und die Übersicht bleibt erhalten.
Florian Kleedorfer
Automatic Topic Detection in Song Lyrics
Studium: Diplomstudium Informatik
BetreuerIn: Univ.Prof. Dr. Gerhard Widmer
55
56
Software-Pipelining-Heuristik, die wir für die LLVM Compiler-Infrastruktur
implementiert haben, heißt swing modulo scheduling (SMS). SMS erzeugt
dichte Schedules und schafft es die Anzahl der nötigen Register und die
Compile-Zeit niedrig zu halten.
INSTITUT FÜR COMPUTERSPRACHEN
Arbeitsbereich Programmiersprachen und Übersetzerbau
Andreas Fellnhofer
Automatic Generation of Interpreting Instruction Set Simulators
Laszlo Keszthelyi
Design and Implementation of the JavaSpaces API Standard for XVSM
Studium: Masterstudium Technische Informatik
BetreuerIn: Ao.Univ.Prof. Dr. Andreas Krall
Studium: Diplomstudium Informatik
BetreuerIn: Ao.Univ.Prof. Dr. Eva Kühn
Abstrakt: Automatisch generierte Entwicklungswerkzeuge können einen
wesentlichen
Beitrag
leisten,
den
Entwurfszyklus
von
anwendungsspezifischen Embedded Prozessoren zu verkürzen und
zuverlässigere
Abschätzungen
über
das
Laufzeitverhalten
von
Hardware/Software-Systemen zu treffen. Ergebnisse aus Testläufen eines
generierten Simulators zum Beispiel sind ein probates Mittel um aus den
unzähligen Alternativen bei der Hardware Entwicklung passende
Kompromisse
zu
wählen.
Architekturbeschreibungssprachen,
die
Eigenschaften von Prozessoren auf einer mittleren Abstraktionsebene
formalisieren, werden von Generatoren verwendet um Software Werkzeuge
zu generieren. Die xADL, als ein Vertreter dieser Sprachen, wurde auf der
TU Wien am Institut für Computersprachen entwickelt und ist
strukturbasiert. Sie ermöglicht die Generierung einer weiten Palette an
Software (z.B. Simulatoren und Compiler) durch ein Framework, das die
Architekturbeschreibung vorverarbeitet und Module zur Weiterverarbeitung
vorsieht. Hier setzt die vorgestellte Arbeit an. Es wird eine Methode
vorgestellt, die es erlaubt, xADL Beschreibungen in zyklengenaue
Simulatoren zu übersetzen und eine konkrete Implementierung in Form eines
(nicht zyklengenauen) Generator Moduls beschrieben. Des Weiteren
präsentiert die vorliegende Arbeit eine Technik um Instruktionsdecoder, wie
sie für Simulatoren üblicherweise benötigt werden, zu generieren.
Abstrakt: Aufgrund der steigenden Nachfrage an jedem Ort zu jeder Zeit
Zugriff auf Informationen zu haben, sind verteilte Systeme heutzutage
wichtiger als sie es noch in der Vergangenheit waren. Viele der eingesetzten
verteilten Systeme haben bedeutende Einschränkungen, wie zum Beispiel
dass beide Kommunikations-Partner sich kennen und zur gleichen Zeit
erreichbar sein müssen. Diese Probleme werden durch z.B. Space-basierte
Systeme angesprochen, welche eine Entkoppelung von Zeit und Raum
mittels eines so genannten gemeinsamen Space ermöglichen. Die von Sun
Microsystems entwickelte JavaSpaces-Technologie und das am Institut für
Computersprachen der Technischen Universität Wien entwickelte eXtensible
Virtual Shared Memory (XVSM) sind solche auf Space basierende Systeme.
Diese Diplomarbeit befasst sich mit dem Design und der Implementierung
des JavaSpaces-API-Standard für XVSM, unter Verwendung von
MozartSpaces, der Java-basierenden Open-Source-Implementierung des
XVSM Modells. Die Implementierung soll durch die Entwicklung eines
``Vermittlers'' realisiert werden, der die Zusammenarbeit zwischen dem
JavaSpaces-API-Standard und MozartSpaces ermöglicht. Als Ergebnis sollen
bereits existierende JavaSpaces basierende Systeme und Applikationen
MozartSpaces verwenden können, ohne die Notwendigkeit der Anpassung
oder des Neu-Schreibens ihres Quellcodes. Weiters soll mit der
Implementierung die Flexibilität und die Erweiterbarkeit von MozartSpaces
demonstriert werden.
Benedikt Huber
Software Pipelining in a C-Compiler
Studium: Diplomstudium Informatik
BetreuerIn: Ao.Univ.Prof. Dr. Andreas Krall
Nikolai Kim
Profile guided code positioning optimizations in a C-compiler
Abstrakt: Very long instruction word (VLIW) Prozessoren nutzen instruction
level paralellism (ILP) um die Ausführungszeit von Programmen zu
verkürzen, indem sie mehrere Operationen zeitgleich verarbeiten. Da das
Scheduling, insbesondere die Parallelisierung, ausschließlich vom Compiler
durchgeführt wird, sind durchdachte Algorithmen notwendig um die zur
Verfügung stehenden Ressourcen effizient zu nutzen. Software pipelining ist
eine Technik um ILP in Basic-Block-Schleifen zu erhöhen, indem die
Ausführung von aufeinanderfolgenden Iterationen überlappt wird. Die
Studium: Diplomstudium Informatik
BetreuerIn: Ao.Univ.Prof. Dr. Andreas Krall
57
Abstrakt: Wenn die Leistung des Systems unter einer ineffizienten Nutzung
des Befehlscaches aufgrund von "instruction fetch stalls" leidet, können
gewisse Optimierungen Abhilfe schaffen. Viele Optimierungsansätze sind
bekannt - auf Hardware und Software-Ebene. Diese Arbeit beschäftigt sich
jedoch ausschließlich mit Software-Optimierungen und beschreibt
58
Algorithmen, die versuchen die Performance des Befehlscaches durch das
algorithmische Umordnen von Code zu erhöhen. Dabei wird das Umordnen
von Profildaten gesteuert, die die Einsatzumgebung des Target-Programms
reflektieren und aggressivere Optimierungen ermöglichen. Neben
ausführlichen Beschreibungen werden Ergebnisse für die von "ONDEMAND
Microelectronics AG" entwickelten VLIW-Architektur präsentiert.
eine ausführliche Einführung in die Begriffe Benchmark, Performance,
Skalierbarkeit und Middleware und präsentiert drei verschiedene
Middlewarekonzepte: eXtensible Virtual Shared Memory (XVSM),
JavaSpaces und Java 2 Plattform, Enterprise Edition (J2EE). Im zweiten Teil
werden einige Benchmarkszenarien für die zugehörigen Systeme
MozartSpaces, GigaSpaces eXtreme Application Platform (XAP) und JBoss
Application Server (AS) definiert und durchgeführt. Die Ergebnisse ihrer
Ausführung werden anschließend visualisiert und interpretiert.
Rastislav Levrinc
LLFS: A Copy-On-Write File System For Linux
Vadim Mihailevschi
Machine translation interlingua based on MultiNet
Studium: Diplomstudium Informatik
BetreuerIn: Ao.Univ.Prof. Anton Ertl
Studium: Masterstudium Software Engineering und Internet Computing
BetreuerIn: Univ.Prof. Dr. Jens Knoop
Abstrakt: Diese Diplomarbeit beschreibt das Design und Implementation von
LLFS, einem Linux-Dateisystem. LLFS kombiniert Clustering mit Copy-OnWrite. Copy-On-Write überschreibt belegte Blöcke nicht zwischen Commits;
Durch das Clustering bleibt die LLFS-Geschwindigkeit vergleichbar mit
Clustered- Dateisystemen wie Ext2. Copy-On-Write ermöglicht neue Features
wie zum Beispiel Snapshots, beschreibbare Snapshots (Clones) und schnelle
Crash-Recovery zu einem konsistenten Dateisystem-Zustand. Gleichzeitig hilft
das Clustering, die Fragmentierung niedrig und Geschwindigkeit hoch zu
halten. Clustering wird mit Ext2-ähnlichen Gruppen und Free-Blocks-Bitmaps
für das Belegen und Freigeben von Blöcken erreicht. Journaling
Dateisysteme wie Ext3 brauchen ein Journal und schreiben Blöcke doppelt.
Mit Hilfe von Copy-on-Write vermeidet LLFS diese Kosten. Aufgrund der
Free-Blocks-Bitmaps braucht LLFS keinen Cleaner wie Log-Strukturierte
Dateisysteme. Trotzdem bietet LLFS die kombinierte Funktionalität von
Journaling und Log-Strukturierten Dateisystemen. Ich habe LLFS aufbauend
auf Ext2 implementiert, und ich habe die Performance getestet. Die
Benchmarks zeigen, dass LLFS ähnliche und in einigen Fällen bessere
Resultate als Linux-Journaling-Dateisysteme erreicht.
Abstrakt: Völlig automatisierte qualitativ hochwertige maschinelle
Übersetzung (MÜ) wird traditionell als ein großer Traum der Menschheit
betrachtet. Es wurden jedoch noch keine bedeutenden Ergebnisse im
Vergleich zu diesem Traum erzielt. Der Interlingua-Ansatz für MÜ wurde am
wenigsten studiert und ist eine viel versprechende, aber auch eine sehr
komplizierte Methode der MÜ. Das Ziel dieser Arbeit ist es, ein
beschränktes sich auf Interlingua basiertes MÜ-System auszuarbeiten, das
im Stande wäre, Sätze aus der englischen in die deutsche Sprache oder
umgekehrt zu übersetzen. Somit wird eine sprachunabhängige Interlingua
entworfen, die wesentlich auf dem MultiNet-Wissensrepräsentationssystem
beruht. Das entworfene Übersetzungs-system hat ein beschränktes, aber
logisch strukturiertes Vokabular und kann unterschiedliche Sätze über
diesem Vokabular übersetzen.
Carolyn Oates
Type Analysis in a Java Virtual Machine
Bernhard Löwenstein
Benchmarking of Middleware Systems
Studium: Diplomstudium Informatik
BetreuerIn: Ao.Univ.Prof. Dr. Andreas Krall
Studium: Diplomstudium Informatik
BetreuerIn: Ao.Univ.Prof. Dr. Eva Kühn
Abstrakt: Obwohl virtuelle Methoden in objektorientierten Programmiersprachen beim Aufruf an viele unterschiedliche Definitionen gebunden
werden können, wird oft nur eine Methodendefinition wirklich verwendet.
Der Einsatz von Analysealgorithmen zur Bestimmung des statischen Typs in
einer Java Virtual Machine (JVM), um konservativ die erreichbaren Klassen
und Methoden abzuschätzen, kann einem Übersetzer mehr Möglichkeiten
zur Optimierung geben. Das Laden von Klassen bei Bedarf in der JVM hat
dynamische Analyse mit Profiling zur Laufzeit gefordert. Die Typ-Analyse
Algorithmen CHA, RTA, XTA, und VTA wurden in CACAO verglichen. CACAO
ist eine Forschungs-JVM, die an der Technischen Universität Wien
entwickelt wird. Drei Modi wurden getestet: statische Analyse (SA),
Abstrakt:
In
der
heutigen
IT-Welt
sind
viele
unterschiedliche
Middlewaresysteme verfügbar. Oftmals verkünden die Anbieter solcher
Anwendungen, dass ihr Produkt die beste Performance und Skalierbarkeit
aufweist, und überhaupt das Beste von allen sei. Diese Arbeit
veranschaulicht,
wie
man
die
Performance
und
Skalierbarkeit
unterschiedlicher Middlewaresysteme auf realistische Art und Weise
messen und vergleichen kann. Die Benchmarks dazu werden anhand einiger
maßgeschneiderter Testfälle durchgeführt. Der erste Teil der Arbeit gibt
59
60
dynamische Analyse (DA), und eine neue hybride Analyse (HPA). Alle
Algorithmen bauen ihre Klassendatenflussdiagramme (CFGs) dynamisch
während der Analyse auf. Klassen werden nach Bedarf geladen. Daher
müssen alle Analysen das Einfügen von zusätzliche Klassen in ihre
Klassenhierarchien behandeln. Die Notwendigkeit von Devirtualization für
Inlining und die Implementierung von Inlining in CACAO wird diskutiert. Je
weniger überflüssige Klassen geladen sind, desto besser ist die Genauigkeit
der Analysen und desto kürzer die Laufzeit der Analysealgorithmen. VTA ist
am genausten mit der kleinsten Zahl unnötig geladener Klassen und
erreichbarer Methoden. HPA lädt weniger Klassen und liefert genauere
Ergebnisse als SA. Zwischen RTA, XTA, und VTA war es nicht entscheidbar,
welcher Algorithmus am schnellsten ist, aber XTA verwendet am wenigsten
Instruktionen. Höhere Kosten, um mehr Genauigkeit aus der Analyse zu
holen, werden durch eine geringere Zahl erreichbarer Methoden
ausgeglichen.
Abschätzungen über das Laufzeitverhalten von Hardware/SoftwareSystemen zu treffen. Ergebnisse aus Testläufen eines generierten
Simulators zum Beispiel sind ein probates Mittel um aus den unzähligen
Alternativen bei der Hardware Entwicklung passende Kompromisse zu
wählen.
Architekturbeschreibungssprachen,
die
Eigenschaften
von
Prozessoren auf einer mittleren Abstraktionsebene formalisieren, werden
von Generatoren verwendet um Software Werkzeuge zu generieren. Die
xADL, als ein Vertreter dieser Sprachen, wurde auf der TU Wien am Institut
für Computersprachen entwickelt und ist strukturbasiert. Sie ermöglicht die
Generierung einer weiten Palette an Software (z.B. Simulatoren und
Compiler) durch ein Framework, das die Architekturbeschreibung
vorverarbeitet und Module zur Weiterverarbeitung vorsieht. Hier setzt die
vorgestellte Arbeit an. Es wird eine Methode vorgestellt, die es erlaubt,
xADL Beschreibungen in zyklengenaue Simulatoren zu übersetzen und eine
konkrete Implementierung in Form eines (nicht zyklengenauen) Generator
Moduls beschrieben. Des Weiteren präsentiert die vorliegende Arbeit eine
Technik um Instruktionsdecoder, wie sie für Simulatoren üblicherweise
benötigt werden, zu generieren.
Michael Pröstler
Design and Implementation of MozartSpaces, the Java Reference
Implemention of XVSM - Timeout Handling, Notifications and Aspects
Stefan Ring
Implementation of native threads and locks in the CACAO Java Virtual
Machine
Studium: Masterstudium Software Engineering und Internet Computing
BetreuerIn: Ao.Univ.Prof. Dr. Eva Kühn
Abstrakt: Die Entwicklung von verteilten Applikations ist ein nicht trivialer
Prozess. Verschiedenste Faktoren, wie Synchronisation, Koordination oder
Skalierbarkeit müssen dabei beachtet werden. Middleware Systeme lösen
einige dieser Probleme was zu einer schnelleren und einfacheren
Entwicklung führt. Das Space-based Computing Paradigma beschreibt
Ansätze für solche Middleware Systeme. Das Ziel dieser Arbeit ist es, diese
Ansätze für eine “next generation Middleware” an Hand von dem eXtensible
Virtual Shared Memory (XVSM) Protokoll zu beschreiben. Dabei wird auf die
Semantik und Vorteile der jeweiligen Mechanismen eingegangen. Diese
Arbeit konzentriert sich vorallem auf Timeouts, Aspekte und Notifikationen.
Darüber hinaus wird die Implementierung dieser Mechanismen innerhalb der
MozartSpaces, der Java Referenzimplementierung von XVSM, im Detail
erläutert.
Studium: Diplomstudium Informatik
BetreuerIn: Ao.Univ.Prof. Dr. Andreas Krall
Abstrakt: Eines der wichtigsten Leistungsmerkmale von Java, die Fähigkeit
zur Ausführung und Synchronisation paralleler Threads, benötigt recht
umfangreiche Unterstützung durch die Implementierung einer Java Virtual
Machine (JVM). Diese Arbeit beschreibt die wesentlichen Schritte, die
benötigt werden, um die CACAO JVM um diese Fähigkeit zu erweitern.
Zunächst werden die notwendigen Schritte für die Umsetzung des Java
Memory Model erörtert. Weiters wird die Wahl eines Algorithmus für Java
Monitore sowie mögliche zukünftige Erweiterungsmöglichkeiten präsentiert.
Außerdem werden einige experimentelle Varianten auf verschiedenen
Hardwarearchitekturen verglichen. Zusätzlich wird der von CACAO zur
Typüberprüfung verwendete Algorithmus durch eine Methode ersetzt, die
besser zur Verwendung in parallelen Javaprogrammen geeignet ist, sowie
deren Auswirkungen auf Laufzeit und Speicheranforderungen überprüft.
David Rigler
Dynamic Binary Translation for Automatically Generated Simulators
Studium: Masterstudium Technische Informatik
BetreuerIn: Ao.Univ.Prof. Dr. Andreas Krall
Abstrakt: Automatisch generierte Entwicklungswerkzeuge können einen
wesentlichen Beitrag leisten, den Entwurfszyklus von anwendungsspezifischen Embedded Prozessoren zu verkürzen und zuverlässigere
61
62
sich auf den XVSM core, die Softwarekomponente die XVSM repräsentiert,
und stellt dessen Architektur im Detail vor, die insbesondere darauf abzielt,
für die im XVSM Modell definierten Funktionen Erweiterbarkeit,
Skalierbarkeit und Parallelität zu garantieren. Eine Implementierung dieses
Modells wird vorgestellt anhand von XcoSpaces, der .Net ReferenzImplementierung von XVSM, die nach dem präsentierten Modell entwickelt
wurde. Weiters wird die komponentenorientierte Architektur vorgestellt mit
der XcoSpaces entwickelt wurde, die die Erweiterbarkeit des XVSM Modells
aus Implementierungssicht unterstützt. Um zu beweisen wie einfach
zusätzliche Funktionalität zu XVSM hinzugefügt werden kann, wird anhand
von XcoSpaces gezeigt, wie der Space um neue Funktionen erweitert wird,
die ihn mit einfachen Sicherheitsmechanismen ausstatten.
Dominik Röck
Real Time Kollaborativer Personal Information Manager mit XVSM
Studium: Masterstudium Software Engineering und Internet Computing
BetreuerIn: Ao.Univ.Prof. Dr. Eva Kühn
Abstrakt: Aktuelle Recherchen zeigen, dass bereits eine Vielzahl an
Aufgabenmanagement Systemen existiert. Während einige dieser Systeme
eine Verteilung per E-Mail unterstützen, bietet der Großteil der
Anwendungen weder eine gemeinsame Nutzung der Inhalte noch eine
Synchronisierung dieser. Aufbauend auf diesen Erkenntnissen und unter
Berücksichtigung der menschlichen Arbeits- und Denkweise soll diese
Diplomarbeit einen Ansatz bieten, der die bestehenden Nachteile beseitigt
und ein benutzerfreundliches System zur Verwaltung von Aufgaben und
Informationen liefert. Dabei soll der Mensch in allen Situationen des
täglichen Lebens unterstützt werden. Sei es, dass er beispielsweise an
Aufgaben erinnert wird, um Ad-hoc-Abläufe abzubilden, oder um lediglich
wichtige Daten permanent zu speichern. Insbesondere werden in dieser
Arbeit die menschlichen Verknüpfungen des Gehirns berücksichtigt und
genauer analysiert, um eine möglichst präzise Vorstellung von deren
Einprägungs- sowie Erinnerungsverhalten zu bekommen. Diese Erkenntnisse
werden dann im Aufgaben- und Informationsmanagement System
anwenderfreundlich abgebildet, um die Auffindbarkeit der Daten zu
erleichtern und das Arbeiten mit dem System so benutzerfreundlich wie
möglich zu gestalten.
Christian Schreiber
Design and Implementation of MozartSpaces, the Java Reference
Implemention of XVSM - Custom Coordinators, Transactions and XML
protocol
Studium: Masterstudium Software Engineering und Internet Computing
BetreuerIn: Ao.Univ.Prof. Dr. Eva Kühn
Abstrakt: Planen und implementieren von verteilten Systemen ist ein
komplexer Prozess. Sehr viele Aspekte wie Skalierbarkeit, Verfügbarkeit,
Sicherheit, Synchronisation und heterogene Umgebungen müssen
berücksicht werden. Diese Diplomarbeit beschreibt MozartSpaces, die Java
Implementierung von XVSM (eXtensible Virtual Shared Memory). XVSM ist
eine erweiterbare, verteilte, space based computing Middleware, welche
viele der erwähnten Probleme sehr gut löst. Sie unterstützt Entwickler beim
Erzeugen von verteilten Anwendungen durch eine natürliche, p2p basierte
Abstraktion des zugrundeliegenden physischen Netzwerkes. Im Gegensatz
zur herkömmlichen Nachrichten basierten Kommunikation erfolgt die XVSM
basierte Kommunikation zwischen verteilten Anwendungen über gemeinsam
benutzte Datenstrukturen. Diese Arbeit geht besonders auf die Realisierung
des Transaktionmanagements, die Erweiterbarkeit durch benutzerdefinierte
Koordinationsmodelle und das plattformunabhänge XML Protokoll ein.
Thomas Scheller
Design and Implementation of XcoSpaces, the .Net Reference
Implementation of XVSM - Core Architecture and Aspects
Studium: Masterstudium Software Engineering und Internet Computing
BetreuerIn: Ao.Univ.Prof. Dr. Eva Kühn
Abstrakt: Mit einer ständig steigenden Anzahl von Rechnern die über
verteilte Netzwerke, vor allem das Internet, miteinander verbunden sind,
müssen Anwendungen auch immer öfter über solche Netze hinweg
miteinander kommunizieren. Dem Paradigma der "Shared Data Spaces"
folgend, bietet XVSM (eXtensible Virtual Shared Memory) eine Middleware
Lösung, die es Anwendungen erlaubt, miteinander auf einfache und
natürliche Art und Weise zu kollaborieren, ohne die Notwendigkeit eines
zentralen Servers. XVSM ist spezialisiert auf die Koordination von Daten, es
stellt flexible Datenstrukturen für verschiedenste Arten der Kommunikation
bereit, die von den meisten anderen Systemen dieser Art nicht zur
Verfügung gestellt werden. Weiters ist XVSM besonders auf
Leichtgewichtigkeit ausgerichtet, bietet aber gleichzeitig auch eine starke
Erweiterbarkeit, um weitere Funktionen leicht hinzufügen zu können, die
ursprünglich nicht in XVSM enthalten sind. Dieses Dokument konzentriert
63
Peter Wiedermann
A generalized PBQP Instruction Selector for the LLVM compiler framework
Studium: Masterstudium Technische Informatik
BetreuerIn: Ao.Univ.Prof. Dr. Andreas Krall
Abstrakt: In den letzten Jahren fand ein neuer Ansatz Verbreitung, der das
Problem der Befehlsauswahl auf ein mathematisches Optimierungsproblem,
das sogenannte Partioned Boolean Quadratic Problem (PBQP) abbildet.
Diese neuartige Formulierung ermoeglicht neben einer funktionsglobalen
64
Optimierung
auch
noch
die
Entwicklung
ausdruckstaerkerer
Befehlsgrammatiken. Fruehere Arbeiten zum Thema PBQP Befehlsauswahl
stuetzen sich auf Befehlsgrammatiken die aus baumfoemigen Regeln
bestehen. Wir stellen eine Generalisierung vor, die GAG 2 -foermige Regeln
ermoeglicht welche mehrere Ergebnisse liefern und mehrere Operationen
auf unabhaengigen Datenpfaden abdecken koennen. Wir integrieren diese
generalisierte Befehlsauswahl in die LLVM Ubersetzerinfrastruktur, welche
derzeit einen einfachen top-down Algorithmus zur Befehlsauswahl einsetzt.
Das bringt neben einem funktionsglobalen Optimierungsraum auch noch
zusaetzliche Funktionalitaet, wie zum Beispiel GAG-foermige Regeln und ein
dynamisches Kostenmodell fuer die Befehlsgrammatik, mit sich. Zur
Evaluierung
implementieren
wir
Befehlsgrammatiken
fuer
zwei
unterschiedliche Architekturen und uebersetzen Programme aus
verbreiteten Benchmark-Suites. Wir untersuchen dabei neben der Effizienz
der uebersetzten Programme auch die algorithmische Komplexitat unserer
generalisierten Befehlsauswahl.
Tomer Libal
Cut Elimination in Inductive Proofs of Weakly Quantified Theorems
Studium: DDP Computational Logic
BetreuerIn: Univ.Prof. Dr. Alexander Leitsch
Abstrakt: In dieser Arbeit wird erst der Gentzensche Beweis der Konsistenz
der Peanoarithmetik vorgestellt, dann wird die Methode auf eine Klasse
induktiver Be- weise erweitert. Da die Schnittregel in der Peanoarithmetik
nicht redundant ist, ist Schnittelimination nur für Teilklassen möglich; hier
wird die Teilklasse aller induktiven Beweise von Sätzen ohne starke
Quantoren untersucht. Es wird gezeigt, dass bei dieser Klasse alle
essentiellen Schnitte eliminiert werden können.
Christoph Pruckermayr
Grundlagen und Anwendungsfallanalyse einer patientengeführten
elektronischen Gesundheitsakte
Arbeitsbereich Theoretische Informatik und Logik
Studium: Masterstudium Wirtschftsinformatik
BetreuerIn: Ao.Univ.Prof. Dr. Rudolf Freund
Markus Beyreder
Special Variants of (Tissue) P Systems in the Formal Framework of
Networks of Cells
Abstrakt: Ziel der vorliegenden Arbeit ist es, über das Heranführen des
Lesers an das Thema Elektronische Gesundheitsakte (EGA) und deren
informationstechnische Grundlagen zu einer Analyse von Anwendungsfällen
zu gelangen, bei denen der Patient als Datenerfasser und Datenpfleger
fungiert. Die elektronische Gesundheitsakte wird zur patientengeführten
elektronischen Gesundheitsakte. Unter dem Hintergrund der hohen Ziele der
Einführung von elektronischen Gesundheitsakten, nämlich der Verbesserung
der Abläufe im Gesundheitswesen und der Verbesserung der
Präventionsmaßnahmen werden einleitend der Kontext und die
Rahmenbedingungen herausgearbeitet. Bei der Realisierung einer EGA ist es
unerlässlich,
ethische
Grundsätze
von
e-health,
gesetzlichen
Rahmenbedingungen und Anforderungen der Benutzer zu berücksichtigen.
Auf der technischen Ebene sollen Möglichkeiten für die Realisierung einer
Schnittstelle zwischen einem webbasierten Modul einer EGA und deren
Core-System aufgezeigt werden. Als zentrale Aufgabenstellung der
vorliegenden Arbeit wurden exemplarisch Anwendungsfälle erarbeitet, die
Möglichkeiten für die Nutzung von EGA durch den Patienten bzw. Bürger
selbst in der Zukunft aufzeigen. Zur Veranschaulichung wird ein modelliertes
Webmodul in UML dargestellt und erklärt. Dieses Modul ermöglicht dem
Patienten seine Gesundheitsdaten, wie Blutzuckerwerte, Gewicht, seine
Wohlbefindlichkeitsdaten, über die zu realisierende Weboberfläche in das
EGA-Kernsystem zu integrieren. Befugte Ärzte können damit diese
Patientendaten
einsehen
und
notwendige
Vorkehrungen
wie
Untersuchungstermine, Überweisungen, etc. planen.
Studium: Diplomstudium Informatik
BetreuerIn: Ao.Univ.Prof. Dr. Rudolf Freund
Abstrakt: Der Formalismus der P-Systeme wurde vor etwa zehn Jahren von
Gheorghe Paun unter dem Namen Membransysteme eingeführt, und erst
vor Kurzem wurden neue Ableitungsmodi und Haltebedingungen eingeführt.
Zur Entwicklung vergleichbarer Resultate war die Entwicklung einer formalen
Beschreibung ihrer Funktionsweise, im Speziellen eines Ableitungsschrittes,
notwendig. Ein allgemeines formales Modell von Netzwerken von Zellen
wurde eingeführt, um die wesentlichen Charakteristika von statischen
(gewebeähnlichen) P-Systemen zu erfassen und ihre Funktionsweise in einer
formalen Weise zu definieren. In dieser Diplomarbeit wird das formale
Modell um einige neue Beispiele sowie neue Haltebedingungen und
Ableitungsmodi erweitert. Mit nichthaltenden Berechnungen, kann man
sogar über die Grenzen der Turing-Berechenbakeit hinausgehen. P-Systeme
mit kontextfreien Regeln und dem maximal parallelen Ableitungsmodus
charakterisieren Familien von Mengen natürlicher Zahlen die durch
Lindenmayer-Systeme definiert sind, wenn man die Resultate in einer
spezifischen Output-Zelle in jedem Ableitungsschritt während einer beliebigen
Ableitung betrachtet. Mit dem neuen Ableitungsmodus des 1-beschränkten
minimalen Parallelismus kann man erweiterte neurale P-Systeme sowie rein
katalytische P-Systeme als Netzwerke von Zellen modellieren.
65
66
Christoph Roschger
Dialogue Games for Fuzzy Logics
INSTITUT FÜR COMPUTERGRAPHIK UND ALGORITHMEN
Arbeitsbereich Algorithmen und Datenstrukturen
Studium: Masterstudium Computational Intelligence
BetreuerIn: Ao.Univ.Prof. Dr. Christian G. Fermüller
Franz Berger
Ein hybrides Verfahren zur automatischen Rekonstruktion von
handzerrissenen Dokumentenseiten mittels geometrischer Informationen
Abstrakt: Formale Dialogspiele werden schon seit langem dazu verwendet,
die Semantik verschiedener Logiken zu charakterisieren. In den 70er Jahren
präsentierte Robin Giles seinen Versuch, eine operationale Grundlage für
formales Schließen zu definieren, basierend auf atomaren Experimenten,
welche Dispersion aufweisen können. Diese Masterarbeit motiviert und
beschreibt seinen Ansatz und die Verbindung zu t-Norm-basierten FuzzyLogiken. Wir geben eine kurze Einführung in t-Normen und mehrwertige
Fuzzy-Logiken, die auf diese Bezug nehmen. Im Speziellen liegt der
Schwerpunkt auf drei solchen fundamentalen Fuzzy-Logiken: LukasiewiczLogik, Gödel-Logik und Produkt-Logik. Verschiedene Möglichkeiten, die
Spielregeln von Giles' Spiel zu ändern, um dieses adäquat für Gödel- und
Produkt-Logik zu machen, werden präsentiert und diskutiert. Darüber hinaus
beschreiben wir die starke Verbindung zwischen Gewinnstrategien im Spiel
und Ableitungen in einem analytischen Kalkül, der auf relationalen
Hypersequenten basiert. Eine andere Art von Dialogspielen sind sogenannte
"Truth Comparison Games". Diese sind besonders geeignet für Gödel-Logik,
da sie der gradbasierten Semantik der Gödel-Logik mehr entsprechen als
Giles' Spiel. Wir präsentieren das Spiel und diskutieren Gewinnstrategien für
beide Spieler, welche als Beweis für die Gültigkeit oder Widerlegbarkeit einer
Formel
gesehen
werden
können.
Zusätzlich
werden
mehrere
Hilfsprogramme vorgestellt, die im Kontext dieser Masterarbeit entwickelt
wurden. Darunter befindet sich auch eine webbasierte Anwendung zur
interaktiven Exploration von Giles' Spiel und dessen Erweiterungen.
67
Studium: Diplomstudium Informatik
BetreuerIn: Univ.Prof Dr. Günther Raidl
Abstrakt: Diese Diplomarbeit ist dem großen Gebiet der Rekonstruktion von
zerstörten Papierdokumenten zuzuordnen. Ziel dieser Arbeit ist die
Zuweisung verschiedener durch manuelles Zerreißen erzeugter Schnipsel
auf einzelne Seiten, sodass im Weiteren eine vollständige Rekonstruktion
der originalen Dokumente vorgenommen werden kann. Alle in dieser Arbeit
entwickelten Ansätze basieren auf der Idee als zusätzliche, sozusagen
komplementäre Methoden zu Ansätzen aus dem Bereich der
Bildverarbeitung zu fungieren. In dieser Arbeit werden drei Ansätze genauer
betrachtet: Eine Lokale Suche soll im Wesentlichen in möglichst kurzer Zeit
mit Hilfe einfacher Strategien gute Lösungen liefern. Weiters wird basierend
auf dieser lokalen Suche ein Variable Neighborhood Descent (VND) Ansatz
definiert, bei dem nicht im klassischen Sinn Nachbarschaften sondern die
Schrittfunktionen systematisch ausgetauscht werden. Letztlich wird noch
eine hybride Methode vorgestellt, die eine lokale Suche mit einem exakten
Verfahren basierend auf ganzzahliger linearer Programmierung kombiniert.
Dabei wird versucht die Abweichung von „ optimalen“ Seiten nach der
Rekonstruktion anhand unterschiedlicher Merkmale zu messen und
möglichst zu minimieren. Alle drei Ansätze werden durch die Anwendung
einer für die Problemstellung entwickelten Datenstruktur effizient
implementiert. Anhand ausführlicher Testergebnisse wird die Qualität der in
dieser Arbeit vorgestellten Methoden miteinander verglichen und im
Weiteren detailliert diskutiert. Zusammenfasssend kann gesagt werden,
dass die Kombination von VND zum Berechnen von Ausgangslösungen mit
der hybriden Methoden zum Verfeinern dieser Startlösung angewandt auf
Seiten mit jeweils zwei Rissen (entspricht vier Schnipseln) am
erfolgversprechendsten ist. Erwartungsgemäß nimmt die Lösungsqualität
mit zunehmender Schnipselzahl pro Seite und zunehmender Seitenanzahl ab.
68
reference template must be available, which can be stored in a database
and also on a RFID chip. With regard to mobile storage media, and thus
only a small amount of memory, there is a need for the compression of
biometric templates. This compression may be lossy, possible errors in the
recognition however should be kept as small as possible. In this Master's
Thesis in particular a new approach for the compression of fingerprint
templates is developed. These templates contain information about the
positions and orientations of the so-called minutiae, i.e. the endings and
bifurcations of the dermal papillae. In turn this information is represented in
the form of points of a d-dimensional coordinate system, and thus can be
conceived as nodes of a graph. Hence, the focus of this thesis lies on the
study of graph-based approaches. The basic idea is to store the difference
vectors between always two points instead of the minutiae. For this purpose
directed spanning trees allow an efficient encoding. Hence in the course of
this thesis different approaches based on specific spanning trees, like e.g.
the directed minimum spanning tree, the directed minimum label spanning
tree and the directed weight balanced spanning tree, have been studied,
and a compression of up to approximately 20% could be achieved.
Christoph Bonitz
An Incremental Dynamic Programming Approach for Multidimensional
Allocation Problems
Studium: Masterstudium Computational Intelligence
BetreuerIn: Univ.Prof Dr. Günther Raidl
Abstrakt: Diese Arbeit präsentiert einen Algorithmus zur Lösung eines
Optimierungsproblems. Das Problem ist inspiriert von der Planung der
Energieerzeugung
in
Wasserspeicherkraftwerken.
In
Wasserspeicherkraftwerken können große Mengen von Energie effizient
gespeichert, und gezielt bei hohen Strompreisen in Elektrizität umgesetzt
werden. Im in dieser Arbeit behandelten formalen Problem versuchen wir
ein durch diskrete Einheiten repräsentiertes Gut, zum Beispiel Wasser, aus
mehreren Speichern über eine beschränkte Planungperiode (repräsentiert
durch "Entscheidungspunke") optimal zu verteilen, wobei Beschränkungen
über die Gesamtzahl der Allokationen aus allen Speichern pro Zeitschitt
möglich sind. Der Zielfunktionswert modelliert einen erwarteten Marktpreis
und ist die Summe von konkaven Preisfunktionen. Wir können zeigen, dass
durch die konkaven Preisfunktionen die Optimallösungen von zwei
Probleminstanzen, die sich nur um eine Einheit in der Kapazität eines
einzigen Speichers unterscheiden, die Optimallösungen in einer definierten
Nachbarschaft befinden, die effektiv mit Dynamischer Programmierung
durchsucht werden kann. Ein Algorithmus namens Optimal Policy Iteration
(OPI) wird präsentiert, der diese Eigenschaft nutzt um die Optimallösung zu
einer gegebenen Probleminstanz, ausgehend von der Optimallösung einer
trivialen Instanz, iterativ über eine Reihe von optimalen Lösungen für
"wachsende" Probleminstanzen zu finden. Der Algorithmus wird verglichen
mit einem einfacheren Dynamische Programmierung-Verfahren sowie einem
Evolutionären Algorithmus. Die Laufzeiten von OPI sind erheblich kürzer als
die des einfachen Dynamische Programmierung-Algorithmus. Der
Evolutionäre Algorithmus ist bei mehr Dimensionen schneller, garantiert
aber keine Optimalität. Ein theoretisches Resultat dieser Arbeit ist, dass OPI
in der aktuellen Form nicht einfach erweitert werden kann, um
Preisszenarien zu berücksichtigen, da die Nachbarschaftseigenschaft nicht
erhalten bleibt.
Markus Knausz
Parallel Variable Neighbourhood Search for the Car Sequencing Problem
Studium: Diplomstudium Informatik
BetreuerIn: Univ.Prof. Dr. Günther Raidl
Abstrakt: Variable Nachbarschaftssuche (VNS) ist eine relative neue
Metaheuristik
zum
Lösen
von
schwierigen
kombinatorischen
Optimierungsproblemen. Ein solches Optimierungsproblem ist das Car
Sequencing Problem (CarSP), wo eine Anordnung von Autos am Fließband
mit minimalen Produktionskosten gefunden werden muss. Obwohl VNS eine
erfolgreiche Metaheuristik ist, dauert es für praxisnahe Instanzen von CarSP
eine lange Zeit bis eine brauchbare Lösung gefunden wird. Zwei Ansätze
sollen ausführlicher untersucht werden: Erstens sollte die Effizienz von
Nachbarschaften, d.h. das Verhältnis von Berechnungszeit und
Lösungsverbesserung, während der Programmausführung verwendet
werden, um effiziente Nachbarschaftsreihenfolgen zu bestimmen. Zweitens
sollte das hohe Parallelisierungs-potential ausgenutzt werden. Im Rahmen
dieser Diplomarbeit werden beide Ansätze kombiniert. Die Tests zeigten,
dass eine beträchtliche Reduktion der Berechnungszeit möglich ist. Weiters
haben die Tests gezeigt, dass keine "perfekte" Nachbarschaftsreihenfolge
identifiziert werden kann was bedeutet, dass ein paralleler selbst-adaptiver
Ansatz nützlich und wichtig ist, um gute Lösungsqualitäten zu erhalten.
Olivia Dietzel
Combinatorial Optimization for the Compression of Biometric Templates
Studium: Masterstudium Computational Intelligence
BetreuerIn: Univ.Prof. Dr. Günther Raidl
Abstrakt: A biometric template contains biometric traits belonging to a
certain person, like e.g. fingerprints or the facial structure. Especially for
verification purposes such human characteristics become ever more
important. In order to recognize a person by means of his biometric traits a
69
70
SQL-Abfragen und speicherintensive PHP-basierende Lösungen gegenüber.
Die endgültige Wahl der richtigen Methode hängt zusätzlich von der
Zusammensetzung und Menge der darzustellenden Daten ab.
Wolfgang Morandell
Evaluation and Reconstruction of Strip-Shredded Text Documents
Studium: Masterstudium Software Engineering und Internet Computing
BetreuerIn: Univ.Prof. Dr. Günther Raidl
Ferdinand Zaubzer
Lagrangian Relax-and-Cut and Hybrid Methods for the Bounded Diameter
and the Hop Constrained Minimum Spanning Tree Problems
Abstrakt: In meiner Masterarbeit arbeite ich die Wiederherstellung von
durch Shredder zerstörter Textdokumente aus. Im Gegensatz zu
herkömmlicher Dokumentenwiederherstellung - die auf Farb- oder
Umrissinformationen beruht - ist die Wiederherstellung von Textdokumenten
noch nicht eingehend untersucht worden. Normalerweise werden
Papierdokumente mittels Shredder zerstört, d.h. in längliche Papierstreifen
zerlegt. In dieser Arbeit wird versucht, diesen Prozess rückgängig zu
machen. Zuallererst beschreibe ich die Problemstellung formal. Als
nächstes werde ich eine Möglichkeit aufzeigen wie Lösungen zu diesem
Problem eingeschätzt werden können. Weiters werden eine Reihe von
Verbesserungsstrategien vorgestellt, die bei der Evaluierung helfen.
Definierte Konstruktionsheuristiken ermitteln gute Lösungen innerhalb kurzer
Zeit. Mittels Optimierungsalgorithmen wird nun versucht eine möglichst gute
Anordnung der Schnipsel zu finden, im Idealfall die ursprüngliche. Eine
Testapplikation simuliert den Prozess des Shreddens einer Seite. Diese Seite
wird dann mittels der oben beschriebenen Evaluierungstechniken und
Optimierungsmethoden wie Multistart Variable Neighborhood Search,
Simulated Annealing und Iterated Local Search wieder zusammengesetzt. Es
wurden ausführliche Tests mit einem 60 Instanzen Testset durchgeführt.
Die implementierte Applikation konnte mehr als die Hälfte aller Testinstanzen
wieder korrekt zusammensetzen und kann auch mehrere Seiten auf einmal
wiederherstellen.
Studium: Diplomstudium Informatik
BetreuerIn: Univ.Prof Dr. Günther Raidl
Abstrakt: Das minimale Spannbaumproblem mit einer Beschränkung des
Durchmessers (Bounded Diameter Minimum Spanning Tree - BDMST) ist
ein NP schweres kombinatorisches Optimierungsproblem aus dem Bereich
des Netzwerkdesigns. Ein verwandtes Problem ist das minimale
Spannbaumproblem
mit
festgesetztem
Wurzelknoten
und
einer
beschränkten Anzahl von Kanten zwischen dem Wurzelknoten und jedem
Blattknoten (Hop Constrained Minimum Spanning Tree - HCMST). In dieser
Arbeit wird ein bestehender Relax-and-Cut (R&C) Algorithmus zur
approximativen Lösung dieser Probleme verbessert und erweitert und ein
hybrider Algorithmus basierend auf dem R&C Algorithmus und einer
Metaheuristik vorgestellt. Der R&C Algorithmus basiert auf einer integer
linear programming (ILP) Formulierung mit einer exponentiellen Anzahl von
linearen Bedingungen, den sogenannten Jump-Constraints. Dabei werden
nicht
erfüllte
Bedingungen
während
der
Laufzeit
des
Optimierungsalgorithmus identifiziert und relaxiert. Verbessert wurde der
R&C Algorithmus durch eine aufwändige Verwaltung der identifizierten
linearen Bedingungen und durch den Einsatz eines non delayed R&C
Verfahrens. Die entwickelten Erweiterungen sind der Einsatz von
generalisierten Jump-Constraints und eine initiale Erzeugung einer Menge
von Jump-Constraints mit zugehörigen dualen Variablen. Die für den
hybriden Algorithmus verwendete Metaheuristik ist eine AmeisenkolonieOptimierung (ACO). ACO Algorithmen nutzen die Fähigkeit von Ameisen kurze
Wege zwischen Nahrungsquellen und ihrem Nest durch das Hinterlassen
von Pheromonen am Weg zu finden. Die Funktionsweise entspricht einem
positiv rückgekoppelten System. Der hybride Algorithmus verbindet die
Pheromoninformationen mit Informationen vom R&C Algorithmus, sodass
zur Lösungsfindung neben Pheromonwerten zusätzliche heuristische Werte
einfließen.
Experimentelle
Berechnungen
mit
schon
bestehenden
Probleminstanzen aus der Literatur wurden durchgeführt. Die Resultate
zeigen, dass die Verbesserungen des R&C Algorithmus zu deutlich besseren
Ergebnissen - im Speziellen zu deutlich höheren unteren Schranken - geführt
haben.
Anna Potocka
Webbasierte Darstellung großer Datenmengen als Pivot-Tabelle mithilfe
ressourcenoptimierter Aggregationsverfahren
Studium: Diplomstudium Informatik
BetreuerIn: Univ.Prof Dr. Günther Raidl
Abstrakt: Pivot-Tabellen sind komplexe, mehrdimensionale Tabellen, die zur
gleichzeitigen Auswertung von mehreren, zusammenhängenden Merkmalen
zugrunde liegender Daten dienen. Bestehende Software stößt bei sehr
großen Datenmengen nicht nur an Zeit- sondern auch an Kapazitätslimits.
Auch der Trend zu webbasierten Tools und die Anforderung nach
Plattformunabhängigkeit kann mit den vorhandenen Lösungen bisher nicht
abgedeckt werden. Im Zuge dieser Diplomarbeit werden vier Methoden zur
Erstellung von Pivot-Tabellen aus gegebenen Datenbanktabellen entwickelt,
die sich durch die Anzahl und Art der Datenbankabfragen, die Komplexität
der Berechnungen und die Größe des benötigten Cache voneinander
unterscheiden. Die Performanceuntersuchungen stellen laufzeitintensive
71
72
des Forschens - durch Finden, Filtern und Verknüpfen des Wissens, das in
Publikationen anderer Forscher gefunden werden kann - kann ein Einblick in
ein Forschungsgebiet gewonnen werden. Dieser Einblick und die in diesem
Schritt gewonnenen Einsichten, können, wenn sie in geeigneter Weise
dargestellt und aufbewahrt werden, als neues Wissen angesehen und von
anderen Forschern weiterverwendet werden. Diese Arbeit schlägt hierfür ein
System verknüpfter Knoten vor, in dem Knoten, Attribute, Verknüpfungen
und
Gruppierungen
über
ein
Peer-to-Peer-Netzwerk
gegenseitig
ausgetauscht werden können. Dies ermöglicht Forscher sowohl ihre
Publikationen, als auch das Wissen, das sie während der Recherche
gewonnen haben - in Form von Attributen, Verknüpfungen und
Gruppierungen der Publikationen - zu speichern und anderen zur Verfügung
zu stellen. LinkVis, das von mir vorgeschlagene System, verwendet
Methoden aus den Bereichen Visualisierung und Peer-to-Peer-Netzwerke um
eine Plattform zur Verfügung zu stellen, die nicht nur Visualisierung und
Austausch dieses Wissens ermöglicht, sondern auch für jede andere
Datenbasis, die als Netzwerk verknüpfter Knoten modelierbar ist, verwendet
werden kann.
Stephan Zaubzer
A Complete Archive Genetic Algorithm for the Multidimensional Knapsack
Problem
Studium: Diplomstudium Informatik
BetreuerIn: Univ.Prof Dr. Günther Raidl
Abstrakt: In dieser Arbeit wird ein vollständiges Lösungsarchiv vorgestellt,
das einen genetischen Algorithmus zur Lösung des multidimensionalen
Rucksack Problems (MKP) erweitert. Der genetische Algorithmus, auf dem
diese Arbeit aufbaut, verwendet einen repair operator, um ungültige
Lösungen auszuschließen und jede gültige Lösung zu einer lokal optimalen
Lösung zu transformieren. Es ist wahrscheinlich, dass der genetische
Algorithmus Lösungen produziert, die während der Laufzeit schon einmal
generiert und ausgwertet wurden. Um die Berücksichtigung von schon
ausgewerteten Lösungen zu verhindern, wird ein Lösungsarchiv auf der
Basis eines Tries analysiert. Jede erzeugte Kandidatenlösung wird in das
Archiv eingefügt. Wird eine schon enthaltene Lösung in das Archiv
eingefügt, so wird mit einer speziellen Prozedur aus dieser doppelten Lösung
eine neue, noch unbesuchte Lösung generiert, die ebenfalls lokal optimal ist.
Des weiteren werden während des Einfügens von Lösungen obere
Schranken an jedem Knoten des Tries berechnet. Wird für einen Teilbaum
des Tries eine obere Schranke ermittelt, die kleiner als die bisher beste
gefundene Lösung ist, so wird der entsprechende Teilbaum abgeschnitten.
Sind in einem Teilbaum alle lokal optimalen Lösungen schon einmal besucht
worden, so wird dieser Teilbaum ebenfalls abgeschnitten. Jede Lösung, die
später generiert wird und in diesem abgeschnittenen Teilbaum liegen würde,
wird als schon besuchte Lösung identifiziert, und in eine noch unbesuchte
Alternativlösung transformiert. In dieser Arbeit werden die zur
Implementierung notwendigen Algorithmen und Datenstrukturen dieses
Lösungsarchivs vorgestellt. Dieser erweiterte genetische Algorithmus wird
mit dem ursprünglichen Algorithmus verglichen, und es zeigt sich, dass
durch dieses Lösungsarchiv bei vielen Instanzen bessere Lösungen gefunden
werden.
Dey-Fuch Chiu
Penta G - A Game Engine for Realtime Rendering Research
Studium: Diplomstudium Informatik
BetreuerIn: Assoc.Prof. Dr. Michael Wimmer
Abstrakt: Wissenschaftliche Forschung erfordert häufig Middleware für die
Implementation von Machbarkeitsdemonstrationen. In der Computergrafikforschung werden hierfür Rendering Engines hinzugezogen. In der
Echtzeitgrafik ist allerdings oft mehr Funktionalität nötig als es Rendering
Engines bieten können, da in Echtzeit typischerweise Benutzerinteraktion
erforderlich ist, oder dies sogar Teil der Forschungsthematik sein kann.
Weiters existieren moderne Forschungszweige, die auch die Interaktivität
mit nicht-visuellen Wahrnehmungskanälen wie etwa Audio untersuchen.
Vollwertige Game Engines verfügen über diese Funktionalität, allerdings sind
die meisten Game Engines entweder nur über teure Lizenzen verfügbar,
oder werden für wissenschaftliche Forschungszwecke überhaupt nicht
angeboten. In dieser Diplomarbeit wird der Entwurf, die Implementation
sowie die Anpassung einer modernen Game Engine beschrieben, die
spezifisch für die Echtzeitgrafikforschung entwickelt wurde. Diese Game
Engine enthält alle nötigen Komponenten um echtzeit-interaktive
Computergrafik-programme zu entwickeln und wurde bisher schon in
mehreren Forschungsprojekten verwendet wie etwa dem EU-GametoolsProjekt sowie dem EU-Crossmod-Projekt.
Arbeitsbereich Computergraphik
Andreas Ammer
Linking Science Together: How Networking Can Support Research - a Peerto Peer Approach
Studium: Diplomstudium Informatik
BetreuerIn: Ao.Univ.Prof. Dr. Eduard Gröller
Abstrakt: Da Erfindungen und Entwicklungen nicht einfach aus dem Nichts
entstehen, ist das Suchen nach früherer und verwandter Arbeit ein
wichtiger Teil des gesamten Forschungsprozesses. Während dieses Teils
73
74
Wolfgang Deix
Der Re-Compose Prototyp
Anton Frühstück
GPU based Clipmaps. Implementation of Geometry Clipmaps for terrain with
non-planar basis
Studium: Diplomstudium Informatik
BetreuerIn: Univ.Prof. Dr. Werner Purgathofer
Studium: Masterstudium Computergraphik und Digitale Bildverarbeitung
BetreuerIn: Univ.Prof. Dr. Werner Purgathofer
Abstrakt: Im Zuge dieser Diplomarbeit ist ein Prototyp einer VST-Plug-inSoftware für die Re-Compose GmbH nach Vorgaben von Gründer und
Geschäftsführer Dr. Stefan Oertl entwickelt worden. Der sogenannte ReCompose Prototyp verbindet Audio-Softwareapplikationen mit einem von DI
Brigitte Rafael für Re-Compose implementierten Musikanalysemoduls, der
Re-Compose Logik, über die VST-Schnittstelle (Virtual Studio Technology).
Der Musikdatenaustausch findet ausschließlich über das MIDI-Protokoll
(Musical Instrument Digital Interface) statt. Die in Java implementierte ReCompose Logik wird vom hier beschriebenen Re-Compose Prototyp über das
Java Native Interface (JNI) eingebunden. Diese schriftliche Arbeit beschreibt
die Planung und den implementierten Aufbau des Prototyps und gibt einen
Ausblick auf folgende Entwicklungsarbeiten.
Abstrakt:
Das
Rendering
von
Terrain-Daten
findet
in
vielen
Anwendungsgebieten Verwendung. Neben kartographischen Anwendungen
wird es auch im Unterhaltungssektor eingesetzt. Anwendungen, die ein sehr
ausgedehntes
Gelände
anzeigen
sollen,
stehen
vor
dem
Verarbeitungsproblem von großen Datenmengen. Es ist in der Regel nicht
möglich, diese Datensätze mit herkömmlichen PCs direkt anzuzeigen. In
dieser Arbeit wird eine verbesserte Terrain Rendering Technik vorgestellt.
Diese Level-of-Detail Technik erlaubt das Anzeigen von auf beliebiger Basis
aufgesetztem Terrain. Ein Beispiel dafür ist die Erde, deren Oberfläche auf
einer Kugel basiert. Der vorgestellte Algorithmus baut auf dem Geometry
Clipmaps Algorithmus auf, der das Anzeigen von unbeschränkt großen
Terrain-Daten ohne Leistungsabfall erlaubt. Dieser Algorithmus wurde 2004
von Losasso und Hoppe entwickelt und 2005 von Asirvatham und Hoppe
verbessert, um herkömmliche Graphik-Hardware besser ausnützen zu
können und dadurch die Rendering-Leistung zu steigern. Dennoch können
beide Algorithmen nur Gelände auf ebener Basis darstellen. Unsere
Anwendung überwindet diese Einschränkung, indem anstelle einer
Höhentextur eine Floating-Point Textur mit den 3D-Koordinaten der einzelnen
Oberflächenpunkte verwendet wird. Durch diese Änderung ist es unserer
Anwendung möglich, Gelände mit beliebiger Form anzuzeigen. Das erzeugte
Drahtgitter ist nicht an ein reguläres, nur in z-Richtung veränderbares Mesh
gebunden. Der Nachteil dieser Änderung des ursprünglichen Geometry
Clipmap Algorithmus ist das Auftreten eines Genauigkeitsproblems, das dem
Algorithmus das Rendern von nur beschränkt großen Terrains erlaubt. In
dieser Arbeit wird dieses Präzisionsproblem durch Teilen der gesamten
Oberfläche in kleinere, ohne Probleme verarbeitbaren Teile gelöst.
Gerlinde Emsenhuber
Visibility Histograms in Direct Volume Rendering
Studium: Diplomstudium Informatik
BetreuerIn: Ao.Univ.Prof. Dr. Eduard Gröller
Abstrakt: In dieser Diplomarbeit werden Visibility Histogramme als Methode
um volumetrische Datensätze zu analysieren eingeführt. Diese Histogramme
zeigen an, welchen Einfluss die Datenpunkte mit demselben Skalarwert in
einem solchen Datensatz auf das Gesamtbild, welches entsteht wenn der
Datensatzes mit einer bestimmten Transferfunktion und von einer
bestimmten Blickrichtung aus mithilfe einer Direct Volume Rendering
Methode wie zum Beispiel Volume Raycasting dargestellt wird, haben. Die
Histogramme können benutzt werden um Aufschluss über die interne
Struktur von volumetrischen Datensätzen, insbesonders Verdeckungen von
verschiedenen Strukturen zu erhalten. Weiters wird auf die Möglichkeit
eingegangen, mithilfe der Histogramme automatisch Transferfunktionen zu
berechnen, welche bei Anwendung auf einen Datensatz aus einer
bestimmten Blickrichtung eine gewünschte Sichtbarkeitsverteilung erzeugen.
Zwei Ansätze wie dies realisiert werden kann werden vorgestellt: Der erste
Ansatz basiert auf einem genetischen Algorithmus, der andere auf einer
Heuristik.
75
Philipp Hartl
Visualization of Calendar Data
Studium: Diplomstudium Informatik
BetreuerIn: Ao.Univ.Prof. Dr. Eduard Gröller
Abstrakt: Seit Anbeginn der Zeit werden Kalender benutzt, um Aufgaben
und Termine zu organisieren. In dieser Diplomarbeit werden Interaktionsund Visualisierungstechniken für Kalenderdaten präsentiert, die die
Organisation und Analyse nicht nur unterstützen sondern auch erleichtern
und verbessern. Die Lösung basiert auf einer 3D Höhenfelddarstellung,
welche die Auslastungen von Zeitabschnitten über Zeiträume darstellt.
Darauf aufbauend kommen Interaktions- und Visualisierungstechniken zum
76
Einsatz, die es ermöglichen, den Datensatz auf Regelmäßigkeiten und
Unregelmäßigkeiten hin zu erforschen. Der Vergleich von Datensätzen beim
Planen von Terminen ist dabei genau so wichtig wie das Einbringen von
zeitlich nicht genau festgelegten Aufgaben in einen Terminplan und deren
Manipulation. Abgerundet wird die Visualisierung und Analyse durch
Verwendung von statistischen Auswertungen, die Tendenzen und Muster
erkennen lassen. Der Einsatz dieser Techniken und deren Zusammenwirken
wird anhand von Beispielen präsentiert.
verwendet werden können müssen diese zuerst gemessen, gefittet und
interpoliert werden. In dieser Diplomarbeit werden zwei BRDF (Bidirectional
Reflectance
Distribution
Function)
Datenbanken
für
gemessene
Oberflächendaten, die von zwei verschiedenen Universit äten gemessen
wurden, für die Simulation verwendet. Eine Datenbank enthält die
Oberflächendaten in Form von Spektral Messungen und die andere
Datenbank enthält die Messungen im RGB Format. Weiteres werden
verschiedene Oberflächen-Modelle und grundlegende Monte Carlo Sampling
Methoden betrachtet. Die grundlegende Aufgabe der Diplomarbeit war es
die gemessenen Oberflächendaten in das Advanced Rendering Toolkit (ART)
einzubauen um diese für das Rendering zu verwenden. Das Advanced
Rendering Toolkit wird seit 1996 auf der TU-Wien vom Institut für
Computergraphik und Algorithmen entwickelt. Zusätzlich werden zu den
gerenderten Bildern auch Polar Diagramme erzeugt, welche die
Reflektionseigenschaften der Materialien zeigen.
Andreas Monitzer
Fluid Simulation on the GPU with Complex Obstacles Using the Lattice
Boltzmann Method
Studium: Masterstudium Computergraphik und Digitale Bildverarbeitung
BetreuerIn: Ao.Univ.Prof. Dr. Eduard Gröller
Abstrakt: Die Echtzeit-Computergrafik und -Simulation haben sich zu einem
Niveau entwickelt, das vor wenigen Jahrzehnten noch als undenkbar galt.
Ungeachtet dessen stecken Flüssigkeitssimulationen für interaktive
Anwendungen immer noch in den Kinderschuhen. Die progressive
Weiterentwicklung der Graphikkartenprozessoren hat in letzter Zeit dazu
geführt, dass Forscher die Karten als Stream-Koprozessoren behandeln
können. Diese Klasse von Prozessoren wurde entwickelt, um
parallelisierbare Algorithmen mit wenigen Sprungbefehlen zu verarbeiten.
Die Laufzeit von Algorithmen, die diese Eigenschaften besitzen, kann auf
einen Bruchteil der auf herkömmlichen Prozessoren benötigten verkürzt
werden. Da rasterbasierte Flüssigkeitssimulation perfekt in dieses Schema
passt, ist es zu einem sehr aktiven Forschungsgebiet geworden. Es werden
einige Ansätze präsentiert werden, um eine gute Algorithmen-Kombination
zu finden, die einfach parallelisiert werden kann und gleichzeitig Objekte mit
komplexen Oberflächen erlauben. Zusätzlich wird die Verwendung von
Flüssigkeitssimulationen in Computerspielen betrachtet. Ein UnterwasserFlipper wird als praktisches Beispiel vorgestellt, um die überlegungen
hervorzuheben, die notwendig sind, um eine solche früher nicht
verwendbare Simulation effektiv einzusetzen.
Manfred Satzer
Console Engine Design on the Example of the PlayStation 2 in Comparison to
the PC
Studium: Masterstudium Computergraphik und Digitale Bildverarbeitung
BetreuerIn: Assoc.Prof. Dr. Michael Wimmer
Abstrakt: 3D Grafik ist ein wichtiger Bestandteil vieler Anwendungen, von
Computerspielen bis hin zu medizinischer- und Architektur-Visualisierung.
Speziell Spiele treiben die Entwicklung von Grafik-Hardware und neuen SpielKonsolen voran. Die Grafik-Engine ist die Komponente der Software, die
verantwortlich ist für die visuelle Darstellung. Diese unterscheidet sich auf
Konsolen im Vergleich zum PC deutlich, da die Hardware signifikant
differiert. Die Multi-Prozessor Technologie der PlayStation 2 mit der
ausführlichen Nutzung von parallelen Datenwegen und Processing Units ist
ideal, um die Unterschiede zwischen dem PC und einer Konsolen- Plattform
anhand eines Rendering Engine Prototyps zu zeigen. Der grundlegende
Unterschied zu einer Engine am PC ist das fehlende Grafik-API, das zwischen
abstrakten API-Funktionen und der Hardware steht um Kompatibiltät zu
verschiedenen Treibern und Hardware-Konfigurationen zu ermöglichen.
Aufgrund des komplexen Hardware-Layouts einer Konsole ist es möglich die
Engine genau auf diese Konfiguration hin zu optimieren und anzupassen,
ohne auf Kompatibilität achten zu müssen. Der Kernteil dieser Arbeit ist der
direkte Vergleich zwischen dem Engine-Design und der Implementierung auf
der PlayStation 2, und dem PC. Dieser wird speziell verdeutlicht anhand
verschiedener Effekte, wie Motion Blur, Glow oder Environment Mapping, die
auf der PlayStation 2 unter Ausnutzung verschiedener Hardware-Features
implementiert wurden. Aufgrund dieser werden durch einen detaillierten
Vergleich die Unterschiede und deren Vor- und Nachteile sichtbar. Diese
Arbeit ist gegliedert in eine grundlegende Übersicht des RenderingProzesses und einer Erklärung der Hardware der PlayStation 2. Folgend
Murat Sari
Photorealistic rendering of measured BRDF data
Studium: Masterstudium Computergraphik und Digitale Bildverarbeitung
BetreuerIn: Univ.Prof. Dr. Werner Purgathofer
Abstrakt: Fotorealistisches Rendering von gemessenen Oberflächendaten
hat ein grosses Anwendungsfeld, in erster Linie werden die Daten
verwendet um Referenzbilder für Analytische Oberflächen-Modelle zu
erzeugen. Bevor die Daten für die Erzeugung von Referenzbilderen
77
78
wird das Layout der Rendering Engine inklusive der Design-Probleme und
Möglichkeiten dargestellt. Ein ausführlicher Vergleich mit den Vor- und
Nachteilen eines PCs inklusive der Schlußfolgerung schließen die Arbeit ab.
Geschäftsprozesse als Workflow abzubilden und diese in einer web-basierten
Oberfläche auszuführen.
INSTITUT FÜR GESTALTUNGS- UND WIRKUNGSMatthias Wohlmann
enablerWorkflows - Ein formularorientiertes, dynamisches, web-basiertes
Workflow-Management-System auf Basis der Windows Workflow Foundation
FORSCHUNG
Arbeitsbereich Multidisciplinary Design
Studium: Diplomstudium Informatik
BetreuerIn: Univ.Prof. Dr. Werner Purgathofer
Harald Bamberger
Internationalisierung von Webapplikationen mit den Möglichkeiten aktueller
Webentwicklungsframeworks
Abstrakt: Die Arbeit beschreibt die praktische Umsetzung eines WorkflowManagement-Systems mit dem Namen „enablerWorkflows“. Die Microsoft
Windows Workflow Foundation dient als Basis für enablerWorkflows.
enablerWorkflows ist als Erweiterung in eine bestehendes web-basiertes
Content-Management-System integriert. In enablerWorkflows ist jedem
Workflow ein Workflow-Dokument zugeordnet. Dieses ist aus einzelnen
Formularen zusammengesetzt, die im Verlauf des Workflows von den am
Workflow beteiligten Benutzern ausgefüllt und überarbeitet werden. Bei den
Formularen handelt es sich um Web-Formulare, die dynamisch mit einem
Formular-Editor erstellt werden können, der ebenfalls im ContentManagement-System inkludiert ist. Haupteinsatzgebiet ist die Umsetzung
formularlastiger
Geschäftsprozesse
als
Workflow
(zum
Beispiel
Urlaubsansuchen, Verbesserungsvorschläge, Reklamationsmanagement,
…). Dazu werden die Basis-Aktivitäten (= Bausteine eines Workflows) der
Windows Workflow Foundation um zusätzliche Aktivitäten erweitert, die
speziell im Hinblick auf eine optimale Zusammenarbeit mit den dynamischen
Formularen entwickelt wurden. All diese Aktivitäten sind rein
parametergesteuert, es ist also keine zusätzliche Programmierarbeit nötig,
wie dies bei den meisten Basis-Aktivitäten der Fall wäre. Beispielhaft sei hier
die Aktivität mit dem Namen „FillOutNew_User“ erwähnt, in der der über
einen Parameter angegebene Benutzer ein Formular ausfüllen muss, das in
einem weiteren Parameter spezifiziert ist. Das ausgefüllte Formular wird
anschließend an das Workflow-Dokument angehängt. Weitere Aktivtäten
ermöglichen unter anderem das Überarbeiten von Formularen, einen E-MailVersand sowie Verzweigungen und Schleifen abhängig von den Werten
bereits ausgefüllter Formularelemente. Die Workflow-Definition wird mit dem
grafischen Workflow-Designer erstellt, der im Microsoft Visual Studio
integriert ist und um die zusätzlichen Aktivitäten erweitert wurde. Die
Workflow-Definition kann ins Content-Management-System veröffentlicht
werden und steht ab diesem Zeitpunkt den Benutzern zur Verfügung, um
daraus eine neue Workflow-Instanz zu starten. Eine integrierte
Arbeitslistenverwaltung ermöglicht es den Benutzern, laufende Workflows,
an denen sie beteiligt sind, zu sehen und gegebenenfalls die damit
verbundenen Formulare auszufüllen. Eine Übersicht ermöglicht es
Administratoren, alle Workflows zu überwachen. enablerWorkflows
ermöglicht es somit auch ohne Beteiligung eines Software-Entwicklers,
79
Studium: Diplomstudium Informatik
BetreuerIn: Assoc.Prof. Dr. Hilda Tellioğlu
Abstrakt: Die steigende Zahl an InternetnutzerInnen weltweit bringt für
international agierende Unternehmen bzw. Organisationen ein immer
größeres Zielpublikum. Die einzelnen NutzerInnen kommen allerdings aus
den unterschiedlichsten Kulturkreisen und sozialen Schichten. Um die
BenutzerInnen bzw. KundInnen anzusprechen und eventuell zu binden, ist es
notwendig Webauftritte oder Webapplikationen so zu gestalten, dass sich
die BenutzerInnen wohl fühlen. Dies kann z.B. durch Verwendung der
Sprache bzw. Schrift der BenutzerInnen, deren gewohntes Datumsformat
oder Währung erreicht werden. Das Gebiet der Internationalisierung soll
hierfür Methoden bereitstellen, um eine Anwendung nicht für jeden
Kulturkreis extra zu entwickeln - was zwar auch eine Form der
Internationalisierung wäre - sondern auf elegante und effiziente Weise nur
jene Teile anzupassen, welche von Kultur zu Kultur verschieden sind, und
dies tunlichst ohne einer neuerlichen Kompilierung der Applikation. Im ersten
Teil der Arbeit werden ausgehend von einer Übersicht der einzelnen
Probleme, die im Fokus der Internationalisierung liegen, Methoden und
Konzepte zu deren Lösung vorgestellt. Im zweiten Teil werden anhand einer
einfachen
repräsentativen
Webapplikation
die
Möglichkeiten
zur
Internationalisierung,
die
aktuelle
Webentwicklungsframeworks
(Tapestry/JAVA, ASP.Net/C# und Zend Framework/PHP) bieten, evaluiert
und verglichen.
Hasan Kilic
Projektautomatisierung und build Prozess
Studium: Diplomstudium Informatik
BetreuerIn: Assoc.Prof. Dr. Hilda Tellioğlu
Abstrakt: Die Automatisierung des Build-Prozesses ist eine besonders
wichtige und empfehlenswerte Vorgehensweise, die im Zuge jedes
80
Softwareentwicklungsprozesses stattfinden sollte. Doch bevor es überhaupt
möglich ist, dass sich Projektteams dieser Thematik zuwenden, muss
vorerst die korrekte Gestaltung und Strukturierung des Build-Prozesses
erfolgen, sodass man sich anschließend Gedanken über die Implementierung
und Automatisierung des Prozesses machen kann. Um ein Softwareprodukt
erstellen zu können, muss eine Kette von bestimmten Schritten bzw. Phasen
aufeinanderfolgend
ausgeführt
werden,
die
im
Build-Prozess
zusammengefasst bzw. vereint werden. Insofern ist es wichtig zu wissen,
aus welchen Teilen der Build-Prozess besteht und wie er aufgebaut ist.
Außerdem sollten sich AnwenderInnen darüber im Klaren sein, was sie sich
vom Build-Prozess erwarten und zu welchem Zweck sie ihn einsetzen. Diese
Diplomarbeit widmet sich der ausführlichen Untersuchung des BuildProzesses, mitsamt all seinen Einzelheiten und Bestandteilen. Dabei werden
jene Technologien, Werkzeuge und Entwicklungsmethoden in die
Betrachtung mit einbezogen, die mit diesem Prozess in direktem
Zusammenhang stehen. Die Untersuchung hat gezeigt, dass der
automatisierte Build-Prozess im Vergleich zu manuell gesteuerten Builds die
effektivere und weniger fehleranfällige Variante ist. Daneben ließen sich eine
Reihe von Vorteilen, wie beispielsweise der Wiederverwendbarkeit,
Reproduzierbarkeit und Skalierbarkeit, erkennen, die mittels Automatisierung
bestimmter Prozessaktivitäten genossen werden können. Außerdem ist ein
deutlicher Trend Richtung vollständiger Automatisierung des Build-Prozesses
erkennbar,
der
vor
allem
damit
einhergeht,
dass
neue
Entwicklungsmethoden, wie das Agile Development, einen besonders großen
Wert auf automatisierte Builds legen.
Technologien, die die Mitarbeiter durch alle Stufen der Notfallbearbeitung
unterstützen. Im Anschluss werden die Arbeitsabläufe mit jenen der
Notfallbearbeitung vor der Umstrukturierung vergleichend dargestellt. Die
Arbeitsweise der skandinavischen Rettungsleitstellen ist der von 144-NotrufNÖ weit ähnlicher als die der alten niederösterreichischen Leitstellen. Aus
diesem Grund habe ich Studien aus diesen Ländern zu Vergleichszwecken
herangezogen und ebenfalls die Unterschiede herausgearbeitet. Als
Ergebnis dieses Vergleichs habe ich herausgefunden, dass in Skandinavien
sehr großer Wert auf Kooperation bei der Lösung von Problemen gelegt
wird und habe zum Abschluss meiner wissenschaftlichen Arbeit versucht,
eine Begründung dafür zu finden.
Arbeitsbereich Human Computer Interaction
Gerd Czoppelt
Qualitative Studie zur Medienarchivierung in den Creative Industries
Studium: Diplomstudium Informatik
BetreuerIn: Ao.Univ.Prof. Dr. Peter Purgathofer
Abstrakt: Diese Diplomarbeit zeigt mittels einer Studie, wie der Computer
heutzutage in den Creative Industries zum Einsatz kommt. Insbesondere
wurde dabei untersucht, inwieweit Zusammenarbeit durch die eingesetzten
Technologien unterstützt oder behindert wird, und mit welchen Mitteln
versucht wird, die Zusammenarbeit zu erleichtern. Für diese Studie wurden
mit Hilfe von qualitativen Interviews sechs Vertreter der Creative Industries
zum Arbeitsablauf von Projekten befragt, an denen sie teilgenommen oder
die sie selbst geleitet haben.
Markus Winnisch
Die technologische Unterstützung in niederösterreichischen
Rettungsleitstellen
Studium: Diplomstudium Informatik
BetreuerIn: Univ.Prof. Dr. Ina Wagner
Visda Goudarzi
Fosotomo: sonification of gesture and motion
Abstrakt: Wann immer ein medizinischer Notfall eintritt, lautet die erste
Aufforderung: „Ruf die Rettung an!“. Genau hier tritt dann die
Rettungsleitstelle in Aktion. Bei ihr langt der Notruf ein, sie bestimmt die
Dringlichkeitsstufe und alarmiert ein geeignetes Einsatzfahrzeug. Im Jahr
2003
fand
in
Niederösterreich
eine
Umstrukturierung
der
Rettungsleitstellen statt. Die Firma 144-Notruf-NÖ GmbH wurde mit dem
Ziel gegründet, alle bisherigen 93 Rettungsleitstellen zu ersetzen und mit
möglichst wenigen Betriebsstätten (mittlerweile 6) effizienter arbeiten und
auch mehr Service anbieten zu können. Bei der erfolgreichen Umsetzung
dieses ehrgeizigen Planes ist der Einsatz von neuen Technologien
unumgänglich. In dieser Diplomarbeit erläutere ich nach allgemeinen
Informationen, sowie Ausstattung und Aufgaben einer Rettungsleitstelle
zunächst die Arbeitsweise von 144-Notruf-NÖ bei einem Notfall im Detail.
Besonderes Augenmerk lege ich dabei auf die neu eingesetzten
81
Studium: Diplomstudium Informatik
BetreuerIn: Ao.Univ.Prof. Dr. Peter Purgathofer
Abstrakt: This thesis explores "Sonification" - the transmission of information
via sound – as applied to gestural pattern recognition in the art of
conducting. The first chapter examines how the aural sense has developed
from a simple sense to allowing for understanding structured concepts such
as language and music. Then, we look at the evolution of Sonification and
sound attributes which are used in Sonification. Furthermore we explore
concepts of Sonification and perception through audio, study gesture, find
the connection between the two (gesture and sound) and how challenging
this association can be. The final chapter is devoted to a practical
82
application of gesture tracking in video as we see how to make use of
motion tracking systems to make sound and music.
Führung, Technologie und Doktrin beleuchtet und versucht einen Ansatz für
eine Definition einer Revolution in Militärischen Angelegenheiten zu finden.
Nicole Hartmann
Kriterien zur Prädikatisierung von kindergerechten Webangeboten
Thomas Music
penApp & interaktiver Stift als Designinstrument
Studium: Diplomstudium Informatik
BetreuerIn: Ao.Univ.Prof. Dr. Peter Purgathofer
Studium: Masterstudium Medieninformatik
BetreuerIn: Ao.Univ.Prof. Dr. Peter Purgathofer
Abstrakt: Im Internet findet sich eine kaum überschaubare Anzahl an
Webseiten, die speziell für Kinder entwickelt worden sind. Man erhält im
Internet sehr häufig Informationen über Gefahren und Risiken, denen Kinder
bei ihren Online-Aktivitäten ausgesetzt sind, wesentlich seltener stößt man
auf Positivprädikatisierungen von Webangeboten. Im Mittelpunkt dieser
Arbeit steht daher die Definition von Kriterien, die auch nicht
wissenschaftlich geschulte Personen in die Lage versetzen soll,
Webangebote nach deren Eignung für Kinder zu beurteilen. Zunächst wird
die Intention des Anbieters sowie die Intention des Kindes untersucht. Es
folgt eine Diskussion von Gestaltungsaspekten wie Usability, Adaptivität und
Transparenz des Webangebotes sowie der Gewährleistung des
Datenschutzes. Danach werden verschiedene Anforderungen unter die Lupe
genommen, die der Umgang mit Webangeboten an Kinder stellt. Dazu
zählen soziale, emotionale, medienbezogene und kognitive Anforderungen,
sowie Anforderungen an Wahrnehmungs-, Aufmerksamkeits- und
sensomotorische
Koordinationsleistungen.
Abschließend
wird
die
Angemessenheit des ethisch-normativen Gehalts eingehender betrachtet.
Um die Anwendbarkeit der beschriebenen Kriterien zu demonstrieren sind
vier Webangebote exemplarisch ausgewählt worden, die ein weites
Spektrum an Themengebieten abdecken. Die entwicklungspsychologische
Grundlage bei der Untersuchung der Webangebote bilden die Arbeiten von
Jean Piaget. Darüber hinaus ist eine Beurteilung nach dem pädagogischen
Konzept Maria Montessoris vorgenommen worden.
Abstrakt: Die Applikation penApp ermöglicht das Erstellen einer Komposition
aus Skizzen und Bildern auf einer infiniten Fläche. Die Bedienung erfolgt mit
einem interaktiven Stift. Der erste Teil dieser Arbeit beschäftigt sich mit
Grundlagen aus der Designtheorie, die für das penApp Projekt wichtig sind.
Es werden verschiedene Aspekte des Designprozesses in der
Softwareentwicklung betrachtet. Danach wird die Entwicklung des Designs
von penApp beschrieben. Um Ideen und Konzepte zu finden und
weiterzuentwickeln wird Sketching als Instrument verwendet. Die
Herangehensweise an das Projekt wird mit zwei anderen Modellen
verglichen. Wesentliche Elemente des Designs sind das einfache Bearbeiten
von Skizzen mit dem interaktiven Stift, das unmittelbare Einfügen von Bildern
mit einer Kamera, die konsistente Interaktion mit Skizzen und Bildern, der
natürliche Bewegungsablauf von Objekten, ein Menüsystem, das die
Funktionsauswahl durch kurze Bewegungen mit dem Stift ermöglicht.
Martin Neuwirth
Usability-Evaluation der User Interfaces GNOME und KDE
Studium: Diplomstudium Informatik
BetreuerIn: Ao.Univ.Prof. Dr. Margit Pohl
Abstrakt: Bei Open Source Projekten hat man das Gefühl, dass Usability
häufig im Software-Entwicklungsprozess eine untergeordnete Rolle spielt.
Der Faktor Mensch scheint wenig Berücksichtigung zu finden. In einer Zeit,
in der der Trend nach alternativen Betriebssystemen zu den
Betriebssystemen der marktbeherrschenden Firmen, wie etwa Microsoft
und Apple, immer stärker wird, muss auch die Open Source Bewegung sich
dieser Problematik stellen. GNOME und KDE sind wohl die zwei
bekanntesten Benutzerschnittstellen, die für *nix-Systeme existieren. Durch
ihre weite Verbreitung begünstigt, gibt es viele Anwender, die täglich den
Stärken und Schwächen dieser User Interfaces ausgesetzt sind. Das Thema
Usability wird aufgegriffen, analysiert und bildet die Basis für die
durchgeführten Untersuchungen an GNOME und KDE. Wie Usability bei
finanzstarken Unternehmen gesichert werden kann, wird dargestellt. Im
Kontrast hierzu stehen Open Source Projekte, denen oft die finanzielle
Unterstützung fehlt. Anhand von Discount Usability Engineering Methoden
werden diese beiden Oberflächensysteme zum einem mittels User-Tests und
Christian Meurers
Der Informationskrieg im 21.Jahrhundert und seine Auswirkungen auf die
Militädoktrinen der USA
Studium: Diplomstudium Informatik
BetreuerIn: Ao.Univ.Prof. Dr. Wolfgang Hofkirchner
Abstrakt: Die Arbeit beschäftigt sich mit dem Informationskrieg und seinen
Auswirkungen auf die Militärdoktrinen der USA. Nach den theoretischen
Grundlagen wie dem Informationsbegriff, militärischer Organisation und
unter
anderem
einer
gesellschaftspolitischen
Betrachtung
des
Informationskrieges wird eine Untersuchung der Kriegsführung der letzten
30 Jahre durchgeführt. Weiters wird der Zusammenhang zwischen
83
84
zum anderen mittels einer Online-Umfrage miteinander verglichen, sofern
dies möglich ist. Die User-Tests werden in einer gemütlichen Atmosphäre, in
der der Tester neun alltägliche Aufgaben unter Verwendung beider
Schnittstellen löst, durchgeführt. Es existieren noch nicht viele
Usabilitystudien zu GNOME und KDE, doch wird auf Vergleichbarkeit mit den
vorhandenen Studien Wert gelegt. Die Online-Umfrage rundet die
Untersuchungen ab und gibt einen statistischen Überblick darüber, wie sich
die beiden User Interfaces im Hinblick auf Usabilityaspekte verhalten.
Alexandra Oberschneider
Mensch - Rekorder - Interaktion
Studium: Individuelles Masterstudium: Gestaltung von Multimediasystemen
BetreuerIn: Ao.Univ.Prof. Dr. Margit Pohl
Abstrakt: Das Thema dieser Masterarbeit ist die Gebrauchstauglichkeit
(Usability) von DVD Rekordern mit Festplatte. Für die Forschung ist von
Interesse, ob bei DVD Rekordern mit Festplatte ebenfalls eine schlechte
Bedienbarkeit, wie bei Videorekordern und Fernbedienungen, auftritt. Für die
Praxis ist es interessant zu zeigen, dass die Endanwender mit den
derzeitigen Geräten überfordert und daher nicht zufrieden sind. Das Ziel ist
eine Anleitung, für einen benutzerfreundlichen DVD Rekorders mit Festplatte
(Software, Fernbedienung und das Gerät selbst), zu entwickeln. Das
Endresultat soll in Form von Funktionslayouts in Kombination mit speziellen
Richtlinien verfügbar sein. Wie Bedienbarkeit definiert werden kann, welche
Methoden für eine Untersuchung optimal sind, welche Richtlinien bereits
existieren und welche Grundlagen der Gestaltung beachtet werden sollten,
damit beschäftigt sich der Theorieteil. Im Praxisteil sind die angewandten
Methoden (PACT - ein Rahmen für die Analyse, Interviews, Gerätevergleich,
Beobachtung und Coaching) und deren Ergebnisse angeführt.
Gerhard Obernberger
Design, Implementierung und Evaluierung von mobilen Benutzerschnittstellen
für den Zugang zu räumlicher Information
Studium: Diplomstudium Informatik
BetreuerIn: Ao.Univ.Prof. Dr. Peter Purgathofer
Abstrakt: Diese Arbeit untersucht den Gestaltungsspielraum von mobilen
räumlichen Anwendungen und Methoden für den Zugang zu Points–of–
Interest (POI). Virtuelle grafische Repräsentationen der Umgebung sollen
dem Benutzer helfen, auf möglichst einfache Weise die gewünschten
Informationen zu erhalten. Im Rahmen dieser Arbeit sind voll funktionsfähige
Prototypen von Restaurantführern implementiert worden, welche
unterschiedliche
Gestaltungsmerkmale
hinsichtlich
Design
und
Interaktionskonzept
aufweisen.
Mit
den
Prototypen
wurde
eine
Benutzerstudie durchgeführt, um die Präferenzen der Benutzer in Bezug auf
Visualisierung der Umgebung und Einfachheit des Zugangs zu POI zu
eruieren.
Mehrere
unterschiedliche
Visualisierungen
und
Interaktionskonzepte wurden implementiert, welche die Umgebung des
Benutzers abhängig von seiner geografischen Position und der 3D–
Ausrichtung im Raum darstellten. Für die Visualisierungen wurde ein
Gebäudemodell herangezogen, bei dem die POI, im vorliegenden Fall die
Restaurants, visuell zu den Gebäuden zugeordnet waren und vom Benutzern
ausgewählt werden konnten, um detaillierte Informationen zu erhalten. Die
bedeutendste
Erkenntnis
war,
dass
alle
orientierungsbewussten
Visualisierungen
der
Umgebung
gegenüber
den
konventionellen
orientierungsunabhängigen Darstellungen bevorzugt wurden. Daraus kann
geschlossen werden, dass in zukünftigen mobilen Endgeräten die Integration
eines elektronischen Kompasses sinnvoll wäre. Weitere Ergebnisse
hinsichtlich des Realitätsgrades der Darstellung, der Perspektive auf die
Umgebungssituation sowie des Gesichtsfeldes konnten durch die
Gegenüberstellung der unterschiedlichen Eigenschaften sowie spezifischer
Befragung der Testpersonen erzielt werden. Aufgrund der Aussagen der
Testpersonen können erste Empfehlungen für die Gestaltung von
Benutzerschnittstellen für mobile räumliche Anwendungen gegeben werden.
Darüber hinaus werden Vorschläge für zukünftige Forschungsrichtungen
abgegeben.
85
Jürgen Puchta
Virtuelle Welten - reale Grenzen (Inhaltliche und technische
Regulierungsmaßnahmen im Bereich von PC- und Konsolenspielen)
Studium: Masterstudium Medieninformatik
BetreuerIn: Ao.Univ.Prof. Dr. Peter Purgathofer
Abstrakt: Kaum eine Diskussion wird ähnlich emotional und kontroversiell
geführt wie die um Regulierungsmaßnahmen und Kotrollmechanismen für
einen vernünftigen und verantwortungsvollen Umgang mit PC- und
Konsolenspielen. Vor allem im Umfeld von Gewalt thematisierenden Spielen
wird der Ruf nach restriktiveren Kontrollen und Zensurmaßnahmen bis hin
zu totalen Verboten immer lauter. In der Tat hat sich im Bereich der
Reglementierung
in
Zusammenhang
mit
Spielen
und
potentiell
jugendgefährdenden Inhalten in den letzten Jahren auch einiges bewegt.
Dass es dabei auf Grund von unterschiedlichen internationalen Wert- und
Moralvorstellungen, gesellschaftlichen Strukturen und politischen Systemen
global gesehen zu Unterschieden in der Art und Ausprägung von Kontrollmechanismen und Regulierungsmaßnahmen kam, ist nicht weiter
verwunderlich. Auf einem globalen Markt bedeutet das aber gleichzeitig auch
gewisse Einschränkungen für die Spiele-Entwickler, die ihrerseits alles
unternehmen, um ihre Absatzmärkte auch weiterhin aufrecht zu erhalten.
Hersteller wie auch Spieler reagieren auf diese Entwicklungen auf zum Teil
sehr „kreative“ Art - Gründe genug, die Thematik innerhalb dieser Arbeit
näher zu analysieren.
86
Overview-Maps zeigen, diese zwar technisch praktikabel aber unter
Umständen aufwendig sind und Kompromisse bezüglich der Anforderungen
notwendig sind. Das browser-basierte Bearbeiten von Seiten könnte kurz
davor stehen, den Sprung von Markup zu unmittelbarem Bearbeiten von
Inhalten zu machen. In diesem Zusammenhang wird ein Interface für das
Bearbeiten von Links entworfen, das die heute typische TextfragmentZentrierung gegen eine Dokument-Zentrierung tauscht. Bezüglich der
praktischen Vereinigung von Weblogs und Wikis werden verschiedene
Varianten untersucht und besprochen.
Roshanak Rezvani-Naraghi
Konzepte und Fallbeispiele der Einbindung interaktiver Technologien in den
Raum
Studium: Diplomstudium Informatik
BetreuerIn: Ao.Univ.Prof. Dr. Peter Purgathofer
Abstrakt: Der Computer der Zukunft soll uns in allen Lebenslagen und
Alltagssituationen unterstützen, indem er uns ununterbrochen mit nützlichen
Informationen versorgt. Die Verwirklichung dieser Vision, die Ende der
achtziger Jahre zum ersten Mal entstand, scheint mit den heutigen
Hochleistungscomputern und ?netzwerken sowie mit dem Fortschritt in
Sensorik in greifbare Nähe gerückt zu sein. Viele Forschungsarbeiten
werden diesem Thema gewidmet (Ubiquitous Computing, Pervasive
Computing, Context-aware Computing, Disappearing Computing, Ambient
Intelligence,
Smart
Spaces,
etc.).
Die
moderne
Art
der
Informationstechnologie fordert eine neue Art der Mensch-MaschineInteraktion,
daher
stehen
in
der
weiteren
Entwicklung
der
Computertechnologie nicht mehr die klassischen Kriterien wie die
Netzwerkgeschwindigkeit im Vordergrund. Vielmehr muss sich die
Forschung auf die Benutzerschnittstelle konzentrieren. Der ?unsichtbare?
Computer der Zukunft wird vollständig in den uns umgebenden Räumen und
Alltagsgegenständen integriert sein, wodurch explizite Input-Outputs über
klassische Schnittstellen überflüssig werden. Die Verwendung von Raum und
Alltagsgegenständen als eine optimale Schnittstelle ist naheliegend, da
Menschen den Umgang mit diesen Objekten als natürlich empfinden. Aus
diesem Grund konzentrieren sich viele multidisziplinäre Forschungsarbeiten
unter anderem auf die Untersuchung des menschlichen Verhaltens in seinen
diversen Lebensräumen. In dieser Arbeit beschreibe ich verschiedene
Aspekte der oben genannten Vision, eine Reihe von angewandten
Technologien für deren Realisierung, und ein paar Beispiele für die
Integration interaktiver Technologie in den Raum. Zudem gehe ich
ausführlich auf das Thema der Wahrnehmung des Raums durch Menschen
und seine Wechselwirkung mit der Mensch-Maschine-Interaktion ein.
«vorname» «name»
«titel»
Studium: «studium»
BetreuerIn: «betreuerIn»
Abstrakt: «abstract»
INSTITUT FÜR SOFTWARETECHNIK UND
INTERAKTIVE SYSTEME
Arbeitsbereich Information und Software Engineering
Mansoor Ahmed
Exploitation of Ontologies in Security and Privacy Domain
Studium: Masterstudium Informatikmanagement
BetreuerIn: O.Univ.Prof. Dr. A Min Tjoa
Abstrakt:
Die
Entwicklung
vom
Semantic
Web
hat
die
Informationsspeicherung, Übertragung und Zugriff revolutioniert. Die
Designprinzip von Sementic Web zielt auf Zusammenarbeit und
Wissensaustausch ab. Die Vision von Semantic Web sind Information die für
Maschinen verständlich sind, auch zu verwendet um sie mittels Computer zu
kombinieren und auszutauschen. Ontologie beschreiben die Hauptkonzepte,
gemeinsam
mit
Domainnamen
und
Verknüpfungen
sind
die
Hauptbestandteile von Semantic Web. Ontologien erlauben die
Interoperabilität und ein gemeinsames Verständnis von Domänen zwischen
zwei Softwareanwendungen verschiedener Organisationen. Sie erlauben
außerdem den Austausch von Daten auf syntaktische und semantische
Ebenen. Im Semantic Web können zwei Beteiligte automatisch miteinander
interagieren ohne voneinander zu wissen, daher sind traditionelle
Zugriffskontrollmodelle nicht geeignet um in einer derartigen Umgebung
eingesetzt zu werden. Deshalb werden Prozesse mit semantischer
Unterstützung benötigt, die automatische Zugriffe auf sensitive
Florian Scholz
Komponenten für ein next-generation collaborative Hypermedia-Authoring
Enviroment
Studium: Diplomstudium Informatik
BetreuerIn: Ao.Univ.Prof. Dr. Peter Purgathofer
Abstrakt: Die vorliegende Arbeit untersucht das Problem, Wikis und
Weblogs unter Einbindung einer Overview-Map in einem System zu vereinen.
Dazu wird zunächst ein kurzer Überblick über die Themen Hypertext, Wikis,
Weblogs und Spatial Hypertext gegeben. Danach folgt die Vorstellung einiger
Entwürfe und daraus entstandender Prototypen. Prototypen für webbasierte
87
88
Informationen behandeln. Eine große Herausforderung in vielen
Organisationen ist es Risikofaktoren für Computer und Netzwerke
festzulegen. Legacysysteme in Organisationen sind durch unterschiedliche
Risiken bedroht, z.B. Computervirus, bugs und Systemfehler durch
Hardware- oder Softwarefehler. Diese können den Verlust von Daten zur
Folge haben. Das Ziel ist es, Risiken abzuschätzen und so die resultierenden
Probleme zu minimieren. Die Lücke zwischen Geschäftseinheiten (wie
Projekten oder Rollen) und organisatorischen Infrastrukturen sollen mit Hilfe
von Semantic Web überrücken werden. Die Geheimhaltung von
Informationen in gemeinschaftlichem betrieblichem Umfeld indem
verschieden Personen miteinander interagieren und Informationen
austauschen ist wichtig. Eine schwierige Aufgabe in einem derartigen
Umfeld ist der Informationenaustausch ohne fremde Information
offenzulegen. In dieser Arbeit zeigen wir, wie Semantic Web zur Lösung der
oben genannten Probleme beitragen kann. Wir sind der festen
Überzeugung, dass mittels Policy-Sprachen die Zugriffsrechte auf sensible
Informationen entsprechend formuliert werden können, wenn sie mit
domainspezifischer Semantik kombiniert werden. Zum Beispiel kann der
Benutzer Art und Abstraktionsniveau der Informationen definieren sowie
Randbedingungen aufstellen, wann diese veröffentlich werden dürfen. Der
Benutzerkontext (d.h. Ziele, Projekte, Rollen und Profil) kann gemeinsam mit
dem domainspezifischen Wissenskontext dazu beitragen, notwendige
Richtlinien zu definieren, um sensitive Informationen als auch Weitergabe
von Prozessen zu schützen.
Weiters werden die Gestaltungsmöglichkeiten der Avatare
Merkmale eines unterhaltsamen Wirtschaftssystems betrachtet.
die
Mahshid Bernroider
Ein multi-attributiver Vergleich von Geschäftsprozessmodellierungs-Tools
basierend auf Open Source Software und ARIS als kommerzielle Referenz
Studium: Masterstudium Informatikmanagement
BetreuerIn: Univ.Prof. Dr. Hannes Werthner
Abstrakt: Diese Arbeit beschäftigt sich mit Softwarewerkzeugen für das
Geschäftsprozessmanagement mit einem Schwerpunkt auf Analyse und
Design. Diese Arbeit versucht den Entwicklungsstand von Open Source
Produkten gegenüber einem kommerziellen Referenzprodukt, nämlich ARIS
aufzuzeigen. Die Auswahl der Testprodukte basiert auf einer Marktanalyse
bzw. auf einer Analyse der Sourceforge.org Entwicklungsplattform für Open
Source Software. Es wird eine validierte Zielhierarchie für die Funktionalität
eines derartigen Tools entwickelt unter Berücksichtigung von didaktischen
Aspekten. Dies Zielhierarchie wird im Zuge eines Produkttests auf fünf frei
erhältliche Open Source Produkte und ARIS von IDS Scheer als
kommerzielles Referenzprodukt ausgerollt. Methodisch wird auf die
Nutzwertanalyse in Bezug auf die Einzelattribut-Messungen und auf AHP
(Eng.: „Analytic Hierarchy Process“) für die Gewichtung der Attribute zurück
gegriffen. Eine Wertaggregation wird über das gewichtete Mittel
vorgenommen. Es wurde unter anderem festgestellt, dass die kommerzielle
Referenz einen überraschend geringen Vorsprung gegenüber einer Reihe
von Verfolgern im Open Source Bereich hat, die allesamt ein eigenes
Stärken/Schwächenprofil aufweisen. Des weiteren sind die Open Source
Tools meist stark integriert mit einer Workflow-Umsetzung, während die
kommerzielle Referenz dies über Zusatzprodukte in ihrer umfangreichen
Produktfamilie ermöglicht. Für Test- und Schulungsumgebungen, die eine
besondere Bedeutung für diese Arbeit einnahmen, bieten sich bereits etliche
Open Source Lösungen an. Für den professionellen Unternehmenseinsatz
sollten
die
Tools
gemessen
an
ihrer
vergangenen
Entwicklungsgeschwindigkeit zumindest in den nächsten Jahren höchst
interessante Alternativen zu kommerziellen Produkten aus dem Bereich
darstellen.
Kathrin Apfelthaler
Evaluierung von Benutzerverhalten in virtuellen Welten anhand von Second
Life
Studium: Masterstudium Information and Knowledge Management
BetreuerIn: Ao.Univ.Prof. Dr. Dieter Merkl
Abstrakt: Das Schlagwort "Web 2.0" dominiert seit den letzten Jahren die
Diskussionen rund um die Zukunft des Internets. Second Life fügt sich in das
Konzept des benutzer-generierten Inhalts ein, indem es den Nutzern erlaubt,
beliebige Objekte im virtuellen Raum zu kreieren. Mit Hilfe von Spielfiguren,
sogenannten Avataren, interagieren die Menschen in der virtuellen Welt, die
aus miteinander verknüpften Regionen besteht. Jedem Benutzer steht es
frei, welchen Aktivit aten er in Second Life nachgeht und welche Orte er
besichtigt. Die Diplomarbeit beschäftigt sich mit dem Verhalten der
Benutzer von Second Life und versucht Informationen über die Avatare
sowie Zusammenhänge zwischen den Avataren und den von ihnen
besuchten Orten zu erforschen. Im praktischen Teil, der dieser Arbeit
vorangeht, erfolgte eine Erhebung der Daten zu den Avataren und den
Orten, die von den Avataren aufgesucht wurden. Die aufgezeichneten Werte
werden im Anschluss analysiert. Anhand einiger Beispiele werden
Firmenpräsenzen und politische Aktivitäten in Second Life vorgestellt.
89
und
Richard Brenner
RFID basierte geschlossene elektronische Geldbörse
Studium: Masterstudium Software Engineering und Internet Computing
BetreuerIn: O.Univ.Prof. Dr. A Min Tjoa
Abstrakt: Ab den 50er Jahren (Gründung von Diners Club in den USA)
haben sich vermehrt Kredit- und Debitkarten als Alternative zur
90
Bargeldzahlung durchgesetzt. In Österreich ist ein deutlicher Trend hin zu
Kartenzahlung festzustellen. Bis zu 40% aller Einkäufe (Stand Februar
2008) werden bereits mit Bankomatkarte (Debitkarte) getätigt. Vorreiter
sind die Bundesländer Wien und Tirol. Im Firmenumfeld ist eine Integration
dieser Bezahlmöglichkeiten an die eigenen Kassen mitunter zu aufwendig
und es werden weitere Alternativen zur Barzahlung für die Mitarbeiter
gesucht. Die Anforderungen an ein geschlossenes System erlauben
schlankere Lösungen, die besser an den jeweiligen Bedarf zugeschnitten
werden können. Bereits jetzt besitzen viele Firmen Zutrittskontrollen auf
RFID-Basis. Denkbar ist eine Erweiterung dieser Karten um die Funktion
einer
elektronischen
Geldbörse.
Im
Gegensatz
zu
öffentlichen
Bezahllösungen erfolgt dann die Verwaltung der Transaktionen intern,
wodurch eine Anbindung an vorhandene ERP Systeme möglich wird. Ein
weiterer großer Vorteil kontaktloser Geldträger ist die Geschwindigkeit bei
der Bezahlung. Großer Andrang zu Stoßzeiten kann somit besser bewältigt
werden, da die Wartezeiten erheblich verkürzt werden. Die folgende Arbeit
beinhaltet die theoretische Auseinandersetzung mit dem Thema
firmeninterne Geldträger auf RFID-Basis in Form einer Anforderungsanalyse,
Analyse vorhandener Hard- und Software. Im Rahmen der Arbeit wurde ein
Prototyp entwickelt. Dieser umfasst die Implementierung eines zentralen
Datenservers, eines Administrations-Clients zur Verwaltung des Systems,
eines Ladeterminals sowie die Entwicklung der Anbindung an ein
vorhandenes Kassensystem.
technische Architektur sowie ein Real-Life Szenario, in das unser System
integriert wurde. Außerdem geben wir einen Ausblick über zukünftige
Verbesserungen wie ein Administrations-Tool, weitere Vorschlagsmethoden
oder neue Ansätze die Benutzer-Tags verwenden.
Vahidenur Culha Flechl
Entwicklung und Implementierung einer Methode für die Selektion von
Sicherheitsmaßnahmen gemäß ISO/IEC 27001
Studium: Masterstudium Information and Knowledge Management
BetreuerIn: O.Univ.Prof. Dr. A Min Tjoa
Abstrakt: Die Informationssicherheit von Geschäftsprozessen ist auf Grund
von Sicherheitslücken in zunehmendem Maße Bedrohungen ausgesetzt.
Besonders
die
steigende
Nutzung
von
Information-,
und
Kommunikationstechnologie erhöht das Risiko. Unternehmen müssen daher
ihre Assets (wie etwa Reputation, Services, Software oder wichtige
Information) vor möglichen Bedrohungen schützen. Sicherheitsstandards wie
zum Beispiel Common Criteria (CC), der IT-Grundschutz-Kataloge des BSI,
ISO/IEC 17799 oder ISO/IEC 27001 können Unternehmen als Richtlinien
für das Management von Informationssicherheit dienen. Allerdings stellt die
Anwendung dieser Normen eine Herausforderung dar, da diese Normen
üblicherweise sehr allgemein formuliert sind. Die Implementierung der
Sicherheitsstandards ist ein teurer, komplizierter und bürokratischer
Prozess, da die Standards an die spezifischen Unternehmensanforderungen
angepasst werden müssen. In dieser Arbeit wird ein Modell ausgearbeitet,
dass
Entscheidungsträger
bei
der
Auswahl
der
optimalen
Sicherheitsmaßnahmen auf Basis der Norm ISO/IEC 27001 unterstützt
werden. In diesem Modell wird eine multikriterielle Methode zur
Entscheidungsunterstützung angewandt, die Entscheidungsträgern als
effiziente Methode zur Auswahl von Sicherheitsmaßnahmen gem¨aß der
gewählten Kriterien dienen kann. Dieses Modell kann Entscheidungsträger
bei der zweckmäßigen und organisierten Implementierung der Norm ISO/IEC
27001 unterstützen. Dies ermöglicht nicht nur die Bestimmung der für das
Unternehmen spezifischen Sicherheitsanforderungen, sondern erleichtert
auch den Weg zur Zertifizierung gemäß ISO/IEC.
Roman Cerny
Design and Implementation of a Generic Recommender and Its Application
to the Music Domain
Studium: Diplomstudium Informatik
BetreuerIn: Ao.Univ.Prof. Dr. Andreas Rauber
Abstrakt: Durch den stetigen Anstieg der Anzahl zur Verfügung stehender
Datenquellen durch technologische Entwicklungen steigt der Bedarf an
sinnvollen Techniken zur Filterung großer Datenmengen ebenso konstant.
Für diesen Zweck wurden bisher diverse existierende Recommender
Systeme eingesetzt. Oftmals liegt der Fokus solcher Systeme auf einem
eingeschränkten Datenbestand oder auf einer bestimmten Menge von
Vorschlagsmethoden.
Diese
Arbeit
präsentiert
ein
generisches
Recommender Framework, welches einfach an neue Domänen adaptiert
werden kann und das leicht mit unterschiedlichsten Recommender
Algorithmen erweitert werden kann. Algorithmen werden unterteilt in: offline
Generatoren, die aus Benutzeraktionen Regeln ableiten, und online
Recommender Services. Um Mandantenfähigkeit zu gewährleisten beinhaltet
das Konzept verschiedene Typen für Produkte, Aktionen und Verbindungen
zwischen Produkten. Weiters unterstützt das System die Einbindung von
fremden Daten und bietet eine Menge an Web Services für
domänenunabhängige und domänenabhängige Vorschläge. Wir zeigen die
91
Monika David
Automatisierte funktionale Regression-Tests für objektorientierte
Applikationen in der Praxis
Studium: Masterstudium Software Engineering und Internet Computing
BetreuerIn: Ao.Univ.Prof. Dr. Gerald Futschek
Abstrakt: Die vorliegende Diplomarbeit beschäftigt sich mit der Frage, wie
wartungsfreundliche und von Laien benutzbare Testframeworks für
92
automatisierte funktionale Regression-Tests objektorientierter Applikationen
aufgebaut werden können. Die wichtigsten derzeit am Markt erhältlichen
Tools für automatisierte funktionale Regression-Tests werden anhand von
Evaluierungskriterien verglichen. Am Beispiel von zwei Testtools werden
Herausforderungen
beim
automatisierten
funktionalen
Testen
objektorientierter Applikationen diskutiert und Lösungsansätze aufgezeigt.
Beide Testtools zeigen einige Mängel bei der eindeutigen Identifizierung und
Objekttyperkennung von GUI-Objekten und unterscheiden sich stark in den
Zugriffsmöglichkeiten auf Applikationsobjekte. Die Zugriffsmöglichkeiten von
Testtools auf die public Members von GUI-Objekten sind ausschlaggebend für
die Testbarkeit von objektorientierten Applikationen trotz der festgestellten
Mängel.
Ein
Ansatz
zur
Implementierung
wartungsfreundlicher
Testframeworks mit einem ausgewählten Testtool wird vorgestellt. Dieser
umfasst ein objektorientiertes Entwurfsmuster sowie den gezielten Einsatz
wartungsfördernder Features des Testtools. Es wird gezeigt, wie das
Konzept des Keyword-Driven-Testing, das sowohl zur Wartungsfreundlichkeit
als auch zur einfachen Benutzbarkeit eines Testframeworks durch Laien
beiträgt, objektorientiert implementiert werden kann. Ein einfaches
Hilfesystem zur Benutzung eines Testframeworks wird beschrieben. Die
Fragestellungen und Ergebnisse der vorliegenden Diplomarbeit wurden in
Zuge der Implementierung eines Testframeworks für eine objektorientierte
Applikation in einem Softwareunternehmen erarbeitet.
Selen Elgin
Personal Information Management Systems - An Introduction and Outlook
Studium: Diplomstudium Wirtschaftsinformatik
BetreuerIn: O.Univ.Prof. Dr. A Min Tjoa
Abstrakt: In this so called “digital age” or “information age” human beings
are dealing with a huge quantum of information in their daily lives like never
before in history. Humans generate, require and rely on information for the
completion of their daily, even routine tasks. The constant emerging of new
applications to generate and manipulate information as well as ubiquitous
computing induced a general digitalization of information. Thanks to
advances in communication technologies digital information can be shared
with thousands and millions at a mouse click. We are able to receive and
distribute information at the same speed and ease as we create them, if not
faster. Digital storage has stopped being a constraint due to its high
availability to everyone. However, as information has become highly available
and its manipulation easy, humans with a tendency to collect, sit on huge
piles of information. Retaining an overview becomes excessively difficult.
Required information is lost in the chaos and we are not able to exploit the
potential of the information at our hands. As Vannevar Bush in 1945
recognized, this situation calls for designated Information Management
Systems for the optimal utilization of the personal information at the disposal
of a user. Subject to this thesis are Personal Information Management
Systems that aim at organizing the information pile of a user and offering
functionalities to make an efficient exploitation of information at hand
possible. Personal Information Management is a fairly new field of research.
This thesis describes the meaning of Personal Information Management
with key notions and central issues and gives a detailed overview on existing
Personal Information Management System projects based on different
approaches. Based on current projects and needs of Personal Information
Management, one chapter depicts a concept proposal for “the ideal PIM
system”. This introductory work also contains a discussion of problem areas
in Personal Information Management as well as an outlook on research
trends.
Gerald Dietl
Mobile Computing - Innovationen und Trends für Hardware und Software
Studium: Diplomstudium Informatik
BetreuerIn: O.Univ.Prof. Dr. A Min Tjoa
Abstrakt: Die vorliegende Diplomarbeit beschreibt Hardware- und SoftwareTechnologien, die mobilen Endgeräten in den kommenden Jahren zu einer
noch breiteren Akzeptanz verhelfen sollen.Schon heute gibt es in vielen
Industrieländern mehr Mobiltelefone als Einwohner. Der Trend bewegt sich
dabei vom reinen tragbaren Telefon weg in Richtung Multimediagerät. Im
Bereich der Hardware werden einige Technologien einer genaueren
Betrachtung unterzogen, deren Grundlage die organische Elektronik, also die
Verwendung von organischen Materialien entweder zur Herstellung der
elektronischen Bauteile selbst, oder als flexibles Trägermaterial für diese
Bauteile, ist. Die Akzeptanz jedes technischen Gerätes hängt von der
Einfachheit der Bedienung und im Falle von Computern auch von der
Funktionalität der Applikationen ab. Aus diesem Grund werden einerseits die
Entwicklungsparadigmen für die Applikationsentwicklung beleuchtet, als auch
die Frameworks einer näheren Betrachtung unterzogen, die die Entwicklung
und das Design von mobilen Applikationen in den nächsten Jahren
entscheidend prägen sollen. Den Abschluß bildet ein Konzept für eine
Tourismus-Applikation, die aufzeigt, wie die zuvor vorgestellten Technologien
zusammenspielen können.
93
Wolfgang Freund
Digital rights management
Studium: Diplomstudium Informatik
BetreuerIn: O.Univ.Prof. Dr. A Min Tjoa
Abstrakt: Der Begriff Digital Rights Management oder abgekürzt - und
durchaus um einiges öfter in dieser Kurzform verwendet - DRM ist
heutzutage ein in der Öffentlichkeit als auch in Fachmedien viel gebrauchter
94
Terminus. Viele Personen, sowohl in der Wissenschaft als auch
Wirtschaftstreibende, befassen sich mit dieser Entwicklung und versuchen
sie voran zu treiben und weiter zu entwickeln als auch von ihr zu profitieren.
Aber es gibt auch eine ganze Reihe an Kritikern in Fachliteratur als auch
populären Medien, die dieser neuen Technologie fast skeptisch bis geradezu
ablehnend gegenüber stehen und als Gründe für ihre Verdammung etliche
Defizite und Nachteile in der Anwendung von Digital Rights Management
auflisten. In dieser Arbeit sollen die Möglichkeiten, elektronische Inhalte und
die Rechte daran zu schützen dargestellt werden. Das Ziel ist, festzuhalten,
dass nur ein Zusammenspiel von rechtlichen Vorschriften und technischen
Komponenten
einen
umfassenden
Schutz
gegen
unberechtigte
Verwendungen bieten können. Dafür werden zunächst die rechtlichen
Rahmenbedingungen, welche im Wesentlichen das Urheberrecht vorgibt,
untersucht. In diesem Kapitel werden werden die einzelnen Rechte, welche
dem Urheber zustehen, präsentiert und auf ihre Anwendbarkeit auf digitale
Inhalte analysiert. Im darauffolgenden Kapitel werden Aspekte des
Datenschutzes und seine Auswirkungen vorgestellt und überprüft, welche
Rolle der Datenschutz im Zusammenhang mit elektronischen Rechten
und/oder Rechten an elektronischen Inhalten und eben Daten spielt. Im
technischen Teil der Arbeit werden einzelne technische Maßnahmen, die im
Zusammenhang mit Digital Rights Management zum Einsatz kommen in
ihren wesentlichen technischen Grundlagen und Funktionsweisen sowie
Ausgestaltungen beleuchtet werden. Im Zusammenspiel mit den rechtlichen
Grundlagen soll erörtert werden, welche Schutzqualitäten diese eingesetzten
Technologien den einzelnen Rechten jeweils bieten können. Am Ende dieser
Arbeit sollen schließlich kurz zwei Beispiele aus der Praxis dargestellt
werden.
Organizing Maps, welche die Musikstücke anhand ihrer Soundeigenschaften
auf einer Art Landkarte verteilen. Die zweite Methode bietet die Möglichkeit,
Musikdateien in einer bestimmten Ordnerhierarchie auf dem Dateisystem
abzulegen, um in der virtuellen Welt entsprechend abgebildet zu werden.
The AudioSquare stellt Zusammenhänge zwischen den repräsentierten
Medien in ein räumliches Bezugssystem, in das der User selbst
eingebunden ist. Es entsteht eine intuitive Schnittstelle, die realen
Handlungs- und Navigationsformen nahe kommt. Die derzeitige Entwicklung
von Online-Welten und 3D Spielen zeigt außerdem, dass die Metapher des
virtuellen Raumes immer mehr an Bedeutung gewinnt. Konzepte wie der
hier vorgestellte Prototyp zur Aufbereitung von medialen Inhalten, also eines
Contents, innerhalb dieses Raumes sind jedoch noch spärlich vorhanden.
Die Umsetzung von The AudioSquare erfolgte mittels der Torque Game
Engine, die ein umfangreiches Rahmenwerk für die Gestaltung virtueller
Welten bietet. Durch die Client-Server-Architektur wird es Usern möglich
gemacht, die virtuelle Welt nach dem Download einer entsprechenden
Client-Applikation über das Internet zu betreten. Ein zusätzlicher StreamingServer ermöglicht es, die eingebundenen Musikstücke, entnommen aus
einer freien Musiksammlung von Magnatune, gemeinsam anhören zu
können.
Doron Goldfarb
Visualisierung wirtschaftlicher Prozesse am Beispiel der
Arbeitsmarktdatenbank des AMS-BMWA
Studium: Diplomstudium Informatik
BetreuerIn: Ao.Univ.Prof. Mag. Dr. Dieter Merkl
Abstrakt: Die Arbeitsmarktdatenbank des AMS Österreich und des
Bundesministeriums für Wirtschaft und Arbeit (BMWA) vereint die
Meldedaten des AMS mit jenen des Hauptverbandes der österreichischen
Sozialversicherungsträger.
Damit
stehen
Informationen
über
die
Beschäftigunsverhältnisse, Pensionen und sonstige Versicherungszeiten von
99% aller in Österreich lebenden Personen gemeinsam mit allfälligen AMSVormerkzeiten auf Einzeldatenebene – in anonymisierter Form - zur
Verfügung. Eine der Anwendungen für diese umfangreiche Datensammlung
besteht im sogenannten Erwerbskarrierenmonitoring. Dabei handelt es sich
um
die
Analyse
der
Entwicklungen
des
österreichischen
Beschäftigungssystems insgesamt, wobei ein Fokus auf die Bewegungen
hinter den einzelnen Bestandsveränderungen gelegt wird. Die daraus
gewonnenen Erkenntnisse werden in regelmäßigen Abständen als
"Momentaufnahme" des österreichischen Arbeitsmarktes publiziert. Diese
Arbeit
versucht,
verschiedene
der
im
Rahmen
des Erwerbskarrienmonitorings beobachteten Aspekte durch Visualisierungs-methoden
darzustellen. Dies einerseits, um Möglichkeiten auszuloten, ob und wie
visuelle Darstellungen der vorhandenen Daten zu deren Analyse und
Ronald Genswaider
The AudioSquare - A collaborative virtual Music Environment
Studium: Diplomstudium Wirtschaftsinformatik
BetreuerIn: Ao.Univ.Prof. Dr. Andreas Rauber
Abstrakt: Im Rahmen dieser Diplomarbeit wurde eine dreidimensionale
kollaborative Umgebung namens The AudioSquare entwickelt, die ein
virtuelles Erkunden von Musikarchiven ermöglicht. In Form von Avataren
können User einander in einer 3D Welt begegnen, über ein einfaches
Chatsystem kommunizieren und die angebotene Musik gemeinsam anhören.
Die Musik wird anhand von zwei verschiedenen Methoden räumlich
angeordnet. Die erste Methode basiert auf der Verwendung von Self95
96
Produktionsstrategien zu analysieren. Das Agenten System und seine
Koordinationskomponenten werden mittels Testszenarien getestet. Hierzu
wird ein Test Management System entworfen und implementiert. Die
dadurch gewonnen Simulationsdaten werden analysiert, um eine
systematische Leistungsauswertung von definierten Produktionsstrategien
zu erhalten. Ergebnisse der Arbeit: 1. Die Koordination von
weiterentwickelten Produktionsstrategien ist effizienter als eine lokale
Optimierung der Agenten. 2.
Die Definition von Richtlinien für die
Entwicklung einer Koordinationskomponente für Produktionssysteme
basierend auf ein Multi Agenten System. 3. Die Entwicklung und
Implementierung
einer
generellen
Schnittstelle,
basierend
auf
Koordinationsmustern, zwischen der Geschäftsprozessebene und der
Betriebsebene für ähnliche Fertigungssysteme. 4. Analysieren und Messung
von Produktionsstrategien basierend auf Simulationsergebnissen.
Bewertung beitragen können, und andererseits, um neue Möglichkeiten für
die Kommunikation dieser Sachverhalte an ein breiteres Publikum zu finden.
Clemens Gondowidjaja
Implementation and Coordination of Multi Agent Systems for Production
Automation Simulation using Coordination Patterns
Studium: Masterstudium Wirtschaftsinformatik
BetreuerIn: Ao.Univ.Prof. Dr. Stefan Biffl
Abstrakt: Produktionsautomatisierung, beispielsweise die Montage von
komplexeren Produkten aus verschiedenen Subprodukten und Ressourcen,
ist ein Fertigungsprozess bei dem eine große Anzahl an Entitäten, wie z.B.
Roboter oder Maschinen, koordiniert werden müssen. Bei der Planung
solcher produktionsautomatisierten Systeme müssen Designer gewisse
Parameter, die die Eigenschaften des gesamten Produktionssystems
beeinflussen, beachten. Diese Parameter auf einem „Real-world“Produktionssystem zu testen braucht im Normalfall eine hohe Anzahl an
Ressourcen und ist damit schwer zu prognostizieren. Multi Agenten
Systeme erlauben es diese Entitäten darzustellen, ihre Eigenschaften und ihr
Verhalten zu definieren und die Kommunikation innerhalb einer
vorgegebenen Umgebung zu simulieren. Koordination beschreibt das
Verhalten einer Gruppe von Agenten unter bestimmten Umständen. Dies
führt zur Optimierung von definierten Funktionen und Zielen. Die
Koordination
von
Agenten
aus
verschiedenen
Gruppen
bzw.
Gruppenzugehörigkeiten zu verwalten ist eine besondere Herausforderung.
Diese Diplomarbeit beschäftigt sich mit Koordinationsmustern welche die
Koordination der Agenten innerhalb eines Multi Agenten Simulator für
automatisierte Produktionssteuerung auf mehreren Ebenen beschreibt. Die
Simulation besteht aus zwei Hauptteilen: 1. Die „Geschäftsprozessebene“
(oder Produktionsplanung), wo ein Lastverteiler Kundenbestellungen in
detaillierte Arbeitsschritte einteilt. Diese Arbeitsschritte beinhalten
Maschinenfunktionen innerhalb des Fertigungssystems und legen Prioritäten
fest, welche die Gesamtleistung des Systems steigern sollen. 2. Die
„technische Ebene“ (Produktionsautomatisierung), wo eine Gruppe von
Agenten miteinander kooperiert um die Arbeitsschritte des Lastverteilers zu
erfüllen. Ein weiteres Thema dieser Diplomarbeit ist das Testen und
Analysieren
von
definierten
Produktionsstrategien.
Die
Simulationsergebnisse können nach der Analyse auf „Real-world“
Produktionssysteme abgebildet werden. Beiträge dieser Arbeit: Diese Arbeit
beinhaltet einen architektonischen Überblick und definiert Richtlinien für
Designer von Multi Agenten Systeme für Produktionsautomatisierung. Dazu
werden Patterns verwendet um die Koordination der Produktionsplanung
und Produktionsautomatisierung zu beschreiben. Ziel ist es die
Gesamtleistung
des
Systems
zu steigern. Weiters
wird
eine
Koordinationskomponente entworfen und implementiert. Diese wird
eingesetzt um komplexe Produktionsprozesse zu simulieren und
97
Joachim Grüneis
Object-XML mapping with JAXB2
Studium: Diplomstudium Informatik
BetreuerIn: Ao.Univ.Prof. Dr. Andreas Rauber
Abstrakt: Der Fokus von kommerzieller Datenverarbeitung liegt klar in der
Verarbeitung und Verwaltung von Daten. Diese Daten liegen zumeist in
unterschiedlichen Zuständen als Laufzeitobjekte, Datensätze einer
relationalen Datenbank oder XML vor. Im Laufe der Verarbeitung der Daten
werden diese zwischen den Systemen und Zuständen transformiert. Dabei
ergeben sich Problemstellungen wie: Ist die Transformation vollständig
möglich? Sind die Modelle der verschiedenen Systeme gegenseitig
abbildbar? Wie können die Daten validiert werden? Mit dem Teilbereich der
Abbildung zwischen Objekten und XML und noch spezieller mit der Abbildung
von Java und XML basierend auf den JAXB2 Standard und dem Framework
Castor beschäftigt sich diese Diplomarbeit. Die Diplomarbeit bietet eine
Einführung in XML mit Konzentration auf Datenmodellierung. Ein solches in
XML erstelltes Datenmodell wird als XML Application bezeichnet. Zur
Erstellung von XML Applications stehen zwei Sprachen zur Verfügung:
Document Type Definition (DTD) und W3C XML Schema. Letzteres erlaubt
das Erstellen von strikt typisierten Modellen. Dieses besagt, dass jedes
Element und jedes Attribut einen zugrundeliegenden Typ haben muss. Die
Java Einführung erklärt die Basis Elemente wie class, interface, field,
method und visibility. Sowie die wichtigen Konzepte der objektorientierten
Sprachen: encapsulation, abstraction, inheritance und polymorphism. Im
Mapping Kapitel wird erklärt wie der Datenaustausch zwischen Java und
XML realisiert werden kann. Die grundlegende Unterscheidung ist, ob
Wissen über das Datenmodell die Zuordnung beeinflusst. Es werden die
Standards DOM, JAXP und JAXB2 erklärt und die teils zugehörigen
Implementierungen wie XStream, JAXME, XMLBeans, Castor und JAXB2
Reference Implementation vorgestellt. Der praktische Teil der Diplomarbeit
98
startet mit einer Einführung in und Diskussion des JAXB2 Standard und
einer Analyse ob und inwieweit Castor die Anforderungen des Standards
bereits erfüllt. Die Realisierung des Castor JAXB2 Layer und dessen
Diskussion bilden den Hauptteil der praktischen Diplomarbeit.
Informationskrise des Rechts. Es ist daher wenig verwunderlich, dass der
juristische Bereich eines der ersten Anwendungsgebiete von IR-Techniken
war. Im Laufe der Jahre scheiterten allerdings viele Ansätze für juristische
Informationssysteme, weil die Bedürfnisse und die Arbeitsweise von Juristen
ignoriert, und die Entwicklung der Systeme primär als technische
Herausforderung gesehen wurde. Ein Verständnis des juristischen Bereichs
und seiner speziellen Anforderungen ist folglich erforderlich, um erfolgreiche
Rechtsinformationssysteme zu entwickeln
Bernhard Hablesreiter
Datengesteuerte Erstellung von Eclipse-basierten Client-Applikationen
Studium: Masterstudium Informatikmanagement
BetreuerIn: Ao.Univ.Prof. Dr. Gerald Futschek
Robert Janhovics
Computer Forensik: Eine wirtschaftliche Würdigung fachspezifischer
Problemstellungen
Abstrakt: Die vorliegende Arbeit beschäftigt sich mit der Erstellung von
Client-Applikationen unter Verwendung von Java und der Eclipse Plattform.
Dabei werden auf die Voraussetzungen zur Erstellung solcher Applikationen
eingegangen und mögliche Problembereiche beschrieben. Im Rahmen der
Arbeit wurde ein Framework zur Erstellung von Client-Applikationen auf Basis
von Eclipse entwickelt, das es ermöglicht, beliebige geeignete Datenquellen
an Client-Applikationen anzubinden und die ausgetauschten Daten zu
verwalten. Der Hauptteil der Arbeit beschäftigt sich mit der Architektur,
Funktionsweise und Implementierung dieses Frameworks, wobei diverse
Beispiele gegeben werden. Desweiteren wird gezeigt, dass das Framework
dazu geeignet ist, die Eclipse Plattform besser kennenzulernen und deren
Funktionalitäten einfacher zu verstehen.
Studium: Masterstudium Wirtschaftsingenieurwesen Informatik
BetreuerIn: O.Univ.Prof. Dr. A Min Tjoa
Hans-Dieter Karl und Daniel Wronski
Webservice Simulationsframework
Studium: Diplomstudium Informatik
BetreuerIn: Ao.Univ.Prof. Dr. Jürgen Dorn
Abstrakt: Aufgrund der immer größer werdenden Komplexität von
Webservice-Lösungen wurde es notwendig, nicht nur die Funktionalität jedes
einzelnen Webservices auszutesten, was verschiedene bereits erhältliche
Werkzeuge schon beherrschen, sondern auch die Fähigkeit zu haben, die
Robustheit des Interaktionsprozesses einer Webservice-Kompositionssoftware mit Webservices durch Evaluierung ihres Verhaltens unter
kontrollierbaren
Testbedingungen
zu
prüfen.
Mittels
direktem
Beeinträchtigen der Dienstgüte (QoS) durch Simulation verschiedenster
Fehler sowohl funktionaler als auch nichtfunktionaler Art, als auch durch
Loggen der Simulationsdaten eines gegebenen Szenarios, wird eine
tiefgreifende Untersuchung der zu testenden Software möglich. In dieser
Arbeit wird ein verteiltes Simulationsframework vorgestellt, bestehend aus
Komponenten zur Erstellung jeder gegebenen Anzahl an Test-Webservices
sowie deren Kompilierung und Deployment, und weiters aus Komponenten
zum Loggen und zur Auswertung der getesteten Szenarien.
Thomas Heigl
Information Retrieval in the Legal Domain
Studium: Masterstudium Wirtschaftsingenieurwesen Informatik
BetreuerIn: Ao.Univ.Prof. Dr. Andreas Rauber
Abstrakt: Information Retrieval (IR) bzw. Informationswiedergewinnung ist ein
relativ altes und etabliertes Fachgebiet der Informatik, dessen Wurzeln bis in
die 1950er zurückreichen. Bis vor kurzem lag das Hauptaugenmerk von IR
auf der Wiedergewinnung von Information aus unstrukturiertem Text.
Heutzutage werden jedoch immer mehr Dokumente im Internet, in digitalen
Bibliotheken und in Intranets in strukturierter Form zur Verfügung gestellt.
Die strukturierten Aspekte der Dokumente werden dabei mit
Auszeichnungssprachen wie der eXtensible Markup Language (XML)
dargestellt. Dieses explizite strukturelle Wissen kann von speziell adaptierten
IR-Systemen dazu genutzt werden, präzisere und schärfere Suchergebnisse
zu liefern. Die Entwicklung derartiger Systeme birgt allerdings eine Reihe
neuer Herausforderungen. Im juristischen Bereich spielen strukturierte
Information und deren Wiedergewinnung eine zentrale Rolle. Die effiziente
Handhabung der Information wird durch die enorme und ständig wachsende
Menge an verfügbarem juristischem Material zunehmend erschwert. Viele
Autoren sprechen in dieser Hinsicht von Informationsüberladung und der
99
Christoph Karner
Schulung für ein automatisches Testtool
Studium: Diplomstudium Informatik
BetreuerIn: Ao.Univ.Prof. Dr. Gerald Futschek
100
Abstrakt: In der Arbeit geht es um die Erstellung einer Lerneinheit zur
Anwendung des Testtools „Tosca Commander“ zum Thema eingeschränkt
auf die Testfallautomatisierung. Die für diese Arbeit erstellten
Schulungsunterlagen werden ausführlich beschrieben und anhand des
Beispiels der Onlineversicherung der Firma „Allianz Elementar Versicherung
AG“ durchgeführt. Die Schulungsunterlagen werden in vier Lerneinheiten
gegliedert, die ersten drei bestehen aus den Lerninhalten selbst und die
vierte Einheit beschäftigt sich mit einer interaktiven Wiederholung in Form
einer einstündigen Prüfung. Die Schulung wird an zwei Testpersonen
durchgeführt und anschließend werden die Prüfungsresultate der beiden
Probanden, anhand einer Grafik visualisiert, gegenübergestellt.
Armin Liensberger
Evaluierung von Workflow Engines für Metasuche
Studium: Diplomstudium Informatik
BetreuerIn: Ao.Univ.Prof. Dr. Jürgen Dorn
Abstrakt: Metasuchen können verschiedene Suchportale nach Informationen
absuchen und sie in zusammengefasster Form dem Benutzer darstellen. Bei
der Umsetzung einer Metasuche können Workflow Engines integriert
werden, die den Ablauf einer Metasuche unterstützen. Diese Arbeit
untersucht nach bestimmten Kriterien, welche der drei evaluierten
Workflowsysteme am besten für eine Einbindung in eine Metasuche
geeignet ist. Zu diesem Zweck wird ein Workflow in den drei verschiedenen
Workflow Systemen anhand eines Beispiels der Suche in Frachtbörsen nach
passenden Frachtaufträgen umgesetzt. Die Arbeit gibt Aufschluss darüber,
wie und mit welchen Mitteln die Aufgabe in diesem und ähnlich gelagerten
Anwendungsfällen gelöst werden kann. Darüberhinaus werden die einzelnen
Workflow Systeme anhand von aufgestellten Kriterien verglichen.
Thomas Kremmel
Project Portfolio Decision Support Using Evolutionary Algorithms
Studium: Masterstudium Wirtschftsinformatik
BetreuerIn: Ao.Univ.Prof. Dr. Stefan Biffl
Abstrakt: Strategische Ausrichtung, effiziente Nutzung von Ressourcen und
ausgeglichene Portfolios bezüglich des Risikos sind Hauptziele von Projekt
Portfolio Management. Die Auswahl von Projekten ist eine komplexe
Aufgabe, da verschiedenste Ziele, Restriktionen, Bedingungen und subjektive
Präferenzen beachtet werden müssen. Die Komplexität wächst mit der
Projektanzahl aus denen eine Auswahl getroffen werden muss. Die
vorliegende Diplomarbeit präsentiert ein Rahmenwerk, welches auf die
automatisierte Auswahl von Projekten abzielt und hierfür einen sogenannten
evolutionären Optimierungs-Algorithmus nutzt. Im ersten Teil wird eine
Implementierung des Optimierungs-Algorithmus für dieses Problem
präsentiert. Das daraus resultierende Optimierungsprogramm ist fähig
innerhalb weniger Minuten effiziente Portfolios zu erstellen, welche im Sinne
der Mehrzieloptimierung besser sind als sonstige im Lösungsraum
vorhandene Portfolios. Im zweiten Teil wird ein Gruppen-EntscheidungsProzess vorgestellt, der eine Gruppe von Entscheidungsträgern bei der
Auswahl eines Portfolios aus der Pareto-Optimalen Front unterstützen soll.
Hauptbeitrag dieser Diplomarbeit ist die Kombination eines objektiven
Optimierungs-Projekt-Auswahl-Rahmenwerks
mit
einem
einfach
zu
bedienenden Gruppen-Entscheidungs-Prozesses, in welchem individuelle
Präferenzen visualisiert werden können und die Suche nach Konsens
bezüglich unterschiedlicher Präferenzen erleichtert wird. Der präsentierte
Ansatz zur Portfolio-Optimierung erhält besondere Relevanz, da eine neue
Methode zur Auswahl und Anordnung von Projekten beschrieben wird. Des
Weiteren werden Methoden zur Optimierung von Portfolios bezüglich
verschiedenster objektiver Präferenzen wie Risiko Verteilung vorgestellt.
Dabei werden zahlreiche Restriktionen, Bedingungen und logische
Abhängigkeiten beachtet. Der vorgestellte Optimierungsansatz schränkt die
zu optimierende Projektanzahl nicht ein.
101
Chia-chang Lin
Vergleich von IT-Risikomanagement Tools anhand eines Business Cases
Studium: Masterstudium Wirtschaftsinformatik
BetreuerIn: O.Univ.Prof. Dr. A Min Tjoa
Abstrakt: Das IT-Risikomanagement (RM) wird im Unternehmen oft
durchgeführt und gewinnt aufgrund der rasanten Entwicklung im IT-Bereich
immer mehr an Bedeutung. Die Unternehmen werden im IT-Bereich täglich
von verschiedenen Gefahren ausgesetzt. Es ist daher notwendig, dass man
die möglichen Risiken regelmäßig erfasst, bewertet, steuert und überwacht.
Die Arbeit ist in zwei Bereiche aufgeteilt: IT-Risikomanagement Theorieteil
und die Evaluierung der RM-Lösungen. Im ersten Teil wird zuerst die
allgemeine Theorie im Risikomanagement vorgestellt. Im Evaluierungsteil
sind insgesamt drei Softwareevaluierungen enthalten. Diese Software
unterstützt das IT-Risikomanagement und basiert auf unterschiedliche RMMethode. Der Schwerpunkt der Evaluierung liegt in der Unterstützung der
Software im IT-Risikomanagement. Es kommt dabei nicht darauf an, welche
Best Practice Ansätze das Programm unterstützt. Um die Evaluierung zu
erleichtern, wurde ein Business Case erstellt. Im Business Case sind
Informationen über den IT-Bereich eines mittelständischen Unternehmens
enthalten. Diese Informationen dienen als Ausgangspunkt für die
Modellierung bei der Evaluierung. Neben dem Business Case wurde auch ein
Katalog mit Evaluierungskriterien erstellt, um einen Anhaltspunkt beim
Vergleich zu haben. Man muss hier dabei beachten, dass die evaluierten
RM-Produkte Softwareprogramme sind und Evaluierungsschwerpunkte
analog zu den Qualitätskriterien einer Software gesetzt werden. Diese
102
Schwerpunkte in der Softwarequalität sind z.B. die Bedienbarkeit der
Software. Die Zielsetzung der Arbeit ist nicht nur das Ergebnis der
evaluierten IT-Risikomanagement-Software zu präsentieren, sondern die
Arbeit zeigt auch, wie man eine IT-Risikomanagement Lösung evaluieren
kann, egal auf welchen Standard oder Best Practice Ansatz das Programm
basiert. Das Theorieteil gibt zusätzlich eine recht gute Einführung in die
Materie und ist für Unternehmen interessant, die Interesse an der
Einführung von IT-Risikomanagement haben.
Mapping Security Frameworks Into SecOnt
Studium: Masterstudium Wirtschaftsinformatik
BetreuerIn: O.Univ.Prof. Dr. A Min Tjoa
Abstrakt: Die Komplexität von IT-Sicherheit steigt fortwährend; gleichzeitig
ist der Schutz von Geschäftsdaten zu einer unerlässlichen Pflicht eines jeden
Unternehmens geworden. Oft haben vor allem Klein- und Mittelbetriebe gar
nicht die Ressourcen und die Möglichkeiten um diesen hohen Anforderungen
gerecht zu werden. Meine Arbeit baut auf „SecOnt“ - einer von Stefan Fenz
und Andreas Ekelhart entwickelten IT-Security Ontologie, die Unternehmen
eine
kostengünstige
Möglichkeit
für
Risikomanagement
und
Bedrohungsanalysen bietet. Meine Arbeit erweitert das ontologische Modell
mit in der Praxis etabliertem Wissen aus den IT-Grundschutz Katalogen des
deutschen Bundesamts für Sicherheit in der Informationstechnik. Ich habe
die relevanten Konzepte der Wissensbereiche „Bedrohung, Schwachstelle,
Gegenmaßnahme“ analysiert, gefiltert, angepasst und schließlich innerhalb
der Struktur von SecOnt abgebildet. Initiale Inkompatibilitäts-, Inkonsistenzund Redundanzprobleme innerhalb der Wissensquelle wurden von mir
reduziert bzw. eliminiert. Zusätzlich habe ich die Wechselbeziehungen der
einzelnen Bedrohungen zueinander modelliert, um so die Möglichkeit der
Modellierung von Kettenreaktionen und somit der verbesserten Simulation
von Bedrohungsszenarien zu gewährleisten.
Claudia Löbl
Umfassendes Risikomanagement
Studium: Masterstudium Informatikmanagement
BetreuerIn: O.Univ.Prof. Dr. A Min Tjoa
Abstrakt: Risikomanagement wird in beinahe jedem Unternehmen eingesetzt
- in verschiedenen Formen. Vor allem im operativen Bereich werden
mögliche Risiken analysiert, identifiziert, beobachtet und bei Notwendigkeit
auch gegengesteuert. Im Projektmanagement und im Qualitätsmanagement
wird Risikomanagement gezielt eingesetzt und Risikomanagement ist auch
Thema in jeder betriebswirtschaftlichen Abteilung. Die Zusammenführung zu
einem umfassenden Risikomanagement und die Einbettung in die
Aufbauorganisation werden aber eher vernachlässigt. Diese Arbeit soll einen
Überblick über das gesamte Spektrum von Risikomanagement geben.
Risikomanagement wird dabei eben nicht als Einzelaufgabe in den
verschiedenen Abteilungen eines Unternehmens betrachtet - durch die
Zusammenführung zu einem übergreifenden Unternehmensprozess kann
Risikomanagement
gezielt
als
Unternehmens-Steuerungsinstrument
eingesetzt.
Neben
den
gesetzlichen
Vorgaben
und
anderen
Rahmenbedingungen zum Thema Risikomanagement wird auch die
Risikomanagement-Organisation als wichtiger Faktor für das Funktionieren
des Risikomanagement-Prozesses erläutert. Ein wesentlicher Beitrag ist die
Studie zum Status von Risikomanagement in österreichischen Unternehmen.
Dafür wurde eine Befragung durchgeführt, die folgende Themenbereiche
abdeckt: der Einsatz von externer Unterstützung bei der Einführung von
Risikomanagement, die Einbindung der Mitarbeiter in die RisikomanagementProzesse, die Frage der kollaborativen Risikoanalyse, die Art und Häufigkeit
einer Tool-Unterstützung für Risikomanagement und Notfall- und
Krisenplanung. Zielgruppen für diese Arbeit sind sowohl Unternehmen, die
Risikomanagement einführen wollen - diese können einen Überblick über die
Bandbreite von Risikomanagement und einer möglichen RisikomanagementOrganisation erhalten - als auch Unternehmen, die Risikomanagement
bereits eingesetzt haben und ihren Risikomanagement-Prozess überarbeiten
wollen.
Alexander N. Menches
Feldfehlerprognose
Studium: Diplomstudium Informatik
BetreuerIn: Ao.Univ.Prof. Dr. Gerald Futschek
Abstrakt: Diese Arbeit beschäftigt sich mit Möglichkeiten der Prognose von
Fehleranzahlen, Fehlerdichten bzw. Fehlerraten in Software-Systemen. Dazu
werden drei Hypothesen zur Diskussion gestellt. Anhand des Begriffes des
Feldfehlers werden zunächst relevante Studien vorgestellt, analysiert und
den Hypothesen gegenübergestellt. Unter einem Feldfehler versteht man
dabei einen Software-Fehler, der auch nach der Veröffentlichung eines
Software-Systems noch in diesem enthalten ist. Anschließend wird im
Rahmen einer Fallstudie aus einem realen Projektumfeld eine
Feldfehlerprognose durchgerechnet und analysiert. Auch die Fallstudie wird
den
Hypothesen
dieser
Arbeit
gegenübergestellt.
Wesentliche
Voraussetzung für verlässliche Feldfehlerprognosen ist die ausreichende
Verfügbarkeit einer breiten Palette von Metriken sowie der zugehörigen
Fehlerdaten auch aus der Vergangenheit. Wird dies nicht bereits zu Beginn
eines Projektes oder einer Software-Produktentwicklung berücksichtigt,
kommt es durch eingeschränkte Verfügbarkeit von Metriken (kann man auch
als Prediktoren des Prognosemodells auffassen) bzw. einer zu geringen Zahl
von historischen Daten zu schlechten Feldfehlerprognosen.
Arman Manutscheri
103
104
Werner Platzer
Einsatzmöglichkeiten von mobilen Endgeräten im Unternehmen:
Herausforderungen und Lösungen anhand einer Fallstudie im Bereich
BAXTER Maintenance
Claudia Moser
E-Learning gestützte Wissensoptimierung durch das Zusammenführen von
Wissensmanagement und Personalmanagement
Studium: Diplomstudium Informatik
BetreuerIn: O.Univ.Prof. Dr. A Min Tjoa
Studium: Masterstudium Informatikmanagement
BetreuerIn: Ao.Univ.Prof. Dr. Gerald Futschek
Abstrakt: Diese Diplomarbeit beschäftigt sich mit der Zusammenführung von
Personalmanagement,Wissensmanagement und E-Learning in einem
Unternehmen oder einer Organisation. Dabei werden im ersten Schritt die
Aufgaben des Personalmanagements und Wissensmanagements beleuchtet
und diese auf ihre Zusammenhänge mit Fokus auf den lernenden Mitarbeiter
untersucht.
In
einem
weiteren
Schritt
wird
auf
die
informationstechnologischen
Werkzeuge
zur
Unterstützung
der
Lernprozesse, sowie der Nutzung, der Verarbeitung und Verwaltung von
Wissen
eingegangen
und
Lösungsansätze,
die
bereits
eine
Zusammenführung auf informationstechnologischer Ebene berücksichtigen,
vorgestellt. Im Weiteren wird ein Katalog mit Leitfragen erstellt, dessen
Antworten in die Bedarfsanalyse einfließen sollen um einerseits Faktoren, die
bei einer Zusammenführung einwirken bewusst reflektieren zu können und
andererseits eine Entscheidungsgrundlage für die Wahl beziehungsweise
Entwicklung unternehmensindividueller Software bieten sollen.
Abstrakt: Das Bewusstsein bezüglich der Risiken und Gefahren mobiler
Endgeräte in Unternehmen ist bei vielen Mitarbeitern und Verantwortlichen
noch immer nicht vorhanden. Oft wird in diesem Zusammenhang auch nur
an Notebooks von Außendienstmitarbeitern gedacht, Endgeräte wie PDAs
und Smartphones fließen jedoch in Sicherheitsbetrachtungen meist nicht mit
ein. Gefahren, die von diesen Geräten ausgehen, sind jedoch mindestens
genauso hoch zu bewerten. Gerade durch die in den letzten Jahren
erlassenen Gesetze und Verordnungen (z.B. Sarbanes-Oxley, Basel II)
müssen auch diese Geräte bei der Einführung bzw. Ausbau des ITRisikomanagements berücksichtigt werden. Nur durch die Umsetzung von
zum Teil umfangreichen Maßnahmenkatalogen kann die Einhaltung der
Regulierungen nachgewiesen werden. In einer Fallstudie werden
Einsatzmöglichkeiten für einige Gruppen von mobilen Endgeräten im
Instandhaltungsbereich des Pharmaunternehmens BAXTER aufgezeigt und
mit den zuvor angeführten technischen und rechtlichen Anforderungen bzw.
Vorgaben bewertet. Nicht überraschend ist die einzige Gerätegruppe, die
alle Anforderungen optimal erfüllen kann - die Smartphones.
Nikolaus Nikoll
Motivation und Machbarkeitsstudie zur Erweiterung der E-Learning Software
Moodle um Mehrmandantenfähigkeit
Gerd Platzgummer
Evaluierung von Qualitätsmaßen für Selbstorganisierende Karten
Studium: Masterstudium Informatikmanagement
BetreuerIn: Ao.Univ.Prof. Dr. Gerald Futschek
Studium: Diplomstudium Informatik
BetreuerIn: Ao.Univ.Prof. Dr. Andreas Rauber
Abstrakt:
Diese
Diplomarbeit
stellt
die
Einsatzmöglichkeiten
mehrmandantenfähiger
E-Learning
Software
im
Rahmen
großer
Bildungsinstitutionen dar, und erforscht, ob die E-Learning Software Moodle
durch Adaptierung der Softwarekomponenten selbst in technisch und
wirtschaftlich sinnvollem Rahmen um Mehrmandantenfähigkeit erweitert
werden kann. Der Kernteil der Arbeit, die Machbarkeitsstudie im engeren
Sinne, beginnt mit Walkthroughs durch die Benutzerschnittstelle, das
Datenmodell sowie den Quellcode der Software Moodle. Dann werden
zentrale Teile der Implementierungsarbeiten durch-geführt sowie eine
einfache Methode zur Schätzung des Aufwandes des Projekts etabliert und
eine Aufwandsschätzung durchgeführt. Die Arbeit schließt mit der Beantwortung der Forschungsfragen und einem Ausblick.
Abstrakt: Selbstorganisierende Karten (Self-Organizing Maps, SOMs) sind
ein wirksames und populäres Mittel, um große Datenmengen zu analysieren,
zu interpretieren und die Ergebnisse in weiterer Folge zu visualisieren. Sie
projizieren hochdimensionale Grunddaten in einen vom Menschen leichter zu
verstehenden niedrigdimensionalen Raum mit der Aufgabe, diese
Komprimierung mit möglichst wenig Informationsverlust zu verbinden. Es
existiert eine Vielzahl an verschiedenartigen Methoden zur Messung der
Qualität
Selbstorganisierender
Karten
beziehungsweise
einzelner
Eigenschaften von SOMs. Diese Arbeit beschreibt sieben populäre
Qualitätsmaße zur Messung von Topologieerhaltung und Vektorquantisierung
Selbstorganisierender Karten. Darauf aufbauend wird der Versuch
unternommen, diese Maße anhand eines speziellen künstlichen Datensets
zu evaluieren. Dies wird durch Variation der Kartengröße, der
Trainingsiterationen und unter Berücksichtigung der Datenbeschaffenheit
des Datensets erreicht. Die resultierenden Beobachtungen fließen
105
106
anschließend in die Qualitätsuntersuchung von Karten auf Real-World-Daten
ein. Diese Experimente dienen der Untersuchung der Frage, inwiefern die
vorgestellten Maße Rückschlüsse auf die Beschaffenheit der Eingabedaten
und die Charakteristik der daraus resultierenden Karte beziffern können.
Zusätzlich wird der allgemeine Einfluss der Eigenschaften ”Kartengröße“ und
”Anzahl der Trainingsiterationen“ auf die Fehlerwerte für die gesamte Karte
beziffert und interpretiert.
(KMU) gelegt werden. Dazu wird zuerst eine theoretische Betrachtung des
Risikomanagementprozesses in der Literatur gegeben. In weiterer Folge
wird der Stellenwert des Risikomanagements und dessen Umsetzung in den
Unternehmen betrachtet. Zur Abschätzung der Umsetzung wird ein
Reifegradmodell
für
Risikomanagement
erstellt,
das
sich
am
Reifegradmodell CMM orientiert. Die Magisterarbeit geht von der
Einschätzung aus, dass Risikomanagement im Segment der KMU nicht
explizit angewandt wird. Weiters geht diese Arbeit davon aus, dass
Risikomanagement in erster Linie mit hohem Zeit und Kostenaufwand
verbunden wird. Daher wird es bei den KMU noch nicht als Alternative
gesehen, um Probleme im Tagesgeschäft zu adressieren. Die Arbeit soll die
Grundlagen des Risikomanagements für KMU erläutern und zeigen, dass
Risikomanagement auch in ihrem Tagesgeschäft sinnvoll ist. Es soll
dargestellt werden, dass ein etablierter Risikomanagementprozess in
diesem Bereich profitabel sein kann. Eine Fallstudie bei einem Unternehmen
aus dem Bereich Softwareentwicklung und Vertrieb wird die praktische
Relevanz unterstreichen. Neben der theoretischen Einführung ins Thema
Risikomanagement wird hier auch auf den Zusammenhang von
Projektmanagement und Risikomanagement eingegangen. Dazu wird ein
KMU mittels Datenerhebung in die erstellte Reifegradskala eingeordnet.
Ausgehend vom ermittelten Reifegrad werden erste konkrete Schritte zur
Verbesserung des Risikomanagements hin zur nächsten Reifestufe
dokumentiert. Für darüber liegende Reifestufen werden potentielle
Maßnahmenpläne angesprochen. Dabei werden die Gegebenheiten beim
untersuchten Unternehmen, sowie dessen etablierter Projektablauf
berücksichtigt. Ein besonderer Schwerpunkt liegt hier auf der Rentabilität
der Maßnahmen.
Thomas Rainer
Entwicklung eines Spam-Filter Gateways basierend auf Open-SourceProjekten
Studium: Diplomstudium Informatik
BetreuerIn: O.Univ.Prof. Dr. A Min Tjoa
Abstrakt: Spam-Nachrichten stellen ein immer größeres Problem im E-MailVerkehr dar. EMail- Provider stehen zunehmend in der Pflicht aktiv gegen
Spam vorzugehen. Zur Anwendung kommen neben statischen Verfahren,
wie DNS-basierte Blacklists oder ähnliches, auch selbstlernende Filter, die
sich in der Praxis als sehr effektiv erwiesen haben. Um die eigene E-MailAdresse erst gar nicht in die Hände von Spammern gelangen zu lassen,
existieren verschiedene Maßnahmen, die das Ausspähen von EMailAdressen auf Websites verhindern. Ein geändertes Benutzerverhalten und
die Verwendung vonWegwerf-Adressen erschweren die Arbeit der Spammer
zusätzlich. Diese Arbeit beschäftigt sich mit der Integration mehrerer
Filtermethoden in eine einheitliche Benutzerumgebung. Hierfür werden
sämtliche Benutzerdaten und Filterinformationen in einer MySQL-Datenbank
abgelegt. Das Einsehen der Filteraktivitäten und das Bearbeiten der
Einstellungen erfolgt mit Hilfe eines einfach zu bedienendenWeb-Interface.
Durch realitätsnahe Tests mit unterschiedlichen Filter-Einstellungen lassen
sich die verschiedenen Verfahren direkt miteinander vergleichen. Aufgrund
der erzielten Ergebnisse kann das Spam-Filter Gateway durchaus auch in
professionellen Umgebungen eingesetzt werden.
Werner Rieschl
Balancing Quality Assurance Methods along the Project Life Cycle: A
Concept for Systematic Quality Assurance Strategy Evaluation
Studium: Diplomstudium Wirtschaftsinformatik
BetreuerIn: Ao.Univ.Prof. Dr. Stefan Biffl
Abstrakt: Software Produkte begleiten uns überall in unserem täglichen
Leben. Qualitativ hochwertige Software muss gemäß den Spezifikationen mit
Hilfe von verschiedenen Entwicklungs- und Qualitäts-sicherungsmethoden
validiert und verifiziert werden. Die Anwendung von speziellen Methoden
konzentriert sich meist auf die Evaluierung eines Dokuments, die Ergebnisse
werden aber selten als Basis für weitere Qualitätsmaßnahmen
herangezogen.[52] Daher ist es sinnvoll verschiedene Methoden in
unterschiedlichen Projektphasen zu kombinieren, damit deren Effektivität und
somit die Qualität des Produktes steigt. Spezielle Charakteristiken können in
verschiede Gruppen von Eigenschaften eingeteilt werden, die sich auf die
Auswahl von bewährten Methoden auswirken. Einige Qualitätsmethoden sind
für spezielle Projekttypen und Artefakte besser geeignet als andere.[17] Ziel
Katja Rammer
Angewandtes Risikomanagement für kleine und mittelgroße Unternehmen
Studium: Masterstudium Wirtschftsinformatik
BetreuerIn: Ao.Univ.Prof. Dr. Stefan Biffl
Abstrakt:
Die
Magisterarbeit
befasst
sich
mit
dem
Thema
Risikomanagement
und
dessen
praktischer
Umsetzung
im
unternehmerischen
Alltag.
Ein besonderes
Augenmerk
soll
auf
Risikomanagement im Bereich der kleinen und mittleren Unternehmen
107
108
dieser Arbeit ist, den Entscheidungsprozess von einem globalen
Projektstandpunkt aus zu betrachten. Dies wird über eine Kombination von
unterschiedlichen QS-Methoden erreicht, die sich mit speziellen Aspekten
von Software Projekten beschäftigen, wodurch sich die positiven Effekte
dieser Methoden erhöhen. Aufgrund der oben genannten Aspekte ist der
Vergleich von projektrelevanten Daten mit verfügbaren Qualitätsmethoden
über definierte Kriterien notwendig. Daher beschäftigt sich diese Arbeit mit
einem Ansatz der auf Attributen basiert, um verschiedene Projekttypen mit
verfügbaren QM-Methoden gezielt vergleichen zu können, damit die
Projektverantwortlichen eine automatisierte Unterstützung bei der Auswahl
der geeigneten Methoden haben. Dies fällt in den Bereich der
kontinuierlichen Software Produkt und Prozessverbesserung. Zur
Umsetzung werden grundlegende Metriken zur Schaffung einer
Vergleichsbasis definiert. Weiters wird ein Prototyp zur Bereitstellung von
Qualitätsstrategien entwickelt, die sich aus einzelnen QS-Methoden
zusammensetzen, um die Effektivität und die Effizienz von Softwareprozessen
zu optimieren.
an geänderte Schnittstellen anpassbar ist. Tool-Hersteller wollen unabhängig
bleiben und zusätzliche Kosten für die Neuimplementierung oder Anpassung
von Tools an Integrationslösungen vermeiden, bieten aber als Ausgleich oft
Skripting- oder sprachspezifische Schnittstellen für die Anbindung an andere
Anwendungen an, die man für die Tool-Integration nützen kann. Diese Arbeit
zeigt, dass die Tool-Integration am Desktop viel mit der Enterprise
Integration gemeinsam hat, wo es bereits eine Reihe von "best practices",
Mustern und Integrations-Standards wie z.B. Java Business Integration (JBI)
oder die Service Component Architecture (SCA) gibt. Die Anwendung
erfolgreich erprobter Lösungen aus der Enterprise-Integration auf die ToolIntegration
am
Desktop
ermöglicht
die
Umsetzung
einer
wiederverwendbaren und erweiterungsfähigen Integrationslösung, die leicht
an neue Tools und Anforderungen angepasst werden kann. Aufbauend auf
einer Analyse der aktuellen Situation wird unter Verwendung von JBI ein
standardbasiertes dynamisches Framework für die Tool-Integration
realisiert. Eines der wenigen existierenden Frameworks, die eine solche
Integrationslösung umsetzen, ist ToolNet, ein von der EADS CRC
Deutschland entwickeltes serviceorientiertes Framework für die ToolIntegration. ToolNet verbindet existierende kommerzielle Tools aus dem
Ingenieursbereich - wie z.B. Telelogic DOORS oder Matlab - mit Hilfe von
speziell entwickelten Adaptern, die über einen gemeinsamen Nachrichtenbus
kommunizieren. Ausgehend von einer Analyse der Ist-Architektur und ihren
Einschränkungen, die vor allem in der statischen und proprietären AdapterArchitektur bestehen, werden die Forschungsergebnisse dieser Arbeit in
einem Prototypen umgesetzt, der ein Redesign der ToolNet-Architektur
basierend auf dem JBI-Standard und einem dynamischen Adapterkonzept
demonstriert. Der Prototyp wird danach einer Evaluierung unterzogen und
mit dem bestehenden ToolNet-Framework verglichen.
Gregor Rosenauer
A Standards-Based Approach to Dynamic Tool Integration Using Java
Business Integration
Studium: individuelles Diplomstudium New Media Design and Engineering
BetreuerIn: Ao.Univ.Prof. Dr. Stefan Biffl
Abstrakt: Die gegenseitige Integration von heterogenen Tools mit dem Ziel,
den Arbeitsablauf von Benutzern zu optimieren, ist Gegenstand andauernder
Forschung. Die angestrebte Lösung soll Benutzern und Teams ermöglichen,
bestehende Tools auf transparente Art miteinander zu verbinden.
Funktionalität und Daten von einzelnen Tools können von jedem anderen Tool
aus verwendet werden; Gemeinsamkeiten im Datenmodell werden
ausgenützt, indem man Relationen zwischen zusammengehörenden
Datenelementen erzeugt. Eine besondere Herausforderung stellt die flexible
Integration von bestehenden, meist kommerziellen Tools dar, wie sie z.B. im
Ingenieurwesen vorkommen. Diese bieten oft nur proprietäre und nicht offen
zugängliche Schnittstellen an, was das Design einer Integrationslösung in
vielerlei Hinsicht einschränkt. Es wurden bereits verschiedene Frameworks
und Standards entwickelt, wie z.B. CDIF, PCTE, OTIF, BOOST oder auch
allgemeine Tool-Plattformen wie z.B. Eclipse. Diese lösen aber jeweils nur
einen Teil des Problems und bieten keinen ganzheitlichen, dynamischen
Ansatz für die Integration von bestehenden bzw. proprietären Tools. Eine
erfolgreiche Lösung für die Tool-Integration muss die Anforderungen
verschiedener Gruppen gleichermaßen erfüllen: Für den Endbenutzer steht
eine nahtlose Integration zwischen Tools im Vordergrund, die es ermöglicht,
transparent über Tool-Grenzen hinweg zu arbeiten. Entwickler wünschen
sich einen einfachen Weg, um Tools in ein lose gekoppeltes und
dynamisches System einzubinden, das leicht um neue Tools erweiterbar und
109
Dietmar Ruzicka
Network Management Techniques in Facility Management
Studium: Diplomstudium Informatik
BetreuerIn: Ao.Univ.Prof. Dr. Gerald Futschek
Abstrakt: Facility Management und Netzwerk Management sind zwei große
Managementdisziplinen.
Während
Facility
Management
sich
als
allumfassendes ganzheitliches Management von Immobilien darstellt,
beschränkt sich Netzwerk Management auf die Nutzungsphase der
Ressourcen. Diese Ressourcen sind das Gebäude selbst, das Grundstück
worauf es steht und alle Einrichtungen innerhalb, etwa ein Server in der
EDV. Die der Arbeit zu Grunde liegende Frage ist, können Network
Management Techniques im Facility Management vorteilhaft zur Anwendung
kommen? Die Untersuchung der Definitionen von Facility Management und
Netzwerk Management in den Normen und die konstruktive Methode der
praktischen Umsetzung der These zeigen: Die fünf Funktional Areas aus
dem Netzwerkwerk Management definierten Techniken, die in den
110
Nutzungsphase einer Immobile sehr gut anwendbar sind. Die fünf Areas:
Fault, Configuration, Accounting, Performance und Security Management
können in den drei Bereichen Technisches, Infrastrukturelles und
Kaufmännisches Gebäude Management viele Aufgaben übernehmen.
Gebäude Management deckt die Nutzungsphase, die kostenintensivste und
längste Phase des Facility Management, vollständig ab. Die praktische
Umsetzung im Hotelumfeld belegt die Anwendbarkeit der Ideen.
BetreuerIn: Ao.Univ.Prof. Dr. Jürgen Dorn
Abstrakt: Seit einigen Jahren wird der Begriff Kompetenz immer mehr zum
Schlagwort in der Wirtschafts- und Arbeitswelt. Von Kernkompetenz über
Fachkompetenz bis zur emotionalen Kompetenz reicht das Spektrum dieses
Ausdrucks. Meist ist nicht klar, was genau unter dem Begriff Kompetenz
verstanden wird, der je nach Hintergrund sehr unterschiedlich ausgelegt
werden kann und wird. Diese Arbeit beschäftigt sich mit der Analyse von
Kompetenzen im Bereich Software Engineering und Projektmanagement,
sowie der Messung von Kompetenzen und der Kompetenzentwicklung von
Studierenden während einer Lehrveranstaltung an der Technischen
Universität Wien. Zunächst wird der Stand der Forschung im Bereich
Kompetenzen genauer erörtert. Anschließend werden alle Kompetenzen
eines Software Engineering Projekts identifiziert und definiert. Mit den
ermittelten
Kompetenzen
wird
die
Ontologie
eines
Kompetenzmanagementsystems erweitert, welches an der Technischen Universität
Wien entwickelt wird. Außerdem wird damit eine Methode zur Messung von
Kompetenzen und der Kompetenzentwicklung von Studierenden für die
praktische Laborübung "Software Engineering und Projektmanagement"
entwickelt. Einerseits werden damit die Lehrveranstaltungsleiter und die
Tutoren bei der Bewertung der Studierenden unterstützt. Andererseits wird
den Studierenden bei der Rollenwahl und Zielsetzung eine Hilfestellung
dargeboten und sie erhalten eine Übersicht über ihre Kompetenzen und
deren Entwicklung durch die Lehrveranstaltung. Am Anfang der
Lehrveranstaltung wird die Ausprägung der einzelnen Kompetenzen, welche
durch die Lehrveranstaltung entwickelt werden können, erhoben. Am Ende
wird die Kompetenzentwicklung dieser Kompetenzen gemessen. Bei der
Evaluierung dieser Methode wurden die Kompetenzen und deren Entwicklung
bei Studierenden, die an der Lehrveranstaltung teilnahmen, unter
bestimmten Vorrausetzungen, gemessen. Schlussendlich wird beschrieben,
wie die Ergebnisse in das Kompetenzmanagementsystem einfließen können.
Marian Schedenig
Leveraging ESB and SEDA Technologies for Complex Event Correlation
Studium: Diplomstudium Informatik
BetreuerIn: Univ.Ass. Dr. Alexander Schatten
Abstrakt: Diese Arbeit fasst die Entstehung von Enterprise Application
Integration und Event-Verarbeitung zusammen und behandelt dabei
insbesondere den Enterprise Service Bus sowie das SEDA-Konzept, welche
in der Mule-Plattform umgesetzt sind. "Complex Event Processing" wird
beschrieben und bestehende Ansätze für "Complex Event Correlation"
werden vorgestellt, was zur Besprechung von Naiad führt, worin diese
Konzepte aufsetzend auf dem Mule-Framework implementiert wurden. Naiad
erlaubt es Entwicklern, die Beziehungen zwischen Eventtypen durch
deklarative Event-Korrelationen in Form von XML-Dateien zu beschreiben.
Jede beliebige Datenstruktur kann in das Framework übernommen und als
Event zur Korrelierung genützt werden. Nach der Korrelierung der Events
können Entwickler Naiads Correlation Sessions nutzen, um Daten, welche
für eine Gruppe von Events relevant sind, zu sammeln und speichern,
sodass die entsprechenden Aktionen ausgeführt werden können, sobald alle
nötigen Events eingetroffen sind. Eine einheitliche Schnittstelle löst den
Zugriff auf Event-Daten vom konkreten Format der Events und führt so zu
übersichtlicherem und leichter portierbarem Code. Folglich können sich
Applikationsentwickler auf die Businesslogik konzentrieren anstatt sich um
komplexe, asynchrone Techniken zur Zuordnung und Korrelierung
asynchroner, systemnaher Nachrichten zu sorgen. Das Framework wurde
modular angelegt, um höchstmögliche Flexibilität zu bieten. Alle Teile des
Systems können erweitert oder durch eigene Implementierungen ersetzt
werden, sodass das Framework an bestehende Systeme angepasst und
integriert werden kann. Mule als Basis bietet zusätzlich eine große Zahl an
Konnektoren für die Interaktion mit vielen etablierten Kommunikationsstandards.
Stefan Schnabl
Screen Recording – A Practical Guide With Case Studies
Studium: Masterstudium Informatikmanagement
BetreuerIn: O.Univ.Prof. Dr. A Min Tjoa
Kathrin Schimper
Analyse und Messung von Kompetenzen für Software Engineering und
Projektmanagement
Abstrakt: Der Bereich des eLearning braucht nicht noch mehr theoretischen
Unterbau; er braucht praktische Hilfe bei der Erstellung von Inhalten! In
diesem Sinne möchte diese Arbeit helfen, qualitativ hochwertigen eLearning
Inhalt zu erstellen. Die Arbeit stellt sich mit der Motivation vor, warum
Studium: Masterstudium Wirtschaftsinformatik
111
112
jemand einen Text wie diesen braucht und lesen sollte. Die Triebfeder ist
hierbei, dass es keinen ausreichenden Hintergrund für Screen Recording
gibt. Die folgenden Aspekte des eLearning geben ein fundamentales
Verständnis für die Bedeutung der eLearning Theorie im Bereich des Screen
Recording (SR). Dies ist von entscheidender Bedeutung für die weitere
Argumentation der Definition von SR. Durch die Definition von SR stellt die
Arbeit detaillierte Informationen zu SR und Screen Casts (SCs) bereit. Es
werden die unterschiedlichen SC Typen vorgestellt, wie auch eine Checkliste
für potentielle Alternativen zu SR. Die Argumentation endet in einer
detaillierten Beschreibung von SC Ausgabeformaten als physische
Repräsentation eines theoretischen SC Objektes. Das Enrichment von SCs
bildet
Motivation
um
den
SC
als
Element
innerhalb
einer
Strukturierungsmöglichkeit für höhere eLEarning Ebenen (z.B. Kurse) zu
sehen. Ausgestattet mit diesem Wissen kombiniert die Arbeit Theorie und
Praxis durch die Präsentation von SR Software. Zusammenfassend kann
über die präsentierte Theorie mit Hilfe der Case Studies reflektiert werden.
Diese präsentieren die gesamte Theorie in der praktischen Anwendung.
diesem Modell, aber keine dieser Entwicklungen besitzt eine klare
Vorgehensweise für das Evaluieren und Auswählen von Langzeitarchivierungsstrategien.
In
dieser
Arbeit
wurde
die
Plantes
Planungsmethode in Beziehung zum OAIS Modell gesetzt. Die
Informationsflüsse zwischen den einzelnen Schritten der Planungsmethode
und den Einheiten des OAIS Modells werden aufgezeigt. Ereignisse im
Umfeld eines Archives, die eine Planung von neuen Strategien oder die
Überprüfung von existierenden Strategien erfordern, werden in dieser Arbeit
aufgezeigt. Die notwendigen Planungsaktivitäten werden beschrieben und die
Auswirkungen von neuen oder veränderten Lösungsstrategien für digitale
Sammlungen werden anhand der Planungsmethode und des OAIS Modells
aufgezeigt. Das Konzept einer Wissenbasis zur Unterstützung der
Bewertung von Archivierungsstrategien wird präsentiert. Zudem wird
untersucht, inwiefern Audit und Zertifizeriungskriteren anhand von zwei
Katalogen (TRAC und Nestor) durch die Planets Planungsmethode
unterstützt werden.
Stephan Strodl
Digital Preservation - Preservation Planning in the OAIS Model
Robert Thullner
Implementing Enterprise Integration Patterns Using Open Source
Frameworks
Studium: Masterstudium Software Engineering und Internet Computing
BetreuerIn: Ao.Univ.Prof. Dr. Andreas Rauber
Studium: Masterstudium Software Engineering und Internet Computing
BetreuerIn: Ao.Univ.Prof. Dr. Stefan Biffl
Abstrakt: Wesentliche Teile unseres kulturelles Erbe wie auch wirtschaftlich
oder rechtliche wichtige Informationen liegen immer häufiger ausschließlich
in elektronischer Form vor. Auch abseits von Museen, Bibliotheken und
Archiven wächst die Zahl von Institutionen aus unterschiedlichen Bereichen,
die die Notwendigkeit erkennen, digitale Informationen langfristig zu
bewahren. Die rasante Entwicklung von Software und Hardware, vor allem
aber von Datenformaten gefährdet die langfristige Verwendbarkeit von
digitalen Objekten. Digitale Langzeitarchivierung ist in den letzten Jahren zu
einem aktiven Forschungsgebiet geworden, in dem Lösungsansätze für die
langfristige Archivierung von digitalen Informationen untersucht werden. Das
Hauptaugenmerk der Forschung für Langzeitarchivierungsstrategien liegt auf
Migration und Emulation von digitalen Objekten. Die Auswahl von geeigneten
Strategien und der verwendeten Werkzeuge für eine spezifische Sammlung
von Objekten ist ein komplexe Aufgabe, die von den spezifischen
Anforderungen einer Situation abhängig ist. Im Planets Projekt wurde eine
Planungsmethode entwickelt, mit der eine objektive, nachvollziehbare und
wiederholbare Bewertung von unterschiedlichen Strategien und Werkzeugen
für spezifischen Anforderungen durchgeführt werden kann. Das OAIS Modell
stellt ein Referenzmodell für ein Archivierungssystem dar, mit dem primären
Ziel, Informationen für eine ausgewiesene Zielgruppe für unbestimmte Zeit
zu erhalten. Im Bereich der digitaler Bibliotheken bildet das Modell ein
Standardreferenzmodell und wurde 2003 als ISO Standard 14721:2003
aufgenommen. Etliche Entwicklungen für Archivierungslösungen basieren auf
Abstrakt: Enterprise Application Integration (EAI) ist in vielen Unternehmen
ein Begriff. Verschiedene eingesetzte Computersysteme sollen ihre
Funktionalitäten mit anderen Systemen teilen damit neue Anforderungen
abgedeckt werden können. Eine Möglichkeit um eine Integration
durchzuführen ist der Austausch von Nachrichten zwischen Systemen. Wie
für viele Anwendungsgebiete in der IT Branche wurden auch für den Bereich
der Applikationsintegration durch Nachrichtenaustausch Patterns gefunden
und gesammelt. Patterns beschreiben eine allgemeine Lösung für
wiederkehrende Probleme. In der Open Source Landschaft wurden einige
Frameworks entwickelt die in den EAI Bereich fallen. In dieser Arbeit soll
herausgefunden werden, welche Arten von Patterns von Open Source
Frameworks unterstützt werden bzw. wie diese implementiert werden
können. Dazu werden vier Projekte genauer untersucht. Diese sind Apache
ActiveMQ, Apache Camel, Apache ServiceMix und Codehaus Mule. Die
Unterstützung der Frameworks wird einerseits durch theoretische
Durcharbeiten der Dokumentation und andererseits durch Implementierung
von Szenarien erfolgen. Durch die Implementierung soll auch
herausgefunden werden wie benützbar und entwicklerfreundlich die
verwendeten Frameworks sind oder welche Probleme durch deren
Verwendung auftreten können. Weiters werden auch verschiedene Teile von
EAI Lösungen betrachtet und untersucht welche Teile von welchen
Frameworks abgedeckt werden können. Zuletzt wird noch eine kurze
wirtschaftliche Betrachtung durchgeführt um herauszufinden ob es für
113
114
Unternehmen
vorteilhaft
ist
Open
Applikationsintegration zu verwenden.
Source
Frameworks
zur
Abstrakt: In der Intensivmedizin wird eine riesige Menge von Patientendaten
verarbeitet, um den Zustand der Patienten zu beurteilen und seine
Behandlung zu dokumentieren. Spezielle EDV System werden eingesetzt um
die Informationen über den Patienten optimal darzustellen und sein
Behandlung zu unterstützen. Patientendaten Management Systeme (PDMS)
dienen der bettseitigen Patientendokumentation und sind Grundlage für
therapeutische Entscheidungen. Zusätzliche Systeme sollen an den
Intensivstationen die Qualität der Patientenversorgung verbessern und
sichern, wobei die schwer überschaubare Informationsflut dabei aufbereitet
werden soll. Solche Systeme sollen möglichst optimal in die
Patientenversorgung integriert werden, ohne den Dokumentationsaufwand
zu erhöhen. Daher ist ein automatischer Datenaustausch mit dem
eingesetzten PDMS notwendig. Die definierten Informationen für solche
Anwendungen sollen aus der, an der neonatologischen Intensivstation (NICU)
vorhandenen, PDMS Datenbank generiert werden. Die Schwierigkeiten dabei
sind, unter anderem, notwendige Änderungen der medizinischen
Dokumentation
und
nachträgliche
Korrekturen,
beziehungsweise
Ergänzungen, von, für die Zusatzsysteme verwendeter, Patientendaten. Die
komplexen Abhängigkeiten, die bei der Integration solcher Anwendungen zur
Verbesserung der intensivmedizinischen Versorgung entstehen, werden
dargestellt und Lösungsmöglichkeiten aufgezeigt. Ein gut adaptierbares, an
mehreren Intensivstationen eingesetztes, Konzept zur Informationsaggregation wird vorgestellt und anhand verwirklichter Projekte evaluiert.
Das Einrichten von Kommunikationsschnittstellen zwischen den Applikationen
ist dabei unerlässlich um solch zentrale Informationsgewinnung aus der
routinemäßigen digitalen Krankengeschichte erfolgreich umzusetzen.
Lehrveranstaltung als online-Kurs sind folgende:- Ein online-Kurs stellt
interaktive Lernübungen für eine hohe Anzahl Studierender zur Verfügung,
die dadurch Themen durch praktische Erfahrung erarbeiten können.- Die
Beurteilung
kann
halbautomatisch
erfolgen,
wodurch
die
Lehrveranstaltungsleitung entlastet wird. Oft ist es hilfreich eine Thematik
dadurch verstehen zu lernen, indem man ein praktisches Problem des
Bereichs selbstständig löst und dabei gelerntes anwenden kann. Praktische
Beispiele führen Studierende Aspekte vor Augen, die bei einem rein
theoretischen Zugang vielleicht nicht aufgefallen wären. Im Zuge der
Bearbeitung einer solchen Aufgabe werden viele Fragen aufkommen, welche
zur Lösung selbstständig beantwortet werden müssen. Praktische Übungen
in Computerlabors benötigen umfangreiche Betreuung und technische
Infrastruktur. Ab einer gewissen Anzahl von Lehrveranstaltungsteilnehmern
kann eine solche Betreuung nicht mehr geboten werden. Daher wurde am
Institut für Softwaretechnik und Interaktive Systeme der Technischen
Universität Wien die Entscheidung getroffen, die Nutzung von interaktiven
online-Aufgaben für eine Lehrveranstaltung zum Thema Informationssicherheit in IT-Systemen zu evaluieren. Auf diese Art wird die technische
Infrastruktur (im Wesentlichen ein Computer) von jedem Studierenden selbst
zur Verfügung gestellt und man erhält ein System, welches mit der Zahl der
Teilnehmer
skaliert.
Zudem
wird
der
Betreuungsaufwand
der
Lehrveranstaltungsleitung durch die Möglichkeit einer halbautomatisierten
Beurteilung durch das System reduziert. Dies ermöglicht mehr Studierende
mit weniger Betreuern zu bedienen. Die vorliegende Arbeit stellt das
theoretische Fundament eines solchen Systems dar. Um den Studierenden
eine motivierende Lernerfahrung zu bieten, ohne dabei auf wichtige Themen
verzichten zu müssen, war es notwendig, den praktischen Teil der
betreffenden Lehrveranstaltung als online-Übungsaufgaben zur Verfügung zu
stellen. Diese Arbeit diskutiert methodische und technische Aspekte sowie
Fragen zur inhaltlichen Gestaltung der online-Aufgaben. Verschiedene
Zugänge zu Software-Architekturen eines solchen Systems werden
präsentiert und bewertet. Die einzelnen Übungsaufgaben zu verschiedenen
Themen der Informationssicherheit werden detailliert gezeigt, eine
Klassifikation von Übungstypen wird vorgenommen und ein Vorschlag zu
deren Gestaltung als online-Übung gemacht. Ein solches e-Learning System
wird im Rahmen der Arbeit entwickelt und evaluiert.
Christian Url
An Interactive e-Learning Approach for Information Security Related Content
Bernhard Wachter
Klassifizierung von Web-Dokumenten
Studium: Masterstudium Wirtschaftsinformatik
BetreuerIn: O.Univ.Prof. Dr. A Min Tjoa
Studium: Masterstudium Software Engineering und Internet Computing
BetreuerIn: Ao.Univ.Prof. Dr. Andreas Rauber
Abstrakt: Die Arbeit „An Interactive e-Learning Approach for Information
Security Related Content” präsentiert ein e-Learning Konzept im Kontext
einer Universitätslehrveranstaltung mit dem Thema Informationssicherheit in
IT-Systemen. Die zwei Hauptgründe für das Anbieten von Teilen der
Abstrakt: Bei der Web-Archivierung werden Web-Dokumente gesammelt
und dauerhaft abgelegt. Die entstehen Archive wachsen rasant und
enthalten auch sensitive Daten. Um Missbrauch vorzubeugen müssen
sensitive Daten identifiziert und gegen unbefugte Zugriffe gesichert werden.
Lukas Unterasinger
Ways to improve Quality Management at Neonatal Care Units
Studium: Diplomstudium Informatik
BetreuerIn: Ao.Univ.Prof. Dr. Silvia Miksch
115
116
Dadurch werden Anwendungsfälle denkbar in welchen auf Basis von
sensitiven Daten Auswertungen vorgenommen werden ohne dabei die Daten
selbst preis zugeben. Bei der Genre-Analyse werden Web-Dokumente
aufgrund ihrer Form sowie des Stils einer Seite unabhängig vom eigentlichen
Thema klassifiziert. Zielsetzung dieser Arbeit ist es, diese Methode
dahingehend zu erweitern, dass es einem Archivierungssystem von WebDokumenten möglich ist, private und öffentliche Elemente von WebDokumenten unterscheiden zu können. Bisherige Ansätze in diesem Bereich
agieren ausschließlich auf Dokumentenebene. Web-Dokumente enthalten
jedoch häufig mehrere unterschiedliche Genres. Diese Arbeit entwickelt
einen Ansatz zur Erkennung von zusammengehörenden Textsegmenten,
welcher Absätze und gegebenenfalls damit verbundene Genre-Übergänge
erkennt. Darauf aufbauend wird ein Ansatz für die Klassifizierung von
privaten und öffentlichen Elementen von Web-Dokumenten auf Dokumentenund Absatzebene vorgestellt.
semantische Dienste bereits mit den bestehenden Mitteln in Content
Management Systemen realisierbar sind.
Andreas Webley
Self-Adapting Corporation
Studium: Masterstudium Wirtschftsinformatik
BetreuerIn: O.Univ.Prof. Dr. A Min Tjoa
Abstrakt: Um in den immer komplexeren und hoch dynamischen Märkten
der globalisierten Weltwirtschaft zu bestehen müssen Unternehmen ständig
ihre Effizienz erhöhen und ihre Kosten senken. Um dieses Ziel zu erreichen
müssen die Unternehmen ihre Geschäftsprozesse genauestens unter
Kontrolle haben. Studien haben gezeigt, dass viele Unternehmen fürchten,
die bisher eingesetzten Geschäftsprozessmanagementsyteme könnten zu
inflexibel für die notwendige schnelle Veränderungen sein. Deshalb
präsentieren wir in dieser Arbeit ein Konzept für autonome
Geschäftsprozess-managementsyteme. Autonome Systeme können durch
minimierte Einflussnahme des Menschen schneller auf unerwartete
Ereignisse reagieren und erlauben daher ein erhöhtes Maß an Flexibilität und
Stabilität im vergleich zu herkömmlichen Systemen. Das vorgestellte Konzept
basiert auf der Kombination von anerkannten Geschäftsprozessmanagementansätzen und modernen autonomen Systemen. Dies würde es
eschäftsprozessmanagementsystemen
erlauben,
basierend
auf
vordefinierten Zielen und der Kenntnis des aktuellen Zustands ihrer Umwelt,
selbstständig zu agieren. Zusätzlich stellen wir ein Verfahren zur
Beschreibung von Geschäftsprozessen vor, dass Veränderung als
elementares Konzept einschließt und dem System erlaubt Abgabe
Diplomarbeiten Geschäftsprozessmodelle direkt zu verstehen und Prozesse
selbstständig zu kontrollieren. Wir werden in dieser Arbeit mit einem
Überblick über themenbezogene Arbeiten und den aktuelle Forschungsstand
beginnen. Danach werden wir auf die Idee des autonomen
Geschäftsprozessmanagements eingehen und schließlich unser Konzept
vorstellen.
Christoph Wastyn
Semantische Abfragen zur Dynamischen Inhaltserstellung
Studium: Masterstudium Medieninformatik
BetreuerIn: Univ.Ass. Dr. Monika Lanzenberger
Abstrakt: Die Organisation von Information durch sogenannte Content
Management Systeme gewinnt im Internet durch die große Zahl an Inhalten
zunehmend an Bedeutung. Durch eine Trennung von Inhalt und Layout
werden RedakteurInnen entlastet, da sich ein System um die technische
Umsetzung der Struktur einer Website kümmert. Während in den letzten
Jahren viele der technischen Entwicklungen des Internet in solchen
Systemen Einzug fanden, sind semantische Dienste in diesem
Zusammenhang noch weitgehend unbekannt. Nach dem Konzept des
semantischen Internet werden Begriffe miteinander in Beziehung gesetzt
und zu einem großen Wissensnetz zusammengefügt, innerhalb dessen
dezentral vorliegende Zusammenhänge erkannt werden können. Würde eine
Seite etwa Tokio als Hauptstadt deklarieren, und eine andere Quelle als
Stadt Japans, so würde sich daraus der Zusammenhang ableiten lassen,
dass Tokio die Hauptstadt Japans sei. Die semantische Vernetzung von
Content Management Systemen würde nicht nur den Zugriff dezentral
vorhandener Information ermöglichen, im Sinne des redaktionellen
Prozesses könnten diese Informationen auch verwendet werden, um
semantische Inhalte semiautomatisch, und damit wesentlich zeitsparender,
zu publizieren. Obwohl viele Arbeiten auf das große Potential semantischer
Vernetzung von Content Management Systemen verweisen, gibt es derzeit
nur wenige praktische Anwendungen, die den Einsatz dieser Technologie
ermöglichen. Im Rahmen dieser Arbeit wurde ein Modul für ein Content
Management entwickelt, das eine dynamische Inhaltserstellung durch
semantische Abfragen ermöglicht. Dadurch sollte gezeigt werden, dass
117
Hannes Weingartner
A mobile blogging solution
Studium: Masterstudium Medieninformatik
BetreuerIn: Univ.Prof. Dr. Hannes Werthner
Abstrakt: Mobilgeräte wie etwa Smart Phones sind für gewöhnlich
permanente Begleiter im Alltag. Sie bieten per se ein flexibles
Kommunikationsmedium in unserer Gesellschaft, wobei zahlreiche Dienste
118
die herkömmliche Sprachtelefonie ergänzen. Der Daten-Durchsatz und die
Anbindung an das mobile Internet durch Zellulare Netzwerke und Öffentliche
Hotspots steigt stetig an. Ubiquitäre Mobilität hat heutzutage eine hohe
Signifikanz für Geschäftsprozesse und Endverbraucher-Anwendungen. Die
Verarbeitung von dynamischen Umgebungs-Parametern, wie etwa die
geodätische Position eines Mobilgerätes, ermöglicht in diesem
Zusammenhang eine Vielzahl von benutzerbezogenen Diensten. Eine
Bereitstellung dieser Dienste über zeitliche und räumliche Grenzen hinweg
erlaubt zudem eine flexible Interaktion mit beliebigen Daten durch
Einbeziehung mehrerer Netzwerke. Die Diplomarbeit liefert anfänglich einen
technischen Wegweiser um den Eigenheiten von mobilen Plattformen,
drahtlosen Netzwerk-Infrastrukturen und Positionierungs-Techniken gewahr
zu werden. Das Ziel ist eine effiziente Ausnutzung von Operator- als auch
Internet- und Gerätebasierte Diensten auf wenig leistungsfähigen
Mobilgeräten. Zudem werden abschätzbare technologische Erweiterungen
für die Realisierung von Pervasive Computing in zukünftigen Anwendungen
diskutiert. In weiterer Folge werden technische Fragen bezüglich einer
Anwendungsarchitektur und einer Implementierung umrissen, welche auf
einem funktionalen Prototypen basieren. Der Prototyp realisiert eine Mobile
Blogging Anwendung. Die Anwendung representiert ein verteiltes Javabasiertes Software System, welches mobile als auch statische Komponenten
beinhaltet. Blogs werden auf Mobilgeräten erzeugt und bestehen aus einem
Foto, einer Nachricht, als auch aus Informationen zum Standort und Zeit
der Blog-Generierung. Zusätzliche Informationen wie etwa Höhenangaben,
logische Standortinformation, und zurückgelegte Distanzen sind zudem
einfach abrufbar. Diese geografisch ettiketierten Blogs sind für eine
nachfolgende Manipulation und Exploration auf dem Mobilgerät verfügbar.
Ein Blogging Dienst gibt dem mobilen Benutzer die Möglichkeit diese
benutzerzentrierten Blogs auf einen Anwendungsserver zu transferieren. Die
Blogs sind dadurch über eine web-basierte kartographische Schnittstelle
zugänglich. Der Zugriff auf erstellte und gepostete Blogs liegt in
vollkommener Kontrolle des Urhebers. Die Annotationen in einer virtuellen
Landkarte durch die zu den Blogs gehörigen Wegpunkte ermöglichen eine
aussagekräftige
Darstellung
über
bestimmte
Aktivitäten.
Die
Anwendungsfelder liegen demnach hauptsächlich im Tourismus-Sektor aber
auch in der Forschung, wo eine standortbezogene Dokumentation von
Artefakten als sinnvoll erscheint. Viele Frameworks und Tools sind für den
mobilen Anwendungsentwicklungs-Prozess verfügbar um die Standardfunktionalität auf mobile Plattformen zu erweitern. In der prototypischen
Implementierung führt die Bereitstellung eines solchen Frameworks zu einer
höheren Benutzerfreundlichkeit und zu einer verbesserten Code-Wartbarkeit
als auch Programmfehlerbeseitigung.
BetreuerIn: Ao.Univ.Prof. Dr. Gerald Futschek
Abstrakt: Das Raytracing-System POV-Ray wird als Alternative für den
Einstiegsunterricht zum Thema Programmieren vorgestellt. Dabei wird vor
allem die Fähigkeit von POV-Ray genutzt, Programmcode unmittelbar in
Form anschaulicher Bilder darstellen zu können. POV-Ray ist zudem
kostenlos und bietet einen einfach zu bedienenden Editor, mit dem unter
anderem auch C-Code, Java-Code und HTML-Code bearbeitet werden kann.
Dadurch ist diese Software für den Schulgebrauch besonders gut geeignet.
Die Arbeit stellt anhand leicht nachvollziehbarer Unterrichtslektionen alle
wichtigen Grundlagen des Programmierens vor (von dem Unterschied
zwischen Compiler und Interpreter über Variablen-Deklarationen bis zur
while-Schleife). Die Lektionen sind stark untereinander und mit anderen
Kapiteln des Informatikunterrichts sowie mit anderen Fächern verknüpft,
wodurch die Einprägsamkeit gesteigert wird. Beispielsweise ergeben sich
gute Verbindungen zum Mathematikunterricht: Neben Kegelschnitten
(Constructiv Solid Geometry) kann auch der Grundgedanke der
Integralrechnung vermittelt werden. Dazu wird z.B. ein Drehkegel aus
Zylinderscheiben aufgebaut. Während die Höhe der einzelnen Scheiben
gegen Null geht, wird die Summe der Zylindervolumina mit dem formelmäßig
berechneten
Kegelvolumen
verglichen,
um
die
Konvergenz
zu
demonstrieren. Dabei können sogar Ober- und Untersummen berücksichtigt
werden. Die Unterrichtsplanung wurde in zweiten Jahrgängen einer höheren
technischen Lehranstalt erprobt und mit 3 Fragebögen (vor dem
Programmieren, nach dem POV-Ray-Unterricht, nach dem Programmieren)
evaluiert. Die Fragebögen sind in der Arbeit enthalten und können für den
eigenen Unterricht verwendet werden. Die Ergebnisse der Evaluation wurden
in der Arbeit diskutiert und flossen in die letztlich vorgeschlagene
Unterrichtsplanung ein.
Arbeitbereich Interactive Media Systems
Marie-Theres Tschurlovits
Dynamic Differential Geometry in an Educational Augmented Reality
Application
Leo Willitsch
Programmieren für Anfänger mit dem Raytracing-System POV-Ray
Studium: Masterstudium Medieninformatik
BetreuerIn: Univ.Ass. Dr. Hannes Kaufmann
Studium: UF Informatik und Informatikmanagement
119
120
Abstrakt: In dieser Arbeit wird eine Reihe von Geometrie Software Paketen
präsentiert, die sowohl zu statischen als auch zu dynamischen
Konstruktionen führen. Anschließend wird Construct3D eingeführt, eine
Software zu Erstellung dynamischer 3D Konstruktionen, die auf dem
Augmented Reality System Studierstube basiert. Der größte Vorteil von
Construct3D gegenüber anderen dynamischen Geometrie Software Paketen
ist die Option mit Hilfe eines Head mounted displays die echte Umgebung
angereichert mit virtuellen Inhalten betrachten zu können. Das eröffnet den
Usern, vornehmlich Oberstufenschülern und Studenten, die Möglichkeit im
"richtigen"
dreidimensionalen
Raum
dreidimensionale
Objekte
zu
konstruieren, zu erforschen und in weiterer Folge damit zu interagieren. Der
praktische Teil dieser Arbeit umfasste die Implementierung einer Reihe von
neuen Funktionen für Construct3D. Es wurden einige Werkzeuge entwickelt
um das Verständnis des Begriffs der Krümmung von Kurven und Flächen zu
fördern. Um die bereits vorhandenen Sweep Funktionen zu ergänzen wurden
außerdem Schraub- und Schiebeflächen implementiert.
SmartQVT act as examples for an imperative language. More specifically,
SmartQVT implements the operational part of the Object Management
Group Query/View/Transformation (OMG QVT) standard. ModelMorf
implements the Relational QVT language and therefore represents a purely
declarative approach. For the purpose of conducting the evaluation, several
model transformation examples are defined and implemented using the
aforementioned languages. These examples cover model transformation
problems appearing in practice, in order to emphasize the advantages and
limitations of the particular language. In the second part of this thesis,
Kermeta is used to implement a library which solves common problems
appearing in model transformations. This library can then be used in
practical transformations for simplifying the development process. Finally,
the results of the evaluation are discussed, in order to propose guidelines
on which model transformation approaches are suitable for which problems.
Abraham Müller und Gerald Müller
Model Transformation By-Example: An Eclipse based Framework
Arbeitsbereich Business Informatics
Studium: Masterstudium Wirtschaftsinformatik
BetreuerIn: O.Univ.Prof. Dr. Gertrude Kappel
Philipp Huber
The Model Transformation Language Jungle - An Evaluation and Extension of
Existing Approaches
Abstrakt: Viele der momentan existierenden Ansätze sowie Sprachen zur
Modelltransformation sind metamodell-basiert. Sie setzen detaillierte
Kenntnisse der Metamodellebene und deren Syntax voraus. Meist wird die
Transformation durch ein vollständiges Regelwerk auf der Metaebene
bewerkstelligt. Dazu müssen dem Benutzer entweder die Konzepte dieser
Ebene bekannt sein, oder er vertraut auf eine eventuell vorhandene Lösung.
Einen neuen benutzerfreundlichen Ansatz dafür beschreibt Model
Transformation By-Example (MTBE). Der Benutzer arbeitet mit der ihm
vertrauten Syntax auf Instanzebene und kann dort Mappings zwischen
Elementen zweier verschiedener Modelle definieren, aus denen automatisch
Regeln generiert werden. Das Ergebnis der Analyse kann während der
Erstellung der Korrespondenzen laufend überprüft werden, sodass es
möglich ist, diese iterativ zu bearbeiten, um schlussendlich alle nötigen
Regeln abzuleiten. Des Weiteren erlaubt ein solches Framework das
Erweitern der Analyse und ermöglicht es somit, auf diesen Schritt direkt
Einfluss zu nehmen. In dieser Arbeit wird ein Framework für MTBE auf Basis
des Graphical Modeling Framework (GMF) umgesetzt. Die Implementierung
von MTBE wird in ein Eclipse Plug-in eingebettet. Mappings auf der
Modellebene können mit Hilfe eines automatisch generierten GMF-Editors
gezeichnet werden. Eine so genannte Analyzer Komponente soll dann diese
Mappings auswerten und daraus ein Weaving Modell beziehungsweise den
ATL Code generieren. Für den in dieser Arbeit vorgestellten Prototyp
wurden drei Analysealgorithmen entwickelt. Die Implementierung wurde so
umgesetzt, dass sie über eine integrierte Schnittstelle noch beliebig
erweiterbar ist. Zusätzlich zu diesem Prototyp wurden zwei GMF-Editoren für
die beiden Modellierungssprachen UML und ER entwickelt, welche als
Studium: Masterstudium Wirtschftsinformatik
BetreuerIn: O.Univ.Prof. Dr. Gertrude Kappel
Abstrakt: Model Transformations are a key prerequisite for Model Driven
Engineering (MDE) and therefore represent an active research area. Various
model transformation languages are available, whereas the languages can
be categorized into different approaches. Depending on the particular
situation, one model transformation approach might be better suited to
accomplish the given task than another approach. Classifications of model
transformation languages exist, which also include a taxonomy of general
features a model transformation language may support. Based on this
taxonomy, it is possible to compare model transformation approaches in
order to find out how suitable they are for a given problem. Like in common
object oriented-programming approaches, such as Java, there are some
particular problems which appear repeatedly. For example, it is often
necessary to transform an attribute value in the source model to an object
in the target model. For such cases, it should be considered to solve these
problems in a generic way for improving the reuse of model transformation
definitions. In this thesis, four model transformation languages, namely Atlas
Transformation Language (ATL), SmartQVT, Kermeta, and ModelMorf are
evaluated based on the taxonomy proposed by Czarnecki et al. These
languages are chosen, because they represent the state of the art
approaches for transforming models in the field of MDE. ATL is a hybrid
language mixing declarative and imperative constructs. Kermeta and
121
122
Beispielanwendung herangezogen werden, um Funktion, sowie entwickelte
Algorithmen anhand einer Transformation zwischen den Sprachen UML und
ER zu testen und auch zu präsentieren.
Christian Sokop
Softwareentwicklung mit UML und Eclipse
Studium: Masterstudium Software Engineering und Internet Computing
BetreuerIn: O.Univ.Prof. Dr. Gertrude Kappel
Christian Pichler
Constraint Checking using DB2 pureXML and DataPower - An Evaluation
based on the Healthcare Environment
Abstrakt: In der heutigen Zeit ändern sich Anforderungen an Anwendungen
laufend. Neben den Anforderungen haben sich natürlich auch die Hilfsmitteln
und Technologien weiterentwickelt. Moderne objektorientierte Sprachen, wie
z.B. UML und Java, werden den heutigen Ansprüchen gerecht. Zu einem
großen Teilgebiet der Softwareentwicklung zählen verteilte Systeme bzw.
Web-Anwendungen. Die objektorientierte Programmiersprache Java, oder
besser gesagt die Java Enterprise Edition, in Zusammenhang mit UML
eignet sich hervorragend solche Systeme zu entwickeln. Dieses Thema
wurde ausführlich in [Soko07] behandelt. Als weiteres Hilfsmittel wird
heutzutage in jedem Projekt eine Entwicklungsumgebung verwendet. Eine
sehr verbreitete und frei zugängliche Entwicklungsumgebung im Bereich der
Java Softwareentwicklung ist das Projekt „eclipse“ [Ecli08]. Der Vorteil
dieser Entwicklungsumgebung ist, dass sie durch ein ausgeprägtes
Pluginmanagement leicht erweiterbar ist. Diese Arbeit evaluiert Projekte
bzw. Plugins für die Entwicklungsumgebung „eclipse“, die UML 2.0
unterstützen und dadurch bei der Entwicklung behilflich sind. Weiters soll
diese Arbeit evaluieren, inwieweit die getesteten Plugins eine automatisierte
Codegenerierung
erlauben.
Dies
soll
anhand
einer
kleinen
Beispielanwendung demonstriert werden. Ein weiteres Ziel dieser Arbeit ist
es kostengünstige Alternativen zu den Entwicklungsumgebungen von IBM
(IBM Rational Application Developer [IBM08]) und Omondo (Eclipse Uml
[Omon08]) zu finden.
Studium: Masterstudium Medizinische Informatik
BetreuerIn: O.Univ.Prof. Dr. Gertrude Kappel
Abstrakt: In der heutigen Zeit stellt die Verfügbarkeit von Informationen
bezüglich der Krankengeschichte von Patienten eine wichtige Rolle dar. Um
die Verfügbarkeit zu gewährleisten, werden Patientendaten oft elektronisch
verarbeitet und in Form einer elektronischen Patientenakte gespeichert. Die
Informationen, als Teil einer Krankengeschichte, sind zum Beispiel Daten
eines Patienten, die während einer Anamnese festgestellt und anschließend
durch die Eingabe in ein Informationssystem gespeichert werden. Daten
bezüglich der Gesundheit eines Patienten können jedoch auch von Geräten
stammen, wie zum Beispiel einem Elektrokardiogramm (EKG). Dabei können,
unabhängig auf welche Weise die Information gesammelt wird, Fehler
auftreten. Ein Beispiel wäre ein Krankenpfleger, welcher sich während der
Dateneingabe irrt, oder fehlerhafte Messdaten eines EKG Gerätes. Um der
Speicherung und Verwendung fehlerhafter Information vorzubeugen, ist es
notwendig, Daten auf ihre Richtigkeit zu überprüfen. Geht man davon aus,
dass Patienteninformation in einem standardisierten und elektronischen
Format gespeichert wird, kann dieselbe Information mit Hilfe von
Informationstechnologie auf Validität überprüft werden. Aus diesem Grund
werden als Teil dieser Arbeit jene Bereiche im Gesundheitswesen
identifiziert, wo fehlerhafte Information entstehen kann. Basierend auf
diesen Bereichen werden verschiedene Technologien vorgestellt, die
verwendet werden können, um Regeln zu definieren welche wiederum auf
die Gesundheitsinformation angewendet werden. Der Vorteil darin liegt, dass
durch die Anwendung der Regeln das Erkennen von Fehlern in der
Information möglich ist. Um die Technologien zu demonstrieren und deren
Vor- und Nachteile zu identifizieren, wird ein Szenario definiert. Dieses
Szenario bildet die Grundlage, um drei verschiedene Lösungsansätze zu
realisieren. Anschließend werden die drei implementierten Ansätze anhand
bestimmter Charakteristika verglichen. Der Vergleich zeigt, dass nicht mit
allen verwendeten Technologien alle verschiedenen Problembereiche durch
Regeln abgedeckt werden können. Technologien, welche nicht dazu
verwendet werden können Regeln für alle Problembereiche zu definieren,
zeigen jedoch andere Vorteile, wie zum Beispiel der minimale Aufwand der
Implementierung. Abschließend, wird noch ein Ausblick gegeben, wie die
verwendeten Technologien nicht nur die Überprüfung von Daten, sondern
auch die Didaktik im Gesundheitswesen unterstützen können.
123
Ahu Zeynep Yücel
Metamodell-basierte Integration von Web-Modellierungssprachen
Studium: Diplomstudium Wirtschaftsinformatik
BetreuerIn: O.Univ.Prof. Dr. Gertrude Kappel
Abstrakt: Web-Anwendungen haben sich über die letzten Jahrzehnte stark
verändert. Die erste Generation zielte auf die einfache Bereitstellung von
Informationen mittels statischer Websites. Durch die zweite Generation
wurde eine neue Dimension eröffnet, wobei Web-Anwendungen nicht mehr
nur als Mittel zur Informationsdarstellung gesehen werden, sondern auch
vielfältige Dienste zur Verfügung stellen. Durch die daraus folgende
Erhöhung des Entwicklungsaufwands von Web-Anwendungen entsteht die
Notwendigkeit, die Entwicklung durch die Verwendung von modellbasierten
Entwicklungsmethoden und spezifischen Web-Modellierungssprachen zu
unterstützen. Die modellgetriebene Softwareentwicklung hat durch die
Model Driven Architecture Initiative (MDA) stark an Bedeutung gewonnen.
124
MDA zielt im Allgemeinen darauf ab, Modellierungssprachen aus
verschiedenen Bereichen zu standardisieren, um Interoperabilität zwischen
den verschiedenen Modellierungswerkzeugen zu schaffen. Jedoch wird MDA
zurzeit nur als eine Vision gesehen, da die notwendige Basis für die
Realisierung fehlt. Betroffen davon ist auch der Web Engineering Bereich,
da bestehende Web-Modellierungsmethoden im Sinne der MDA nicht
vollständig modellgetrieben sind. Es fehlen die entsprechenden Metamodelle
zu den Web-Modellierungssprachen und die Modelltransformationen, um
Modellaustausch
zwischen
den
Web-Modellierungswerkzeugen
zu
gewährleisten. Diese Arbeit versucht eine erste Lösung für das
Interoperabilitätsproblem
zwischen
den
verschiedenen
WebModellierungswerkzeugen umzusetzen. Ob eine verlustfreie Abbildung
zwischen eingesetzten Web-Modellierungssprachen entwickelt werden kann,
bildet die zentrale Forschungsfrage, die im Zuge dieser Arbeit beantwortet
wird. Um diese Forschungsfrage zu beantworten, wird folgende Methode
eingesetzt. Im ersten Teil der Arbeit werden die wesentlichen Eigenschaften
von Web-Modellierungssprachen erklärt und anhand der entsprechenden
Tools untersucht. Im zweiten Teil der Arbeit werden die Metamodelle für die
einzelnen Modellierungssprachen erstellt und anhand eines Fallbeispiels
detailliert untersucht. Im dritten Teil der Arbeit werden anhand des
modellierten Fallbeispiels Unterschiede und Gemeinsamkeiten der
Modellierungssprachen bestimmt. Der vierte Teil der Arbeit beschäftigt sich
mit der Erstellung der Modelltransformationen für die Realisierung des
Modellaustausches.
Zusätzlich
werden
die
zu
realisierenden
Modelltransformationen nach vordefinierten Kriterien wie Informationsverlust
und Realisierbarkeit bewertet.
Kernpunkte der Arbeit sind der Fragebogen, mit dem die benötigten
Sicherheitsmaßnahmen ermittelt werden, und die Sicherheitsmaßnahmen,
die an die Bedürfnisse von Klein- und Mittelbetrieben angepasst wurden. Der
Einstiegspunkt zur Ermittlung der benötigten IT – Sicherheit bildet der
Fragebogen in Kapitel 4. Je nach Einsatz von bestimmter Hardware –
Infrastruktur, wie Web – Server, Mail – Server etc., wird auf die jeweiligen
Sicherheitsmaßnahmen verwiesen. Weitere Fragen beziehen sich auf
Erhöhung der Sicherheit bzw. Erhöhung der Verfügbarkeit. Um die Fragen in
Kapitel 4 leichter zu beantworten, sind in Kapitel Grundlagen zur IT –
Security erklärt. Das Hauptkapitel Fünf ist unterteilt in 5 Unterkapitel. Das
erste
Unterkapitel
beschäftigt
sich
mit
den
grundlegenden
Sicherheitsmaßnahmen, die jedes Unternehmen zu erfüllen hat. Beispiele für
dieses Kapitel sind die Beschreibung von Passwortrichtlinien, Virenschutz
oder personelle Regelungen. Das 50 Maßnahmen umfassende zweite
Unterkapitel befasst sich mit Sicherheitsmaßnahmen im Bezug auf
Netzwerke, wie Protokollierung am Server, W LAN Sicherheitsstrategien
oder Sicherheitsmechanismen bei Web – Servern. In Unterkapitel 3 liegt der
Schwerpunkt bei Sicherheitsmaßnahmen für mobile Systeme, wie
Mobiltelefone, PDAs oder Laptops. Die Unterkapitel 4 und 5 beschäftigen
sich mit Maßnahmen zur Erhöhung der Sicherheit bzw. der Verfügbarkeit. In
jeder Maßnahme der fünf Unterkapitel sind ebenfalls passende Gefahren
aufgelistet. Zum Schluss der Arbeit befindet sich ein Glossar der, die
wichtigsten Begriffe in aller deutlichen Kürze erklärt.
Gernot Deischler
IT - Security Management für Klein- und Mittelbetriebe
Studium: Masterstudium Informatikmanagement
BetreuerIn: Univ.Doz. Dr. Ernst Piller
Keinem Arbeitsbereich zugeordnet
Nebojsa Babic
IT-Security Management für Klein- und Mittelbetriebe
Abstrakt: Diese Arbeit bietet eine fundierte Aufbereitung von IT Sicherheitsmaßnahmen, die auf Klein- und Mittelbetriebe bezogen sind. Die
IT – Sicherheitsmaßnahmen werden theoretisch aufgearbeitet und es wird
ein Instrument entwickelt, mit dem eine fundierte Sicherheitsanalyse
durchgeführt werden kann. Ausgangspunkt für die Sicherheitsanalyse des
Unternehmens ist ein Fragebogen, mit dem das Sicherheitsniveau des
Unternehmens bestimmt wird. Aufgrund der gewählten Antworten im
Fragebogen werden konkrete Sicherheitsmaßnahmen vorgeschlagen, die im
jeweiligen Betrieb umgesetzt werden sollten. Weiters ist dieses Werk zu
Trainingszwecken für Unternehmensverantwortliche einsetzbar, damit diese
gegenüber dem Thema IT – Security sensibilisiert werden.
Studium: Masterstudium Informatikmanagement
BetreuerIn: Univ.Doz. Dr. Ernst Piller
Abstrakt: Diese Arbeit bietet eine fundierte Aufbereitung von IT Sicherheitsmaßnahmen, die auf Klein- und Mittelbetriebe bezogen sind. Die
IT – Sicherheitsmaßnahmen werden theoretisch aufgearbeitet und es wird
ein Instrument entwickelt, mit dem eine fundierte Sicherheitsanalyse
durchgeführt werden kann. Ausgangspunkt für die Sicherheitsanalyse des
Unternehmens ist ein Fragebogen, mit dem das Sicherheitsniveau des
Unternehmens bestimmt wird. Aufgrund der gewählten Antworten im
Fragebogen werden konkrete Sicherheitsmaßnahmen vorgeschlagen, die im
jeweiligen Betrieb umgesetzt werden sollten. Weiters ist dieses Werk zu
Trainingszwecken für Unternehmensverantwortliche einsetzbar, damit diese
gegenüber dem Thema IT – Security sensibilisiert werden. Die beiden
125
Emanuel Höfenstock
Moderne Kryptografie
Studium: Masterstudium Informatikmanagement
126
BetreuerIn: Univ.Doz. Dr. Ernst Piller
Markus Winkler
Didaktische Unterlagen für Hardwaretoken Betriebssysteme mit spezieller
Berücksichtigung der Datenverwaltung
Abstrakt: In dieser Magisterarbeit soll ein Überblick über moderne
kryptografische Anwendungen gegeben werden. Dabei war das Hauptziel,
dass dem Leser ein Einblick in aktuelle Verfahren gegeben und deren
praktische Relevanz gezeigt wird. Die Arbeit selbst gliedert sich in zwei
große Hauptkapitel. Im ersten Kapitel wird auf elektronisches Geld
eingegangen. Dieses Thema hat eine große aktuelle Relevanz, da die Anzahl
von Bezahlvorgängen über das Internet ständig steigt. Dabei wurde zuerst
eine Einführung in die Thematik gegeben, um dem Leser wichtige
Informationen, die für die spätere Ausführung der kryptografischen
Verfahren notwendig sind, gegeben. Dazu zählen die Eigenschaften und die
Grundkonzepte elektronischer Zahlungsmittel. Nach diesem theoretischen
Teil wendet sich dieses Kapitel der Praxis zu. Das Hauptaugenmerk in
diesem Abschnitt liegt auf dem Verfahren ECash von David Chaum. Das
zweite Hauptkapitel befasst sich mit dem höchstaktuellen Thema der
maschinenlesbaren Reisedokumente. Dazu zählt auch der neue Reisepass,
der im Moment in Österreich in der 1.Ausbaustufe ausgegeben wird. Für die
Zukunft wurde bereits die Einführung der 2.Ausbaustufe beschlossen. Bei
dieser werden bio-metrische Daten auf dem Chip des Reisepasses
gespeichert. Da es sich bei diesen Daten um hochsensible und
personenbezogene handelt, müssen diese auch besonders gegen
Missbrauch
geschützt
werden.
Dazu
wurde
eine
erweiterte
Inspektionsprozedur definiert, die sich „Extended Access Control“ (EAC)
nennt. Mit Hilfe der EAC kann der Aussteller des Reisepasses bestimmen,
wer Zugriff auf die biometrischen Daten erhält. Realisiert wird dies durch die
Vergabe
von
entsprechenden
Zertifikaten
an
die
einzelnen
Inspektionssysteme.
Studium: Masterstudium Informatikmanagement
BetreuerIn: Univ.Doz. Dr. Ernst Piller
Abstrakt: In dieser Arbeit wird versucht, eine einfache, fürs Selbsstudium
geeignete Einführung in das doch recht komplexe Gebiet der
Betriebssysteme für Hardware Token, im besonderen Chipkarten, zu geben.
Des weiteren werden im Anhang Folien bereitgestellt, wie sie in einer
Vorlesung mit begleitender Übung verwendet werden können. Zuerst wird
die Entwicklung und Geschichte der Chipkarten dargestellt. Danach wird ein
Einblick in den Aufbau einer Chipkarte gegeben und erläutert, wie ein
Betriebssystem für Chipkarten nach ISO-Norm aufgebaut werden sollte.
Aufgrund der Tatsache dass Normen eine sehr wichtige Rolle in der
Entwicklung von Betriebssystemen für Chipkarten spielen, da Chipkarten
überall auf der Welt an kompatiblen Geräten (z.B.: Geldautomaten) gelesen
werden sollten, beschreibt ein Kapitel die wesentlichen Normen. Bei der
Beschreibung zum Aufbau eines Chipkartenbetriebssystems wird im
speziellen auf die Dateiverwaltung eingegangen, welche eine wichtige Rolle
spielt. Hierzu wird die Dateiverwaltung von Chipkarten mit der sehr
bekannten doch recht differierenden Dateiverwaltung von PC Betriebssystem
verglichen.
Andreas Perner
Dual Voting System
Studium: Masterstudium Wirtschaftsingenieurwesen Informatik
BetreuerIn: Univ.Doz. Dr. Ernst Piller
Abstrakt: Ziel dieser Arbeit ist es, eine praxisnahe Implementierung des
Dining Cryptographers Protocol zu erarbeiten. Das Dining Cryptographers
Protocol bietet in seiner ursprünglichen Version einer Person eines
Personenkreises, die Möglichkeit auf eine Entscheidungsfrage anonym mit
„Ja“ zu antworten. In der Praxis gibt es vielfach Anwendungsfälle in denen
eine Befragung von Personen anonym durchgeführt werden soll. In dieser
Arbeit werden Lösungsansätze aufgezeigt, wie praxisnahe Umsetzung
basierend auf dem Dining Cryptographers Protocol erreicht werden können.
Die erarbeitete Lösung wird im Laufe dieser Diplomarbeit umgesetzt und ein
fertig implementiertes Open-Source-Projekt erstellt.
127
128
control system, automated system or self-learning system. Testing is a
highly cost consuming yet unavoidable activity. Therefore to reduce cost of
production, company will use methods like simulation to test their product.
There are so many simulation softwares in the market which offers different
abilities and advantages. The various choices has makes it even more
difficult for end-users (company) to choose which one is more suitable and
useful for the company. On this thesis Three “comparison problem” based
on electrotechnic will be compared each other by using four simulations
software (Matlab/Simulink, Dymola, Mosilab and SimulationX), with different
approaches to model of the system. The method used for this research is a
literature study to have a deeper understanding about the behaviour and
algorithm of the code from 4 different simulation softwares, the design
model of three comparison problems and simulates these models to find the
most suitable plot result. After a thorough research of these three
comparison problems, conclusion can be made as follow: - Matlab is the
only simulation software which able to simulate all calculation of matrix.Stateflow, stategraph and statechart which can only model the equation with
switching state, the harder the equation is, the longer time required to
simulate the equation. Dymola has the most variation type of modelling that
needed in this thesis, the fastest time simulation is by dymola electrical
model to simulate task d in comparison 3 = 0,015s, - SimulationX took the
longest time in simulating task diode C in comparison 20 = 1307,6718s,
Type of designer block in simulationX is very useful feature for expert user in
defining their code in new element type - Below are the simulation timing
ranking from fastest to slowest type of modelling: a. Textual mode, b.
Electrical model, c. Hybrid model, d. Stateflow/stategraph/statechart
model
ZENTRUM FÜR INFORMATIONS- UND
FACILITYMANAGEMENT
Markus Habicher
Implementation eines hoch verfügbaren SAP Gateways
Studium: Diplomstudium Informatik
BetreuerIn: Ao.Univ.Prof. Dr. Alexander Redlein
Abstrakt: In der vorliegenden Arbeit soll ein detailliertes Konzept für ein
Computersystem erstellt werden, das den Zugang diverser Institutionen zu
einem ERP System ermöglicht und landläufig als so genanntes 'Internet
Gateway' bezeichnet werden kann. Dieses System übernimmt die Aufgabe
eines zentralen Zugangsknotenpunktes, der im speziellen Anwendungsfall ein
Netzwerk aus SAP Applikationsservern gegen unerwünschte Zugriffe aus
dem Internet absichert und deren betriebswirtschaftliche Funktionen nur
einem eindeutig definierten Benutzerkreis aus vielen verschiedenen
Institutionen zur Verfügung stellt. Bedingt durch die wichtige Rolle als
Vermittlungsstelle für die Verbindungen einer Vielzahl autorisierter Nutzer zu
einer Reihe unterschiedlicher Anwendungen ist der reibungslose Betrieb
dieses Systems von höchster Bedeutung. Nach sorgfältiger Analyse der
konkreten Anforderungen, entsprechender Literaturrecherche sowie der
Evaluation möglicher Lösungsvarianten wurde das in dieser Arbeit
behandelte Konzept umgesetzt, bei dem eine größtmögliche Ausfallsicherheit
durch die Redundanz der eingesetzten Komponenten erreicht wird. Zu
diesem Zweck werden zwei identische, von einander physisch unabhängige
Systeme betrieben, die ihr korrektes Arbeiten ständig gegenseitig prüfen. Im
Fehlerfall des primären aktiven Gateways übernimmt der zweite Rechner
innerhalb kürzester Zeit dessen Aufgaben und stellt so einen nahezu
unterbrechungsfreien Zugang zu den SAP Anwendungen sicher.
Gernot Kurz
Heart rate variability analysis of PICSO data
Studium: Masterstudium Medizinische Informatik
BetreuerIn: Ao.Univ.Prof. Dr. Frank Rattay
INSTITUT FÜR ANALYSIS UND SCIENTIFIC
Abstrakt: PICSO (Pressure Controlled Intermittend Coronary Sinus Occlusion)
stellt eine nicht-medikamentöse Behandlungsart für Herzinfarktpatienten
dar. Es handelt sich hierbei um eine Form der Kathetertherapie, die bei
einem akuten Myocardinfarkt bzw. während einer Bypassoperation
eingesetzt werden kann. Bei diesem Verfahren wird ein Ballonkatheter im
Koronarsinus platziert und periodisch inflatiert. Daraus resultiert eine
pulsartige Blutrückstauung in das Ischämiegebiet des Herzmuskels. Dessen
Nährstoffversorgung erfolgt somit retrograd über das venöse System. Die
Infarktgröße wird deutlich reduziert, die bei einem Herzinfarkt entstehenden
toxischen Stoffe, welche für den Zelluntergang verantwortlich sind, werden
ausgeschwemmt. Diese Anwendung wurde im Rahmen von Tierversuchen
an Hand von Schweinen im AKH Wien getestet. Nachdem bei den
Versuchstieren ein 15-minütiger Infarkt ausgelöst worden war, erfolgte die
COMPUTING
Gemma Ferdinand Kaunang
Benchmarks for Mechatronic Models
Studium: Masterstudium Technische Informatik
BetreuerIn: Ao.Univ.Prof. Dr. Felix Breitenecker
Abstrakt: Before a new product is launched to the market, a company have
to test the product and make sure that the product is ready and
presentable, especially if the product is a problem solving system, such as
129
130
2 ¾-stündige PICSO-Anwendung mit anschließender 60-minütiger
Reperfusionsphase. Diese Diplomarbeit beschäftigt sich mit den
Auswertungen der Signale, die während des Versuchs aufgezeichnet
wurden. Es handelt sich dabei u.a. um den wichtigen Druckkurvenverlauf im
Koronarsinus. So ein CSP-Zyklus besteht aus einer Inflations- und einer
Deflationsphase. D.h., der Ballon wird im Gefäß zuerst aufgeblasen und
danach wieder entleert. Für die Bestimmung der Herzratenvariabilität (HRV)
ist eine Auswertung des EKG Signals erforderlich. Im Rahmen dieser
Signalauswertungen soll geklärt werden, inwiefern sich die HRV in den
einzelnen Phasen während der Intervention mit PICSO bzw. während der
Inflations- und Deflationsphase ändert. Datenauswertungen ergaben zu
Beginn der Inflationsphase eine mehr als doppelt so große
Standardabweichung vom Mittelwert als gegen Ende der Inflationsphase. Da
die Infarktgröße während des Tierversuchs nicht permanent messbar ist,
erfolgt die Bestimmung der Infarktgröße mit Hilfe digitaler Bildaufnahmen
vom entnommenen Herzen nach dem Tierversuch.
einer allgemeinen biologischen Einführung, findet man in der vorliegenden
Arbeit ein umfangreiches Kapitel über NEURON, sowie vergleichbare
Simulationsumgebungen.
Auch
der
plattformunabhängigen
XMLModellbeschreibungssprache NeuroML ist ein Kapitel gewidmet. Die
ausführliche
Schilderung
der
Evaluierung
inkl.
Erläuterung
der
Verbesserungsvorschläge sowie ein Ausblick schließen diese Arbeit ab.
Emine Yaman
Telemedizin und mögliche Anwendungsgebiete
Studium: Masterstudium Medizinische Informatik
BetreuerIn: Ao.Univ.Prof. Dr. Frank Rattay
Abstrakt: In unserer heutigen Zeit ist es durch Übermittelungssysteme
möglich jede Art von Daten zur Verfügung zu stellen und sie miteinander zu
teilen. Während die Kommunikationstechnologien immer weiter entwickelt
werden, werden auch die Anwendungsfelder dieser Technologien von Tag zu
Tag immer breiter und unterschiedlicher. Internet ist ohne Zweifel das
wichtigste Umfeld im Kommunikationsbereich. Der schnelle und erleichterte
Zugang zu Informationen durch das Internet und die gesteigerte
Datensicherheit im Internet brachten Begriffe wie Telebank, Telerecht,
Teleuniversität zutage. Es sind viele Forschungen in der Telemedizin
(Telemedicine) im Bereich der Behandlung über Entfernungen hinweg,
Patientenbeobachtung oder dem Zuganz zu medizinischen Daten in Gange.
Voralle. in Amerika und in Europa sind auf diesem Gebiet umfangreiche
Projekte am Laufen und es werden grosse Investitionen getätigt. Der
Grundsatz der Telemedizin beruht darauf trotz vorhandener Entfernung
zwischen Patient und medizinischer Fachkraft, mit der Hilfe von
elektronischen Informationrn und Kommunikationstechnologien eine
medizinische Versorgung zu ermöglichen. Telemedizin wird als die
Übermittelung von biomedizinischen und pysiologischen Daten von Personen
die sich an einem entfernenten oder entlegenen Ort befinden, wie zum
Beispiel sich im All befindliche Astronauten, Schiffspersonal auf hoher See
oder Leuten in Gebieten wo es keine medizinischen Fachkräfte gibt, zum
Zweck der wirkungsvollen Entscheidungsfindung an medizinische Zentren
beschrieben. Bei telemedizinischen Systemen sind der Patient und die
medizinische Fachkraft pysisch voneinander entfernt, sogar eine
kontinentenübergreifende Situation und Kommunikation ist möglich. Durch
die Fähigkeit des Internets jede Art von Daten, seien es jetzt Ton oder
Bilddaten, zu übermitteln ist die medizinische Fachkraft in der Lage seinen
Patienten auch ohne körperlich in seiner Nähe zu sein zu untersuchen, eine
Diagnose abzuleiten und den Patienten zu behandeln. Im Laufe dieser
Masterarbeit werden Information über Telemedizin übermittelt, es wird auf
die Entwicklung, die Anwendungsfelder, den Standarten und den
Kommunikationsmethoden der Telemedizin eingegangen.
Heiko Reitner
Der Einsatz von Computersimulationssoftware für Nervenzellenstimulation zu
Lehrzwecken
Studium: Masterstudium Medizinische Informatik
BetreuerIn: Ao.Univ.Prof. Dr. Frank Rattay
Abstrakt: Mit dem rasanten Anstieg an Rechenleistung und dem hohen
Preisverfall bei leistungsfähigen Computern, hat die Computersimulation –
die ja im Großen und Ganzen aus der rechenintensiven Lösung von
Differentialgleichungen besteht – auch auf handelsüblichen Computern
Einzug gehalten. Dies führte auch dazu, dass die Simulation von
Nervenzellen einen Aufschwung erlebt hat. Simulationsumgebungen wie
NEURON, GENESIS oder NEST ermöglichen heute die brauchbare Simulation
von einer einzigen Nervenzelle bis zu ganzen Nervensystemen auf einem
einzelnen Computer. Im Zuge dieser Arbeit kam die Idee, das
Simulationstool NEURON auf seine Brauchbarkeit für Unterrichtszwecke zu
evaluieren. Es sollte den theoretischen Lehrstoff über Nerven anschaulich
illustrieren und das Zusammenspiel der Neuronen demonstrieren. Zu
diesem Zweck wurde mit einigen Schülern eines Oberstufengymnasiums
sowie mit einigen Studenten der Biologie bzw. Medizin die
Simulationsumgebung getestet. Nach einer eingehenden Evaluationsphase
schilderten die Schüler bzw. Studenten ihre Erfahrungen und Eindrücke mit
dem Simulationstool. Gemeinsam wurden anschließend Schwierigkeiten bei
der Benutzung aufgezeigt. Die Nutzung des Simulationstools stellte sich
gemeinhin als sinnvoll und hilfreich zum besseren Verständnis des
Unterrichtsstoffs heraus. Auf Grund dessen wurden gemeinsam mit den
Schülern und Studenten, anhand der getätigten Erfahrungen und dabei
auftretenden Schwierigkeiten, Verbesserungsvorschläge für die künftige,
noch bessere und einfachere Benutzung von NEURON, erarbeitet. Neben
131
132
erklärt werden können. Wir geben einen Überblick über die Entwicklung
diverser Maße für die Lohnungleichheit. Wir widmen uns speziell dem
Anstieg der College-Prämie und der residualen Lohnungleichheit, i.e. der
nicht durch direkt beobachtbare Charakteristika der Arbeitsanbieter
erklärbaren Lohnungleichheit. Anschließend setzen wir uns mit der Frage
auseinander, ob der internationale Handel oder der technologische
Fortschritt die wesentliche Triebfeder des Anstiegs der diversen
Lohnungleichheiten gewesen ist, und beschreiben in diesem Zusammenhang
diverse empirische Untersuchungen. Wir legen dar, welche empirischen
Entwicklungen im Einklang bzw. im Widerspruch mit der Hypothese des
technologischen Fortschritts stehen. Der verbleibende Teil der Arbeit
widmet sich der Besprechung zweier endogener Wachstumsmodelle, in
denen der technologische Fortschritt die Lohnungleichheiten verursacht. Im
Speziellen zeigen wir, dass eine getrennte Betrachtung von technologischem
Fortschritt und internationalem Handel, wie in der empirischen Literatur
üblich, irreführend sein kann.
INSTITUT FÜR WIRTSCHAFTSMATHEMATIK
Jürgen Baumgartner
Entwicklung und Bedeutung des Nash-Gleichgewichts
Studium: Diplomstudium Wirtschaftsinformatik
BetreuerIn: Ao.Univ.Prof. Dr. Gerhard Hanappi
Abstrakt: Die Spieltheorie entwickelte sich von einer mathematisierten
Disziplin zu einer mathematischen Disziplin. Eine der wichtigsten
Hauptentwicklungen der Spieltheorie ist das Buch ?Theory of Games and
Economic Behavior? von Neumann und Morgenstern. Dieses Buch ist die
allererste Monographie über die Spieltheorie und weckte das Interesse an
der Spieltheorie von John Nash. Die Anwendung der Spieltheorie betrifft
Konfliktsituationen des menschlichen Daseins. Diese Konfliktsituationen
werden als Spiel bezeichnet. Somit befaßt sich die Spieltheorie mit
interaktiven Entscheidungssituationen, in denen die Ergebnisse der Akteure
auch vom Verhalten der anderen abhängen. Jeder Akteur besitzt
Handlungsalternativen (Strategien), die er zum Erreichen seiner Ziele
benötigt. Um optimale Strategien der Spieler und Ergebnisse eines Spiels
ermitteln zu können werden Lösungskonzepte verwendet. Eines der
bekanntesten und bedeutendsten Lösungskonzepte der Spieltheorie stellt
das Nash-Gleichgewicht dar. Die Definition des Nash-Gleichgewichts geht auf
den Mathematiker John Forbes Nash Jr. zurück. Es beschreibt einen
Zustand, indem kein Akteur von seiner Strategie abweicht, da sie die beste
Antwort auf die Strategien der anderen Akteure ist und man kann, durch
eine einseitige Abweichung, keinen Vorteil erzielen. Das Nash-Gleichgewicht
wird auch strategisches Gleichgewicht genannt. Es existieren einige
Praxisbeispiele des Nash-Gleichgewichts und eines der bekanntesten und
berühmtesten Beispiele ist das Gefangendilemma. Das Gefangenendilemma
ist ein Zwei-Personen-Nullsummenspiel und zeigt auf, daß rationale
Entscheidungen zu kollektiv schlechteren Ergebnissen führen können. Da
Spiele in ihrer Art und in ihren Erwartungen sehr unterschiedlich sein
können, ergeben sich somit interessante Fragestellungen: Wie findet man
ein Nash-Gleichgewicht? Besitzt jedes Spiel ein Nash-Gleichgewicht? Gibt es
ein oder mehrere Nash-Gleichgewichte? Ist es die optimale Lösung des
Spiels?
Johannes Langthaler
Der Stabilitäts- und Wachstumspakt und seine Schwächen: Ein Modell einer
unabhängigen Regulierungsbehörde als geeigneter institutioneller Ansatz für
eine gemeinsame Wirtschafts- und Währungsunion
Studium: Masterstudium Wirtschaftsinformatik
BetreuerIn: Ao.Univ.Prof. Dr. Gerhard Hanappi
Abstrakt: Im ersten Teil wird der Stabilitäts- und Wachstumspakt der
Europäischen Wirtschafts- und Währungsunion in seiner Funktion und
Arbeitsweise näher erläutert und in seinem rechtlichen Wesen dargestellt.
Anhand seiner Entstehungs- und Entwicklungsgeschichte bis zur grossen
Reform im Jahr 2005 werden die Schwachpunkte des Paktes
herausgefiltert und sein Scheitern analysiert. Die Vielzahl der Vorschläge zu
einer Reform des Paktes zeigt, dass nach wie vor kein Konsens darüber
herrscht, welche Rolle Fiskalpolitik als (staatliches) Steuerungsinstrument
der öffentlichen Ausgaben überhaupt einnehmen soll und welche
ökonomischen Auswirkungen einer solchen zu erwarten sind. Einer dieser
vielen Ansätze ist das Modell einer unabhängigen Regulierungsbehörde,
unter anderem auch gefordert Ökonom Charles Wyplosz, dessen Ansatz für
eine Regulierungsbehörde auf dem Zeitinkonsistenzenproblem von Kydland
und Prescott (Nobelpreis für Wirtschaftswissenschaften 2004) basiert und
eine Erklärung für das Auftreten eines deficit bias, also einer Abweichung
vom ausgeglichenen Budget, liefert. Die optimale Fiskalpolitik wird anhand
Parallelen zu einer (funktionierenden) gemeinsamen Geldpolitik der
Europäischen Union definiert. Einige wesentliche relevante Aspekte und
Konzepte der Theorie werden im zweiten Teil dieser Arbeit vorgestellt,
diskutiert und miteinander verglichen. Der dritte Teil der Arbeit führt das
Modell von Wyplosz und Krogstrup aus, die die Wirkung verschiedener
institutioneller Ansätze anhand eines Modells mit einer inter-temporalen
Christian Krestel
Lohnungleichheit, technologischer Fortschritt und internationaler Handel Theorie und Empirie für die jüngste US-amerikanische Entwicklung
Studium: Diplomstudium Wirtschaftsinformatik
BetreuerIn: Ao.Univ.Prof. Dr. Franz Hof
Abstrakt: In dieser Arbeit untersuchen wir die Frage, wie die extremen
Lohnentwicklungen in den USA in der zweiten Hälfte des 20. Jahrhunderts
133
134
Budgetrestriktion, basierend Zeitinkonsistenzenproblem, vergleichen. Das
Modell wird dabei einer kritischen Analyse unterzogen, ob es den im zweiten
Teil der Arbeit erläuterten theoretischen Grundkonzepten gerecht wird, und
wo die Vorteile, aber auch die Schwächen des in dieser Arbeit vorgestellten
Modells der unabhaängigen Regulierungsbehoörde, aber auch anderer
institutioneller Vorschlaäge für die Regelung der Fiskalpolitik, liegen.
Patrick Öhlinger
An n-Sector Migration Simulation
Studium: Masterstudium Wirtschaftsinformatik
BetreuerIn: Ao.Univ.Prof. Dr. Gerhard Hanappi
Abstrakt: Workers, considering costs of migration, tend to migrate to
sectors where they expect higher wages. In revers, firms trying to increase
profits, migrate to sectors with lower wages. The result of their combined
movement will determine wages in each sector. This inductive behavior
model with various strategies for wage expectations yields patterns of
migration in an n-sectors scenario. Starting with a note on migration, this
work analyses three influential papers on migration and one on firm
development. It concludes with an agent based n-Sector Migration
Simulation encapsulating ideas, concepts and approaches of stated papers.
Christoph Meller
Ein Simulationsmodell der Finanzströme der Stadt Wien - Im Kontext der
europäischen Richtlinien
Studium: Diplomstudium Wirtschaftsinformatik
BetreuerIn: Ao.Univ.Prof. Dr. Gerhard Hanappi
Abstrakt: Seit der Gründung der Europäischen Union (EU) und der damit
einhergehenden Verwirklichung einer gemeinsamen Wirtschafts- und
Währungspolitik war und ist das Budget in Österreich, wie auch in den
meistens anderen europäischen Ländern, verstärkt auf Konsolidierung
ausgerichtet. Österreich, als eines von 11 Ländern die seit Beginn der
EWWU im Jahr 1990 Mitglied sind, hat sich verpflichtet einen
ausgeglichenen beziehungsweise im Überschuss befindlichen Staatshaushalt
anzustreben und zu verwirklichen. Mein Ziel ist es, dem Leser im Zuge
dieser Arbeit einen Einblick in die Finanzgebarung Österreichs zu verschaffen
und dabei essentielle Themengebiete abzuhandeln um das grundsätzliche
Verständnis zu fördern. Den Anfang bildet ein Kapitel über den
„europäischen Stabilitäts- und Wachstumspakt“ das dem Leser Basiswissen
über die vorhandenen Rahmenbedingungen und Entwicklungen bezüglich
zukünftiger fiskalischer Ziele vermitteln soll. Das darauf folgende Kapitel
beschäftigt sich mit der in Österreich vorherrschenden Ausgaben- und
Einnahmenstruktur, wobei die zu erfüllenden Aufgabenbereiche des Staates
und die dafür zur Verfügung stehenden notwendigen Einnahmequellen
genauer analysiert werden. Das Hauptaugenmerk wird dabei auf die
verschiedenen Steuern bzw. Abgabenarten gerichtet. Aufgrund der, im
Vergleich mit anderen föderativen Staaten, geringen Selbstfinanzierung der
Bundesländer kommt dem Finanzausgleich in Österreich eine besondere
Bedeutung zu. Ein weiteres Kapitel wird dazu verwendet einen
verständlichen Überblick über dieses durchaus komplexe Thema zu schaffen.
Da der Inhalt der Diplomarbeit eingangs über die europäische Ebene führt
und anschließend auf der Bundesebene fortgesetzt wird, soll die im letzten
Kapitel dargestellte Entwicklung der Finanzgebarung der Stadt Wien einen
konkretisierten Abschluss bilden.
135
Bin Wang
Innovation, Growth, and Finance in Large Urban Agglomerations
Studium: Masterstudium Wirtschftsinformatik
BetreuerIn: Ao.Univ.Prof. Dr. Gerhard Hanappi
Abstrakt: Das rapide Wachstum von Städten auf der ganzen Welt animierte
die Entwicklung von Stadttheorien schon seit den Anfängen der achtziger
Jahre. Die Theorie der Stadtpolitik besagt, dass politische Maßnahmen wie
Preiskontrollen, Subventionen und andere, das Wachstum einer Stadt
indirekt beeinflussen kann. Desweiteren begünstigen Information- und
Wissensüberfluss die Urbanisierung und daher auch das wirtschaftliche
Wachstum. In dieser Arbeit wird verstärkt Chinas Folgen aufgrund deren
Urbanisierung behandelt, wobei Shanghai als Fallbeispiel gewählt wurde. Am
Ende der Arbeit konnte gezeigt werden, dass,
in Hinsicht auf die
wirtschaftliche Struktur von Shanghai, die Stadt auf dem richtigen Weg zur
globalen Metropole ist. Jedoch, leidet die Stadt auch unter enormes soziales
Ungleichgewicht, wie Einkommensungleichheit. Außerdem fehlen vollständig
definierte individuelle Eingentumsrechte, sowie Transparenz in Rechts- und
Finanzsysteme.
Ein
wesentlicher
Punkt
ist
auch
Chinas
Migrationsbeschränkungen. Diese verursacht „zu kleine“ Städte, was folglich
zur Einschränkung der Produktivität der Stadt führt.
136
schwer einprogrammiert werden können, wie etwa Sprach- oder
Gesichtserkennung. Neuronale Netze sollen den Lernvorgang, der im Gehirn
stattfindet, nachbilden, um ähnliche Fähigkeiten zu erlangen. Auch hierfür
werden einige Modelle vorgestellt. In der Natur arbeiten diese beiden
Konzepte hervorragend zusammen. Daher liegt es nahe, die Bestandteile
und Parameter von neuronalen Netzen durch genetische Algorithmen
optimieren zu lassen. Leider treten dabei Schwierigkeiten auf, wie lange
Laufzeiten oder mangelnde genetische Vielfalt. Es werden einige
Lösungsvorschläge für diese Probleme erläutert. Eine mögliche Anwendung
für genetische Algorithmen und neuronale Netze ist die Zeitreihenanalyse.
Dafür gibt es zwar auch statistische Verfahren wie die lineare und
nichtlineare Regression. Diesen ist aber jeweils ein bestimmtes Modell
zugrunde gelegt, von dem man nicht weiß, ob es die Zeitreihe adäquat
beschreibt. Mithilfe eines Programms von der Hochschule für Technik und
Wirtschaft Dresden kann man Zeitreihen auch durch genetische
Algorithmen und neuronale Netze analysieren lassen. Als Beispiel wurden
die Tagesschlusskurse der Aktie der Deutschen Bank verwendet. Im
Rahmen mehrerer Tests mit diesem Programm zeigt sich, dass nicht nur zu
kleine, sondern auch zu große neuronale Netze sich negativ auswirken
können. Schließlich wird jedoch ein neuronales Netz gefunden, das die
Änderung der Aktienkurse hervorragend prognostiziert und damit die
Leistungsfähigkeit von genetischen Algorithmen und neuronalen Netzen
eindrucksvoll unter Beweis stellt.
INSTITUT FÜR STATISTIK UND
WAHRSCHEINLICHKEITSTHEORIE
Markus Harich
Internetsucht - psychosoziale Grundlagen und empirische Befunde
Studium: Masterstudium Informatikmanagement
BetreuerIn: Univ.Prof. Dr. Wilfried Grossmann
Abstrakt: Vor einiger Zeit war der Begriff „Internet“ vielen Menschen nicht
geläufig. Die Verbreitung und Benützung des Mediums Internet hat sich in
den letzten Jahren jedoch rasant verändert. Heute weiß bereits jedes Kind,
was das Internet ist und wie man es benutzt. Google, Chatrooms bzw.
Onlinegames gehören bereits zum Alltag. Praktisch jedermann hat
mittlerweile einen Internetzugang zu Hause, und es ist beinahe
selbstverständlich, sich Informationen bzw. Musik aus dem Netz zu
„saugen“. Durch die häufige und regelmäßige Benutzung des Internets wird
es immer undurchsichtiger, wie viel Zeit man täglich online verbringt. Die
Schwelle zwischen einer „normalen“, sinnvollen und zielorientierten Nutzung
dieses Mediums kann schnell überschritten werden, was zu einer abnormen
Nutzung und im schlimmsten Falle sogar zur Sucht führen kann. Viele
nehmen diese Form der Sucht nicht wahr bzw. belächeln sie, jedoch gibt es
schon genügend Studien bzw. Vorkommnisse, die die Internetsucht
bestätigen. Durch den zunehmenden Internetkonsum werden viele Sachen
vernachlässigt bzw. gar nicht mehr getan. Die sozialen Kontakte werden
nicht mehr gepflegt, die eigene Beziehung leidet darunter und auch
alltägliche Dinge, wie z.B. einkaufen gehen oder putzen, werden nicht mehr
wahrgenommen. Ziel dieser Arbeit ist es, dem Leser einen Einblick in die
Problematik des Internetgebrauches zu geben und es soll bewusst gemacht
werden, dass eine neue Form der Sucht im Anmarsch ist. Weiters liegt das
Interesse dieser Arbeit darin, anhand aktueller Studien, Untersuchungen
und Umfragen einen Einblick in den Wandel des Sozialverhaltens durch den
Einfluss des Computers und Internets zu geben.
INSTITUT FÜR GEOINFORMATION UND
KARTOGRAPHIE
Robert Eggenhofer
HOMER. Eine reale und virtuelle Schatzsuche.
Studium: Masterstudium Informatikmanagement
BetreuerIn: O.Univ.Prof. Dr. Andreas Frank
Abstrakt: Das Projekt HOMER soll einen Lern- und Spielraum für Kinder von
8 bis 12 Jahren bieten. In einer Kombination aus einem Onlinespiel, einer
GPS-basierenden Schnitzeljagd (Stichwort Geo-Caching), die mittels eines
Handhelds/PDAs angeleitet wird, sowie realen, betreuten und unbetreuten
Stationen, soll die Geschichte der kleinen Waldviertler Stadt Drosendorf
kennen gelernt, und Wissen aus den Bereichen Biologie und Geschichte
angesammelt werden. Ein weiterer Fokus liegt auf Gruppendynamik und
sozialem Lernen innerhalb der Kindergruppe. Die TeilnehmerInnen sollen
auch hinsichtlich Phantasie und Kreativität gefordert werden. Der Lerneffekt
bei den TeilnehmerInnen tritt dadurch ein, dass sie sich zuerst Wissen
aneignen und dieses dann im weiteren Spielverlauf praktisch anwenden
müssen. Verschiedene Spielmethoden wurden getestet: Erreichen von
Punkten, Geocaching § Shutterspot § 1, 2 oder 3 § Feuerlauf §
Radu Ion
Genetische Algorithmen und Neuronale Netze
Studium: Diplomstudium Informatik
BetreuerIn: Ao.Univ.Prof. Dr. Karl Grill
Abstrakt: Genetische Algorithmen versuchen, Prinzipien der Evolution
(Mutation, Rekombination und Selektion) in Computerprogrammen
nachzubilden. Dazu gibt es verschiedene Ansätze, deren Vor- und Nachteile
kurz besprochen werden. Eines der Wunderwerke ist das menschliche
Gehirn. Obwohl die Neuronen, aus denen es besteht, relativ einfach
aufgebaut sind, ist das Gehirn zu Leistungen fähig, die einem Computer nur
137
138
Guckloch/Code § Nachtspiele Um die Ortsmarken der jeweiligen Spiele zu
erreichen, wurden verschiedene Methoden der Wegführung implementiert:
§ Zeiger/Pfeil § Karte § Foto § Text § Lokale Informationen Die Lerninhalte
sind in den Sparten Biologie (1. Klasse Volksschule, Tiere und Pflanzen),
sowie Geschichte (2. Klasse Volksschule, Mittelalter) gegeben. Das
entwickelte Spiel umfasst 13 Stationen, die einen Großteil der oben
genannten Methoden verwenden. Am 30. Mai 2008 fand ein Testlauf mit
23 Kindern und 10 MitarbeiterInnen statt. Danach wurde eine umfassende
Evaluierung der Methoden mit den Rückmeldungen der TeilnehmerInnen und
der MitarbeiterInnen durchgeführt und das Spiel verbessert. Für die
technische Umsetzung wurden Siemens LOOX n520 verwendet. Die
Hypothese die der Masterarbeit zugrunde liegt lautet: Es kann ein Spiel für
8-12 Jährige in Form einer Schnitzeljagd entwickelt werden, das technisch
mittels Handhelds/PDAs mit GPS-Funktionalität realisiert wird und Lernen,
sowohl im fachlichen Bereich der Biologie und Geschichte, als auch im
sozialen Bereich (Gruppendynamik, soziale Fähigkeiten, Softskills) ermöglicht.
Über den Autor: Robert Eggenhofer ist Informatikmanagement-Student an
der TU Wien und arbeitet daneben ehrenamtlich in der Katholischen
Jungschar Österreich. Über den Betreuer: Prof. Dr. Anrdew U. Frank ist
Vorstand des Instituts für Geoinformation und Kartografie an der TU Wien.
Roman Novak
Verwendung von Versionsmanagement-Werkzeugen für sicheres
kooperatives Arbeiten mit CAD-Plänen
Studium: Diplomstudium Informatik
BetreuerIn: O.Univ.Prof. Dr. Andrew Frank
Abstrakt: CAD Pläne werden oftmals durch mehrere Personen überarbeitet.
Unter Umständen kommt es auch zu Konflikten nach gleichzeitigen
Änderungen. Bei einem Einsatz von Version Control Systemen können diese
erkannt werden. Allerdings müssen Änderungen gesichtet und im Falle von
Konflikten aufgelöst werden. Dies kann eine zeitaufwändige und mühselige
Tätigkeit sein. Es soll eine einfache Möglichkeit geschaffen werden, mit der
Konflikte und Änderungen an CAD Plänen eingesehen und gegebenenfalls
aufgelöst werden können. Ein solches Tool soll nach Möglichkeit lizenzfrei
und effizient handhabbar sein. Um kooperatives Arbeiten zu unterstützen,
soll auch eine Anbindung an Version Control Systeme gegeben sein.
Johannes Thiery
Das europäische Satellitennavigationssystem - Finanzierbarer Auftrag für die
europäische Wirtschaft oder finanzieller Gau?
Marianne Herren
Data Quality in Navigation Systems – A new approach to define User Groups
Studium: Diplomstudium Informatik
BetreuerIn: O.Univ.Prof. Dr. Andrew Frank
Studium: Diplomstudium Wirtschaftsinformatik
BetreuerIn: O.Univ.Prof. Dr. Andrew Frank
Abstrakt: GALILEO ist das europäische Satellitennavigationssystem, das zur
politischen und wirtschaftlichen Unabhängigkeit von den USA ins Leben
gerufen wurde und eine Alternative für das amerikanische GPS und das
russische GLONASS bilden soll. Im Gegensatz zu den Vertretern der
Europäischen Union haben die Industriepartner des Projekts ihr Vertrauen in
die Rentabilität verloren und sich zurückgezogen. Der Markt im Bereich der
Navigation und Positionsbestimmung ist sehr schwer einzuschätzen. Diese
Arbeit soll ein Versuch sein, die Vorteile von GALILEO aufzuzeigen und damit
einen möglichen Weg zur Refinanzierung der Entstehungskosten zu finden
und abzuschätzen. Tatsächlich gibt es eine Reihe von Anwendungen, die
dem verbesserten Angebot von GALILEO entsprechen und auch das
Einheben von Gebühren rechtfertigen, jedoch gibt es keine Hinweise der
Betreiber auf die Höhe der möglichen Gebühren. Neben einer technischen
Gegenüberstellung der verschiedenen Satelliten-Navigationssysteme, wird
vor allem versucht, Benutzergruppen zu finden, die potentielle GALILEO
Kunden sind und herauszufinden, was die Beweggründe für die Verwendung
von GALILEO sind. Des Weiteren gilt es herauszufinden, wie viele dieser
potentiellen Kunden tatsächlich bereit sind, zu welchen Konditionen
Positionsdaten zu kaufen. So die politischen Rahmenbedingungen für die
einzelnen Benutzersparten entsprechend sind, scheint eine Finanzierung
möglich. Diverse Versuche mit Schätzungen der möglichen Einnahmen
untermauern diese Meinung. Auf alle Fälle hat sich die Europäische Union
Abstrakt: Das Ziel der Diplomarbeit ist die Entwicklung eines Schemas für
die Datenqualität in Navigationssystemen. Die Hauptfrage dabei ist, welche
Qualität von Daten ist für welche Benutzergruppe akzeptabel. Das führt zu
einer Neukategorisierung von Benutzergruppen von Navigationssystemen in
städtischen
Straßensystemen.
Wichtig
ist
die
Erfassung
und
Kategorisierung der einzelnen Benutzeraufgaben und daraus resultierenden
Anforderungen an Daten, System und Applikation. Ziel ist es, die
Datenmengen zu reduzieren oder zu verrauschen. Dieser Prozess führt zu
einer möglichen Differenzierung innerhalb der Benutzergruppen. Neue
Benutzergruppen können durch
qualitativ schlechtere aber
finanziell
günstigere Lösungen angesprochen werden. Somit kann gezeigt werden,
dass eine Verschlechterung der Datenqualität positive Auswirkungen auf die
Verbreitungsmöglichkeit von Geo Information Produkten haben kann, weil
somit neue Benutzergruppen angesprochen werden können.
139
140
entschlossen, das System fertig zu stellen, auch auf die Gefahr hin, dass die
kommerzielle Finanzierung scheitert. Nicht zuletzt geht es bei dem Projekt
nicht nur um politische Unabhängigkeit, sondern auch um wirtschaftliche
Konkurrenzfähigkeit am Weltmarkt und die Belebung des Europäischen
Weltraum-Programms.
DEPARTMENT FÜR RAUMENTWICKLUNG,
INFRASTRUKTUR- UND UMWELTPLANUNG
Gerald Lenz
Der Spion ""Online-Netzwerk""
Studium: Masterstudium Wirtschaftsingenieurwesen Informatik
BetreuerIn: O.Univ.Prof. Dr. Franz Zehetner
INSTITUT FÜR INTERDISZIPLINÄRES
BAUPROZESSMANAGEMENT
Abstrakt: Online Dienste erfreuen sich unter den Internet Benutzern immer
größerer Beliebtheit. Gleichzeitig jedoch entwickeln diese User, aufgrund der
vielen allgemeinen Geschäftsbedingungen eine Art „Wegklickmentalität“.
Erscheinen nun im Internet Bestimmungen, denen es durch das Setzen
eines Hakens zuzustimmen gilt, so wird meist der seitenlange Text einfach
ungelesen bestätigt. Diese Arbeit beschäftigt sich mit den derzeit
beliebtesten Internet Diensten, Facebook und Google. In Kapitel 1 wird die
derzeitige datenschutzrechtliche Situation anhand des Datenschutzgesetzes
2000 aufgearbeitet und erläutert. Hierbei werden vor allem jene
Paragraphen hervorgehoben, welche für einen durchschnittlichen
Internetuser von Bedeutung sind. Kapitel 2 stellt die beiden oben genannten
Vertreter vor und beschäftigt sich mit den Dienstleistungen, welche diese
anbieten, sowie mit den Daten, die dafür gespeichert werden. Es wird
weiters auf die so genannten Privacy Einstellungen eingegangen. Eine
ausführliche Analyse der jeweiligen Allgemeinen Geschäftsbedingungen sowie
Datenschutzerklärungen der Dienste findet sich in Kapitel 3 wieder.
Dominik Dejmek
Programmentwicklung für die Berechnung der Lebenszykluskosten von
Brücken
Studium: Masterstudium Wirtschaftsingenieurwesen Informatik
BetreuerIn: O.Univ.Prof. Dr. Hans Georg Jodl
Abstrakt: Der Arbeitskreis „Dauerhaftigkeit - Brücke“ der Österreichische
Vereinigung für Beton- und Bautechnik hat das Institut für interdisziplinäres
Bauprozessmanagement beauftragt ein Programm zur Berechnung der
Kosten einer Brücke über den gesamten Lebenszyklus zu entwickeln. Um
diese Lebenszykluskosten zu berechnen, muss die Brücke in drei
Brückenbestandteile
unterteilt
werden:
Unterbau,
Rohtragwerk,
Ausrüstungsteile. Das Programm besitzt neben der Berechnung der
Lebenszykluskosten auch eine Darstellung des unverzinsten Kostenverlaufs
sowie eine Berechnung von Ablösekosten. Mit der Methode Kostenverlauf
unverzinst kann die Entstehung der Kosten (Errichtungskosten, jährliche
Unterhaltskosten, Abbruchkosten) chronologisch dargestellt werden. Dies
bietet eine gute Übersicht über Zeitpunkt und Höhe anfallender Kosten.
Beim Lebenszyklusmodell hingegen werden die verzinsten Kosten
dargestellt. Es werden Bar- und Endwert der Lebenszykluskosten berechnet.
Somit kann die Brücke bewertet und mit anderen Brückenvarianten
verglichen werden. Als Grundlage wird der unverzinste Kostenverlauf
herangezogen und zusätzlich mit 4% verzinst. Das Ablösemodell wird beim
Wechsel des Besitzers der Brücke angewandt, da dabei eine Ablöse fällig
wird. Hierbei ist zu unterscheiden, ob die Brücke am Ende der Lebensdauer
wieder neu hergestellt wird oder nicht. Zusätzliche Grafiken illustrieren die
Verläufe der einzelnen Berechnungsmethoden. Diese Grafiken können
sowohl im Endbericht als auch direkt im Programm angezeigt werden. Sie
sind für die einzelnen Brückenbestandteile sowie für die Summe dieser
erstellbar. Das Programm wurde in der objektorientierten und
plattformunabhängigen Programmiersprache Java implementiert. Der
Umfang sowie das Design des Programms ermöglichen eine einfache und
weitreichende Verwendung des Programms, sowohl für Auftraggeber als
auch für Brückenbauer auf viele Jahre hinaus.
141
Thomas Puchegger
Entstehung und Kontrolle gefährlicher öffentlicher Räume
Studium: Masterstudium Wirtschaftsingenieurwesen Informatik
BetreuerIn: O.Univ.Prof. Dr. Jens Dangschat
Abstrakt: Das öffentliche Räume in Städten zu gefährlichen und
überwachten Hot-Spots werden, liegt häufig an der Lage der Plätze im
städtischen Raum, sowie an den umliegenden und angrenzenden Gebieten.
Die Planung der Stadt, sowie die räumliche Aufteilung der Gebiete und
Plätze, entscheidet ob innerstädtische Räume als sicher oder als gefährlich
eingestuft werden. Die einheimische Bevölkerung, als auch Touristen
bevölkern öffentliche Plätze und besetzen den öffentlichen Raum in Städten.
Durch die unterschiedlichen Ansichten entstehen aber möglicherweise
Konflikte bei der Nutzung dieser öffentlichen Räume. Dies hat sich im Laufe
der Zeit, zum Beispiel durch die fortschreitende Globalisierung, stark
verändert. Die Nutzungsmuster sowie die Aufenthaltsqualität haben sich
ebenfalls in den letzten Jahren geändert. Auf diese Umstände und die
daraus resultierenden Konflikte wird in dieser Arbeit genauer eingegangen.
142
große Herausforderung dar. Vor allem vor dem Hintergrund, dass zumeist
eine zentrale Lösung realisiert werden soll, bzw. mit dem gleichen
Softwarestandard gearbeitet werden muss, um den Administrations- und
Betreuungsaufwand auf einem Minimum zu halten. Diese Arbeit umfasst
sowohl die theoretischen Grundlagen der juristischen Situation als auch die
theoretischen Grundlagen der Signaturtechnik. Um die Herausforderung zu
verdeutlichen und einen Einblick in die unterschiedlichen Gesetzgebungen zu
ermöglichen, werden des Weiteren ausgewählte Länder beispielhaft
präsentiert. Abschließend wird die Situation zusammengefasst, wobei auch
das Ergebnis narrativer Interviews mit Experten für die elektronische
Signatur die Situation untermauert.
David Ringhofer
Österreichs Weg zu einer Elektronischen Gesundheitsakte - eine
datenschutzrechtliche Betrachtung
Studium: Masterstudium Medizinische Informatik
BetreuerIn: O.Univ.Prof. Dr. Franz Zehetner
Abstrakt: Gesundheitsdaten gehören zu den sensibelsten, persönlichen
Daten. Das Niveau an Vertraulichkeit dieser Informationen muss als sehr
hoch eingestuft werden. Aufgrund der zunehmenden Vernetzung
elektronischer
Krankenakten,
des
Einsatzes
medizinischer
Informationssysteme und des Aufbaus nationaler und überstaatlicher
Gesundheitstelematik ist insbesondere Bedacht auf die Schutzwürdigkeit von
Patientendaten zu legen. Ein wichtiger Aspekt bei der Etablierung der
genannten Innovationen im Gesundheitswesen ist daher beispielsweise die
Abwehr von missbräuchlicher Verwendung, unbefugter Speicherung, nicht
autorisiertem Zugriff. Diese Arbeit stellt sich der Herausforderung,
Österreichs Weg zu einem nationalen EHR (electronic health record)
nachzuzeichnen, den aktuellen Stand zu beleuchten und weitere Planung im
Rahmen der österreichischen e-Health Strategie zu reflektieren. Dabei
werden ähnliche Entwicklungen und Strategien im Ausland zum Vergleich
herangezogen und der Frage, wie sich das Projekt ELGA charakterisieren
lässt, nachgegangen. Sie beschäftigt sich mit dem Problem wie die
Datensicherheit in elektronischen Gesundheitsakten gewährleistet werden
kann und legt ein besonderes Augenmerk auf die Auswirkungen von ELGA
auf den Datenschutz. Dabei werden denkbare Legitimationen zur Führung
einer elektronischen Gesundheitsakte untersucht. Datenschutzrechtliche
Konsequenzen werden analysiert, der bestehende gesetzliche Rahmen
betrachtet und ein Fazit unter die Betrachtung gesetzt.
INSTITUT FÜR FERTIGUNGSTECHNIK
Pouria Samimi
The Application of Fuzzy Logic in CNC Programming
Studium: Diplomstudium Informatik
BetreuerIn: O.Univ.Prof. Dr. Peter H. Osanna
Bayram Tuzcu
Qualitätsmanagement im E-Commerce
Studium: Masterstudium Wirtschaftsingenieurwesen Informatik
BetreuerIn: O.Univ.Prof. Dr. Peter H. Osanna
Abstrakt: Ziel dieser Arbeit ist es, Qualitätsmanagement im Sinne Electronic
Commerce
(E-Commerce)
zu
forschen.
Alle
Aspekte
des
Qualitätsmanagement im E-Commerce, im Hinblick auf die Gewährleistung
der Kundenzufriedenheit, werden einzeln behandelt. Zuerst werden die
grundlegenden Qualitätsbegriffe beschrieben und allgemeine Informationen
über E-Commerce gegeben. Danach werden die wichtigsten Erfolgsfaktoren
für E-Commerce- Unternehmen untersucht. In der Arbeit werden auch die
Dimensionen der E-Servicequalität und Qualität von Webseiten betrachtet.
Es wird versucht, einen Ausgangspunkt für Online-Händler zu schaffen, um
die Kundenzufriedenheit laufend zu verbessern und Kunden an das
Unternehmen anbinden zu können.
Ulrike Weber
Einführung in die Zentralisierung nationaler Signatursysteme gemäß der
Richtlinie 1999/93/EG v. 13. September 1999 für Rechnungen im
elektronischen Datenaustausch (Sub-Set EANCOM) mit Schwerpunkt
Österreich und ausgewählten Ländern aus dem osteuropäischen
Studium: Masterstudium Informatikmanagement
BetreuerIn: Dr. Wolfram Proksch
Abstrakt: Die vorliegende Diplomarbeit untersucht die Situation der
elektronischen Signatur für Rechnungen, die im elektronischem
Datenverkehr im B2B (Business to Business) Bereich (unter Verwendung
des UN/EDIFACT Standards [United Nations Electronic Data Interchange
For
Administration,
Commerce
and
Transport
Standards])
am
Osteuropäischen Markt ausgetauscht werden. Speziell im Kontext der
international agierenden Handelshäuser und / oder der Industrie stellt die
Erfüllung vieler unterschiedlicher Anforderungen der einzelnen Länder eine
143
144
Melanie Fraunschiel
Sensortechnik für Schlagmessungen im Kampfsport
INSTITUT FÜR MECHANIK UND MECHATRONIK
Melanie Fraunschiel
Biomechanische Schlaganalyse im Kyokushin-Karate
Studium: Masterstudium Wirtschaftsingenieurwesen Informatik
BetreuerIn: Univ.Doz. Dr. Winfried Mayr, Medizinische Universität Wien
Studium: Masterstudium Medizinische Informatik
BetreuerIn: Univ.Doz. Dr. Winfried Mayr, Medizinische Universität Wien
Abstrakt: Die Leistungsdiagnostik hat in der Kampfsportart KyokushinKarate bisher kaum Beachtung gefunden. Die trainingswissenschaftlichen
Untersuchungen, die im europäischen Raum durchgeführt werden,
beschränken sich vor allem auf Breitensportarten. Im Bereich der
biomechanischen Technikanalyse im Kampfsport existieren einige
Publikationen über Boxsport und Semi-Kontakt Karate. Keiner der Verfasser
geht jedoch näher auf den Vollkontakt-Kampfsport Kyokushin-Karate ein,
obwohl gerade in diesem traditionellen Kampfsport die Stärke und Präzision
der Schläge zu einem KO des Gegners führen. Ziel dieser Arbeit ist es eine
Instrumentierung für die Kraft- und Beschleunigungsmessung von
Faustschlägen bzw. Beintechniken zu entwickeln. Sie soll den Kämpfern eine
Rückmeldung über die Wirkung ihrer Schläge liefern, wodurch diese ihre
Schlagtechniken perfektionieren können. Im Zuge dieser Arbeit werden fünf
Sensoren analysiert, und falls sie sich als wertvoll erweisen, hergestellt und
kalibriert. Drei von fünf Sensoren mussten im Laufe der Arbeit verworfen
werden, da sie nicht den geforderten Ansprüchen gerecht wurden.
Abstrakt: Laut diversen Reportagen [vgl.: Stern, 2006] und Publikationen
[vgl.: Pierce, 2006] [vgl.: Walilko, 2005] hat ein Kampfsportler eine
Schlagkraft die von 500N bis 7000N reicht. Diese Kraft kann Blutgefäße
zum Platzen, Gefäße zum Verengen und Organe zum Verkrampfen bringen.
Normalerweise führt sie zu einem KO oder schwerwiegenden Verletzungen.
In dieser Arbeit wird speziell auf die verschiedenen Verletzungsmöglichkeiten
eingegangen, die durch eine Kraftübertragung in diesem Ausmaß entstehen
können. Im Kampf kommt es selten zu der Möglichkeit einen Schlag dieser
Wucht am Gegner anzubringen. Durch Ausweich und Blockmanöver wird ein
Großteil der Schlagkraft abgelenkt, die restliche Kraft wird durch Fett- und
Muskelgewebe aufgenommen. Durch langjähriges Training werden die
Muskeln auf die harten Schläge vorbereitet und angepasst. KyokushinKarate ist, vom Shotokan-Karate abstammend, eine der härtesten
traditionellen Kampfsportarten. Leistungsorientierte Kämpfer des KyokushinKarate Stils trainieren Jahre lang ihre Muskeln, um eine größere
Widerstandsfähigkeit gegen Schläge aufzubringen, da mit vollem Kontakt
und beim Turnier bis zum KO gekämpft wird. In dieser Arbeit dienen
erfahrene Kyokushin-Karateka als Probanden für die Messung von
physikalischen Wirkungskomponenten, die den Grad der Schlagwirkung
bestimmen. Ziel dieser Untersuchung ist es, mit Hilfe moderner
Sensortechnik, welche im Zuge der
Diplomarbeit „Sensortechnik für
Schlagmessungen im Kampfsport“ [vgl.: Fraunschiel, 2008] entwickelt
wurde, die Beschleunigung und die Kraft der Schläge zu messen. Schläge,
die auf einem Boxsack ausgeführt werden, werden mit jenen verglichen, die
auf ein im Boden verankertes Holzbrett (Makiwara) durchgeführt werden.
Der Boxsack repräsentiert einen mit Fettgewebe behafteten Oberkörper,
das Makiwara einen muskulösen Körper.
Als Unterstützung für die
Bewegungsanalyse dienen drei High-Speed Kameras, die die Bewegungen
filmen und anhand der Daten nachfolgend verschiedene Berechnungen
durchgeführt werden können. Diese Informationen werden herangezogen
um die Effizienz der einzelnen Techniken untereinander zu vergleichen und
bestehenden Messwerten gegenüber zu stellen.
145
Urban Stadler
Slotted Real Time SPI Interface for FPGA´s
Studium: Masterstudium Technische Informatik
BetreuerIn: Em.O.Univ.Prof. Dr. Peter Kopacek
Abstrakt: In Zukunft werden menschenähnliche Roboter eine wichtige Rolle
in unserem täglichen Leben spielen. Sie werden in der Lage sein gefährliche
oder monotone Aufgaben für den Menschen zu erledigen, oder uns bei
alltäglichen Aufgaben zu unterstützen. Seit einigen Jahren wird in diesem
Bereich intensiv geforscht und entwickelt. Obwohl bis heute eine
beträchtliche Menge an Geld und Zeit in dieses Gebiet investiert worden ist,
sind bei weitem noch nicht alle Probleme gelöst und es wird noch einige
Jahre dauern, bis voll funktionsfähige menschenähnliche Roboter existieren.
Das Institut für Handhabungsgeräte und Robotertechnik beteiligt sich in
Forschung und Entwicklung an diesem sehr interessanten Gebiet mit dem
Ziel, einen menschenähnlichen Roboter zu bauen der fähig ist, Fußball zu
spielen. Auf den ersten Blick betrachtet, scheint das Problem eine etwas
spielerische und praxisferne Aufgabe zu sein. Im Detail betrachtet,
beinhaltet diese Aufgabenstellung aber viele äußerst komplexe Probleme, die
auch für eine Vielzahl von Anwendungen jeglicher Art zu lösen sind. Der
Focus dieser Diplomarbeit liegt darin ein einfaches, robustes und
leistungsfähiges Bus System zu entwickeln. Dieses Bus System soll in Folge
alle wichtigen Sensoren und Aktuatoren mit der Zentralen Recheneinheit
146
verbinden. Die Schwierigkeit lag nun darin verschiedene Anforderungen wie
Echtzeitfähigkeit, mehrere Slaves pro Bus und hohe Flexibilität so
kostengünstig wie möglich zu implementieren.
INSTITUT FÜR MANAGEMENTWISSENSCHAFTEN
Christian Altrichter
Die Integration querschnittgelähmter Personen in den österreichischen
Arbeitsmarkt unter besonderer Berücksichtigung der IT-Branche
Martin Stubenschrott
Collision avoidance in a multi-agent system
Studium: Masterstudium Wirtschaftsinformatik
BetreuerIn: O.Univ.Prof. Dr. Franz Wojda
Studium: Masterstudium Intelligente Systeme
BetreuerIn: Em.O.Univ.Prof. Dr. Peter Kopacek
Abstrakt: Diese Masterarbeit beschäftigt sich mit der Integration von
querschnittgelähmten Personen in den österreichischen Arbeitsmarkt unter
besonderer Berücksichtigung der IT-Branche. Behinderte Personen werden
in unserer Gesellschaft massiv benachteiligt. Im Zuge der beruflichen
Integration
werden
querschnittgelähmte
Personen
aufgrund
der
Behinderung sehr oft schlechter behandelt als Personen ohne
Einschränkungen. Meis-tens bekommen sie aufgrund der Behinderung gar
nicht die Möglichkeit, in einer Firma zu arbeiten. Und wenn
querschnittgelähmte Personen eine geeignete Anstellung finden, werden sie
im Zuge des alltäglichen Berufslebens von anderen Personen diskriminiert,
was sich sehr negativ auf die Motivation der behinderten Personen auswirkt.
Aus diesem Grund ist die berufliche Integration von querschnittgelähmten
Personen mit vielen Schwierigkeiten verbunden. In dieser Masterarbeit wird
ausführlich beschrieben, wie querschnittgelähmte Personen die berufliche
Integration im Bereich der IT-Branche erfolgreich gestalten können. Dabei
werden sowohl die Arten der Querschnittlähmung als auch die einzelnen
Berufe der IT-Branche näher beschrieben. Mit einer erfolgreichen
beruflichen Integration sind bei querschnittgelähmten Personen auch
ergonomische Innovationen und unterstützende Projekte verbunden, die
ebenfalls näher erläutert werden. Diese Arbeit zeigt auf, wie der Prozess
der beruflichen Eingliederung effizient gestaltet werden kann, wodurch viele
Integrationsbarrieren reduziert werden können.
Abstrakt: Das Ziel von Kollisionsvermeidung ist es einen Pfad zum Ziel eines
Objektes zu finden ohne mit anderen statischen bzw. beweglichen
Hindernissen zu kollidieren. Zusätzlich soll dieser Pfad möglichst kurz sein
ohne jedoch das Risiko einzugehen, mit anderen Objekten zu kollidieren. Der
Bedarf an ein solches System ist hoch, da die meisten Roboter eine
Kollisionsvermeidung benötigen, aber auch andere Anwendungen wie
selbstfahrende Fahrzeuge profitieren davon. Das Ziel dieser Diplomarbeit ist
es,
einen
Algorithmus
zur
Kollisionsvermeidung
in
einem
Multiagentensystem zu entwerfen, zu implementieren und zu testen. Die
Wahl fiel darauf, ein existierendes Roboterfußball-Framework des IHRT
Instituts der Technischen Universität Wien als Basis dafür zu verwenden.
Denn obwohl das IHRT eine lange und erfolgreiche Tradition im
Roboterfußballspielen
hat,
fehlt
bisher
ein
ordentliches
Kollisionsvermeidungsmodul. Außerdem – und noch viel wichtiger – kann
man Roboterfußball als Paradebeispiel für ein Multiagentensystem ansehen
da es intelligente Kommunikation zwischen den einzelnen Robotern benötigt.
Der Algorithmus wird dazu in zwei Teile gespalten: Als erstes versuchen wir
müglichst viele Informationen uber die nächste Kollision zu erhalten und
kategorisieren diese in drei unterschiedliche Kollisionstypen (frontal,
rechtwinkelig oder schräg). Auf Grund dieser Informationen versucht der
Algorithmus die bevorstehende Kollision mit Hilfe von zwei Strategien zu
vermeiden: Wir verändern den Pfad von einzelnen Robotern indem wir
entweder deren Richtung oder deren Geschwindigkeit ändern. Das System
wird evaluiert, indem man zwei Roboter auf vordefinierte bzw. zufällige Pfade
schickt. Nun zählen wir die Anzahl der Kollision und berechnen die
Durchschnittsgeschwindigkeit sowohl mit ein- als auch ausgeschalteter
Kollisionsvermeidung. Dadurch können wir herausfinden, ob der
vorgeschlagene Algorithmus gut funktioniert und wo es noch Probleme gibt.
147
Christoph Angermann
Problemfindung im Reklamationsprozess
Studium: Masterstudium Wirtschaftsinformatik
BetreuerIn: Ass.Prof. Dr. Peter Kuhlang
Abstrakt: Die vorliegende Diplomarbeit beschäftigt sich mit dem Thema
Beschwerde- bzw. Reklamationsmanagement sowie dem Finden von
Verbesserungspotenzialen in diesem Prozess. Am Anfang wird ein Überblick
über das Thema Prozessmana-gement gegeben. Danach wird auf die
Materie des Beschwerdemanagement eingegangen. Dies beginnt mit einer
Begründung, warum Unternehmen diesem Themengebiet besondere
Aufmerksamkeit schenken sollten. In weiterer Folge wird die Positionierung
des Beschwerdemanagements im Unternehmen erörtert. Der nächste Teil
befasst sich mit der theoretischen Gliederung des Beschwerde148
managements und den daraus resultierenden Einzelteilen des Prozesses.
Hier wird auf den Aufbau der Einzelteile eingegangen. Weiters werden die
Überlegungen betrachtet, welche bei einer Umsetzung angestellt werden
müssen. Mit diesem Punkt endet gleichzeitig auch der theoretisch Teil der
Arbeit. Im zweiten praktischen Teil werden die im Theorieteil vorgestellten
Methoden in der Praxis angewandt. Es wird der Reklamationsprozess einer
Firma nach Verbesserungspotenzial in Richtung Aufbau und Ablauf
untersucht, die gewählte Vorgehensweise vorgestellt und Auszüge aus den
Ergebnissen präsentiert.
Philipp Guggenberger
Design and prototyping of a flexible value-at-risk measurement system
Studium: Masterstudium Wirtschaftsinformatik
BetreuerIn: Ao.Univ.Prof. Dr. Thomas Dangl
Abstrakt: In der Finanzwelt wird der Quantifizierung des Marktrisikos von
Finanzinstrumenten eine immer größere Rolle zugeteilt. Es existieren eine
Reihe von Paradebeispielen, die zeigen, welch eklatante Auswirkungen ein
schlechtes Riskomanagement haben kann (s. z.B.: Konkurs Barings Bank
1995 oder auch die Auswirkungen der Verluste der BAWAG). Die
Risikoevaluierung ganzer Portfolios ist mit einer großen Anzahl an einzelnen
Berechnungen verbunden. Zusätzlich kann beobachtet werden, dass die
Finanzprodukte immer komplexer werden und damit auch die Bewertung
einen erhöhten Aufwand darstellt. Dies erfordert den Einsatz von
dynamischen Softwaresystemen, die eine ständige Erweiterung und
Verbesserung der existierenden Riskomodelle erlauben. Das Ziel dieser
Arbeit war es, ein flexibles Risikomanagementsystem zu planen und auch
teilweise zu implementieren. Die Eigenschaft „flexibel“ bezieht sich im
Speziellen auf die Möglichkeit einer einfachen Erweiterbarkeit der
vorhandenen Instrumente, aber auch eine offene Implementierung des
gesamten Systems wurde angestrebt. Die Arbeit stützte sich hierbei auf
zwei relativ neue Softwareentwicklungsansätze, SOA (service oriented
architecture) und EDA (event driven architecture). Der erste Teil der Arbeit
beschäftigt sich mit der allgemeinen Architektur des Systems und der
Identifikation und Orchestrierung der benötigten Prozesse. Der zweite Teil
befasst sich allgemein mit dem Riskomanagement von Finanzinstrumenten,
wobei der Hauptschwerpunkt auf den in den letzten Jahren sehr populär
gewordenen value at risk Verfahren liegt. Im Speziellen werden die
unterschiedlichen Ansätze bei der Evaluierung von nicht linearen Investments
(z.B.: Aktienoptionen) beschrieben, die im Anschluss auch im Prototypen
implementiert wurden. Der dritte Teil beschreibt den mittels EDA
entwickelten Prototypen, diskutiert die Vor
und Nachteile des
Softwareentwicklungsprozesses und präsentiert die Ergebnisse der
unterschiedlichen Riskobewertungsmodelle.
Imane Benmoumen
Die Algerische Wirtschaft zu Beginn des 21. Jahrhunderts
Studium: Masterstudium Wirtschaftsingenieurwesen Informatik
BetreuerIn: Priv.Doz. DDr. Alfred Barth
Abstrakt: Hauptziel dieser Masterarbeit war es, die Bewertung der
Methoden des Erneuerungsprogramms der industriellen Unternehmen in
Algerien und ihrer Umgebung durch einen geordneten Komplex von
Konzepten und angepasster Strategien darzustellen. Zunächst war es
wichtig, die Eckpunkte der Politik, der Leistungen der algerischen Industrie
seit der Unabhängigkeit bis zu den Reformen internationaler Integration zu
analysieren (Kapitel 1). Um die Dimension dieser Problematik durch die
Bedeutung der Unternehmenserneuerung in der Perspektive der
Liberalisierung der algerischen Wirtschaft zu vertiefen, wurde zunächst eine
Einschätzung der industriellen Wettbewerbsfähigkeit auf internationaler
Ebene vorgenommen (Kapitel 2). Ausgehend davon war es notwendig, die
Erneuerung der Unternehmen durch ihre theoretischen und empirischen
Grundlagen, sowie ihre Ziele und Akteure zu identifizieren (Kapitel 3).Eines
der wesentlichen Ziele dieser Arbeit ist es, neben den theoretischen
Aspekten des Erneuerungsprogramms auch die hierbei angewendeten
Methoden zu analysieren (Kapitel 4). Der letzte Punkt dieser Arbeit besteht
aus einer praktischen Studie, deren Wichtigkeit für die Überlegung zu den
Praktiken der Erneuerung in der algerischen Industrie maßgebend ist,
besonders in der agrar- und ernährungswirtschaftlichen Branche. Er
umfasst eine Zusammenfassung von Statistiken und Informationen, welche
die Branche und drei Unternehmen (ENCG Oran, AIDA Konditorei, GINI Eis)
sowie eine allgemeine Feststellung über die Erarbeitung des Programms
betrifft (Kapitel 5).
Christoph Hofer
Analyse ausgewählter Logistiksoftware - Konzept für eine erfolgreiche ITUnterstützung in der Logistik
Studium: Masterstudium Wirtschaftsingenieurwesen Informatik
BetreuerIn: Ao.Univ.Prof. Dr. Kurt Matyas
Abstrakt: Zu Beginn dieser Arbeit wurden Definitionen und Ziele zum
Überbegriff „Logistik“ erläutert um einen Einstieg in das Supply Chain
Management
zu
ermöglichen.
Nach
den
Erklärungen
der
betriebswirtschaftlichen Seite der IT-Logistik wurde der Übergang zu den
149
150
Informationssystemen in diesem Bereich veranschaulicht. Welche
Arten/Typen von Logistik-Software gibt es und worin liegen ihre Stärken?
Auch wurde der Versuch unternommen eine Abgrenzung zwischen den
Softwaretypen vorzunehmen um Klarheit für den Leser zu schaffen.
Anschließend wurde überblicksmäßig auf ausgewählte Softwareprodukte
eingegangen welche sich zum gegenwärtigen Zeitpunkt am Markt befinden.
Es wurde versucht zu eruieren welche Produkte für welche Logistikbereiche
einsetzbar sind. Dabei wurde auch kurz auf die Softwareproduzenten
eingegangen um die jeweiligen Software-Pakete im Gesamtkontext
betrachten zu können. Danach wurde eine überblicksmäßige Analyse
aufgrund von vorhandenen Untersuchungsdaten vorgenommen. Auch wurde
wegen der Aktualität der Thematik auf RFID (Radio Frequency Idendification)
und ATLAS (Automatisierte Tarif- und Lokale Zoll-Abwicklungs-System)
eingegangen. Äußerst wichtig ist die Vorgangsweise bei der Einführung von
logistischen Informationssystemen. Daher wurden detailliert Phasen von ITProjekten mitsamt unterschiedlichen Vorgehensmodellen erläutert. Ein
wichtiger, wenn nicht sogar der wichtigste Baustein eines IT-Projektes ist
seine Wirtschaftlichkeit. Diese wurde in groben Zügen diskutiert. Um „hinter
die Kulissen“ blicken zu können und um zu erfahren wie Logistik-Software in
der Praxis eingesetzt wird wurden Fallbeispiele angesehen und Fachexperten
dazu befragt. Aufgrund dieser Gespräche, Literaturrecherchen und eigenen
Erfahrungen wurde der Versuch unternommen ein Konzept für die Auswahl
bzw. Einführung von Logistik-Software zu erstellen. Natürlich kann dieses nur
als Rahmenwerk fungieren und muss je nach Situation angepasst werden.
Das heißt, dass die Parameter jedes einzelnen Projektes unterschiedlich
sind und daher jedes Projekt als einmalig anzusehen ist. Auf die klassische
Implementierung, also sprich auf die Programmierarbeit wurde im Rahmen
dieser Arbeit aus zweierlei Gründen nicht eingegangen: Erstens hängt es
von Faktoren (Umfang, eingesetzter Programmiersprache, Teamstärke,
Zeitrahmen usw.) ab, die man nicht abschätzen kann und zweitens hätte
eine ausführliche Erläuterung der Entwicklungstätigkeiten den Umfang dieser
Arbeit gesprengt. Zur Abrundung wurde ein Unterrichtsdesign zum ITLogistik-Einsatz im Rahmen einer universitären Lehre entwickelt.
Groupware-Anwendungen, unterstützt. In dieser Arbeit werden die
technischen Hintergründe, die Entstehung und verschiedenen Anwendungen
von CSCW erläutert. Spezielle Anwendungen zu diesem Thema, die in zwei
Projekten, im Zuge der Diplomarbeit, angewendet wurden, werden näher
betrachtet.Zu einem ist das die von Microsoft entwickelte KollaborationsPlattform SharePoint Server 2007. Hierbei wird wiederum zwischen zwei
verschiedenen Portalen gewählt. Das Zusammenarbeitsportal, welches
stark die Kollaboration zwischen Personen unterstützt, und ein
Veröffentlichungsportal,
welches
als
Hauptaufgabe
Informationen
bereitstellt. Diese zwei Portale können jedoch auch gut kombiniert werden.
Dies wurde mit der Erstellung einer Konferenz-Website demonstriert. Die
zweite Groupware-Anwendung die untersucht wurde, waren kollaborative
Lernumgebungen. In diesen Kapiteln lag das Hauptaugenmerk auf
Forschungsergebnissen, die erfolgreiche Lernplattformen umgesetzt haben
und daraus Theorien entwickelten. Die praktische Aufgabe dieses Themas
war die Konzeption eines ‚Blended Learning'-Kurses am Insitut.
Michael Kneissl
Unternehmensgründung im IT-Sektor, Softwareentwicklung für Ärzte
(Konzeption -- Schulung -- Wartung)
Studium: Masterstudium Informatikmanagement
BetreuerIn: Univ.Doz. Dr. Leopold Sögner
Abstrakt: Unternehmensgründung, Firmengründung, Existenzgründung oder
Entrepreneurship -- diese Schlagworte sind derzeit sehr aktuell. Im Rahmen
dieser Arbeit wird im spe-ziellen auf die Gründung im Bereich der
Softwareentwicklung für Ärzte und des Webdesigns und des Consulting
eingegangen. Die Gründung eines Unternehmens ist ein großer und
gewagter Schritt in eine unsichere Zukunft und bedarf einer guten
Vorbereitung und dazu ist eine umfangreiche Informationssuche notwendig.
Um angehenden Jungunternehmern diese Suche nach Informationen zu
vereinfachen, sind die wichtigsten Schritte und einzelnen Phasen in dieser
Arbeit zusammengefasst. Es werden die Voraussetzungen und
Rahmenbedin-gungen einer Gründung erläutert, die Bereiche Marketing,
Finanzierung, Organisati-on und Planung und der Punkt Mitarbeiter
behandelt. Im Kapitel Rahmenbedingun-gen wird im speziellen auf die Wahl
der Unternehmensform eingegangen und 3 Varianten verglichen: die
Gesellschaft mit beschränkter Haftung, die Private Company Limited by
Shares und die Sociedad de Responsabilidad Limitada. Ein weiteres Kapitel
widmet sich der Gestaltung des Business Plans, der wichtigste Punkt im
Rahmen der Gründung, wenn es darum geht, Investoren für das Unternehmen zu gewinnen. Im letzten Teil der Arbeit folgt die praktische Umsetzung
des behandelten Themas mit der Entwicklung eines Business Plans für die
OneInAll Solutions Limited, ein Unternehmen, das Software für Ärzte
entwickelt und auch im Bereich Webdesign und Consulting tätig ist.
Anna Kirchweger
Analyse und Umsetzung von virtuellen Kollaborations-Plattformen zur
Gestaltung von Webauftritten und im universitären Lehrbetrieb
Studium: Masterstudium Wirtschaftsingenieurwesen Informatik
BetreuerIn: Ass.Prof. Dr. Peter Kuhlang
Abstrakt:
Virtuelle
Kollaboration
ist,
dank
leicht
bedienbarer
Webapplikationen, in den letzten Jahren sehr populär geworden.Durch die
technische Vernetzung rund um den Globus findet eine enorme Verteilung
von Wissen statt. Um dieses Wissen gezielt einsetzen zu können benötigt
es ein gewisses Management von diesem. Das wird wiederum, durch
Werkzeuge wie ‚Computer Supported Cooperative Work'(CSCW)- bzw.
151
152
DataBar sind in der Lage zusätzlich zur global eindeutigen Produktnummer
auch Zusatzdaten in standardisierter Form zu übergeben. Dazu werden
sogenannte Application Identifier eingesetzt, die als Datenbezeichner dienen.
Diese sind vom GS1-128 Symbol bekannt, und werden insbesondere in der
Warenlogistik eingesetzt. Im Gegensatz zu diesem Symbol können Versionen
des GS1 DataBar jedoch auch lageunabhängig (omnidirektional) gelesen
werden und eigenen sich daher besonders für Erfassungsvorgänge am POS
im Kassenbereich wo eine zuverlässige und schnelle Identifikation unbedingt
erforderlich ist.Der GS1 DataBar folgt durch seine Flexibilität auch dem
Trend weg von der reinen Produktunterscheidung hin zur Identifikation von
Chargen und sogar einzelnen Artikelidentitäten (Seriennummer). Langfristig
wird der GS1 DataBar die Lücke zwischen zukünftigen RFID-Lösungen und
kostenkritischen, auflagenstarken Anwendungen schließen. Die konkreten
Bedürfnisse des Handels und der Industrie werden die Verbreitung des GS1
DataBar maßgeblich beeinflussen.
Patrick Kolomaznik
Analyse und Bewertung des Projektmanagements in einem
projektorientierten Unternehmen am Beispiel T-Mobile Austria
Studium: Masterstudium Wirtschaftsinformatik
BetreuerIn: O.Univ.Prof. Dr. Franz Wojda
Abstrakt: Das Thema Projektmanagement gewinnt in den letzten Jahren
immer mehr an Bedeutung. Ein Grund dafür ist sicherlich der rasante
Anstieg komplexer Aufgaben in Unternehmen, wodurch immer öfter eine
Strukturierung als Projekt notwendig wird. Um die Konkurrenzfähigkeit auf
dem jeweiligen Markt zu erreichen, wird sehr häufig die Organisationsform
eines projektorientierten Unternehmens gewählt. In dieser Arbeit wird auf
die Wichtigkeit von Projektmanagement in Unternehmen dargestellt und
diskutiert. Aufgrund der guten Einblicke in die Projekmanagement-Strukturen
wurde T-Mobile Austria als Unternehmen herangezogen. Der Leser wird
zunächst in die Grundbegriffe des Projektmanagements eingeführt. Nach
einer kurzen Vorstellung und Beschreibung des Unternehmens T-Mobile folgt
ein theoretischer Exkurs in das Thema „projektorientierte Organisation“. Die
letzten beiden Kapitel befassen sich dann mit der Analyse und Bewertung
des Projektmanagement-Prozesses bei T-Mobile. Dabei kommt die erlernte
Theorie des vorangegangen Kapitels zur Anwendung. Im Bewertungsteil
konnte festgestellt werden, dass es sogar in einem Unternehmen wie TMobile Verbesserungspotentiale in den Bereichen der Strukturierung, der
Kulturweiterentwicklung und sogar bei den Projektmanagement-Standards
vorhanden sind. Die regelmäßige Durchführung von Projektaudits ist hier nur
eine der möglichen Maßnahmen, die zur Effizienzsteigerung beitragen sollen.
INSTITUT FÜR ELEKTRISCHE ANTRIEBE UND
MASCHINEN
Michael Gamper
Entwicklung der Software-Schnittstelle eines Internet-gesteuerten
Positionierantriebes für E-Learning
Studium: Diplomstudium Informatik
BetreuerIn: Ao.Univ.Prof. Dr. Thomas Wolbank
Abstrakt: Die vorliegende Arbeit behandelt die Konzeption und
Implementierung einer Internet-gesteuerten Laborübung. Als Teil des
Leonardo da Vinci-Projekts zur Förderung der Berufs- und Weiterbildung
(EDIPE) soll die Laborübung in ein europaweites Netzwerk von OnlineLaborübungen eingegliedert werden, welches Studenten der Elektrotechnik
einfachen Zugang zu praxisbezogener Ausbildung ermöglicht. Einen
Schwerpunkt dieser Arbeit stellt der Entwurf einer geeigneten Schnittstelle
zwischen Labor-Hardware und Student dar, welche den Anforderungen an
ein praxisorientiertes E-Learning-System gerecht wird. Die SoftwareSchnittstelle übernimmt neben der Mensch-Maschine-Kommunikation in
Form eines GUI, das dem Studenten als Browser-Plugin zur Verfügung
gestellt wird, die Aufgabe der Kommunikation mit der Laborübung. Durch
die räumliche und zeitliche Trennung des Studenten vom Labor entstehen
neue Anforderungen an die Laborübungs-Software. Dazu zählen das zur
Verfügung Stellen eines geeigneten Hilfe-Systems (Hypertext), neuer
Kommunikationskanäle und Feedback-Möglichkeiten zwecks Bewertung und
Evaluierung (Webcam, elektr. Laborbericht). Da im Laufe des
Laborübungsbetriebs häufige Änderungen und Erweiterungen des Systems
zu erwarten sind, liegt das Hauptaugenmerk auf der Implementierung einer
einfach zu administrierenden und erweiterbaren Software. Diesen Zielen
Simon-Alexander Zerawa
Auswirkungen und Möglichkeiten der GS1 DataBar Einführung als Ergänzung
bestehender Barcodesysteme
Studium: Masterstudium Informatikmanagement
BetreuerIn: Ao.Univ.Prof. Dr. Kurt Matyas
Abstrakt: Mit Jänner 2010 wird eine neue Strichcodesymbologie für die
globale Identifikation von Handelswaren freigegeben. Der GS1 DataBar ist
kleiner als derzeitige Barcodes und kann mehr Daten auf gleichem Raum
darstellen. Die beschriebene Masterarbeit beschäftigt sich mit den
Auswirkungen dieser Einführung und geht auf mögliche Einsatzszenarien des
neuen Barcodes ein. Die neue Symbolfamilie des GS1 DataBar (ehemals
RSS für Reduced Space Symbology) berücksichtigt nicht nur neue
Anforderungen sondern ermöglicht auch zahlreiche bis jetzt nur umständlich
lösbare Anwendungen. Der etwa um 50% kleinere GS1 DataBar kann in
seiner Standardversion die gleichen Daten wie der EAN-13 Strichcode
darstellen und eignet sich so vor allem für kleine und lose Produkte, die
bisher nicht gekennzeichnet werden konnten. Expanded Versionen des GS1
153
154
wird durch die Programmierung passender Administrator-Werkzeuge und
durch die Anwendung von Entwurfsmustern Rechnung getragen. Da die
Laborübungs-Software als sicherheitskritisches System angesehen werden
muss, fließen schlussendlich auch Security- und Safety-Überlegungen in die
Arbeit mit ein, die sich mit der Sicherung des Systems gegen Angriffe aus
dem Netzwerk bzw. gegen Fehler auseinandersetzen. Als Ergebnis dieser
Arbeit ermöglicht die Schnittstellen-Software die Steuerung der Motion
Control-Laborübung über das Internet und die Eingliederung in das ELearning-Netzwerk des EDIPE-Projekts.
INSTITUT FÜR COMPUTERTECHNIK
Sandor Biro
Robot4Web
Studium: Diplomstudium Informatik
BetreuerIn: O.Univ.Prof. Dr. Dietmar Dietrich
Abstrakt: Robot4Web ist ein Projekt, erstellt für didaktische und
demonstrative Zwecke. Ziel dieser Diplomarbeit ist: einen Roboter
herzustellen, der in erster Linie über ein FPGA-Board
programmierbar und steuerbar ist. Darüber hinaus besteht die Möglichkeit,
den Roboter mit Hilfe einer in FPGA programmierte Anwendung, über eine
serielle Schnittstelle direkt anzusteuern. Sämtliche Bewegungen des
Roboters, aber auch seine Umgebung werden mit einer Webkamera
erfasst, die ebenfalls mit dem FPGA verbunden ist. Durch diese Tatsache
wird ermöglicht, dass in weiterer Folge Forschungsarbeiten auf dem Gebiet
der künstlichen Intelligenz durchgeführt werden können. Die Anbindung des
Roboters an den PC wird über ein FPGA-Programmierkabel und über ein RS232-Kabel stattfinden. Die gesamte Entwicklungsumgebung für die FPGAProgrammierung, und dadurch für den Roboter, ist mit Hilfe einer
Webanwendung realisiert worden. Damit wird die Einsetzbarkeit des
Systems im Bereich des E-Learning ebenfalls ermöglicht.
Michael Riepler
Kompensation von Totzeiteffekten und Realisation von sensorlosen
Regelungsstrukturen für umrichtergespeiste Asynchronmaschinen
Studium: Masterstudium Computergraphik und Digitale Bildverarbeitung
BetreuerIn: Ao.Univ.Prof. Dr. Thomas Wolbank
Abstrakt: Die sensorlose feldorientierte Regelung von Drehstromasynchronmaschinen wird vermehrt der Regelung mit Drehgeber
vorgezogen. Um den Sensor auf dem Motor einsparen zu können, muss die
Rotorflusslage hierbei aus Messungen elektrischer Größen bestimmt
werden. Vielfach werden Grundwellenmodelle wie das Spannungsmodell
eingesetzt, das aber im tiefen Drehzahlbereich keine brauchbaren
Ergebnisse liefert. Aus heutiger Sicht ist der sensorlose Betrieb bis zum
Flussstillstand nur mittels Injektionsmethoden oder ahnlicher Verfahren
möglich. Der erste Teil dieser Arbeit beschäftigt sich mit der Kompensation
von Totzeiteffekten des verwendeten Umrichters während eines InformZyklus. Die Totzeit verhindert während den Schalthandlungen einen
Kurzschluss über dem Zwischenkreis im Umrichter, indem die Schaltimpulse
verzögert angelegt werden. Diese Totzeit beeinflusst allerdings die InformAuswertung beträchtlich, da die Messungen des Stromanstiegs aufgrund
fixer Messzeitpunkte nicht im gewünschten magnetischen Arbeitspunkt
erfolgen. In dieser Arbeit wird ein Ansatz präsentiert, wie durch Verschieben
der Schaltzeitpunkte diese Totzeit kompensiert werden kann. Abhängig von
der Stromrichtung und der Schalthandlung wird der Schaltimpuls gerade um
die Totzeit früher an den Umrichter gesendet, sodass durch die
darausfolgende Verschiebung der Schaltzeitpunkte durch den Umrichter die
reale Schalthandlung zum gewünschten Zeitpunkt durchgeführt wird. Im
zweite Teil wird ein Verfahren vorgestellt, das die Rotorflusslage direkt aus
den beiden aktiven Zuständen der PWM des Stromreglers bestimmt, ohne
zusätzliche Testimpulse anlegen oder Maschinengleichungen auswerten zu
müssen. Dabei wird der vom Stromregler geforderte Spannungsraumzeiger
wenn nötig in gewissen Abständen so modifiziert, dass eine Messung des
Stromanstieges ermöglcht wird. Uber ein spezielles Auswertungsverfahren
kann aus den so gewonnenen Differenz-Stromänderungsraumzeigern die
Rotorausslage errechnet werden.
155
Isabella Hartl
Mobile Agenten und Sicherheit
Studium: Diplomstudium Informatik
BetreuerIn: O.Univ.Prof. Dr. Dietmar Dietrich
Abstrakt: Mobile Agenten sind Programme, die zwecks Erfüllung ihres vom
Benutzer erteilten Auftrags, innerhalb eines Netzwerkes autonom von
Rechner zu Rechner migrieren. Unterstützt werden sie dabei von lokalen
Plattformen, ohne deren angebotene Dienste ein mobiler Agent seine
Aufgabe nicht erfüllen könnte (z. B. Kommunikations- und Migrationsdienst).
Sobald ein mobiler Agent seine Heimatplattform verlässt, bewegt er sich in
einer potentiell böswilligen Umgebung. Seine aktuelle Wirtsplattform könnte
versuchen ihn zu attackieren, indem sie seine mitgeführten Daten
ausspioniert oder gar seinen Programmcode manipuliert. Gleiches gilt für
die Wirtsplattform, ein mobiler Agent könnte versuchen unberechtigten
Zugang zu ihren Daten oder Ressourcen zu erhalten. Aus diesem Grund ist
das Thema „Sicherheit“ sowohl für mobile Agenten als auch ihre Plattformen
von besonderer Wichtigkeit. Beide müssen sich gegen Angriffe absichern.
Diese Arbeit diskutiert den Begriff „Sicherheit“ und wie er in mobilen
Agentensystemen umgesetzt werden kann und beschreibt, wie weit sich
vorhandene Agentenstandards (FIPA und OMG) dem Thema Sicherheit und
seiner Umsetzung widmen. Nach einer Analyse der möglichen Angriffe auf
156
ein mobiles Agentensystem, werden jeweils zwei mobile Agentensysteme
vorgestellt (JADE und SeMoA, Aglets und Grasshopper) und deren
Sicherheitsmaßnahmen miteinander verglichen. Anschließend werden
Maßnahmen zur Umsetzung der Sicherheitsanforderungen diskutiert und
ihre Vor- und Nachteile besprochen. An Hand der konkreten
Agentenplattform
CARE
für
RFID
wird
die
Umsetzung
einer
Kommunikationsabsicherung in einem FIPA-konformem Agentensystem
vorgestellt.
möglich. Jedoch steigt mit der Leistungsfähigkeit auch die Komplexität.
Damit auch in Zukunft mit der zu erwartenden Komplexität umgegangen
werden kann, sind neue Verfahren zur Verarbeitung von Sensorwerten
erforderlich. Eine Möglichkeit besteht darin, mithilfe statistischer Methoden
die erfasste Situation in Gebäuden zu beschreiben. Eine interessante
Fragestellung ist, ob sich aus derartigen Modellen Prognosen für zukünftig
zu erwartende Situationen ableiten lassen. In dieser Arbeit wird untersucht,
inwieweit sich die Theorie über Hidden Markov Modelle (HMM) eignet, um
das Verhalten von Personen in einem Raum zu beschreiben und anhand der
erlernten Beschreibungen Vorhersagen über das zukünftige Verhalten einer
Person zu machen. Das Erstellen dieser Prognosen basiert auf bekannten
Algorithmen.
Weiters
wird
untersucht,
inwieweit
sich
Daten
unterschiedlicher Sensortypen in ein Modell integrieren lassen und welche
Vorhersagen so ein System liefern kann. In dieser Arbeit meint "Vorhersage
des Verhaltens" die Berechnung der Wahrscheinlichkeit der möglichen
Aktionen, die eine Person als nächstes ausführen kann und die auch vom
System wahrgenommen werden können. Jene Aktionen mit der höchsten
Wahrscheinlichkeit werden den Personen mitgeteilt. Aus diesem Grund
sollte die Verarbeitung der Daten in Echtzeit erfolgen. Hierfür wurde eine
Software Applikation entwickelt, welcher eine Liveanbindung an das
Sensorwerterfassungssystem zur Verfügung steht. Diese Anwendung
ermöglicht den Personen im Gebäude (d.h. in dem Raum, wo das System
betrieben wird), einen Blick hinter die Kulissen des Systems, indem sie die
relevanten Informationen auf einem Bildschirm darstellt, welcher von den
Benutzern betrachtet werden kann. Diese Darstellung zeigt einen Grundriss
des Raumes und alle installierten Sensoren. Aus den ausgelösten Sensoren
wird eine Abschätzung der vorhandenen Personen und deren Positionen
errechnet, die dargestellt wird. Für jede dieser vermuteten Personen wird
eine Vorhersage errechnet und ebenfalls dargestellt. Dadurch kann ein
Benutzer sehen, an welcher Position er vom System vermutet wird und
welche Vorhersage errechnet wurde. Es hat sich gezeigt, dass HMMs für
die Aufgabe der Modellierung derartiger Syteme gut geeignet sind und die
Möglichkeiten des Erstellens von Modellen mannigfaltig sind. Die Art der
Generierung ist entscheidend für die Qualität der Modelle. Weiters stellte
sich heraus, dass in eher kleinen Räumen, wie der, der zur Verfügung
stand, die Handlungen der Personen relativ ident sind, aber trotzdem große
Unterschiede zwischen ständig auftretenden und eher seltenen Szenarios
klar erkennbar sind. Die Integration von Werten verschiedener Sensortypen
in ein Modell ist insofern problematisch, als diese Werte untschiedliche
Wahrscheinlichkeiten des Auftretens haben. Dies wurde durch eine
Priorisierung bei der Auswertung kompensiert. Dieses Vorgehen bringt gute
Lösungen in dieser Anwendung, da alle Aktionen sehr stark auf die
räumliche Lokalität bezogen sind, kann aber mit hoher Wahrscheinlichkeit
nicht verallgemeinert werden. Für einen allgemeinen Lösungsansatz sollte
hier eine zusätzliche Abstraktionsebene eingeführt werden.
Stefan Kohlhauser
Requirement Analysis for a Psychoanalytically Inspired Agent Based Social
System
Studium: Diplomstudium Informatik
BetreuerIn: O.Univ.Prof. Dr. Dietmar Dietrich
Abstrakt: Eine künstliche Intelligenz zu erschaffen ist noch immer eine
Herausforderung. Es gibt viele Ansätze das menschliche Gehirn und seine
Methoden der Entscheidungsfindung nachzubilden. Diese beschränken sich
aber oft auf einen Teil der Funktionen des Gehirns. Ein am Institut für
Computertechnik entwickeltes Modell nimmt Anleihen an der Psychoanalyse,
speziell am zweiten topischen Modell von Sigmund Freud. Dieses Modell
repräsentiert einen ganzheitlichen Ansatz mit funktionalen Modulen. Für ein
derartiges Modell, welches menschliche Intelligenz simulieren soll, reichen
die Methoden der Überprüfung aus dem Bereich des Software Engineering
nicht aus. Menschliches Verhalten ist zu einem großen Teil emergent. Und
Funktionen, welche nicht in einer Anforderung an das System spezifiziert
wurden, sondern aus dem Zusammenspiel entstehen, sind schwer zu
überprüfen. Diese Arbeit versucht einige grundlegende Verhaltensweisen
des Menschen zu spezifizieren. Darauf aufbauend sollen Testmethoden
entwickelt werden, um zu überprüfen, ob dieses Verhalten auftritt,
beziehungsweise in welcher Form es sich äußert. Um diese Tests
durchführen zu können, werden im praktischen Teil einige Grundlagen dafür
geschaffen. Diese beschäftigen sich mit den zugrundeliegenden
physikalischen Prinzipien.
Josef Mitterbauer
Behavior Recognition and Prediction in Building Automation Systems
Studium: Diplomstudium Informatik
BetreuerIn: O.Univ.Prof. Dr. Dietmar Dietrich
Abstrakt: Mit ständig besser und günstiger werdenden Technologien im
Bereich der Gebäudeautomatisierung findet diese immer mehr Verbreitung,
sowohl im öffentlichen Bereich als auch im Wohnbau. Durch die
Verbesserungen in den Bereichen der Sensorik, Aktuatorik und
Kommunikationssystemen, werden immer leistungsfähigere Systeme
157
158
über weitere mögliche Entwicklungen dieses Projekts wie die
Zusammenarbeit mit anderen E-Learning-Projekten und -Plattformen befindet
sich im letzten Kapitel. Im Anhang befinden sich neben den obligatorischen
Verzeichnissen und dem Glossar, Erläuterungen zur Architektur und
relevante Details zur Implementierung in Adobe Flash.
Markus Rossler
Selbsterklärender, plattformunabhängiger ALU-Simulator für die universitäre
Lehre
Studium: Diplomstudium Informatik
BetreuerIn: Em.Univ.Prof. Dr. Richard Eier
Abstrakt: Die vorliegende Arbeit behandelt die Erstellung eines MC8 ALUSimulators. Der MC8 ist ein Modellcomputer, der am Institut für
Computertechnik (ICT) der Technischen Universität Wien für die Lehre
entwickelt wurde. Die Arithmetisch Logische Einheit (engl. arithmetic logic
unit, ALU) ist ein Teil des Prozessors und ist unter anderem für
arithmetische und logische Operationen zuständig. Das Ziel dieser im World
Wide Web verfügbaren Adobe-Flash-Applikation ist, die technischen
Zusammenhänge sowie die zeitlichen Abläufe der ALU innerhalb der
Hardware leicht verständlich zu visualisieren. Zunächst wird auf Methoden
moderner Wissensvermittlung und die Bedeutung von E-Learning
eingegangen. Die folgenden Abschnitte befassen sich mit den fachlichen
Grundlagen der Inhalte, soweit es für das Verständnis der vorliegenden
Arbeit erforderlich ist. Grundlegende elektronische Schaltungen werden
beschrieben, die dazu genutzt werden können, arithmetische oder
aussagenlogische Funktionen auszuführen. Essentiell bei der Erörterung der
Grundlagen sind die Zustandsspeicher, die als Basis für Schaltwerke dienen.
Diese können ausgehend von einem aktuellen Zustand und Eingabewerten
einen Nachfolgezustand ermitteln und Ausgabewerte bzw. Steuersignale
produzieren. Diese Eigenschaften werden benötigt, um Steuerwerke zu
erzeugen, die das Verhalten einer ALU steuern. In dieser Einheit werden die
zuvor gezeigten grundlegenden Schaltungen sowie einige zustandsabhängige
Operationen
durchgeführt.
Das
ist
Gegenstand
der
Softwareimplementierung dieser Diplomarbeit. Im Weiteren wird auf die
Vereinfachungen des Modells und auf Kompromisse zugunsten der
Verständlichkeit der Darstellung eingegangen. In Folge geht die Arbeit auf
die technische Plattform ein. Sowohl ein kurzer geschichtlicher Abriss der
Entwicklung von Programmiersprachen als auch die Kriterien für die
Auswahl der Adobe Flash-Plattform werden erläutert. Ergebnisse der
Recherche, welche Projekte ähnliche Ziele verfolgen, schließen den ersten
allgemeinen Teil der Arbeit ab. Darauf folgt eine Analyse, welche Ziele und
Nichtziele die Applikation für die ermittelten Zielgruppen erfüllen soll, sowie
ein Vergleich mit bisher vom ICT im Rahmen von Diplomarbeiten
erarbeiteten ELearning Simulatoren. Im weiteren Verlauf der Arbeit werden
die Details und Abläufe der umgesetzten Berechnungs- und Logikoperationen
dargestellt und es wird auf programmtechnische Besonderheiten bei der
Umsetzung behandelt. Um eine konsistente Ansicht für alle Darstellungen
von Befehlen zu ermöglichen wurden Standards erarbeitet, welche auch
erläutert werden. Danach erfolgt eine detaillierte Beschreibung der
realisierten Operationen samt genauer Beschreibung der Abläufe. Diese
Auflistung ist sehr umfangreich, da insgesamt zwölf Operationen in jeweils
zwei unterschiedlich komplexen Darstellungen realisiert wurden. Ein Ausblick
159
Stefan Vielguth
Nachrichtenbasierte Simulation von elektrischen Lastflüssen
Studium: Diplomstudium Informatik
BetreuerIn: O.Univ.Prof. Dr. Dietmar Dietrich
Abstrakt: Elektrische Energienetze bilden das Rückgrat der Versorgung der
Menschen mit elektrischer Energie. Im Zuge des zunehmend wachsenden
Bedarfs an elektrischer Energie ist ein stetiger Netzausbau für viele
Versorgungsregionen unumgänglich. Ursprünglich waren Energienetze als
strikte Top-Down-Strukturen angelegt. Das bedeutet, dass die von den
Primär-Einspeisungsknoten (Kraftwerken) hin zu den Endverbrauchern
benötigte Struktur, einmalig großzügig hinsichtlich der Beanspruchung durch
elektrische Randparameter wie Ströme, Spannungen und Leistungen
ausgelegt und keine größeren Veränderungen mehr durchgeführt wurden.
Im Zuge der Liberalisierung der Energiemärkte und des zunehmenden
Energiebedarfs kommt es heutzutage vor allem im Bereich der
Mittelspannungs- und Niederspannungsebene zu zusätzlichen Einspeisungen
von
elektrischer
Energie.
Beispiele
dafür
sind
Windoder
Biomassekraftwerke. Dies verändert allerdings die Situation der
Energienetze, da neue Einspeisepunkte im Betrieb die elektrischen
Parameter im Bereich der betroffenen Spannungsebene verändern. Deshalb
ist es notwendig, noch vor der Planung bzw. Inbetriebnahme neuer
Kraftwerke, die Auswirkungen auf das betroffene Netz abschätzen zu
können. Zu diesem Zweck wurden Verfahren der Lastflussanalyse
entwickelt. In dieser Arbeit wird der Fokus auf die Implementierung eines
nachrichtenbasierten Lastflussanalyse-Verfahrens, das auf einem Vorwärts/Rückwärtsschritt-Verfahren basiert, gelegt. Für die Implementierung des
Verfahrens wird das Open-Source-Framework OMNeT++ [3] herangezogen,
welches es ermöglicht, Graphenmodelle aufzubauen und Nachrichten
zwischen den Knoten des Graphen auszutauschen. Weiters wird die
Integration des Algorithmus in die Architektur der Simulationsplattform
DAVIC beleuchtet. DAVIC ist eine Simulationsplattform des Instituts für
Computertechnik, die es ermöglichen soll, Geld-, Kommunikations- und
Energieflüsse in Energienetzen zu simulieren. Als Ergebnis wurde eine
Lösung implementiert, die es ermöglicht, ein einfaches elektrisches
Verteilnetz bestehend aus Leistungs- und Leitungsknoten in Graphenform zu
modellieren und für die gegebenen Parameter eine Lastflussanalyse
durchzuführen. Weiters wurde in der Lösung ein Ansatz für eine MonteCarlo-Simulation vorgesehen. Die Berechnungsergebnisse sind mit denen
160
von matrizenbasierten Verfahren bzw. kommerziellen Softwarepaketen
vergleichbar.
IN ZUSAMMENARBEIT MIT ANDEREN
WISSENSCHAFTLICHEN EINRICHTUNGEN
Dilek Apaydin-Yücel
Patient Empowerment in E-Health
INSTITUT FÜR BREITBANDKOMMUNIKATION
Studium: Masterstudium Medizinische Informatik
BetreuerIn: Ao.Univ.Prof. Dr. Walter Gall, Medizinische Universität Wien
Vincent Chimaobi Emeakaroha
Quality of service IP networking with multiservice admission control.
Abstrakt: Web-Anwendungen haben sich über die letzten Jahrzehnte stark
verändert. Die erste Generation zielte auf die einfache Bereitstellung von
Informationen mittels statischer Websites. Durch die zweite Generation
wurde eine neue Dimension eröffnet, wobei Web-Anwendungen nicht mehr
nur als Mittel zur Informationsdarstellung gesehen werden, sondern auch
vielfältige Dienste zur Verfügung stellen. Durch die daraus folgende
Erhöhung des Entwicklungsaufwands von Web-Anwendungen entsteht die
Notwendigkeit, die Entwicklung durch die Verwendung von modellbasierten
Entwicklungsmethoden und spezifischen Web-Modellierungssprachen zu
unterstützen. Die modellgetriebene Softwareentwicklung hat durch die
Model Driven Architecture Initiative (MDA) stark an Bedeutung gewonnen.
MDA zielt im Allgemeinen darauf ab, Modellierungssprachen aus
verschiedenen Bereichen zu standardisieren, um Interoperabilität zwischen
den verschiedenen Modellierungswerkzeugen zu schaffen. Jedoch wird MDA
zurzeit nur als eine Vision gesehen, da die notwendige Basis für die
Realisierung fehlt. Betroffen davon ist auch der Web Engineering Bereich,
da bestehende Web-Modellierungsmethoden im Sinne der MDA nicht
vollständig modellgetrieben sind. Es fehlen die entsprechenden Metamodelle
zu den Web-Modellierungssprachen und die Modelltransformationen, um
Modellaustausch
zwischen
den
Web-Modellierungswerkzeugen
zu
gewährleisten. Diese Arbeit versucht eine erste Lösung für das
Interoperabilitätsproblem
zwischen
den
verschiedenen
WebModellierungswerkzeugen umzusetzen. Ob eine verlustfreie Abbildung
zwischen eingesetzten Web-Modellierungssprachen entwickelt werden kann,
bildet die zentrale Forschungsfrage, die im Zuge dieser Arbeit beantwortet
wird.
Studium: Masterstudium Software Engineering und Internet Computing
BetreuerIn: O.Univ.Prof. Dr. Harmen R. van As
Abstrakt: Das Internet protocol (IP) unterstützte ursprünglich nur Best Effort
Zustellungsstrategien fur IP Verkehrsflüsse. Mit der schnellen Evolution von
Kommunikationsnetzen und der Transformation des Internets in eine
kommerzielle
Infrastruktur,
ergab
sich
das
Verlangen
nach
Dienstgüte(Quality of Service). Durch die Verbindung von ursprünglich
isolierten Netzen entstand die Notwendigkeit von Mehrdienst-Netzen,
wodurch die Differenzierung von Dienstgüte, bedingt durch die
unterschiedlichen Dienste, zur zentralen Herausforderung wurde. Das
Streben um Service-Qualität in IP Netzen zu garantieren führt zu Definitionen
von Technologien wie Integrated Service, Differentiated Service und
Multiprotocol Label Switching. Unterschiedliche technologische Ansätze
verwenden Admission Control (AC) Mechanismen um RessourcenVerfügbarkeit sicherzustellen, und dadurch ausreichende Qualität, in
Applikations-Verkehrsflüssen,
zu
gewährleisten.
Diese
Diplomarbeit
erarbeitet einen Ansatz und eine Implementierung eines Mehrdienste
Frameworks, um Dienstgüte für mehrere priorisierte, unterschiedliche,
Verkehrsflüsse, welche gleichzeitig ein Netz passieren, zu garantieren. Das
Framework implementiert vier MBAC Algorithmen um Verkehrsflüsse zu
steuern,
sowie
einen
statischen
und
einen
dynamischen
Bandbreitenallokations-Mechanismus um die Zuteilung der Netzressourcen,
zu den Verkehrsklassen, abhängig von ihrer Priorität, durchzuführen.
Gioia Baldass
Umsetzung ausgewählter Kommunikationsansätze im Webdesign
Studium: Masterstudium Wirtschaftsinformatik
BetreuerIn: Ao.Univ.Prof. Dr. Renate Motschnig, Universität Wien
Abstrakt: Die zentrale Fragestellung dieser Arbeit lautet: „Gibt es Mittel und
Möglichkeiten, präsente Kommunikationsansätze in der Entwicklung einer
interaktiven Webapplikation umzusetzen?“. Für die Untersuchung dieser
Frage wurden für diese Arbeit beispielhaft vier Kommunikationsansätze
ausgewählt, die sich in der präsenten Kommunikation bewährt haben: Die
161
162
vier Seiten einer Nachricht nach Friedemann Schulz von Thun,
Transaktionsanalyse nach Eric Berne, Personzentrierter Ansatz nach Carl R.
Rogers und Gewaltfreie Kommunikation nach Marshall B. Rosenberg. Diese
vier Ansätze werden in der Arbeit dahingehend untersucht, ob es sinnvolle
Möglichkeiten gibt, Elemente oder Konstrukte aus ihnen bei der Entwicklung
einer interaktiven Webapplikation so einzusetzen, dass dadurch der Nutzen
des Angebots für alle Beteiligten steigt. Ziel ist es dabei, eine möglichst
transparente Kommunikation zu gewährleisten und dadurch die Klarheit
über Nutzen und Gebrauch der Seite für die potenziellen BenutzerInnen zu
erhöhen. Effekte, die ich mir dadurch erhoffe, sind einerseits eine
gesteigerte Zufriedenheit der BenutzerInnen und eine Senkung des
Missbrauchsrisikos (etwa zu Werbezwecken) und andererseits eine erhöhte
Wahrscheinlichkeit, dass die Ziele, die ein/e EntwicklerIn mit der
Entwicklung der Seite verfolgt, erreicht werden, weil ihre/seine Intentionen
klarer zum Vorschein kommen. Kapitel 1 befasst sich mit der Theorie zu
den untersuchten Kommunikationsansätzen. Die wesentlichen Elemente
werden hier herausgearbeitet und die Basis für das Verständnis der
weiterführenden Kapitel geschaffen. Kapitel 2 enthält die Dokumentation der
Webapplikation,
die
ich
beispielhaft
für
die
Umsetzung
der
Kommunikationsansätze im Webdesign entwickelt habe. Kapitel 3 schließlich
untersucht
die
Möglichkeiten
der
Umsetzung
der
einzelnen
Kommunikationsansätze, die mit Beispielen anhand der Webapplikation
„Wanderer“
herausgearbeitet
werden.
Dabei
wird
jeder
der
Kommunikationsansätze getrennt betrachtet und im Hinblick darauf
untersucht, welche seiner Elemente und Konzepte in förderlicher Weise im
Webdesign
integriert
werden
können.
Die
Ergebnisse
dieser
Auseinandersetzung werden jeweils im Anschluss beispielhaft an der
Webapplikation „Wanderer“ demonstriert. Kapitel 4 beschäftigt sich mit
Fragen, die bei dieser Arbeit offen geblieben sind, Folgerungen aus der
vorliegenden Untersuchung und persönlichen Lernerfahrungen.
Datenlokalität entwickelt worden. Bei dieser Strategie, die darauf abzielt das
Verhalten der Caches zu optimieren, wird versucht Prozessor Stalls verursacht durch Cache Misses - zu verstecken indem mehrere Threads auf
einen Core zugewiesen werden und somit immer ein bereiter Thread zur
weiteren Abarbeitung auf dem Core zur Verfügung steht.
Sebastian Bolnberger
Prototyp eines Web-Modelleditors auf Basis der Eclipse Technologien GMF
und RAP: Konzept und Implementierung
Studium: Diplomstudium Wirtschaftsinformatik
BetreuerIn: O.Univ.Prof. Dr. Dimitris Karagiannis, Universität Wien
Abstrakt: Die Idee vom automatisch generiertem Source Code (SC) in der
Informatik ist wahrscheinlich genauso alt wie die Informatik selbst. Mit Hilfe
des Model Driven Software Development (MDSD) Ansatzes ist es heute
möglich durch das Erstellen von Modellen automatisch produzierten
Programmcode zu gewinnen. Unter gewissen Vorraussetzungen kann mit
dem MDSD eine höhere Entwicklungsgeschwindigkeit sowie eine bessere
Handhabbarkeit der Software erzielt werden und aufgrund einer höheren
Abstraktion, manifestiert durch die Modelle, kann die Softwarequalität im
Allgemeinen gesteigert werden. Das Eclipse Graphical Modeling Framework
(GMF) nimmt sich diesem Ansatz an, indem zunächst Modelle erarbeitet
werden, welche die Aufgabenstellung eindeutig beschreiben und als Input für
die SC Generierung dienen. Als Output liefert das GMF automatisch
realisierte Modellierungseditoren, mit Hilfe deren die gewünschte Domäne
abgebildet und modelliert werden kann. Die Eclipse Rich Ajax Platform (RAP)
ist ebenfalls ein generativer Ansatz, jedoch für die Entwicklung von Rich
Internet Applications. Hierbei beschränkt sich die Entwicklung auf die
Programmiersprache Java, von der ausgehend die für das Internet
notwendigen Komponenten – HTML, JavaScript, Asynchronous JavaScript
and XML (Ajax), CSS usw. – von dem RAP erstellt werden. Die Diplomarbeit
soll das GMF, das RAP und deren Voraussetzungen in einem theoretischen
Teil vorstellen sowie analysieren. Ausgehend von den beiden Technologien
drängt sich die Frage regelrecht auf, ob eine Kombination dieser Konzepte
einen sowohl effizienteren als auch effektiveren Softwareentwicklungsprozess
im Bereich von Web-Anwendungen ermöglichen kann. Der praktische Teil
wird versuchen auf diese Frage eine Antwort zu finden, indem mit Hilfe
dieser Ansätze ein webbasierter Modelleditor implementiert wird. In diesem
Zusammenhang soll auch geklärt werden, welche gemeinsamen
Schnittstellen das GMF / RAP aufweisen, um mit Minimalem manuellem
Eingriff effizient arbeiten zu können. Nachdem es sich um junge Disziplinen
handelt, besteht die Möglichkeit, dass solche Verknüpfungspunkte noch gar
nicht konzipiert worden sind. An dieser Stelle sollen adäquate
Lösungsvorschläge präsentiert werden, um zukünftig eine homoge
Zusammenarbeit zu ermöglichen.
Marion Bauer
Performanceanalyse von multi-core Prozessoren für Anwendungen aus
Computational Science
Studium: Masterstudium Wirtschaftsinformatik
BetreuerIn: Ao.Univ.Prof. Dr. Eduard Mehofer, Universität Wien
Abstrakt: In dieser Arbeit werden die Performance-Eigenschaften von multicore Prozessoren für Anwendungen aus Computational Science analysiert.
Bei
diesen
Eigenschaften
handelt
es
sich
insbesondere
um
Ausführungszeiten von Anwendungen, die sehr große Datenmengen in Form
von Arrays haben und auf diesen Daten arithmetische Operationen
ausführen. Bei diesen Messungen, die auf verschiedene Desktop- und
Serverarchitekturen durchgeführt wurden, kann festgestellt werden, wie
groß die Bedeutung von guter Datenlokalität in parallelisierten,
wissenschaftlichen Anwendungen ist. Weiters ist eine Technik für schlechte
163
164
Führungskräften ermöglichen fachlich zu handeln sowie richtig Situationen
einzuschätzen. Diese Arbeit wird versuchen Antwort auf folgende Frage zu
geben: Ist es möglicht Führungskompetenzen bei Personen durch Blended
Learning Methoden zu entwickeln und wie kann solch eine
Kompetenzentwicklung verwirklicht werden. Damit eine Antwort auf die
gestellte Frage gegeben werden kann, werden in dieser Arbeit zu aller erst
Grundbegriffe des Führungsprozesses systematisch definiert und erläutert.
Darauffolgend werden Führungserfolgsmodelle untersucht, welche basierend
auf Eigenschafts- sowie Verhaltenstheorien der Führung, Kompetenzen von
Führungskräften hervorheben sollen. Anschließend darauf werden die
theoretischen Aspekte von Führungskompetenzen und Blended Learning
Lernumgebungen durchdiskutiert. Schlussendlich werden „Best Practise"
Beispiele der Entwicklung von Führungskompetenz durch Blended Learning in
berühmten Großunternehmen vorgestellt und ein Leitfaden zur Umsetzung
eines
Blended
Learning
Konzeptes
zur
Entwicklung
von
Führungskompetenzen im Rahmen einer Lehrveranstaltung ausgearbeitet."
Friedrich Dimmel
Usability Enhanced Agile Development for Web-Based Applications
Studium: Masterstudium Informatikmanagement
BetreuerIn: Ao.Univ.Prof. Dr. Renate Motschnig, Universität Wien
Abstrakt: Die letzten Jahre brachten vielen neue Technologien in den WebBereich. Der neueste Trend, bzw. die Bezeichnung Web 2.0 steht gerade
dafür, dass sich für Benutzer und Entwickler viel getan hat und sich neue
Möglichkeiten eröffnen. Ein ebenso aktueller Bereich aus dem Umfeld von
Web 2.0 sind sogenannte Rich Internet Applications. RIAs sind WebApplikationen, die im Browser ablaufen aber neue Funktionalitäten
einbringen und somit komplexere Daten visualisieren und verarbeiten
können. Multimedia Daten, wie z.B. Videos oder Musik, etc. lassen sich
ebenso in Rich Internet Applications einbetten. Die letzten Jahre brachten
viele neue Firmen und Start-Ups auf den Markt, vor allem benutzerzentrierte
Web-Applikationen sind derzeit ein Hype. Viele verschiedene Firmen hatten
wohl die gleichen Ideen, wenn es um solche Applikationen geht, doch nur
wenige schafften es bis an die Spitze. Vor allem Start-Ups ohne viel Kapital
können sich jedoch keine millionenteuren Marketing-Auftritte leisten; es
muss daher andere Grüne geben, warum Firmen mit ihren Ideen erfolgreich
sind. Einer dieser Gründe war höchstwahrscheinlich die Usability, also die
möglichst einfache Benutzbarkeit von solchen Services. Wenn es darum
geht, Benutzer an Webseiten zu binden und vor allem den Benutzer Teil der
Webseite werden zu lassen, in dem er zu den Inhalten beiträgt, ist es
wichtiger als je zuvor, die Webseite so zu gestalten, dass der Benutzer sich
mit ihr zurechtfindet. Für Software-Entwicklung gibt es viele verschiedene
Richtlinien, jedoch kaum angepasst an moderne Web-Applikationen. Gerade
der Umstand, dass der Benutzer ins Zentrum der Applikationen tritt,
erfordert aber die Analyse solcher Richtlinien für Web-Applikationen und im
Speziellen auch für Rich Internet Applikationen. Der Autor dieser Arbeit hat
das Thema aufgrund seines großen Interesses zu den Themen WebApplikationen, Usability und auch Agile Methoden ausgewählt. Bereits seine
Bakkalaureatsarbeit handelte von „Rich Internet Applications and Service
Oriented Architectures“. Diese Arbeit beleuchtet die Implementierung von
solchen RIAs, speziell im Hinblick auf Usability und den Entwicklungsprozess
mit Agilen Methoden.
Michael Koitz
Implementierung und Analyse von Parallelen, Verteilten Datenbank
Operationen auf Service-orientierten Architekturen
Studium: Masterstudium Software Engineering und Internet Computing
BetreuerIn: Ao.Univ.Prof. Dr. Erich Schikuta, Universität Wien
Abstrakt: Diese Diplomarbeit befasst sich mit der Optimierung von Parallelen
Datenbank Operationen in heterogenen Umgebungen. Der Fokus ist auf
Sortier und Join Operationen gelegt, wegen ihrer Relevanz in fast allen
Datenbank Systeme. Für die Implementierung der Sortier Operationen
wurden der Parallel Binary Merge Sort und der Block Bitonic Sort
ausgewählt, weil sie eine gute parallele Effizienz bieten. Für die
Implementierung der Join Operationen wurde der Fokus auf den Merge Join,
Nested Loop Join und den Hash Join gelegt. Alle diese Algorithmen wurden
als Web Services implementiert um sie einfach zwischen den Nodes
(Computer) zu transferieren. Als Framework wurde SODA wegen der
Flexibilität und Erweiterbarkeit ausgewählt. SODA ist in Java geschrieben und
benutzt Apache Tomcat als Container für die Web Services. Die Arbeit
basiert auf der Idee die variierenden Ressource Charakteristiken (z.B.
Netzwerkbandbreite) von heterogenen Umgebungen auszunutzen. Diese
Herangehensweise wurde implementiert und mittels Speedup und Scale-up
Analyse bestätigt.
Haris Jaganjac
Entwicklung von Führungskompetenz durch Blended Learning
Studium: Masterstudium Wirtschaftsinformatik
BetreuerIn: Ao.Univ.Prof. Dr. Renate Motschnig, Universität Wien
Abstrakt: Führungskompetenzen stellen besondere Fähigkeiten dar mit Hilfe
von welchen Führungskräfte in der Lage sind den Führungsalltag zu
meistern. Diese schließen, unter anderen, Fertigkeiten ein welche
165
166
Wolfgang Koller
Ausgewählte formale und programmtechnische Aspekte des medizinischen
Expertensystems FuzzyKBWean
Gottfried Nindl
Eine Ajax Literaturdatenbank mit ADOweb
Studium: Diplomstudium Wirtschaftsinformatik
BetreuerIn: O. Univ. Prof. Dr. Dimitris Karagiannis, Universität Wien
Studium: Diplomstudium Informatik
BetreuerIn: Univ.Prof. Dr. Klaus-Peter Adlassnig, Medizinische Universität
Wien
Abstrakt: Nach dem „Platzen der Dot-Com Seifenblase“ muss sich die
Internet Branche auf neue Konzepte besinnen. Das Schlagwort Web 2.0
beschreibt einen neuen, kollaborativen Ansatz, der Benutzer zunehmend in
den Gestaltungsprozess von Software involviert. Am Musterbeispiel der
Online-Enzyklopädie Wikipedia kann man erkennen, dass kollektive
Wissensarbeit zu einer Multiplikation des individuellen Wissens führt. Zur
Etablierung eines solchen sozialen Umfelds wird ein Prototyp für eine
webbasierte
Literaturdatenbank
entwickelt,
welche
ein
Dokumenteninformationsportal
für
das
Wissensmanagement
einer
Community bereit stellen soll. Das Ziel ist die Schaffung eines
synergetischen, wachsenden und selbstregulierenden Informationsraums, in
dem sich dessen Teilnehmer gegenseitig fördern und helfen können. Dafür
gewährleistet die Technologie Ajax (Asynchronous JavaScript and XML) den
Komfort und die Benutzerfreundlichkeit einer Rich Internet Applikation (RIA).
Die
Wissensmanagementmethode
PROMOTE,
welche
als
Anwendungsbibliothek des Modellierungswerkzeugs ADONIS implementiert
ist, definiert die Bedeutung der abgelegten Dokumente. Das funktionale
Verbinden von Ajax und ADONIS wird mit dem Webframework ADOweb
bewerkstelligt. Weiterhin beschreibt das Schlagwort Web 2.0 nichts
anderes als die Metamorphose einer Benutzeroberflächentechnologie zu
einer Plattform. Blogs und Wikis sind nur die ersten Vorboten einer neuen
Generation von Applikationen, die kollaborative Umgebungen auf der
Grundlage des Internets konstruieren. Das Web von morgen besitzt das
Potential die Infrastruktur der virtuellen Realität bilden zu können, da auf
viele Funktionen, wie z. B. die Partizipation und die Vernetzung, zurück
gegriffen werden kann. Ajax wird in naher Zukunft großer Erfolg verheißen,
da browserbasierte Applikationen den Betriebssystemdistributionen
Konkurrenz machen werden. Diese Behauptung wird durch den entwickelten
Prototyp untermauert, der auf dem ausgewählten Ajax Framework RAP eine
RIA aufsetzt. Open Source Projekte können auch für kommerzielle
Unternehmen interessant werden, da sie zum Anwerben neuer Kunden
verwendet werden können. Die Etablierung einer Community ist
entscheidend, wobei auch das Softwareunternehmen BOC mit ihrem
Forschungsprojekt ADOweb ungeahnte Potentiale nutzen kann.
Abstrakt: Das Ziel des Projektes FuzzyKBWean war es, auf Intensivstationen
die Entwöhnung, das so genannte „Weaning“, beatmeter Patienten vom
Beatmungsgerät (Respirator) durch ein medizinisches Expertensystem zu
steuern. In der ersten Implementierungsstufe soll es als „open-loop“-System
den behandelnden Ärzten eine möglichst effiziente, das heißt rasche und
schonende,
Entwöhnungsstrategie
vorschlagen,
während
die
Handlungsentscheidung dem Arzt überlassen bleibt. Aufbauend auf den in
dieser Phase gewonnenen Erfahrungen, nach ausgedehnten Tests und nach
Optimierung der Wissensbasis, ist als endgültiges Ziel ein „closed-loop“System vorgesehen. Bei diesem wird das Expertensystem die Entwöhnung
autonom steuern und der Arzt muss nur in Ausnahmefällen, wie zum
Beispiel in Notsituationen, eingreifen. In dieser Arbeit werden drei
Komponenten beschrieben, die aufbauend auf einer bereits existierenden
Implementierung
von
FuzzyKBWean
realisiert
wurden.
Die
Wissenserwerbskomponente ermöglicht eine interaktive Modellierung und
Anpassung von Wissensbasen. Im Datenbankkonzept werden all jene
Mechanismen beschrieben, die für die Speicherung der relevanten Daten
sorgen. Die Inferenzkomponente schließlich interpretiert die vom
Patientendatenmanagementsystem gelieferten physiologischen Daten und
berechnet auf der Grundlage der in der Wissensbasis enthaltenen Regeln
neue Stellwerte für das Beatmungsgerät. Die aktuelle Version von
FuzzyKBWean ist ein regelbasiertes Expertensystem mit Echtzeitverhalten.
Seine hervorstechendste Eigenschaft ist, dass es zur Steuerung der
Entwöhnung
zwei
Konzepte,
nämlich
Fuzzyund
Nicht-FuzzyRegelungsmodelle, einsetzt und dadurch einen direkten Vergleich der beiden
Ansätze ermöglicht. Man geht in der Arbeitsgruppe FuzzyKBWean davon
aus, dass ein unscharfes („fuzzy“) Regelungskonzept der Denk- und
Ausdrucksweise von medizinischen Experten näher kommt als ein Modell auf
der Basis von scharfer („crisp“) Logik. Dadurch erhofft man sich ein
Regelungsverhalten des Systems, das einen kontinuierlicheren, für den
Patienten schonenderen und insgesamt effizienteren Entwöhnungsvorgang
zur Folge hat.
167
168
existierendes Framework als Basis oder Anhaltepunkt besitzt. Dieser
Rahmen wird für IT Unternehmensarchitekturmanagement im BMF/BRZ
benutzt. Wir werden einen Blick auf die Ziele werfen sowie auf die Prinzipien
die, auf den Zielen basierend, festgelegt wurden. Auch werden wir sehen
wie diese Prinzipien angewendet werden und welchen Einfluss dies auf die
verschiedenen Ebenen der Architekturmodelle hat. Dem Hauptteil folgt eine
Zusammenfassung und Diskussion. Wir werden darin besprechen, was wir
aus dieser Arbeit schliessen können und für die weitere Zukunft gelernt
haben und mit auf den Weg nehmen können.
Hristo Novatchkov
Mobile Coaching
Studium: Masterstudium Wirtschaftsingenieurwesen Informatik
BetreuerIn: Ao.Univ.Prof. Dr. Arnold Baca, Universität Wien
Abstrakt: Der Anwendungsbereich des mobilen Trainings zählt zu den relativ
jungen und aufstrebenden Methoden in der Welt der Sportinformatik.
Dessen Hauptziel ist es, Sportler sowie deren Betreuer durch das Einbinden
von leicht anwendbaren bzw. mobilen Hilfsmitteln bei der Durchführung ihrer
Sporteinheiten zu unterstützen. Solch eine Mobilisierung wird in erster Linie
durch die Verwendung von Handheld-PCs wie z.B. PDAs erreicht. Die
meisten Geräte dieser Art konnen sich mittlerweile drahtlos mit dem
Internet und anderen Rechnernetzen verbinden, was ihre Anwendung an
nahezu beliebigen Orten möglich macht. Auf diese Art und Weise kann eine
beständige Verbindung sowie eine stabile Datenübertragung sehr einfach
realisiert werden. Diese Arbeit präsentiert eine konkrete Implementierung
eines mobilen Trainingssystems, welches im Stande ist, all diese Vorteile zu
nutzen. Ein PDA dient dabei als Speicher- und Synchroniesierungseinheit fur
verschiedene Arten von Informationen, wie z.B. biomechanische Daten,
während eine Serverkomponente die abgeglichenen Werte verarbeitet, um
diese später in Form eines Diagramms fur den Endbenutzer abrufbar zu
machen.
David Pölz
Evaluation of selected machine learning methods for detecting pishing e-mail
Studium: Masterstudium Wirtschftsinformatik
BetreuerIn: Univ.Ass. Dr. Wilfried Gansterer, Universität Wien
Abstrakt: The thesis deals with the problem of detecting phishing e-mails. In
con- trast to spam e-mails, phishing e-mails are designed to look very similar
to legitimate e-mails which makes them hard to detect. My main interest is
to investigate the idea of finding phishing e-mails with machine learning
algorithms based on a feature set which was deter- mined in previous work.
First, the thesis gives an overview of the phishing situation and conveys
background information about the test data used. Then I review five
important machine learning algorithms: Decision trees , neural networks ,
naive bayes , k nearest neighbor and support vector machines For each of
this algorithms the thesis explains how it basically works. Then it shows how
it can be applied to the phishing detection problem. For experiments I apply
the widely used data mining program. This process is documented in detail
and the most important parameter options are explained. Furthermore I try
to improve the results of the regular machine learning algorithms by
applying combination techniques like bagging, boosting and stacking. The
final chapter compares the results achieved for the phishing detec- tion
problem with each of the five algorithm for various parameter settings.
Moreover it explains why there are differences in the results and what are
advantages and disadvantages of the five algorithms concerning available
data, run time and prediction accuracy.
Jean-Marie Parisot
The role of standards in IT-architecture: BMF/BRZ case study
Studium: Masterstudium Informatikmanagement
BetreuerIn: O.Univ.Prof. Dr. Dimitris Karagiannis, Universität Wien
Abstrakt: IT Unternehmensarchitekturmanagement ist während den letzten
Jahren immer mehr in den Mittelpunkt für Manager getreten. Da
Unternehmen von ihrer IT Funktionalität abhängen, wurde es plötzlich eine
Tatsache, daß es wichtig ist, seine IT zu kennen, sowie, und diese an den
Unternehmensplan zu justieren. Nur ein Unternehmen, das dies umsetzt,
wird erweitert, ist erfolgreich und spart zukünftig Geld. Das schwierigste
hierbei ist jedoch einen Plan zu schaffen um das ganze erfolgreich
umzusetzen. Einige Frameworks können als Grundlage oder Anhaltepunkt
benutzt werden, jedoch muss ein eigenes Framework erstellt werden das
das Unternehmen darstellt. Diese Arbeit wirft zunächst einen allgemeinen
Blick auf IT Architekturmanagement, wie sich das ganze entwickelt hat, die
Grundsteine, und wie wir es heutzutage kennen. Auch werden wir sehen
was wirklich zu IT Architekturmanagement gehört und wie es aufgebaut ist.
Auch werden die wichtigsten und bekanntesten Frameworks besprochen,
analysiert und verglichen und daraus das Framework gewählt was für den
zweiten Teil der Arbeit notwendig erscheint. Der größte Teil der Arbeit
besteht aus der Entwicklung von einem IT Architekturrahmen der ein schon
169
Jana Rajtarova
Management of antibiotics for urinary tract infections
Studium: Masterstudium Medizinische Informatik
BetreuerIn: Univ.Prof. Dr. Klaus-Peter Adlassnig, Medizinische Universität
Wien
Abstrakt: Sachgemäße und effektive Verschreibung von Antibiotika wird
durch die Entwicklung neuer, resistenter Bakterien immer wichtiger.
170
Fehlende Information über die Ursache einer Infektion resultiert oftmals in
der Verschreibung von Breitbandantibiotika, welche die Entwicklung von
Resistenzen fördern. Das Ziel dieser Arbeit ist es, einen Prototyp eines
entscheidungsunterstützenden Systems für die Verschreibung von
Antibiotika bei Harnwegsinfektionen (HWI) zu entwickeln. Für diesen Zweck
werden Daten verwendet, die im Rahmen von MONI, einem
wissensbasierten System zur Überwachung von nosokomialen Infektionen,
eingesetzt an der Klinischen Abteilung für Krankenhaushygiene des
Allgemeinen Krankenhauses in Wien, gesammelt werden. Von dieser
Patientendatenbank werden Datensätze abgerufen, deren Daten ähnlich
denen des aktuellen Patienten sind. Die Verteilung der Erreger in der
Gruppe ähnlicher Datensätze stellt das Erregerspektrum dar. Für Patienten
mit Komplikationen, welche durch Fuzzy- und HWI-spezifische Regeln
ermittelt werden, ist eine Diagnose notwendig, welche durch den Arzt oder
durch Regeln des Programms bestimmt wird. Aus dem Wissen über
Antibiotika, Therapien für spezifische Erreger und HWI wurde eine
Wissensbasis erstellt. Mit all diesem Wissen und den Daten über den
aktuellen Patienten und unter Berücksichtigung möglicher Nebenwirkungen,
Gegenanzeigen, Allergien, Resistenz der Erreger und Komorbidität wird eine
patientenspezifische Therapie präsentiert. Um die Applikation in einem
ersten Schritt zu testen, wurden fünf Testfälle entwickelt, die Situationen
aus dem klinischen Alltag widerspiegeln. Die Wissensbasis und die Regeln
lieferten gültige Diagnosen und Empfehlungen. In allen von der Applikation
vorgeschlagenen Therapien konnte Übereinstimmung mit den in der
medizinischen Fachliteratur publizierten nachgewiesen werden. Mit der
vorliegenden
Applikation
konnte
die
Realisierbarkeit
eines
entscheidungsunterstützenden Systems für das Antibiotikamanagement bei
Harnwegsinfektionen gezeigt werden.
als auch bei der PatientInnenfreundlichkeit gesteigert werden. Material und
Methoden: In einem Untersuchungsraum der Allgemeinen Abteilung für
Dermatologie
erstellen
die
StudienteilnehmerInnen
mit
einer
Mobiltelefonkamera ein oder mehrere Fotos ihrer Hautveränderung.
Weiters füllen sie einen interaktiven Fragebogen auf einem Notebook aus,
der zusätzliche Informationen zu ihrer Dermatose liefern soll. Anschließend
werden die Bilder per MMS an eine Studienmailadresse übermittelt. Danach
wird die Patientin / der Patient von einer Dermatologin / einem
Dermatologen untersucht. Diese/r erstellt eine Diagnose. (Gold-StandardWeg). Die per MMS oder E-Mail übermittelten Bilder werden bezüglich
Kontrast, Farbe und anderer technischer Bildparameter untersucht. Mit
Hilfe dieser Daten soll erfasst werden, ob ein Laie diagnostizierbare Fotos
erstellen kann. Weiters kann evaluiert werden, ob die Bilder vor der
Begutachtung mittels digitaler Bildbearbeitung modifiziert bzw. verbessert
werden müssen. Die Bilder und der Fragebogen werden einer Jury bestehend aus 3 DermatologInnen - vorgelegt, die ohne direkten
PatientInnenkontakt eine Diagnose erstellen sollen. Der Vergleich der
telemedizinischen mit der Gold-Standard-Diagnose erlaubt die Beurteilung,
wie zuverlässig die telemedizinische Konsultation ist. Diskussion: Diese
Arbeit zeigt, dass der Einsatz von Mobiltelefonen in der Teledermatologie
aus technischer Sicht sehr wohl möglich erscheint. Trotzdem ist nicht jedes
Mobiltelefon geeignet, die Dermatosen so darzustellen, dass eine seriöse
Diagnose erstellt werden kann. Zittern, fehlende Fokussierung und falsche
Aufnahmeeinstellungen beeinflussen das Ergebnis deutlich. Für diese Studie
wurden aktuelle Mobiltelefone aus dem 1. Quartal 2008 verwendet. Es
konnte gezeigt werden, dass in vielen Fällen die technische
Abbildungsqualität durchaus ausreicht. Aus formaler Sicht und unter
Berücksichtigung des Mangels an Studien sollten Mobiltelefone für
medizinische Zwecke vorerst nicht eingesetzt werden. Kritisch werden die
Grenzen von Geräten der sogenannten consumer electronic für medizinische
Zwecke aufgezeigt. Zum gegenwärtigen Zeitpunkt fehlen zur praktischen
Umsetzung besonders die gesetzlichen Grundlagen. Es ist zu prüfen, ob
technische Apparate, die nicht den strengen Auflagen von Medizinprodukten
genügen, in Zukunft eingesetzt werden. Die Nachfrage nach möglichst
unmittelbarer Dokumentation und Übertragung von medizinischen
Sachverhalten kommt zunehmend von den Anwendern selbst (potentielle
PatientInnen). Durch die ständige Weiterentwicklung und die daraus
resultierende
Verbesserung
der
Hardund
Software
sollten
Mobiltelefonkameras zu einem späteren Zeitpunkt nochmals einem Test
unterzogen werden.
Christian Scheibböck
Telemedizin in der Dermatologie im Rahmen einer klinischen Studie Evaluation der Verwendbarkeit der Bilddaten mittels quantitativer Bildanalyse
Studium: Masterstudium Medizinische Informatik
BetreuerIn: Ao.Univ.Prof. Dr. Dietmar Rafolt, Medizinische Universität Wien
Abstrakt: Motivation: Die Telemedizin ist ein wichtiger Bestandteil der
Medizin, der in immer mehr Bereichen Einzug hält. Speziell in der
Dermatologie besteht die Möglichkeit ein besseres Zeitmanagement zu
erreichen, um beispielsweise Wartezeiten zu reduzieren. Die Patientin/der
Patient
kann
von
jedem
beliebigen
Standort
aus
ihre/seine
Hautveränderungen fotografieren - das kann mittels Digital- oder
Mobiltelefonkamera erfolgen. Unmittelbar kann das erstellte Bild per MMS
oder E-Mail an eine Dermatologin / einen Dermatologen zur Begutachtung
verschickt werden. Die Teledermatologie hat weiters das Potential die
Kosten, im Vergleich zum momentanen Standard-Diagnoseweg, zu
reduzieren. Die Effizienz der Ambulanzen könnte in ökonomischer Hinsicht
171
172
im Detail mit der oft vernachlässigten RFIDMiddleware. Zusätzlich werden
die wesentlichen Punkte über das Thema RFIDSecurity festgehalten.
Anschließend findet man eine Einführung in die RFIDIntegration mit allen
ihren Problemen. Schließlich wird neben dem Leitfaden für die Integration
eines Zutrittkontrollsystems mittels RFID auch ein Überblick über die
zukünftige Entwicklung und bereits realisierte Anwendungen gegeben.
Stefan Schneider
Lokalisierung mit Bluetooth mittel neuronaler Netze
Studium: Masterstudium Wirtschaftsingenieurwesen Informatik
BetreuerIn: Ao.Univ.Prof. Dr. Helmut Hlavacs, Universität Wien
Abstrakt: In dieser Arbeit wird ein neuer Ansatz für ein Indoor-PositioningSystem, basierend auf Bluetooth, vorgestellt. Im Gegensatz zu anderen
Arbeiten auf diesem Gebiet wird die Position des zu lokalisierenden Mobilen
Gerätes (MD) nicht über Trilateration bestimmt, sondern mit Hilfe eines
künstlichen neuronalen Netzes (KNN). Dieser Ansatz wurde gewählt, da
Funkwellenausbreitung in Gebäuden durch Hindernisse stark beeinträchtigt
wird. Das führt dazu, dass die Position eines MD über Trilateration nur sehr
ungenau bestimmt werden kann. Das KNN soll aus vorher genommenen
Messwerten Informationen über die Umgebung lernen und so in der Lage
sein, ein MD genauer lokalisieren zu können. Dieser Ansatz wurde in einem
Experiment in einer Altbauwohnung untersucht. Dazu wurde ein auf freier
Software (Linux, BlueZ und Java) basierendes Messsystem entwickelt.
Dieses besteht aus mehreren Base Stations (BS), von denen jede mit einem
Standard Bluetooth-Modul (MSI BToes 2.0) ausgestattet wurde, und einem
Server, welcher die BSs verwaltet. Mit diesem System wurden Messwerte
gesammelt, die für das Training der KNNs verwendet wurden. Es konnte
gezeigt werden, dass MDs der Bluetooth-Geräteklasse 2 unter
Idealbedingungen mit einem durchschnittlichen Fehler von 5,4cm lokalisiert
werden konnten. Die Position von MDs der Bluetooth-Geräteklasse 3 konnte
unter Idealbedingungen mit einem durchschnittlichen Fehler von 1,9cm
bestimmt werden.
Marlene Schöllhuber
Benchmarking von Projektmanagement mit Hilfe von Reifegrad- und
Kompetenzmodellen
Studium: Masterstudium Wirtschftsinformatik
BetreuerIn: Ao.Univ.Prof. Dr. Renate Motschnig, Universität Wien
Abstrakt: Diese Arbeit handelt von den „Reifegrad- und Kompetenzmodellen“
des Projektmanagements. Anhand dieser Modelle können Organisationen die
„Reife“ ihres Projektmanagements einschätzen bzw. durch einen externen
Experten bewerten lassen. Darüber hinaus bietet der Großteil der
geläufigsten Reifegrad- und Kompetenzmodelle Hilfestellung für eine
anschließende Verbesserung der Projektmanagementprozesse. In den
ersten beiden Kapiteln erfolgt eine Einführung in die Thematik. Danach folgt
eine Vorstellung der bekanntesten Modelle, die sich derzeit am Markt
befinden. Im Anschluss daran wird aufgezeigt, welche Faktoren bei der Wahl
eines Modells beachtet werden sollten. Abschließend wird erläutert, wie eine
Bewertung in der Praxis erfolgt. Dazu wurde einerseits ein idealtypischer
Ablauf geschildert, andererseits eines der vorgestellten Modelle anhand der
Bewertung zweier realer Unternehmen mit Hilfe verschiedener
Qualitätskriterien getestet.
Thomas Schnöller
RFID-Integration in betriebliche Geschäftsprozesse
Michael Toman
Computer Science in Sports
Studium: Masterstudium Wirtschaftsingenieurwesen Informatik
BetreuerIn: Ao.Univ.Prof. Christine Strauß, Universität Wien
Studium: Masterstudium Medizinische Informatik
BetreuerIn: Ao.Univ.Prof. Dr. Erich Schikuta, Universität Wien
Abstrakt: RFID ist eine hochinteressante Technologie, was sich in der
steigenden Zahl von Publikation, dieses Gebiet betreffend, widerspiegelt. Bei
einer Literaturrecherche findet man oftmals Artikel, die sich mit den
technischen Aspekten dieser Technologie auseinandersetzen. Steht man
aber nun selbst vor der Entscheidung der möglichen Einführung von RFID in
ein Unternehmen, stellt sich die Frage, was die bestmögliche
Vorgehensweise für eine erfolgreiche Integration ist. Speziell im Bereich der
RFIDIntegration ist es sehr schwierig, konkrete Leitfäden und Checklisten zu
erhalten, um Rahmenbedingungen festlegen zu können. An dieses Problem
anknüpfend, soll dem interessierten Leser dieser Arbeit, ein möglichst
umfassender Einblick in die Fragestellung der Integration von RFID gegeben
werden. Dabei wird ein Überblick über den Aufbau von RFID-Systemen mit
ihren Hardwarekomponenten gegeben. Ferner beschäftigt sich ein Kapitel
173
Abstrakt: Ziel dieser Diplomarbeit ist es, zwei Anforderungen zu erfüllen.
Erstens, einen umfassenden Überblick über den Einsatz von Methoden und
Konzepten der Informatik auf dem Gebiet der Sportwissenschaft zu
vermitteln. Dies beinhaltet nicht nur den aktuellen Stand der Forschung,
sondern auch das Aufzeigen relevanter Informationen und Verbindungen zu
verwandten Themenbereichen. Die zweite Anforderung besteht in der
didaktischen Aufbereitung der recherchierten Ergebnisse und einer
optimalen Wissensvermitlung in Hinblick auf diese Resultate. Diese
Aufgabenstellung wird durch den Aufbau eines Online-Kompendiums
begegnet, welches für einen breiten Personenkreis konzipiert ist: Es soll
sowohl interessierten Laien die Möglichkeit zur Aneignung von
174
Grundlagenwissen bieten, als auch Forschern aktuelle Methoden und
Verfahren aufzeigen, welche angrenzend oder auch fernab ihres eigenes
Forschungsgebietes angesiedelt sind.
Gabriela Waldhart
Integrierter Ansatz zum Programm-, Projekt- und IT-Architekturmanagement
Studium: Masterstudium Wirtschftsinformatik
BetreuerIn: Univ.Prof. Dr. Dimitris Karagiannis, Universität Wien
Abstrakt: Die vorliegende Diplomarbeit thematisiert das Zusammenwirken
von IT-Architektur-, Projekt- und Programm-management und zeigt einen
integrierten Ansatz dieser drei Managementbereiche. Dafür wird an erster
Stelle ein Überblick über diese Managementgebiete gegeben, sowie eine
Einordnung im breiten Feld des IT-Managements getroffen. Anschließend
werden
namhafte
IT-Architektur-,
Projektbeziehungsweise
Programmmanagement Frameworks, wie etwa das Zachman Framework im
Architekturbereich oder das V-Modell XT zum Projektmanagement,
behandelt und auf deren Eignung zur Kombination mit anderen Frameworks
eingegangen. Im praktischen Teil der Diplomarbeit werden sodann ein
Programm und die damit verbundene Projekte zur Analyse und Umsetzung
von IT-Architekturen vorgestellt. Als zentrale Anhaltspunkte gelten hier das
"Open Group Architecture Framework" (TOGAF), PRINCE2, sowie dessen
eng verwandtes "Managing Successful Programmes" (MSP) Framework.
Dabei wird sowohl auf die tragenden Rollen und Verantwortungen in den
jeweiligen Programm-, beziehungsweise Projektphasen, als auch auf
Aufgaben eingegangen. Nicht zuletzt werden auch konkrete Schwierigkeiten
wie etwa die Konfliktbehandlung auf Programmebene bei parallel laufenden
IT-Architekturprojekten angesprochen. Zum Schluss folgen eine kritische
Beurteilung der Methode, sowie ein Resümee der Arbeit.
175
INDEX
AUTORINNEN UND AUTOREN
Abou-Zahra, Shadi, Institut für Informationssysteme - Arbeitsbereich Distributed
Systems
Ahmed, Mansoor, Institut für Softwaretechnik und Interaktive Systeme Arbeitsbereich Information and Software Engineering
Altrichter, Christian, Institut für Managementwissenschaften
Ammer, Andreas, Institut für Computergraphik und Algorithmen - Arbeitsbereich
Computergraphik
Angermann, Christoph, Institut für Managementwissenschaften
Apaydin-Yücel, Dilek, Medizinische Universität Wien
Apfelthaler, Kathrin, Institut für Softwaretechnik und Interaktive Systeme Arbeitsbereich Information and Software Engineering
Awender, Simone, Institut für Rechnergestützte Automation - Arbeitsbereich
Automatisierungssysteme
Babic, Nebojsa, Institut für Softwaretechnik und Interaktive Systeme
Baldass, Gioia, Universität Wien
Bamberger, Harald, Institut für Gestaltungs- und Wirkungsforschung Arbeitsbereich Multidisciplinary Design
Baranyi, René, Institut für Rechnergestützte Automation - Arbeitsbereich
Automatisierungssysteme
Bauer, Marion, Universität Wien
Baumgartner, Jürgen, Institut für Wirtschaftsmathematik
Benmoumen, Imane, Institut für Managementwissenschaften
Berger, Andreas, Institut für Rechnergestützte Automation - Arbeitsbereich
Automatisierungssysteme
Berger, Franz, Institut für Computergraphik und Algorithmen - Arbeitsbereich
Algorithmen und Datenstrukturen
Bernroider, Mahshid, Institut für Softwaretechnik und Interaktive Systeme Arbeitsbereich Information and Software Engineering
Beyreder, Markus, Institut fur Computersprachen - Arbeitsbereich Theoretische
Informatik und Logik
Biro, Sandor, Institut für Computertechnik
Bohunsky, Paul, Institut für Informationssysteme - Arbeitsbereich Database and
Artificial Intelligence
Bolnberger, Sebastian, Universität Wien
Bonitz, Christoph, Institut für Computergraphik und Algorithmen - Arbeitsbereich
Algorithmen und Datenstrukturen
Brandstetter, Hannes, Institut für Rechnergestützte Automation - Arbeitsbereich
Automatisierungssysteme
Breier, Florian, Institut für Informationssysteme - Arbeitsbereich Distributed
Systems
176
Brenner, Richard, Institut für Softwaretechnik und Interaktive Systeme Arbeitsbereich Information and Software Engineering
Cerny, Roman, Institut für Softwaretechnik und Interaktive Systeme Arbeitsbereich Information and Software Engineering
Chiu, Dey-Fuch, Institut für Computergraphik und Algorithmen - Arbeitsbereich
Computergraphik
Culha Flechl, Vahidenur, Institut für Softwaretechnik und Interaktive Systeme Arbeitsbereich Information and Software Engineering
Cvitkovich, Andreas, Institut für Informationssysteme - Arbeitsbereich Distributed
Systems
Czoppelt, Gerd, Institut für Gestaltungs- und Wirkungsforschung - Arbeitsbereich
Human Computer Interaction
Dao Tran, Minh, Institut für Informationssysteme- Arbeitsbereich
Wissensbasierte Systeme
Darmaputra, Yansen, Institut für Informationssysteme - Arbeitsbereich Database
and Artificial Intelligence
David, Monika, Institut für Softwaretechnik und Interaktive Systeme Arbeitsbereich Information and Software Engineering
Deischler, Gernot, Institut für Softwaretechnik und Interaktive Systeme
Deix, Wolfgang, Institut für Computergraphik und Algorithmen - Arbeitsbereich
Computergraphik
Dejmek, Dominik, Institut für interdisziplinäres Bauprozessmanagement
Dietl, Gerald, Institut für Softwaretechnik und Interaktive Systeme Arbeitsbereich Information and Software Engineering
Dietzel, Olivia, Institut für Computergraphik und Algorithmen - Arbeitsbereich
Algorithmen und Datenstrukturen
Dimmel, Friedrich, Universität Wien
Dorner, Markus, Institut für Informationssysteme - Arbeitsbereich Database and
Artificial Intelligence
Eggenhofer, Robert, Institut für Geoinformation und Kartographie
Eis, Christian, Institut für Informationssysteme
Elgin, Selen, Institut für Softwaretechnik und Interaktive Systeme - Arbeitsbereich
Information and Software Engineering
Emeakaroha, Vincent Chimaobi, Institut für Breitbandkommunikation
Emsenhuber, Gerlinde, Institut für Computergraphik und Algorithmen Arbeitsbereich Computergraphik
Feder, Alexander, Institut für Informationssysteme- Arbeitsbereich
Wissensbasierte Systeme
Fellnhofer, Andreas, Institut für Computersprachen - Arbeitsbereich
Programmiersprachen und Übersetzerbau
Flanitzer, Thomas, Institut für Rechnergestützte Automation - Arbeitsbereich
Automatisierungssysteme
Fraunschiel, Melanie, Institut für Mechanik und Mechatronik
Freund, Wolfgang, Institut für Softwaretechnik und Interaktive Systeme Arbeitsbereich Information and Software Engineering
Frühstück, Anton, Institut für Computergraphik und Algorithmen - Arbeitsbereich
Computergraphik
177
Frühwirth, Sascha, Institut für Rechnergestützte Automation - Arbeitsbereich
Automatisierungssysteme
Gabriel, Nicole, Institut für Rechnergestützte Automation - Arbeitsbereich
Automatisierungssysteme
Gamper, Michael, Institut für elektrische Antriebe und Maschinen
Gansterer, Peter, Institut für Informationssysteme - Arbeitsbereich Database and
Artificial Intelligence
Genswaider, Ronald, Institut für Softwaretechnik und Interaktive Systeme Arbeitsbereich Information and Software Engineering
Goldfarb, Doron, Institut für Softwaretechnik und Interaktive Systeme Arbeitsbereich Information and Software Engineering
Gondowidjaja, Clemens, Institut für Softwaretechnik und Interaktive Systeme Arbeitsbereich Information and Software Engineering
Goudarzi, Visda, Institut für Gestaltungs- und Wirkungsforschung - Arbeitsbereich
Human Computer Interaction
Grüneis, Joachim, Institut für Softwaretechnik und Interaktive Systeme Arbeitsbereich Information and Software Engineering
Guggenberger, Philipp, Institut für Managementwissenschaften
Habicher, Markus, Zentrum für Informations- und Facilitymanagement
Hablesreiter, Bernhard, Institut für Softwaretechnik und Interaktive Systeme Arbeitsbereich Information and Software Engineering
Harich, Markus, Institut für Statistik und Wahrscheinlichkeitstheorie
Hartl, Isabella, Institut für Computertechnik
Hartl, Philipp, Institut für Computergraphik und Algorithmen - Arbeitsbereich
Computergraphik
Hartmann, Nicole, Institut für Gestaltungs- und Wirkungsforschung Arbeitsbereich Human Computer Interaction
Hedayati-Rad, Elham, Institut für Rechnergestützte Automation - Arbeitsbereich
Automatisierungssysteme
Heigl, Thomas, Institut für Softwaretechnik und Interaktive Systeme Arbeitsbereich Information and Software Engineering
Heinz, Thomas, Institut für Rechnergestützte Automation - Arbeitsbereich
Automatisierungssysteme
Herren, Marianne, Institut für Geoinformation und Kartographie
Hess, Andrea, Institut für Informationssysteme
Hirsch, Eduard, Institut für Rechnergestützte Automation - Arbeitsbereich
Automatisierungssysteme
Höfenstock, Emanuel, Institut für Softwaretechnik und Interaktive Systeme
Hofer, Christoph, Institut für Managementwissenschaften
Hren, Yvonne, Institut für Rechnergestützte Automation - Arbeitsbereich
Automatisierungssysteme
Huber, Benedikt, Institut für Computersprachen - Arbeitsbereich
Programmiersprachen und Übersetzerbau
Huber, Philipp, Institut für Softwaretechnik und Interaktive Systeme Arbeitsbereich Business Informatics
Hussein, Kariem, Institut für Rechnergestützte Automation - Arbeitsbereich
Automatisierungssysteme
178
Ion, Radu, Institut für Statistik und Wahrscheinlichkeitstheorie
Jaganjac, Haris, Universität Wien
Janhovics, Robert, Institut für Softwaretechnik und Interaktive Systeme Arbeitsbereich Information and Software Engineering
Kahler-Ullepitsch, Harald, Institut für Rechnergestützte Automation Arbeitsbereich Automatisierungssysteme
Kaiser, Hannes, Institut für Informationssysteme - Arbeitsbereich Distributed
Systems
Kanzler, Andreas, Institut für Technische Informatik - Arbeitsbereich Real-Time
Systems
Karakoc, Ufuk, Institut für Informationssysteme
Karl, Hans-Dieter, Institut für Softwaretechnik und Interaktive Systeme Arbeitsbereich Information and Software Engineering
Karner, Christoph, Institut für Softwaretechnik und Interaktive Systeme Arbeitsbereich Information and Software Engineering
Katai, Michael, Institut für Informationssysteme - Arbeitsbereich Distributed
Systems
Kaunang, Gemma Ferdinand, Institut für Analysis und Scientific Computing
Kaynak, Berk, Institut für Rechnergestützte Automation - Arbeitsbereich
Automatisierungssysteme
Kekeiss, Christian, Institut für Rechnergestützte Automation - Arbeitsbereich
Automatisierungssysteme
Keszthelyi, Laszlo, Institut für Computersprachen - Arbeitsbereich
Programmiersprachen und Übersetzerbau
Kilic, Hasan, Institut für Gestaltungs- und Wirkungsforschung - Arbeitsbereich
Multidisciplinary Design
Kim, Nikolai, Institut für Computersprachen - Arbeitsbereich
Programmiersprachen und Übersetzerbau
Kirchweger, Anna, Institut für Managementwissenschaften
Kleedorfer, Florian, Institut für Informationssysteme
Knausz, Markus, Institut für Computergraphik und Algorithmen - Arbeitsbereich
Algorithmen und Datenstrukturen
Kneissl, Michael, Institut für Managementwissenschaften
Knoll, Matthias, Institut für Informationssysteme - Arbeitsbereich Distributed
Systems
Kofler, Mario Jerome, Institut für Informationssysteme - Arbeitsbereich
Database and Artificial Intelligence
Köhler, Wolfgang, Institut für Rechnergestützte Automation - Arbeitsbereich
Automatisierungssysteme
Kohlhauser, Stefan, Institut für Computertechnik
Koitz, Michael, Universität Wien
Koller, Wolfgang, Medizinische Universität Wien
Kolomaznik, Patrick, Institut für Managementwissenschaften
Kraut, Hubert, Institut für Technische Informatik - Arbeitsbereich Real-Time
Systems
Kremmel, Thomas, Institut für Softwaretechnik und Interaktive Systeme Arbeitsbereich Information and Software Engineering
179
Krenn, Ulirch, Institut für Rechnergestützte Automation - Arbeitsbereich
Automatisierungssysteme
Krestel, Christian, Institut für Wirtschaftsmathematik
Krumpöck, Markus, Institut für Informationssysteme - Arbeitsbereich Distributed
Systems
Kuch, Johannes, Institut für Rechnergestützte Automation - Arbeitsbereich
Automatisierungssysteme
Kulnigg, Martin, Institut für Informationssysteme - Arbeitsbereich Database and
Artificial Intelligence
Kurz, Gernot, Institut für Analysis und Scientific Computing, logo med uni
Langthaler, Johannes, Institut für Wirtschaftsmathematik
Leder, Sonja, Institut für Informationssysteme- Arbeitsbereich Wissensbasierte
Systeme
Lederer, Doris, Institut für Rechnergestützte Automation - Arbeitsbereich
Automatisierungssysteme
Lee, Mei Sin, Institut für Informationssysteme - Arbeitsbereich Database and
Artificial Intelligence
Lenz, Gerald, Department für Raumentwicklung, Infrastruktur- und
Umweltplanung
Levrinc, Rastislav, Institut für Computersprachen - Arbeitsbereich
Programmiersprachen und Übersetzerbau
Libal, Tomer, Institut fur Computersprachen - Arbeitsbereich Theoretische
Informatik und Logik
Liensberger, Armin, Institut für Softwaretechnik und Interaktive Systeme Arbeitsbereich Information and Software Engineering
Lin, Chia-chang, Institut für Softwaretechnik und Interaktive Systeme Arbeitsbereich Information and Software Engineering
Löbl, Claudia, Institut für Softwaretechnik und Interaktive Systeme Arbeitsbereich Information and Software Engineering
Löwenstein, Bernhard, Institut für Computersprachen - Arbeitsbereich
Programmiersprachen und Übersetzerbau
Ludl, Christian, Institut für Rechnergestützte Automation - Arbeitsbereich
Automatisierungssysteme
Mager, Andreas, Institut für Informationssysteme - Arbeitsbereich Database and
Artificial Intelligence
Manutscheri, Arman, Institut für Softwaretechnik und Interaktive Systeme Arbeitsbereich Information and Software Engineering
Maricevic, Tomislav, Institut für Rechnergestützte Automation - Arbeitsbereich
Automatisierungssysteme
Martinovic, Ruza, Institut für Informationssysteme - Arbeitsbereich Distributed
Systems
Mauczka, Andreas, Institut für Rechnergestützte Automation - Arbeitsbereich
Automatisierungssysteme
Mc Allister, Sean, Institut für Rechnergestützte Automation - Arbeitsbereich
Automatisierungssysteme
Meller, Christoph, Institut für Wirtschaftsmathematik
180
Menches, Alexander N., Institut für Softwaretechnik und Interaktive Systeme Arbeitsbereich Information and Software Engineering
Messner, Robert, Institut für Rechnergestützte Automation - Arbeitsbereich
Automatisierungssysteme
Meurers, Christian, Institut für Gestaltungs- und Wirkungsforschung Arbeitsbereich Human Computer Interaction
Mihailevschi, Vadim, Institut für Computersprachen - Arbeitsbereich
Programmiersprachen und Übersetzerbau
Mitterbauer, Josef, Institut für Computertechnik
Monitzer, Andreas, Institut für Computergraphik und Algorithmen Arbeitsbereich Computergraphik
Morandell, Wolfgang, Institut für Computergraphik und Algorithmen Arbeitsbereich Algorithmen und Datenstrukturen
Moser, Claudia, Institut für Softwaretechnik und Interaktive Systeme Arbeitsbereich Information and Software Engineering
Moser, Jürgen, Institut für Rechnergestützte Automation - Arbeitsbereich
Automatisierungssysteme
Müller, Abraham, Institut für Softwaretechnik und Interaktive Systeme Arbeitsbereich Business Informatics
Müller, Andreas, Institut für Rechnergestützte Automation - Arbeitsbereich
Mustererkennung und Bildverarbeitung
Müller, Gerald, Institut für Softwaretechnik und Interaktive Systeme Arbeitsbereich Business Informatics
Mund, Thomas, Institut für Rechnergestützte Automation - Arbeitsbereich
Automatisierungssysteme
Muri, Stephan, Institut für Rechnergestützte Automation - Arbeitsbereich
Automatisierungssysteme
Music, Thomas, Institut für Gestaltungs- und Wirkungsforschung - Arbeitsbereich
Human Computer Interaction
Neuwirth, Martin, Institut für Gestaltungs- und Wirkungsforschung Arbeitsbereich Human Computer Interaction
Nikoll, Nikolaus, Institut für Softwaretechnik und Interaktive Systeme Arbeitsbereich Information and Software Engineering
Nindl, Gottfried, Universität Wien
Novak, Roman, Institut für Geoinformation und Kartographie
Novatchkov, Hristo, Universität Wien
Oates, Carolyn, Institut für Computersprachen - Arbeitsbereich
Programmiersprachen und Übersetzerbau
Obernberger, Gerhard, Institut für Gestaltungs- und Wirkungsforschung Arbeitsbereich Human Computer Interaction
Oberschneider, Alexandra, Institut für Gestaltungs- und Wirkungsforschung Arbeitsbereich Human Computer Interaction
Öhlinger, Patrick, Institut für Wirtschaftsmathematik
Opitz, Markus, Institut für Rechnergestützte Automation - Arbeitsbereich
Automatisierungssysteme
Oprsal, Juraj, Institut für Informationssysteme - Arbeitsbereich Distributed
Systems
181
Ostrcil, Dr., Richard, Institut für Informationssysteme - Arbeitsbereich Database
and Artificial Intelligence
Paier, Michael, Institut für Rechnergestützte Automation - Arbeitsbereich
Automatisierungssysteme
Paisios, Emmanouil, Institut für Informationssysteme - Arbeitsbereich Database
and Artificial Intelligence
Parisot, Jean-Marie, Universität Wien
Payani, Prasanna Kumari, Institut für Rechnergestützte Automation Arbeitsbereich Automatisierungssysteme
Perner, Andreas, Institut für Softwaretechnik und Interaktive Systeme
Pichler, Christian, Institut für Softwaretechnik und Interaktive Systeme Arbeitsbereich Business Informatics
Pilani, Sunil, Institut für Informationssysteme - Arbeitsbereich Distributed
Systems
Platzer, Werner, Institut für Softwaretechnik und Interaktive Systeme Arbeitsbereich Information and Software Engineering
Platzgummer, Gerd, Institut für Softwaretechnik und Interaktive Systeme Arbeitsbereich Information and Software Engineering
Pölz, David, Universität Wien
Potocka, Anna, Institut für Computergraphik und Algorithmen - Arbeitsbereich
Algorithmen und Datenstrukturen
Prein, Andreas, Institut für Rechnergestützte Automation - Arbeitsbereich
Automatisierungssysteme
Pröstler, Michael, Institut für Computersprachen - Arbeitsbereich
Programmiersprachen und Übersetzerbau
Pruckermayr, Christoph, Institut fur Computersprachen - Arbeitsbereich
Theoretische Informatik und Logik
Puchegger, Thomas, Department für Raumentwicklung, Infrastruktur- und
Umweltplanung
Pucher, Christian, Institut für Technische Informatik - Arbeitsbereich Real-Time
Systems
Puchta, Jürgen, Institut für Gestaltungs- und Wirkungsforschung - Arbeitsbereich
Human Computer Interaction
Rainer, Thomas, Institut für Softwaretechnik und Interaktive Systeme Arbeitsbereich Information and Software Engineering
Rajtarova, Jana, Medizinische Universität Wien
Rammer, Katja, Institut für Softwaretechnik und Interaktive Systeme Arbeitsbereich Information and Software Engineering
Reitner, Heiko, Institut für Analysis und Scientific Computing
Rezvani-Naraghi, Roshanak, Institut für Gestaltungs- und Wirkungsforschung Arbeitsbereich Human Computer Interaction
Riepler, Michael, Institut für elektrische Antriebe und Maschinen
Rieschl, Werner, Institut für Softwaretechnik und Interaktive Systeme Arbeitsbereich Information and Software Engineering
Rigler, David, Institut für Computersprachen - Arbeitsbereich
Programmiersprachen und Übersetzerbau
182
Ring, Stefan, Institut für Computersprachen - Arbeitsbereich
Programmiersprachen und Übersetzerbau
Ringhofer, David, Department für Raumentwicklung, Infrastruktur- und
Umweltplanung
Röck, Dominik, Institut für Computersprachen - Arbeitsbereich
Programmiersprachen und Übersetzerbau
Roschger, Christoph, Institut fur Computersprachen - Arbeitsbereich
Theoretische Informatik und Logik
Rosenauer, Gregor, Institut für Softwaretechnik und Interaktive Systeme Arbeitsbereich Information and Software Engineering
Rossa, Martha, Institut für Rechnergestützte Automation - Arbeitsbereich
Automatisierungssysteme
Rossler, Markus, Institut für Computertechnik
Ruzicka, Dietmar, Institut für Softwaretechnik und Interaktive Systeme Arbeitsbereich Information and Software Engineering
Samimi, Pouria, Institut für Fertigungstechnik
Sari, Murat, Institut für Computergraphik und Algorithmen - Arbeitsbereich
Computergraphik
Satzer, Manfred, Institut für Computergraphik und Algorithmen - Arbeitsbereich
Computergraphik
Schaffer, Gerd, Institut für Rechnergestützte Automation - Arbeitsbereich
Automatisierungssysteme
Schanes, Christian, Institut für Rechnergestützte Automation - Arbeitsbereich
Automatisierungssysteme
Schedenig, Marian, Institut für Softwaretechnik und Interaktive Systeme Arbeitsbereich Information and Software Engineering
Scheibböck, Christian, Medizinische Universität Wien
Scheller, Thomas, Institut für Computersprachen - Arbeitsbereich
Programmiersprachen und Übersetzerbau
Schimper, Kathrin, Institut für Softwaretechnik und Interaktive Systeme Arbeitsbereich Information and Software Engineering
Schindler, Paul, Institut für Rechnergestützte Automation - Arbeitsbereich
Automatisierungssysteme
Schmied, Gernot, Institut für Informationssysteme - Arbeitsbereich Distributed
Systems
Schnabl, Stefan, Institut für Softwaretechnik und Interaktive Systeme Arbeitsbereich Information and Software Engineering
Schneider, Stefan, Universität Wien
Schnöller, Thomas, Universität Wien
Schöllhuber, Marlene, Universität Wien
Scholz, Florian, Institut für Gestaltungs- und Wirkungsforschung - Arbeitsbereich
Human Computer Interaction
Schreiber, Christian, Institut für Computersprachen - Arbeitsbereich
Programmiersprachen und Übersetzerbau
Schwarzbauer, Martin, Institut für Rechnergestützte Automation - Arbeitsbereich
Automatisierungssysteme
183
Singewald, Christoph, Institut für Informationssysteme - Arbeitsbereich Database
and Artificial Intelligence
Sokop, Christian, Institut für Softwaretechnik und Interaktive Systeme Arbeitsbereich Business Informatics
Sreerama, Sai Giridhar, Institut für Rechnergestützte Automation Arbeitsbereich Automatisierungssysteme
Stadler, Urban, Institut für Mechanik und Mechatronik
Steiner, Lukas, Institut für Informationssysteme - Arbeitsbereich Database and
Artificial Intelligence
Strnad, Thomas, Institut für Technische Informatik - Arbeitsbereich Real-Time
Systems
Strodl, Stephan, Institut für Softwaretechnik und Interaktive Systeme Arbeitsbereich Information and Software Engineering
Stubenschrott, Martin, Institut für Mechanik und Mechatronik
Sturmlechner, Manfred, Institut für Rechnergestützte Automation Arbeitsbereich Automatisierungssysteme
Terczka, Alexander, Institut für Rechnergestützte Automation - Arbeitsbereich
Automatisierungssysteme
Thiery, Johannes, Institut für Geoinformation und Kartographie
Thullner, Robert, Institut für Softwaretechnik und Interaktive Systeme Arbeitsbereich Information and Software Engineering
Toman, Michael, Universität Wien
Triska, Markus, Institut für Informationssysteme - Arbeitsbereich Database and
Artificial Intelligence
Tschurlovits, Marie-Theres, Institut für Softwaretechnik und Interaktive Systeme Arbeitsbereich Interactive Media Systems
Tuzcu, Bayram, Institut für Fertigungstechnik
Ulbing, David, Institut für Informationssysteme - Arbeitsbereich Distributed
Systems
Unterasinger, Lukas, Institut für Softwaretechnik und Interaktive Systeme Arbeitsbereich Information and Software Engineering
Url, Christian, Institut für Softwaretechnik und Interaktive Systeme Arbeitsbereich Information and Software Engineering
Uzun, Serkan, Institut für Informationssysteme
Vielguth, Stefan, Institut für Computertechnik
Wachter, Bernhard, Institut für Softwaretechnik und Interaktive Systeme Arbeitsbereich Information and Software Engineering
Wagner, Gerhard, Institut für Informationssysteme - Arbeitsbereich Distributed
Systems
Waldhart, Gabriela, Universität Wien
Wallner, Gerald, Institut für Gestaltungs- und Wirkungsforschung Arbeitsbereich Human Computer Interaction
Wang, Bin, Institut für Wirtschaftsmathematik
Wastyn, Christoph, Institut für Softwaretechnik und Interaktive Systeme Arbeitsbereich Information and Software Engineering
Weber, Ulrike, Department für Raumentwicklung, Infrastruktur- und
Umweltplanung
184
Webley, Andreas, Institut für Softwaretechnik und Interaktive Systeme Arbeitsbereich Information and Software Engineering
Wehinger, Bernhard, Institut für Informationssysteme - Arbeitsbereich
Distributed Systems
Weingartner, Hannes, Institut für Softwaretechnik und Interaktive Systeme Arbeitsbereich Information and Software Engineering
Weisl, Wilfried, Institut für Informationssysteme - Arbeitsbereich Distributed
Systems
Wiedermann, Peter, Institut für Computersprachen - Arbeitsbereich
Programmiersprachen und Übersetzerbau
Willitsch, Leo, Institut für Softwaretechnik und Interaktive Systeme Arbeitsbereich Information and Software Engineering
Wimmer, Engelbert, Institut für Informationssysteme - Arbeitsbereich Database
and Artificial Intelligence
Winkler, Markus, Institut für Softwaretechnik und Interaktive Systeme
Winkler, Thomas, Institut für Informationssysteme - Arbeitsbereich Distributed
Systems
Winnisch, Markus, Institut für Gestaltungs- und Wirkungsforschung Arbeitsbereich Multidisciplinary Design
Wögerer, Wolfgang, Institut für Technische Informatik - Arbeitsbereich Real-Time
Systems
Wohlmann, Matthias, Institut für Computergraphik und Algorithmen Arbeitsbereich Computergraphik
Wronski, Daniel, Institut für Softwaretechnik und Interaktive Systeme Arbeitsbereich Information and Software Engineering
Yaman, Emine, Institut für Analysis und Scientific Computing
Yildiz, Hasibe, Institut für Informationssysteme
Yücel, Ahu Zeynep, Institut für Softwaretechnik und Interaktive Systeme Arbeitsbereich Business Informatics
Zaubzer, Ferdinand, Institut für Computergraphik und Algorithmen Arbeitsbereich Algorithmen und Datenstrukturen
Zaubzer, Stephan, Institut für Computergraphik und Algorithmen - Arbeitsbereich
Algorithmen und Datenstrukturen
Zerawa, Simon-Alexander, Institut für Managementwissenschaften
Zwierschitz, Thomas, Institut für Informationssysteme - Arbeitsbereich Database
and Artificial Intelligence
INSTITUTE DER FAKULTÄT FÜR INFORMATIK
I N S T I T U T F Ü R T E C H N I S C H E I N F O R M A T I K .................. 3
Arbeitsbereich Real Time Systems..............................................3
I N S T I T U T F Ü R R E C H N E R G E S T Ü T Z T E A U T O M A T I O N .7
Arbeitsbereich Automatisierungssysteme....................................7
Arbeitsbereich Mustererkennung und Bildverarbeitung ...............33
I N S T I T U T F Ü R I N F O R M A T I O N S S Y S T E M E ................... 33
Arbeitsbereich Distributed Systems..........................................33
Arbeitsbereich Database and Artificial Intelligence .....................42
Arbeitsbereich Knowledge Based Systems ................................52
I N S T I T U T F Ü R C O M P U T E R S P R A C H E N ........................ 57
Arbeitsbereich Programmiersprachen und Übersetzerbau...........57
Arbeitsbereich Theoretische Informatik und Logik ......................65
INSTITUT FÜR COMPUTERGRAPHIK UND
A L G O R I T H M E N .................................................................... 68
Arbeitsbereich Algorithmen und Datenstrukturen.......................68
Arbeitsbereich Computergraphik ..............................................73
INSTITUT FÜR GESTALTUNGS- UND WIRKUNGSF O R S C H U N G ...................................................................... 80
Arbeitsbereich Multidisciplinary Design .....................................80
Arbeitsbereich Human Computer Interaction .............................82
INSTITUT FÜR SOFTWARETECHNIK UND
I N T E R A K T I V E S Y S T E M E ................................................. 88
Arbeitsbereich Information und Software Engineering .................88
Arbeitbereich Interactive Media Systems ................................120
Arbeitsbereich Business Informatics.......................................121
185
186
ANDERE INSTITUTE DER TU WIEN
ZENTRUM FÜR INFORMATIONS- UND
F A C I L I T Y M A N A G E M E N T ............................................... 129
INSTITUT FÜR ANALYSIS UND SCIENTIFIC
C O M P U T I N G ..................................................................... 129
I N S T I T U T F Ü R W I R T S C H A F T S M A T H E M A T I K ........... 133
INSTITUT FÜR STATISTIK UND
W A H R S C H E I N L I C H K E I T S T H E O R I E .............................. 137
INSTITUT FÜR GEOINFORMATION UND
K A R T O G R A P H I E .............................................................. 138
INSTITUT FÜR INTERDISZIPLINÄRES
B A U P R O Z E S S M A N A G E M E N T ....................................... 141
DEPARTMENT FÜR RAUMENTWICKLUNG,
I N F R A S T R U K T U R - U N D U M W E L T P L A N U N G ............ 142
I N S T I T U T F Ü R F E R T I G U N G S T E C H N I K ....................... 144
I N S T I T U T F Ü R M E C H A N I K U N D M E C H A T R O N I K .... 145
I N S T I T U T F Ü R M A N A G E M E N T W I S S E N S C H A F T E N . 148
INSTITUT FÜR ELEKTRISCHE ANTRIEBE UND
M A S C H I N E N .................................................................... 154
I N S T I T U T F Ü R C O M P U T E R T E C H N I K .......................... 156
I N S T I T U T F Ü R B R E I T B A N D K O M M U N I K A T I O N ........ 161
IN ZUSAMMENARBEIT MIT ANDEREN
W I S S E N S C H A F T L I C H E N E I N R I C H T U N G E N ............... 162
187
KONTAKT
http://www.informatik.tuwien.ac.at
Zentrum für Koordination und Kommunikation der
Fakultät für Informatik
Favoritenstraße 9/195
1040 Wien
[IN:N]
Informatik-Netzwerk für Absolventinnen und Absolventen der
Fakultät für Informatik und andere interessierte Personen
http://inn.tuwien.ac.at
IMPRESSUM
Konzept, Graphische Gestaltung: Dipl.-Ing. Karin Hraby
© 2008 Technische Universität Wien
Fakultät für Informatik
Diese Veranstaltung der Fakultät für Informatik wird unterstützt von:
Hauptsponsor