Institut für Informatik

Bachelor- und Masterarbeiten

Show all
Close

2014

Florian Müller
A Framework for Automatic Triage of Malicious Webpages
supervised by Prof. Dr. Konrad Rieck
M. Sc. (Englisch)


Seyed Abouzar Hosseini
Analysis of Black Hole Attack in Wireless Ad-hoc Networks
supervised by Prof. Dr. Dieter Hogrefe
Wireless ad hoc networks have been a hot research topic in recent years. They are relatively a new type of network that do not require any infrastructures. Therefore, they can operate without any need for a central administration in a decentralized manner. This lack of requirement for infrastructure makes them flexible and popular because then can provide connectivity in situations where previously was not possible. This lack of administration also comes with disadvantage of extra vulnerability in addition to vulnerabilities that are inherited from wired and wireless networks. Thus, the security is a major concern for wireless ad hoc networks.Among the attacks that are specific to wireless ad hoc networks, Black hole attack is a famous one. In this attack, attackers try to attract data packets in the network and drop them, which lead to the Denial of Service (DoS) attack. In this work first the definition, mechanism and different implementation of black hole attack is discussed and explained. Later the impact of this attack, on different network topologies in various scenarios, is analyzed through series of simulations in MATLAB.
Abstract M. Sc. (Englisch)


Bartlomiej Marzec
Anbindung eines elektronischen Laborbuchs an eine vorhandene Langzeitarchivierungs-Infrastruktur
supervised by Dr. Sara Y. Nußbeck
Im Rahmen eines Sonderforschungsbereiches 1002 wird eine Langzeitarchivierungsinfrastruktur aufgebaut (INF-Projekt), wo am Projekt teilnehmenden Wissenschaftler ihre Daten in einem Repository, nach Vorgaben der guten wissenschaftlichen Praxis ablegen können. Die Eingabe der Daten soll über ein Webportal erfolgen. Als Teil des INF-Projektes wurde für drei ausgewählte Doktoranden ein ELN zur Verfügung gestellt. Die Daten aus dem ELN sollen aber zukünftig, genau wie die Daten, die über das Webportal hochgeladen wurden, ebenfalls im Repository gespeichert werden, damit diese anderen Projektteilnehmer zur Verfügung gestellt werden können. Um dieses jedoch zu realisieren muss erstmal ein Konzept und ein Export-Tool entwickelt, das die Daten aus dem ELN in das Repository exportiert. Dabei besteht die Schwierigkeit, dass die Daten in einer nachnutzbaren Weise exportiert werden müssen. Diese Arbeit beschreibt ein Konzept, wie das realisiert werden kann und setzt dieses pilothaft um. Um das Konzept zu entwickeln wurden zuerst die Anforderungen, die bei der Entwicklung eines Konzeptes beachtet werden müssen ermittelt. Dazu wurden die Doktoranden interviewed, das Quell- und Zielsystem analysiert und anschließend eine Literaturrecherche zur Ermittlung der Standards für die Speicherung der ELN-Inhalte durchgeführt. Anhand der Anforderungen wurde dann das Konzept entwickelt, und mithilfe einer s.g. Extract-Transform-Load-Software und einer Datenbank umgesetzt. Das Resultat der Interviews war, dass es sich bei Daten der Doktoranden um unterschiedliche Experimente handelt, die eine komplexe Struktur haben können. Weiterhin soll die im ELN erstellte Ordner-/Dateistruktur mitexportiert werden. Die Analyse des ELNs ergab, dass die Einträge unstrukturierte Inhalte beinhalten können. Dazu erlaubt das ELN eine freie Strukturierung der Daten. Aus den vielen in der Literaturrecherche gefundenen Standards wurde entschieden den Standard ISA-TAB für die Entwicklung des Konzeptes zu verwenden. Das Konzept ist eine hybride Lösung aus einer „Eins-zu-Eins“-Abbildung der Daten und gleichzeitigen Aufbau der ISA-Struktur im Repository. Dabei werden alle Versionen eines ELN-Eintrages gespeichert und die Ordner-/Dateistruktur aus dem ELN abgebildet. Über die Entwicklung eines Export-Tools, wurde das Konzept mithilfe von Talend Open Studio pilothaft Umgesetzt. Das Konzept hat alle gestellten Anforderungen erfüllt, die Daten konnten jedoch nicht nach ISA-TAB-Standard exportiert werden, da sonst die im ELN verwendete Strukturen nicht abgebildet würden und entsprechende Funktionalität im ELN fehlte. Es konnte über die Umsetzung gezeigt werden, dass es möglich ist, zum einen alle Daten aus dem ELN auf unterschiedliche Weise zu exportieren, zum anderen, dass es sogar für jeden Eintragstyp möglich ist, ein anderes Vorgehen beim Export zu definieren. Das Konzept und die Umsetzung muss weiter entwickelt werden und die Einzelheiten mit den Doktoranden ausdiskutiert werden.
Abstract B. Sc. Medizinische Informatik (Deutsch)


Lars Runge
Auswertung von SPARQL-Anfragen mit relationaler Speicherung
supervised by Prof. Dr. Wolfgang May
B. Sc. (Deutsch)


Sebastian Schrage
Auswertung von SPARQL-Anfragen mit relationaler Speicherung
supervised by Prof. Dr. Wolfgang May
B. Sc. (Deutsch)


Malte Hübner
Automatische Erkennung von anormalen Android-Anwendungen
supervised by Prof. Dr. Konrad Rieck
Während es inzwischen für die Erkennung von bereits bekannter ANDROID-Malware zuverlässige Methoden gibt, sind zuverlässige Warnungen vor unbekannter - sogenannter Zero-Day - Malware noch ein offenes Problem. Die vorliegende Masterarbeit beschreibt die Entwicklung und Auswertung einer neuen Methode, in der mit Anomalieerkennung Zero-Day Malware erkannt werden soll. Dazu werden zunächst eine Reihe von Merkmalen aus gutartigen Apps extrahiert, die dann mithilfe einer One-Class Support-Vector Machine Modelle zur Vorhersage von Anomalien bilden. Zur Auswertung wird ein Datensatz von 13 Malware-Familien herangezogen, auf denen die Qualität der entstandenen Modelle getestet wurde, mit dem Ergebnis, dass für bestimmte Kategorien von Apps Vorhersagen von Zero-Day Malware möglich sind. Für andere Kategorien, deren Merkmale denen der Malware zu ähnlich sind, reichen die extrahierten Merkmale für zuverlässige Vorhersagen nicht aus.
Abstract M. Sc. (Deutsch)


Michael Wolff
Automatische Generierung von Trainingssets zur Objektklassifikation
supervised by Prof. Dr. Florentin Wörgötter
B. Sc. (Deutsch)


Maik Lorchheim
Der Einsatz von Open Source Software bei oberen Sicherheitsbehörden des Bundes am Beispiel des Bundeskriminalamtes
supervised by Prof. Dr. Wiebe
B. Sc. Recht der Informatik (Deutsch)


Sonja Neue
Determining test focus and priorities in an industrial environment
supervised by Prof. Dr. Jens Grabowski
A well working testing environment, together with effective, easy to use and easy to follow testing requirements are a big challenge in the daily software developing process. Due to time limits, the finding of effective test cases is very important. The developer and tester usually do not have enough time to test every piece of software and therefore have to decide which parts are to be tested first and probably more intensively than others. This thesis will analyze an approach of determining the test focus and priorities for an industrial environment based on the existing source-code and other information sources. This is done by analyzing several different information and validating them to a value which helps the developer to focus his testing activities. It will additionally be shown which parts of the software are already sufficiently tested by matching the resulting value to the current test coverage status.
Abstract


Toni Kämmerer
Erkennung und Klassifikation von Cross-Platform-Maschinencode durch maschinelles Lernen
supervised by Prof. Dr. Konrad Rieck
B. Sc. (Deutsch)


Ralf Buchbach
Fusion heterogener digitaler Höhenmodelle aus optischen und Radar-Daten anhand von Qualitätskriterien
supervised by Dr. Stefan Erasmi
Die vorliegende Masterarbeit setzt sich zum Ziel, ein Programm zu entwickeln, das die Fusion von digitalen Höhenmodellen (DEMs) ermöglicht. Die Fusion von digitalen Höhenmodellen birgt das Potential, die Vorteile verschiedener Szenen in einem Modell zu kombinieren. Es existieren eine Reihe von Verfahren für diesen Prozess, jedoch ist die Softwareunterstützung nicht ausgeprägt. Ferner wird mit Hilfe des Programms ein solches Modell für die Region "Das Ebene Kilikien" im Südosten der Türkei erstellt. Dabei liegt der Fokus auf TanDEM-X Szenen, wo das Fusionspotential unterschiedlicher Aufnahmen untersucht wird. Der Leser wird in die Thematik der DEMs eingeführt und erhält einen Überblick über verschiedene Techniken zur Generierung von digitalen Höhenmodellen mit den jeweiligen Vorund Nachteilen. Weiterhin wird eine Übersicht über den Fusionsprozess, sowie verschiedene Fusionstechniken gegeben. Im weiteren Verlauf der Arbeit werden die Implementierung des Programms mit ENVI/IDL erklärt, das digitale Höhenmodell für Kilikien erstellt und die Ergebnisse näher beleuchtet. Als Resultat aus dieser Arbeit gehen ein Tool, das die Fusion von verschiedenen digitalen Geländemodellen durchführen kann, sowie ein Höhenmodell für Kilikien hervor. Dieses besteht aus einer Vielzahl an TanDEM-X Szenen, die um Daten aus den globalen SRTM-C und ASTER GDEM Modellen ergänzt wurden.
Abstract M. Sc. Geoinformatik (Deutsch)


Alexander Slotty
Konzeption und Implementierung eines Prototyps für die datenschutzkonforme Zusammenführung biomedizinischer Daten in einem Forschungsprojekt
supervised by Prof. Dr. Otto Rienhoff
Lösungen für die datenschutzkonforme Zusammenführung von biomedizinischen Daten zu finden, gewinnt durch die Zunahme an medizinischen Forschungsnetzen seit dem Jahr 2000 immer stärker an Bedeutung. Kennzeichnend für diese Netze sind umfangreiche Bestände an wissenschaftlich relevanten Daten, die von zugehörigen Forschungsprojekten gesammelt werden. Diese befinden sich häufig in voneinander getrennten Datenbeständen auf Grund der besonders hohen datenschutzrechtlichen Bestimmungen in Deutschland oder weil Voraussetzungen fehlen, einzelne Systeme über geeignete Schnittstellen miteinander zu verbinden. Um die Beforschung dieser Daten zu ermöglichen, bedarf es neuer Lösungen zur Datenzusammenführung. In der Vergangenheit wurden von der Technologieund Methodenplattform für die vernetzte medizinische Forschung e.V. generische Lösungen erarbeitet, die Konzepte zur datenschutzgerechten Verwaltung von Forschungsdaten enthalten. Auf Grundlage von diesen hat ein Forschungsprojekt der klinischen Forschergruppe 241 sein Datenschutzkonzept erstellt und die damit zusammenhängende IT-Infrastruktur aufgebaut. Als besonders hervorzuheben ist bei diesem Konzept die Verwendung unterschiedlicher Pseudonyme der Daten in jeder Datenbank. Eine Zuordnungstabelle, die diese Pseudonyme verbindet, ist bei einem Datentreuhänder gesichert und somit nur schwer zugänglich, um Missbrauch zu vermeiden.Im Rahmen dieser Arbeit soll am Beispiel dieses Forschungsprojekts der Fragestellung nachgegangen werden, wie ein solches Konzept zur Datenzusammenführung aussehen kann. Die erfolgte Implementierung ist darauf geprüft, ob sie gestellten Anforderungen entspricht.Die Ist-Analyse des Forschungsprojekts umfasst die zu beachtenden datenschutzrechtlichen Bestimmungen, Erfassung der eingesetzten IT-Komponenten, beteiligten Akteure und Arbeitsprozesse des Projekts sowie eine Bestimmung der bestehenden Werkzeuge, die für eine Umsetzung verwendet werden können. In einer Literaturrecherche sind zudem aktuelle Publikationen erfasst und ausgewertet worden, die sich mit der Thematik der Datenzusammenführung in Forschungsnetzen und der datenschutzgerechten Verwaltung von Patientendaten befassen. Auf dieser Grundlage wurden Anforderungen an eine Implementierung definiert und Konzepte in UML-Diagrammen umgesetzt. Die spätere Implementierung wurde im Rahmen von verschiedenen Testszenarien geprüft.Als Ergebnis stand eine Lösung, die eine Zusammenführung von phänotypischen Daten in einer Studiendatenbank und organisatorische Daten von Proben in einer Biomaterialdatenbank durch eine semantische Verknüpfung der jeweils verwendeten Pseudonyme erlaubt. Dafür wurde einWebservice entwickelt, der den kontrollierten Zugriff auf die Zuordnungstabelle erlaubt. DasWerkzeug für die Datenzusammenführung, welches den Extract, Transform & Load-Prozess implementiert, stellt Datensätze in einem Format bereit, so dass diese in die Forschungsdatenbank i2b2 geladen werden können. Mit diesem steht Forschern ein Werkzeug zur Verfügung, in dem sie Forschungsfragen entsprechend ihrer Zielsetzung beantworten können.Auch wenn diese Lösung in Hinblick auf die speziellen Bedürfnisse der klinischen Forschergruppe 241 entwickelt wurde, sollten Ansätze für vergleichbare Forschungsprojekte übertragbar sein. Eine Integration in ein bestehendes Import-Werkzeug für i2b2 soll in einem nächsten Entwicklungsschritt für eine reibungslose Prozessintegration sorgen.
Abstract B. Sc. Medizinische Informatik (Deutsch)


Christina Buck
Konzeption und Realisierung einer Authentifizierungslösung auf Basis des eduroam-Dienstes für das Kundenportal der GWDG
supervised by Prof. Dr. Ramin Yahyapour


Sromona Chatterjee
Reinforcement Learning with PI2 Algorithm to Generate Motor Primitives of a Complex Snake-Like Robot
supervised by Prof. Dr. Florentin Wörgötter
In this thesis work a policy improvement algorithm called Policy Improvement with Path Integrals (PI2) is used to generate goal-directed locomotion of a complex snake-like robot with screw-drive units. PI2 is numerically simple and has an ability to deal with high dimensional systems. Here, PI2 is used to find proper locomotion control parameters, like joint angles and screw-drive unit velocities, of the robot. The learning process is achieved in simulation and the learned parameters are successfully transferred to the real robot. As a result the robot can locomote towards a given goal. Furthermore, as PI2 generates proper control parameter sets for different goals and robot body shapes (like, straight-line, zigzag, arc), a considerable and meaningful repertoire of robot behaviors is obtained in this way. Out of this, certain learned parameters sets are selected as motor primitives to generalize goal-directed locomotion generation in this work and generate new behaviors online. By selecting different primitives and properly chaining or combining them along with parameter interpolation, the robot can successfully handle complex tasks like, reaching a single goal or multiple goals while avoiding obstacles and compensating to a change in its body shape. As a result, the robot can successfully locomote towards a given goal as well as handle a complex environment or an unknown situation.
Abstract M. Sc. (Englisch)



2013

Fabian Glaser
A MapReduce Input Format for Analyzing Big High-Energy Physics Data Stored in ROOT Framework Files
supervised by Prof. Dr. Jens Grabowski
Huge scientific data, such as the petabytes of data generated by the Large Hadron Collider (LHC) experiments at CERN are nowadays analyzed by grid computing infrastructures using a hierarchic ltering approach to reduce the amount of data. In practice, this means that an individual scientist has no access to the underlying raw data and furthermore, the accessible data is often outdated as ltering and distribution of data only takes places every few months. A viable alternative to perform analysis of huge scientific data may be cloud computing, which promises to make a private computing grid" available to everyone via the Internet. Together with Google's MapReduce paradigm for ecient processing of huge data sets, it provides a promising candidate for scientific computation on a large scale.This thesis investigates the applicability of the MapReduce paradigm, in particular as implemented by Apache Hadoop, for analyzing LHC data. We modify a typical LHC data analysis task so that it can be executed within the Hadoop framework. The main challenge is to split the binary input data, which is based on ROOT data les, so that calculations are performed eciently at those locations where the data is physically stored. For Hadoop, this is achieved by developing a ROOT-specific input format. Services of the Amazon Elastic Compute Cloud (EC2) are utilized to deploy large compute clusters to evaluate the solution and explore the applicability of the cloud computing paradigm to LHC data analysis. We compare the performance of our solution with a parallelization of the analysis using the PROOF framework, a standard tool specialized in parallelized LHC data analysis. Our results show that the Hadoop-based solution is able to compete with the performance using PROOF. Additionally, we demonstrate that it scales well on clusters build from several hundred compute nodes inside the EC2 cloud.
Abstract M. Sc. (Englisch)


Christian Bruns
Analyse von Korrelationen zwischen Alignment-basierten und Alignment-freien String-Distanzen
supervised by Prof. Dr. Carsten Damm
B. Sc. (Deutsch)


Fabian Sudau
Analysis of Controversial Debates in Online Fora - A Showcase Analysis of the CCSVI Discussion in the DMSG Layperson Forum
supervised by Prof. Dr. Jens Grabowski
The nature of controversial debates in online fora is often hard to grasp due to the informal discussion style and the sheer number of contributions. Yet, important insights are buried in these openly accessible resources. We want to analyze a showcase of such a debate quantitatively in order to gain a deeper understanding of the underlying dynamics. The showcase stems from the medical eld. It is about the controversial hypothesis of Chronic Cerebrospinal Venous Insuciency (CCSVI) as a cause for Multiple Sclerosis (MS). The debate is observed in a forum provided by the Deutsche Multiple Sklerose Gesellschaft (Engl.: German MS Society) (DMSG) and targeted at laypersons. Our aim is to understand the roles of the forum users and their preferred references to sources of information better. In order to do so, we develop an Information Retrieval algorithm rst, that is based on structural forum data, and is able to distinguish posts discussing CCSVI from irrelevant posts. We optimize the parameters of the algorithm by means of an Evolutionary Algorithm. We asses the referenced domains, then classify and visualize them. We identify references to scientific publications. We assign roles to users based on two distinct feature sets: One is the references posted and the other is a carefully selected feature set describing general user behavior. These roles are assigned by means of a kernelized version of the popular K-Means clustering algorithm. We also analyze the presence of homophily and determine the influence of users based on graphs known from the eld of Social Network Analysis. Combining the results of these analyses, we can formulate a broad description of user behavior and relationships, community characteristics, and reference influence.
Abstract M. Sc. (Englisch)


Alexander Deicke
Automatic Usability Evaluation of Task Models
supervised by Prof. Dr. Jens Grabowski
Since usability is one of the most important qualities of a software application, usability evaluation became an increasingly important part of the user interface design process. However, performing a usability evaluation can be a time and human resources consuming activity. The automation of usability evaluation methods seems a promising way to overcome this difficulties. In this thesis, we introduce an automated usability evaluation method for task models. Describing the activities of a user during application usage, task models are valuable sources which support the analysis of the user behavior to identify usability problems. Usually done by a human evaluator, the detection of usability problems is on of the key concerns in every usability evaluation method. Therefore, we first examine the nature of usability problems, including description resources and, most importantly, how we can map them on task models. For the mapping we realize the idea to transform usability problems into a series of user interactions, together with certain conditions according the appearance within the series. This concept, called interaction pattern, is then utilized by an algorithm to detect usability problems in task models. In order to prove if our usability evaluation method is applicable, we conduct a simple case study consisting of four examples, which are designed to cause usability problems. As a result, we found out that only certain usability problems could be detected automatically in task models. At the same time, we had to recognize that our approach is not yet sufficient enough to detect the usability problems with absolute accuracy.
Abstract M. Sc. (Englisch)


Alexander Wildschütz
Design und Implementierung eines Storage-Managers für den Generic Metadata Collector (GeMeCo)
supervised by Prof. Dr. Otto Rienhoff


Robin Martinjak
Eine Methode zur schnellen Erkennung ribosomaler RNA-Sequenzen in Metatranskriptom-Daten
supervised by Dr. Peter Meinicke
B. Sc. Bioinformatik (Deutsch)


Claudia Malzer
Entwicklung einer mobilen Applikation für das Gebäude- und Raumauskunftssystem der Universität Göttingen auf Basis des ArcGIS Runtime SDK for Android
supervised by Dr. Stefan Erasmi
B. Sc. Geoinformatik (Deutsch)


Cesar Revilla
Erstellung einer Webanwendung für ein Campus-GIS auf Basis von ArcGIS API for JavaScript und ReST Webdienste
supervised by Dr. Stefan Erasmi
B. Sc. Geoinformatik (Deutsch)


Sven Reglitzki
Erstellung eines Datenbankensystems für eine Enterprise-Anwendung zur Verarbeitung von Messwerten
supervised by Prof. Dr. Wolfgang May
Im Controlling ist es wichtig, dass Messungen vorgenommen werden, um relevante betriebswirtschaftliche Kennzahlen bilden zu können. Die Messwerte werden dabei über einen Zeitraum mehrerer Jahre gespeichert. Sie müssen jederzeit einsehbar sein, sodass auf kritischeWerte schnell reagiert werden kann. Die Berichtsgenerierung fasst sie über unterschiedliche Zeiträume hinweg zusammen, damit langfristige Entwicklungen beobachtet und somit besser kontrolliert werden können.In dieser Arbeit wird eine günstige Messdatenverwaltung mehrerer mittelständiger Unternehmen erarbeitet, für die das Controlling als Dienstleistung realisiert werden soll. Dazu werden sowohl Aspekte des Data-Warehousings, als auch der Skalierung und Datentrennung aufgegriffen.
Abstract B. Sc. (Deutsch)


Johannes Herfurth
Erstellung eines geographischen Bibliotheksauskunftssystems mit der ArcGIS API for JavaScript
supervised by Dr. Stefan Erasmi
B. Sc. Geoinformatik (Deutsch)


Alexander Stahmann
Gewährleistung von Datensicherheit bei Smartphone- und Tabletapps in der ambulanten Pflegedokumentation im Pilotprojekt Amtzell
supervised by Prof. Dr. O. Rienhoff
Die vorliegende Arbeit analysiert Gefährdungen der Datensicherheit beim Einsatz von mobilen Anwendungen (Apps) auf Smartphones und Tablets zur mobilen Pflegedokumentation im Pilotprojekt Amtzell und benennt mögliche Maßnahmen zur Vermeidung der analysierten Gefährdungen. Die Arbeit widmet sich eingangs den zu Grunde liegenden technischen Entwicklungen im Bereich der mobilen Endgeräte. Ausgehend von diesen Grundlagen werden die Projektanforderungen beschrieben und Quellen mittels strukturierter Literaturrecherche ermittelt. Diese werden im Rahmen der Analyse hinsichtlich der Aussagen zu Gefährdungen für die Datensicherheit ausgewertet. Ausgehend von den so analysierten Gefährdungen werden Maßnahmen untersucht, die eine Vermeidung bzw. eine Reduzierung dieser Gefährdungen ermöglichen. Die Gefährdungen und Maßnahmen werden abschließend in einer Checkliste zusammengeführt, welche die Voraussetzungen für die Gewährleistung der Datensicherheit beim Einsatz von Apps auf Smartphones und Tablets im Pilotprojekt Amtzell aufzeigt.Die Analyse zeigt, dass zur Gewährleistung der Datensicherheit eine Kombination von technischen und organisatorischen Maßnahmen nötig ist. Das Verständnis und die aktive Unterstützung der Mitarbeiter sind die entscheidende Voraussetzungen für eine erfolgreiche Umsetzung eines zu etablierenden Sicherheitsprozesses. Gefährdungen der Datensicherheit können bei mobilen Endgeräten von den Funktionen der Plattformen (iOS/Android) zur Kontenbindung ausgehen, da diese eine Kontrolle von Daten und Funktionen auf den Geräten durch Unternehmen und Behörden außerhalb des Geltungsbereichs der Europäischen Datenschutzverordnung zur Folge haben.Es werden für alle ermittelten Gefährdungen Maßnahmen zu ihrer Vermeidung beschrieben und diskutiert. Bei der Umsetzung der beschriebenen Maßnahmen ist die frühzeitige Einbeziehung der Datenschutzaufsicht nötig, um der Gewichtung der Schutzziele entsprechend die Prioritäten bei der App-Entwicklung setzen zu können.
Abstract M. Sc. Medizinische Informatik (Deutsch)


Pascal Schmitt
GPU-Implementierung eines Multi-Skalen-Schätzers zur lokal-adaptiven Bildentrauschung
supervised by Prof. Dr. Axel Munk
B. Sc. Wissenschaftliches Rechnen (Deutsch)


Sebastian Wolter
Implementierung des FGMRES-Verfahrens mit Mehrgittervorkonditionierung in den DLR-THETA-Code
supervised by Prof. Dr. Lube
M. Sc. Wissenschaftliches Rechnen (Deutsch)


Bassel Zeidan
Intelligent landmark-based navigation system using learning techniques
supervised by Prof. Dr. Florentin Wörgötter
Animals have an impressive ability to navigate in the environment and this ability is an essential prerequisite for their survival. It allows them to fulfill their needs by moving and interacting with the environment.Animals tend to define and to extract features (landmarks) from the environment during the navigation process. These landmarks are used as indicators to the right direction. Researchers have tried over the years to get a deeper understanding of the way in which such complex navigation systems operate. This is because having the ability to develop such systems would increase the developed robots' capabilities to perform complex tasks. In this thesis an intelligent landmark-based navigation system inspired by animals' navigation systems has been developed based on the use of “sequential reinforcement learning”. The developed system allows robots to perform adaptive trajectory learning based on their own previous experience in the environment.Correlation based learning (ICO learning) is used as an extension to the reinforcement learning system's structure. It generates reflexes which improve the overall learning performance of the system.The presented system has been applied to control two simulated robots (hexapod robot AMOS, four wheeled robot) to investigate the system's reliability, stability and efficiency to perform an adaptive navigation behavior.
Abstract M. Sc. (Englisch)


Xu Zhu
Interkulturelle Kompetenz aus Sicht von IT-Fach- und Führungskräften
supervised by Prof. Dr. Lutz M. Kolbe
B. Sc. Wirtschaftsinformatik (Deutsch)


Chris-André Leimeister
kmacs: the k-Mismatch Average Common Substring Approach for Phylogeny Reconstruction
supervised by Prof. Dr. Burkhard Morgenstern
The vast majority of sequence comparison methods for phylogeny reconstruction rely on pairwise or multiple sequence alignments. These approaches are in practice not usable for longer sequences such as complete genomes. For this reason alignment-free methods have recently become more popular because they are much faster and usually computable in linear time. Some of these methods are based on relatively entropy such as the average common substring approach [21]. This method computes average lengths of maximum common substrings as a measure of similarity between two sequences and turns this similarity into a distance value.Herein, it is suggested to generalize this approach by considering the longest substring starting at position i in the first sequence and matching a substring in the second sequence with k mismatches. A heuristic is presented to approximate such substrings efficiently. To evaluate the performance of this new distance measure, real-world data and simulated data have been used and in both cases, the corresponding reference tree is more closely approximated than with the average common substring method without mismatches.
Abstract B. Sc. Bioinformatik (Englisch)


David Garthen
Konzeption und Entwicklung eines sicheren und offenen Instant-Messaging-Dienstes
supervised by Dr. Ansgar Kellner
Im Rahmen dieser Bachelorarbeit wurde ein offener und sicherer Instant-Messaging-Dienst definiert, entworfen und ein Proof of Concept in Form eines GUI-Prototypen implementiert. Dieser ist in der Lage, Telefonnummern mit IM Accounts zu verknüpfen, um eine ähnliche usability wie SMS-artige Instant Messenger zu bieten, die in letzter Zeit viel an Popularität gewonnen haben. Zu diesem Zweck wurde auch eine Serverkomponente in Form eines Chatbots implementiert, welcher ein solches Nummernregister führen kann. Wert gelegt wurde dabei auf Verschlüsselung, Datenschutz und die Nutzung von offener oder freier Software und Standards. Zentrale verwendete Techniken sind unter anderem XMPP und OpenPGP. Motiviert wurde die Arbeit zum einen durch die zunehmenden Einschränkungen, die die Nutzer von kommerziellen Instant-Messaging-Angeboten hinzunehmen haben und zum anderen der fehlende Schutz der Privatsphäre, den ggf. unverschlüsselte Kommunikation über proprietäre Softwareplattformen mit sich bringt. Verstärkt wurde dies noch durch die Enthüllungen über die massenhafte Überwachung von elektronischer Kommunikation durch den US amerikanischen Geheimdienst NSA und seine Verbündeten.Die Machbarkeit eines Gegenentwurfs dazu, mit der konsequenten Verwendung von offener Software und unter Beachtung der Privatsphäre der Nutzer, wurde in Form des entwickelten Prototypen gezeigt.
Abstract B. Sc. (Deutsch)


Thorsten Mauß
Konzeption und Umsetzung einer Anwendung zur Erfassung pflegerischer Daten durch nicht-verkammerte Heilberufe im Kontext einer ePA gemäß § 291a SGB V
supervised by Prof. Dr. Otto Rienhoff
Seit annähernd einer Dekade ist die bundesweite Umsetzung einer zentralen IT-Plattform für das Gesundheitswesen eine durch deutschen Gesetzgeber beschlossene Tatsache. Die dafür eigens gegründete Projektgesellschaft gematik erarbeitet seit 2006 Konzepte für die technische Realisierung dieser Telematikinfrastruktur. Der Bürger hält mit der elektronischen Gesundheitskarte bereits den Grundstein für eine großangelegte Unterstützung des Gesundheitswesens durch neuartige Informationstechnologien in seiner Hand. Es ist Aufgabe von Wissenschaft und Forschung Anwendungsszenarien - sogenannte Mehrwertanwendungen - für die Möglichkeiten dieser Telematikinfrastruktur zu finden und zu erproben. Seit 2009 wird eine Form der elektronischen Patientenakte für Bürger und Leistungserbringer gleichermaßen getestet. Kern dieser Anwendung ist es, die informationelle Selbstbestimmung des Bürgers mit einer lebenslangen Gesundheitsakte in Einklang zu bringen.Auch in der professionellen Pflege wurden die Möglichkeiten einer elektronischen Patientenakte zum intersektoralen Austausch von Informationen interessiert aufgenommen. Durch die Bestrebungen nach einer standardisierten Pflegeüberleitungsdokumentation steht mit dem elektronischen Pflegebericht des Versorgungsnetzwerks in der Region Osnabrück bereits ein strukturiertes Austauschformat zu Verfügung, welches derzeit in einem durch das Bundesministerium für Gesundheit gefördertem Projekt auf Integrierbarkeit in eine elektronische Patientenakte evaluiert wird. Während verkammerte Heilberufe bereits mit Zugangskarten zur Telematikinfrastruktur ausgestattet werden können, warten die Pflegeprofessionen auf die Einführung des elektronischen Gesundheitsberuferegisters, welches die Zugänge für nicht-verkammerte Heilberufe kontrollieren wird.Diese Arbeit setzt in drei Schritten eine exemplarische Integration der pflegerischen Heilberufe für das Evaluationsszenario des ePflegeberichts im Kontext einer elektronischen Patientenakte um. Basierend auf einer Einordnung der an dieser Pilotierung beteiligten Rollen wird eine mögliche Erweiterung der ePA-Architektur spezifiziert und anhand einer Referenzimplementierung eine Anwendung vorgestellt, welche es nicht-verkammerten Heilberuflern ermöglicht, pflegerische Überleitungsdokumentationen in einer ePA zu dokumentieren, ohne dabei die bestehenden Sicherheitsmechanismen der Telematikinfrastruktur zu kompromittieren.
Abstract M. Sc. Medizinische Informatik (Deutsch)


Florian Philipp
Model-driven language implementation using the example of a test description language
supervised by Prof. Dr. Jens Grabowski
Traditional development of Domain Specific Languages (DSLs) centers on the grammar of that language. In contrast to that we explore a model-driven approach that focuses on a domain model first. We explore to what extent this simplifies the creation of multiple concrete syntaxes. We demonstrate how operational semantics can be defined using Model-to- Model (M2M) transformations and how multiple representations of the same model such as visualizations can be combined to improve the usability of a DSL.The implemented language is a prototype of a Test Description Language (TDL) based upon early drafts of the European Telecommunications Standards Institute (ETSI)'s TDL. At ETSI, test descriptions are used mainly for documentation and communication, but also serve as the basis for test implementation. The presented language aims to streamline the test specification development process and address the existing challenges by defining a structured DSL which supports the maintainability and consistency of test description documents. In addition, it lays out the foundations for automated checking of constraints and guidelines for the specification of test descriptions, as well as the automated generation of consistent documentation and base test code, which can be refined further into executable test specifications.The prototypical implementation of the approach is based on the EclipseModelling Framework (EMF) and currently provides an example Xtext-based concrete syntax, as well as an SVG serialization for visualization purposes. The operational semantics are based on the Triskell metamodeling kernel (Kermeta). The implementation also features a textual narrative serialization providing output in prose format. We have implemented examples of ETSI's IMS and 3GPP's LTE test descriptions specified with the presented approach and realized with the prototypical implementation.
Abstract M. Sc. (Englisch)


Benajmin Plock
Nicht-uniforme rationale B-Splines - Eine Einführung
supervised by Prof. Dr. Gert Lube
B. Sc. Wissenschaftliches Rechnen (Deutsch)


Christian Göge
Numerische Integration über zweidimensionalen Gebieten
supervised by Prof. Dr. Gert Lube
B. Sc. Wissenschaftliches Rechnen (Deutsch)


Alwin Maier
Numerische Simulation von Relaxationsschwingungen
supervised by Prof. Dr. Gert Lube
B. Sc. Wissenschaftliches Rechnen (Deutsch)


Sanaz Karimkhani Asl
Outlier detection in Wireless Sensor Networks
supervised by Prof. Dr. Dieter Hogrefe
M. Sc. (Englisch)


Omar Shaya
Status Reporting in IT Projects
supervised by Dr. Robert Wayne Gregory
Accurate status reporting is crucial to the success of IT and IS projects. Indeed, many major projects fail because employees are reluctant or selective in their reporting of bad news. As an investigation into the reasons behind this reluctance and/or bias in reporting, this paper concludes with a series of recommendations on ensuring effective and timely project updates. Due to the diversity of the modern IT world, we consider the ethical and cultural differences that lie behind what and how employees report. With the ever-expanding presence of women in the IT workforce, we turn our attention to gender differences in status reporting. Due to a lack of research into this specific area, we suggest research hypotheses based on gender difference studies from related fields. Furthermore, we propose a gender-power analysis matrix that could form the basis of such research. We employ these findings, taken from ethical, cultural, and gender research, to make a series of personnel, managerial, and organizational recommendations to improve the quality of status reporting. Finally, we argue that social networks and mobile technology would be effective tools in facilitating the fast, open, and effective communication needed to ensure IT project success.
Abstract B. Sc. (Deutsch)


Cay Garbrecht
Stochastische Bestellmengenoptimierung von Blutkonserven
supervised by Jun-Prof. Dr. Stephan Westphal
B. Sc. Wissenschaftliches Rechnen (Deutsch)


Dominic Simm
Untersuchungen zum Oligomerisierungszustand von Coiled-Coil-Proteinen im menschlichen Genom
supervised by PD Dr. Martin Kollmar
Die vorliegende Masterarbeit ist in der Forschungsgruppe Systembiologie der Motorproteine am Max-Planck-Institut für biophysikalische Chemie Göttingen entstanden. Sie beschreibt die Entwicklung und Anwendung einer Software zur Detektion und Analyse von Coiled-Coil-Strukturen und geladenen Single-a-Helices in Proteinen. Vorhersagen für Coiled-Coils liegt ein Heptad-Motiv zu Grunde, das sich in einer Netz-Form darstellen lässt. Auf Basis dieser Repräsentation wurde ein Score entwickelt, der eine Diskriminierung zwischen Coiled-Coil-Domänen und Single-a-Helices ermöglicht.Die Software wurde als Web-Applikation implementiert und verfügt über eine benutzerfreundliche Anwenderoberfläche. Der Nutzer kann zunächst in einer Konfigurationsmaske aus einigen Programmen zur reinen Coiled-Coil-Vorhersage und Anwendungen zur Vorhersage des Oligomerisierungszustandes auswählen. Daraufhin wird die Eingabesequenz in mehreren Darstellungen als Helix-Kreis-Diagramm für parallele und antiparallele Homodimere, sowie parallele Homotrimere und als Heptad-Netz-Diagramm visualisiert. Zusätzlich wird für jede Vorhersage der SAH-Score berechnet. Zusammengenommen liefern diese Informationen wichtige Anhaltspunkte für die korrekte Vorhersage der Struktur-Motive. Die Ergebnisse können gesichert und exportiert sowie zu einem späteren Zeitpunkt wiederhergestellt werden.In einer Untersuchung mit Hilfe der entwickelten Software konnten in diversen Myosinen Bereiche lokalisiert werden, bei denen es sich anstelle von Coiled-Coils vermutlich um geladene Single-a-Helix-Strukturen handelt.
Abstract M. Sc. Bioinformatik (Deutsch)


Fabian Trautsch
User-oriented Usability Evaluation of a Research Website
supervised by Prof. Dr. Jens Grabowski
This bachelor thesis investigates the usability of the research homepage of the Software Engineering for Distributed Systems Group (http://swe.informatik.uni-goettingen.de) at the University of Göttingen. The analysis was done with a combination of user-oriented usability evaluation methods: Questionnaires and the thinking-aloud test. In preparation for this test, an Usability Context Analysis (UCA) was done to identify target groups and their corresponding tasks, which they want to accomplish with the help of the website. 20 students, five researchers and three professional web developers have taken the test. They expressed their expectations regarding the website and were asked to answer questions with the help of the website, while they were observed. These questions represent the identified tasks of the target groups. The results show, that two expectations (examples of an usability analysis and lecture material) are not met by the homepage completely. Additionally, there were major problems with the solution of at least one-third of the questions. Furthermore, six question-overlapping problems were found. The major problems are the inconsistent design in different sections of the homepage, the inconsistent language, the missing bidirectional connection between publications and projects, the emphasis of links and that the projects can be overseen easily. The System Usability Scale (SUS)-Score of the website illustrates, that the functions of the website, especially the search bar in the publications sections, need to be integrated in the website better.
Abstract B. Sc. (Englisch)



2012

Steffen Zenker
A Vision based Terrain Classification Interface for Walking Machines
supervised by Prof. Dr. Wörgötter
As walking machines have big advantages in moving through rough and undiscovered terrains compared to wheeled vehicles, a new problem raised: different terrains require different gaits. Thus, terrain classification plays an important role in autonomous outdoor navigation.Since computer vision is a rapidly growing field and inspired by biology, this thesis presents a vision based terrain classification interface for walking machines. For this purpose, only a single camera is required to capture terrain surfaces. Walking machines equipped with this interface are enabled to adjust their gait according to the terrain. Hence, a walking machine is able to walk efficiently in impassable areas.In order to design an online classifier which can run in realtime, different methods from image processing and machine learning fields are combined. The thesis provides both a color-based and a feature-based classification algorithm which are comprehensively examined to maximize the performance. The proposed classification algorithm is tested with a hexapod robot (AMOS II) which then becomes able to interact with the environment and thus change the gait patterns according to the classification outputs.Finally, the proposed algorithm is evaluated with a benchmark image set from the object classification field and with a huge terrain image set including five different classes. For the terrain images the algorithm yields an accuracy up to 98% at reasonable frame rate. Thus, the thesis provides a stable and robust terrain classification framework which can be used for various walking machines.
Abstract B. Sc. (Englisch)


Andreas Wilhelm
Arduino-gesteuerte Laser-Abtastung realer Objekte zur Generierung dreidimensionaler Gitter
supervised by Dr. Jochen Schulz, Prof. Dr. Gert Lube
B. Sc. Wissenschaftliches Rechnen (Deutsch)


Philipp Kachel
Aspekte des Managements von Forschungsdaten - am Beispiel von zwei biomedizinischen Arbeitsgruppen
supervised by Prof. Dr. Ulrich Sax
Das Thema "Management von Forschungsdaten" ist an vielen Instituten und Universitäten sowie in der Literatur hochaktuell. Zurzeit befindet sich die Thematik in einem Übergang von der theoretischen Grundlagenarbeit hin zu praktischen Umsetzungen. Beispiele dafür sind in prozessunterstützenden Systemen zum Management von Forschungsdaten oder Systemen zur Langzeitarchivierung von (Forschungs-)Daten gegeben.Durch die Etablierung neuer Methoden zur Durchführung von wissenschaftlichen Experimenten und einem damit verbundenem Paradigmenwechsel in der Art und Weise der Forschung, treten neue Anforderungen und Probleme im Kontext Datenmanagement auf. Diese belegen eine Notwendigkeit von umfassenden Systemen zum Forschungsdatenmanagement. Zum einen sehen sich die Wissenschaftler mit einer Flut an neuen Daten - "Big Data" - konfrontiert, die es zu managen gilt. Zum anderen bedingen diese neuen Daten, sowie auch immer komplexere Versuchsaufbauten, eine ausführliche und begleitende Dokumentation der Forschungsdaten. Die Problematik umfasst somit die Menge an Daten, die durch neue Methoden und verbesserte Technik erhoben werden können gleichermaßen, wie höhere Anforderungen an die Dokumentation und Wiederverwendbarkeit der Forschungsdaten. Gerade mit dem Blick auf eine spätere Wiederverwendung der Daten, sowie deren Austausch, ist dies von essentieller Bedeutung.Für große Forschungsvorhaben (Big Science) werden solche Konzepte und Infrastrukturen vom Geldgeber zwingend gefordert. In kleinen Arbeitsgruppen (Small Science) ist dies gerade innerhalb der Antragsstellung gewünscht, aber nicht verpflichtend und somit in den meisten Fällen auch nicht umzusetzen. Es existieren bereits verschiedene Systeme zum Forschungsdatenmanagement auf anderen Ebenen, bspw. für ganze Universitäten oder Institute. Eine Unterstützung in Fachbereichen und den dort angesiedelten Forscher- und Arbeitsgruppen fehlt indessen. Die vorliegende Arbeit beleuchtet verschiedene Aspekte des Forschungsdatenmanagements auf Notwendigkeit und Nutzen für kleinere Forschungs- und Arbeitsumgebungen. Dazu gehören neben einer Literaturrecherche zum Erfassen des aktuellen Standes auch eine Anforderungsanalyse und das Feststellen des aktuellen IST-Zustandes in einer definierten Umgebung. Hierfür wurden zwei onkologische Arbeitsgruppen in der Klinik für Hämatologie und Onkologie der Universitätsmedizin Göttingen ausgewählt. Neben dem Analyseprozess zur Ermittlung der Anforderungen in den Arbeitsgruppen entstehen als Ergebnisse der Arbeit ein Metadatenmodell in Verbindung mit einem logisches sowie einem technisches Konzept zur Umsetzung eines Forschungsdatenmanagement-Systems.
Abstract B. Sc. Medizinische Informatik (Deutsch)


Florian Unger
Campus GIS for Mobile Devices - Entwicklung eines Prototyps
supervised by Dr. Stefan Erasmi
B. Sc. Geoinformatik (Deutsch)


Sven Emme
CSG-Operation auf Dreiecksnetzen mit Hilfe der Half-Edge-Datenstruktur in GroIMP
supervised by Prof. Dr. Winfried Kurth
B. Sc. (Deutsch)


David Goltzsche
Ein Protokoll für anonyme, elektroschische Wahlen
supervised by Dr. Henrik Brosenne
B. Sc. (Deutsch)


Hendrik Kemper
Eine neue Entropie basierte Methode für die Erkennung von kompensatorischen Mutationen: Alternative zu CoupleMutationFinder
supervised by Prof. Dr. Stephan Waack
B. Sc. (Deutsch)


Maximilian Brodhun
Entwicklung einer Metadatenstruktur für die Langzeitarchivierung von Forschungsdaten aus DNA-Sequenzierungsexperimenten
supervised by Prof. Dr. Otto Rienhoff
In der vorliegenden Masterarbeit wurde eine Metadatenstruktur für die Langzeitarchivierung von Forschungsdaten aus DNA-Sequenzierungsexperimenten entwickelt. Dabei wurde der Fokus auf die Technologie des Next-Genereation Sequencings gelegt.Die Metadaten der Struktur sollen eine langfristige Nutzung von erzeugten Forschungsdaten ermöglichen. Die zentralen Aspekte sind die Nachnutzung der Forschungsdaten für weitere Forschungsvorhaben und die Nutzung als einen rechtlichen Nachweis von Handlungen, Methoden und Ergebnissen. Dieser Aspekt ist vor allem für Veröffentlichungen relevant.Für diese Zielsetzung wurde nach einer Einarbeitung in die allgemeine Thematik der digitalen Langzeitarchivierung, der Metadaten und der Genomforschung eine zwei stufige Literaturrecherche durchgeführt. Mittels dieser wurde der Workflow eines Next-Generation Sequencing Experimentes analysiert. In der ersten Iteration wurden dabei allgemeine Prozesse identifiziert, die daraufhin in der zweiten Iteration auf Detailschritte untersucht wurden. Der ermittelte Workflow nach der zweiten Iteration der Literaturrecherche diente als Grundlage, um Metadaten abzuleiten, die den gesamten Arbeitsprozess im Detail dokumentieren. Die ermittelten Metadaten wurden im Anschluss mit einem bestehenden Metadatenstandard für DNA-Sequenzierungsexperimente vergleichen. Mit dem Ergebnis des Vergleiches wurden Expertengespräche geführt, um das Ergebnis zu fundieren. Für eine bessere Übersicht wurde der Workflow in einzelne Phase gegliedert und der Ablauf der Sequenzierung mit Flussdiagrammen dargestellt. Innerhalb der Phasen wurden die Metadaten in Kategorien eingeteilt, um eine strukturierte Übersicht über die abgeleiteten Metadaten zu bieten.Die Ergebnisse dieser Masterarbeit sollen zur Grundlage für ein XML-Schema dienen, welches innerhalb des DFG-Projektes LABIMI/F zur Langzeitarchivierung Biomedizinischer Forschungsdaten eingesetzt werden soll.
Abstract M. Sc. Wissenschaftliches Rechnen (Deutsch)


Maximilian Brodhun
Entwicklung einer Metadatenstruktur für die Langzeitarchivierung von Forschungsdaten aus DNA-Sequenzierungsexperimenten
supervised by Prof. Dr. Otto Rienhoff
In der vorliegenden Masterarbeit wurde eine Metadatenstruktur für die Langzeitarchivierung von Forschungsdaten aus DNA-Sequenzierungsexperimenten entwickelt. Dabei wurde der Fokus auf die Technologie des Next-Genereation Sequencings gelegt.Die Metadaten der Struktur sollen eine langfristige Nutzung von erzeugten Forschungsdaten ermöglichen. Die zentralen Aspekte sind die Nachnutzung der Forschungsdaten für weitere Forschungsvorhaben und die Nutzung als einen rechtlichen Nachweis von Handlungen, Methoden und Ergebnissen. Dieser Aspekt ist vor allem für Veröffentlichungen relevant.Für diese Zielsetzung wurde nach einer Einarbeitung in die allgemeine Thematik der digitalen Langzeitarchivierung, der Metadaten und der Genomforschung eine zwei stufige Literaturrecherche durchgeführt. Mittels dieser wurde der Workflow eines Next-Generation Sequencing Experimentes analysiert. In der ersten Iteration wurden dabei allgemeine Prozesse identifiziert, die daraufhin in der zweiten Iteration auf Detailschritte untersucht wurden. Der ermittelte Workflow nach der zweiten Iteration der Literaturrecherche diente als Grundlage, um Metadaten abzuleiten, die den gesamten Arbeitsprozess im Detail dokumentieren. Die ermittelten Metadaten wurden im Anschluss mit einem bestehenden Metadatenstandard für DNA-Sequenzierungsexperimente vergleichen. Mit dem Ergebnis des Vergleiches wurden Expertengespräche geführt, um das Ergebnis zu fundieren. Für eine bessere Übersicht wurde der Workflow in einzelne Phase gegliedert und der Ablauf der Sequenzierung mit Flussdiagrammen dargestellt. Innerhalb der Phasen wurden die Metadaten in Kategorien eingeteilt, um eine strukturierte Übersicht über die abgeleiteten Metadaten zu bieten.Die Ergebnisse dieser Masterarbeit sollen zur Grundlage für ein XML-Schema dienen, welches innerhalb des DFG-Projektes LABIMI/F zur Langzeitarchivierung Biomedizinischer Forschungsdaten eingesetzt werden soll.
Abstract M. Sc. Medizinische Informatik (Deutsch)


Alexander Wolf
Evaluation of Human Altruism with DTN based data forwarding
supervised by Prof. Dr. Xiaoming Fu
Altruism, trust or incentive studies are very closely related to what is happening in the field of behavioral economics. People in that research field commonly use games (Ex. prisoner’s dilemma, dictator, etc.) to test and observe the behaviors of the participants when they are encountering different choices. Unfortunately these kind of games are limited and artificial and many of the conclusions are unreliable. For example, from variations of the dictator game one may observe that a lot of participants are willing to share their money with their partners but we cannot draw the conclusion that people are altruistic from it. According to Levitt and List the reasons for this are the following five factors: 1) the presence of moral and ethical considerations; 2) the nature and extent of scrutiny of one’s actions by others; 3) the context in which the decision is embedded; 4) self-selection of the individuals making the decisions; and 5) the stakes of the game/activity. These things may influence behavior and distort how things work outside of lab environments. This study attempts to get a better understanding of Human behavior, specifically looking for its altruistic notions by studying contrasting levels of scrutiny. For this, a group of people participate in two experiments with the first one lasting one and the second for two weeks. The experiments start in the lab environment and then study the subjects’ daily lives for the duration of the experiment. In the lab the subjects are introduced to the experiment and fill out a questionnaire under supervision. They are introduced to the mobile software they will be using and create a user account. The software contains preferences similar to the questions from the questionnaire. The subjects may change their preferences as they wish. At the end of the experiment the usage data is returned for analysis to compare with the answers given on the paper questionnaire. The design of the software provides the subjects with a limited resource, the battery, which they can share by keeping the application running to relay messages and keep the network active. Subjects must find a balance between helping others relay messages and sustaining themselves. The goal is to find the point when the incentives to keep sharing are subjectively equal to the cost of sharing and whether subjects keep sharing longer than the limit they have set. The dissonance between the lab and real world environments aim to find congruencies in the data to the model from Levitt and List for scrutiny and anonymity.
Abstract B. Sc. (Englisch)


Fabian Mathey
Gemstone Goes Mobile: Enabling Decentralized Online Social Networking on Mobile Devices
supervised by Prof. Dr. Xiaoming Fu
With the growth in popularity of online social networks (OSN), a more controllable socialgraph middleware, called GEMSTONE, was developed. The middleware is based on apeer-to-peer network infrastructure. In recent years, mobile devices became increasinglypopular as well and were increasingly used for social interaction over OSN. However,even with them being very capable devices, they have very limited resources like batteryand computation power. In this thesis, we developed a concept which is compatible withGEMSTONE, called GEMSTONE Mobile, and which requires less resources than the initialGEMSTONE project. We found that by outsourcing as many GEMSTONE tasks as possible,the evaluation of the middleware has proven to required less resources and thus, theconcept was successfully implemented.
Abstract B. Sc. (Englisch)


Ansgar Jahn
Identity Management heterogener IT-Systeme am Beispiel eines Visualisierungs-Clusters
supervised by Prof. Dr. Ulrich Sax
Die sichere und eziente Verwaltung von Nutzerdaten gewinnt angesichts der weiten Verbreitung von Netzwerken und verteilten Ressourcen zunehmend an Bedeutung. Ziele sind dabei neben einer Verringerung des Verwaltungsaufwands vor allem die Bereitstellung eines konsistenten IdM-Systems, das dem Nutzer schnellen und unkomplizierten Zugang zu Daten und Dienstleistungen beispielsweise über Single Sign-On ermöglicht.Vor allem die Vereinheitlichung von Nutzerdaten und Transparenz der Anwendungen ist hier eine besondere Herausforderung. Dies umso mehr, wenn eine etablierte lokale Nutzerverwaltung in ein übergeordnetes IdM-System eingebettet werden soll. Für den Visualisierungs-Cluster wurde diese Möglichkeit im Rahmen der vorliegenden Bachelorarbeit untersucht.Als Grundlage für die Modifikation des IdM wurden umfassende Informationen über die Nutzerverwaltung am Standort Göttingen und am Visualisierungs-Cluster zusammengetragen. Aufbauend auf dieser Dokumentation, die bisher nicht in diesem Umfang vorlag, konnten eektive Umsetzungsstrategien für die Einbindung in das Active Directory der GWDG entwickelt werden. Die für die Modifikation des Visualisierungs-Clusters notwendigen Module und Konfigurationen wurden anhand einer Beispiel-Implementierung in einer vereinfachten Prototyp-Umgebung ermittelt und somit ein funktionsfähiger und sicherer Authentifizierungsmechanismus gegen das AD realisiert. Dabei wurde als Authentifizierungsdienst Winbind aus der Samba Programm Suite gewählt und eine lokale Rechteverwaltung ermöglicht.Insgesamt liefert die vorliegende Bachelorarbeit durch eine gut übertragbare Beispielimplementierung die Grundlage für eine reale Modifikation des Visualisierungs-Clusters im Sinne einer Einbindung in das AD der GWDG. Darüber hinaus können die hier dargestellten Ergebnisse auch als Vorbild für die Einbindung anderer auf Linux basierende, lokale IdM-Systeme in einen windows-basierten Verzeichnisdienst verwendet werden.
Abstract B. Sc. Medizinische Informatik (Deutsch)


Katarzyna Wasilczuk
Implementation, Test und Dokumentation einer nutzerfreundlichen Schnittstellensoftware für den 3D-Scanner FASTRAK
supervised by Prof. Dr. Winfried Kurth
B. Sc. Oekoinformatik (Deutsch)


Markus Matoni
IT-Kennzahlen zur Langzeitarchivierung von Forschungsdaten - am Beispiel von Genomdaten
supervised by Prof. Dr. Ulrich Sax
B. Sc. Medizinische Informatik (Deutsch)


Daniel May
Observing Activity Patterns in Software Development
supervised by Prof. Dr. Jens Grabowski
Analysing modern, highly complex software projects by observing how their metrics change over time can yield surprising yet useful insights. While most modern software evolution tools provide a good summary on how these metrics develop, they usually do not pay attention to the source contributors at all.This thesis presents a way to connect metric altering commits in Version Control Systems back to their author. By observing every author’s way of coding, a much deeper insight into a software development process can be provided. Bad habits of developers can be discovered and potentially prevented. In turn, this can lead to reduced effort and costs during the development and maintenance of software in the future.A Java implementation to analyse these aspects of software development and maintenance is presented. It extracts Version Control System data including file, module, and function metrics while focusing on the actual committers who are responsible for them. To show the usefulness of this data, a case study on the modern software project Amarok 2 is provided that contains 32232 Git revisions in the master branch alone.
Abstract B. Sc. (Englisch)


Bartosz Kohnke
Parallele Implementierung der Full-Multigrid-Methode mit CUDA für nichtlineare Probleme
supervised by Prof. Dr. Gert Lube
B. Sc. Wissenschaftliches Rechnen (Deutsch)


Benjamin Dake
Process-based Data Extraction from Web Sources
supervised by Prof. Dr. Wolfgang May
The World Wide Web holds a large amount of information in unstructured form. The Web Data Extraction is concerned with the extraction of such data into a structured form that is proper for a further processing. This Thesis develops an extendible process for the extraction of linked geographic data from Wikipedia. It uses a classifier in order to map a Web Page into a category and then applies an appropriate wrapper for the data extraction.
Abstract M. Sc. (Englisch)


Julius Faber
Reinforcement Learning on a Predefined Situation Space using a KUKA Lightweight Robot Arm (Simulation)
supervised by Prof. Dr. Wörgötter
B. Sc. (Englisch)


Mathias Velten
Schnelle Migration von virtuellen Maschinen durch Trennung von Basissystem und Konfiguration
supervised by Prof. Dr. Dieter Hogrefe
B. Sc. (Deutsch)


Hang Zhang
Simulation of a Self-organized Public Key Management Scheme for Mobile Ad-hoc Networks
supervised by Prof. Dr. Dieter Hogrefe
Because of the rapid increase of applications based on ad hoc networks, security in such environment becomes an essential issue. Considerable research has been done recently on providing the secure communications in Mobil Ad-hoc NETworks (MANETs). A common solution is using asymmetric key cryptography which is often applied in the manner of issuing and verifying the public key certificates. However, in a fully self-organized network every participant becomes a Certifying Authority (CA) and is able to issue certificate to any other participant in the network based on its acquaintance. The malicious participants could take advantage of this and issue fake certificates that combine the identity of the target node with the malicious public key. Thus, participants should be able to make an appropriate judgment of the public key’s reliability. In such system, an extra mechanism is required to aid participants in making decisions. Recently trust and reputation has been proposed as an effective solution for the self-organized environments. The trust relationship among participants could be used to provide higher level security operations such as key management. However, the computation and propagation mechanism in trust and reputation systems should be implemented in an efficient way due to the strong inherent constraints of MANETs, such as limited bandwidth and energy. In this work, we introduce a novel self-organized public key management scheme for MANETs. The proposed scheme is inspired by the ant colony optimization algorithms and applies public key certificates for the authentication of participants in the network. Throughout the entirety of this thesis, we introduce the background and special requirements for designing security protocols in MANETs and describe the proposed scheme in detail. We will also present our extensive performance evaluation results, which could give us a close look into the new authentication mechanism.
Abstract M. Sc. (Englisch)


Kai-Stephan Jakobsen
Transitioning Social Graphs Between Different Online Social Networks
supervised by Prof. Dr. Xiaoming Fu
B. Sc. (Englisch)


Johannes Widenka
Usage of Channel Codes for Image and Video Segmentation
supervised by Prof. Dr. Wörgötter
Pixel-based image segmentation is an important image processing step in many computer vision applications. It delivers the rst structured and ltered informationby supplying partitions of logical units of the processed image. The better the results of this step are, the easier further processing steps, such as object, action or mimic detection can be done. In this thesis a stat-of-the-art segmentation method is presented and combined with a data representation called channel code as an alternative to unchanged color information, given in scalar components. It is discussed, what "similarity" means in terms of dened color metrics, and how its calculation changes when channel representation is used. Channel codes are also used to fuse color and depth information causing an improvement of segmentation quality. Based on the theoretical background that is given in this thesis and the experiments that are presented, it is discussed how channel codes can be used to improve segmentation results in general.
Abstract B. Sc. (Englisch)


Christian Otto
Verbesserung der Vorhersagegenauigkeit bei Klassifikationsproblemen durch einen Ensemble-Lern-Ansatz mit Boosting am Beispiel der Insolvenzprognose
supervised by Prof. Dr. Stephan Waack
M. Sc. (Deutsch)



2011

Thomas Franke
A New Entropy Based Model for the Detection of Correlated Mutations in Multiple Sequence Alignments
supervised by Prof. Dr. Stephan Waack
The recent advents of complete genome sequencing provide a tremendous amount of data for researches about the structural basis of the function of proteins. However, the shear amount of data is both a blessing and a curse. In order to facilitate the utilization of this information, numerous algorithmic analysis procedures have been developed to identify functionally important residues. In this project, we utilized well founded statistical based methods in order to optimize an existing, mutual information based scoring method (H2r) for the quantification of coevolution in multiple sequence alignments. In addition, we developed an H2r extension, called SAMI2R, which incorporates amino acid pair similarities into the calculation of the score. Ultimately, we designed another method for the quantification of correlated mutations (i.e. coevolution) using the relative von Neumann entropy, usually known from the area of quantum physics. The results of our algorithmic residue identifications indicate a partially conformity with the findings of a clinical trial.
Abstract M. Sc. (Englisch)


Tobias Koller
Analyse und Bewertung der verschiedenen Technologien zur Datenübertragung bei der Verwendung von digitalen Stromzählern
supervised by Prof. Dr. Lutz M. Kolbe
B. Sc. Wirtschaftsinformatik (Deutsch)


Kevin Kramer
Analyse und Modellierung der datenschutzrechtlichen Anforderungen beim Einsatz vom intelligenten Stromzählern in Privathaushalten
supervised by Prof. Dr. Lutz M. Kolbe
B. Sc. Wirtschaftsinformatik (Deutsch)


Geyu Chen
Analysis of Attacks on the Routing Protocal Directed Diffusion in Wireless Sensor Networks
supervised by Prof. Dr. Dieter Hogrefe
Wireless Sensor Networks (WSNs) are designed to monitor or track objects, animals, humans, vehicles and other interesting events through the cooperation of a large number of distributed autonomous sensors. WSNs become a very important technology with the diverse deployment of WSN applications ranging from military, environment, health, home to other commercial areas. Routing security in WSNs is very challenging due to the resource limitations of sensor nodes.The objective of this thesis is to explore and implement attacks on sensor network routing and analyze the attacks' impact on their performance to give an insight into their overall security vulnerability. This work implements several possible attacks on the routing protocol directed diffusion in WSNs using a popular simulation environment OMNet++ and presents a detailed evaluation of the impact of the implemented attacks on the performance of original protocol. The simulation results show that these attacks significantly reduce the functionality as well as the overall performance especially depending on the attack type and the network size.
Abstract M. Sc. (Englisch)


Mischa Veigt
Automatische Tourendisposition unter Berücksichtigung von Kapazitäten und Anfahrtsreihenfolgen in einem ERP System am Beispiel einer Integration von PTV Komponenten in Microsoft Dynamics AX
supervised by Prof. Dr. Dieter Hogrefe
In dieser Bachelorarbeit wird der Entwicklungsprozess zur Erstellung eines Tourendispositionstools in dem ERP-System Microsoft Dynamics AX 2009 dargestellt, mit dem Touren optimal geplant und automatisch disponiert werden können. Dabei wird speziell auf die einzelnen Entwicklungsschritte zur Implementierung und der grafischen Darstellung eingegangen. Im Anschluss wird ein Einblick in die Tourendisposition anderer ERP-Systeme gegeben und mögliche Erweiterungen des erstellten Tourendispositionstool aufgezeigt.
Abstract B. Sc. (Deutsch)


Mohammed Ibrahim
Cuda-basiertes maschinelles Lernen
supervised by Professor Dr. Gert Lube
B. Sc. Wissenschaftliches Rechnen (Deutsch)


Alexander Stahmann
Datenschutz in Ambient Assisted Living-Anwendungen
supervised by Prof. Dr. Otto Rienhoff
Diese Bachelorarbeit befasst sich mit dem Themenbereich des Datenschutzes in Ambient Assisted Living (AAL) Anwendungen. Im Sinne eines modernen Datenschutzes werden sogenannte Schutzziele als Leitlinien für die Implementierungen und Prüfungen von informationstechnischen Systemen verwendet. Die bereits bekannten Datensicherheits-Schutzziele sind technischer Natur. Unter den „neuen“ Schutzzielen werden die Schutzziele Transparenz, Nicht-Verkettbarkeit und Intervenierbarkeit verstanden [1]. Als Querschnittsanforderung kann das Schutzziel der Transparenz betrachtet werden, da es bereits vor einer jeden Datenverarbeitung von personenbezogenen Daten umzusetzen ist, nur so kann eine informierte Einwilligung des Nutzer ermöglicht werden [2]. Transparenz gilt es während des gesamten Nutzungsverhältnisses zu gewährleisten, inklusive seinem Ende, der Löschung der Daten.Ziel dieser Arbeit war es die rechtlichen Grundlagen des Datenschutzschutzziels der Transparenz und Möglichkeiten der Umsetzung zu ermitteln, vorzustellen und im Rahmen eines Vergleichs zweier beispielhaft ausgewählten AAL-Anwendungen von Atos und I.E.M. zur Behandlung von Patienten mit Bluthochdruck zu untersuchen. Hierzu wurden im Rahmen eines Literaturreviews Quellen ermittelt und ausgewertet. Die ermittelten verfassungsrechtlichen und einfachgesetzlichen Vorgaben wurden ausgearbeitet. Um das Schutzziel und die rechtlichen Vorgaben umzusetzen wurden basierend auf Ansätzen aus dem IT-Grundschutzkataloge des Bundesamtes für Sicherheit in der Informationstechnik (BSI) und einer Studie des Unabhängigen Landeszentrums für Datenschutz Schleswig-Holstein (ULD) Maßnahmen definiert, welche eine Einhaltung des Schutzziels ermöglichen [3], [4]. Die relevanten Aspekte der verglichenen Anwendungen wurden modelliert, beschrieben und vergleichend auf die Umsetzung der Transparenz untersucht.Der Vergleich zeigte unter anderem auf, dass es mit der Assignio-Akte von Atos eine durchdachte Umsetzung des Schutzziels gibt. Jedoch nicht jeder Anbieter die Anforderung der Informiertheit des Nutzers vor einer Einwilligung gleichermaßen gut umsetzt. Beiden untersuchten Anwendungen gelingt es nicht vollständige Transparenz über die Datenverarbeitungsschritte zu gewährleisten. Dies gilt besonders für jene, die unternehmensintern geschehen. Hier bietet sich für die Anbieter mithilfe von Zertifizierungen eine Möglichkeit; Vertrauen zu gewinnen und Rechtssicherheit zu erhalten.
Abstract


Benedikt Schäffler
Datenschutzkonforme Zusammenführung von Bilddaten und medizinischen Daten in einem Kompetenznetz in der Medizin
supervised by Prof. Dr. Ulrich Sax, Prof. Dr. Otto Rienhoff
Die vernetzte Forschung ist ein immer größer werdendes Gebiet in der Medizin, da hierdurch größere Datenmengen und Wissen zwischen Forschern verschiedener Einrichtungen und der Versorgung ausgetauscht werden können. Dabei werden erhöhte Anforderungen an den Datenschutz gestellt. Auch die getrennte Speicherung von medizinischen Daten (MDAT) und Bilddaten führt dazu, dass datenübergreifende Auswertungen oder Aussagen mit zusätzlichem Aufwand verbunden sind. In dieser Arbeit wurde die Zusammenführung von MDAT und Bilddaten anhand der Anforderungen des Kompetenznetzes Angeborene Herzfehler (KN AHF) behandelt. Die Ergebnisse basieren auf Gesprächen mit den Anwendern, wobei Datenschutzaspekte auf Basis des Datenschutzkonzepts des KN AHF ermittelt wurden, welches seinerseits mit dem Datenschutzkonzept B der TMF e.V. abgestimmt worden ist. Zusätzlich wurden die IT-Infrastruktur des KN AHF sowie vorhandene Softwarekomponenten untersucht. An der Universitätsmedizin Göttingen (UMG) wurde bereits in diversen Forschungsprojekten daran gearbeitet, Studiendaten optimal für die Forschung zugänglich zu machen. Zentraler Bestandteil dabei war das i2b2-Framework, welches auch in dieser Arbeit als Zielsystem für eine Zusammenführung verwendet wurde. Da ein Import von Bilddaten noch nicht möglich war, wurde deren Verarbeitung fokussiert. Basierend auf zwei Anwendungsszenarien wurden zwei Konzepte für eine Zusammenführung von MDAT und Bilddaten entwickelt sowie entsprechende prototypische Implementierungen der zugehörigen Work flows. Das erste Konzept sieht die Zusammenführung während der Durchführung einer Studie vor, um diese durch datenübergreifende Abfragen zu unterstützen, welche vorher manuell ausgeführt werden mussten. Das zweite Konzept basiert auf dem Datenschutzkonzept des KN AHF, welches durch eine Zusammenführung der unterschiedlichen Datenbestände erweitert wurde. Dabei sollen Daten für noch undefinierte Forschungsvorhaben zur Verfügung gestellt und über einen unbestimmten Zeitraum archiviert werden. In diesem Zusammenhang wurde die Pseudonymisierung von personenbezogenen Bildmetadaten betrachtet mit einem Leitfaden als Ergebnis, welcher beschreibt, wie dabei vorzugehen und was zu beachten ist. Auerdem wurde der Pseudonymisierungsdienst (PSD) der TMF e.V. als Werkzeug zur Pseudonymisierung von Bildmetadaten beleuchtet. Als Nebenerzeugnis beider Konzepte wurde eine Konvertierung von DICOM-Metadaten auf ausgewählte CDISC-ODM-Elemente entwickelt. Diskutiert wurden die Ergebnisse zuerst bezogen auf die technischen Details und anschließend auf Probleme, welche sich aus der Bildmetadatenpseudonymisierung ergeben. Abschließend wurde das i2b2-Framework als Werkzeug der Zusammenführung von MDAT und Bilddaten mit anderen Lösungen verglichen. Vornehmlich wurde der Import untersucht, wobei Aspekte der Nachhaltigkeit und der weiteren Verwendung dieser Daten in Folgestudien zu analysieren sind.
Abstract M. Sc. Medizinische Informatik (Deutsch)


Roman Ostertag
Datenschutzkonforme Zusammenführung von Biomaterialverwaltungsdaten mit medizinischen Daten für eine klinische Forschergruppe
supervised by Prof. Dr. Ulrich Sax, Prof. Dr. Otto Rienhoff
Die Verfügbarkeit von biologischen mit begleitenden klinischen Daten wird zunehmend wichtiger für die gegenwärtige Forschung. Zahlreiche Forschungsprojekte sind aufgrund ihrer Forschungsziele auf Biomaterialbanken und die dazugehörigen medizinischen Daten angewiesen. Dabei entspricht die getrennte Speicherung von medizinischen Datenbeständen in einzelnen von einander abgeschotteten Modulen dem heutigen Standard hinsichtlich Datenschutz und Datensicherheit in deutschen Forschungsumgebungen. Dementsprechend werden die begleitenden Verwaltungs- und Analysedaten getrennt von den parallel erhobenen klinischen Daten in separaten Datenbanken gelagert. Für das Erreichen festgelegter Forschungsziele ist jedoch eine Zusammenführung der Datenbestände unumgänglich. Die Realisierung der Datenzusammenführung hingegen ist oft mit erheblichem Aufwand verbunden und unterliegt strengen Datenschutzrichtlinien. Diese Masterarbeit befasst sich mit den organisatorischen und technischen Aspekten einer Zusammenführung von Biomaterialverwaltungsdaten mit medizinischen Studiendaten in klinischen und wissenschaftlichen Forschungsumgebungen. Dazu wurde die Infrastruktur einer klinischen Forschergruppe untersucht und Anforderungen für die datenschutzkonforme Datenzusammenführung herausgearbeitet. Basierend auf den Anforderungen entstand ein Konzept für eine Datenzusammenführung, das die vorhandenen Datenschutzkonzepte adaptiert und diese auf die Bedürfnisse der Forschergruppe erweitert. Eine mögliche Umsetzung des Konzepts erfolgte durch die Entwicklung, Implementierung sowie die Integration von Softwarebausteinen in bestehende Lösungen der Forschergruppe. Durch die erarbeitete Lösung und die Verwendung von innovativen Werkzeugen wird eine neue und erleichterte Form der Hypothesenbildung und Patientenrekrutierung für die Projektleiter von klinischen Forschergruppen in Deutschland ermöglicht.
Abstract M. Sc. Medizinische Informatik (Deutsch)


Malte Hübner
Die Erkennung und Darstellung von konservierten Intronpositionen
supervised by Prof. Dr. Stephan Waack
B. Sc. (Deutsch)


Florian Müller
Die sichere Wohnzimmercloud
supervised by Prof. Dr. Lutz M. Kolbe
B. Sc. Wirtschaftsinformatik (Deutsch)


Jeffrey Hall
Erweiterung des EventBench Projektes um Test-Assertions mit Fokus auf GUI Testen
supervised by Prof. Dr. Jens Grabowski
Heutige Software wird in der Regel über eine grafische Benutzeroberfläche (GUI) bedient. Es kommt allerdings immer wieder vor, dass Software sich nicht so verhält, wie man es erwartet. Um diesem Problem entgegenzutreten, können die Eingaben des Nutzers aufgezeichnet werden. Sollte sich ein unerwartetes Verhalten zeigen, kann diese Aufnahme wieder abgespielt und das Verhalten der Software analysiert werden. Um die Verhaltensanalyse zu unterstützen, können unter anderem sogenannte Assertions genutzt werden. Diese Arbeit beschreibt, was Assertions sind, wie sie dem EventBench Projekt hinzugefügt wurden und wie sie zum Einsatz kamen.
Abstract B. Sc. (Deutsch)


Anna Grit Eggers
Evaluation von NoSQL-Datenbanken in der Bioinformatik
supervised by Prof. Dr. Wingender
NoSQL-Datenbanken sind dank ihrer vielfältigen Anwendungsmöglichkeiten in den letzten Jahren als Alternative zu relationalen Datenbanken sehr gefragt. In der Bioinformatik kann die Nutzung von Datenbanken dieser Art für viele Anwendungen erhebliche Leistungssteigerungen bringen, sowie den Umgang mit schemalosen Daten erleichtern.Da das Gebiet der NoSQL-Datenbanken aufgrund verschiedenster Einflüsse und alternativer Konzepte sehr heterogen ist, ist es für konkrete Anwendungen oft schwer eine passende Datenbank zu wählen.Diese Bachelorarbeit soll einen Einstieg in die Prinzipien von NoSQL vermitteln und bei der Wahl einer NoSQL-Datenbank für einen Anwendungsfall aus der Bioinformatik helfen. Dafür werden verschiedene NoSQL-Projekte vorgestellt und anhand dreier bekannter NoSQLDatenbanken, CouchDB, Hadoop/HBase und Neo4j, ein praktischer Einblick geboten.Es wird eine Empfehlung bezüglich der Verwendbarkeit dieser Datenbanken für den Anwendungsfall ausgesprochen, die sich auf die Ergebnisse praktischer Tests stützt.
Abstract B. Sc. Bioinformatik (Deutsch)


Arne Bochem
Evaluations of a Simple Secure PKI-based approach for Wireless Sensor Networks
supervised by Dr. Omar Alfandi
Today, wireless sensor networks (WSNs) are deployed in an increasing variety of use cases. In some of these, for example WSNs in medical environments, security - that is authentication of network participants, as well as protection of data integrity and confidentiality - is of high importance. This thesis describes an implementation of a simple, secure, PKIbased communication scheme for WSNs using IRIS sensor motes running TinyOS. A central Certificate Authority (CA) is used to sign key pairs, which are distributed to sensor motes at compile time. Due to performance considerations, a hybrid scheme, using elliptic curve cryptography (ECC), as well as symmetric block ciphers is employed. To improve resistance against accidental corruption, the option to use an error correcting code is given.Practicability of this scheme is shown in simulations using TOSSIM and on physical IRIS motes in multiple scenarios. Performance and energy efficiency of the scheme, when using the different block ciphers Skipjack, RC5, XTEA and AES-128, is evaluated, while also giving consideration to memory consumption.
Abstract B. Sc. (Englisch)


Sebastian Wolter
GPU-basiertes Volumen Ray Casting am Beispiel einer Strömungssimulation
supervised by Prof. Dr. Gert Lube und Dr. Jochen Schulz
B. Sc. Wissenschaftliches Rechnen (Deutsch)


Christian Weitemeyer
Konzeption und Entwicklung eines Autorisierungskonzepts zur Einwilligung in die Nutzung von gesundheitsbezogenen Daten für die Forschung im Rahmen der elektronischen Patientenakte nach §291a SGB V
supervised by Prof. Dr. Otto Rienhoff
Forschungen im Bereich der Medizin benötigen qualitativ hochwertige Daten aus der Bevölkerung. Um entsprechende Forschungen ezient gestalten zu können, sollten diese aus der medizinischen Versorgung der Patienten übernommen werden. Da diese medizinischen Daten datenschutzrechtlich besonders schützenswert sind, ist nach aktueller Gesetzgebung eine Sekundärnutzung rechtswidrig. Im Rahmen des Projektes 'ePA nach x291a SGB V', in welchem die Anbindung eines Forschungsnetzwerkes an eine elektronische Patientenakte prototypisch implementiert ist, wird die Möglichkeit einer datenschutzkonformen Lösung untersucht. Im Rahmen dieser Bachelorarbeit wird gezeigt, dass sich die Überprüfung auf vorliegende Einwilligung nach x4a BDSG als IT-System implementieren und in das bestehende System integrieren lässt. Die Entwicklung und Umsetzung erfolgt unter dem Aspekt, Änderungen an Bestehendem gering zu halten und gleichzeitig die vorhandene Implementierung zu nutzen.
Abstract B. Sc. Medizinische Informatik (Deutsch)


Stephan Thormann
Konzeption und Entwicklung eines Tools zur Erstellung eines Patientenpasses für Patienten mit angeborenem Herzfehler
supervised by Prof. Dr. Otto Rienhoff
Im Rahmen dieser Bachelorarbeit wurde ein Programm entwickelt, das es ermöglicht die pseudonymisierten Studiendaten von Patienten mit angeborenem Herzfehler wieder den Patienten zuzuordnen. Die Zuordnung dient dem Zweck, einen Ausdruck zu generieren, der für einen papiergebundenen Patientenpass verwendet wird. Aus den zum Projekt Patientenpass gehörigen Anwendungsfällen wurden die speziell für das Programm geltenden Anforderungen herausgearbeitet. Basierend auf diesen wurde ein portables Programm in der Programmiersprache Java entworfen, welches auf die Datenbanken mit den Studiendaten zugreift und die dort enthaltenen Informationen auf dem Datenträger sichert, auf dem es installiert ist. Dadurch wird es möglich, die Datensätze wieder zu depseudonymisieren und auszudrucken. Die Diskussion befasst sich mit den datenrechtlichen Aspekten, die es bei der Verarbeitung hochsensibler Patientendaten zu beachten gilt und zeigt die Notwendigkeit der im Ausblick vorgestellten Visionen zur Weiterentwicklung des Programmes.
Abstract B. Sc. Medizinische Informatik (Deutsch)


Steffen Zeiss
Konzeption und prototypische Implementierung eines generischen Frameworks für die Verwaltung und Nutzung von medizinischen Forschungsdaten
supervised by Prof. Dr. Ulrich Sax, Prof. Dr. Otto Rienhoff
Um die künftigen komplexen Anforderungen und Fragestellungen in der vernetzten Forschung bedienen zu können, werden eine hohe Datenqualität sowie eine moderne und modulare IT-Infrastruktur benötigt. Ein weiteres Ziel ist es, die Ergebnisse und das Wissen aus abgeschlossenen Studien für die Patientenrekrutierung sowie für weitere Forschungsansätze heranzuziehen. Daher müssen die Forschungsdaten nach Abschluss der Studien in eine Forschungsdatenbank überführt und für weitere Abfragen zur Verfügung gestellt werden. Die Arbeit soll durch eine Analyse der IT-Infrastrukturen von drei ausgewählten Forschungsverbünden zeigen, welche Szenarien und Anforderungen an die einzelnen Komponenten bei der Überführung von Studiendaten in eine Forschungsdatenbank oder das i2b2-Framework entstehen können. Diese Szenarien dienen als Grundlage für die Erstellung eines generischen Frameworks, mit dessen Komponenten jegliche Szenarien abgebildet werden sollen.Bevor jedoch die Analyse durchgeführt werden konnte, musste eine Begriffs definition einer Forschungsdatenbank erhoben werden. Die Literaturrecherche zeigte, dass es mindestens zwei verschiedene Betrachtungswinkel für den Begri Forschungsdatenbank gibt. Es erfolgte eine Fokussierung auf die drei Forschungsverbünde KFO 179, KNAHF und KKNMS.Als Ergebnis der IT-Infrastrukturanalyse der ausgewählten Forschungsnetze konnten vier allgemeine Szenarien abgeleitet werden. Diese basieren überwiegend auf den gleichen Komponenten, wobei jedoch teilweise sehr unterschiedliche Anforderungen, an die Komponenten herausgearbeitet werden konnten. Bei Erstellung des Frameworks wurden die Anforderungen mit den aktuellen Umsetzungen verglichen. Um ein generisches und vor allem flexibles Szenario beschreiben zu können, mussten eine Neuentwicklung und eine Anpassung einer Komponente erbracht werden. Die Funktion für das Aufteilen von Gesamtexporten aus einer Studiendatenbank in patientenbezogene Dateien, welche die i2b2-Importschnittstelle besitzt, musste zusätzlich als eine eigene Komponente entwickelt werden. Ansonsten wäre die Pseudonymisierung der Exporte ohne i2b2-Schnittstelle nicht möglich gewesen. Ebenso grenzt die Verwendung der Dateischnittstelle des Pseudonymisierungsdienstes den Funktionsumfang deutlich ein, womit mehrere Szenarien nicht abbildbar gewesen wären. Deshalb wurde hier eine Umstellung auf die Webservices des PSDs vollzogen. Hierfür mussten Anpassungen an den Webservices und am Work flow geleistet werden. Dadurch wurde es nun möglich, alle vier Szenarien umzusetzen, auch wenn momentan noch nicht alle Anforderungen komplett abgedeckt werden können.Die Konzepte wurde in der Diskussion mit anderen Lösungsansätzen verglichen und darüber hinaus wurden Alternativen zu den derzeitigen Werkzeugen präsentiert. Um jedoch alle Datentypen zusammenzuführen und noch weitere Szenarien abdecken zu können, müssen noch weitere Implementierungen bei den verschiedenen Komponenten geleistet werden.
Abstract M. Sc. Medizinische Informatik (Englisch)


Tobias Kloht
Leveraging Identity-based Authentication for Email Sender Authentication
supervised by Prof. Dr. Xiaoming Fu
The elimination of unsolicited bulk emails, also known as spam, is still a largely unsolved problem. Making up for the vast majority of mails transmitted, spam is an annoyance and potential security issue for users, and moreover a superfluous burden to the internet. Despite the maturity of today’s email infrastructure, it is ultimately still not possible to ensure the authenticity of a sender address for inbound mails. This shortcoming is used by spammers to bypass existing spam protection systems and furthermore poses a security risk to users. To offer an improved solution on this issue it is necessary to bind the identity of a sender unambiguously to his emails. This thesis presents iSATS, a sender authentication system using identity-based signatures to identify illegitimate senders during the SMTP transaction. The implementation of a prototype is provided along with an evaluation of its performance.
Abstract B. Sc. (Englisch)


Christian Voss
On Various Models of Computable Numbers
supervised by Prof. Dr. Stephan Waack
B. Sc. (Englisch)


Canh-Han Huynh
Portierung und Erweiterung von MSCQM mit Sterilguthandling mit der echtzeitfähigen Plattform BASE
supervised by Dr. Janko F. Verhey
M. Sc. Medizinische Informatik (Deutsch)


Benjamin Baum
Prototypische Integration eines DICOM-Bildbetrachters in die i2b2-Workbench zur anwenderfreundlichen Nutzung einer Forschungsdatenbank
supervised by Prof. Dr. Ulrich Sax und Prof. Dr. Otto Rienhoff
Die Steigerung der Akzeptanz neuer Werkzeuge für die Verwendung von Forschungsdatenbanken ist wichtig, um den Forschungsoutput zu erhöhen. Aus diesem Grund wurde das AdditionalData-Plugin in zwei vorherigen Masterarbeiten für die i2b2-Workbench entwickelt, das den Forschern erlaubt, klinische Daten und Bilddaten zu verknüpfen. Um das Arbeitsumfeld der Forscher zu verbessern, wurde in dieser Bachelorarbeit ein DICOM-Bildbetrachter prototypisch in die i2b2-Workbench integriert und das vorhandene AdditionalData-Plugin auf die speziellen Anwendungsfälle der Forscher angepasst. Zusätzlich wurde die Performance des AdditionalData-Plugins erhöht, um den häufigen Gebrauch zu verbessern. Hierfür wurden Anwendungsfälle der Forscher und die zugrunde liegende IT-Infrastruktur analysiert. Aus den Ergebnissen der Analyse wurden Softwarelösungen entwickelt und implementiert. Um die Bilddaten zu den klinischen Daten in der i2b2-Workbench darstellen zu können, wurde ein Web-Browser integriert, der den Chili/Web Viewer aufruft. Eine signifikante Verbesserung der Performance erfolgte durch eine Umstellung der Kommunikation zwischen dem AdditionalData-Plugin und der i2b2-Datenbank von JDBC auf SOAP bzw. REST.
Abstract B. Sc. Medizinische Informatik (Deutsch)


Clemens Mickler
Qualitätssicherung bei einer iPhone-App für Ärzte
supervised by Prof. Dr. Otto Rienhoff
Im Rahmen dieser Masterarbeit wird der Entwicklungsprozess einer Notfall-Applikation (iPhone-App) von der Konzeption bis zur nalen Veröffentlichung durch konzeptionelle Teilprojekte, den Aufbau eines Qualitätssicherungsmodells und Softwareentwicklung begleitet. Heutzutage nden Smartphones und Tablet-Computer aufgrund ihrer hohen Mobilität, intuitiven Bedienung und universellen Einsetzbarkeit immer häufiger Anwendung im Gesundheitswesen. Einer internationalen Studie zufolge wird bis zum Jahr 2015 die Mehrheit der Ärzte bei der Arbeit auf Smartphones zurückgreifen. Die für mobile Geräte verfügbaren Plattformen und Gerätetypen werden zunächst hinsichtlich ihres Potentials für den Einsatz im Arbeitsalltag eines Arztes voneinander abgegrenzt, um die Ausgangslage klar zu skizzieren und Grundlagen zu schaen. Der Entwicklungsprozess durch eine Softwarefirma wird durch Teilprojekte unterstützt. Um die Entwicklung zu begleiten, wird ein Qualitätssicherungsmodell aufgebaut, das alle Projektbeteiligten berücksichtigt. Währenddessen werden Tests im Sinne der Qualitätssicherung unter Berücksichtigung der besonderen Anforderungen mobiler Applikationen (Apps) und der medizinischen Rahmenbedingungen durchgeführt. Es wird untersucht, welche Unterschiede und Gemeinsamkeiten sich im Vergleich zum Softwaretesten klassischer Computersoftware ergeben, welche Modelle einfach übertragbar sind und welche nicht. Die Durchführung erfolgt als Blackboxtest. Aus den gewonnenen Erkenntnissen wird eine Empfehlung für Entwicklungsprozesse von Apps im Gesundheitswesen abgeleitet. Das erarbeitete Entwicklungsmodell berücksichtigt die Spezifika der Plattform, aller Beteiligten von Entwickler bis Auftraggeber und berücksichtigt den Gesamtprozess von der Projektidee bis zum Monitoring im Betrieb. Es basiert auf Testmodellen der Informatik und ist für den speziellen Einsatzzweck angepasst.
Abstract M. Sc. Medizinische Informatik (Deutsch)


Martin Wusterack
Realisierung von Jeffrey Ventrellas Artificial Life "Swimbots" in der Programmiersprache XL mittels regelbasierter Konzepte
supervised by None
B. Sc. Oekoinformatik (Deutsch)


Jonas Hildebrandt
Realisierung von Karl Sims' Artificial Life "Creatures" in der Programmiersprache XL
supervised by None
B. Sc. Oekoinformatik (Deutsch)


Jens Zudrop
Simulation of weak turbulent Rayleigh-Benard convection on a GPU
supervised by Prof. Dr. E. Bodenschatz
In this master thesis spiral defect chaos in Rayleigh-Bénard convection of large aspect ratio cells is studied by means of numerical simulations on graphics cards. We use a decomposition of the velocity field into toroidal-poloidal fields for semi-periodic domains (i.e. periodic with respect to the horizontal directions) to avoid solving explicitly the incompressibility condition and eliminate the pressure term from the Boussinesq equations. Applying a Galerkin method to expansions of the flow into Fourier series (horizontal plane) and Chandrasekhar polynomials (vertical direction) we are able to employ the so called pseudo-spectral simulation technique to solve the equations numerically. The basics of this simulation techniques (applying fast Fourier transformations) are presented, as well as many details. To simulate flow in bounded domains with no-slip boundary conditions in arbitrary direction we employ a penalization method which allows us to keep the simulation code unchanged (and therefore ecient) by introducing an additional penalization term. This technique allows us to simulate convection patterns in geometries by far more complex than those corresponding to periodic boundary conditions. The time-stepping is realized by an implicit-explicit splitting scheme. To achieve high performance this pseudo-spectral method (including penalization) is implemented on graphics cards. Therefore we present the basics of CUDA programming and some performance guidelines with respect to the implemented memory management and usage. Furthermore, we have implemented a distributed pseudo-spectral code to simulate even larger systems, which might exceed the limits of one GPU’s memory, on multiple GPUs. All implementations have been verified by checking all operations by comparison to results of a symbolic computing toolbox. These pseudospectral simulations have been used to simulate spiral defect chaos in large aspect ratioconvection cells. Firstly we study the onset of spiral defect chaos as a function of aspect ratio and Rayleigh number. Secondly we consider some basic statistical properties and compare them to two-dimensional turbulent fluid flow. Finally in this master thesis we have shown that extensive fluid dynamic calculations of significant size can be done using relatively small resources taking advantage of GPU.
Abstract M. Sc. Wissenschaftliches Rechnen (Englisch)


Afagh Khodadadi
Trust and reputation in online communication
supervised by Prof. Dr. Dieter Hogrefe
B. Sc. (Englisch)


Maik Doleys
Using Cloud Computing Resources in Grid Systems: An Integration of Amazon Web Services into UNICORE 6
supervised by Prof. Dr. Jens Grabowski
The cloud computing paradigm overcomes its infancy. While the demand of resources for scalable computational systems increases, the integration of cloud computing resources into grid systems can become a potential extension for grid systems.This thesis presents possible designs that integrate cloud computing resources into grid systems. General requirements and aspects for such integration designs are provided and discussed. Furthermore, we implement a design that automatically integrates resources from the Amazon Web Services (AWS) cloud computing environment into the Uniform Interface to Computing Resources (UNICORE) 6 grid environment.This implementation has been validated with test specifications verifies, which shows the possibility of extending grid resources with resources of a cloud environment.
Abstract B. Sc. (Deutsch)


Stefanie Mühlhausen
Vergleichende Analyse von taxonomischen Profilen in der Metagenomik
supervised by Dr. Peter Meinicke
Eine wichtige Zielsetzung innerhalb der Metagenomik ist das Erstellen taxonomischer Profile. Zur Erfassung der taxonomischen Zusammensetzung von 61 Datensätzen verschiedener Studien werden die vier Programme Galaxy, NBC, PhymmBL und Taxy verwendet. Die Referenzsignaturen dieser Programme decken unterschiedliche Bereiche organismischer Diversität ab, wobei durch alle Programme Archaeen, Bakterien und Eukaryoten erfasst werden. In den Referenzsignaturen von Galaxy, NBC und Taxy sind zudem virale Signaturen enthalten. Bestehende Datenbank-Ungleichgewichte zugunsten eukaryotischer Modellorganismen wirken sich auf die taxonomischen Vorhersagen mittels Galaxy, NBC und PhymmBL aus, während Taxy weniger sensitiv auf die Überrepräsentation einzelner Taxa reagiert. Bezüglich der Vorhersage von Viren bestehen deutliche Unterschiede zwischen den Programmen. Während mittels NBC und Galaxy virale Anteil zumeist im Bereich weniger Prozentpunkte vorhergesagt werden, gewichtet Taxy diese Anteile häufig zu hoch. Insgesamt zeigt diese Studie, dass die taxonomische Analyse einer Umweltprobe durch verschiedene Programme verschiedene Ergebnisse liefert, wodurch eine Kombination der Programme als sinnvoll zur Einordnung der Vorhersagen der einzelnen Programme erscheint.
Abstract M. Sc. Bioinformatik (Deutsch)



2010

Lucas Andreas Schubert
An Evaluation of Model Transformation Languages for UML Quality Engineering
supervised by Prof. Dr. Jens Grabowski
Detecting modeling errors in the first stages of a software development process can spare time and money. Software quality engineering is a field of computer science for evaluating the quality of software and providing mechanisms to ensure software quality. This thesis evaluates the transformation languages ATLAS Transformation Language (ATL), Epsilon Transformation Language (ETL), Query/View/Transformation (QVT), and Xtend by analyzing their characteristics in relation to the International Organization for Standardization (ISO) 9126 standard, a language characteristics taxonomy proposed by Czarnecki and Helsen, and their applicability for calculating metrics and detecting bad smells in Unified Modeling Language (UML) models. A case study has been used to evaluate the transformation languages in the task of executing a Model to Model (M2M) transformation for calculating metrics and detecting bad smells. All four transformation languages are suitable for UML quality engineering, however there are differences, such as performance issues or tooling characteristics that should be taken into consideration.
Abstract M. Sc. (Englisch)


Salke Hartung
Anonymous Multicast Routing in Mobile Ad Hoc Networks
supervised by Prof. Dr. Dieter Hogrefe
M. Sc. (Englisch)


Lars Reimann
Concept for the integration of pseudonymization services in a translational search database
supervised by Prof. Dr. Ulrich Sax
The secondary use of quality assured study-data originating from clinical trials is an important step for research networks to generate new hypotheses and conduct feasibility studies. The i2b2 software project, which is based on an open source software license, provides graphical query and analysis tools for medical data records. These tools are based on a relational database whose underlying scheme is optimized to handle large amounts of data. Using pseudonymization within the i2b2 framework acting as a research database is an important goal to satisfy privacy protection rules and to enable additional features, for example the ability to inform patients about new medical findings if they are generated during the secondary use of study-data. Pseudonymization and de-pseudonymization of patient records can be performed using the software product Pseudonymization-Service provided by the TMF e.V.. First, this thesis summarizes the basic concepts for privacy protection within medical research networks. Continuing, it provides background information for the components of the involved software products, focusing on the i2b2 Hive. Further, it analyzes and presents possible use cases where all software components interact. To support pseudonymization on the link between an import interface handling study database exports and the i2b2 Hive, an implementation which supports the integration of strongly encrypted patient identifiers into the i2b2 database has been created. Alternatives and possible optimizations to this approach are being discussed. This thesis concludes with a short summary, a general discussion and an outlook for possible future work. Results show that it is generally possible to integrate pseudonymization into the i2b2 Hive. For exporting pseudonyms, additional database interactions are required.
Abstract M. Sc. Medizinische Informatik (Englisch)


Kathrin Becker
Detection and Analysis of Dependencies Between TTCN-3 Modules
supervised by Prof. Dr. Jens Grabowski
Dependency analysis is a popular technique in software engineering to keep projects maintainable. As coupling also occurs in test suites of the testing language TTCN-3 and as size and complexity of several TTCN-3 projects has increased in the last decade, strategies for dependency detection and coupling metric generation in TTCN-3 modules had to be developed.This thesis presents a methodology for the detection and analysis of dependencies between modules of the TTCN-3. The key characteristics of this methodology are import and reference resolution in TTCN-3 test suites combined with the building of a coupling graph detailing the gathered information. It is shown that the presented methodology allows for calculation of coupling metrics as well as further analysis based on the information contained in the coupling graph.A Java implementation is provided as proof-of-concept as well as for showing the effectiveness of this methodology. The implementation provides visualization of the coupling graph as well as several coupling metrics derived from the internal graph representation. Thus it yields useful data for the maintenance of TTCN-3 test suites.To validate this methodology, the tool is applied to a real TTCN-3 test suite consisting of 20101 Lines of Code and 53 modules. Analysis of the tool’s metrics and observation of the tool’s graph visualizations provides various insights into the test suite’s structure. In addition, this case study demonstrates how coupling can be decreased significantly, in this particular case by more than thirty percent.
Abstract B. Sc. (Englisch)


David Koll
Development of a Mobile Social Networking Platform Supporting Decentralized Data Storage Optimized by Social Trust
supervised by Prof. Dr. Xiaoming Fu
Due to their centralized architecture current Online Social Networks (OSNs) like Facebook or Twitter suffer from multiple deficiencies, which are of administrative and technical nature. For example, users are subject to censorship and do not control their own data. Furthermore, the strict requirement for connectivity to a central server prevents participation in the OSN in the case of only intermittent connectivity. To overcome these shortcomings, this thesis presents a peer-to-peer (P2P) architecture based on decentralized data storage, that allows its users to control access to their personal data precisely. Moreover, users are no longer subject to arbitrary decisions by the OSN provider. Furthermore, the strict connectivity requirements are mitigated. As the central server is eliminated in a P2P architecture, the availability of user data is of concern. Users will not switch to a decentralized approach, if data is less available than in current OSNs. As participants of an OSN are only periodically online, their data has to be mirrored at a set of remote nodes to achieve high availability. It is important to select these nodes carefully, as nodes of a P2P network are heterogenous and therefore provide different capabilities like online time, storage space or bandwidth. Previous approaches realizing a decentralized OSN did not focus this problem. In contrast to that, this work presents a node selection process, that efficiently selects a set of nodes for the task of mirroring data based on a simple trust model. It is shown that, in comparison to previous approaches, the number of mirroring nodes is kept at a minimum, while data availability is increased.
Abstract M. Sc. (Englisch)


Quan Nguyen
Entwicklung eines Webbasierten Studienverlaufplanes
supervised by Prof. Dr. Dieter Hogrefe
B. Sc. (Deutsch)


Tim Rohlfs
Estimation of Evolutionary Distances by means of Compression-based Methods
supervised by Prof. Dr. Carsten Damm
B. Sc. (Deutsch)


Dalia Dahman
Extension of a Globus Toolkit 4 Grid System by a Virtual Runtime Environment based on Eucalyptus
supervised by Prof. Dr. Jens Grabowski
Currently, the need for a powerful and scalable infrastructure that resolves computational and data intensive tasks and provides on-demand scalable resources increases rapidly. We think that the integration of existing technologies, such as grid and cloud infrastructures instead of building a new infrastructure can fulfill this demand. This thesis is concerned with the integration of such infrastructures. It investigates possible and relevant consolidation scenarios of grid and cloud systems. Possible interoperability approaches that can be used to realize any of these consolidation scenarios are presented and discussed. One of these consolidation scenarios is the extension of an existing grid system with resources provided by a cloud infrastructure. This scenario is implemented as a case study for the integration of Globus Toolkit 4 grid system and Eucalyptus cloud infrastructure. Different design scenarios for extending Globus Toolkit 4 grid system with a Virtual Runtime Environment provided by Eucalyptus framework are introduced and discussed. A description of the implementation of the selected design scenario is provided. We show the successful deployment of the case study. This includes the execution of an application on grid resources as well as on Virtual Runtime Environment provided by Eucalyptus framework.
Abstract M. Sc. (Englisch)


Mathias Steinbach
GPGPU und GIS
supervised by Prof. Dr. Winfried Kurth
.
Abstract M. Sc. (Deutsch)


Manuel Landesfeind
Graphbasierte Analyse von Massenspektrometriedaten
supervised by Dr. Peter Meinicke
M. Sc. Bioinformatik (Deutsch)


Tim Waage
Implementation of a Tool for Determining the Nominal Capacity of Wireless Mesh Networks
supervised by Prof. Dr. Dieter Hogrefe
IEEE project 802.11 provides standards for the mass market of wireless devices for consumer electronics. The majority of members of the IEEE 802 family have a centralized approach in common, especially IEEE 802.11. That means a certain number of clients share an Access Point (AP) and form a so called Basic Service Set (BSS) with one hop connections. The achievable throughput decreases with the increasing distance between client devices and the AP. If data packets are supposed to get further than the range of a local network, a link from the AP to a Distribution System (DS), usually a wired backbone infrastructure, is necessary. In many cases this enables users to move around freely inside the resulting network of multiple BSSs, which is also called Extended Service Set (ESS). But constructing an ESS is not always possible. Local conditions of the operational area might not allow setting up wired connections in order to interconnect APs, like it could be the case in offices, warehouses, metropolitan areas or hardly accessible rural areas. The relation between benefit and effort is often not good enough to be an attractive investment. An approach to overcome this issue is to have the clients themselves acting as routers and create multi hop connections. Therewith every station that joins the network helps to increase its reliability, capacity and range ideally until a gateway point can be reached. Such type of network, in which every node is connected to many neighbours to form multi hop connections, is called a ”mesh”. A few technologies following that idea are currently under development and have similar properties. Predicting the achievable throughput is essential for planing and designing Wireless Mesh Networks (WMNs), but common network simulators often lack of according protocol implementations or are difficult to handle due to own proprietary script languages or a high amount of required computation power. This work combines and extends the proposed models of [1], [2] and [3] to show how data rates can be predicted in arbitrary concrete WMNs, how bottlenecks in certain topologies can be identified and what improvements can be expected by taking simple actions. Therefore it introduces concepts with examples based on IEEE 802.11s, but these ideas are also applicable for other technologies as will be mentioned at numerous points.
Abstract M. Sc. (Englisch)


Maik Gödeke
Integration der Visualisierung in das MediGRID-Portal
supervised by Prof. Dr. Otto Rienhoff
An den Standorten Berlin, Heidelberg und Göttingen wurden 2009 im Rahmen der D-Grid-Sonderinvestitionen Visualisierungscluster zur Verfügung gestellt. Neben Rechenaufgaben innerhalb des D-Grids sollen diese eine Visualisierungsinfrastruktur etablieren.Der Prozess der Ausführung einer Visualisierungsanwendung ist derzeit sehr aufwändig, da er aus mehreren Schritten besteht. Zudem benötigt der Benutzer zur Durchführung dieser Schritte bereits Grundkenntnisse über die Befehlssyntax und den Aufbau des Clusters. Dieses und das zur Verfügung stellen einer Reservierungsoberfläche, um den Anspruch für zukünftige Visualisierungen darzustellen, sind Gründe, weshalb ein Reservierungsprozess einer Visualisierungs-Ressource in das MediGRID-Portal integriert werden soll. Ein wichtiger Vorteil dabei ist, dass die Reservierung von Knoten vereinfacht und größtmöglich automatisiert wird. Das Reservierungssystems wird durch mehrere Komponenten implementiert, welche Informationen über den Belegungsstatus der Ressourcen bereitstellen und die Durchführung von Reservierungen erlauben. Die Hauptaspekte dieser Arbeit sind die Reservierung auf Ressourcen-Ebene, die Benutzerschnittstelle, die Kommunikation zwischen den Ressourcen und dem Portal, sowie das Management der Prozesse und Daten innerhalb des Reservierungssystems.
Abstract B. Sc. Medizinische Informatik (Deutsch)


Karoline Buckow
IT-Infrastruktur für ein nationales Register für Multiple Sklerose unter Berücksichtung bestehender Forschungsstrukturen
supervised by Prof. Dr. med. O. Rienhoff
Die Multiple Sklerose (MS) ist die häufigste Erkrankung des Zentralen Nervensystems im jungen Erwachsenenalter. Aufgrund ihrer früh zur Berentung führenden Symptomatik und kostenintensiver Therapiemaßnahmen entstehen große soziale wie wirtschaftliche Auswirkungen für die Betroffenen und das Gesundheitssystem. Bis heute sind die Ätiologie und die Progression der Erkrankung nicht vollständig erforscht. Auf nationaler Ebene agieren in Deutschland parallel zwei Organisationen. Auf der einen Seite die Deutsche Multiple Sklerose Gesellschaft (DMSG), die 2001 ein Register für Multiple Sklerose zur Lieferung epidemiologischer Kennzahlen ins Leben gerufen hat. Auf der anderen Seite das seit 2009 vom Bundesministerium für Bildung und Forschung geförderte krankheitsbezogene Kompetenznetz Multiple Sklerose (KKNMS), welches in den kommenden Jahren innerhalb von drei Verbünden die Erforschung der Krankheit vorantreiben wird. Um eine wissenschaftliche Kooperation zwischen der DMSG und dem KKNMS zu ermöglichen, soll eine gemeinsam nutzbare IT-Infrastruktur konzipiert werden, die das Register der DMSG und Studien des KKNMS unter Berücksichtigung der bestehenden Forschungsstrukturen vernetzt. Zu diesem Ziel werden die beiden Organisationen und die jeweils etablierten Strukturen und Prozesse vorgestellt und in die deutsche Forschungslandschaft eingegliedert. Auf der Basis dieser Ist-Analyse und der Darstellung der Ziele der DMSG und des KKNMS werden Anpassungsbedürfnisse für die Konzeption einer kollaborativen IT-Infrastruktur abgeleitet. Aus dem hieraus erstellten Anforderungskatalog resultiert ein Konzept für eine ITInfrastruktur, die die Kooperation beider Organisationen ermöglicht, gleichzeitig jedoch durch getrennte Datenbestände die Besitzansprüche regelt. Ein Datenaustausch wird durch einen gemeinsam aufgestellten modularen Datensatzaufbau realisiert. Bestehende Strukturen werden durch die Anbindung der für das DMSG-Register genutzten Anwendungen an die Patientenliste der TMF integriert. Für die Umsetzung des vorgestellten Konzeptes müssen eine Reihe von softwaretechnischen Anpassungen und entsprechende Adaptionen bestehender Arbeitsabläufe vorgenommen werden. Diese erfordern zum einen Kooperationswillen, organisatorischen und finanziellen Einsatz von der DMSG und dem KKNMS. Zum anderen bedarf es der Akzeptanz von Behandlungseinrichtungen, Softwareherstellern und Patienten.
Abstract M. Sc. Medizinische Informatik (Deutsch)


Alexander Witzke
Kernbasierte Verfahren zur Lösung zeitabhängiger Probleme
supervised by Prof. Dr. Schaback
Diese Arbeit stellt die Linienmethode als eine der vielen Einsatzgebiete der kernbasierten Verfahren vor. In dem Zusammenhang mit den zeitabhängigen Problemen spricht man von zeitabhängigen partiellen Differentialgleichungen. Die Lösung der zeitabhängigen partiellen Differentialgleichung wird mit Hilfe der Ansatzfunktionen der Linienmethode approximiert. Zur Bildung der Ansatzfunktionen werden radiale Kernfunktionen eingesetzt. Die numerischen Experimente werden in MATLAB umgesetzt. Dazu werden pro Aufgabe mehrere numerische Durchläufe durchgeführt. Die Ergebnisse werden miteinander verglichen, um dieWirkung der Parameter der Linienmethode zu erkennen. Abhängig von der jeweiligen Aufgabenstellung sind Aussagen über die Qualität der Lösung möglich.Das Ziel dieser Arbeit ist die Prüfung der Einsatzfähigkeit der Linienmethode zur Lösung von zeitabhängigen partiellen Differentialgleichungen.
Abstract M. Sc. Wissenschaftliches Rechnen (Deutsch)


Jascha Müller
Konzeptentwicklung und Implementation einer Softwarelösung für ein rollenorientiertes Multi-Projekt-Management
supervised by Prof. Dr. Otto Rienhoff
Diese Arbeit beschäftigt sich mit der Erstellung eines Multi-Projekt-Management-Systems am Universitätsklinikum Göttingen auf Basis der Microsoft SharePoint-Plattform. Im ersten Teil werden die Grundlagen des Projektmanagements erörtert und auf später benötigte Details eingegangen. Der zweite Teil beschreibt die Werkzeuge, die benötigt werden, um ein Multi-Projekt-Management-System zu entwickeln. Anschließend werden Interviews mit den beteiligten Personen des Projektmanagements geführt, um die gewünschten Anforderungen zu ermitteln. Daraus folgt die Konzepterstellung und -erläuterung. Ein weiterer Teil behandelt den Vergleich zwischen bereits verfügbarer Standardsoftware und einer Eigenentwicklung. Der letzte Teil stellt das entwickelte System vor und schließt mit einem Fazit und einem Ausblick ab.
Abstract M. Sc. Medizinische Informatik (Deutsch)


Marcel Hellkamp
Lucullus und Sequoia: Visualisierung von multiplen Sequenzalignments und phylogenetischen Bäumen unbegrenzter Größe im Webbrowser
supervised by Dr. Martin Kollmar und Prof. Dr. Stephan Waack
Diese Arbeit beschäftigt sich mit der Implementierung einer Server-Software für die Speicherung, Verarbeitung und zweidimensionalen Visualisierung wissenschaftlicher Daten und einer Client-Bibliothek für die Darstellung und Steuerung dieser Daten und Prozesse in einem Webbrowser. Insbesondere soll die webbasierte Darstellung und Verarbeitung von multiplen Sequenzalignments und phylogenetischen Bäumen unbegrenzter Größe ohne die Installation zusätzlicher Spezialsoftware ermöglicht werden.
Abstract B. Sc. Bioinformatik (Deutsch)


Konni Hartmann
Prozedurale Texturen in einem interaktiven Open-Source 3D-Modeller
supervised by Prof. Dr. Winfried Kurth und Reinhard Hemmerling
GroIMP ist eine in Java programmierte Modellierungssoftware, welche am Lehrstuhl Grafische Systeme entwickelt wird. Zur Visualisierung eines damit erzeugten Modells existiert bereits eine einfache OpenGL-Darstellung. Diese soll erweitert werden. Die bisherige OpenGL-Darstellung visualisiert den aktuellen Szene-Graphen, indem für jeden (sichtbaren) Knoten ein entsprechendes Objekt gezeichnet wird. In der aktuellen Implementierung dieser Darstellung lassen sich aber nur einfache Farben oder Bilder als Texturen für Objekte verwenden. Optionen, wie in Echtzeit berechnete prozedurale Texturen funktionieren jedoch nicht. In GroIMP lassen sich für die Objekte auch prozedurale Materialien definieren. Diese sollen in ein GLSL-Programm (Fragment Shader) transformiert werden, welches dann für einen zu zeichnenden Bildpunkt des Objekts die Farbe berechnet. Dabei soll auch eine Beleuchtungsberechnung pro Pixel vorgenommen werden. Zur Beschleunigung des Zeichenvorgangs ist ein "deferred shading" zu implementieren.
Abstract B. Sc. Oekoinformatik (Deutsch)


Benjamin Dake
Query Processing over Distributed Web Sources under Limited Access Capabilities using Semantic Constraints
supervised by Prof. Dr. Wolfgang May
A lot of the data sources that are available in the Web can only be accessed through limited access patterns. By entering some input values, appropriate output values are returned in a table-like schema. On the one hand, there are human-oriented sources that return data in form of dynamically generated Web pages by ?lling out Web forms (Deep Web). On the other hand, there are only machine accessible Web Services. This thesis implements the prototype of a Query Broker that uses these sources to answer declarative queries. For this, semantic annotations are assigned to the sources. This enables the query broker to select suitable sources for the query answering and to query them in an appropriate order by taking the output values of queried sources as the input for other sources.
Abstract B. Sc. (Englisch)


Felix Schindler, Andreas Strey
Referenzimplementierung einer Machbarkeitsstudie zur Visualisierung und Validierung geografischer Objekte
supervised by Prof. Dr. Wolfgang May
B. Sc. (Deutsch)


Dominic Simm
Schnelle Vorverarbeitung von DNA-Sequenzdaten zur Proteindomänenvorhersage
supervised by Dr. Peter Meinicke
B. Sc. Bioinformatik (Deutsch)


Fabian Glaser
Simulation and evaluation of a network friendly congestion control algorithm
supervised by Prof. Dr. Xiaoming Fu
Today the Internet is widely used by a variety of applications. Some of them, such as IP telephony applications are delay-sensitive, while others such as peer-to-peer applications are delay-insensitive. Nevertheless, when all applications use standard TCP, they share the available bandwidth on an equal footing and there is no possibility for delay-insensitive applications to give way to delay-sensitive applications. NF-TCP is a new congestion control approach for delay-insensitive applications that aims to quickly utilize available bandwidth in congestion free situations, while backing-off more aggressively than standard TCP when encountering competing TCP traffic in a congested network. NF-TCP uses a combination of fast available bandwidth measurement and explicit congestion notification (ECN) to achieve its goals. This thesis develops an implementation of NF-TCP on the network simulator ns-2 and evaluates its behavior in basic networking scenarios. Performance evaluations show that NF-TCP can achieve its major design objectives.
Abstract B. Sc. (Englisch)


Hannes Siefert
Über probabilistische Modelle von Protein-Protein-Wechselwirkungen
supervised by Prof. Dr. Stephan Waack
B. Sc. (Deutsch)



2009

Manuel Landesfeind
Aufbau einer Datenbank zur Verarbeitung metabolitbasierter Experimente
supervised by Dr. Peter Meinicke
Bei massenspektrometrischen Analysen von Zellbestandteilen entstehen große Datenmengen. Die Anzahl der Daten macht eine manuelle Annotation sehr zeitaufwändig. Durch computergestützte Methoden soll die Geschwindigkeit bei der Verarbeitung der Daten gesteigert werden. Ein Abgleich der Daten mit biomolekularen Datenbanken ist bisher zwar möglich, jedoch immer noch sehr zeitaufwändig oder auf Grund anderen Hindernisse nicht einsetzbar. Diese Arbeit zeigt, wie die Annotation der Daten optimiert werden kann. Dazu werden nur notwendige Daten der biomolekularen Datenbanken in einem lokalen Zwischenspeicher vorgehalten. Zur weiteren Auswertung der Experimente soll die Datenbank nicht nur als Zwischenspeicher fungieren, sondern ebenfalls die Experimente der forschenden Abteilung verwalten. Zur Implementation wurde die Computersprache Perl, sowie eine PostgreSQL Datenbank als Hintergrundspeicher verwendet.
Abstract B. Sc. Bioinformatik (Deutsch)


Ubbo Veentjer
Bestimmung relevanter Worte eines Textes und Darstellung unter der Oberfläche TextGrid-Workbench
supervised by Prof. Dr. Bernhard Neumair
This bachelor thesis deals with the developing process of an Eclipse based plug-in for the TextGrid workbench. To give a better understanding of what a given, presumably unknown text is about, the plug-in supports an easy way to find the most relevant words within the text. Additionally the plug-in extends the TextGrid research facility with a way to look up meanings of search terms entered. Both features are shown in two newly implemented Eclipse perspectives. In each one presented, the user can choose word by word between linked hypernyms and hyponyms. Thus, one is able to effectively navigate through the semantic context. To achieve this the RDF version of WordNet together with a text mining tool are utilized.
Abstract B. Sc. (Deutsch)


Stefan Kirchner
Documentation Generation for TTCN-3
supervised by Prof. Dr. Jens Grabowski
Software documentation is a very important part of software engineering. It is written text that helps to understand the documented software. This thesis presents an approach for automatic documentation generation from TTCN-3 source code using a standardized documentation comment specification. XSL Transformations to the output formats HTML and PDF that use T3DocML an intermediate XML format that abstracts from TTCN-3 for documentation purposes which was developed in the course of this thesis|are described. A prototypical implementation of the proposed approach, that was successfully tested on several TTCN-3 test suites by ETSI, is presented in this thesis.
Abstract B. Sc. (Englisch)


Fabian Johann Karl Patzke
Ein webbasiertes geographisches Raumauskunftssystem für die Universität Göttingen - Konzept und Realisierung
supervised by Dr. Stefan Erasmi
-
Abstract M. Sc. Geoinformatik (Deutsch)


Thomas Westphal
Entwicklung der GUI zu einem DICOM-Client für medizinische Endoskopie-Kameras sowie dessen Anbindung an ein PACS
supervised by Prof. Dr. Otto Rienhoff
Bei den Aufgaben der Speicherung, der Verarbeitung und der Kommunikation von elektronisch gespeicherten medizinischen Bilddaten hat sich DICOM heutzutage als de facto Standard etabliert. Der Ursprung von DICOM liegt bei dem 1985 entwickelten ACR-NEMA Standard, welcher in Zusammenarbeit des American College of Radiology (ACR) und der National Electrical Manufacturers Association (NEMA) entwickelt worden ist. Die Intention der Entwicklung bestand darin den Austausch von medizinischen Bilddaten zwischen Geräten und Systemen verschiedener Hersteller zu ermöglichen. Die kontinuierliche Weiterentwicklung und die zunehmende Bedeutung digitaler Bildverarbeitung in der Medizin als Bestandteil des klinischen Informationssystems hat dazu geführt, dass DICOM heute weit mehr darstellt als nur ein reines Datenformat. Das Ziel dieser Masterarbeit war es einen DICOM-Client für eine medizinische Endoskopie-Kamera zu entwickeln. Das Hauptaugenmerk bestand dabei bei der Integration des Systems in den klinischen Arbeitsablauf und der Darstellung der grafischen Benutzerschnittstelle.
Abstract M. Sc. Medizinische Informatik (Deutsch)


Holger Pillmann
Entwicklung einer Software zur automatischen Erkennung von Kassettenexons - Analyse der Dscam Genfamilie
supervised by Dr. Martin Kollmar, Prof. Dr. Stephan Waack
Verschiedene Formen alternativen Spleissens variieren die Produkte eines Gens in Eukaryoten. Bei der alternativen Spleissform des Kassettenexons wird jeweils nur eins von mehreren homologen Exons in das Transkript eingebaut. Als Erweiterung des Interfaces Webscipio wurde in der vorliegenden Arbeit ein Algorithmus zur Detektion von Kassettenexons implementiert. Der Algorithmus benutzt die Strukturmerkmale der Exons zur Erkennung potentieller alternativer Exonsequenzen und verwendet eine Implementierung des Gotoh-Algorithmus, um deren Homologie mit dem Ausgangsexon durch Berechnung globaler Alignments zu bestimmen. In dieser Arbeit werden neben bioinformatischen und biologischen Hintergründen auch verwendete Programme und Verfahren aus demBereich der Informatik vorgestellt und erläutert. Das Problem der Kassettenexonsuche wird analysiert und der daraus resultierende Lösungsansatz in eine Software übertragen. Mit dem in Webscipio integrierten Analysewerkzeug können Nutzer zu einer Proteinsequenz Kassettenexons finden. Die Ergebnisse werden für den Anwender als Visualisierung und in aufbereiteter Form dargestellt.
Abstract M. Sc. (Deutsch)


Genet Idossa Kitata
Implementierung der Reverse Lookup Funktion und der Editierung von persistenten Identifiern im GWDG Handle Service
supervised by Prof. Dr. B. Neumair
B. Sc. (Deutsch)


Moritz Maneke
Implementierung einer Verallgemeinerung des Viterbi-Algorithmus zur Dekodierung von Conditional Random Fields
supervised by Prof. Dr. Stephan Waack und Dr. Mario Stanke
Die vorliegende Arbeit führt einen neuen Ansatz zur Dekodierung von Conditional Random Fields (CRFs) ein. Es wird eine Verallgemeinerung des etablierten Viterbi-Algorithmus vorgestellt, die es erlaubt, die Inferenz auf Graphstrukturen mit Knoten höheren Grades zu lösen. Für gewöhnlich werden in der Praxis für die Dekodierung solcher Graphen approximative Methoden verwendet, da dieses Optimierungsproblem NP-schwer ist. Der vorgestellte Ansatz nutzt Verfahren der dynamischen Programmierung, um trotz exponentieller Komplexität praktisch anwendbar zu bleiben. Der Entwurf und die Beschreibung einer Implementierung des vorgestellten Algorithmus bilden den Hauptteil der Arbeit. Anschließend wird anhand von Testläufen gezeigt, dass die Dekodierung auf die vorgeschlagene Art undWeise tatsächlich berechenbar ist.
Abstract B. Sc. (Deutsch)


Robert Sehr
Implementierung eines semantischen Web-Service unter Benutzung von aktiven Regeln
supervised by Prof. Dr. Wolfgang May
Web-basierte Anwendungen im Kontext des Semantic Webs sind inzwischen einer der wichtigsten Trends bei derWeiterentwicklung des Internets. Das SemanticWeb schafft einen neuen Kontext fürWeb-Anwendungen, der neue Chancen, aber auch zusätzliche Herausforderungen mit sich bringt. Diese Arbeit beschäftigt sich mit der Entwicklung einesWeb-Dienstes im Semantic Web. Die Anwendung ist in eine bereits vorhandene Domäne eingebettet, und soll weitestgehend bereits bestehende Infratrukturen nutzen und erweitern.
Abstract M. Sc. (Deutsch)


Jan-Martin Kirves
Implementierung eines Werkzeugs zur Visualisierung von CCS-Prozessen
supervised by Prof. Dr. Wolfgang May
Diese Arbeit befasst sich mit der Entwicklung eines Visualisierungs-Werkzeugs für Prozessbäume als Erweiterung eines Apache Tomcat Web Servers. Es wird im Framework ?Modular Active Rules for the Semantic Web? Verwendung finden und darin die Fehleranalyse erleichtern.
Abstract B. Sc. (Deutsch)


Michael Sobol
Implementierung und Test eines Dichtegradienten-Algorithmus zur FEM-basierten Ventrikelvolumetrie
supervised by Dr. Janko Verhey und JProf. Dr. Ulrich Sax
Im Rahmen der Arbeit entstand ein dichtegradientenbasierter Detektionsalgorithmus, welcher in derLage ist, aus 3D-Ultraschalldaten des linken Ventrikels Finite-Elemente-Modelle (FE-Modelle) zugenerieren. Fragen nach der erforderlichen Laufzeit und deren Optimierung, demDetektionsverhalten im Allgemeinen und bei schlechter Bilddatenqualität werden beantwortet undanschließend diskutiert. Es wird gezeigt, dass der Detektionsalgorithmus die Strukturen des linkenVentrikels abbilden kann und die errechneten Volumina der FE-Modelle kaum zu den Ergebnissender Single Plane Area Length Method differieren. Bei Verstößen gegen die aufgestelltenQualitätsanforderungen der Ultraschalldaten ist der Algorithmus aufgrund eines implementiertenKorrekturverfahrens und der einstellbaren Sensitivität bis zu gewissen Grenzen in der Lage,dennoch verwertbare Ergebnisse zu erzielen.
Abstract M. Sc. Medizinische Informatik (Deutsch)


Thomas Franke
Informationstheoretische Quantisierung von Signalkaskaden
supervised by Prof. Dr. Stephan Waack
Wie gut sind Begriffe aus der Informationstheorie zur Beschreibung einer biologischen Signalkaskade geeignet? Die vorliegende Arbeit untersucht diese Fragestellung anhand einer fiktiven Signalsequenz. Dazu werden zunächst notwendige molekularbiologische und informationstheoretische Begrifflichkeiten, wie etwa die Kooperativität oder die wechselseitige Information erläutert. Danach wird die fiktive Signalsequenz mittels eines Kanals modelliert und die Eigenschaften des Modells werden analysiert. Es wird erklärt, wie ein Kanal aus einem biologischen Umfeld extrahiert werden kann und was dabei beachtet werden muss. Abschließend wird beschrieben, welche Vor- und Nachteile die informationstheoretische Quantisierung von Signalkaskaden gegenüber dem herkömmlichen thermodynamischen Ansatz hat.
Abstract B. Sc. (Deutsch)


René Rex
Quantification of structure/dynamics correlation of globular proteins
supervised by Prof. Dr. Helmut Grubmüller
-
Abstract M. Sc. Bioinformatik (Englisch)


Heiko Vollmann
Query-Brokering in Semantic-Web-Umgebungen
supervised by Prof. Dr. Wolfgang May
The Semantic Web will consist of a large number of nodes. In contrast to the present web, these nodes will be capable of communicating with each other. The nodes will, for example, be able to send messages to other nodes informing them of updates or changes. They will also be able to autonomously gather information from other nodes. To organize all this communication, central nodes are required. One of these central nodes, developed within the MARS Framework, is the domain broker. It holds information about the participating nodes and supports the communication between these. One part of the domain broker is the so called query broker. This part enables local and remote nodes to post queries to the Semantic Web, which cannot be answered by a single node, due to the fact that information from multiple domains is required to answer the query. In this thesis the internal logic for such a query broker is designed and implemented. The implementation contains certain changes to the handling of ontologies and registered domain nodes in the domain broker; as well as the methods of the query broker to handle incoming queries.
Abstract M. Sc. (Englisch)


Daniel Schubert
RDF Rules in the MARS Framework
supervised by Prof. Dr. Wolfgang May
MARS (Modular Active Rules in the Semantic Web) is a framework for describing and implementing reactive behavior in the Semantic Web by the use of rules that follow the Event-Condition-Action (ECA) paradigm. Such ECA rules consist of an event specification (defining the sequence of events that leads to the execution of the rule), a condition (used to gather additional information and decide whether or not to execute the action) and an action specification (describing the actions to be taken in case the condition is satisfied). By separately implementing the ECA semantics, the MARS framework allows for embedding arbitrary languages to specify the actual semantics of the individual components. This modularity facilitates the heterogeneity of the potential sublanguages, while simultaneously supporting their meta-level homogeneity. Until now, ECA rules were specified and executed at the XML level, using the markup language ECA-ML which is provided by the framework. In order to turn the rules and their components into objects of the SemanticWeb and support reasoning about them, it is necessary to express their semantics on the higher, ontology-based RDF/OWL level. Therefore, this thesis introduces the respective MARS ontology for ECA rules along with an ontology for component languages and their implementing services. Based on these ontologies, it discusses the potential ways for handling such RDF rules in the MARS framework and implements an according proof-of-concept service.
Abstract M. Sc. (Englisch)


Christian Otto
Refinement of Anguin?s Machine Learning Algorithm to learning models from TTCN-3 Test Cases
supervised by None
When developing software, software tests and structured proceeding is essentially needed. Often, because of financial restrictions, the budget to plan, analyze, design and test the software will be reduced. A consequence of this restrictions will be an incomplete specification of the software. Incomplete specifications can also occure if software updates were not or not completely documented. In most cases it is not easy to reconstruct these software specifications. In summer term 2008, S. Polonski wrote a masters thesis called "Learning of protocol-based automata". This thesis uses the learning algorithm of Angluin to learn potocol-based automata that can be used to restore software specifications. This bachelors thesis will discuss enhancements of the programm of S. Polonski. We will discuss the use of the data format of the TTCN-3 test suite, the handling of TTCN-3 verdicts, any statements and loops.
Abstract B. Sc. (Deutsch)


Lennart Obermann
Selektion effizienter Kennzahlen zur Unternehmensklassifikation
supervised by Prof. Dr. Stephan Waack
Insolvenzprognosen und Rating sind ein komplexer Aufgabenbereich, in dem Wirtschaftsunternehmen anhand von qualitativen und quantitativen Merkmalen bewertet werden. In dieser Arbeit wird untersucht wie gut Teilmengen von betriebswirtschaftlichen Kennzahlen ein Unternehmen bezüglich eines Ratings repräsentieren: wie groß die Abweichungen sind und welche Teilmengen sich besonders eignen. Realisiert wird dies mit Hilfe einer sehr großen Datenbank mit Jahresabschlussdaten von über 250.000 Unternehmen sowie einem computergestützten maschinellen Lerner.
Abstract M. Sc. (Deutsch)


Roman Hausner
Semantic Text Mining - linguistische Tools im Preprocessing von Text Mining Methoden
supervised by Prof. Dr. Bernhard Neumair
Diese Arbeit dokumentiert die Entwicklung eines Service zur Aufbereitung von Textkorpora für Text Mining Methoden, welcher unter anderem als Grundlage für jegliche Form von Text Mining innerhalb der virtuellen Forschungsumgebung TextGrid dienen soll. Über ein ebenfalls in diesem Rahmen entwickeltes Service-Template können dabei beliebige linguistische Tools eingebunden werden, mit dem Ziel die Informationsdichte der gewonnenen Daten zu erhöhen. Für die Verarbeitung der Textkorpora wird unter anderem auf Konzepte aus dem Information Retrieval zurück gegriffen.
Abstract B. Sc. (Deutsch)


Björn Stucke
Spenderdatenorientiertes Datenschutzmanagement medizinischer Biobanken in der Forschung
supervised by Prof. Dr. Ulrich Sax
Umfangreiche Sammlungen von Körpersubstanzen in Biobanken werden in der biomedizinischen Forschung zur Aufklärung von Krankheitsfaktoren und für die Entwicklung neuer Therapien immer wichtiger. Spender stellen der Forschung diese Proben in der Regel in Kombination mit klinischen, biologischen, soziodemographischen und lebensstilbezogenen Daten zu ihrer Person zur Verfügung. Jene haben ein Recht auf effizienten Schutz gegen Missbrauch ihrer Proben und Daten und der Informationen, die mit diesen in Relation stehen. Während die personenbezogenen Daten chiffriert werden können ist humanes Biomaterial, welches genetische Informationen beinhaltet, de facto nicht anonymisierbar. Simultan erhöht sich die Gefahr des Datenmissbrauches, da sich insbesondere genetische Referenz-Informationen durch das World Wide Web immer mehr verteilen, genanalytische Verfahren zur Krankheitsprädiktion immer aussagekräftiger und kostengünstiger werden und die Neugier staatlicher Kontrollbehörden, Arbeitgebern und Versicherungen geweckt wird. Des Weiteren besteht im Sachverhalt der überregionalen Vernetzung von Forschungsstrukturen zur Erschließung vielversprechender medizinischer Erkenntnisse und zur Ökonomisierung des Forschungsbetriebes, der Bedarf nach einer qualitätsgesicherten, datenschutzkonformen und standardisierten Erhebung, Speicherung und zur Weitergabe von Proben und Daten, an kooperierende Forschungseinrichtungen. Bestehende Biobanken wurden allerdings in vielen Fällen im Rahmen proprietärer Eigenentwicklungen errichtet, welches einen hohen finanziellen Aufwand mit sich bringt und eine effiziente und überregionale Nutzung der Proben- und Datenbestände verhindert. Diesem Missstand kann bedingt, mithilfe generischer Datenschutzkonzepte, -werkzeuge sowie Qualitätssicherungsmaßnahmen entgegen gewirkt werden, da die rechtlichen, organisatorischen und technischen Rahmenbedingungen erst einer exakten Spezifikation gemäß der Anforderungen vernetzter biomedizinischer Forschung bedürfen. Eine Universallösung für unterschiedliche Organisationsformen von Biobanken ist anhand der geschilderten Konstellationen nicht zu erzielen. Im Rahmen dieser Arbeit ist eine synoptische Überprüfung durchgeführt worden, bei welcher die beschriebenen Konzepte und Methoden dem Anspruch des Datenschutzes von Spenderdaten und der Anwendbarkeit in der Praxis, unter Berücksichtigung der Interessen der Spender- und Forscher-Community, nachkommen sollten. Das Resultat der Evaluation gestaltet sich heterogen, wobei die prozessorientierte Biobankmodellierung und -auditierung positiv bewertet wurden. Die externe Datentreuhänderschaft konnte hingegen den Anforderungen der Proben-Daten-Doppelstrukturen von Biobanken nicht gerecht werden. Ergänzend zu den jeweiligen Resultaten der Evaluation der Qualitätssicherungsmaßnahmen werden potenzielle Handlungsalternativen dargestellt, welche die Problemstellungen der Realisierung reduzieren können.
Abstract B. Sc. Medizinische Informatik (Deutsch)


Dennis Neumann
Test Case Generation using Model Transformations
supervised by Prof. Dr. Jens Grabowski
Despite a lot of effort in recent research, testing of software systems is still performed manually most of the time without taking the advantages of Model Driven Development. Such advantages include improved exploitation of models from early design phases for later development phases, easier adaptation when changes become necessary, or less effort for ports to other target platforms. A solution for this problem is proposed by a methodology called Model Driven Testing. In this thesis, an approach is presented which realizes the ideas of this methodology and the possibilities of automatic test case generation from models that are defined using the UML Testing Profile (UTP) are investigated. To reduce the complexity of UTP, a format for an intermediate model called SWETest is proposed, along with the corresponding model to model transformation rules from a constrained UTP variant where test behaviors are specified in interactions. From this intermediate model, code generation for TTCN-3 as target language is defined and implemented. Further model to model transformation definitions allow the generation of deterministic behaviors from ambiguous interactions.
Abstract M. Sc. (Englisch)


Steffen Kunze
Untersuchung der Realisierbarkeit interaktiver Befundberichte im klinischen Alltag
supervised by Prof. Dr. Otto Rienhoff
Im Umfeld medizinischer Diagnose und Behandlung sind Befundberichte ein Kernelement bei der Kommunikation zwischen Radiologen und behandelnden Medizinern. Diese Dokumente sind in der Regel statisch und beinhalten neben textueller Beschreibung der Befunde keine oder nur wenige Bilder, der radiologischen Untersuchung. In dieser Arbeit werden Software-Technologien analysiert, welche die Erstellung interaktiver Befundberichte ermöglichen. In dem interaktiven Bericht sollen neben den Befundtexten Funktionialitäten nachgebildet werden, wie sie auch in richtigen Befundprogrammen zu finden sind. Dazu zählt beispielsweise das Durchblättern verschiedener Bilderstapel oder dreidimensionale Ansichten. Sämtliche Daten sollen dabei in die Berichtsdatei integriert werden. Die Machbarkeit eines solchen Berichts wird mit Hilfe eines Software-Prototypen nachgewiesen. Dafür fiel die Wahl der Technologien auf die Programmiersprache Flex von Adobe. Die Erstellung des Berichtes erfolgt automatisiert über ein erstelltes Pythonprogramm.
Abstract M. Sc. Medizinische Informatik (Deutsch)



2008

Jeremy Wolfram
Bildanalyse zeitlich aufgelöster Sichtbarmachungen von Hochenthalpieströmungen in einer verteilten ?Visual-Programming?-Umgebung
supervised by None
Zur experimentellen Untersuchung vonWiedereintrittskon?gurationenwerden Ver- suche im Hochenthalpiekanal Göttingen durchgeführt. Die Änderungen des Dichte- feldes um ein Wiedereintrittsmodell werden mit Schlieren- und Schattenverfahren visualisiert. Die auftretenden extremen Bedingungen, die eingesetzten Messverfahren und die Eigenschaften der hierfür anwendbaren Aufnahmetechnik erzeugen verschiedenartige Störungen. Ziel ist es, die Aufnahmen möglichst automatisiert und adaptierbar auswerten zu können. Dies soll erreicht werden, indem Wissen aus der physikalischen Anwendungsdomäne genutzt wird. Es wird ein bestehendes, verteiltes ?Visual-Programming?-System um Bildverar- beitungs- und Bildanalysefähigkeiten erweitert. Es wird eine Übersicht über die Teilprobleme und bekannte Lösungsverfahren gegeben. Für typische vorliegende An- wendungsfälle werden geeignete Verfahren ausgewählt und realisiert. An Hand er- stellter Prozessketten wird die Eignung der Verfahren diskutiert. Eine Bewertung der erreichten Ergebnisse und zukünftiger Weiterentwicklungen schließt die Arbeit ab.
Abstract M. Sc. Wissenschaftliches Rechnen (Deutsch)


Benjamin Maas
Constraining the correspondence problem by computing corresponding regions via a clustering algorithm
supervised by Dr. Babette Dellen
Computer vision has, among other things, the aim to build intelligent machines that are able to understand their surroundings purely by visual input. To extract meta information like the three-dimensional structure of objects or the speed at which objects within a scene travel, computer vision is not only using geometric properties like sizes, shapes, and facing of objects but also lighting properties within the world as well as material properties like the color or the reflection of objects. Computer vision is important for a wide range of applications, such as 3D scene reconstruction, image processing and the detection of moving objects. To be able to catch a ball for example, one has to compute the trajectory as to know where and at which point in time it will enter ones reach.
Abstract B. Sc. (Deutsch)


Steffen Herbold
Detection of feature freezes using clustering algorithms
supervised by Prof. Dr. Jens Grabowski
Software development is complex and not easy to quantify. An approach to quantify certain aspects of a software and software development are metrics. Software metrics map a possibly abstract attribute of a software to a value. To analyze the software project itself, is is possible to use metric data, that is measured at different versions of a project. The aim of this thesis is to determine whether such metric data can be used to analyze software projects using machine learning techniques. To obtain this kind of metric data, a way to mine metric data about different versions of a software from its archive is shown as part of this thesis. The aim is to detect a feature freeze using only this metric data. To do this, the k-means clustering algorithm is used, to divide the measured versions into those, that took place before the feature freeze and those that were afterwards. The experiment successfully detected a feature freeze in the tests candidates.
Abstract M. Sc. (Englisch)


Stephan Janz
Einbindung von Ambient Assisted Living-Technologien in den klinischen Arbeitsplatz - Projekt Point of Care 2020 -
supervised by Prof. Dr. Otto Rienhoff
Das deutsche Gesundheitswesen befindet sich in einem Wandlungsprozess, in dem es für Patienten immer wichtiger wird Entscheidungen zu verstehen und mitzutragen woraus für Ärzte die Notwendigkeit entsteht, zusätzliche Zeit in die Betreuung zu investieren. Hinzu kommen die Auswirkungen des schon begonnenen demographischen Wandels in Richtung einer älteren Gesellschaft, in Kombination mit der stetigen Verbesserung von Diagnosetechnologien. Es werden immer mehr Krankheiten immer detaillierter erkannt werden. Die damit einhergehende Datenflut angemessen zu bewältigen, erweist sich für den Arzt angesichts steigenden Fallzahlen und Mangel an verfügbarer Zeit als ein ernsthaftes Problem. Im Rahmen des Projektes Point of Care 2020 erfolgt die Erforschung von Möglichkeiten, wie diesem Problem unter Zuhilfenahme von IT-Systemen begegnet werden kann. Dazu wird ein gemeinsames Arbeitsplatzsystem für Arzt und Patient, das beide Nutzer bei Austausch und Verständnis von unterschiedlichsten Daten unterstützt, entwickelt. Um dies zu erreichen werden unübersichtliche Daten automatisch verdichtet und so aufbereitet, dass sie leicht verstanden werden können. Die vorliegende Arbeit beschäftigt sich mit dem Themenschwerpunkt Ambient Assisted Living, also mit den Möglichkeiten Daten aus Unterstützungssystemen in der Umgebung des Patienten in das Arbeitsplatzsystem einzubinden. Insbesondere angesichts des demographischen Wandels gewinnen diese Systeme zunehmend an Bedeutung.
Abstract M. Sc. Medizinische Informatik (Deutsch)


Dirk Pöhler
Eine neue Greedy-Heuristik für Sequenzbasierte Multiple Alignments
supervised by Prof. Dr. Burkhard Morgenstern
Die Konstruktion eines Multiplen Sequenzalignment ist eines der populärsten und wichtigsten Probleme der Bioinformatik. Bei der Lösung des MSA Problems ist es das Ziel, Abschnitte von mindestens zwei Protein- oder DNA-Sequenzen, die eine gewisse Sequenzähnlichkeit zueinander haben, im Alignment übereinander so auszurichten, dass eine gegebene Kostenfunktion minimiert wird. Es gibt zahlreiche Anwendungsfelder, zum Beispiel die Suche nach Struktur und Funktion von Molekülen in der molekularen Biologie, sowie die Abschätzung der evolutionären Distanz zwischen Organismen.
Abstract M. Sc. Bioinformatik (Deutsch)


Martin Gerhardy
Entwicklung eines Demonstrators für das Projekt Point of Care 2020
supervised by Prof. Dr. Otto Rienhoff
Diese Arbeit setzt sich mit Anforderungen im medizinischen Umfeld auseinander, die ich in einem fiktiven Szenario für das Jahr 2020 ergeben. Unter der Annahme, dass im medizinischen Umfeld eine stetig ansteigende Datenmenge aus der Entwicklung neuer Therapiemöglichkeiten und Diagnoseverfahren zu erwarten ist, wird die Verarbeitung und Präsentation dieser Daten in der vorliegenden Arbeit behandelt. Es geht um die Frage, wie es möglich ist, einen Arzt in die Lage zu versetzen mit dieser Datendichte umzugehen. Die daraus resultierende Anforderung macht es notwendig, dass sowohl der Arzt, als auch der Patient schnell und intuitiv mit den Daten arbeiten können. Es wird ein Konzept vorgestellt, dass genau diese Anforderung so flexibel wie möglich umsetzt. Dabei werden existierende Standards und Protokolle eingesetzt, um auch zukünftig auf sich ändernde Umgebungen reagieren zu können. Nicht nur die Präsentation von im Behandlungszusammenhang stehenden Informationen ist wichtig, sondern auch das Finden dieser Informationen. Aus diesem Grund wird die Integration einer semantischen Suchmaschine in die Präsentationssoftware ixserv auf ihre Eignung hin überprüft. Abschließend werden neuartige Bedienkonzepte betrachtet und auf ihre Eignung hin über- prüft. Denn nicht nur die Darstellung, auch die Interaktion mit Informationen wird in Zukunft immer relevanter werden. Hier werden einige Hardwarebeispiele überprüft, die eine intuitive Steuerung und Interaktion mit Anwendungen ermöglichen.
Abstract M. Sc. Medizinische Informatik (Deutsch)


Filip Makedonski
Equivalence Checking of TTCN-3 Test Case Behavior
supervised by Dr. Helmut Neukirchen
Previous work has shown that refactoring can be used to improve the internal quality of TTCN-3 test cases. However, refactorings and their improper application are susceptible to introducing unintentional changes to the observable behavior of test cases. An approach to validate that refactorings and their application are indeed behavior preserving is proposed in this thesis. The original unrefactored and the refactored test cases will be checked for equivalent observable behavior. The approach is based on bisimulation, and is applied on the fly to manage the state-space explosion problem. A prototypical implementation of the proposed approach is presented briefly, along with selected examples to illustrate its application and prove its applicability.
Abstract M. Sc. (Englisch)


Mirko Bothe
Erstellung einer Modulbibliothek zur automatisierten Regressionsanalyse von Rasterdaten-Zeitreihen mit einem Moving-Window-Ansatz
supervised by Dr. Erasmi
Diese Arbeit beschreibt die Implementierung einer Modulbibliothek für das freie GIS SAGA, in der ein Verfahren zur Regressionsanalyse von Rasterdaten-Zeitreihen mit einem Moving-Window-Ansatz umgesetzt wird. Dabei wird für jeden Zeitpunkt innerhalb der Zeitreihen ein eigenes Regressionsmodell zwischen den Zeitreihen berechnet. Dieses Verfahren kann dazu benutzt werden, eine Zeitreihenanalyse von Satelliten- und Klimadaten durchzuführen, bei der es zum Beispiel um die Veränderung von Klima oder Landnutzung gehen kann. Die Modulbibliothek wird im Rahmen des STORMA Projektes (Stability of Rain Forest Margins in Indonesia, SFB 552) eingesetzt werden, und wurde unter anderem mit Daten getestet, die aus diesem Forschungsprojekt stammen. Die Arbeit bietet einen Überblick über die verwendete Plattform SAGA, die implementierten Module und ihre Funktion, und beschreibt eine beispielhafte Anwendung der Module auf Testdatensätze aus Indonesien und Brasilien.
Abstract M. Sc. Geoinformatik (Deutsch)


Benedikt Schäffler
Implementation and Analysis of HTTP Enabled Location Delivery (HELD) and Location-to-Service Translation (LoST) Clients for IP-based Emergency Calls
supervised by Prof. Dr. Xiaoming Fu
Nowadays, location-based services such as location specific advertisements and emergency services are becoming very popular. This thesis looks at one such service namely the Emergency Context Resolution with Internet Technologies (ECRIT) framework. This is the first attempt to realize emergency calls in an IP based infrastructure. This thesis studies the HTTP Enabled Location Delivery protocol (HELD) and the Location-to-Service Translation protocol (LoST), the two basic elements of the ECRIT framework. In this respect a HELD client and LoST client are implemented. The HELD client requests the location of a device whereas the LoST client uses this location to request a local emergency ervice. Furthermore, three different scenarios of the ECRIT framework are developed in which the HELD client and the LoST client collaborate to do IP based emergency calls. These three scenarios are analyzed with regards to pros and cons with the objective of determining one final solution. Furthermore, a performance analysis of both clients was executed to determine how the device, the clients are running on, affects their processing time.
Abstract B. Sc. (Englisch)


Kai Michael Cohrs
Implementation and Evaluation of the Peer-to-Peer-Protocol (P2PP) for P2PSIP
supervised by Prof. Dr. Fu
The peer-to-peer networking paradigm, as opposed to client-server architectures, is attractive for many fields of applications. Recently, various developments led to its adoption for real-time multimedia applications like, e.g., Internet telephony. SIP, a well-established Internet standard in this field that is usually relying on central servers, is to be reformed with peer-to-peer techniques, leading to the first Internet standard carrying ?P2P? in its name. The goal of this thesis is to introduce P2PSIP and conduct a prototype implementation of a proposed P2PSIP protocol that is used for the maintenance and data communication between peers in a P2PSIP overlay network. The result has been complemented with basic SIP functionality and analyzed regarding its functionality, performance and real-world applicability.
Abstract M. Sc. (Englisch)


Romanus Grütz
Integration eines Short Lived Credential Service (SLCS) in das MediGRID
supervised by Prof. Dr. Sax
In dieser Arbeit werden verschiedene Szenarien einer Integration von einem Short Lived Credential Service in das MediGRID vorgestellt und erläutert. Als Grundlage dieser Arbeit wird die Struktur eines Grids und der Virtuellen Organisationen dargestellt. Ein weiteres Kapitel wird den Sicherheitsanforderungen von MediGRID gewidmet. Anschließend werden Bewertungskriterien für die Szenarien entwickelt. In der darauf folgenden Analyse werden der IST-Zustand und eine Auswahl anderer Szenarien näher beschrieben und bzgl. der Kriterien untersucht. In der anschließenden Diskussion werden die einzelnen Szenarien anhand der gewonnenen Erkenntnisse bzgl. der Kriterien und der veränderten Funktionalität verglichen.
Abstract B. Sc. Medizinische Informatik (Deutsch)


Mathias Kaspar
Integration genomischer Daten in Systeme der klinischen Versorgung und der klinischen Forschung
supervised by Prof. Dr. Ulrich Sax, Prof. Dr. Otto Rienhoff
Mit dem humanen Genomprojekt wurde eine wichtige Grundlage für die zukünftige personalisierte Medizin gelegt. Durch die DNS-Sequenzierung und die darauf folgende Erforschung der Single-Nukleotid-Polymorphismen (SNP) wurde ein günstig zu erhebender Typ genotyptischer Daten für die Forschung interessant. Noch aussagekräftiger werden die genotypischen Daten jedoch erst durch die Korrelation mit qualitativ hochwertigen phänotypischen Daten. Für die Integration der genomischen Daten in die klinischen Systeme der Forschung sowie der Versorgung, in denen die Phänotypdaten dokumentiert sind, muss jedoch noch vieles getan werden.
Abstract M. Sc. Medizinische Informatik (Deutsch)


Murat Gök
Introducing an openEHR-Based Electronic Health Record System in a Hospital
supervised by Prof. Dr. med. Otto Rienhoff
The aim of this thesis is to provide a roadmap for the introduction of an elec- tronic health record system based on the openEHR (http://www.openehr.org) approach for a health service within a public hospital in Australia. The idea of electronic health records (EHRs) was born approximately 40 years ago [GL96] and consequently several concepts were developed. One of these approaches is the ?Good European Health Record? (GEHR) project on which the openEHR Foundation builds. Over time the openEHR approach has matured, however, there is still a lack of knowledge on how to introduce an openEHR-based system (implementa- tion and migration strategies). To tackle this problem, the thesis gives an overview of the openEHR approach by presenting the history, architecture, and relations to other standards in electronic health care. The patient ?ow in an emergency department (ED) of a public hospital (Austin Health) is then analysed in regards to the information produced and documented. This the- sis investigates how the data items in the ED can be gathered and mapped to openEHR archetypes, thus formally representing the clinical knowledge. The reusable archetypes cover more than 70% of all archetypes needed in the ED. This ?gure may vary for other departments. It also points at the devel- opment of openEHR templates (a combination of archetypes) through util- ising mind maps. Using an example of a ventilation system, data can be mi- grated from proprietary systems and transferred to an openEHR-based data storage. An explanation is given for an openEHR architecture based EHR system, providing the foundation for the implementation of an openEHR- based prototype. The thesis shows how an openEHR architecture based EHR system can be introduced in practical terms and how this could lead to interoperability within a department.
Abstract M. Sc. Medizinische Informatik (Englisch)


Roman Ostertag
Kategorisierung und Aufnahme der Messsignale zur Langzeit-Bewegungsdetektion eines Patienten im Krankenbett
supervised by Prof. Dr. Otto Rienhoff
Die vorliegende Bachelorarbeit beschreibt die Entwicklung und Implementierung eines Messprogramms für ein neuartiges Patientenmonitoring-System, das von der Datenaufnahme bis zur Auswertung der Daten das vollständige Datenmanagement umfasst. Das Ziel des Monitorings ist die Detektion und Auswertung der Bewegungen eines Patienten in einem Krankenbett. Das vorgestellte Programm erfasst alle Sensordaten und steuert dann zur Datenreduktion die Speicherung anhand von Kategorien, in die die Daten nach ihrer Relevanz für die Interpretation einsortiert werden. Das Konzept erlaubt das Monitoring und die Visualisierung der Messdaten sowohl lokal z.B. in einem Krankenhaus als auch dezentral z.B. im Rahmen eines Telemonitoring-Programms.
Abstract B. Sc. Medizinische Informatik (Deutsch)


Sergei Polonski
Lernen von Protokollautomaten
supervised by Prof. Dr. Jens Grabowski
Im Rahmen dieser Arbeit wird die Anwendbarkeit von Algorithmen aus dem maschinellen Lernen zur Rekonstruktion von Spezifikationen aus Testabläufen (Traces) untersucht. Am ende wird die Theorie in einer Fallstudie ausprobiert. Dafür wird eine Spezifikation aus Testabläufen für Inres Protokoll gelernt und mit ursprünglicher Spezifikation verglichen.
Abstract M. Sc. (Englisch)


Alexander Kaever
Metabolit-basierte Clusterung und Visualisierung mittels Unüberwachter Kernregression
supervised by Dr. Peter Meinicke
Metabolite sind die biochemischen Zwischen- und Endprodukte von regulatorischen Prozessen in einer Zelle. Die jeweilige Ausprägung lässt sich als Reaktion auf bestimmte äußere oder genetische Einflüsse interpretieren. Moderne Messgeräte ermöglichen es, innerhalb von kurzer Zeit umfangreiche Messreihen aufzunehmen, die das metabolische Profil eines biologischen Systems unter verschiedenen Bedingungen erfassen. Bei diesem Prozess fallen aufgrund der Komplexität des Systems und etwaigen Messfehlern große Mengen an stark verrauschten Daten an, die nicht mehr manuell analysiert und interpretiert werden können. Es bedarf daher Methoden des Data Minings, die speziell auf diese Problemstellung zugeschnitten sind. Zu den zentralen Aufgaben gehören dabei die zweckmäßige Visualisierung und Gruppierung (Clusterung) der Daten, um eine Interpretation zu vereinfachen. Die vorliegende Bachelorarbeit beschäftigt sich mit der Entwicklung und Validierung eines dafür geeigneten Verfahrens, das auf der Unüberwachten Kernregression (UKR) aufbaut. Anhand eines konkreten Datensatzes wird das Verfahren im biologischen Kontext erprobt und mit zwei klassischen Ansätzen, der Hauptkomponentenanalyse und dem K-Means Cluster-Algorithmus verglichen.
Abstract B. Sc. Bioinformatik (Deutsch)


Norman Thüne
Molekulare Bilddaten im zukünftigen Arzt-Arbeitsplatz ? Projekt Point of Care 2020 ?
supervised by None
Der aktuelle Stand der Technik ermöglicht den Einsatz von Informationstechnologie in der Medizin auf breiter Front. Auf der einen Seite stehen Technologien, die den Arbeitsablauf des Mediziners unterstützen, auf der anderen Seite finden sich Anwendungen, die vor allem der Patienteninformation dienen. Ungeachtet dessen ist der Arzt mit einer Unmenge an Daten konfrontiert. Um den Arbeitsablauf des Mediziners zu optimieren, müssen alle für eine bestimmte Fragestellung relevanten Informationen zusammengetragen, gefiltert und adäquat visualisiert werden. Automatisierte Verfahren können im Hintergrund arbeitend diese Aufgabe übernehmen. Im Projekt Point of Care 2020 wird deshalb ein Arzt-Patienten-Arbeitsplatzsystem entwickelt, das die beschriebene Unterstützung des Mediziners aber auch die stärkere Integration des Patienten in den Entscheidungsprozess abbildet. Die vorliegende Arbeit stellt die Integration der molekularen Bildgebung in den klinischen Arbeitsplatz in den Mittelpunkt. Der Begriff molekulare Bildgebung (engl. molecular imaging) bezeichnet die Diagnose von Krankheiten auf molekularer Ebene mittels bildgebender Verfahren am Patienten. Das Ziel der molekularen Bildgebung ist es molekulare Signaturen von Krankheiten zu detektieren und für die medizinische Diagnose zu nutzen. Im Idealfall lassen sich damit Krankheiten bereits vor dem Ausbruch der ersten Symptome diagnostizieren und therapieren. In dieser Arbeit wird zum einen der aktuelle Stand im Bereich molekularer Bildgebung untersucht, zum anderen werden potenzielle Entwicklungen bis zum Jahr 2020 analysiert. Darauf aufbauend wird das entsprechende Modul des Demonstrators zur Visualisierung der entsprechenden Bilddaten und Metainformationen implementiert.
Abstract M. Sc. Medizinische Informatik (Deutsch)


Christian Münscher
Prozessoptimierung der IT-gestützten Auswertung der studienbegleitenden Prüfungen in der Medizin
supervised by Dr. med. Thomas Kleinoeder
Nach Erläuterung der Rahmenbedingungen für studienbegleitende Prüfungen in der Medizin an der Universitätsmedizin Göttingen wird auf die Problemstel- lung den Prozess Klausurmanagement betre?end eingegangen, welche insbeson- dere unsystematische Fragenverwaltung, aufwendige manuelle Permutation der Klausurfragen und mühsame Nachkorrektur von Klausurergebnissen umfasst. Der Prozess Klausurmanagement wird als ganzes dargestellt, im Detail die Da- ten?üsse zwischen den verwendeten IT-Systemen. In einer Marktübersicht wird Software zur Verwaltung von Prüfungsinhalten in der Medizin verglichen, und im Rahmen einer Nutzwertanalyse das geeignetste System bestimmt. Im Lö- sungsmodell wird der Einsatz eines Systems empfohlen, gezeigt, wo im opti- mierten Prozess es zum Einsatz kommen könnte, und eine Schnittstellensoftwa- re entwickelt, welche die problemlose Integration des Systems in die bestehende Softwarelandschaft und den Gesamtprozess Klausurmanagement ermöglicht.
Abstract M. Sc. Medizinische Informatik (Deutsch)


Florian Tegeler
Security Analysis, Prototype Implementation and Performance Evaluation of a New IPSec Session Resumption Method
supervised by Prof. Xiaoming Fu, Dr. Henrik Brosenne
In the current communication infrastructure a variety of services are already based on the Internet Protocol (IP) and effort is taken to put the mobile communication as well into the IP framework. Many of these services like voice over IP or online banking require an increased level of security and privacy, and therefore demanding a wide application of security suits as IPSec. These connections are typically secured by keys derived from a key negotiation process run with the IKEv2 key negotiation protocol. This process is computationally heavy; ideally it should be performed as rarely as possible. The computational complexity could grow to a severe problem in mobile environments where a base station is handling hundreds or thousands of mobile nodes and the gateway fails for any reason. If the gateway fails and recovers later, all IPSec capable devices will try to resume their session immediately by renegotiating keys and potentially overload the gateways resources by doing that in parallel. Furthermore the total number of clients a base station can handle is reduced when sessions to end host fail temporarily due to e.g. communication distortions etc. Every time re?keying is necessary. In this thesis a server side stateless IPSec session resumption approach developed by Sheffer et al. is presented and analysed. The session?s state including the master secret as the source for further keying material is stored in an encrypted ticket which can later be used to quickly resume the session. A formal security analysis based on CSP algebra interpreted with the CasperFDR toolkit was performed and it could be shown that no new security threats are introduced by altering the IKEv2 communication sequence and storing the state inside a ticket. Furthermore, a prototype of the ticket based session resumption was implemented into an existing open source linux IKEv2 daemon and the performance evaluation showed a significant reduction in the session resumption time. Overall, this thesis illustrates the new ticket based session resumption approach, verifies it via a formal security toolkit and proves the significant reduction of the time required to resume a session in a prototype implementation.
Abstract M. Sc. (Englisch)


Sebastian Kraatz
Simplifying approaches towards telecommunication protocol modeling using UML
supervised by Prof. Dr. Dieter Hogrefe
This master thesis examines means to simplify the modeling of telecommunication protocols, while using the Unified Modeling Language (UML) as the modeling language. Three approaches are analyzed and evaluated during the thesis, after elucidating involved parts such as the UML, profiles, and a translator from the UML to the Specification and Description Language (SDL) that has been previously implemented. The findings are summarized to indicate the workflow of a complete modeling towards an easy prototyping of a system.
Abstract M. Sc. (Englisch)


Matthias Ihrke
Single Trial Estimation and Timewarped Averaging of Event-Related Potentials
supervised by Dr. J. Michael Herrmann
Averaging of Event-Related Potentials (ERP) is one of the main techniques used for the analysis of electroencephalographic data acquired in neuropsychological studies. Even though it is a common observation that reaction times in experiments that require higher cognitive functions of the subjects show a large variance, the problem of incorporating this knowledge into the computation of the average has been largely neglected [12]. Trying to address this issue, a method based on the estimation of single-trial ERPs combined with a dynamic time warping algorithm is studied and evaluated.
Abstract B. Sc. (Englisch)


Thomas Wilke
Softwaretesten von Enterprise Resource Planning Systemen am Beispiel von Microsoft Dynamics AX
supervised by Prof. Dr. rer. nat. Dieter Hogrefe
Enterprise Resource Planning Systeme unterstützen als integrierte Standardsoftware die Planung und effiziente Nutzung der Ressourcen eines Unternehmens, indem sie die Geschäftsprozesse des Unternehmens in der Software abbilden. Dabei bedarf es entweder der Anpassung bestehender Komponenten oder der Entwicklung neuer Geschäftslogik, um die Standardsoftware an die Unternehmenspezifischen Prozesse anzupassen. Aufgrund des großen wirtschaftlichen Drucks und der hohen Anforderung an die Qualität der Software sind hierbei effiziente Softwaretests besonders wichtig. Diese Arbeit beschreibt am Beispiel der ERP-Software Microsoft Dynamics AX die Besonderheiten des Testens von ERP-Systemen. Dabei wird zunächst ein Testprozess aufgezeigt, der das Testen der einzelnen Phasen eines Entwicklungsprojektes näher betrachtet. Daraufhin wird auf die beiden Testarten, das Unit-Testen und das funktionale Testen der graphischen Benutzeroberfläche in Microsoft Dynamics AX eingegangen. Im Rahmen dieser Arbeit wird für den funktionalen Systemtest eine Dynamics AX Komponente entwickelt, die den Tester bei der Erstellung, Ausführung und Auswertung dieser Tests unterstützt. Daraufhin folgt abschließend eine Betrachtung des Testens in anderen ERP-Lösungen. Dies geschieht am Beispiel von SAP ERP, um Gemeinsamkeiten und Unterschiede zu Microsoft Dynamics AX aufzuzeigen.
Abstract M. Sc. (Deutsch)


Swen Weiland
TCP Performance Enhancement in Wireless Environments: Prototyping in Linux
supervised by Prof. Dr. Xiaoming Fu
In recent years, wireless communication gets more and more popular. Future wireless standards will reach throughputs much higher than 100 Mbit/sec on link layer. However, wireless channels, as compared to wired lines, exhibit different characteristics due to fading, interference, and so on. For transport control protocol (TCP), the misinterpretation of packet loss due to wireless channel characteristic as network congestion results in suboptimal performance. There are many different approaches to enhance TCP over wireless networks, especially for slow and lossy links such as satellite connections. This thesis evaluates ?TCP Snoop? as one of these approaches for high transfer rates. Finding, using and implementing effective capturing, buffering and tracking of TCP communication were the objectives to solve. A general and transparent TCP proxy with ?TCP Snoop? behavior was implemented during the work for this thesis. The TCP proxy runs on an intermediate Linux host which connects wired and wireless networks as a prototype user space application with a modular design. Different traf?c capture methods are compared in portability and performance. A full TCP connection tracking is described and implemented. Design patterns and methods that proofed their bene?t in practice were applied and sometimes partially modi?ed to ?t into the needs of the transparent TCP proxy. The modular design makes exchanging a low level module such as the data traf?c capture module possible. Porting the implementation to another operating system, another platform like embedded systems which are used as wireless LAN routers or changing the TCP enhancement method are also eased by the modular design. The results show that a transparent TCP proxy or other traf?c modifying implementation should not reside in the user space for performance reasons. A kernel space implementation or even better a dedicated hardware like a network processor platformshould be used for such implementations.
Abstract B. Sc. (Englisch)


Canh-Han Huynh
Versorgungsnahe Darstellung strukturierter Daten aus klinischen Studien
supervised by Prof. Dr. Ulrich Sax
Im Kompetenznetz Angeborene Herzfehler wird durch die Integration von Forschungsergebnissen bzw. Studiendaten eine verbesserte Versorgungsqualität angestrebt. Der Export der Daten aus der Studiendatenbank wurde bereits realisiert. Allerdings fehlte bis jetzt eine geeignete Lösung für die Darstellung. Das Modul, welches die Studiendaten in der Versorgung bereitstellt, wurde auf der Basis eines ixserv Systems entwickelt. Dieses System unterstützt die Integration von Formularen, welche die Darstellungsmöglichkeiten erheblich verbessern. Bisher wurden die für die Studiendaten benötigten Formulare mit Hilfe eines speziellen Generators manuell erstellt, was jedoch mit großem Aufwand verbunden ist. Die vorliegende Bachelorarbeit beschäftigt mit der Entwicklung einer Softwarelösung zur automatischen Generierung der Formulare auf Basis des Studienexports.
Abstract B. Sc. Medizinische Informatik (Deutsch)


Clemens Mickler
Visualisierung eines Langzeitmonitorings auf einem Arztarbeitsplatz am Beispiel der Bewegungsdetektion eines Patienten im Krankenbett
supervised by Prof. Dr. Otto Rienhoff
Anwendungen der Telemedizin und ihres Bereiches Telemonitoring werden in zunehmendem Maße für den Standardeinsatz in Gebieten der Gesundheitsversorgung entwickelt. Dabei legen die Hersteller ihren Produkten Auswertungsprogramme bei, die in der Regel nicht dazu gedacht sind, die Daten ut der neuen Modalitäten in die hauseigenen Informationssysteme der Nutzer einzubinden und für das Personal verwertbar bereitzustellen. In der vorliegenden Arbeit wird am Beispiel eines neuen Telemonitoringsystems ein Programm entwickelt, das die Datenübernahme aus dem Rechner der Monitoringstation auf einen Arbeitsplatz organisiert, nach wählbaren Regeln Bereiche aus Langzeitmessungen extrahiert und die Messkurven darstellt. Ein besonderes Augenmerk wurde auf die einfache Anpassbarkeit der Benutzeroberfläche und der Funktionalität an unterschiedliche Rahmenbedingungen und Anforderungen der Nutzer gelegt. Dadurch ist das Programm nicht auf die vorliegende Situation der Bewegungsdetektion eines Patienten beschränkt, sondern kann als Basis für andere Monitoringaufgaben verwendet werden.
Abstract B. Sc. Medizinische Informatik (Deutsch)


Mario Preis
Visualisierung von Telemonitoring-Technologien am klinischen Arbeitsplatz - Projekt Point of Care 2020 -
supervised by Prof. Dr. Otto Rienhoff
Durch rasant fortschreitende Entwicklungen in der Informationstechnologie werden immer weitreichendere Systeme zur Unterstützung der Arbeitsabläufe des Mediziners möglich. Ungeachtet dessen sieht sich der behandelnde Arzt durch diese Entwicklungen gleichzeitig einer unüberschaubaren Menge an Daten gegenübergestellt. Um eine ideale Versorgung sicherzustellen, muss diese Datenflut - für den Arzt weitestgehend unsichtbar - verdichtet, gefiltert und anschaulich aufbereitet werden, um daraus für den medizinischen Alltag nutzbare Informationen zu gewinnen und eine Effizienzsteigerung für die Weiter- und Wiederverwendung der Daten zu ermöglichen. Im Projekt Point of Care 2020 wird dieser Problematik mit der Entwicklung eines Arzt-Patienten-Arbeitsplatzsystems begegnet, das den Mediziner bei der Interpretation der beschriebenen Datenmengen unterstützt und zusätzlich den Patienten stärker in den Behandlungsprozess einbezieht.
Abstract M. Sc. Medizinische Informatik (Deutsch)


Andrey Kozhushkov
Visualization of Therapeutic Data of Diabetes Patients in an Electronic Medical Record
supervised by Prof. Dr. Otto Rienhoff
Diabetes mellitus is a worldwide health challenge which affects a rapidly rising number of individuals. While there are IT systems that have been developed to aid diabetes care, most of these systems remain inaccessible to patients and health care providers in developing countries. The Department of Medical Informatics at the University of Göttingen is running a project adressing a strategic and tactical modelling of electronic health record systems for developing countries. In that project, a use case for the management of diabetes in Sub-Saharan Africa has been designed which describes functionalities that would help improve the quality of diabetes care and health care worker education. These functionalities include the collection and visualization of therapeutic data, problem-oriented data views, recording of inpatient care data, as well as simulation of daily profiles of glycemia and insulinemia.
Abstract M. Sc. Medizinische Informatik (Englisch)



2007

Marwin Schmitt
A Metamodel Browser for the UML 2 Super- and Infrastructure
supervised by Prof. Dr. Hogrefe
Abstract B. Sc. (Englisch)


Fabian Schreiber
A phylogeny pipeline and its application to contribute to resolving the phylogeny of sponges (Phylum Porifera)
supervised by Prof. Burkhard Morgenstern, Jun-Prof. Dr. Gert Wörheide
The study of the evolutionary history of organisms (Phylogeny) is a demanding task involving different steps of analyses. The automation of this steps will make phylogenetic analyses faster and easier to do. We will develop a phylogenetic pipeline capable of carrying out all steps needed for a complete phylogenetic analysis. In a next step we will apply this pipeline to try to answer a fundamental question about the phylogeny of sponges. Recent phylogenetic studies revealed that the group of sponges consists of an inferred common ancestor and but not all of its descendants. This is contrary to what people previously thought about the history of sponges. The application of the phylogenetic pipeline to this problem should give an answer which hypothesis to corroborate.
Abstract M. Sc. Bioinformatik (Englisch)


Ewgenij Kononov
Alternative Open Source-Lösung für Microsoft InfoPath in OpenMRS
supervised by Prof. Dr. Rienhoff
OpenMRS ist ein freikonfigurierbares Open Source EMR System. Es wird in erster Linie zur Datenverwaltung und zum Datenaustausch von AIDS- und tuberkulosekranken Patienten in medizinischen Einrichtungen in Entwicklungsländern benutzt. In mehreren Ländern von Süd- und Ost-Afrika sind bereits Implementierungen des Systems vorhanden. Unter anderem bietet das System die Möglichkeit, medizinische Formulare elektronisch abzubilden und im medizinischen Alltag einzusetzen. Zur Verwaltung von elektronischen Formularen wird Microsoft InfoPath (MSIP) benutzt. MSIP ist ein kommerzielles Produkt und bedarf einer Lizenz. Der Einsatz von MSIP steht im Widerspruch zu der Ideologie, mit der OpenMRS entwickelt wurde. In dieser Arbeit wird eine Analyse der Einsetzbarkeit alternativer Lösungen zur Entwicklung und Verwaltung elektronischer Formulare in OpenMRS durchgeführt. In einer anschließenden Marktanalyse werden potenzielle, auf dem Weltmarkt vorhandene Implementierungen identifiziert. In einer engeren Auswahl wird anhand einer Anforderungsliste eine Auswahl getroffen, welches Produkt als alternative Lösung zu MSIP in OpenMRS eingesetzt werden kann. Nach der Auswahl des alternativen Produktes wird die praktische Umsetzung mit anschließendem Test und Feldeinsatz der Lösung vorgenommen. Das Ergebnis dieser Arbeit wird zeigen, dass es eine vollständig freie EMR Lösung geben kann, die mit der neuesten Technologie entwickelt wurde und für einen breiten Einsatz im Gesundheitswesen eingesetzt werden kann.
Abstract M. Sc. Medizinische Informatik (Deutsch)


Jens M. Nödler
An XML-based Approach for Software Analysis Applied to Detect Bad Smells in TTCN-3 Test Suites
supervised by Dr. Helmut Neukirchen, Prof. Dr. Jens Grabowski
This thesis presents an XML-based approach for software analysis. Patterns in software artefacts which should be found by the analysis are described using the declarative XML query language XQuery. Implementation and design of a software analysis framework are presented. The design of the framework allows patterns to be described in a generic, abstract, and reusable way. The framework is customised for the detection of places in source codes which should be refactored, so-called bad smells. As a case study, the framework is used to detect bad smells in test suites written in the testing language TTCN-3.
Abstract M. Sc. (Englisch)


Christian Menke
Development of an enhanced gap-filling algorithm for Landsat 7 SLC-off data
supervised by Dr. Erasmi
Satellite imagery produced by Landsat 7 after May 31st, 2003 contains ine-shaped data gaps due to the ETM+ sensor?s Scan Line Corrector failure which occured on that day. This work designs and implements a procedure that reduces or eliminates these data gaps by combining multiple images of the same scene into one ?gap filled? image. The effects of different atmospheric compositions and differences in illumination direction and intensity are minimized by performing a radiometric adjustment on the images beforehand. Clouds covering parts of the images are masked in advance of this correction to avoid impaired adjustment due to different cloud coverage. While the results of this procedure are not perfect, they are significantly better than those produced by methods ignoring cloud coverage. The procedure was developed with Landsat 7 SLC-off satellite images in mind but may also be applicable to other remote sensing products or even general images.
Abstract B. Sc. Geoinformatik (Englisch)


Niklas Neumann
Diameter WebAuth: An AAA-based Identity Management Framework for Web Applications
supervised by Prof. Dr. Fu
Every day countless users are accessing various personal and personalized information on the Internet, especially the World Wide Web. In order to provide each user proper access, web applications need to be able to establish the user's identity. Identity management is a concept to unify and facilitate such user identification. The objective of this thesis is to introduce and explore identity management in web applications. First, existing identity management approaches are analyzed and evaluated. Based on the results of this evaluation, a new AAA-based identity management framework, the so-called Diameter WebAuth, is proposed. The proposal is based on the Diameter protocol and intended for an easy deployment in web applications. By using Diameter as basis, the proposal takes advantage of existing Diameter functions and specfications and can be seamlessly integrated into existing Diameter setups. Diameter WebAuth provides features comparable to web-based identity management solutions such as OpenID, the Liberty Alliance project and Microsoft CardSpace.
Abstract M. Sc. (Englisch)


Nils Gladitz
Entwicklung eines Java basierten DICOM Viewers
supervised by Prof. Dr. Rienhoff, Dr. Janko F. Verhey
DICOM ist der heutige de facto Standard für die Ubertragung und Speicherung medizinischer Bilddaten. Dieser entstand aus der gesammelten Erfahrung der Vorgänger-Standards des American College of Radiology und der National Electrical Manufacturers Association und unterliegt fortwährender Revision. Der ständig wachsende Standard sammelt dabei durch seine Zielsetzung, abwärtskompatibel zu bleiben eine Vielzahl oft gleichwertiger Kodierungsmöglichkeiten. Diese Heterogenität erschwert Software-Entwicklern die Integration von DICOM in eigene Programme. Verschärft wird diese Problematik durch Implementationen, die sich nicht voll an den Standard halten, diesen teils unterschiedlich interpretieren oder proprietär erweitern. Ziel dieser Bachelorarbeit ist die Entwicklung einer Bibliothek zum Lesen und Schreiben der güngigsten DICOM-Datensätze in Java. Diese soll desweiteren in einen DICOM-Viewer MedOculus integriert werden, der die Datensätze anzeigt, den Benutzer wichtige Bereiche markieren und als neue DICOM-Datei abspeichern lässt.
Abstract B. Sc. Medizinische Informatik (Deutsch)


Salke Hartung
Entwicklung eines WMS-Clients zur Integration in ein interdisziplinäres Forschungsprojekt
supervised by Dr. Stefan Erasmi
Abstract B. Sc. Geoinformatik (Deutsch)


Nils Röttger
Evaluierung von Softwaremetriken mit Hilfe des PAC-Lernens
supervised by Prof. Dr. Waack
Softwaremetriken sind für die Bestimmung der Softwarequalität sehr wichtig. Es gibt eine große Menge von Metriken. In Software-Projekten werden Metriken für die Bewertung der Qualität herangezogen. Die Auswahl der Metriken erfolgt z.B. nach dem GQM-Modell. Aber sind die ausgewählten Metriken auch wirklich gut? Diese Arbeit beschäftigt sich mit der Evaluierung von Metriken. Das PAC-Lernen ermöglicht es, aus einer großen Anzahl von Daten wertvolle Information zu gewinnen. Mit Hilfe des PAC-Lernens wird versucht eine feste Anzahl von Metriken zu bewerten. Es wurden mehrere Datenmessungen mit realen Softwarestücken durchgeführt. Diese Daten dienen den Lernalgorithmen als Eingabe. Die Theorie des PAC-Modells wird benutzt, um die Richtigkeit der Lernalgorithmen zu untermauern. In der Arbeit werden verschiedene Experimente auf dem Datensatz beschrieben und die Ergebnisse vorgestellt
Abstract M. Sc. Wissenschaftliches Rechnen (Deutsch)


Krister Helbing
Forschungsorientierte medizinische Langzeitdokumentation auf Basis der gematik-Infrastruktur
supervised by Prof. Dr. med. O. Rienhoff
Begünstigt durch die Verbreitung des Internets und durch bezahlbare Informationstechnologien sind in den letzten Jahren immer mehr Projekte für einen institutionsübergreifenden Datenaustausch in der Medizin entstanden. Diese bauen zum Teil auf eigenen Konzepten auf oder orientieren sich an der gerade im deutschen Gesundheitssystem entstehenden Telematikinfrastruktur. Während sich viele Konzepte vorrangig auf die Versorgung konzentrieren, wird ein wichtiger Aspekt, der Informationsaustausch zwischen der Versorgung und der Forschung, häufig vernachlässigt.
Abstract M. Sc. Medizinische Informatik (Deutsch)


Bernd Schlör
Implementation and Performance Evaluation of the IETF QoS NSLP Protocol
supervised by Prof. Dr. Fu
Today?s multimedia applications, like VoIP or video streaming, work best with an allocated bandwidth, low latency and low packet loss. However, the traditional Internet works on a best-effort basis and the available resources cannot be assigned to certain flows. Quality of Service (QoS) mechanisms have been introduced to overcome these limitations and to provide more reliability in terms of bandwidth, delay, jitter and packet loss. Since the patience of humans is finite, there is a demand for a higher quality in IP based multimedia services and thus there is a demand for deploying QoS for these services.
Abstract M. Sc. (Englisch)


Alexander Heinisch
Implementierung einer Biobankverwaltung in einem RDE-System unter Berücksichtigung der Aspekte Daten- und Probenhaltung
supervised by Prof. Dr. Otto Rienhoff
Gegenstand dieser Arbeit ist der Entwurf und die Implementierung einer Verwaltung für Biomaterialbanken zur Speicherung von medizinischen Daten zu biologischen Proben. Diese Daten und Proben werden von Patienten 1 oder Probanden erhoben und dienen in aufbereiteter Form vornehmlich molekular orientierter medizinischer Forschung in klinischen Studien. Zur langfristigen Speicherung von Material und Information werden Biomaterialbanken eingesetzt. Die Verwaltung solcher Banken obliegt der rechtlichen Grundlage und Medizinisch-technischen Anforderungen. Diese Bedingungen für eine informationstechnologische Biobankverwaltung werden im folgenden Text erörtert.
Abstract B. Sc. Medizinische Informatik (Deutsch)


Erik Tschinkel
Implementierung eines Übersetzers für UMLCS-basierte Modelle nach SDL
supervised by Prof. Dr. Hogrefe
Diese Arbeit beschreibt die Implementation eines Übersetzers für Systeme, die auf dem Unified Modeling Language (UML) - Profile for Communicating Systems (UMLCS) basieren, in ein äquivalentes Modell der Specification and Description Language (SDL). Bisher war es mit größerem Aufwand verbunden, ein Telekommunikationssystem in SDL zu spezifizieren. Das UMLCS ermöglicht eine einfachere Modellierung in UML, indem es die Stärken der Beschreibungssprachen UML und SDL, durch theoretische Übersetzungsregeln von UML nach SDL, vereint. Eine direkte Übersetzung ist mit dem UMLCS aber nicht möglich. Daher müssen Ergänzungen vorgenommen werden. Mit Hilfe eines Übersetzers, der an den theoretischen Vorgaben des UMLCS angelehnt ist, wäre der Entwicklungsprozess eines Telekommunikationsprotokolls deutlich zu beschleunigen. Im Rahmen dieser Arbeit wurde ein solcher Übersetzer implementiert, der ein System nach SDL übersetzt sowie einen Test auf syntaktische und semantische Korrektheit durchführt. Nach der Beschreibung der eingesetzten Technologien, wird im Hauptteil die Struktur und die Arbeitsweise des Übersetzers vorgestellt. Abschließend wird ein idealtypischer Entwicklungsprozess, anhand des INRES Protokolls, exemplarisch durchlaufen.
Abstract M. Sc. (Deutsch)


Norbert Scheer
Implementierung und Test eines semi-automatischen Verfahrens zur Mitralklappenvolumetrie
supervised by Prof. Dr. Rienhoff, Dr. Janko Verhey
Fortschreitende technologische Entwicklung von Geräten und Algorithmen ermöglicht in der Medizin ein tieferes Verständnis von pathologischen Veränderungen. Dazu gehören besonders in der Kardiologie derzeit Oberflächen- und Volumendefekt-Analysen auf Basis von MR, CT oder Ultraschalldaten. Das hier entwickelte Programm erweitert die Funktionalitäten des bisherigen Programms FemCoGen, indem es aus transösophagealen Echokardiographie (TEE)-Daten geometrische und volumetrische Analysewerte der Mitralklappe im geschlossnen Zustand semiautomatisch ermittelt und individualisierte Finite-Elemente (FEM)-Netze der Mitralklappe erzeugt. Wesentliche Bestandteile der hier vorgelegten Arbeit sind (1) die Entwicklung von Programmcode zur Ermittlung der Analysedaten, (2) eine erste Gegenüberstellung von prä- und postoperativen Datensätzen und (3) die Untersuchung zu intra- und interpersonellen Reliabilitäten in der Bestimmung der Analysedaten.
Abstract M. Sc. Medizinische Informatik (Deutsch)


Kristin Stamm
Individual Learning and the Dynamics in Predator-Prey Populations
supervised by Prof. Dr. F. Wörgötter
In evolutionary robotics, recently some researchers try to exploit the dynamics of co-evolution instead of simple evolution to create more sophisticated behavior of autonomous robots. In 1997, Floreano and Nolfi were able to reproduce the Red Queen effect (defined by Van Valen) in a computer simulated robotic setup with one predator and one prey robot. They co-evolved two robots using a centralized co-evolutionary algorithm and used them to evaluate each individual in each generation. In this thesis, we extend the Nolfi and Floreano approach by using the asynchronous, distributed Embodied Evolution (EE) algorithm of Watson and Pollack to co-evolve two populations of predator and prey robots in a computer simulation. We investigate a system of robots which are able to adapt pursuit and evasion behaviors during lifetime by using the Isotropic-Sequence-Order Learning with Input Correlations Only (ICO) of Porr and Wörgötter. A first series of experiments with one or two evolving populations reveals that this system reproduces dynamics not only between both populations - similar to Floreano and Nolfi - but also within each population. Predators and preys develop collective strategies in order to fulfill their particular task. In addition, this approach turns out to be efficient because it needs fewer individuals than Floreano and Nolfi to achieve good evolutionary results.
Abstract M. Sc. (Englisch)


Jessica Rathmann
Integration eines Lernmanagementsystems in ein Forschungsportal
supervised by Prof. Dr. Rienhoff
Die innerbetriebliche Zusammenarbeit der einzelnen Mitarbeiter untereinander gewinnt heutzutage stetig an Bedeutung, weswegen neben der Kommunikation insbesondere die gegenseitige Abstimmung einen sehr hohen Stellenwert besitzt. Hierzu ist es sehr wichtig, dass sämtliche Arbeitskollegen dieselben zu bearbeitenden Dokumente zur Verfügung haben und diese gemeinsam von ihren jeweiligen Arbeitsplätzen bearbeiten können. Dokumente im allgemeinen Sinn können jegliche projektbezogenen Informationen, wie Projektanträge, Projektberichte oder Ergebnisse der Projekttätigkeit sein, weswegen diese allen Projektteilnehmern so einfach als möglich zugänglich gemacht werden sollten. Diese Art der ?Online-Zusammenarbeit? wird insbesondere durch die Bereitstellung von Portalen oder im speziellen Fall des Kompetenznetzes Angeborene Herzfehler, welches im Kapitel 5 dieser Ausführung näher vorgestellt wird, durch Forschungsportale ermöglicht. Des Weiteren ist die kontinuierliche Fortbilung der Mitarbeiter der Schlüssel für eine gleichbleibend hohe Qualität und Effizienz der ausgeübten Tätigkeiten. Hierzu kann die Erweiterung des Wissens beispielsweise durch spezielle Kurse, unternehmensinterne oder externe Lehrgänge oder Schulungsveranstaltungen erreicht werden. Im Zuge dieser nach wie vor bedeutsamen und erwünschten Förderung des Wissensstandes der Mitarbeiter greifen Betriebe in zunehmendem Maß auf sogenannte Lernmanagementsysteme zurück, welche eine systematische und transparente Übersicht über die Schulungs- und Weiterbildungs- aktivitäten ihrer Mitarbeiter bieten. Im Zuge dieser Arbeit wurde zunächst ein Konzept erstellt, welches die Integration eines solchen Lernmanagementsystems in ein Forschungsportal modellieren sollte. Das Ziel einer derartigen Integration ist es den Mitarbeitern das Belegen von speziellen Kursen zur Fort- und Weiterbildung in ihrer gewohnten Arbeitsumgebung zu ermöglichen und um eine integrierte Arbeits- und Lernplattform bereitzustellen. Im Anschluss an die Konzeption wurden drei verschiedene Integrationsszenarien erläutert, dargestellt, diskutiert und anschließend verglichen und gegeneinander abgegrenzt.
Abstract M. Sc. Medizinische Informatik (Deutsch)


Steffen Herbold
Iterative Lösung relaxierter Rekontruktionsprobleme durch radiale Basisfunktionen
supervised by Prof. Dr. Schaback
Abstract B. Sc. (Deutsch)


Sabine Lüer
Konzeption einer e-learning-Plattform für die Breitenausbildung
supervised by Prof. Dr. Ulrich Sax
Lehrgänge über das Internet abzuhalten gewinnt immer mehr an Bedeutung. Viele Unternehmen und Organisationen greifen in ihrem Fort- und Weiterbildungssektor bereits auf e-learning Anwendungen zurück. Diese Anwendungen werden jedoch meist nur firmenintern verwendet und sind für die breite Öffentlichkeit nur selten verfügbar. Für Hilfsorganisationen ist der Bereich der Erste-Hilfe Ausbildung ein wichtiges Standbein, um eine qualifizierte Aus-, Fort- und Weiterbildung von Helfern zu gewährleisten. Um diesen die Möglichkeit zu bieten, sich selbständig in Erster Hilfe weiter zu bilden, wird eine e-learning-Plattform konzipiert. Da sich die Hilfsorganisationen zur Aufgabe gemacht haben, nicht nur ihre Helfer sondern auch die breite Öffentlichkeit in Erster Hilfe auszubilden, ist es sinnvoll, diese e-learning-Plattform so auszulegen, dass sie auch von dieser genutzt werden kann. Dies bedeutet auch, dass die Umsetzung barrierefrei erfolgen muss. Hierfür muss die e-learning-Plattform erhöhten Anforderungen gerecht werden. Eine individuelle Verwendung der e-learning-Plattform erfordert das Einbinden in jedes beliebige Design eines Internetauftrittes zu ermöglichen. Die Möglichkeit die e-learning-Plattform in bestehende Content-Management-Systeme einzubinden gehört ebenfalls dazu.
Abstract B. Sc. Medizinische Informatik (Deutsch)


Philipp Wang
Nutzung von Public Key-Infrastruktur für Web-Applikationen im Gesundheitswesen
supervised by Prof. Dr. Ulrich Sax
Abstract B. Sc. Medizinische Informatik (Deutsch)


Remko Ricanek
OntoScope: Interaktive Visualisierung einer anatomischen Ontologie
supervised by Dr. Holger Michael, Dipl.-Biol. Jurgen Ditz
Diese Masterarbeit befasst sich mit der Implementierung der graphischen Anwendungssoftware OntoScope zur interaktiven Visualisierung von ontologischen Daten und deren Zusammenhängen. Mit OntoScope sollen Daten der Datenbank Cytomer visualisiert werden. Cytomer ist eine Datenbank uber Organe und Gewebe, Zelltypen und physiologische Systeme in verschiedenen Entwicklungsstadien eines Organismus und wird in der Abteilung Bioinformatik der Universitätsmedizin Göttingen zur Verfügung gestellt. Anhand eines Kriterienkatalogs wurden für die Implementierung der Visualisierung geeignete Software-Werkzeuge ausgewählt, analysiert und bewertet. Als Ergebnis der Analyse realisiert das Software-Werkzeug JUNG (Java Universal Network/Graph Framework ) die Visualisierung der ontologischen Daten in OntoScope. OntoScope ermöglicht es einem Anwender, einen komplexen Ontologie-Datenbestand durch die Darstellung einer Auswahl der Elemente und deren Beziehungen untereinander nach dem ?Lichtkegel-Prinzip? genauer unter die Lupe zu nehmen: es soll nur ein Fokus des gesamten Datenbestands dargestellt werden. Durch Hinzufügen neuer Nachbarelemente oder Enfernen bestimmter Elemente aus der Darstellung erhä?lt der Benutzer die Möglichkeit, im gesamten Datenbestand zu navigieren.
Abstract M. Sc. Bioinformatik (Deutsch)


Lennart Obermann
Optimierung von Stundenplänen
supervised by Betreut durch Prof. Dr. Schumann
Die Stundenplanung ist ein komplexes Themengebiet, besonders im Bereich der Schulen und Universitäten. Es wird immer häufiger versucht dieses Problem durch computergestützte Anwendungen zu lösen. Diese Arbeit befasst sich mit der Stundenplanung und Stundenplanoptimierung mit Fokus auf Universitäten. Dazu werden verschiedene Heuristiken vorgestellt und untersucht. Einige dieser Heuristiken, darunter verschiedene Varianten von Ameisenalgorithmen und Genetischen Algorithmen, wurden in Java implementiert und auf ein reales Problem der Universität Göttingen angewandt.
Abstract B. Sc. Wirtschaftsinformatik (Deutsch)


Anna-Lena Lamprecht
Orchestration of Heterogeneous Bioinformatics Processes in Bio-jETI as a Service Integration, Design, and Provisioning Platform
supervised by Prof. Dr.-Ing. Tiziana Margaria-Steffen
In silico experiments, a major part of the biological experiments that are carried out today, require thorough computational support. While database or algorithm providers face the problem of bundling resources to form powerful computation nodes, the users have to deal with combining sets of (remote) services into reasonable analysis processes. Different approaches have been taken to address the service mediation problem in bioinformatics. This thesis describes Bio-jETI, an emerging platform for service integration, process design and service provisioning, and compares it to other workflow management systems that are known in the community. Bio-jETI is essentially built upon the jABC modeling framework and its remote integration plugin, jETI. Additionally, plugins for model execution, model verification, model compilation and for the definition of arbitrary component classifications are included. In order to explore Bio-jETI?s capabilities for the biological domain and determine further necessary extensions, a set of often recurring analysis processes, such as primer design and phylogenetic tree reconstruction, was modeled with the framework. These processes are at the same time particularly suited to demonstrate the flexibility that analyses gain in Bio-jETI, especially in contrast to the completely predefined service programs that are widely spread in the biological domain.
Abstract M. Sc. Bioinformatik (Englisch)


Jochen Kemnade
OWLQ ? An OWL-based Query Language for OWL Data
supervised by None
This thesis deals with the OWL-based, semantic query language OWLQ which defines a query ontology based on classes, variables and constraints and whose queries are completely stated in RDF. Hence it is possible to handle the components of the query, i.e., definitions of relevant classes and constraints, like any other Semantic Web resource constituting the facilities to specify metadata about queries, reason about them with regards to their satisfiability and containment in each other and publish them as Semantic Web data. Besides describing the theoretical concepts of OWLQ queries, this thesis addresses the implementation of an application that supports their analysis and execution based upon the Jena framework.
Abstract M. Sc. (Englisch)


David Weiss
Performance Evaluation of a Novel Overlay Multicast Protocol
supervised by Prof. Dr. Xiaoming Fu
The demand for high-bandwidth media streaming over the Internet is growing. For large groups of receivers, media streaming places a heavy burden on the network. IP Multicast can alleviate this problem, but it is not widely deployed. In recent years, application layer multicast and overlay multicast have been proposed as alternatives. However, there are still concerns about the efficiency, scalability and deployment of these architectures. In this thesis, a novel application layer multicast approach, called the Dynamic Mesh-based Overlay Multicast Protocol (DMMP), is evaluated. DMMP establishes an overlay network core consisting of super nodes, which are end-hosts with particularly high capacities. Each super node manages a cluster of non-super nodes. We use network simulations to analyze the performance of DMMP. For that purpose, we have implemented a DMMP module in OverSim. OverSim is an overlay network simulation framework based on OMNeT++. We compare DMMP with NICE, a well-known application layer multicast protocol, that is claimed to achieve low link stress and low control overhead. We experiment with groups of up to 2048 members. Our results indicate that DMMP can achieve comparable service quality with less control overhead, and that DMMP has the potential to scale to a high number of receivers.
Abstract B. Sc. (Englisch)


Alexander Padberg
Prototypische Entwicklung eines kartenbasierten,internetgestützten Auskunftssystems für den Winterdienst
supervised by Peter Korduan
In dieser Arbeit wird ein Prototyp für ein kartenbasiertes, internetgestütztes Auskunftssystem zur Unterstützung der für den Winterdienst notwendigen Tätigkeiten entwickelt. Dieser Prototyp wird dem Umweltamt der Stadt Rostock zur Verfügung gestellt und soll bei der Auswahl eines Systems zur täglichen Verwendung im Winterdienst als Entscheidungshilfe dienen. Die gegenwärtige Planung sieht vor, ein solches Informationssystem zum Winter 2007 im Rostocker Umweltamt einzuführen. Der Prototyp ermöglicht die Überwachung von Räumfahrzeugen und Räumungszu ständen von Straßenabschnitten im Einzugsgebiet der Winterdienststelle auf einer interaktiven Karte sowie die Speicherung von Daten über vorgenommene Räumungstätigkeiten und deren Abrechnung. Die Archivierung dieser Informationen ermöglicht es, bei Bedarf alle durchgeführten Räumungsmaßnahmen nachzuweisen. Zur Aktualisierung der Räumungsdaten werden während der Räumungstätigkeiten Messpunkte entlang der Fahrt strecke mit Hilfe von GPS-Empfängern generiert. Diese Messpunkte werden unter Nutzung von Mobilfunk in Form von GML-Dokumenten von den Räumfahrzeugen an die Winterdienststelle gesendet. Die Erweiterbarkeit des Prototypen wird durch eine modularisierte Struktur gewährleistet. Datenerfassung, Datenaktualisierung, Visualisierung und Verwaltung der Daten sind in verschiedenen Komponenten realisiert und können unabhängig voneinander modifiziert werden. Bei der Entwicklung des Systems kommen Open-Source-Technologien zum Einsatz, die ebenfalls an besondere Bedürfnisse einer Winterdienststelle angepasst werden können. Zudem werden die Anschaffungskosten des vorgestellten prototypischen Systems durch die Nutzung von Open-Source-Software gering gehalten. Da die Implementierung die vorhandenen Web-Service-Standards des Open Geospatial Consortium umsetzt, können die Ergebnisse des Auskunftssystems in anderen Webanwendungen wiederverwendet werden.
Abstract M. Sc. Geoinformatik (Deutsch)


John-Patrick Wowra
RTP over Datagram TLS
supervised by Prof. Dr. Fu
The popularity of Internet Telephony has been rising continuously in recent years. With a rising number of users inevitably the number of malicious users rises as well. Hence security is a major concern for Internet Telephony. Commonly RTP is used with Internet Telephony for transmission and reception of audio and video data. Traditionally, RTP runs over UDP, and RTP traffic is in most cases transmitted without any protection. Datagram TLS is a modified version of TLS that functions properly over datagram transport. This thesis studies an RTP extension based on DTLS, and includes conduction of a prototype implementation and further analysis of the design towards securing RTP and thus Internet Telephony.
Abstract M. Sc. (Englisch)


Thomas Rings
Testing Grid Applications Using TTCN-3
supervised by Dr. Helmut Neukirchen, Prof. Dr. Jens Grabowski
The collective and coordinated usage of resources for joint problem solutions within dynamic virtual organizations across different institutes is realized with the Grid computing technology. Since the deployment of Grid computing grows, the quality of Grid computing environments and Grid applications has to be assured. An important constituent of quality assurance is testing. This thesis investigates the applicability of the Testing and Test Control Notation version 3 (TTCN-3) for testing Grid applications. As case study of this thesis, test cases implemented in TTCN-3 have been applied to an application running in a Grid computing environment. A description of the implemented example Grid application that is tested with TTCN-3 is covered by this thesis. The main focus of the thesis is on the realization of a basic TTCN-3 test system and its test harness in order to check the correctness of the application that runs in a Grid environment. The realized tests demonstrate that TTCN-3 is applicable for distributed testing in Grid environments. The Grid environment used in the case study is the Instant-Grid. It is based on the Grid middleware Globus Toolkit.
Abstract M. Sc. (Englisch)


Thomas Westphal
Translation of semantic level actions in an RDF Web Service
supervised by Prof. Dr. Wolfgang May
The basis of the Semantic Web is provided by autonomously evolving information systems. Today?s internet mostly consists of web pages that can?t be processed easily in a computerunderstandable way. These information systems can be queried as known from Web Services and additionally use domain ontologies that enable automatic information integration. MARS Modular Active Rules in the Semantic Web is based on this infrastructure and adds the capability to specify and execute active rules using the Event-Condition-Action (ECA) paradigm. Reactive behavior is created by an event-driven communication using semantically high level events that are raised within a network of independent services. High level events are derived from data model changes using ECE rules. If an optional condition is satisfied, semantically equally high level actions are distributed and executed. In this thesis, an ACA mapper is developed that enables the definition of rules that map semantic level actions to a sequence of data model update commands. Such a mapping is needed to execute domain level actions in an RDF Web Service.
Abstract B. Sc. (Englisch)


Benedikt Over
Weiterentwicklung der C-Programmbibliothek zur tomographischen Auswertung von Dichtefeldern mit der Hintergrundschlieren-Methode
supervised by Prof. Dr. R. Schaback, Dr.-Ing. F. Klinge
By means of the Background Oriented Schlieren (BOS) procedure one can measure a 3-D density field. This optical measurement procedure takes advantage of the relationship between density and optical refraction. In order to process the data obtained by the BOS procedure, an algorithm was implemented in Matlab by G OLDHAHN 2003. This includes instant processing of the data measured, so one can detect and fix any systematic error promptly. This project improves the algorithm mentioned in order to increase its applicability. Anticipating the rising amount of data in future applications, the new architecture of the program was adjusted to meet these needs. Visualizing a 3-D density field proves to be quite challenging. To facilitate this for the user, a new program feature is the possibility to display any 2-D section of the 3-D density field. Since running the procedure requires the input of numerous parameters, the user needs a proper interface, which is implemented by a text-based input. To accelerate the time consuming operation of this algorithm, the program offers multiple file processing initiated by a single command. These concepts are implemented in C++ . The underlying mathematical principles are discussed in detail in order to assess the potential and possible systematic errors of the tomographic algorithm. The final chapter of this paper contains a test run of the program processing data obtained in an experiment at the DLR. Special attention is given to operation time and applicability.
Abstract B. Sc. Wissenschaftliches Rechnen (Deutsch)



2006

Benjamin Löhnhardt
Entwicklung eines webbasierten Bibliothekssystems
supervised by Dr. Michael Ebner
Durch diese Arbeit ist eine Web-Anwendung entstanden, die das Verwalten von Büchern ermöglicht. Bücher können in das System integriert und Ausleihvorgänge abgebildet werden. Über Statistik- und Kontrollmechanismen ist es dem Betreiber der Web-Anwendung jederzeit möglich, einen Überblick über den Buchbestand und den Aufenthaltsort jedes Buches zu erhalten. Die Möglichkeit der Literaturrecherche erlaubt es, den Buchbestand webbasiert über das Internet zu durchsuchen. Weiterhin wurde ein Web Service mit zwei Funktionen und ein Beispiel für einen möglichen Web Service-Client erstellt. Der Web Service-Server ermöglicht es, von einem verteilten Rechner aus die Literaturrecherche durchzuführen oder Details eines bestimmten Buches zu erhalten. Die Beschreibung der Funktionen des Web Service erfolgt durch eine WSDL-Datei.
Abstract B. Sc. (Deutsch)