Jump label

Service navigation

Main navigation

You are here:

Main content

Completed Bachelor, Master, and Diploma Theses in 2014

  • Energieeffiziente Software (Philipp Krause)
    Energy efficiency takes more and more a greater significance in many branches of industry, especially in the field of microprocessors in computer systems in which it is not only a matter of increasing energy costs. Due to the small scale of microprocessors (ca. 4x4cm) and the fact that energy gets lost in the form of heat, heat dissipation plays a vital role. A good performance is needed, especially in the field of DataBase Management Systems (DBMS), where lots of servers are deployed in order to accomplish all user requests in time. Here in particular, a lot of energy can be saved by more efficiency in the field of software and hardware. This thesis is focused on the software side, or more precisely on hash-join algorithms, which play an important role in many DBMS. In this thesis, two different approaches of hash-join algorithms are analysed concerning their energy consumption.
  • Modellierung von Betriebsdaten als Planungsgrundlage in der Logistik (Tim Lutz)
    Jegliche Form der logistischen Planung benötigt Daten, auf deren Grundlage Entscheidungen getroffen werden. Häufig sind diese Daten jedoch nicht strukturiert und mit Fehlern behaftet. Dies liegt insbesondere an der heterogenen Struktur der verfügbaren Softwaresysteme, welche zur Datenhaltung eingesetzt werden. Im Rahmen dieser Arbeit wird ein Datenmodell entwickelt, welches die Daten eines Warehouse Managementsystems einheitlich abbildet und miteinander in Relation setzt. Das Modell ist flexibel aufgebaut, sodass nachträgliche Änderungen und Erweiterungen möglich sind.
  • Protokollierung dynamisch generierter Internetseiten zur Analyse des Benutzerverhaltens (Sebastian Tkaczuk)
    Im Rahmen dieser Bachelorarbeit wird ein Verfahren entwickelt, um den Zusammenhang zwischen regelbasiert zusammengestellten Seiten einer Website und wiederverwendbaren Dokumenten zu protokollieren. Ein Dokument ist für diese Bachelorarbeit als ein Seitenbaustein, wie beispielsweise ein Artikel oder auch ein Bild mit Beschreibung, definiert. Seiten setzen sich aus verschiedenen Dokumenten zusammen. Ein Dokument kann auf mehreren Seiten gleichzeitig verwendet werden. Dabei erfolgt die Auswahl der Dokumente oft regelbasiert anhand von Kriterien, wie beispielsweise der Lokalität des Benutzers, der Aktualität der Dokumente oder auch der Art des verwendeten Endgerätes. Die Relevanz der Protokollierung ergibt sich aus der Fragestellung von Redakteureen bei einem Dokument bzw. Seitenbaustein, wo, in welchem Kontext und wie oft das Dokument verwendet wurde. Aktuelle Web-Analyse-Systeme, wie beispielsweise Google Analytics oder Piwik, protokollieren den Aufruf einzelner Seiten und können basierend auf diesen Daten Klickpfade aufzeigen. Sie protokollieren allerdings nicht, welche Inhalte, bzw. welche konkreten Dokumente bei einem Aufruf auf einer Seite angezeigt wurden. Mittels der Informationen, welche Dokumente in welchem Kontext wie oft angezeigt bzw. ausgewählt wurden, ist es Redakteuren im Anschluss möglich, das Benutzerverhalten auf der Internetseite zu analysieren und schlussendlich die Vermarktung von Informationen und Produkten gezielt zu optimieren. Umgesetzt werden soll dieser Bachelorarbeit mittels einer eigenständigen Datenerhebung in Form eines praktischen Versuchs im Government Site Builder (ein in der Praxis eingesetztes dokumentenbasierendes Content Management System) und mittels einer Erweiterung von Piwik (eine Open Source Web-Analyse-Software ähnliche Google Analytics, die auf eigenen Servern betrieben werden kann). Hierbei werden in einem ersten Schritt die Zusammenhänge zwischen einzelnen Seiten und den darauf angezeigten Dokumenten im GSB protokolliert. Diese Daten werden anschließend an Piwik übergeben. Hier gilt es eine Auswertungsmöglichkeit zu schaffen, die es erlaubt, Auswertungsdaten von Piwik, die bisher "nur" für eine Seite möglich sind, auf die Ebene eines einzelnen Dokumentes herunter zu brechen. Damit kann anschließend eine Aussage darüber getroffen werden, an welchen Stellen, in welchen Kontexten und wie häufig ein bestimmtes Dokument angezeigt bzw. aufgerufen wurde.
  • Schnittmengenberechnung auf Moderner Hardware (Benchmarking) (Fabian Schulte)
    Um aus größeren Datenmengen Informationen zu extrahieren, werden an Datenbanken Anfragen gestellt. Dabei ist die Berechnung von Schnittmengen eine zentrale Operation. Dieser Bachelorarbeit fällt die Aufgabe zu, einen Benchmark zu entwickeln, der eine Evaluation der verschiedenene Verfahren zur Schnittmengenberechnung ermöglicht. In einer parallelen Bachelorarbeit werden verschiedene Verfahren zur Schnittmengenberechnung konkret implementiert.
  • Schnittmengenberechnung auf Moderner Hardware (Implementierungstechniken) (Carsten Schulte)
    Datenbanken speichern und verwalten eine große Menge an Daten. Eine elementare Operation stellt dabei die Berechnung der Schnittmenge dar. Die Berechnung der Schnittmenge wird von den Daten und der Hardware beeinflusst. Unterschiedliche Hardwarecharakteristika führen zu unterschiedlichen Algorithmen zur effizienten Bewältigung der Aufgaben. Ziel der Arbeit ist es, bestehende Algorithmen möglichst hardware-effizient zu implementieren und diese anschließend zu evaluieren.
  • Synchronization in B-trees for Main Memory Databases (Patrick Westerhoff)
    This thesis looks at in-memory B+-trees from a modern hardware perspective. Starting with a standard single-threaded implementation, the base structure is evaluated on modern hardware with different optimization approaches to further improve the performance and investigate the behavior on current hardware. Ultimately, the implementation is expanded for a concurrent environment utilizing a custom synchronization strategy. Finally, the developed thread-safe structure is evaluated in a concurrent workload.