Hauptinhalt
Topinformationen
Oberseminar Informatik Wintersemester 2014
Das Oberseminar Informatik (mittwochs, 08:30 Uhr, 31/E05) ist ein Forum zum wissenschaftlichen Austausch von Dozenten, Doktoranden und Studierenden. Vorgetragen werden Konzepte bzw. Ergebnisse von Bachelor-, Master-, Diplom- und Promotionsarbeiten sowie aktuelle Forschung aus den Arbeitsgruppen der Informatik (KO=Kombinatorische Optimierung, MI=Medieninformatik, SE=Software Engineering, TH=Theoretische Informatik, TI=Technische Informatik, VS=Verteilte Systeme, WB=Wissensbasierte Systeme, )
Information für Studierende: Die Veranstaltung wird als Seminar klassifiziert. Ein Scheinerwerb ist nicht möglich. Für Bachelor- und Masterstudenten und Doktoranden sind Vorträge im OSI als Teil der Abschlussarbeit verpflichtend. Hinweise zur Vortragsgestaltung gibt der Betreuer. Üblich sind ca. 30 Minuten Vortrag und 15 Minuten Diskussion.
Termin | Vortragende(r) | AG | Typ | Thema und Abstract |
12.11.2014 | Arnold Kopf | MI | BSC | FoundationDB im Leistungsvergleich mit MySQL NoSQL Datenbanken sind seit einigen Jahren auf dem Vormarsch. FoundationDB ist eine davon, aber welche Vorteile bringt sie mit und zu welchen Kosten? Ein Leistungsvergleich mit einem der beliebtesten relationalen Datenbankmanagementsysteme (RDBMS) MySQL soll dieser Frage auf den Grund gehen. |
12.11.2014 | Denis Meyer | MI | MSC | Entwurf und Implementation eines modularen, multi-stream-fähigen, web-basierten HTML5-Video-Players für Opencast MatterhornZiel der Masterarbeit ist die Konzeption und Umsetzung eines modularen HTML5-Players für Opencast Matterhorn. In einer Anforderungsanalyse werden Probleme des alten Players und eingesetzte Techniken diskutiert. Anschließend werden diverse Lösungsmöglichkeiten bewertet und die Integration der Neuentwicklung vorgestellt. Anhand eines standardisierten Tests wird abschließend eine Evaluation durchgeführt und die Ergebnisse werden verglichen. |
26.11.2014 | Christian Flothmann | MI | MSC | Experience API-Bibliotheken für PHP Die Experience API (xAPI) ist eine Schnittstelle zum Austausch von Lernerfahrungsdaten zwischen Lernmodulen bzw. Lernmanagementsystemen (LMS) einerseits und Systemen, die diese Daten speichern (sogenannten Learning Record Stores) andererseits. Ausgehend von der Anforderung, das LMS Stud.IP um xAPI-Funktionalitäten zu erweitern, sollen eigenständige Bibliotheken entwickelt werden, die die Implementation von xAPI-Clients und -Servern in PHP vereinfachen. |
26.11.2014 | Tilo Wiedera | TH | MSC | Extracting Proofs for Crossing Numbers The crossing number problem may be defined as follows: Given a graph G, which is the lowest number of edge crossings of a drawing of G into the plane. Computing the crossing number is known to be NP-hard. The problem is commonly encountered during automated graph drawing, chip design, and in graph theory. In this thesis, we will show how to systematically extract a proof for the crossing number of any given graph from an existing approach of Markus Chimani. Since the existing algorithm is based on a linear program and makes extensive use of branching, cutting, and pricing, it can not be used to directly deduce any sort of proof. Instead, we will develop a standalone application that investigates the output of the algorithm to confirm the crossing number. |
03.12.2014 | Michael Görner | WB | MSC | Autonomes Entdecken und Konzeptualisieren von Objekten Eine der grundlegenden Eigenschaften kognitiver Agenten ist die Fähigkeit, selbstständig mentale Repräsentationen beliebiger Objekte zu konstruieren, die in der Umgebung wahrgenommen werden, diese Objekte wiederzuerkennen und mit ihren beobachteten Einsatzzwecken zu assoziieren. In der Robotik wird Objekterkennung hingegen derzeit weitläufig als überwachtes maschinelles Lernproblem aufgefasst, für das viele Wahrnehmungen der zu klassifizierenden Objekte von Hand gelabelt werden müssen. Diese Praxis ist außerhalb von Laborbedingungen allerdings nicht praktikabel. In dieser Arbeit werden Softwaremodule implementiert, die einem autonomen Roboter ermöglichen Objekte auf Tischoberflächen zu finden, geometrische Modelle dieser Objekten zu konstruieren und diese bzw. ähnliche Objekte in neuen Wahrnehmungen später diesem Modell zuzuordnen. |
03.12.2014 | Henning Deeken | WB | MSC | Enabling Spatial Databases for Semantic Mapping With improving techniques in semantic mapping it becomes relevant to persistently store the gathered geometric and semantic information about the environment and continuously integrate new data. Using spatial databases to maintain a spatial environment model can be vital in the creation of semantic maps, because their spatial indexing allows for efficient lookup of geometric entities across large datasets. Another advantage is that spatial relations, like above, overlaps, etc., can directly be used in the retrieval queries. However, current state-of-the-art spatial databases, like PostGIS, are focused on 2D data and allow little 3D functionality beyond storage of 3D data. This thesis describes how spatial databases can be extended to feature 3D spatial reasoning which makes them applicable in an robotics context. It will be shown how the resulting framework is used to manage the spatial layer of a semantic map and how suitable target objects can be identified, which is helpful in a multitude of robotic tasks. |
10.12.2014 | Sebastian Höffner | WB | BSC | Probabilistic Robot Localization in Continuous 3D Maps Robot localization in 3D environments is an important topic in mobile robotics. Traditional approaches just deal with 2D maps, but many mobile robots operate in our normal 3D space. To be able to locate a robot in a continuous 3D map (represented by meshes), the Augmented Monte Carlo Localization can be extended to higher dimensions. |
17.12.2014 | Dominik Feldschnieders | WB | MSC | 3D Packstückvolumenvermessung mit dem Microsoft Kinect V2 Sensor Ein großer Teil der Dienstleistung des Unternehmens Hellmann Worldwide Logistics umfasst die Stückgut-Spedition. Die Abrechnung erfolgt aktuell häufig über das Gewicht des Packstücks. Im Stückgut-Prozess ist allerdings das Volumen eines Packstücks häufiger der Kostentreiber als das Gewicht. Um das Volumen eines Packstücks zu bestimmen, werden die maximal Abmessungen des Packstücks in jeder Dimension benötigt. Heute wird auf dem U-Lager größtenteils per Zollstock vermessen. Für diesen Prozess soll eine automatisierte Vermessungsstation mit Hilfe des Kinect V2 Sensors aufgebaut werden. Es gibt bereits kommerzielle Lösungen mit anderen Sensoren. Diese sind jedoch aufgrund der hohen Anschaffungskosten für einen breiten Einsatz zu kostspielig. In dieser Arbeit wird ein Prototyp eines Systems zur automatisierten Packstückvolumenvermessung implementiert, aufgebaut und evaluiert, ob diese Aufgabenstellung mit dem Microsoft Kinect V2 Sensor ausreichend gelöst werden kann. |
07.01.2015 | Miriam Beutel | MI | BSC | Entwicklung einer Webapplikation zur kollaborativen Erstellung und Auswertung von Testdatensets für die Stimmungsanalyse von Tweets Es gibt viele Interessenten an einer Analyse der Stimmung in Sozialen Netzwerken, in welchen zur heutigen Zeit viele Menschen öffentlich ihre Meinung äußern. Dies ist mit einer Stimmungsanalyse von Tweets automatisiert möglich, indem diese selbstständig in Stimmungskategorien, sogenannte Labels, eingeordnet werden. Je genauer die Bewertungen des automatisierten Labelers mit denen menschlicher Labeler übereinstimmen, desto höher ist die Qualität des Programms. Um dies zu erreichen, werden Testdatensets benötigt, welche aus Tweets bestehen, die bereits von Menschen mit einem der möglichen Klassenlabels bewertet wurden. Um statistisch sinnvolle Ergebnisse zu erhalten, geschieht dies idealerweise nicht nur durch eine Person, sondern durch möglichst viele. In ein Datenset gelangen dann nur diejenigen gelabelten Tweets, bei denen die Bewertungen aller Personen zu einem gewissen Grad übereinstimmen. Im Rahmen dieser Arbeit wird mit agilen Entwicklungsmethoden eine Webapplikation entworfen und umgesetzt, welche die kollaborative Erstellung von Datensets der beschriebenen Art für den Labeler möglichst intuitiv gestaltet und die Sichtung der Eckdaten, sowie die Verwaltung der Datensets für den Administrator übersichtlich und simpel hält. |
14.01.2015 | Matthias Bultmann | KO | BSC | Synchrone Flow-Shop-Probleme mit Job-Splitting Das synchrone Flow-Shop-Problem mit Job-Splitting ist ein Produktionsplanungsproblem, bei dem alle Jobs auf den Maschinen gleichzeitig zur nächsten Maschine transportiert werden. Im Gegensatz zum klassischen synchronen Flow-Shop sind jedoch die Prozesszeiten der Jobs auf den Maschinen nicht fest vorgegeben, sondern dürfen durch Aufteilen (Splitting) zwischen den Maschinen gewählt werden. Es ist dabei ein Splitting zusammen mit einer Reihenfolge so zu wählen, dass die Zeitspanne zwischen Start des ersten Jobs bis zum Ende des letzten Jobs minimal ist |
21.01.2015 | Maria Seidens | TH | BSC | Labeling in energiebasierten Graphenzeichnungen Energiebasierte Methoden zum Zeichen von Graphen werden häufig verwendet, da sie flexibel und einfach zu implementieren sind. Sie basieren auf der Idee eines Graphen als mechanisches Model, bei denen zwischen je zwei Knoten abstoßende und zwischen adjazenten Knoten anziehende Kräfte berechnet werden. Dabei wird versucht, zwischen den Kräften ein Gleichgewicht herzustellen. Um die Elemente solcher Zeichnungen mittels Text zu kennzeichnen oder zu erläutern, werden Label eingesetzt. In dieser Arbeit sollen energiebasierte Algorithmen so erweitert werden, dass Elemente des Graphen schnell gelabelt werden können, ohne dabei wichtige ästhetische Kriterien zu vernachlässigen. |
21.01.2015 | Felix Igelbrink | TI | MSC | Inkrementelle nichtlineare Dimensionsreduktion für lernfähige Funktionsapproximatoren Viele inkrementelle Regressionsprobleme sind heute aufgrund ihrer hohen Dimensionalität nur mit großem Rechen- und Speicheraufwand sowie einem hohen Bedarf an Trainingdaten verbunden. Solchen Problemen liegt jedoch häufig eine niedrigdimensionalere innere Struktur zugrunde. Diese Arbeit hat das Ziel mittels Techniken der nichtlinearen Dimensionsreduktion die Komplexität der zugrunde liegenden Regressionsprobleme durch Lernen auf inkrementell eingehenden Daten und unter Ausnutzen dieser inneren Struktur zu verringern. Dazu wird ein auf Selbstorganisierenden Karten (Self-Organizing Maps - SOM) basierender Algorithmus entwickelt, analytisch evaluiert und anhand synthetischer und realer Daten mit bestehenden Methoden verglichen. |
28.01.2015 | Daisy-Julia Thie | SE | MSC | Usability-Engineering und Verwaltung sicherheitskritischer Daten im Rahmen eines webbasierten und mobilen Systems Es soll ein Kalender- bzw. Organisationsprogramm für eine Hebammenpraxis entwickelt werden, das Terminplanung, Kursplanung sowie Abrechnungshilfen bereit stellt. Das Programm soll sowohl auf einem Desktop-PC als auch als App auf dem Handy nutzbar sein. Die Daten werden online in einer Datenbank gespeichert. Dabei sollen die Aspekte IT-Sicherheit, insbesondere der Umgang mit personenbezogenen Daten, und Usability-Engineering, also menschzentrierte Entwicklung, im Vordergrund stehen. |
04.02.2015 |
Malte Gegner | MI | BSC | Entwicklung einer App zur intelligenten Datenverwaltung auf mobilen Endgeräten mit dem Titanium Appcelerator Framework Das Titanium Appcelerator Framework bietet einen Editor zur Entwicklung hybrider Apps mit Schnittstellen für die nativen Sprachen und Besonderheiten verschiedener Betriebssysteme. Ausgehend von einer bestehenden iOS-App soll eine leicht bedienbare App entwickelt werden, die zentral gehaltene Daten einer Telefongesellschaft mit den Mobilgeräten von Mitarbeitern im Außendienst intelligent verwalten kann. Die Mitarbeiter werden zu Wartungsarbeiten zu den Kunden geschickt und sollen keine unnötigen Rückfahrten zur Zentrale machen müssen. Die App übernimmt dabei selbstständig die Übertragung relevanter Daten zur zentralen Datenbank und bietet ein neues Userinterface, das die Vorteile von mobilen Geräten gegenüber stationären Rechnern nutzt. |
04.02.2015 | Florian Otte | WB | MSC | Robust Edge-based 3D-Features to aid Scan Registration 3D data are everywhere and pointclouds provide a useful virtual representation of real world physical objects. However using modern sensors it is not always possible to generate a complete cover of an object. Multiple records are often necessary. These records must be merged to yield a useful representation. Fast and accurate merging of pointclouds is the goal of the underlying thesis. This goal shall be realized using points which exhibit special characteristics, called features. |