Navigation

Datenbanksysteme

Datenbanksysteme ermöglichen eine effiziente Verwaltung strukturierter Daten. Beim Umgang mit zeitbehafteten, nach und nach eintreffenden Datensätzen, auf die sehr schnell reagiert werden muss, stoßen sie jedoch an ihre Grenzen.

Projekte:

"Sie sollten Ihre Anfragen kennen!" - so könnte man den englischen (kürzeren) Titel des Projekts übersetzen.  Es geht darum, nicht einfach eine Datenbank haben zu wollen, sondern sich zuerst auch einmal Gedanken darüber zu machen, was man aus dieser Datenbank dann an Auswertungen (die sich in Anfragen hinschreiben lassen) eigentlich haben möchte. Mit der Erstellung einer Datenbank ist eine Menge Arbeit verbunden, nicht nur mit der Einrichtung der Software auf einem Rechner, sondern vor allem auch mit der Erfassung der ganzen Daten. Dieser Aufwand sollte zielgerichtet erbracht werden. Das Projekt wird also Anfragen sammeln, die zum Teil dann sogar automatisch in einen Datenbank-Entwurf überführt werden können. Das spart zum einen Ressourcen, unterstützt zum anderen aber auch das wichtige Datenschutz-Ziel der sog. Datensparsamkeit.

Mehr Informationen

Die Welt der Datenverwaltungssysteme ist in den letzten Jahren sehr viel unübersichtlicher geworden. Neben die gut etablierten Relationalen Datenbanksysteme sind sog. NoSQL-Systeme getreten, die vorgeben, mit viel größeren Datenmengen umgehen zu können, die zugleich aber weniger Funktionen zum effizienten Zugriff auf die Daten anbieten und auch weniger Konsistenzgarantien abgeben. Damit stellt sich die Frage, wann man bei einer Relationalen Datenbank bleiben und wann man auf ein NoSQL-System übergehen sollte.  Vor dieser Frage stehen immer mehr Organisationen. Dieses Projekt sammelt die Kriterien, nach denen man eine solche Entscheidung begründet treffen kann - und sollte.

Mehr Informationen

Das Teilprojekt des Lehrstuhls im Rahmen des EFRE-Projekts E|ASY-Opt befasst sich mit der Speicherung von großen Datenbeständen ("Big Data"), wie sie heute in Fertigungsprozessen anfallen. Diese Daten geben Auskunft über die Eigenschaften von Produkten wie auch von Fertigungsmaschinen, und es wird angenommen, dass sich daraus wertvolle Aussagen gewinnen lassen, etwa mit statistischen Verfahren oder mit Data Mining. Dazu müssen die Daten so gespeichert werden, dass sie sich mit vertretbarem Aufwand wieder auslesen lassen. Die Form der Speicherung muss deshalb an die Art der Zugriffe angepasst werden. Mit dieser Aufgabe befasst sich das Teilprojekt.

Mehr Informationen

Ziel dieses Projekts ist es, neuartige Hardware und Optimierungstechniken für die skalierbare, leistungsfähige Verarbeitung von Big Data bereitzustellen. Wir zielen insbesondere auf große Datenmengen mit flexiblen Schemata (zeilenorientierte, spaltenorientierte, dokumentenorientierte, irreguläre und/oder nicht-indexierte Daten) sowie auf Datenströme, wie sie in der Klick-Strom-Analyse, in Unternehmensquellen wie E-Mails, Software-Logs und Diskussionsforums-Archiven sowie in Sensoren im Internet of Things (IoT) und in Industrie 4.0 zu finden sind. In diesem Bereich untersucht das Projekt das Potenzial Hardware-konfigurierbarer, FPGA-basierter Systems-on-Chip (SoCs) für die Daten-nahe Verarbeitung, bei der Berechnungen direkt bei den Datenquellen stattfinden. Basierend auf FPGA-Technologie und insbesondere deren dynamischer Rekonfiguration schlagen wir eine generische Architektur mit dem Namen ReProVide für die kostengünstige Verarbeitung von Datenbankanfragen vor.

Mehr Informationen

Beteiligte Wissenschaftler: