Navigation

Datenbanksysteme

Datenbanksysteme ermöglichen eine effiziente Verwaltung strukturierter Daten. Beim Umgang mit zeitbehafteten, nach und nach eintreffenden Datensätzen, auf die sehr schnell reagiert werden muss, stoßen sie jedoch an ihre Grenzen.

Projekte:

"Sie sollten Ihre Anfragen kennen!" - so könnte man den englischen (kürzeren) Titel des Projekts übersetzen.  Es geht darum, nicht einfach eine Datenbank haben zu wollen, sondern sich zuerst auch einmal Gedanken darüber zu machen, was man aus dieser Datenbank dann an Auswertungen (die sich in Anfragen hinschreiben lassen) eigentlich haben möchte. Mit der Erstellung einer Datenbank ist eine Menge Arbeit verbunden, nicht nur mit der Einrichtung der Software auf einem Rechner, sondern vor allem auch mit der Erfassung der ganzen Daten. Dieser Aufwand sollte zielgerichtet erbracht werden. Das Projekt wird also Anfragen sammeln, die zum Teil dann sogar automatisch in einen Datenbank-Entwurf überführt werden können. Das spart zum einen Ressourcen, unterstützt zum anderen aber auch das wichtige Datenschutz-Ziel der sog. Datensparsamkeit.

Mehr Informationen

Die Welt der Datenverwaltungssysteme ist in den letzten Jahren sehr viel unübersichtlicher geworden. Neben die gut etablierten Relationalen Datenbanksysteme sind sog. NoSQL-Systeme getreten, die vorgeben, mit viel größeren Datenmengen umgehen zu können, die zugleich aber weniger Funktionen zum effizienten Zugriff auf die Daten anbieten und auch weniger Konsistenzgarantien abgeben. Damit stellt sich die Frage, wann man bei einer Relationalen Datenbank bleiben und wann man auf ein NoSQL-System übergehen sollte.  Vor dieser Frage stehen immer mehr Organisationen. Dieses Projekt sammelt die Kriterien, nach denen man eine solche Entscheidung begründet treffen kann - und sollte.

Mehr Informationen

Im Rahmen des EFRE-E|ASY-Opt Teilprojektes wird das Potential von Data Mining Methoden im Bereich der Fertigung des produzierenden Gewerbes untersucht. Speziell das Trainieren von Deep-Learning Modellen stellt eine rechenintensive Aufgabe dar, welche mitunter Stunden bis mehrere Tage in Anspruch nehmen kann. Die Trainingszeit kann durch die Verwendung eines bereits trainierten Modells erheblich verkürzt werden, sofern die Ziel und Quellaufgabe in engen Zusammenhang zueinander stehen. Dieser Zusammenhang wird aktuell noch nicht vollumfänglich verstanden.

Das Ziel dieses Forschungsprojektes ist die Umsetzung eines Systems namens REAPER (Reusable Neural Network Pattern Repository), um Data Scientists bei der Speicherung und Wiederverwendung von bereits trainierten Deep-Learning Modellen zu unterstützen.

Mehr Informationen

Ziel dieses Projekts ist es, neuartige Hardware und Optimierungstechniken für die skalierbare, leistungsfähige Verarbeitung von Big Data bereitzustellen. Wir zielen insbesondere auf große Datenmengen mit flexiblen Schemata (zeilenorientierte, spaltenorientierte, dokumentenorientierte, irreguläre und/oder nicht-indexierte Daten) sowie auf Datenströme, wie sie in der Klick-Strom-Analyse, in Unternehmensquellen wie E-Mails, Software-Logs und Diskussionsforums-Archiven sowie in Sensoren im Internet of Things (IoT) und in Industrie 4.0 zu finden sind. In diesem Bereich untersucht das Projekt das Potenzial Hardware-konfigurierbarer, FPGA-basierter Systems-on-Chip (SoCs) für die Daten-nahe Verarbeitung, bei der Berechnungen direkt bei den Datenquellen stattfinden. Basierend auf FPGA-Technologie und insbesondere deren dynamischer Rekonfiguration schlagen wir eine generische Architektur mit dem Namen ReProVide für die kostengünstige Verarbeitung von Datenbankanfragen vor.

Mehr Informationen

Kontaktpersonen:

Beteiligte Wissenschaftler: