• Navigation überspringen
  • Zur Navigation
  • Zum Seitenende
Organisationsmenü öffnen Organisationsmenü schließen
Lehrstuhl für Informatik 6
  • FAUZur zentralen FAU Website
  1. Friedrich-Alexander-Universität
  2. Technische Fakultät
  3. Department Informatik
  • en
  • de
  • Kontakt
  • Impressum
  • Datenschutz
  • Barrierefreiheit
  1. Friedrich-Alexander-Universität
  2. Technische Fakultät
  3. Department Informatik

Lehrstuhl für Informatik 6

Menu Menu schließen
  • Lehrstuhl
    • Aktuelles
    • Über uns
    • Personen
    • Kontakt
    Hauptseite Lehrstuhl
  • Forschung
    • Evolutionäre Informationssysteme
      • Sprechaktbasiertes Fallmanagement
      • Open and Collaborative Query-Driven Analytics
      • Processing Heterogeneous Assets and Resources to discover Ontologies and Semantics
      • Schemainferenz und maschinelles Lernen
    • Datenqualität
      • DQ-Step – Improvement of data quality at a reference enterprise in plant engineering
      • Datenqualität und Innovationsfähigkeit von Medizinprodukten
    • Datenintegration
      • DQ-Step – Improvement of data quality at a reference enterprise in plant engineering
      • Open and Collaborative Query-Driven Analytics
      • Processing Heterogeneous Assets and Resources to discover Ontologies and Semantics
      • Schemainferenz und maschinelles Lernen
    • Prozessmanagement
      • Sprechaktbasiertes Fallmanagement
    • Datenbanksysteme
      • REAPER: A Framework for Materializing and Reusing Deep-Learning Models
      • Know Your Queries!
      • Bewertung von Datenspeichersystemen
      • Anfrageoptimierung und Daten-nahe Verarbeitung auf Rekonfigurierbaren SoCs für Big-Data-Analyse
      • Query-Optimierung und Near-Data-Processing auf rekonfigurierbaren SoCs für Big Data Analyse (Phase II)
      • Schemainferenz und maschinelles Lernen
      • Architektur von Nicht-Multiplen Autoencodern mit Nicht-Verlustbehafteter Informations-Agglomeration (Arbeitstitel, noch vorläufig)
      • Data Stream Application Manager
    • Datenstromsysteme
      • Data Stream Application Manager
      • Systemübergreifende Optimierung von Datenstromanfragen
    • Datenmanagement in den Digital Humanities
      • Franken in historischen Reiseberichten
      • Campusnetzwerk Digitale Geistes- und Sozialwissenschaften
    • Moderne Datenbanksysteme
    • Abgeschlossene Forschungsprojekte
    • Veröffentlichungen
    Hauptseite Forschung
  • Lehre
    • Lehrveranstaltungen
    • Curriculum
    • Examensarbeiten
    • Prüfungsinformationen
    Hauptseite Lehre
  1. Startseite
  2. Forschung
  3. Datenqualität
  4. Datenqualität und Innovationsfähigkeit von Medizinprodukten

Datenqualität und Innovationsfähigkeit von Medizinprodukten

Bereichsnavigation: Forschung
  • Abgeschlossene Forschungsprojekte
    • BPM 2016
    • BPM 2017
    • Forschungsprojekte von Prof. Meyer-Wegener an der TU Dresden
  • Veröffentlichungen
  • Evolutionäre Informationssysteme
    • Sprechaktbasiertes Fallmanagement
    • Open and Collaborative Query-Driven Analytics
    • Processing Heterogeneous Assets and Resources to discover Ontologies and Semantics
    • Schemainferenz und maschinelles Lernen
  • Datenqualität
    • DQ-Step – Improvement of data quality at a reference enterprise in plant engineering
    • Datenqualität und Innovationsfähigkeit von Medizinprodukten
  • Datenintegration
    • DQ-Step – Improvement of data quality at a reference enterprise in plant engineering
    • Open and Collaborative Query-Driven Analytics
    • Processing Heterogeneous Assets and Resources to discover Ontologies and Semantics
    • Schemainferenz und maschinelles Lernen
  • Prozessmanagement
    • Sprechaktbasiertes Fallmanagement
  • Datenbanksysteme
    • REAPER: A Framework for Materializing and Reusing Deep-Learning Models
    • Data Stream Application Manager
    • Know Your Queries!
    • Bewertung von Datenspeichersystemen
    • Anfrageoptimierung und Daten-nahe Verarbeitung auf Rekonfigurierbaren SoCs für Big-Data-Analyse
    • Query-Optimierung und Near-Data-Processing auf rekonfigurierbaren SoCs für Big Data Analyse (Phase II)
    • Schemainferenz und maschinelles Lernen
    • Architektur von Nicht-Multiplen Autoencodern mit Nicht-Verlustbehafteter Informations-Agglomeration (Arbeitstitel, noch vorläufig)
  • Datenstromsysteme
    • Data Stream Application Manager
    • Systemübergreifende Optimierung von Datenstromanfragen
  • Datenmanagement in den Digital Humanities
    • Franken in historischen Reiseberichten
    • Campusnetzwerk Digitale Geistes- und Sozialwissenschaften
  • Moderne Datenbanksysteme

Datenqualität und Innovationsfähigkeit von Medizinprodukten

Datenqualität und Innovationsfähigkeit von Medizinprodukten

(Drittmittelfinanzierte Gruppenförderung – Teilprojekt)

Titel des Gesamtprojektes: Spitzencluster Medical Valley, Verbund Horizontale Innovationen zur Produkt- und Prozessoptimierung
Projektleitung: Richard Lenz
Projektbeteiligte: Kurt Emmerich Höller
Projektstart: 1. November 2011
Projektende: 31. Dezember 2013
Akronym: H-04
Mittelgeber: BMBF / Spitzencluster
URL:

Abstract

The integration of medical products into the actual workflows and working processes of a productive environment is a difficult, time-consuming and cost-intensive task for both manufacturers and operators. Despite the standardization of DICOM and HL7, the integration of software components and medical products into a hospital information system still represents a huge task, owing to a lack of appropriate validation environments. The objective of this project is to create a generic test environment for medical products and a method of systematic generation of appropriate test data. The scientific aim is to improve methods for integrating data-processing components into the specific context of an information system. A further important goal is to come up with methods of optimizing data quality in information systems, as well as find methods of dealing with poor quality data. With the aid of models of the target environment, the aim is to improve the requirements profile for components in the pre-development stage. With better, more realistic test data being derived from the models, the result should be improved component integration capability. At the same time, the models should help to identify inadequate data quality in the target environment at an early stage, thus enabling targeted integration preparation.

Publikationen

  • Held J., Lenz R.:
    Towards measuring test data quality
    EDBT/ICDT 2012 Joint Conference (, 26. März 2012 - 30. März 2012)
    In: Proceedings of the 2012 Joint EDBT/ICDT Workshops 2012
    URL: http://dl.acm.org/citation.cfm?id=2320830
    BibTeX: Download
  • Held J., Endler G., Baumgärtel P., Lenz R.:
    Verbesserte Integration von Medizintechnik durch Testdatenqualität
    GMDS 2012 - Was bewegt uns in der/die Zukunft – Neue Lebenswelten in der Informationsgesellschaft (Braunschweig, 16. September 2012 - 21. September 2012)
    In: GMDS 2012 2012
    DOI: 10.3205/12gmds078
    URL: http://www.gmds2012.de/
    BibTeX: Download
Lehrstuhl für Informatik 6 (Datenmanagement)
Friedrich-Alexander-Universität Erlangen-Nürnberg

Martensstraße 3
91058 Erlangen
  • Kontakt
  • Impressum
  • Datenschutz
  • Barrierefreiheit
Nach oben