Big Data: Große Datenmengen effizient verarbeiten

Mit parallelen Rechenoperationen zur Datenanalyse neue Informationen gewinnen

Mit der wachsenden Verbreitung von Sensoren und der Vernetzung von Anlagen mit komplexen Softwaresystemen steigt die Datenflut in der Produktion. Schon die bloße Aufzeichnung und strukturierte Ablage solch großer Datenmengen sind mit erheblichem Aufwand verbunden. An die Stelle der erhofften Transparenz treten damit zunächst oft eher chaotische Verhältnisse. Erst eine strukturierte Datenverarbeitung bietet die Voraussetzungen, um wirklich relevante Informationen zu extrahieren und Wissen zu gewinnen. Das Fraunhofer IPT erarbeitet deshalb effiziente Konzepte zur schnellen Datenverarbeitung und -auswertung und überführt diese in echtzeitfähige Anwendungen.

Adaptive optische Systeme für die High-Speed-Mikroskopie sind hier ein gutes Beispiel: Sie eignen sich dafür, in kurzer Zeit relevante Informationen aus umfangreichen Messdaten zu ermitteln. Zur Verarbeitung der großen Datenmengen setzt das Fraunhofer IPT auf die Parallelisierung von Rechenoperationen. Für die Auswertung der Mikroskopiedaten werden dabei die schnellen Prozessoren der Grafikkarte anstelle der Hauptprozessoren herangezogen.

Die Grafikprozessoren können eine Vielzahl von Berechnungen parallel  und voneinander unabhängig durchführen. So lassen sich auch große Datenmengen, wie sie bei der Wellenfrontmesstechnik aufgezeichnet werden, in Echtzeit auswerten. Störungen in der Abbildung werden durch adaptive Optiken direkt kompensiert, indem die Abweichungen analysiert und in konkrete Aktoranweisungen umgewandelt werden. Auf diese Weise entstehen beispielsweise Mikroskopie-Systeme, die sich selbst im laufenden Betrieb korrekt adaptieren.

Weitere Anwendungsfelder für solche umfangreichen Berechnungen sind beispielsweise die Signalverarbeitung in der optischen Kohärenztomographie (OCT) oder der sogenannte »Pyramidal View« zur Ansicht und Analyse großer Bilddaten.