Digitalisierung als Grundvoraussetzung

Vollständige Vernetzung im Labor

Wie steht es um die Digitalisierung und Vernetzung im Labor?

Die Bedeutung der Digitalisierung und Vernetzung im Labor nimmt in den Lebenswissenschaften immer weiter zu. Dank moderner Technologien gelingt es, Geräte miteinander zu verknüpfen, Daten auszutauschen und Arbeitsabläufe zu automatisieren. Die umfassende Vernetzung erlaubt eine effizientere Überwachung und Steuerung der Laborprozesse. Außerdem trägt sie einer höheren Datenintegrität bei, die mehr Transparenz und Nachvollziehbarkeit schafft und eine durchgängige Qualitätssicherung ermöglicht. 

Digitalisierung und Vernetzung im Labor bieten den Lebenswissenschaften Potenzial für den Einsatz neuer Technologien, wie beispielsweise automatisierte KI-getriebene Screeningverfahren, die in der Biotechnologie die Entwicklung neuer Wirkstoffe beschleunigen kann [1], [2]. Heute herrscht in den meisten Laboren eine vielfältige Geräteausstattung verschiedener Hersteller, die nur begrenzt durch elektronische Unterstützung harmonisiert werden kann. Das Zusammenführen und Kontextualisieren der erzeugten Daten gestaltet sich daher kompliziert, fehleranfällig und zeitaufwändig. Deshalb wird eine Vielzahl der Labortätigkeiten heute immer noch manuell durchgeführt. Anstatt die Daten elektronisch zu integrieren, werden Ergebnisse und Messdaten von den Geräten in Systeme zumeist immer noch manuell übertragen. Doch mit zunehmender Anzahl der manuellen Schritte steigt die Wahrscheinlichkeit von Fehlern in den Daten [1], [2]. Wie aber lässt sich die Laborvernetzung und der Datenaustausch zwischen Laboren, individuellen Geräten und vorhandenen Softwarelösungen praktisch umsetzen?

Abbildung 4: Die vier Stufen der Interoperabilität [1], [3].

Es gibt keine Patentlösung für die Interoperabilität von Systemen und Geräten im Labor

Die einfache Antwort ist, dass die verwendeten Hard- und Softwarekomponenten interoperabel sein müssen. Interoperabilität beschreibt in der Informatik den »Grad, in dem zwei oder mehr Systeme, Produkte und Komponenten Informationen austauschen können und die ausgetauschten Informationen verwenden können« [4]. Allerdings ist genau dieser Informationsaustausch aufgrund der Vielfalt an Assets, Produkten und eingesetzten Systemen im Labor eine echte Herausforderung. Interoperabilität lässt sich in vier aufeinander aufbauende Stufen gliedern, die gemeinsamen mit den wichtigsten Schnittstellen und Kommunikationsprotokollen in Abbildung 4 dargestellt sind [1], [3].

Physikalische Schnittstellen wie USB und Ethernet ermöglichen den reinen Datenaustausch ohne Kenntnis über Format und Bedeutung der Daten (technische Interoperabilität). Sind Geräte syntaktisch interoperabel, tauschen sie sich in einem gemeinsam verständlichen Format aus, zum Beispiel MQTT oder HTTP: 

MQTT (Message Queue Telemetry Transport) ist ein offenes Kommunikationsprotokoll, das für den Austausch von Daten zwischen Maschinen (M2M) entwickelt wurde und häufig im Internet of Things (IoT) eingesetzt wird. Es basiert auf dem Publish-Subscribe-Prinzip und erlaubt eine zuverlässige Übertragung großer Datenmengen in kurzer Zeit [3], [5]. 

Durch Datenmodelle und standardisierte Begriffe wird semantische Interoperabilität erzeugt, bei der die Geräte die Bedeutung der ausgetauschten Daten korrekt interpretieren können. Weiter verbreitete Protokolle sind OPC-UA und SiLA: 

OPC UA (Open Platform Communications Unified Architecture) ist eine plattformunabhängige, serviceorientierte Architektur. Neben verschiedenen Kommunikationsmethoden (Publish/Subscribe und Server/Client) bietet OPC-UA den Zugriff auf Informationsmodelle, die speziell für Laboranwendungen entwickelt wurden und grundlegende Datenaustauschschemata im Laborbereich bereitstellen [3], [6]. 

SiLA (Standardization in Lab Automation) ist eine offene, standardisierte Schnittstelle speziell für die Laborautomatisierung und basiert auf einer Client-Server-Kommunikation. Sie ermöglicht die Gerätesteuerung, den Datenaustausch und die Verwaltung von Statusmeldungen. Durch SiLA können Laborgeräte und Softwaresysteme ihre Dienste in einem Netzwerk bereitstellen. Die SiLA-Features eines Geräts können semantisch beschrieben werden und umfassen die Beschreibung, Eigenschaften, Befehle, Parameter und Rückgabewerte [7]. 

Bei der letzten Stufe – der organisatorischen Interoperabilität – wird der Datenaustausch im Einklang mit Geschäftsregeln, zum Beispiel Zugriffsrechten, ermöglicht. Obwohl es diese unterschiedlichen Ansätze gibt, konnte sich bisher im Laborbereich noch kein Standard weltweit durchsetzen. Die bestehenden Schnittstellen sind proprietär angelegt, teilweise nicht zertifiziert oder ohne moderne Sicherheitsmerkmale. Sie konzentrieren sich stärker auf den Datenaustausch als auf die Steuerung der Laborgeräte. Dadurch sind sie in der Anwendung begrenzt.

Abbildung 5: Einordnung des neuen Standards in das bestehende Laborumfeld [8].

OPC LADS – ein neuer Kommunikationsstandard für das vernetzte Labor

Anfang 2024 wurde ein neuer Kommunikationsstandard veröffentlicht: der Laboratory and Analytical Device Standard (LADS) [9]. Unternehmen aus dem deutschen Industrieverband für Labor-Analysegeräte [8] haben sich mit Anwendern zusammengeschlossen, um diesen neuen Standard zu entwickeln. LADS basiert auf OPC UA und baut so auf bereits langjährig erprobten Technologien und Standards aus anderen Industriezweigen auf. Daher bietet er viele Vorteile für den Einsatz im Labor:

  • OPC UA: Herstellerunabhängiger und bewährter Industriestandard
  • Plattformunabhängigkeit auf Software- und Hardwareebene
  • Security-by-Design
  • Plug-and-Play-Interoperabilität von Labor- und Analysegeräten
  • Abdeckung eines breiten Spektrums verschiedener Labor- und Analysegeräte durch gerätetypunabhängige Designprinzipien

LADS adressiert bisher vor allem Anwendungsfälle aus dem Bereich der Automatisierung und dem Service- und Anlagenmanagement. Der Standard ermöglicht die Fernüberwachung der Messung von physikalischen Eigenschaften, das Setzen von Alarmen und das automatisierte Verschicken von Benachrichtigungen. Durch einzelne Funktionen, die zu komplexeren Programmabläufen zusammengesetzt werden können, lassen sich Geräte steuern. Erfasste Daten und Ergebnisse werden anschließend den umliegenden IT-System zur Weiterverarbeitung bereitgestellt [9].

LADS legt eine Reihe von Eigenschaften wie Gerätename, Kennung, Seriennummer, etc. fest, die Laborgeräte für Erkennungs-, Verwaltungs- und Wartungsaufgaben nachverfolgbar machen. Durch die Erfassung von Betriebszeiten und Wartungsintervallen wird der Gerätezustand überwacht. Informationen zum Gerätestandort werden als geografische oder organisatorische Information hinterlegt, um Wartungen zu vereinfachen und langfristig den Einsatz autonomer Roboter und die Nachverfolgung von Proben zu ermöglichen [9].

Seit Ende 2023 können Hersteller und Entwickler erste Referenzimplementierungen nutzen, um ihre eigenen Produkte zu testen und durch die OPC Foundation zertifizieren zu lassen. Damit rückt eine konsistente und unabhängige Vernetzung zwischen Herstellern, Geräten und Systemen in greifbare Nähe. Durch seine langjährige Erfahrung in der Digitalisierung und Automatisierung von Laborgeräten kann das Fraunhofer IPT Unternehmen schon heute bei der Umsetzung ihrer eigenen Referenzimplementierung unterstützen.

Gemeinsam mit dem Fraunhofer IPT zum digitalen Labor

Der Fokus des Fraunhofer IPT liegt bei der Laborautomatisierung auf der zentralen Steuerung und Überwachung flexibler Laborprozesse. Zu diesem Zweck hat das Fraunhofer IPT die adaptive Steuerungssoftware COPE entwickelt (vgl. Abbildung 7). COPE steht für Control, Optimize, Plan und Execute und beschreibt die vier Schlüsselaufgaben der Software. COPE schlägt die Brücke zwischen Information Technology (IT) und Operational Technology (OT), indem es die direkte Steuerung (Control) von Laborgeräten übernimmt und Prozesse ausführt (Execute). Gleichzeitig nimmt COPE die Produktionsdaten auf und verarbeitet sie, um Produktionsprozesse zu planen (Plan) und kontinuierlich zu optimieren (Optimize). 

COPE und die zuvor beschriebenen Schnittstellen und Protokolle befähigen die Laborgeräte, ihre Daten und Services im Netzwerk bereitzustellen. Gerätespezifische Treiber (sogenannte »cope.agents«) gewährleisten die Interoperabilität und integrieren die Geräte durch einen Plug & Produce-Ansatz herstellerunabhängig. In einer No-Code-Benutzerumgebung können Mitarbeitende des Labors individuelle Prozesse durch Drag & Drop erstellen und ausführen lassen. Es können komplexe Prozessketten mittels IF-Verzweigungen und Schleifen erstellt werden. Prozessübergreifend werden alle relevanten Daten aufgenommen, verarbeitet und in Dashboards dargestellt. Durch die Integration von Optimierungsalgorithmen und Verfahren zur Datenanalyse werden Prozesse und Produkte kontinuierlich verbessert [11], [12].

Das Fraunhofer IPT entwickelt COPE kontinuierlich für Kunden und Partner weiter. Die Software orientiert sich am konkreten Marktbedarf und berücksichtigt die neuesten Konzepte der Industrie 4.0 und des IIoT in der Praxis.

 

Abbildung 6: COPE als zentrale Steuerung im Labor. [10]

Die Potenziale Künstlicher Intelligenz für das Labor der Zukunft

Um die Potenziale Künstlicher Intelligenz (KI) im Labor der Zukunft auszuschöpfen, wird eine qualitativ hochwertige Datenbasis als Ausgangspunkt vorausgesetzt. Die Datenqualität lässt sich nach ISO/IEC 25012 in eine inhärente und eine systemabhängige Datenqualität unterscheiden [13]. 
Die inhärente Datenqualität bestimmt, wie gut die Daten geeignet sind, um den untersuchten Sachverhalt abzubilden. Sie beschreibt also zum Beispiel, ob die Daten in sich konsistent sind, und ob die aufgenommenen Daten lückenlos sind. Die systemabhängige Datenqualität beschreibt, inwiefern ein System dafür geeignet ist, Daten für Untersuchungen bereit zu stellen. Sie beschreibt beispielsweise, wie die Verfügbarkeit des Systems ist und wie gut Datenverlust vorgebeugt wird. Darüber hinaus bestehen einige weitere Kriterien für Datenqualität, die sich zwischen »inhärent« und »systemabhängig« einsortieren lassen, beispielsweise die Vertraulichkeit oder Verständlichkeit der aufgenommenen Daten.

Zusätzlich sind Metadaten für KI-Auswertungen von großer Bedeutung. Metadaten lassen sich als die Summe aller Informationen eines Informationsobjekts beschreiben, also umgangssprachlich als »Daten über die Daten«. Beispielhafte Metadaten wären demnach Dateiname, Erstellungsdatum oder Dateigröße  [14], [15]. Metadaten schaffen somit die Möglichkeit, Daten effizient zu organisieren, zu analysieren und ihre Kontextualisierung sowie Genauigkeit zu verbessern. Zudem können Sie dazu beitragen unerwartete Korrelationen besser zu identifizieren.
Um eine effiziente Datensammlung zu realisieren, eignen sich Ontologien, in denen festgelegt ist, welche Objekte existieren, wie diese zu beschreiben sind, und welche Beziehungen zwischen den Objekten bestehen. Allerdings müssen nicht für jeden Anwendungsfall neue Ontologien erarbeitet werden. Es gibt unterschiedliche Institutionen und Datenbanken, die existierende Ontologien bereitstellen. Im biomedizinischen Kontext existieren zum Beispiel die Onto-Med Research Group in Leipzig oder die Datenbank BRENDA [16], [17].

Erst wenn nach diesen Kriterien eine qualitativ hochwertige Datenbasis vorliegt, bietet auch der Einsatz von KI einen deutlichen Mehrwert. KI wird in diesem Zusammenhang als eine Anwendung von Methoden des Maschinellen Lernens (ML) aufgefasst. Deep Learning (DL) bildet eine Unterkategorie des Maschinellen Lernens [18].

 

Abbildung 7: Aufteilung der Datenqualität nach ISO/IEC 25012 in inhärente und systemabhängige Datenqualität.

Anwendungsgebiete für KI im Labor der Zukunft

Der große Vorteil von KI-Anwendungen ist die Fähigkeit, große Datenmengen zu verarbeiten und darin komplexe Zusammenhänge und Muster zu entdecken. So können Vorhersagen für die Zukunft berechnet werden. Für das Labor der Zukunft ergeben sich daraus unterschiedliche Anwendungsszenarien:

  • KI-Anwendungen werden eingesetzt, um aus großen Datensätzen zu lernen und Muster zu erkennen. Diese Fähigkeit kann zur Analyse von Genomdaten, Medikamentenentwicklung oder Diagnose von Krankheiten eingesetzt werden.
  • In Laboren kann Deep Learning beispielsweise für die Analyse medizinischer Bilder oder zur Vorhersage von Wirkstoffaktivitäten genutzt werden.
  • KI-gesteuerte Roboter können repetitive Aufgaben im Labor übernehmen, beispielsweise das Pipettieren von Proben oder das Durchführen von Assays. Dies erhöht die Effizienz und Genauigkeit der Laborarbeit.
  • Durch den Einsatz von KI-Technologien können Labore individuelle Behandlungspläne anhand genetischer Daten erstellen. Dies ermöglicht eine individuellere und präzisere medizinische Versorgung.

Abbildung 8: Die verschiedenen Komponenten zur Zusammensetzung des Maschinellen Lernens.

Besonders hoch sind in der Medizin die Anforderungen an die Zuverlässigkeit und Vertrauenswürdigkeit solcher Systeme. Da KI-Anwendungen datengetriebene stochastische Modelle enthalten, können klassische Softwaretests für deterministische Software diese Eigenschaften nicht garantieren. Hier eignet sich ein neuer Ansatz, den das Fraunhofer IPT entwickelt hat: Dieser Ansatz quantifiziert die Vertrauenswürdigkeit bei der Gestaltung von KI-Anwendungen und stellt Methoden bereit, um diese auch während des Betriebs zu gewährleisten. 

Dafür werden sowohl der Anwendungsfall als auch die zu entwickelnde Software bezüglich ihrer Anforderungen spezifiziert und hinsichtlich ihrer Risiken untersucht. Diese Risiken können unter Zuhilfenahme einer Methodensammlung des Fraunhofer IPT in den vier Dimensionen Transparenz, Robustheit, Sicherheit und Adaptivität gemindert oder zumindest genau beziffert werden [19], [20].

Entlang dieser vier Dimensionen hat das Fraunhofer IPT Erfahrungen in der Entwicklung und im Betrieb von KI-Anwendungen gesammelt, von denen Unternehmen profitieren können. Die erfolgreiche Entwicklung und Nutzung von KI bietet Wettbewerbsvorteile im Labor der Zukunft: So können komplexe Zusammenhänge schneller erkannt werden, Entscheidungen von Mitarbeitenden im Labor können auf Datenbasis unterstützt und große Datenmengen effizienter verarbeitet werden.

Abbildung 9: Aufteilung der Risikobewertung in die vier Dimensionen Transparenz, Robustheit, Sicherheit und Adaptivität.