Gerade war noch alles ruhig in der Leitwarte der Intensivstation. Doch jetzt schlagen gleich mehrere medizinische Geräte in unterschiedlichen Krankenzimmern Alarm. Monitore blinken und piepen. Blutdruckabfall, Herzrhythmusstörungen – was wo genau zu tun ist, zeigen Computermonitore. Ärzte und Pfleger eilen zu den Zimmern der Patienten. Dort geben medizinische Geräte detaillierte Auskunft über den Zustand der Schwerkranken. Aus einer Vielzahl von digitalen Anzeigen und Bildschirmen müssen die Mediziner rasch die wichtigsten Informationen herausfiltern. "Es ist nicht einfach, hier in hektischen Situationen den Überblick zu behalten", sagt Paul Chojecki, Wissenschaftler aus der Abteilung 'Vision & Imaging Technology' am Fraunhofer-Institut für Nachrichtentechnik, Heinrich-Hertz-Institut, HHI, in Berlin.
Mit Gesten steuern
Der Wissenschaftler hat im Verbundprojekt "Leitwarte" zusammen mit seinem Team einen intelligenten Monitor entwickelt. Er zeigt Ärzten und Pflegern schnell das Wichtigste zu den Vitaldaten der Intensivpatienten an. Der Bildschirm hat Schnittstellen zu den medizinischen Geräten im Raum sowie zu den Informationssystemen im Krankenhaus, lässt sich mit Gesten und Sprachbefehlen steuern. Seine Grafik passt sich der Entfernung an, aus der man ihn betrachtet. "Von der Tür aus sieht der Arzt die Daten entsprechend groß. Geht er näher ran, zeigt der Bildschirm Detailinformationen an", erklärt Chojecki. Eine 3D-Kamera liefert die dafür notwendigen Daten. Die Benutzeroberfläche ist webbasiert programmiert und damit auch für mobile Monitore wie Tablets geeignet. Einen Demonstrator des Proxemic Monitors zeigen die Wissenschaftler auf der CeBIT 2016 (Halle 6, Stand B36). Im Laufe dieses Jahres ist ein Praxistest in Kooperation mit der Uniklinik RWTH Aachen geplant.
Das System wertet die Daten der medizinischen Geräte anhand des intelligenten Alarmierungskonzepts des Projektpartners, der Universitätsklinik Aachen, Sektion Medizintechnik, aus. Das vermeidet Fehlalarme. "Dies ist ein großes Problem, wie uns Intensivärzte geschildert haben: Aktuelle Geräte halten sich stur an fixe Grenzwerte, beziehen dabei aber nicht alle Faktoren mit ein, die notwendig sind, um die Gefahrenlage umfassend zu bewerten. Zudem entsteht durch die akustischen Signale ein enormer Geräuschpegel, der weder für das Personal noch für den Patienten gesundheitsförderlich ist", berichtet Chojecki.
Weniger Erreger übertragen
Ein weiterer Vorteil der Gestensteuerung: Arzt oder Pfleger müssen die Geräte nicht direkt berühren. "Das Übertragen von Erregern ist in Krankenhäusern und insbesondere auf Intensivstationen immer noch ein Problem. Manchmal wird die obligatorische Händedesinfektion vergessen und werden Viren sowie Bakterien von Zimmer zu Zimmer geschleppt", beschreibt Chojecki. Der intelligente Bildschirm kann sowohl direkt am Bett des Patienten als auch – anders konfiguriert – in der Leitwarte genutzt werden. Chojecki ergänzt: "Es ist wichtig, das zu unterscheiden, denn von der Leitwarte aus darf nicht auf alle Gerätefunktionen in den Patientenzimmern zugegriffen werden. Das ist gesetzlich vorgeschrieben. Es soll sichergestellt werden, dass der Arzt den Patienten real untersucht, bevor er die Behandlung ändert."
Drei verschiedene Kameras und ein Mikrofon tasten den Raum vor dem Monitor ab. Die eingebaute Software des HHI analysiert anhand der Videodaten, ob sich Personen im Raum befinden, wie weit diese vom Bildschirm entfernt sind und welche Bewegungen sie machen. Abhängig von der Entfernung verändern sich Anzeige und Funktionalität des Monitors. "Unser Monitor unterscheidet zwischen naher, mittlerer und ferner Distanz. Maximal decken die Kameras vier Meter ab", erklärt Chojecki.
Ab der mittleren Entfernung kann der Cursor mit Armbewegungen gesteuert und können via Sprache Befehle oder Kurzberichte eingegeben werden. Mit vorher einprogrammierten Gesten lässt sich zum Beispiel ein Videoanruf starten, um sich mit anderen Ärzten innerhalb oder außerhalb des Krankenhauses auszutauschen. "Wir haben dem Monitor Augen und Ohren gegeben, um eine multimodale Interaktion zwischen dem Benutzer und dem System zu ermöglichen. Unsere Software erfasst berührungslos Abstände sowie Bewegungen der Nutzer, interpretiert sie und wandelt sie in Befehle für gängige Betriebssysteme um", erklärt Chojecki.