E-HEALTH-COM ist das unabhängige Fachmagazin für Gesundheitstelematik, vernetzte Medizintechnik , Telemedizin und Health-IT für Deutschland, Österreich und die Schweiz.
Mehr

Für das ePaper anmelden

Geben Sie Ihren Benutzernamen und Ihr Passwort ein, um sich an der Website anzumelden

Anmelden

Passwort vergessen?

Top-Thema |

Digitale Spracherkennung

Im Alltag der meisten Krankenhäuser wächst der Dokumentationsaufwand stetig an. Zur effizienten Bewältigung der immer größer werdenden Datenmengen kann die integrierte Spracherkennung wesentlich beitragen. Beim Einsatz der vielfältigen Lösungen spielt der Nutzer die entscheidende Rolle.

Foto: Nuance

Noch immer sind viele kabelgebundene Anwendungen vorhanden, bei denen die Diktate elektronisch aufgezeichnet und im Anschluss an ein zentralisiertes Schreibbüro weitergegeben werden, wo sie dann transkribiert werden. Diese Art der Bearbeitung hat in vielen Krankenhäusern immer noch viele Anhänger. Doch es gibt immer mehr Häuser, die auf Online-Lösungen setzen. Der Vorteil: Der Arzt kann das Diktat sofort sehen und selbst bearbeiten oder korrigieren.

 

In den Kliniken werden jedoch mobile Anwendungen immer wichtiger und dieser Trend setzt sich auch bei der Spracherkennung fort. Hier gibt es für Ärzte die Möglichkeit, ihre Diktate zunächst mit mobilen Geräten zu erfassen, um sie anschließend über das klinikeigene LAN beziehungsweise WLAN an einen Server zu senden. Auf diesem Server läuft eine Offline-Spracherkennung, die dann die Audiodateien in Textdateien umwandelt. Die notwendigen Korrekturen übernimmt dann entweder ein Schreibbüro oder der Arzt selbst.


Innerhalb der einzelnen Krankenhausabteilungen lassen sich große Unterschiede in der Nutzung der Sprach­erkennung feststellen. So ist diese in der Radiologie bereits sehr verbreitet. 70 bis 80 Prozent der deutschen Krankenhäuser nutzen diese Systeme. „Der Grund hierfür liegt in der Erkennungsgenauigkeit, die sich in den letzten Jahren extrem verbessert hat – die Radiologie konnte schon früh mit sehr guten Ergebnissen rechnen und daher die Sprach­erkennung als eine wichtige Komponente in der Beschleunigung ihres Befundprozesses einsetzen“, sagt Jan Rusch, Produkt Marketing Manager Speech bei Agfa HealthCare GmbH.

 

Außerhalb der Radiologie steht die Spracherkennung jedoch noch am Anfang. Weniger als zehn Prozent der Häuser setzen sie auch in anderen Abteilungen ein. „Erst in den letzten fünf Jahren sind die Lösungen so gut geworden, dass der Einsatz auch hier zu einer wirklichen Effizienzsteigerung führt“, so Rusch. Seiner Meinung nach gibt es aber noch Ausbaubedarf. „Gerade die Bereiche, die viel dokumentieren, können ihren Dokumentationsablauf mit dem Einsatz von Spracherkennung wesentlich beschleunigen und damit nicht nur Zeit, sondern auch Geld sparen.“


Immer mehr Verantwortliche in den Krankenhäusern sehen das ebenso. Zumal die technischen Voraussetzungen für eine Integration der verschiedenen Sprachsysteme in die Krankenhausinformationssysteme durchaus gegeben sind. „Viele Hersteller von integrierten Spracherkennungssystemen liefern Schnittstellen zu den meisten Krankenhausinformationssystemen“, erklärt Stephanie Fleck aus dem Marketing bei 4voice.


Ausserdem komme es auf die gewünschte Diktiermethode und den Arbeitsprozess innerhalb des Krankenhausbetriebs an. Bei einem einstufigen Workflow, das heißt der Arzt erstellt seine Dokumente durch Umwandlung von gesprochenem Wort zum Text direkt und lokal am Bildschirm ohne Rücklauf von Sekretariat oder Schreibkraft, ist keine weitere Anpassung des Informationssystems notwendig. Denn in diesem Fall setzt der Arzt irgendwo in eine Anwendung den Cursor, macht das Mikrofon an und diktiert los. „Das geht in allen Anwendungen problemlos. Hier benötigt man keine Schnittstellen, sondern nur einen leistungsfähigen PC beziehungsweise Server und eine auf den Nutzer angepasste Schulung, um den Umgang mit Spracherkennung zu erlernen“, sagt Fleck.


Zweistufige Arbeitsprozesse sind schon komplexer und erfordern andere technische Voraussetzungen. Denn hier läuft eine Korrekturschleife durch das Sekretariat. Die Schreibkraft erhält ein vom Arzt diktiertes, unkorrigiertes Dokument. Dazu ist eine Schnittstelle notwendig, um den erkannten Text mit den Patientendaten zu verknüpfen, ihn zuzuordnen, und an das Schreibbüro weiterzuleiten.


Bei einer Nutzung der Sprach­erkennung ohne Rücklauf über das Sprachbüro ist nicht so sehr die Integration in das KIS entscheidend, sondern vielmehr der Nutzertyp. Damit die Nutzungsrate und Motivation der Anwender gehalten beziehungsweise gesteigert wird, ist es zwingend notwendig, dass das Spracherkennungssystem vor allem auf die Nutzertypen eingeht“, so Fleck. Denn jeder Mensch arbeitet anders und hat individuelle Anforderungen bei täglichen Arbeitsprozessen. Hinzu kommt, dass sich viele Ärzte beim Umstieg vom Diktat auf Spracherkennung erst mit den komplett neuen Nutzungsmöglichkeiten vertraut machen müssen.


Spracherkennung ist eine lernende Software. Um eine optimale Erkennungsrate zu erreichen, ist eine ständige Pflege des Vokabulars und konsequente Korrektur hilfreich. Ansonsten kann das Hinzufügen von falsch geschriebenen Wörtern oder Satzzeichen zu Fehlfunktionen oder einer Verschlechterung der Erkennungsraten führen. Doch nicht jeder hat die Zeit und Geduld für die Pflege seines Vokabulars. „Hier muss man dem passiven Anwender die Möglichkeit geben, von anderen Anwendern zu profitieren, indem die Vokabularpflege in diesem Fall über eine zentrale Funktion erfolgt. Diese Wortlistenpflege ist ein Punkt, der von vielen unterschätzt wird. Denn nur ein System, das regelmäßig im Einsatz ist und gepflegt wird, kann den Nutzer zufriedenstellen“, fasst Fleck zusammen.


Eine wesentliche Rolle bei der Entscheidung für eine Spracherkennung ist auch immer die Kostenfrage. „Grundsätzlich kann man sagen, dass die Lösungen teurer werden, je komfortabler und tiefer sie integriert sind, weil die Software immer komplexer wird“, sagt Simon Verdenhalven, Leiter des Produktmanagements bei Grundig Business Systems. Darum ist ihm auch kein Krankenhaus bekannt, dass rein auf die Spracherkennung setzt. „In den meisten Häusern gibt es eine Mischung aus digitalem Diktat und Spracherkennungslösungen.“ Eine digitale Diktatlösung ist beispielsweise dann sinnvoll, wenn Ärzte keine deutschen Muttersprachler sind. Hier wird eine Schreibkraft immer effizienter sein als eine Spracherkennungslösung. Der sinnvolle Einsatz der eben genannten Mischung kann Kosten sparen und die finanzielle Investition amortisiert sich. „Das ist meist schon nach ein bis eineinhalb Jahren der Fall. Gleichzeitig verbessert sich die Qualität und die Geschwindigkeit der Arztbriefschreibung, wie Untersuchungen unserer Kunden nachgewiesen haben“, so Verdenhalven.


Am wichtigsten für den Einsatz der Spracherkennung sind die Nutzer – die Ärzte. Die Spracherkennung muss sich den Nutzern anpassen und nicht umgekehrt. Und der erfordert immer öfter mobile Lösungen. In den Kliniken finden sich immer mehr Tablets und Smartphones, da sie Zugriff auf Informationen in Echtzeit ermöglichen. Die Hersteller haben darauf reagiert und viele bieten daher die Möglichkeit, die Sprach­erkennung entweder innerhalb dieser Applikationen zu integrieren oder sie in Form einer App zur direkten Befundung durch Sprache einzusetzen.


„Somit steht Ärzten und anderem medizinischen Personal völlig frei, wo sie sich um die Dokumentation kümmern: direkt neben dem Patienten während der Diagnose, auf dem Weg vom Operationssaal zum Wartezimmer, auf ihrem Tablet, iPhone oder auch, – wie früher – vor dem Desktop-PC“, meint Dr. Markus ­Vogel, Clinical Consultant DACH bei ­Nuance. Das erleichtert den Ärzten nicht nur die Arbeitseinteilung. Es bedeutet auch, dass die Befunde aktueller sind als in der Vergangenheit. ­Vogel erklärt: „Sie werden immer zeitnah erstellt, und stehen den anderen Ärzten im Krankenhaus sofort zur Verfügung. Davon profitiert natürlich nicht nur der Arzt, sondern letztendlich auch der Patient, denn er kann sich darauf verlassen, dass seine Patientenakte immer auf dem neuesten Stand seiner Behandlungsdaten beruht und jedem Arzt im Krankenhaus sofort zugänglich ist. Auch wird der Patient gleichzeitig merken, dass der behandelnde Arzt mehr Zeit für ihn hat.“


Dem Arzt die Arbeit zu erleichtern, darum geht es auch bei dem Forschungsprojekt „semanticVOICE“ der RHÖN-KLINIKUM AG (siehe dazu auch Interview nebenan). Die Forscher wollen ein intelligentes Sprachsystem entwickeln, das dazu führt, dass der PC nicht nur die eingesprochenen Wörter korrekt registriert, sondern auch deren Bedeutung versteht. Dann spricht man von semantischer Spracherkennung. Das geschieht auf der Basis digital hinterlegter Wissensstrukturen. Das aus den Texten abgeleitete Wissen hilft dabei, die medizinische Dokumentation zum Patienten deutlich zu verbessern. Der Arzt bekommt eine Art unsichtbaren Assistenten an die Seite gestellt, der im Hintergrund alle Aspekte seiner diktierten Texte analysiert und ihm dieses Wissen später wieder zur Verfügung stellt.


Ein kontextbewußtes Sprachsystem kann nicht nur gesprochene Anweisungen ausführen, sondern diese auch im Vorfeld kommentieren, Vorschläge machen oder gegebenenfalls sogar Warnungen ausgeben. Von der semantischen Spracherkennung profitiert der Arzt aber auch in Bezug auf die Administration. Aus dem Erkennen und Interpretieren des Textes lässt sich für die spätere Codierung der Leistungsdaten eine Art „automatische Vorcodierung“ elektronisch ableiten.


Integrierte Spracherkennungssys­­teme steigern die Effizienz im Dokumentationsablauf, wodurch wiederum Kosten eingespart werden. Der entscheidende Punkt ist jedoch, dass solche Lösungen Ärzten dabei helfen, sich weniger um die Administration kümmern zu müssen, sondern sich mehr mit ihren Patienten beschäftigen zu können.

 

Text: Miriam Mirza, Redaktion E-HEALTH-COM