In Zeiten von Big Data und Künstlicher Intelligenz sehen sich Entscheidungsträger der Problematik immer größerer Datenmengen und derer korrekter Interpretation gegenüber. Diese Entwicklung ist nicht nur, aber insbesondere auch im Gesundheitsbereich mit der Einführung von Krankenhausinformationssystemen oder der Telematikinfrastruktur zu beobachten. Der Lehrstuhl für Health Care Operations/Health Information Management versucht, Data Science Methoden vor allem, aber nicht ausschließlich im Gesundheitsbereich einzusetzen, um die vorliegenden Daten zu analysieren und entsprechende Handlungsempfehlungen abzuleiten.

Medizinische Entscheidungen etwa bzgl. der Diagnose, Prognose oder des spezifischen Behandlungsprozesses eines Patienten unterliegen zumeist einer stochastischen Unsicherheit. So gelten z.B. Polymerase-Ketten-Reaktion (PCR) Tests zur Diagnose einer SARS-CoV-2 Infektion zwar als Goldstandard, allerdings kann es auch hier mit einer bestimmten Wahrscheinlichkeit zu Fehldiagnosen kommen. In der Praxis nutzen Mediziner deshalb neben der Vielzahl medizinischer Methoden aus ihrer Erfahrung heraus individuelle integrierte heuristische Entscheidungsprozesse zur Entscheidungsfindung. Der Lehrstuhl für Health Care Operations/Health Information Management versucht, mit entsprechenden mathematisch-statistischen Methoden wie Machine Learning Algorithmen, klassischen Prognoseverfahren oder Simulationsmodellen die Entscheidungsfindung des Arztes bzw. des Gesundheitsversorgers in verschiedenen Bereichen zu unterstützen.

Covid-19-Forschung

Unsere Forschung der letzten Jahre beschäftigte sich im Bereich Medical Decision Making nicht nur, aber insbesondere auch mit der COVID-19-Pandemie. Bitte besuchen Sie unsere Internetseiten zur COVID-19 Forschung für einen Überblick über die Forschungsprojekte und weitere Informationen.

Data Analytics in Disaster Medicine

Wegen der Corona-Pandemie galt in Bayern im Frühjahr 2020 drei Monate lang landesweit der Katastrophenfall. Die Ausrufung des Katastrophenfalls ist dabei, zumindest auf regionaler Ebene, nicht selten, wenn man etwa an Naturkatastrophen, Terroranschläge oder Massenverkehrsunfälle denkt. Der Katastrophenfall stellt nicht nur Behörden vor besondere Herausforderungen, sondern insbesondere auch das Gesundheitssystem, da zumeist eine Vielzahl von Verletzten oder Erkrankten zu erwarten ist. Für sog. Massenanfälle von Verletzten (MANV) wurde bereits eine Vielzahl von Vorsichtungsalgorithmen zur Priorisierung bzw. Triage der Behandlungsdringlichkeit entwickelt. Dabei haben die Algorithmen zumeist ihren Ursprung in der Praxis. Der Lehrstuhl für Health Care Operations/Health Information Management versucht hier eine Datenperspektive einzunehmen und bestehende Algorithmen zu evaluieren, aber auch, etwa mit Machine Learning Methoden, neue Algorithmen zu entwickeln.

Von den Biowissenschaften in die Betriebswirtschaft: Simultane Inferenzstatistik

Wird anhand eines Datensatzes simultan über mehrere Nullhypothesen entschieden, kann es zu einer Inflation des Fehlers erster Art und damit der falsch-positiven Ergebnisse kommen. Deshalb haben Statistiker und später insbesondere Mediziner in den letzten 80 Jahren eine Vielzahl von Methoden für solche multiplen Testprobleme entwickelt. Trotz hoher Relevanz finden diese Methoden in der empirischen Forschung vergleichsweise wenig Anwendung wie wir in einer Analyse hochklassiger betriebswirtschaftlicher Veröffentlichungen nachweisen können. Besonders der medizinische Kontext aktueller Forschungsarbeiten, die Vielzahl der Methoden und der zweistufige Auswahlprozess scheinen Hürden darzustellen. Die ersten beiden Punkte adressieren wir durch umfangreiche Simulationsstudien zur Herausarbeitung von Methodenempfehlungen für den betriebswirtschaftlichen Anwender. Bezüglich des zweistufigen Auswahlprozesses entwickeln wir zwei neue multiple Testverfahren (SiMaFlex und SteMaFlex), die in der Lage sind, den zweistufigen Entscheidungsprozess in eine einstufige Entscheidung zu überführen. Performanceanalysen zeigen, dass diese neuen Methoden bestehende Verfahren sogar dominieren. Durch einen Fokus auf diese anwendungstheoretischen Problemkreise versuchen wir, den Forschungsbereich der simultanen Inferenz von der Medizin in die wirtschaftswissenschaftliche Forschung zu übertragen und so publizierte Ergebnisse noch zuverlässiger zu machen.

Data Envelopment Analysis

Die Data Envelopment Analysis (DEA) ist die am häufigsten verwendete Methode zur Effizienzmessung von Non-Profit Organisationen. Mit ihrer Hilfe lässt sich beispielsweise die Performance von Krankenhäusern oder Universitäten vergleichen. Dabei können Best Practice Beispiele identifiziert und von diesen gelernt werden. Seit der Erfindung der DEA Methode hat sich eine Vielzahl von Modellen entwickelt. Welches dieser Modelle die präzisesten und robustesten Ergebnisse liefert ist jedoch bis heute unklar. Mit unserer Forschung versuchen wir diese Fragen zu beantworten, um eine zuverlässige Effizienzmessung im Gesundheitswesen zu ermöglichen. Entscheidend für dieses Benchmarking von unterschiedlichen DEA Modellen ist die Erzeugung von künstlichen Daten, mit deren Hilfe die Modellergebnisse verglichen werden können. Mittels Monte-Carlo-Simulation wird eine Vielzahl unterschiedlicher Szenarien generiert, die sich unter anderem in der tatsächlichen Effizienz der Einheiten, der Anzahl der verwendeten Inputs und der Art der vorliegenden Skalenerträge unterscheidet. Nach Erzeugung mehrerer Testinstanzen, welche die Robustheit der Resultate sicherstellen, wird anhand verschiedener Performance Indikatoren die Genauigkeit der DEA Modelle bestimmt.
Abseits der Identifikation der besten Modelle wurde im Bereich der Data Envelopment Analysis ein Literaturüberblick über Anwendungen der DEA Methode im Gesundheitswesen erstellt. Neben zahlreichen nützlichen deskriptiven Statistiken stellt dieser auch einen Wegweiser zu Veröffentlichungen mit wichtigen methodischen Erkenntnissen dar.

Suche