Forschung

Forschungsschwerpunkte Prof. Dr. Gernot Müller

Probabilistische Prognosen © dn

Probabilistische Prognosen zum Intraday-Strompreismarkt


Durch den Ausbau erneuerbarer Energien vollzieht sich in der Energiewirtschaft ein Wandel hin zu dezentraler und fluktuierender Energieerzeugung sowie partizipativen Verbrauchern. Der Strommarkt ist das finanzielle Bindeglied zwischen diesen beiden Seiten und entwickelt sich als solcher zu einem immer dynamischeren Marktplatz. Dies zeigt sich insbesondere am Intradaymarkt, wo Strom praktisch ohne Vorlaufzeit gehandelt und geliefert werden kann. Im Gegensatz zum Day-Ahead-Markt, wo (z. B. stündlich) Preise für den Folgetag ermittelt werden, erweisen sich Prognosen auf dem Intraday-Markt als notorisch schwierig. Tatsächlich gibt es noch keine verlässlichen Prognoseverfahren, und es wird sogar diskutiert, ob sinnvolle Prognosen überhaupt möglich sind. Um dieses Problem anzugehen, wenden wir Bayes'sche Modellen an, die eine vollständige probabilistische Beschreibung ermöglichen. Dadurch wird nicht nur ein Preis vorhergesagt, sondern auch die Verlässlichkeit der Vorhersage geschätzt. Auf diese Weise erstellte Prognosen haben den Vorteil, dass Praktiker am Strommarkt entscheiden können, inwieweit sie Prognosen einbeziehen möchten.
(Gernot Müller, Daniel Nickelsen, Sebastian Uhl)

 

 

Klimarisiken © colourbox

Daten und Modelle zu Klimarisiken


Versicherungsunternehmen nutzen die Statistik historischer Klimadaten, um Risiken im Hinblick auf Elementarkräfte wie Überschwemmungen und Stürme abzuschätzen. Dies funktioniert gut, solange die Daten zeitlich annähernd stationär sind. Insbesondere im letzten Jahrzehnt hat sich aufgrund des Klimawandels herausgestellt, dass die Beibehaltung der Stationaritätsannahme nicht zu halten ist. Daher sind statistische Methoden gefragt, die nicht nur das Risiko von Extremwetterereignissen abschätzen können, sondern auch die steigende Tendenz solcher Risiken vorhersagen. Der erste Schritt zur Lösung dieses Problems besteht darin, hochauflösende geologische Daten zu erhalten, die sich über einen ausreichend langen Zeitraum erstrecken. Mit genügend Daten werden Extremwertstatistiken anwendbar, um Risiken von Extremereignissen abzuschätzen. Um den zunehmenden Trend zu erfassen, planen wir, autoregressive Modelle oder maschinelles Lernen zu verwenden, um die Parameter der Extremwertverteilungen durch geschätzte Zeitfunktionen zu ersetzen.
(Gernot Müller, Daniel Nickelsen)

 

 

Schätzmethoden © colourbox

Schätzmethoden der Bayes'schen Statistik


In Bayes'scher Statistik wird eine Modell-Wahrscheinlichkeitsverteilung mit einer A-priori-Wahrscheinlichkeit der Parameter des Modells kombiniert, um eine A-posteriori-Wahrscheinlichkeit dieser Parameter zu erhalten. Für die exakte A-posteriori-Verteilung wird ein Normalisierungsfaktor benötigt, der als prior-predictive-value, marginal likelihood oder Modell Evidenz bekannt ist. Der letzte Term deutet bereits an, dass der Modell Evidenz die nützliche Eigenschaft zugeschrieben wird, die perfekte Balance zwischen Modellausdruckskraft und Interpretierbarkeit zu finden. Die Modell Evidenz ist jedoch das Ergebnis eines kaum lösbaren Integrals und wird daher in Anwendungen meist ignoriert, was bedeutet, dass sich Anwender mit einer nicht normalisierten A-posteriori-Verteilung begnügen. Um diese Schwierigkeit zu überwinden, entwickeln wir einen "non-equilibrium integrator" (NEQI), der eine bestehende Methode (thermodynamic integration) verallgemeinert. Dadurch werden einige bisherige Einschränkungen aufgehoben (burn-in, thinning) und ein stark verbessertes Abtasten des Integrationsraums erreicht. Außerdem können simultan zur Modell Evidenz beliebige Mittelwerte unter der A-posteriori-Verteilung mit geschätzt werden.
(Daniel Nickelsen)

 

 

KI_in_FiVersmath © colorbox

Künstliche Intelligenz und verbundenes Lernen in der Finanz- und Versicherungsmathematik

Zur Beschreibung unterschiedlichster Daten in der Finanz- und Versicherungsmathematik sind zahlreiche stochastische Modelle entwickelt worden. Aufgrund der Komplexität dieser Modelle sind klassische Schätzmethoden aus der Statistik oft nicht mehr einsetzbar. In diesem Projekt werden simulationsbasierte und computerintensive statistische Verfahren für solche Modelle entwickelt und mit Ansätzen der künstlichen Intelligenz verbunden. Anwendungen finden die neuen Verfahren entsprechend in der Finanz- und Versicherungsmathematik sowie bei Energiemärkten. Der Lehrstuhl ist Mitglied im VM4K, woraus speziell in diesem Forschungsbereich aktuelle Fragestellungen miteinbezogen werden. Ferner bestehen in diesem Bereich Kooperationen mit der Energiewirtschaft.
(Gernot Müller, Johannes Fasching, Sebastian Uhl)

 

Erneuerbare Energie © pixabay

Zeitstetige Strompreismodellierung unter Berücksichtigung exogener Prozesse

 

Durch das Erneuerbare-Energien-Gesetz in Deutschland wird grüner Strom, insbesondere also Wind- und Solarstrom, vorrangig in das Stromnetz eingespeist. Dies wirkt sich direkt auf die Strompreisentwicklung am Day-ahead Markt aus: Für windige und sonnige Stunden ist der Strompreis im Mittel niedriger als für sogenannte "dunkle Flauten". Daneben gibt es natürlich noch weitere exogene Variablen, die den Strompreis beeinflussen. Ziel dieses Forschungsprojekts ist die Integration von exogenen Variablen in bestehende zeitstetige Strompreismodelle.
(Gernot Müller, Niklas Gotthardt)

 

 

Ernergiemärkte © CC BY-NC-ND

Vergleich von statistischen Modellen in Energiemärkten

Das Gesetz für den Ausbau erneuerbarer Energie bevorzugt die Einspeisung von Strom aus erneuerbaren Energiequellen in Deutschland. Durch den steigenden Anteil an erneuerbarer Energie, abhängig von verschiedenen Umweltfaktoren, kommt es deshalb zu Schwankungen im Angebot und Strompreis. Ziel des Projekts ist es, verschiedene stochastische Ansätze zur Modellierung von Energiegewinnung aus erneuerbaren Quellen, insbesondere für Windkraft und Photovoltaik, sowie daraus resultierende Modelle für Energiemärkte mit Hilfe moderner statistischer Methoden zu evaluieren.
(Gernot Müller, Johannes Fasching)

 

 

Score Shunt-Implantation © ksa

Entwicklung eines auf klinischen Parametern basierenden Scores zur Abschätzung der Notwendigkeit einer dauerhaften Shunt-Implantation nach aneurysmatischer Subarachnoidalblutung

 

In Folge einer aneurysmatischen Subarachnoidalblutung, d.h. der Ruptur eines Aneurysmas der Hirnarterien und einer damit verbundenen Einblutung, kann es zu einer Erweiterung der mit Liquor gefüllten Ventrikel des Gehirns kommen. Nachdem diese zuerst mit einer temporären Drainage versorgt wird, muss anschließend die Frage nach einer dauerhaften Shunt-Implantation geklärt werden. Da dies einen großen Eingriff für die betroffenen Patienten darstellt, muss die Notwendigkeit dieser Maßnahme zuverlässig abgeschätzt werden.

Ziel dieser Studie ist deshalb die Entwicklung eines Scores anhand von erfassten klinischen Parametern bei der Aufnahme des Patienten und der Diagnose des Aneurysmas, um die Notwendigkeit des Eingriffes besser beurteilen zu können. Hierzu werden verschiedene generalisierte lineare Modelle verwendet, um signifikante Einflussfaktoren zu finden, die die Grundlage des Scores bilden. Dieses Projekt ist eine Zusammenarbeit mit der Klinik für Neurochirurgie des Universitätsklinikums Augsburg.

(Gernot Müller, Stefan Schiele)

 

 

 

Medizinische Statistik © ksa

Prognostische Biomarker für Darmkrebs

 

Nahezu jede achte in Deutschland diagnostizierte Krebserkrankung betrifft den Darm. Gerade die hohe Mortalität fordert eine zuverlässige Stratifizierung der Patienten in Risikogruppen für die Auswahl einer geeigneten Therapie. Als Grundlage hierfür wird bislang standardmäßig das TNM-Staging verwendet. Anhand von tumorspezifischen Kenngrößen und mikroskopischen Aufnahmen des Tumors sollen nun neue geeignete Biomarker entwickelt werden, die eine bessere Stratifizierung ermöglichen. Hierzu werden neben generalisierten linearen Modellen auch Methoden aus dem Bereich des maschinellen Lernens eingesetzt. Dieses Projekt ist eine Zusammenarbeit mit dem Lehrstuhl für Pathologie (Leitung: Prof. Dr. Bruno Märkl) der neuen Medizinischen Fakultät der Universität Augsburg."

(Gernot Müller, Stefan Schiele, Tim Tobias Arndt)

 

 

© pixabay

Untersuchung von Einflüssen des Corona-Virus auf Immunzellen

Die nähere Erforschung des Corona-Virus ist momentan eine der zentralen Aufgaben der Gesellschaft. Auf Grund der bisherigen Datenlage wird vermutet, dass eine COVID-Erkrankung andere Veränderungen im Blut hervorruft als herkömmliche virale Erkrankungen. Um ein besseres Verständnis für diesen und ähnliche Effekte zu erhalten, untersuchen wir in Zusammenarbeit mit Dr. med. Andreas Rank (II. Medizinische Klinik, Universitätskliniken Augsburg) den Einfluss der Erkrankung, sowie verschiedener anderer Faktoren, auf verschiedene Zellpopulationen.
(Gernot Müller, Tim Tobias Arndt, Stefan Schiele)

 

 

 

Blutstammzellentransplantation © colourbox
Multi-Stadien-Modelle zur Untersuchung von Risikofaktoren nach einer Blutstammzellentransplantation
 
Eine häufige Behandlungsmethode für Leukämie ist die Blutstammzellentransplantation. Hier werden zuerst mittels Chemotherapie und Bestrahlung die eigenen Stammzellen zerstört und danach gesunde transplantiert um diese zu ersetzen. Hierbei besteht das Risiko der Graft versus Host Disease (GvHD), wobei die im Transplantat enthaltenen T-Zellen des Spenders den Organismus des Patienten angreifen. In Zusammenarbeit mit Prof. Dr. med. Christoph Schmid (II. Medizinische Klinik, Universitätskliniken Augsburg) untersuchen wir, ob Menge und Abstand zwischen den Spenderlymphozytgaben das Risiko für ein GvHD oder andere folgende Komplikationen beeinflusst.
(Gernot Müller, Tim Tobias Arndt, Anna Rubeck)

 

 

Ereigniszeitanalyse © colourbox
Doppelt robuste Transformation zum maschinellen Lernen in der Ereigniszeitanalyse
 
Ein klassisches Beispiel aus der Ereigniszeitanalyse ist eine medizinische Studie, in der die Dauer bis zum Tod bei verschiedenen Patient:innen betrachtet wird. Dabei kommt es aber immer wieder vor, dass Individuen im Rahmen der Studie nicht bis zum Eintreten des Ereignisses beobachtet werden können und stattdessen nach einer gewissen Zeit zensiert werden. Die daraus resultierenden Daten können nicht mit „klassischen“ Methoden des maschinellen Lernens verarbeitet werden, sondern benötigen speziell angepasste Methoden der Ereigniszeitanalyse. Wir untersuchen einen Ansatz, der die Daten so transformiert, dass diese beispielsweise mit Feedforward Netzwerken analysiert werden können und keine besonderen Ansätze benötigen. Im Rahmen dieses Forschungsprojekts soll außerdem versucht werden, diese Transformation auf die komplexeren Fälle von wiederkehrenden oder konkurrierenden Risiken zu erweitern.
(Gernot Müller, Anna Rubeck)
 
Zeitreihen hochfrequenter Finanzdaten © CC BY-NC-ND

Graphik-Software zur Zeitreihenanalyse hochfrequenter Finanzdaten

 

Bei der Analyse von hochfrequenten Finanzdaten wird die Feinstruktur von oftmals mehreren hunderttausend oder gar Millionen Daten (meist Preisen) untersucht. Die graphische Analyse dieser Feinstruktur, sowie abgeleiteter Größen wie zum Beispiel der Volatilität, ist auf handelsüblichen Bildschirmen aufgrund der Datenmenge sehr mühsam. In diesem Projekt wird eine Software entwickelt, die eine benutzerorientierte und komfortable graphische Analyse der Feinstruktur von großen Datenmengen mit zeitlicher Abhängigkeit erlaubt.
(Klaus Bernt, Gernot Müller)

 

 

 

Forschungsschwerpunkte Prof. Dr. Ralf Werner

Random Forests © colourbox

Random Forests und Maschinelles Lernen im Bereich der Lebensversicherung

 

In Kooperation mit der University of Southampton untersuchen wir die Anwendung und Verbesserung von maschinellen Lernmethoden im Bereich der Lebensversicherung. Dank rasant steigender Rechenkapazitäten und dem damit verbundenen leichteren Einsatz kann ein stetig wachsendes Interesse an Methoden des maschinellen Lernens in letzter Zeit beobachtet werden. Für Versicherungsunternehmen ist dieses im Speziellen von praktischer Relevanz, z.B. in der Anwendung von zukünftigen Geschäftsmodellen oder bei Risikomanagementaufgaben. Unser Forschungsschwerpunkt liegt insbesondere auf der Untersuchung und Verbesserung von Random Forest Methoden im Risikomanagement. Hierbei soll der in den Versicherungen relevante (verrauschte) MCEV (Market Consistent Embedded Value) bzw. PVFP (Present Value of Future Profits) gelernt werden.

(Ralf Werner, Maximilian Klein, Erengul Dodd, Joerg Fliege, Aditya Sivanand)

 

 

Konvergenz NMCV © csda

Fast sichere Konvergenz von Nested Monte Carlo Verfahren

 

In diesem Forschungsgebiet untersuchen wir die fast sichere Konvergenz des sogenannten Nested Monte Carlo Verfahrens. Dieses Verfahren wird zur numerischen Berechnung von bedingten Erwartungen eingesetzt und hat deshalb vielfältige und breite Anwendungen im finanz- bzw. versicherungsmathematischen Bereich, insbesondere für Risiko­management­fragestellungen.

(Ralf Werner, Maximilian Klein)

 

 

Asympt. Konfi.Intervalle NMCV © csda

Asymptotische Konfidenzintervalle für Nested Monte Carlo Verfahren

 

Der Fokus dieses Forschungsbereichs liegt auf der Analyse und Anwendung von asymptotischen Konfidenzintervallen basierend auf Nested Monte Carlo Simulationen. Im Speziellen ist hier die Untersuchung des Risikomaßes Value-at-Risk von theoretischem Interesse als auch von praktisch Relevanz.

(Ralf Werner, Maximilian Klein)

 

 

Portfoliooptimierung © CC BY-NC-ND

Robuste Mehrzieloptimierung

 

Robuste Mehrzieloptimierung hat in den letzten Jahren rasant an Popularität gewonnen. In Zusammenarbeit mit der University of Southampton entwickeln wir mehrere Modellierungsansätze zur robusten Mehrzieloptimierung, insb. für Anwendungen auf finanzmathematische Fragestellung bzw. für maschinelles Lernen. Weiterhin wird aktiv an einem numerischen Zugang zu diesen robusten Mehrzielproblemen gearbeitet. Im aktuellen Fokus steht die Verallgemeinerung des Regret aus der univariaten Modellierung auf eine multivariate Modellierung und dessen numerische Berechnung.
(Ralf Werner, Joerg Fliege, Patrick Groetzner)

 

 

Kreditrisiko © CC BY-NC-ND

Counterparty credit risk / counterparty valuation adjustment (CVA)

 

Seit der Finanzkrise sind das Kontrahenten Risiko sowie der sogenannte CVA stärker in den Fokus von Banken und Aufsichtsbehörden gerückt. Ein offenes Problem stellt hierbei nach wie vor die effiziente numerische Berücksichtigung des „wrong-way risks“ dar. Im Mittelpunkt des Forschungsinteresses in Zusammenarbeit mit Beratungsunternehmen aus dem Finanzsektor stehen hier insbesondere modellfreie enge Schranken an den CVA bzw. das Kontrahenten Ausfallrisiko und ihr Zusammenhang zu Transportproblemen. Diese wiederum stehen in einem engen Zusammenhang zur Bewertung exotischer Look-Back-Optionen.
(Ralf Werner)

 

 

Matrix © CC BY-NC-ND

Testen einer Matrix auf vollständige Positivität

 

Eine symmetrische Matrix ist genau dann vollständig positiv, wenn sie eine nicht-negative Wurzel hat. Anwendungen finden sich beispielsweise im Bereich der kombinatorischen Optimierung. Da der Test auf diese Eigenschaft bekanntermaßen NP-vollständig ist, besteht auch ein Interesse an schnellen Tests, die zumindest große Teilmengen abdecken. Unser Test basiert auf einer Beziehung zu zweiten Momenten von nicht-negativen Wahrscheinlichkeitsverteilungen, wovon einige Unterklassen effizient verifiziert werden können.

(Christian Drescher, Ralf Werner)

 

 

Metrik zwischen Wahrscheinlichkeitsmaßen © CC BY-NC-ND

Effiziente Berechnung von Metriken zwischen Wahrscheinlichkeitsmaßen

 

Um die Ähnlichkeit zweier Wahrscheinlichkeitsverteilungen zu untersuchen, wird die Definition eines Abstandes benötigt. Insbesondere die Wasserstein- und die Kolmogorov-Metrik sind weit verbreitet und finden Anwendung in der Statistik, dem Machine Learning und im Bereich Computer Vision. Ziel ist es weitere, theoretisch attraktive, Metriken für die Anwendung zugänglich zu machen. Bislang wurden effiziente exakte Algorithmen für die Berechnung der Wasserstein-Unendlich- und der Prokhorov-Metrik entwickelt.

(Christian Drescher, Jonas Schwinn, Ralf Werner)

 

 

 

 

Suche