Forschung

Forschungsschwerpunkte Prof. Dr. Gernot Müller

Simulationsbasierte Schätzmethoden für Modelle zur Beschreibung von Energiepreisen

 

Zur Beschreibung von Energiepreisen sind mittlerweile zahlreiche stochastische Modelle entwickelt worden. Aufgrund der Komplexität dieser Modelle sind klassische Schätzmethoden aus der Statistik oft nicht mehr einsetzbar. In diesem Projekt werden simulationsbasierte und computerintensive statistische Verfahren für Modelle zur Berechnung von Energie-Spot- und Forward-Preisen sowie entsprechender Derivate entwickelt.
(Gernot Müller, Armin Seibert, Daniel Lingohr)

 

 

© Universität Augsburg

Graphik-Software zur Zeitreihenanalyse hochfrequenter Finanzdaten

Bei der Analyse von hochfrequenten Finanzdaten wird die Feinstruktur von oftmals mehreren hunderttausend oder gar Millionen Daten (meist Preisen) untersucht. Die graphische Analyse dieser Feinstruktur, sowie abgeleiteter Größen wie zum Beispiel der Volatilität, ist auf handelsüblichen Bildschirmen aufgrund der Datenmenge sehr mühsam. In diesem Projekt wird eine Software entwickelt, die eine benutzerorientierte und komfortable graphische Analyse der Feinstruktur von großen Datenmengen mit zeitlicher Abhängigkeit erlaubt.
(Klaus Bernt, Gernot Müller)

 

 

 

 

Forschungsschwerpunkte Prof. Dr. Ralf Werner

Modellierung deutscher Pfandbriefe

 

Deutsche Pfandbriefe repräsentieren eines der wichtigsten Produkte des deutschen Finanzmarktes, da sie sowohl als ein zentrales Funding-Instrument für Emittenten dienen, als auch – nach deutschen Staatsanleihen – die zweitgrößte Assetklasse in Versicherungsportfolien darstellen. Nichtsdestotrotz sind sie bisher kaum Gegenstand akademischer Untersuchungen gewesen. Der Forschungsschwerpunkt in Kooperation mit der Allianz Deutschland AG und der Hochschule München ist der Analyse der Preisfindung sowie des Risikoprofils deutscher Pfandbriefe mittels eines detaillierten stochastischen Modells gewidmet. Im Vordergrund stehen hierbei die Konstruktion sowie die Kalibrierung (= Optimierung) eines passenden stochastischen Finanzmarktmodells sowohl unter dem realen als auch dem risikoneutralen Wahrscheinlichkeitsmaß.
(Ralf Werner)

 

 

Robuste Mehrziel-Portfoliooptimierung

 

Robuste Portfoliooptimierung zählt neben der klassischen Markowitz-Optimierung seit gut einem Jahrzehnt zu den Standardwerkzeugen im Asset Management. Da allerdings im realen Einsatz oft mehr als eine Zielfunktion zu minimieren ist, führt dies zur sogenannten Mehrzieloptimierung. In Zusammenarbeit mit der University of Southampton wird hierzu ein Modellierungsansatz zur robusten Mehrzieloptimierung entwickelt. Weiterhin wird aktiv an einem numerischen Zugang zu diesen robusten Mehrzielproblemen gearbeitet.
(Ralf Werner)

 

 

Counterparty credit risk / counterparty valuation adjustment (CVA)

 

Seit der Finanzkrise sind das Kontrahenten Risiko sowie der sogenannte CVA stärker in den Fokus von Banken und Aufsichtsbehörden gerückt. Ein offenes Problem stellt hierbei nach wie vor die effiziente numerische Berücksichtigung des „wrong-way risks“ dar. Im Mittelpunkt des Forschungsinteresses in Zusammenarbeit mit Beratungsunternehmen aus dem Finanzsektor stehen hier insbesondere modellfreie enge Schranken an den CVA bzw. das Kontrahenten Ausfallrisiko und ihr Zusammenhang zu Transportproblemen. Diese wiederum stehen in einem engen Zusammenhang zur Bewertung exotischer Look-Back-Optionen.
(Ralf Werner)

 

 

Stabilität in (zufälligen) Netzwerken 

 

Im Rahmen der Digitalisierung und Globalisierung werden immer mehr Akteure miteinander vernetzt, was erhöhte Abhängigkeiten nach sich zieht. Beispiele hierfür sind Kommunikationsnetzwerke, Stromnetze oder Finanznetzwerke. Um stabile Systeme zu gewährleisten, müssen sowohl bei der Konzeption als auch bei der Wartung Entscheidungen entsprechend getroffen werden. Mathematisch lassen sich Netzwerke durch Graphen abbilden; dabei werden Einrichtungen zu Knoten und Verbindungen zu Kanten. Der (zufällige) Ausfall eines Akteurs oder einer Verbindung entspricht dann dem Entfernen eines Knoten beziehungsweise einer Kante. Relevant ist nun, in wie weit sich die Struktur des Graphen dadurch ändert. Im schlimmsten Fall zerfällt eine Zusammenhangskomponente in zwei, was einer Aufspaltung des Systems gleichkommt. Aber auch verlängerte Wege belasten das System und können zu Verzögerungen führen. Ziel ist die Entwicklung eines Risikomaßes zur Quantifizierung dieser Ausfallschäden, wenn möglich reduziert auf wenige aussagekräftige Graphcharakteristika.

(Nils Detering, Christian Drescher, Ralf Werner)

 

 

 

CC BY-NC-ND
CC BY-NC-ND

Testen einer Matrix auf vollständige Positivität

 

Eine symmetrische Matrix ist genau dann vollständig positiv, wenn sie eine nicht-negative Wurzel hat. Anwendungen finden sich beispielsweise im Bereich der kombinatorischen Optimierung. Da der Test auf diese Eigenschaft bekanntermaßen NP-vollständig ist, besteht auch ein Interesse an schnellen Tests, die zumindest große Teilmengen abdecken. Unser Test basiert auf einer Beziehung zu zweiten Momenten von nicht-negativen Wahrscheinlichkeitsverteilungen, wovon einige Unterklassen effizient verifiziert werden können.

(Christian Drescher, Ralf Werner)

 

 

Effiziente Berechnung von Metriken zwischen Wahrscheinlichkeitsmaßen

 

Um die Ähnlichkeit zweier Wahrscheinlichkeitsverteilungen zu untersuchen, wird die Definition eines Abstandes benötigt. Insbesondere die Wasserstein- und die Kolmogorov-Metrik sind weit verbreitet und finden Anwendung in der Statistik, dem Machine Learning und im Bereich Computer Vision. Ziel ist es weitere, theoretisch attraktive, Metriken für die Anwendung zugänglich zu machen. Bislang wurden effiziente exakte Algorithmen für die Berechnung der Wasserstein-Unendlich- und der Prokhorov-Metrik entwickelt.

(Christian Drescher, Jonas Schwinn, Ralf Werner)

 

 

 

 

© Universität Augsburg

Verifikation der Bernoulli-Kompatibilität

 

Das Testen einer gegebenen symmetrischen Matrix B auf Bernoulli-Kompatibili-tät ist ein altbekanntes Problem der multivariaten Statistik. Eine Matrix ist genau dann Bernoulli-kompatibel, wenn sie Element des sogenannten Bernoulli-Polytops (auch bekannt als Korrelationspolytop) ist. Zur Beantwortung dieser Fragestellung kann ein lineares Optimierungsproblem mit exponentiell vielen Variablen und polynomiell vielen Nebenbedingungen abgeleitet werden. Durch die gezielte Ausnutzung inhärenter Strukturen des Problems reduziert ein spezielles Spaltengenerierungsverfahren die Speicherbelastung und Rechenzeit auf großen Problemen erheblich und macht so das Problem für größere Dimensionen numerisch zugänglich.
(Ralf Werner, Jonas Schwinn)

 

 

Effiziente numerische Methoden in der Versicherungsmathematik

 

Der Fokus dieser Forschungen liegt zur Zeit auf der Theorie sowie der praktischen Anwendung von Least-Squares-Monte-Carlo Algorithmen im Bereich der deutschen Lebensversicherungen.
(Ralf Werner, Jan Natolski)

 

 

 

 

Suche