Wird geladen ...
15. April 2024

Teamassistenz (m/w/d), Fakultät für Angewandte Informatik

Lehrstuhl für Maschinelles Lernen und Maschinelles Sehen (Prof. Dr. Rainer Lienhart)

 

Bewerbungsschluss: 10. Mai 2024

Weiterlesen
22. Februar 2024

Offene Stellen für Doktoranden

Wir sind immer auf der Suche nach exzellenten Forschern, die für Forschung und eine Promotion brennen. Forschungsschwerpunkt unseres Lehrstuhls ist das maschinelle Lernen und Wahrnehmen (Sehen/Hören/andere Sensormodalitäten). Ein aktuelles Forschungsthema ist z.B. „Lebenslanges und kontinuierliches Lernen in Einzel- und Multiagentensystemen mit sporadischem menschlichem Feedback“.

Bewerbe Dich (w/m/d) mit Lebenslauf und bisherigen Studiumsnoten.

Weiterlesen
Gruppenfoto des Lehrstuhls
11. Januar 2024

Paper auf der International Conference on 3D Vision (3DV) 2024 akzeptiert

Das Paper mit dem Titel "Towards Learning Monocular 3D Object Localization Using the Physical Laws of Motion" von Daniel Kienzle, Julian Lorenz, Katja Ludwig und Rainer Lienhart wurde auf der Internation Conference on 3D Vision (3DV) 2024 akzeptiert. Das Paper beschreibt eine neue Methode, um Objekten in 3D zu lokalisieren, ohne dass 3D-Grundwahrheiten benötigt werden. Stattdessen wird das Wissen über physikalische Gesetze genutzt, um diese Aufgabe zu lernen.

 

Weitere Informationen zu diesem Paper sind unter https://kiedani.github.io/3DV2024/ zu finden.

Weiterlesen
Ergebnisse 3DV 2024
5. September 2023

Paper für SG2RL @ ICCV 2023 akzeptiert

Das Paper „Haystack: A Panoptic Scene Graph Dataset to Evaluate Rare Predicate Classes” von Julian Lorenz, Florian Barthel, Daniel Kienzle und Rainer Lienhart wurde beim First ICCV Workshop on Scene Graphs and Graph Representation Learning (SG2RL) akzeptiert. Die Autoren präsentieren Haystack, einen neuartigen Datensatz für Scene Graph Generation, der entwickelt wurde, um die Schwachstellen der Evaluation mit aktuellen Scene Graph Datensätzen zu verhindern. Insbesondere zeichnet sich Haystack dadurch aus, dass er seltene Prädikatklassen enthält und auch negative Annotationen beinhaltet. Erst durch diese Eigenschaften können seltene Beziehungen zuverlässig evaluiert werden. Mithilfe der besonderen Struktur des Datensatzes sind die Autoren in der Lage, drei neue Metriken zu definieren, die verwendet werden können, um aussagekräftigere Aussagen über die Modellausgaben zu seltenen Prädikaten zu machen.

 

Weitere Informationen sind unter https://lorjul.github.io/haystack/ zu finden.

Weiterlesen
12. April 2023

Paper auf dem L3D-IVU @ CVPR 2023 akzeptiert

Das Paper mit dem Title "Impact of Pseudo Depth on Open World Object Segmentation with Minimal User Guidance" von Robin Schön, Katja Ludwig und Rainer Lienhart wurde auf dem 2nd Workshop on Learning with Limited Labelled Data for Image and Video Understanding at the CVPR 2023 akzeptiert. In diesem Paper untersuchen die Autoren den Effekt von Pseudotiefenkarten auf die Segmentierung von Objekttypen, welche nicht in den Trainingsdaten vorkamen. Die zu segmentierenden Objekte werden mithilfe von Koordinaten auf der Objektoberfläche identifiziert. Um eine Abhängigkeit von Grundwahrheitstiefenkarten zu vermeiden, werden die Tiefenkarten mit Netzen generiert.

Weiterlesen
Dieses Bild visualisiert die Segmentierung eines angeklickten Objekts auf Tiefenkarten.
5. April 2023

Paper für CVSports @ CVPR 2023 akzeptiert

Das Paper mit dem Titel "All Keypoints You Need: Detecting Arbitrary Keypoints on the Body of Triple, High, and Long Jump Athletes" von Katja Ludwig, Julian Lorenz, Robin Schön and Rainer Lienhart wurde beim 9th International Workshop on Computer Vision in Sports (CVsports) at CVPR 2023 akzeptiert. In diesem Paper beschreiben die Autoren, wie man beliebige Schlüsselpunkte auf dem Körper von Drei-, Weit- und Hochsprung-Athlet*innen erkennen kann. Dazu werden bisherige Methoden um die Detektion auf Händen, Füßen, Köpfen, Ellbögen und Knien erweitert. Unterschiedliche Methoden zur Repräsentation des Kopfs und für den Netzwerk-Input werden im Paper evaluiert.
Weiterlesen
Example image from detection model showing body outline and intermediate lines
29. November 2022

Paper für CV4WS@WACV 2023 akzeptiert

Das Paper mit dem Titel "Detecting Arbitrary Keypoints on Limbs and Skis with Sparse Partly Correct Segmentation Masks" von Katja Ludwig, Daniel Kienzle, Julian Lorenz und Rainer Lienhart wurde auf dem Workshop Computer Vision for Winter Sports auf der IEEE/CVF Winter Conference on Applications in Computer Vision (WACV) 2023 akzeptiert. Die Autoren beschreiben in diesem Paper, wie beliebige Punkte auf den Gliedmaßen und den Ski von Skispringern erkannt werden können. Für die vorgestellte Methode ist ein Datensatz ausreichend, der nur wenige Segmentierungsmasken enthält, und diese müssen auch nur teilweise korrekt sein.

Weiterlesen
Workshop Logo
17. November 2022

Paper für die BMVC 2022 akzeptiert

Das Paper mit dem Titel "Pseudo-Label Noise Suppression Techniques for Semi-Supervised Semantic Segmentation" von Sebastian Scherer, Robin Schön und Rainer Lienhart wurde für die British Machine Vision Conference (BMVC) 2023 akzeptiert. In diesem Paper beschreiben die Autoren eine Methode die es ermöglich, den Bedarf an großen gelabelten Datensätzen zu verringern, indem nicht gelabelte Daten in das Training einbezogen werden. Als Anwendung verwenden die Autoren die menschlicher Posenschätzung sowie die semantische Segmentierung, wobei besonderes letzteres interessant ist, da hier die Annotation von Daten äußerst zeitaufwendig ist.

Weiterlesen
19. Oktober 2022

Erster Platz beim STOIC-Wettbewerb erzielt: Vorhersagen des Verlaufs von COVID-Erkrankungen mit neuronalen Faltungsnetzen

Daniel Kienzle, Julian Lorenz, Katja Ludwig, Robin Schön und Rainer Lienhart vom Lehrstuhl für Maschinelles Lernen und Maschinelles Sehen haben den ersten Platz in der STOIC-Challenge belegt. Das Ziel des Wettbewerbs war es anhand von CT-Scans vorherzusagen, wie sich der Krankheitsverlauf eines Patienten im nächsten Monat entwickeln würde. Umgesetzt wurde dies mit Hilfe von neuronalen Faltungsnetzen und Transferlernen auf verschiedenen Aufgaben.  Organisiert wurde der Wettbewerb von Assistance Publique – Hôpitaux de Paris, Radboud University Medical Center und Amazon Web Services.

Weiterlesen
13. Oktober 2022

Paper für die WACV 2023 akzeptiert

Das Paper mit dem Titel "Uplift and Upsample: Efficient 3D Human Pose Estimation with Uplifting Transformers" von Moritz Einfalt, Katja Ludwig und Rainer Lienhart wurde für die IEEE/CVF Winter Conference on Applications in Computer Vision (WACV) 2023 akzeptiert. In diesem Paper beschreiben die Autoren eine Methode, mit der die Berechnungskomplexität von menschlicher Posenschätzung im 3D Raum mit Transformern erheblich reduziert werde kann. Dennoch können damit weiterhin zeitlich konsistente und präzise 3D Bewegungssequenzen rekonstruiert werden.

Weiterlesen
WACV23
15. August 2022

Paper für den Workshop on AI-enabled Medical Image Analysis auf der European Conference on Computer Vision 2022 akzeptiert

Das Paper mit dem Titel "COVID detection and severity prediction with 3D-ConvNeXt and custom pretrainings" von Daniel Kienzle, Julian Lorenz, Robin Schön, Katja Ludwig und Rainer Lienhart wurde auf dem Workshop on AI-enabled Medical Image Analysis auf der ECCV 2022 akzeptiert.
In diesem Paper zeigen die Autoren, wie die ConvNeXt Architektur auf die Klassifizierung von 3D-CT Scans angewendet werden kann. Insbesondere werden verschiedene Methoden untersucht um Transferlernen für die Endanwendung auf medizinischen 3D-Daten durchzuführen. Mit den Erkenntnissen aus diesem Paper wurde der zweite Platz in der 1st COVID19 Severity
Detection Challenge und der dritte Platz in der 2nd COVID19 Detection Challenge erreicht.

Weiterlesen
1. Juli 2022

Verteidigung von Dr. Stephan Brehm

Wir gratulieren Dr. Stephan Brehm herzlich zur erfolgreichen Verteidigung seiner Dissertation mit dem Titel: Image Manipulation and Image Synthesis: Applications and Use-Cases using Deep Neural Networks.

Wir bedanken uns für die gemeinsame Zeit am Lehrstuhl und wünschen Ihm für die Zukunft alles Gute!

Weiterlesen

Suche