OC-Trust

Informationen

Projektstart: 01.10.2009
Projektende: 31.07.2017
Projektträger: DFG
Projektverantwortung vor Ort: Prof. Dr. Elisabeth André
Beteiligte Wissenschaftliche MitarbeiterInnnen: M.Sc. Stepan Hammer, Dipl. Inf. Michael Wißner
Webseite: OC-Trust

 

 

© Universität Augsburg

Über das Projekt

Zusammenfassung

Ziel der von der DFG geförderten Forschergruppe OC-Trust ist es, die Vertrauenswürdigkeit von Organic Computing Systemen zu verbessern, um so ihren Einsatz in offenen, heterogenen, sicherheitskritischen und nutzerzentrierten Szenarien zu ermöglichen. Weiterhin soll untersucht werden, inwieweit Trust als konstitutives Element von technischen Systemen zur Verbesserung ihrer Robustheit und Effizienz beitragen kann. Dazu werden Methoden, Modelle, Algorithmen und Benutzerschnittstellen entwickelt. Diese Techniken erlauben, Vertrauen beim Entwurf der Systeme zu berücksichtigen und diese auf ihre Vertrauenswürdigkeit hin zu untersuchen. Außerdem ermöglichen sie, Vertrauen zur Laufzeit zu messen und die Systeme in Bezug auf verschiedene Vertrauensaspekte anzupassen.

 

Beschreibung

Kernmerkmal von OC-Systemen ist die Fähigkeit, sich selbstständig an geänderte Nutzungs- und Umgebungsbedingungen anpassen zu können. OC-Systeme stellen Entwickler von Bedienkonzepten damit allerdings vor eine besonders anspruchsvolle Aufgabe, da nicht davon ausgegangen werden kann, dass plötzliche und oftmals unerwartete Anpassungen stets selbsterklärend sind. Vielmehr besteht die Gefahr, dass Nutzer Anpassungen als nicht plausibel ansehen und nicht nachvollziehen können, warum sie durchgeführt wurden. Dies wiederum kann zu einem Vertrauensverlust des Nutzers und im schlimmsten Fall zu einer Ablehnung des Systems führen. Ziel des Lehrstuhls "Human Centered Multimedia" ist die Entwicklung von vertrauenswürdigen Nutzerschnittstellen, die diesen Herausforderungen gewachsen sind.

 

Zur Erreichung dieses Ziels wird auf der Grundlage von Bayes Netzen mit dem User Trust Model (UTM) ein Modell erarbeitet, dass es ermöglicht, Nutzervertrauen in einem OC-System systematisch zu messen, zu kontrollieren und durch adäquate Systemaktionen wiederherzustellen. Ein Beispiel einer solchen Systemaktion wäre die Generierungen von Erklärungen, um die Transparenz des Systems zu verbesseren und dem Nutzer zu verdeutlichen, warum sich das System auf genau diese Weise angepasst hat.

 

Beispiel für ein UTM zum Schutz der Daten eines Nutzers bei der Nutzung eines öffentlichen Displays © Universität Augsburg

 

 

Um Systemaktionen zum Einen möglichst flexibel, zum Anderen aber auch im Rahmen gewisser Richtlinien, wie z.B. grundlegender Gestaltungsgesetze für Nutzerschnittstellen, durchführen zu können erfolgt die Umsetzung der Systemaktionen mit Hilfe eines Constraint-basierten Ansatzes, der es erlaubt, zur Designzeit harte und weiche Verhaltenskorridore für vertrauenswürdige Nutzerumgebungen festzulegen, deren Einhaltung dann zur Laufzeit automatisch überprüft wird.

 

Die entwickelten Methoden und Techniken werden anhand von hochdynamischen Demonstratoren bestehend aus heterogenen, beliebig kombinierbaren Interaktions- und Präsentationsgeräten evaluiert. Die von uns betrachteten Demonstratoren integrieren öffentliche Displays (sogenannte Public Screens), private und mobile Displays (Smartphones, Tablets) und semi-öffentliche Displays, wie z.B. interaktive Tische (Microsoft Surface). Für die entstandene Systemklasse wurde der Begriff Trusted Display Grid, kurz TDG, eingeführt.

Suche