Wie kann man die Strategien selbstlernender Agenten am besten nachvollziehen?

Die Zeitschrift "Artifical Intelligence Journal" akzeptierte kürzlich einen wissenschaftlichen Artikel, den unsere Kollegen Tobias Huber, Katharina Weitz und Prof. Dr. Elisabeth André vom Lehrstuhl für Menschzentrierte Künstliche Intelligenz zusammen mit der Forscherin Ofra Amir vom Technion Israel Institute of Technology verfasst haben. Das Journal gehört zu den angesehensten Zeitschriften für Forschung zu Künstlicher Intelligenz. Unser Artikel "Local and global explanations of agent behavior: Integrating strategy summaries with saliency maps" beschäftigt sich mit erklärbarer Künstlicher Intelligenz.

Dieses Themengebiet untersucht, wie die internen Vorgänge moderner KI Systeme für Nutzer verständlich gemacht werden können. In unserer Forschung beschäftigten wir uns insebesondere mit Agenten, die durch bestärkende Lernalgorithmen trainiert wurden. Diese Agenten lernen anhand von Belohnungen, die sie nach Interaktionen mit ihrer Umgebung erhalten. Hierbei kann es vorkommen, dass die Belohnung, die sich ein solcher bestärkender Lernagent von einer Aktion verspricht, erst einige Zeit nach dieser Aktion eintritt. Deshalb ist das Verhalten bestärkender Lernagenten besonders schwer nachzuvollziehen.

Unser Artikel untersucht zum ersten Mal, wie sich eine Kombination aus globalen Informationen zur Strategie eines bestärkenden Lernagenten mit lokalen Erklärungen zu einzelnen Entscheidungen des Agenten auf Nutzer auswirkt. Die durchgeführte Studie ergab, dass die globalen Informationen zur Strategie des Agenten für Nutzer nützlicher waren. Die Ergebnisse zeigen außerdem neue Wege auf, um die Wirksamkeit der Erklärungen zu einzelnen Entscheidungen in Kombination mit globalen Informationen in Zukunft zu verbessern.

Suche