Proseminar Selbst-Erklärbarkeit von Software Systemen: AI trifft Theoretische Informatik

  • Typ: Proseminar (PS)
  • Lehrstuhl: KIT-Fakultäten - KIT-Fakultät für Informatik
  • Semester: SS 2023
  • Dozent: Jun.-Prof. Dr. Maike Schwammberger
  • SWS: 2
  • LVNr.: 2400143
Inhalt

Jedes Jahr werden in vielen Anwendungsbereichen des täglichen Lebens mehr und mehr autonome, zum Teil selbst-lernende, Software Systeme eingesetzt. Insbesondere werden immer mehr Funktionen von autonomen Systemen übernommen, die zuvor von Menschen erledigt wurden, oder Funktionen werden von System und Mensch gemeinsam ausgeführt. Bei teil-autonomen Fahrfunktionen beispielsweise gibt es bestimmte Situatonen, in denen die Kontrolle über das Auto wieder zurück an einen Menschen übergeben werden muss.

 

Um eine solche Zusammenarbeit von Mensch und System zu verbessern, oder überhaupt zu ermöglichen, wird die Verstehbarkeit von immer komplexeren Systemen immer wichtiger. Eine solche Verstehbarkeit wird durch die Selbst-Erklärbarkeit der Systeme ermöglicht. Selbst-Erklärbarkeit umschreibt verschiedene Methoden, die vom System getroffene Entscheidungen und Aktionen begründen. Hierbei müssen verschiedene Arten von Erklärungen an verschiedene Empfänger von Erklärungen geliefert werden (z.B. End-Nutzer:in vs. Ingeneur:in/ Expert:in). Erklärbarkeit ist zudem essentiell um das Vetrauen von Nutzer:innen in autonome Systeme zu verbessern.

 

Dieses Proseminar deckt ein breites Spektrum an Themenbereichen zur Erklärbarkeit ab:

 
  • Formale Methoden der Erklärbarkeit („Definition“ von Erklärungen)
  • Erklärbarkeit für Black-Box Systeme (z.B. AI/ Neuronale Netze)
  • Verschiedene Arten von Erklärungen (z.B. bevor etwas passiert („a priori“), während etwas passiert („in situ“), oder nachdem etwas passierte („a-posteriori“/ „forensisch“)