Explainable Artificial Intelligence in Trusted-Computing-Anwendungen
Typ:

Bachelor-/Masterarbeit

Betreuer:

M.Sc. Max Becker
M.Sc. Paul Georg Wagner

Status:

abgeschlossen

Abgabedatum:

Mai 2022

Interaktive Assistenzsysteme bilden einen wichtigen Baustein vieler moderner Anwendungsfälle in Industrie und Produktion. Die Abteilung Interaktive Analyse und Diagnose (IAD) des Fraunhofer IOSB forscht an der Entwicklung von modernen Mensch-Maschine-Schnittstellen, die die Nutzer*innen solcher Systeme intuitiv und situationsgerecht unterstützen können. In diesem Zusammenhang wird seit einiger Zeit immer stärker auf Methoden der künstlichen Intelligenz (KI) gesetzt. Dabei fallen in der Regel große Mengen Daten an, die aufgrund der Mensch-Maschine-Interaktion häufig datenschutzkritisch sind. Um die Transparenz und Akzeptanz solcher Systeme zu erhöhen, werden Verfahren der Explainable Artificial Intelligence (XAI) angewandt. Diese Verfahren generieren auf der Basis von bereitgestellten Eingabedaten menschenlesbare Erklärungen für das Verhalten von KI-Systemen. Häufig dürfen jedoch auch diese Eingabedaten nicht in falsche Hände fallen. In dieser Arbeit soll untersucht werden, inwieweit Methoden des Trusted Computing geeignet sind, die Eingabedaten der Nutzer*innen während des Erklärverfahrens zu schützen. Dabei soll im Besonderen auf Trusted Execution Environments (TEEs) wie das weitverbreitete Intel SGX und auf Trusted Platform Modules (TPMs) eingegangen werden. Abschließend sind die gewonnenen Erkenntnisse im Rahmen eines prototypischen Proof-of-Concepts zu implementieren.

Die Anforderungen

  • Du studierst Informatik, Ingenieurwissenschaften, Mathematik oder eine vergleichbare Fachrichtung
  • Du bringst ausgeprägtes Interesse in den Bereichen Artificial Intelligence und Trusted Computing mit
  • Du scheust nicht den Umgang mit C++ und Python

Deine Aufgaben

  • Einarbeiten in die Themengebiete Explainable Artificial Intelligence (XAI) und Trusted Computing
  • Vergleich existierender Machine-Learning-Ansätze in Trusted-Computing-Umgebungen
  • Entwicklung und prototypische Umsetzung eines Erklärverfahrens in Trusted Execution Environments

Unser Angebot

  • Anwendungsnahe Forschung in einem innovativen Umfeld
  • Gelegenheit, deine Kenntnisse und Fähigkeiten zur Lösung einer wissenschaftlichen Fragestellung einzusetzen und zu vertiefen
  • Offenes und kommunikatives Arbeitsklima sowie intensive Betreuung Kontakt

Haben wir dein Interesse geweckt? Dann schicke einfach eine Mail mit einem aktuellen Notenauszug an uns:

Max Becker
maximilian.becker@iosb.fraunhofer.de

Paul Wagner
paul-georg.wagner@iosb.fraunhofer.de

Für Rückfragen: Telefon +49 721 6091-265