Explainable Artificial Intelligence (XAI): Wie Machine-Learning-Vorhersagen interpretierbar(er) werden

© Stock/Lauren Noakes
© Stock/Lauren Noakes

27.10.2022

Künstliche Intelligenz ist auf künstliche neuronale Netzwerke zurückzuführen, die dem menschlichen Gehirn nachempfunden sind. In bestimmten Situationen ist es notwendig, die Entscheidungsgrundlage der Modelle aus dem Bereich Deep-Learning für Vorhersagen erklären zu können.

Künstliche Intelligenz unterstützt uns bei der Wahl unserer Kleidung, erleichtert uns die Kommunikation über Sprachbarrieren hinweg, assistiert uns beim Fahren und vereinfacht die Navigation. All diese Bereiche durchdringt Künstliche Intelligenz (KI) und ist damit aus unserem Alltag nicht mehr wegzudenken. Künstliche Intelligenz ist großteils auf tiefe, künstliche neuronale Netzwerke zurückzuführen, die dem menschlichen Gehirn nachempfunden sind. Welche Faktoren für die Vorhersagen entscheidend sind, bleibt dabei meist im Dunkeln. Modelle aus dem Bereich Deep-Learning sind aufgrund ihrer Architektur zwar oft einsehbar, aber nicht interpretierbar (sog. Black Boxes). Das bedeutet, dass Modellvorhersagen und daraus abgeleitete Entscheidungen von Menschen ohne zusätzliche Software nicht nachvollzogen werden können. In bestimmten Situationen ist es jedoch notwendig, die Entscheidungsgrundlage der Vorhersage erklären zu können.

>> Zum gesamten Fachbeitrag


zur Übersicht