Fallbasierte Erklärung: Liefert eine Erklärung auf die Frage: „Gab es den Fall schon einmal?“. Die KI prüft hier im historischen Vergleich, ob eine ähnliche Anomalie bereits schon einmal aufgetreten war. Ist das der Fall, ist es wahrscheinlich, dass es sich auch um die gleiche Fehlerursache handeln – und die KI weist daraufhin.
Sprachbasierte Erklärung: Liefert eine Erklärung auf die Frage: „Lässt sich die Anomalie in einem Satz zusammenfassen?“. Das Problem: KI-Vorhersagen zu möglichen Anomalien erscheinen in Form von numerischen Anomalie-Indikatoren, die ein Mensch auch erst einmal interpretieren muss. Die Idee dieses Explainer ist daher, dass der Mensch i.d.R. in Sprache denkt und eben dieses sprachliche Denken angesprochen werden will.
Merkmalsbedeutung: Liefert eine Erklärung auf die Frage: „Woher kommt die Anomalie?“. Zu einer Anomalie tragen verschiedene Signale in unterschiedlichem Ausmaß bei. Die KI identifiziert, welches Signal den stärksten Einfluss hat und weist so auf den wahrscheinlichen Ursprungsort des Problems hin. Das erleichtert die gezielte Fehlersuche in einem bestimmten Bereich der Anlage.
Kontrafaktische Erklärung: Liefert eine Erklärung auf die Frage: „Wie hätte das Signal im Normalfall verlaufen müssen?“. Das KI-System zeigt hier den erwarteten Normalverlauf eines Signals im Vergleich zur Anomalie auf. Diesen Soll-Ist-Vergleich machen Anlagenfahrer heute bereits gedanklich, was jedoch viel Erfahrung erfordert. Der Explainer kann die Abweichung direkt verdeutlichen.
Kontextualisierung: Liefert eine Erklärung auf die Frage: „Gibt es weitere Informationen, die zur Erklärung beitragen können?“. Dazu werden zusätzliche Datenquellen wie Alarmlogs und elektronische Schichtbücher mit der Anomalie korreliert, um mehr Kontext zu dem Problem zu liefern.