Erklärbare Künstliche Intelligenz: Nachvollziehbare KI etablieren (ExplAIn)

Ob Bilderkennung oder virtueller Assistent: Maschinelles Lernen (ML) wird bereits von Unternehmen vielseitig genutzt. Der Mehrwert: Produktionsprozesse können durch Methoden des maschinellen Lernens autonom adaptiert oder sogar komplett vorgeplant und geregelt werden. Doch es gibt auch Unternehmen, die aufgrund situationsbedingter Fehler, fehlender Nachvollziehbarkeit und fehlender Beeinflussbarkeit kein Vertrauen in die Künstliche Intelligenz haben. Dabei handelt es sich bei den aufgezählten Vorbehalten nicht um Schwächen der Künstlichen Intelligenz, sondern um Schwächen bei der Kontrolle der Anwendung. Es fehlt vielfach an implementierbaren Kontrollinstanzen, die vorhandene und neue ML-Systeme nachvollziehbarer und sicherer machen.

Das Ziel des Projekts ‚Erklärbare künstliche Intelligenz für sichere und vertrauenswürdige industrielle Anwendungen (ExplAIn)‘ ist es deshalb, vorhandene und neue Verfahren für Maschinelles Lernen nachvollziehbarer und sicherer zu machen. Dafür wird ein System auf Basis von Explainable Artificial Intelligence (XAI, erklärbare Künstliche Intelligenz) entwickelt.

Was ist XAI?

XAI (dt.: erklärbare Künstliche Intelligenz) macht Entscheidungsprozess von KI-Modellen für Anwender:innen verständlich und transparent.

Dafür werden drei Techniken Interpretable Modelle, Features Importance und visuelle Erklärungen verwendet. Interpretable Modelle sind einfache Modelle, deren Entscheidungen leicht nachvollziehbar sind. Feature Importance zeigt, welche Eingabedaten am wichtigsten für die Entscheidungen des Modells sind. Visuelle Erklärungen nutzen Diagramme und Grafiken, um die Entscheidungsprozesse darzustellen.

Das XAI-System soll somit sichere und nachvollziehbare KI-Anwendungen in industriellen Umfeldern etablieren und Vertrauen zu ML-Systemen schaffen.

Aktuelles aus dem Projekt