Erklärbare Künstliche Intelligenz: Nachvollziehbare KI etablieren (ExplAIn)

Ob Bilderkennung oder virtueller Assistent: Maschinelles Lernen (ML) wird bereits von Unternehmen vielseitig genutzt. Der Mehrwert: Produktionsprozesse können durch Methoden des maschinellen Lernens autonom adaptiert oder sogar komplett vorgeplant und geregelt werden. Doch es gibt auch Unternehmen, die aufgrund situationsbedingter Fehler, fehlender Nachvollziehbarkeit und fehlender Beeinflussbarkeit kein Vertrauen in die Künstliche Intelligenz haben. Dabei handelt es sich bei den aufgezählten Vorbehalten nicht um Schwächen der Künstlichen Intelligenz, sondern um Schwächen bei der Kontrolle der Anwendung. Es fehlt vielfach an implementierbaren Kontrollinstanzen, die vorhandene und neue ML-Systeme nachvollziehbarer und sicherer machen.

Das Ziel des Projekts ‚Erklärbare künstliche Intelligenz für sichere und vertrauenswürdige industrielle Anwendungen (ExplAIn)‘ ist es deshalb, vorhandene und neue Verfahren für Maschinelles Lernen nachvollziehbarer und sicherer zu machen. Dafür wird ein System auf Basis von Explainable Artificial Intelligence (XAI, erklärbare Künstliche Intelligenz) entwickelt. XAI setzt sich aus Prozessen und Methoden zusammen, die es Anwender:innen ermöglichen, die durch Maschinelles Lernen erzeugten Ergebnisse zu verstehen und ihnen zu vertrauen. Das XAI-System soll somit sichere und nachvollziehbare KI-Anwendungen in der Praxis etablieren.

Aktuelles aus dem Projekt