Skip to main content

Modul: Explainable AI

Schaffen Sie Vertrauen in Ihr (Blackbox-)Modell und finden Sie weitere Optimierungsmöglichkeiten dank dem Verständnis, welche Kriterien der Algorithmus bei seiner Entscheidung wie stark gewichtet hat.

Eckdaten

ECTS-Punkte
2,5
Nächster Start
Herbstsemester 2024
Dauer
3 Unterrichtstage
Unterrichtssprache
Englisch
Ort
FHNW Campus Brugg-Windisch
Preis
CHF 1500.–

 

Nächster Start: 4. November 2023. Jetzt anmelden!

Allzu häufig wird bei Machine Learning das Hauptaugenmerk auf einen zu optimierenden Wert (z.B. Accuracy, RSME) gelegt, um das beste Modell für einen Anwendungsfall zu finden. Vernachlässigt wird leider immer wieder zu untersuchen, welche Schlüsselfaktoren der Algorithmus schlussendlich verwendet, um diesen optimalen Wert zu erreichen. Hinzu kommt, dass dies bei komplexeren Modellen wie Ensembles oder Neuronalen Netzen, die sehr häufig auch gute Resultate liefern, schwerer ist, da die gewichteten Faktoren nicht einfach anhand der Parameter abgelesen werden können.

Nachfolgendes Beispiel aus der Publikation „‘Why should I trust you?‘ Explaining the Predictions of Any Classifier“ zeigt beim Klassifikationsproblem „Wolf oder Husky“, welche Pixels den Algorithmus bei seiner (Fehl-)Entscheidung am meisten beeinflusst haben: Der Schnee im Hintergrund und nicht das Tier selbst.

husky-test-das-data-science-ht-fhnw.jpg

Dieser Blick hinter die Kulisse mit Hilfe von Explainable AI ist von unschätzbarem Wert. Im obigen Beispiel kann der Algorithmus dank der durchgeführten Untersuchung nun optimiert werden, da die Trainingsdaten zu einseitig waren. Wenn den Trainingsdaten weitere Bilder von Huskys im Schnee hinzugefügt werden, muss der Algorithmus für die korrekte Klassifizierung andere Faktoren als der Schnee stärker gewichten, um somit besser zu generalisieren.

Ein weiterer Hauptnutzen von Explainable AI ist, dass diese Transparenz auch Vertrauen bei Vorgesetzten und Kunden schafft, da nachvollzogen werden kann, weshalb der Algorithmus so entscheidet. In verschiedenen Bereichen wie beispielsweise der Medizin oder Strafrecht ist bei der Anwendung von ML fundamental, die Beweggründe des Algorithmus nachvollziehen zu können. Spätestens seit der Einführung der DSGVO haben EU Bürger das Recht auf Erklärung bei automatisiert getätigten Entscheidungen durch Algorithmen.

Modulübersicht

In diesem Kurs lernen Sie einerseits, welche simplere Machine Learning Modelle wie interpretiert werden können, aber auch verschiedene generell anwendbare und Model unabhängig Techniken, um die Entscheidungsgrundlagen auch für komplexere Modelle wie Ensembles oder Deep Learning offen legen zu können.

Weitere Informationen

Downloads & weitere Informationen

Programm-Reglement Weiterbildung Data Science

Diese Seite teilen: