Zu Hauptinhalt springenZur Suche springenZu Hauptnavigation springenZu Footer springen
Logo der Fachhochschule Nordwestschweiz
  • DE
  • Startseite

Zehn Hochschulen Ein Ziel

Die FHNW umfasst 10 Hochschulen mit unterschiedlichen Schwerpunkten. Wählen Sie eine Hochschule aus, um deren spezifische Kurse, Studiengänge und Informationen zu sehen.

Angewandte Psychologie

Architektur, Bau und Geomatik

Gestaltung und Kunst

Informatik

Life Sciences

Musik

Pädagogische Hochschule

Soziale Arbeit

Technik und Umwelt

Wirtschaft

  • Studienangebot

    • Alle Studiengänge
    • Bachelor-Studiengänge
    • Master-Studiengänge
    • Info-Anlässe
  • Rund ums Studium

    • So studierst du bei uns
    • Zulassung und Vorbereitung
    • Organisatorisches
  • Weiterbildungsangebot

    • Alle Weiterbildungen
    • MAS - Master of Advanced Studies
    • DAS - Diploma of Advanced Studies
    • CAS - Certificate of Advanced Studies
    • Module
    • Info-Anlässe
  • Weiterbildungen nach Themen

    • Artificial Intelligence & Machine Learning
    • Data Science & Engineering
    • Software Development & Engineering
  • Forschung

    • Forschungsfelder
    • Ausgewählte Projekte
  • Neuigkeiten und Einblicke

    • News & Storys
  • Veranstaltungen

    • Alle Veranstaltungen
    • Info-Anlässe
  • Medien

    • Medienmitteilungen
  • Über die Hochschule für Informatik

    • Newsroom
    • Personenverzeichnis
  • Institute

    • Institut für Data Science
    • Institut für Interaktive Technologien
    • Institut für Mobile und Verteilte Systeme
Logo der Fachhochschule Nordwestschweiz
  • Zur Hochschule
    • Social Media
      • LinkedIn
      • YouTube
      • Instagram
      • Bluesky
      • TikTok
    • Die FHNW
      • Organisation
      • Hochschulen
      • Standorte
      • Bibliothek FHNW
      • Jobs und Karriere
      • Medienkontakte
    • Support
      • IT-Support
      • Inside FHNW
      • Webmail
    • Datenschutz
    • Impressum
    • Accessibility
    • Studienangebot

      • Alle Studiengänge
      • Bachelor-Studiengänge
      • Master-Studiengänge
      • Info-Anlässe
    • Rund ums Studium

      • So studierst du bei uns
      • Zulassung und Vorbereitung
      • Organisatorisches
    • Weiterbildungsangebot

      • Alle Weiterbildungen
      • MAS - Master of Advanced Studies
      • DAS - Diploma of Advanced Studies
      • CAS - Certificate of Advanced Studies
      • Module
      • Info-Anlässe
    • Weiterbildungen nach Themen

      • Artificial Intelligence & Machine Learning
      • Data Science & Engineering
      • Software Development & Engineering
    • Forschung

      • Forschungsfelder
      • Ausgewählte Projekte
    • Neuigkeiten und Einblicke

      • News & Storys
    • Veranstaltungen

      • Alle Veranstaltungen
      • Info-Anlässe
    • Medien

      • Medienmitteilungen
    • Über die Hochschule für Informatik

      • Newsroom
      • Personenverzeichnis
    • Institute

      • Institut für Data Science
      • Institut für Interaktive Technologien
      • Institut für Mobile und Verteilte Systeme

    Geben Sie einen Suchbegriff ein und suchen Sie nach Weiterbildungen, Studienangeboten, Veranstaltungen, Dokumenten und anderen Inhalten.

    • Informatik
    • Weiterbildung
    • Angebot
    • Weiterbildungen
    • Fachvertiefungsmodule Data Science
    Fachvertiefungsmodule Data Science

    Modul: Explainable AI, Hochschule für Informatik FHNW

    Hochschule für Informatik


    Überzeuge Kunden und Vorgesetzte, indem du deine Ergebnisse in Form einer packenden Geschichte klar verständlich und zielgruppengerecht kommunizierst!

    topbild-das-data-science-ht-fhnw.jpg

    Steckbrief

    ECTS-Punkte
    2 / 2
    Dauer
    2 Unterrichtstage
    Unterrichtssprache(n)
    Deutsch
    Durchführungsort(e)
    FHNW Campus Brugg-Windisch
    Preis
    CHF 1200.–
    Dokumente
    • Weiterbildungsordnung_WB.pdf

    Ziele und Nutzen

    Um immer bessere Ergebnisse bei der Arbeit mit Machine Learning zu erreichen liegt der Fokus auf der Auswahl des leistungsfähigsten Modells. Hierfür nutzt man Werte wie Accuracy oder RSME, die man optimieren will. Sie zeigen an, wie oft das Modell richtig liegt, beziehungsweise wie weit das Modell danebenliegt.
    Mit einem starken Fokus auf diese Werte wird häufig einer Frage weniger Beachtung geschenkt: Welche Schlüsselfaktoren verwendet der Algorithmus schlussendlich tatsächlich, um den optimalen Wert zu erreichen? Die Identifikation dieser Schlüsselfaktoren ist entscheidend, um die Modelle nicht nur leistungsfähig, sondern auch nachvollziehbar und vertrauenswürdig zu gestalten.
    Sie zu bestimmten wird komplexer, je umfangreicher die Modellen werden. Neuronale Netze oder Ensembles basieren auf gewichteten Faktoren, die nicht einfach anhand ihrer Parameter abgelesen werden können.

    Nachfolgendes Beispiel aus der Publikation „‘Why should I trust you?‘ Explaining the Predictions of Any Classifier“ zeigt beim Klassifikationsproblem „Wolf oder Husky“, welche Pixels den Algorithmus bei seiner (Fehl-)Entscheidung am meisten beeinflusst haben: Der Schnee im Hintergrund und nicht das Tier selbst.

    Mit Hilfe von Explainable AI gelingt so ein wervoller Blick hinter die Kulisse von Künstlicher Intelligenz. Das Beispiel zeigt uns, dass die Trainingsdaten offenbar zu einseitig waren. Fügt man den Trainingsdaten weitere Bilder von Huskys im Schnee hinzu, ist dieser nicht mehr alleinig für die Klassifizierung möglich. Der Algorithmus muss für die korrekte Klassifizierung andere Faktoren stärker gewichten, um somit besser zu generalisieren.

    Werden die Entscheidungen eines so wichtiges Tool wie AI nachvollziehbarer, schafft diese Transparenz auch Vertrauen bei Vorgesetzten und Kunden. Verständliche Entscheidungsprozesse bei der Anwendung von Machine Learning sind in verschiedenen Bereichen wie beispielsweise der Medizin oder Strafrecht fundamental.
    Bildgestütze Tumorerkennung oder auf Diskriminierung sensibilisierte Algorythmen sind nur zwei Beispiele hierfür.

    Lernziele

    Du weisst:

    • wie «Interpretierbarkeit» im Kontext von ML zu verstehen ist.welche simpleren Modelle interpretierbar sind und wie du diese interpretieren kannst.

    Du kennst :

    • verschiedene Modell-unabhängige Ansätze («Model agnostic methods» oder «Example based explanations») und kannst diese anwenden, um neben den simplen Modellen auch komplexere wie Ensembles oder Neuronale Netze zu interpretieren.
    • neben bewährten Techniken auch die neusten Entwicklungen im Bereich «Explainable AI».

    Inhalt und Aufbau

    In diesem Kurs lernst du, wie einfache Machine-Learnng-Modelle interpretiert werden können. Du erfährst zudem, mit welchen Techniken sich die Entscheidungsgrundlagen Modelle nachvollziehen lassen. Diese Techniken lassen sich auf simple und komplexere Modelle, wie Ensembles oder Deep Learning, anwenden.

    Technologien: Python

    Voraussetzungen und Zulassung

    Für diesen Kurs brauchst du Grundkenntnisse in linearer Algebra, Wahrscheinlichkeitsrechnung und Machine Learning. Du musst in der Lage sein, Machine Learning mit Python durchzuführen und die gängigen Libraries wie numpy oder sklearn kennen.

    Organisatorisches

    Abschluss

    Du erhältst in jedem Fall eine Teilnahmebestätigung. Falls du in der festgelegten Leistungsbeurteilung mindestens eine genügende Leistung erbringst, erhältst du einen Nachweis, dass du das Modul erfolgreich bestanden hast.

    Teilnehmenden des DAS- oder MAS-Data-Science-Weiterbildungslehrgangs werden die entsprechenden ECTS-Punkte angerechnet.

    Kursvorbereitung

    Wir empfehlen dir, dich vor Kursbeginn nochmals mit linearer Algebra auseinanderzusetzen.
    Bitte plane etwa 8 Stunden für die Vorbereitung.

    Mindestteilnehmerzahl

    8 Teilnehmende

    Der nächste Anmeldetermin ist noch nicht freigeschaltet.

    Tritt mit uns in Kontakt

    Michael Henninger

    Prof. Michael Henninger

    Leiter Zentrum Weiterbildung
    Telefon
    +41 56 202 87 61
    E-Mail
    michael.henninger@fhnw.ch
    Patrizia Hostettler

    Patrizia Hostettler

    Sekretariat Weiterbildung
    Telefon
    +41 56 202 72 18
    E-Mail
    patrizia.hostettler@fhnw.ch

    Info-Anlässe

    Loading...

    Hochschule für
    Informatik Fachhochschule Nordwestschweiz FHNW

    • Zur Hochschule
      • Social Media
        • LinkedIn
        • YouTube
        • Instagram
        • Bluesky
        • TikTok
      • Die FHNW
        • Organisation
        • Hochschulen
        • Standorte
        • Bibliothek FHNW
        • Jobs und Karriere
        • Medienkontakte
      • Support
        • IT-Support
        • Inside FHNW
        • Webmail
      Logo FHNW - 20 Jahre
      Logo Swiss Universities
      Logo European University Association
      © FHNW Fachhochschule Nordwestschweiz
      • Datenschutz
      • Impressum
      • Accessibility
      • DE