KI-Deployment Workshop
Mehr Wissen für frische Entwickler*innen und Quereinsteiger*innen. Ein grosses Sprachmodell auf der Infrastruktur meiner Wahl betreiben.
Eckdaten
- Nächster Start
- Do, 22.01.2026, 08:00-12:00
- Dauer
- Ein Halbtag
- Unterrichtstage
- Donnerstag
- Unterrichtssprache
- Deutsch
- Durchführungsort(e)
- FHNW Campus Brugg-Windisch
- Preis
- CHF 600.-, Teams ab 5 Personen erhalten 10% Rabatt
Mobile navi goes here!
Der Workshop richtet sich an alle, die KI‑Systeme eigenständig betreiben und dabei Kontrolle über ihre Daten und Infrastruktur ausüben möchten. Du lernst, wie du sowohl auf deiner eigenen Hardware als auch auf Cloud‑Diensten deine bisher entwickelte KI installierst und betreibst. Im Workshop werden wir Werkzeuge wie Ollama und Plattformen wie Replicate und Microsoft Azure kennenlernen. Bei der Wahl gehen wir gerne auch auf deine Rahmenbedingungen ein. Wir finden das passende KI‑Modell (LLM), beurteilen das Aufsetzen, Konfigurieren und Überwachen, und geben eine kurze Einführung in Performance, Resourcenverbrauch, Kosten und deren Überwachung. So kannst du KI‑Anwendungen nachhaltig mit adäquater Leistung einsetzen.
Alle Kurse der Reihe «KI für die Praxis» können auch spezifisch auf Anfrage oder Firmen-intern durchgeführt werden.
Genaue Details besprechen wir gerne per Mail.
Der Workshop ist praxisnah aufgebaut: Nach einer Einführung in die wichtigsten Aspekte einer KI Installation (KI-Modelle auswählen, benötigte Ressourcen einschätzen, Plattform auswählen) legen die Teilnehmenden selbst Hand an. Gemeinsam wird eine beispielhafte KI-Umgebung aufgesetzt, damit die Teilnehmenden ein Verständnis für die Vorgehensweise und die möglichen Herausforderungen entwickeln. Anschliessend arbeiten alle an der Installation einer eigenen Installation. Expert*innen begleiten durch den gesamten Prozess, beantworten Fragen und unterstützen beim Umsetzen individueller Ziele.
Themen:
- Werkzeuge und Plattformen zur Installation und Betrieb von KI
- Auswahl von KI-Modellen, mit Fokus auf grossen Sprachmodellen (LLMs)
- Performance von KI-Systemen und Ressourcenbedarf für Hardware (GPU, Speicher, Energie und Kosten)
- Aufsetzen, Konfigurieren und Überwachen von KI
