Du möchst Daten-Infrastrukturen aufbauen, die skalierbar, zuverlässig und zukunftsfähig sind? Im CAS Data Engineering lernst du, wie du Daten effizient verarbeitest, speicherst und für Data-Science-Anwendungen nutzbar machst – On-Prem oder in der Cloud.
Steckbrief
- Abschluss
- CAS
- ECTS-Punkte
- 15
- Nächster Start
- 12.9.2026
- Dauer
- 23 Kurstage
- Unterrichtssprache(n)
- Deutsch, Grundkenntnisse in Englisch essenziell
- Durchführungsort(e)
- FHNW Campus Brugg-Windisch
- Preis
- CHF 7’800
Ziele und Nutzen
Daten sind der Schlüssel zum Erfolg. Unternehmen sammeln daher immer mehr Informationen, um sich gut auf dem Markt zu positionieren. Dies kann auf zwei verschiedenen Ebenen geschehen: Während Data Scientists sich darum kümmern diese Daten zu sammeln, übernimmst du als Data Engineer ein sehr breites Spektrum an Aufgaben: Du kümmerst dich den gesamten Prozess. Von der Planung der Daten-Infrastruktur, deren Auf- und Ausbau bis zum Betrieb und dessen Überwachung. Dabei arbeitest du sowohl mit On-Prem als auch Cloud-basierten Lösungen.
Deine Daten-Infrastrukturen sind hochverfügbar. Deine Datenvisualisierungen in Dashbords helfen dabei, den Betrieb und dessen Daten im Blick zu behalten. Als Data Engineer sorgst du dafür, Informationen in Datenpipelines zusammenzuführen und an geeigneter Stelle speicherst. Dabei lernst du den Unterschied zwischen einer Datenbank, einem Data Warehouse oder einem Data Lake kennen. Du berücksichtigst auch Data Governance Aspekte.
Data Engineers wissen, wie man grosse Datenmengen effizient verarbeitet. Du wählst je nach Aufgabe und vorhandener Technik das passende Verfahren und Werkzeug, um Daten zuverlässig und schnell zu verarbeiten. Hierfür bieten sich Cloud-basierte Lösungen an. Der CAS Data Engineering macht dich mit ihnen vertraut, so dass du sie gezielt einbinden kannst.
Dank dem Grundverständnis von Machine Learning sind Data Engineers in der Lage, Machine Learning Modelle in der Produktion zu betreiben und zu überwachen, um frühzeitig Verschlechterungen in der Vorhersage-Qualität zu erkennen.
Zielpublikum
Du bist eine Fachperson aus der IT oder möchtest für IT-Infrastrukturen, die zukünftige Planung, Umsetzung und den produktiven Betrieb von Daten-Infrastrukturen zuständig sein.
Inhalt und Aufbau
CAS Data Engineering gliedert sich in 9 Module, mit Schwerpunkten von Architektur, Big Data, Datenspeicherung bis hin zum Software-Engineering. Hier siehst du einen Überblick über die jeweiligen Module.
Architektur und Infrastruktur
In diesem Modul bekommst du einen Überblick über die Anforderungen bei der Planung einer Daten-Infrastruktur. Dazu gehören unter anderem Skalierbarkeit, Redundaz, Batch- vs. Realtime Processing, Data Governance.
Du lernst, welche Komponenten zu einer Daten-Infrastruktur gehören. Darauf aufbauend kannst du sie mit Blick auf Anforderungen und der bisher eingesetzten IT-Infrastruktur planen und realisieren.
Im laufenden Betrieb erkennst du auftretende Störungen und kannst sie beheben. Neben der produktiven Umgebung kannst du eine Testumgebung für die Entwicklung mit denselben Komponenten betreiben und hast eine Strategie für die Daten-Replikation aus dem produktiven System in die Testumgebung.
Big Data
Dieses Modul bringt dir den Umgang mit grossen Datenmengen bei. Das fängt schon mit dem Einsatzvon «Big Data»-Technologien an. Du lernst einzuschätzen, ob und welche Strategie für deine Datenmenge die richtige ist. Dabei hast du die und Anforderungen an die Verarbeitungsgeschwindigkeit im Blick, und kannst verfügbare, skalierbare und wartbare Datenpipelines erstellen.
Hierfür weisst du, welche Big-Data-Frameworks existieren, kennst Vor- und Nachteile und kannst die Wahl für ein Framework für deinen Anwendungsfall begründen.
Komplexe und wiederkehrende Abläufe automatisierst du mithilfe geeigneter Scheduling-Tools.
Nach dem Modul verstehst du die besonderen Herausforderungen der verteilten Datenverarbeitung, insbesondere im Umgang mit Datenströmen, und kannst diese sicher und fachgerecht lösen.
Cloud
Die Cloud bringt viele Vorteile, bedarf aber auch Abklärungen. Das Modul gibt dir Guidelines, welche Daten unter welchen Bedingungen online abgelegt werden dürfen. Du lernst die relevanten Services der Google-Cloud kennen
Zudem kennst du die zentralen Services der Google Cloud für den Aufbau einer Daten-Infrastruktur und verstehst, dass andere Anbieter vergleichbare Funktionen bereitstellen. Du setzt Cloud-Ressourcen mithilfe von «Infrastructure as Code» auf, kannst bestehende Umgebungen erweitern und Services nahtlos in deine Infrastruktur einbinden. Darüber hinaus schätzt du die zu erwartenden Kosten realistisch ein und überwachst sowohl den laufenden Betrieb als auch die effektive Nutzung deiner Cloud-Services.
Containerisierung
Die hier gelernten Technologien ermöglichen dir, Anwendungen effizient, flexibel und sicher bereitzustellen. Du lernst die Grundlagen und Vorteile der Containerisierung kennen und verstehst, wie Container den Aufbau moderner Datenplattformen vereinfachen.
Im Modul arbeitest du praktisch mit Container Images – sowohl interaktiv als auch mithilfe von Konfigurationsdateien. Du weisst, wie Container erstellt, verwaltet und verteilt werden. Dabei lernst du, Daten und Netzwerkverbindungen zwischen Containern sicher zu gestalten und mehrere Container gezielt zu orchestrieren.
Ein weiterer Schwerpunkt liegt auf dem Einsatz von Containern in Cloud-Umgebungen. Du lernst die wichtigsten Konzepte und Möglichkeiten kennen, um Container skalierbar in der Cloud zu betreiben. Zudem machst du dich mit Kubernetes vertraut – dem Industriestandard für Container-Orchestrierung – und setzt es gezielt für deine eigenen Projekte ein.
Data Science Basics
In diesem Modul lernst du die zentralen Methoden der Data Science kennen. Du beschäftigst dich mit Ansätzen aus Machine Learning, Recommender-Systemen und Data Mining –wichtigen Bausteinen datengetriebener Anwendungen in Unternehmen.
Du erkennst, welche Rolle qualitativ hochwertige Daten und eine stabile Dateninfrastruktur für verlässliche Analysen spielen. Dabei verstehst du, wie wichtig qualitativ hochwertige Daten wie auch eine funktionierende Daten-Infrastruktur für die nachhaltige und korrekte Anwendung von Data Science ist.
Du lernst die drei zentralen Arten des Machine Learning – Regression, Klassifikation und Clustering – sowie grundlegende Konzepte wie Test- und Trainingsdaten, k-fold Cross Validation, Underfitting und Overfitting. Mit Hilfe gängiger Python Libraries setzt du einfache Data-Science-Methoden selbstständig um und gewinnst praxisnahes Verständnis für datenbasierte Entscheidungsprozesse.
Datenbanken und Data Warehouse
In diesem Modul lernst du, Daten aus unterschiedlichen Quellen zu integrieren, gezielt aufzubereiten und effizient zu speichern. Du weisst, welche Datenbanktechnologien – von relationalen bis hin zu NoSQL-Systemen – sich für welchen Anwendungsfall eignen und kannst entsprechende Datenmodelle selbst erstellen und interpretieren.
Mit SQL führst du analytische Auswertungen durch, um komplexe Fragestellungen zu beantworten. Du verstehst, wie Datenqualität in Datenbanken sichergestellt wird, und kannst Schnittstellen zwischen verschiedenen Systemen aufbauen, damit Daten konsistent und aktuell bleiben.
Ein weiterer Schwerpunkt liegt auf Architekturen für Real-Time Analytics und dem Aufbau von Data Warehouses (DWH). Du verstehst deren Struktur und Prinzipien und kannst Datenmodelle nach DWH-Regeln umsetzen – als Basis für skalierbare, performante und verlässliche Analysesysteme.
Data Wrangling
Im Modul Data Wrangling lernst du, Daten aus unterschiedlichen Quellen zu erschliessen, zu bereinigen und für Analysen nutzbar zu machen. Du kennst die gängigen Datenquellen und weisst, wie du sie effizient anbindest, um ein konsistentes Datenfundament zu schaffen.
Du erkennst Datenqualitätsprobleme wie fehlende Werte, Duplikate oder Integritätsfehler und kannst sie gezielt beheben – beispielsweise mit Record-Linkage- oder Imputationsmethoden. Damit stellst du sicher, dass deine Datengrundlage verlässlich und aussagekräftig bleibt.
Darüber hinaus lernst du, Ergebnisse und Datenbeziehungen durch Visualisierung klar und überzeugend zu kommunizieren. Du setzt Data-Wrangling-Techniken im geschäftlichen Kontext ein und unterstützt so datenbasierte Entscheidungen in Projekten und Unternehmen.
Machine Learning in Production
In diesem Modul lernst du, Machine-Learning-Modelle erfolgreich in den produktiven Betrieb zu überführen – lokal wie auch in der Cloud. Du verstehst die unterschiedlichen Möglichkeiten des Deployments und weisst, wie du Modelle sicher, skalierbar und effizient bereitstellst.
Du kennst verschiedene Deployment-Strategien wie Canary Releases, A/B-Testing oder Shadowing und kannst die passende Methode für dein Szenario wählen. Dabei führst du Deployments im laufenden Betrieb durch, ohne dass Nutzer*innen Unterbrüche bemerken.
Darüber hinaus lernst du, Machine-Learning-Anwendungen zu überwachen, zu warten und kontinuierlich zu verbessern. Du weisst, wie du hochverfügbare Cloud-Services aufbaust und das Prinzip des Online Learning einsetzt, um Modelle dynamisch mit neuen Daten zu aktualisieren.
Software Engineering in Python
In diesem Modul vertiefst du dein Wissen im Software Engineering und lernst, wie du sauberen, wiederverwendbaren und gut strukturierten Code entwickelst. Du kannst deinen Code in Module auslagern, zwischen Projekten teilen und nach professionellen Prinzipien strukturieren, damit er wartbar, erweiterbar und teamtauglich bleibt.
Du arbeitest mit Versionskontrollsystemen und setzt sie nicht nur für deinen Code, sondern auch für Modelle und Daten ein. Du prüfst die Funktionalität deines Codes mit Unit-Tests und nutzt automatische Build-Systeme, die in die Versionsverwaltung integriert sind. So stellst du sicher, dass deine Anwendungen jederzeit stabil und nachvollziehbar bleiben.
Darüber hinaus lernst du, wie du Schnittstellen (APIs) professionell konzipierst und bereitstellst. Du entscheidest begründet, welche Art von Schnittstelle für deinen Anwendungsfall geeignet ist, und implementierst Zugriffsrechte und Sicherheitsmechanismen. Mit Logging und Monitoring überwachst du die Nutzung und Performance deiner Applikationen im laufenden Betrieb.

Data Science langfristig erfolgreich operationalisieren
Dozierende
Der Grossteil der Dozierenden dieses Weiterbildungsprogramms kommen aus der Privatwirtschaft; die restlichen aus der angewandten Forschung. Das hat den grossen Vorteil, dass die Dozierenden nicht einfach nur den Inhalt aus Lehrbüchern vermitteln.Wegen ihrer langjährigen Erfahrungen sind sie dir erklären, welche Konzepte und Technologien sich in verschiedenen Anwendungsfällen der Praxis bewährt haben.
Voraussetzungen und Zulassung
Die Aufnahmebedingungen umfassen:
- Du bist bereits in der Informatik tätig oder hast persönliches Interesse und Affinität für IT-Infrastrukturen. Zudem kannst du eine Programmiersprache anwenden. Python-Kenntnisse sind empfohlen.
- Abschluss einer Fachhochschule, Universität, technischen Hochschule oder eine Berufsausbildung mit Praxiserfahrung. Studierende, die über keinen Hochschulabschluss verfügen, können (sur Dossier) zugelassen werden, wenn sich die Befähigung zur Teilnahme aus einem anderen Nachweis ergibt.
Organisatorisches
Zeitaufwand
Pro ECTS-Punkt wird mit einem durchschnittlichen Zeitaufwand von 25 Stunden gerechnet. Das CAS Data Engineering hat einen Umfang von 15 ECTS-Punkten. Deshalb ist mit einem Arbeitsaufwand von 375 Stunden zu rechnen.
Die Hälfte des Zeitaufwands ist dabei für das Selbststudium ausserhalb des Unterrichts für Kursvorbereitungen, Übungen, Repetition des Unterrichtsinhalts, Projektarbeiten und Prüfungsvorbereitungen zu reservieren.
Arbeitsmittel
Du arbeitest während der Kurszeit mit deinem eigenen Notebook. Bitte stelle sicher, dass du auf diesem Gerät neue Software installieren kannst.
Entdecke unsere Weiterbildungsangebote im Bereich Data Science
Tritt mit uns in Kontakt


Info-Anlässe
Loading...
Anmeldung
Data EngineeringHerbstsemester 2026
- Datum
- 12.9.2026–5.2.2027
- Dauer
- 24
- Anmeldestart
- 23.2.2026
- Anmeldeschluss
- 11.9.2026
