Data-Engineering-Kurse können Ihnen helfen zu lernen, wie Datenpipelines aufgebaut, Systeme integriert und Daten effizient verarbeitet werden. Sie können Fähigkeiten in ETL-Prozessen, Datenmodellierung, Orchestrierung und Umgang mit großen Datenmengen aufbauen. Viele Kurse stellen Tools und Plattformen für moderne Dateninfrastrukturen vor.

Kompetenzen, die Sie erwerben: AWS Kinesis, AWS SageMaker, Cloud Engineering, Data Quality, Docker (Software), Data Pipelines, AWS Identity and Access Management (IAM), Data Security, Databases, Version Control, Apache Spark, Data Modeling, Cloud Security, Cloud Storage, Network Security, Kubernetes, Git (Version Control System), Data Management, AWS CloudFormation, Data Processing
Anfänger · Spezialisierung · 1–3 Monate

Kompetenzen, die Sie erwerben: AWS Kinesis, Data Engineering, Amazon Redshift, Apache Kafka, Cloud Computing Architecture, Data Lakes, Real Time Data, Amazon Elastic Compute Cloud, Data Management, Apache Hive, Data Visualization Software, Cloud Storage, Amazon S3, Data Integration, Data Architecture, Data Migration, Performance Tuning, Serverless Computing, Database Architecture and Administration, AWS Identity and Access Management (IAM)
Mittel · Spezialisierung · 3–6 Monate

Kompetenzen, die Sie erwerben: Data Transformation
Mittel · Kurs · 3–6 Monate

Kompetenzen, die Sie erwerben: Dashboard, Data Preprocessing, Apache Airflow, Star Schema, Data Storytelling, Process Mapping, Extract, Transform, Load, Data Transformation, SQL, Data Pipelines, JSON, Apache Kafka, Data Warehousing, Data Modeling, Pandas (Python Package), Business Intelligence, Data Validation, Data Quality, Performance Improvement, Python Programming
Mittel · Spezialisierung · 3–6 Monate

Kompetenzen, die Sie erwerben: Generative KI, Daten-Pipelines, Prompt Engineering, Daten Architektur, Künstliche Intelligenz, Datenanalyse, Schnelles Engineering, Schneeflocken-Schema, Daten-Infrastruktur, Datenarchitektur, Verantwortungsvolle KI, Datenbank-Design, KI-Förderung, Data-Warehousing, Data Warehousing, Daten-Synthese, Star Schema, Data Mining, Faltungsneuronale Netze, Datenethik, Faltungsneuronale Netzwerke, Generative Modellarchitekturen, Data-Mining, Auszug, Abfragesprachen
Mittel · Kurs · 1–4 Wochen

Duke University
Kompetenzen, die Sie erwerben: Data Visualization Software, PySpark, Data Visualization, Data Storytelling, Statistical Visualization, Site Reliability Engineering, Docker (Software), Databricks, Containerization, Interactive Data Visualization, Plot (Graphics), Plotly, Data Pipelines, Kubernetes, Matplotlib, Apache Spark, Apache Hadoop, Big Data, Data Science, Python Programming
Mittel · Spezialisierung · 1–3 Monate

Kompetenzen, die Sie erwerben: Apache Kafka, Real Time Data, Data Pipelines, Apache Spark, Apache Hadoop, Scala Programming, Spring Boot, Development Environment, Apache, JSON, Data Processing, Information Architecture, Live Streaming, Data Transformation, Java, Restful API, Performance Tuning, Software Architecture, Data Validation, System Configuration
Anfänger · Spezialisierung · 1–3 Monate

Kompetenzen, die Sie erwerben: Automatisierung, Daten-Pipelines, Datenmigration, Google Cloud-Platform, Apache Spark, Daten-Infrastruktur, Cloud-Speicher, Datenverarbeitung, Gemeinsame Nutzung von Daten, Informationsmanagement, Datenmanagement, Datenverwaltung, Große Daten, Big Data, Verwaltung von Metadaten, Auszug, Data-Warehousing, Data Warehousing, Apache Airflow
Anfänger · Kurs · 1–3 Monate

Kompetenzen, die Sie erwerben: Python-Programmierung, Business Intelligence, Datenbanken, Daten-Pipelines, PySpark, SQL, Dashboard, MongoDB, Daten Architektur, Datenbank-Design, IBM DB2, Relationale Datenbanken, Analytics, Analytik, Apache Spark, Große Daten, NoSQL, IBM Cognos-Analytik, Datenarchitektur, Auszug, Data-Warehousing, Data Warehousing, Big Data, IBM Cognos Analytics, Apache Airflow
Fortgeschritten · Kurs · 1–3 Monate

Duke University
Kompetenzen, die Sie erwerben: Python-Programmierung, Datenmanipulation, Datenstrukturen, NumPy, Pandas (Python-Paket), Software-Entwicklungstools, Git (Versionskontrolle-System), Entwicklungsumgebung, Datenanalyse-Software, Versionskontrolle, Virtuelle Umgebung
Anfänger · Kurs · 1–4 Wochen

Kompetenzen, die Sie erwerben: Real Time Data, Data Lakes, Model Deployment, Google Cloud Platform, Feature Engineering, PySpark, Data Pipelines, Cloud Storage, Data Import/Export, Dataflow, Big Data, Apache Spark, Apache Hadoop, Dashboard, Data Architecture, Data Governance, Apache Kafka, Data Infrastructure, Tensorflow, Data Warehousing
Mittel · Berufsbezogenes Zertifikat · 3–6 Monate

Duke University
Kompetenzen, die Sie erwerben: Daten-Pipelines, Datenumwandlung, Graphentheorie, Daten in Echtzeit, Daten importieren/exportieren, Datenbank-Management-Systeme, Daten Architektur, Datenarchitektur, MySQL, Skalierbarkeit, Datenbank Management, Vektor-Datenbanken, Workflow Management, Komplexe Problemlösung, Apache Airflow, Leistungsanalyse
Mittel · Kurs · 1–4 Wochen