Coursera

Spécialisation "Real-Time, Real Fast: Kafka & Spark for Data Engineers"

Saisissez l'occasion de faire des économies ! Bénéficiez de 40 % de réduction sur 3 mois de Coursera Plus et d'un accès complet à des milliers de cours.

Ce spécialisation n'est pas disponible en Français (France)

Nous sommes actuellement en train de le traduire dans plus de langues.
Coursera

Spécialisation "Real-Time, Real Fast: Kafka & Spark for Data Engineers"

Real-Time Kafka & Spark Data Engineering.

Build fault-tolerant streaming pipelines processing millions of events with Kafka & Spark.

Caio Avelino
Jairo Sanchez
Starweaver

Instructeurs : Caio Avelino

Inclus avec Coursera Plus

Approfondissez votre connaissance d’un sujet
niveau Intermédiaire

Expérience recommandée

4 semaines à compléter
à 10 heures par semaine
Planning flexible
Apprenez à votre propre rythme
Approfondissez votre connaissance d’un sujet
niveau Intermédiaire

Expérience recommandée

4 semaines à compléter
à 10 heures par semaine
Planning flexible
Apprenez à votre propre rythme

Ce que vous apprendrez

  • Design and optimize Kafka clusters for high throughput, low latency, and fault tolerance in production environments

  • Build end-to-end streaming pipelines with Spark Structured Streaming, exactly-once semantics, and schema evolution

  • Implement real-time dashboards, orchestration, and disaster recovery for enterprise streaming architectures

Compétences que vous acquerrez

  • Catégorie : Data Architecture
  • Catégorie : Data Governance
  • Catégorie : Data Integrity
  • Catégorie : Data Pipelines
  • Catégorie : Data Processing
  • Catégorie : Data Transformation
  • Catégorie : Disaster Recovery
  • Catégorie : Event-Driven Programming
  • Catégorie : Performance Tuning
  • Catégorie : Real Time Data
  • Catégorie : Scalability
  • Catégorie : System Monitoring

Outils que vous découvrirez

  • Catégorie : Apache Kafka
  • Catégorie : Apache Spark
  • Catégorie : Docker (Software)
  • Catégorie : Fraud detection
  • Catégorie : Grafana
  • Catégorie : Power BI
  • Catégorie : Prometheus (Software)
  • Catégorie : PySpark

Détails à connaître

Certificat partageable

Ajouter à votre profil LinkedIn

Enseigné en Anglais
Récemment mis à jour !

janvier 2026

Découvrez comment les employés des entreprises prestigieuses maîtrisent des compétences recherchées

 logos de Petrobras, TATA, Danone, Capgemini, P&G et L'Oreal

Améliorez votre expertise en la matière

  • Acquérez des compétences recherchées auprès d’universités et d’experts du secteur
  • Maîtrisez un sujet ou un outil avec des projets pratiques
  • Développez une compréhension approfondie de concepts clés
  • Obtenez un certificat professionnel auprès de Coursera

Spécialisation - série de 12 cours

Ce que vous apprendrez

  • Configure Kafka topics with appropriate replication factors, partition counts, and durability settings to ensure high availability.

  • Diagnose performance bottlenecks using consumer lag metrics, broker health indicators, and throughput analysis.

  • Optimize producer and consumer configurations including batching, compression, and parallelism to maximize throughput while meeting latency SLAs.

Compétences que vous acquerrez

Catégorie : System Configuration
Catégorie : Apache Kafka
Catégorie : Performance Tuning
Catégorie : Scalability
Catégorie : Process Optimization
Catégorie : Grafana
Catégorie : Data Loss Prevention
Catégorie : Real Time Data
Catégorie : Distributed Computing
Catégorie : System Monitoring
Catégorie : Content Strategy
Catégorie : Prometheus (Software)
Catégorie : Command-Line Interface

Ce que vous apprendrez

  • Evaluate log configurations to recommend tiered storage, retention policies, and access controls.

  • Design stream processing topologies that implement join patterns, aggregation windows, and state management for real-time data transformation.

  • Optimize real-time data flows by analyzing throughput bottlenecks, partition strategies, and resource allocation to meet SLAs within budget limits.

Compétences que vous acquerrez

Catégorie : Payment Card Industry (PCI) Data Security Standards
Catégorie : Apache Kafka
Catégorie : Real Time Data
Catégorie : Computer Architecture
Catégorie : Apache
Catégorie : Data Architecture
Catégorie : Compliance Management
Catégorie : Data Governance
Catégorie : Operational Databases
Catégorie : Multi-Tenant Cloud Environments
Catégorie : Cost Management
Catégorie : Data Pipelines
Catégorie : Governance
Catégorie : Performance Tuning
Catégorie : Scalability

Ce que vous apprendrez

  • Explain core patterns for schema evolution (backward/forward/full compatibility, additive vs. breaking changes) and select the right strategy.

  • Implement versioned event/data contracts with Avro or Protobuf using a schema registry and enforce compatibility rules in CI/CD.

  • Orchestrate real‑time rollout plans across producers, consumers, and storage (Kafka topics, CDC sinks, warehouses) with monitoring and rollback.

Compétences que vous acquerrez

Catégorie : Real Time Data
Catégorie : Data Warehousing
Catégorie : Data Pipelines
Catégorie : Continuous Integration
Catégorie : Operational Databases
Catégorie : Automation Engineering
Catégorie : Data Modeling
Catégorie : Data Integrity
Catégorie : Data Validation
Catégorie : Automation
Catégorie : Continuous Monitoring
Catégorie : Warehouse Management
Catégorie : Software Versioning
Catégorie : Apache Kafka

Ce que vous apprendrez

  • Stream pipeline design by analyzing failure scenarios and business requirements to prevent data loss or duplication.

  • Implement exactly-once processing semantics across producer, processor, and sink layers using transactions, checkpoints, and idempotent operations.

  • Evaluate watermarking and windowing configurations to optimize the tradeoff between latency and data completeness.

Compétences que vous acquerrez

Catégorie : Apache Kafka
Catégorie : Apache Spark
Catégorie : Integration Testing
Catégorie : Apache
Catégorie : Service Level
Catégorie : Internet Of Things
Catégorie : Data Pipelines
Catégorie : Event Monitoring
Catégorie : Real Time Data
Catégorie : Project Implementation
Catégorie : Data Integrity
Catégorie : Verification And Validation
Catégorie : Transaction Processing
Catégorie : System Design and Implementation
Catégorie : Production Management
Catégorie : Performance Tuning
Catégorie : Data Architecture

Ce que vous apprendrez

  • Explain the execution model of Spark Structured Streaming and build a simple pipeline from a file source to a console sink.

  • Develop streaming pipelines that integrate with Kafka, apply event-time processing with watermarks, and write reliable outputs to Delta Lake.

  • Build an end-to-end Spark streaming pipeline that can be deployed in real-world production environments.

Compétences que vous acquerrez

Catégorie : Real Time Data
Catégorie : Apache Spark
Catégorie : Data Persistence
Catégorie : Apache Kafka
Catégorie : Event Management
Catégorie : Data Pipelines
Catégorie : Data Processing
Catégorie : PySpark
Catégorie : Fraud detection
Catégorie : Data Transformation
Catégorie : JSON
Catégorie : Scalability
Catégorie : Event Monitoring
Catégorie : Data-Driven Decision-Making

Ce que vous apprendrez

  • Inspect Spark UI and metrics (task duration, shuffle I/O, executor CPU/mem) to find bottlenecks and recommend actionable optimizations.

  • Apply partitioning and skew mitigation (salting/custom partitioner) & reduce shuffle (broadcast joins, avoid groupByKey, AQE) to improve parallelism.

  • Configure executors, cores, memory, dynamic allocation and parallelism/caching settings to maximize throughput while meeting defined SLA targets.

Compétences que vous acquerrez

Catégorie : Apache Spark
Catégorie : Performance Tuning
Catégorie : Process Optimization
Catégorie : PySpark
Catégorie : Resource Allocation
Catégorie : Performance Analysis
Catégorie : System Configuration
Catégorie : Scalability
Catégorie : Job Analysis
Catégorie : Debugging
Catégorie : Database Management

Ce que vous apprendrez

  • Architect a streaming data solution by differentiating between batch, micro-batch, and streaming patterns to solve a specific business problem.

  • Develop real-time analytics pipelines using window functions and watermarking to aggregate and analyze streaming data.

  • Optimize a production streaming application by diagnosing performance bottlenecks like data skew and implementing mitigation techniques.

Compétences que vous acquerrez

Catégorie : Real Time Data
Catégorie : Fraud detection
Catégorie : Apache Spark
Catégorie : Performance Analysis
Catégorie : PySpark
Catégorie : Internet Of Things
Catégorie : Operational Databases
Catégorie : Anomaly Detection
Catégorie : Databricks
Catégorie : Data Pipelines
Catégorie : Trend Analysis
Catégorie : Big Data
Catégorie : Dashboard
Catégorie : Data Processing
Catégorie : Data Analysis
Catégorie : Performance Tuning

Ce que vous apprendrez

  • Explain Spark’s streaming model and produce a dashboard-ready table from a simple file source.

  • Construct a real-time pipeline that ingests from Kafka, processes with Spark, and stores result in Delta using event-time windows and watermarks.

  • Operate a production-oriented dashboard with refresh policies, monitoring, and failure recovery.

Compétences que vous acquerrez

Catégorie : Apache Spark
Catégorie : Data Integrity
Catégorie : Real Time Data
Catégorie : JSON
Catégorie : Continuous Monitoring
Catégorie : Scalability
Catégorie : PySpark
Catégorie : Business Intelligence
Catégorie : Apache Kafka
Catégorie : Dashboard
Catégorie : Business Metrics
Catégorie : Data Pipelines
Catégorie : Data Persistence

Ce que vous apprendrez

  • Transform nested and streaming data into analytics-ready tables using programming tools and platforms.

  • Implement automated data quality checks and integrate these checks into CI/CD pipelines to enforce quality gates.

  • Build and manage scalable real-time analytics pipelines that block low-quality data and connect curated datasets to Power BI dashboards.

Compétences que vous acquerrez

Catégorie : Data Quality
Catégorie : Real Time Data
Catégorie : Power BI
Catégorie : Data Validation
Catégorie : PySpark
Catégorie : Data Transformation
Catégorie : Business Intelligence
Catégorie : CI/CD
Catégorie : Data Integrity
Catégorie : Data Pipelines
Catégorie : Performance Tuning
Catégorie : Data Visualization
Catégorie : Dashboard
Catégorie : Data Governance

Ce que vous apprendrez

  • Build and schedule streaming and batch-adjacent workflows using a modern orchestrator, such as Airflow or Prefect.

  • IImplement reliability patterns like idempotence, checkpointing, DLQs, and backfills for fault-tolerant and exactly-once-ish processing.

  • Design multi-region recovery strategies (mirroring/replication) and run playbooks to restore pipelines after partial or regional failures.

Compétences que vous acquerrez

Catégorie : Disaster Recovery
Catégorie : Real Time Data
Catégorie : Apache Kafka
Catégorie : Apache Airflow
Catégorie : Apache Spark
Catégorie : Data Integrity
Catégorie : Data Processing
Catégorie : Data Pipelines
Catégorie : Site Reliability Engineering
Catégorie : Data Infrastructure
Catégorie : Workflow Management
Catégorie : Data Storage Technologies

Ce que vous apprendrez

  • Explain CDC fundamentals (binlog/WAL) and schema evolution strategies.

  • Configure a Schema Registry pipeline locally using Debezium and Kafka.

  • Use streaming SQL (Flink/ksqlDB) to map, cast, and merge divergent schemas into a canonical model.

Compétences que vous acquerrez

Catégorie : Real Time Data
Catégorie : Data Pipelines
Catégorie : Data Validation
Catégorie : Database Design
Catégorie : SQL
Catégorie : Apache Kafka
Catégorie : Data Capture
Catégorie : PostgreSQL
Catégorie : Continuous Monitoring
Catégorie : Data Transformation
Catégorie : Data Integrity
Catégorie : Data Modeling
Catégorie : Continuous Integration
Catégorie : Data Storage Technologies
Catégorie : Schematic Diagrams
Catégorie : Data Mapping
Catégorie : Cloud Deployment

Ce que vous apprendrez

  • Examine core real-time data principles and how Kafka and Spark support streaming architectures.

  • Create real-time pipelines by connecting Kafka topics with Spark Structured Streaming.

  • Improve and deploy streaming systems using monitoring, fault tolerance, and tuning.

Compétences que vous acquerrez

Catégorie : Apache Kafka
Catégorie : Real Time Data
Catégorie : Apache Spark
Catégorie : Performance Tuning
Catégorie : Systems Architecture
Catégorie : Data Pipelines
Catégorie : Application Deployment
Catégorie : Event-Driven Programming
Catégorie : Distributed Computing
Catégorie : Data Processing
Catégorie : Software Architecture
Catégorie : Scalability
Catégorie : Real-Time Operating Systems
Catégorie : Data Transformation
Catégorie : Architecture and Construction
Catégorie : System Monitoring
Catégorie : Performance Management

Obtenez un certificat professionnel

Ajoutez ce titre à votre profil LinkedIn, à votre curriculum vitae ou à votre CV. Partagez-le sur les médias sociaux et dans votre évaluation des performances.

Instructeurs

Caio Avelino
9 Cours 8 005 apprenants
Jairo Sanchez
5 Cours 8 153 apprenants
Starweaver
Coursera
554 Cours 1 022 465 apprenants

Offert par

Coursera

Pour quelles raisons les étudiants sur Coursera nous choisissent-ils pour leur carrière ?

Felipe M.

Étudiant(e) depuis 2018
’Pouvoir suivre des cours à mon rythme à été une expérience extraordinaire. Je peux apprendre chaque fois que mon emploi du temps me le permet et en fonction de mon humeur.’

Jennifer J.

Étudiant(e) depuis 2020
’J'ai directement appliqué les concepts et les compétences que j'ai appris de mes cours à un nouveau projet passionnant au travail.’

Larry W.

Étudiant(e) depuis 2021
’Lorsque j'ai besoin de cours sur des sujets que mon université ne propose pas, Coursera est l'un des meilleurs endroits où se rendre.’

Chaitanya A.

’Apprendre, ce n'est pas seulement s'améliorer dans son travail : c'est bien plus que cela. Coursera me permet d'apprendre sans limites.’
Coursera Plus

Ouvrez de nouvelles portes avec Coursera Plus

Accès illimité à 10,000+ cours de niveau international, projets pratiques et programmes de certification prêts à l'emploi - tous inclus dans votre abonnement.

Faites progresser votre carrière avec un diplôme en ligne

Obtenez un diplôme auprès d’universités de renommée mondiale - 100 % en ligne

Rejoignez plus de 3 400 entreprises mondiales qui ont choisi Coursera pour les affaires

Améliorez les compétences de vos employés pour exceller dans l’économie numérique

Foire Aux Questions