Coursera

Spécialisation "Real-Time, Real Fast: Kafka & Spark for Data Engineers"

Développez vos compétences avec Coursera Plus pour 239 $/an (habituellement 399 $). Économisez maintenant.

Ce spécialisation n'est pas disponible en Français (France)

Nous sommes actuellement en train de le traduire dans plus de langues.
Coursera

Spécialisation "Real-Time, Real Fast: Kafka & Spark for Data Engineers"

Real-Time Kafka & Spark Data Engineering.

Build fault-tolerant streaming pipelines processing millions of events with Kafka & Spark.

Caio Avelino
Jairo Sanchez
Starweaver

Instructeurs : Caio Avelino

Inclus avec Coursera Plus

Approfondissez votre connaissance d’un sujet
niveau Intermédiaire

Expérience recommandée

4 semaines à compléter
à 10 heures par semaine
Planning flexible
Apprenez à votre propre rythme
Approfondissez votre connaissance d’un sujet
niveau Intermédiaire

Expérience recommandée

4 semaines à compléter
à 10 heures par semaine
Planning flexible
Apprenez à votre propre rythme

Ce que vous apprendrez

  • Design and optimize Kafka clusters for high throughput, low latency, and fault tolerance in production environments

  • Build end-to-end streaming pipelines with Spark Structured Streaming, exactly-once semantics, and schema evolution

  • Implement real-time dashboards, orchestration, and disaster recovery for enterprise streaming architectures

Compétences que vous acquerrez

  • Catégorie : Data Architecture
  • Catégorie : Data Governance
  • Catégorie : Data Integrity
  • Catégorie : Data Pipelines
  • Catégorie : Data Processing
  • Catégorie : Data Transformation
  • Catégorie : Disaster Recovery
  • Catégorie : Event-Driven Programming
  • Catégorie : Performance Tuning
  • Catégorie : Real Time Data
  • Catégorie : Scalability
  • Catégorie : System Monitoring

Outils que vous découvrirez

  • Catégorie : Apache Kafka
  • Catégorie : Apache Spark
  • Catégorie : Docker (Software)
  • Catégorie : Fraud detection
  • Catégorie : Grafana
  • Catégorie : Power BI
  • Catégorie : Prometheus (Software)
  • Catégorie : PySpark

Détails à connaître

Certificat partageable

Ajouter à votre profil LinkedIn

Enseigné en Anglais
Récemment mis à jour !

janvier 2026

Découvrez comment les employés des entreprises prestigieuses maîtrisent des compétences recherchées

 logos de Petrobras, TATA, Danone, Capgemini, P&G et L'Oreal

Améliorez votre expertise en la matière

  • Acquérez des compétences recherchées auprès d’universités et d’experts du secteur
  • Maîtrisez un sujet ou un outil avec des projets pratiques
  • Développez une compréhension approfondie de concepts clés
  • Obtenez un certificat professionnel auprès de Coursera

Spécialisation - série de 12 cours

Ce que vous apprendrez

  • Configure Kafka topics with appropriate replication factors, partition counts, and durability settings to ensure high availability.

  • Diagnose performance bottlenecks using consumer lag metrics, broker health indicators, and throughput analysis.

  • Optimize producer and consumer configurations including batching, compression, and parallelism to maximize throughput while meeting latency SLAs.

Compétences que vous acquerrez

Catégorie : Apache Kafka
Catégorie : Performance Tuning
Catégorie : System Configuration
Catégorie : Process Optimization
Catégorie : System Monitoring
Catégorie : Command-Line Interface
Catégorie : Real Time Data
Catégorie : Prometheus (Software)
Catégorie : Data Loss Prevention
Catégorie : Distributed Computing
Catégorie : Grafana
Catégorie : Content Strategy
Catégorie : Scalability

Ce que vous apprendrez

  • Evaluate log configurations to recommend tiered storage, retention policies, and access controls.

  • Design stream processing topologies that implement join patterns, aggregation windows, and state management for real-time data transformation.

  • Optimize real-time data flows by analyzing throughput bottlenecks, partition strategies, and resource allocation to meet SLAs within budget limits.

Compétences que vous acquerrez

Catégorie : Real Time Data
Catégorie : Payment Card Industry (PCI) Data Security Standards
Catégorie : Apache Kafka
Catégorie : Application Performance Management
Catégorie : Data Pipelines
Catégorie : Performance Tuning
Catégorie : Capacity Management
Catégorie : Governance
Catégorie : Data Governance
Catégorie : Multi-Tenant Cloud Environments
Catégorie : System Monitoring
Catégorie : Scalability
Catégorie : Computer Architecture
Catégorie : Cloud Storage
Catégorie : Apache
Catégorie : Operational Data Store
Catégorie : Compliance Management
Catégorie : Data Architecture

Ce que vous apprendrez

  • Explain core patterns for schema evolution (backward/forward/full compatibility, additive vs. breaking changes) and select the right strategy.

  • Implement versioned event/data contracts with Avro or Protobuf using a schema registry and enforce compatibility rules in CI/CD.

  • Orchestrate real‑time rollout plans across producers, consumers, and storage (Kafka topics, CDC sinks, warehouses) with monitoring and rollback.

Compétences que vous acquerrez

Catégorie : Data Pipelines
Catégorie : Real Time Data
Catégorie : Data Warehousing
Catégorie : Data Validation
Catégorie : Continuous Monitoring
Catégorie : Automation Engineering
Catégorie : Data Integrity
Catégorie : Apache Kafka
Catégorie : Warehouse Management
Catégorie : Automation
Catégorie : Continuous Integration
Catégorie : Software Versioning
Catégorie : Operational Databases
Catégorie : Data Modeling

Ce que vous apprendrez

  • Stream pipeline design by analyzing failure scenarios and business requirements to prevent data loss or duplication.

  • Implement exactly-once processing semantics across producer, processor, and sink layers using transactions, checkpoints, and idempotent operations.

  • Evaluate watermarking and windowing configurations to optimize the tradeoff between latency and data completeness.

Compétences que vous acquerrez

Catégorie : Apache Spark
Catégorie : Apache Kafka
Catégorie : Event Monitoring
Catégorie : Data Architecture
Catégorie : System Design and Implementation
Catégorie : Transaction Processing
Catégorie : Internet Of Things
Catégorie : Apache
Catégorie : Data Integrity
Catégorie : Data Pipelines
Catégorie : Project Implementation
Catégorie : Service Level
Catégorie : Real Time Data
Catégorie : Verification And Validation
Catégorie : Integration Testing
Catégorie : Performance Tuning
Catégorie : Production Management

Ce que vous apprendrez

  • Explain the execution model of Spark Structured Streaming and build a simple pipeline from a file source to a console sink.

  • Develop streaming pipelines that integrate with Kafka, apply event-time processing with watermarks, and write reliable outputs to Delta Lake.

  • Build an end-to-end Spark streaming pipeline that can be deployed in real-world production environments.

Compétences que vous acquerrez

Catégorie : Real Time Data
Catégorie : Apache Spark
Catégorie : Data Transformation
Catégorie : Event Management
Catégorie : Apache Kafka
Catégorie : Data Processing
Catégorie : JSON
Catégorie : Fraud detection
Catégorie : Scalability
Catégorie : Data Persistence
Catégorie : Data-Driven Decision-Making
Catégorie : Data Pipelines
Catégorie : Event Monitoring
Catégorie : PySpark

Ce que vous apprendrez

  • Inspect Spark UI and metrics (task duration, shuffle I/O, executor CPU/mem) to find bottlenecks and recommend actionable optimizations.

  • Apply partitioning and skew mitigation (salting/custom partitioner) & reduce shuffle (broadcast joins, avoid groupByKey, AQE) to improve parallelism.

  • Configure executors, cores, memory, dynamic allocation and parallelism/caching settings to maximize throughput while meeting defined SLA targets.

Compétences que vous acquerrez

Catégorie : Performance Tuning
Catégorie : Apache Spark
Catégorie : Resource Allocation
Catégorie : Debugging
Catégorie : Performance Analysis
Catégorie : Scalability
Catégorie : Database Management
Catégorie : Job Analysis
Catégorie : System Configuration
Catégorie : PySpark
Catégorie : Process Optimization

Ce que vous apprendrez

  • Architect a streaming data solution by differentiating between batch, micro-batch, and streaming patterns to solve a specific business problem.

  • Develop real-time analytics pipelines using window functions and watermarking to aggregate and analyze streaming data.

  • Optimize a production streaming application by diagnosing performance bottlenecks like data skew and implementing mitigation techniques.

Compétences que vous acquerrez

Catégorie : Fraud detection
Catégorie : Real Time Data
Catégorie : Apache Spark
Catégorie : Performance Analysis
Catégorie : PySpark
Catégorie : Performance Tuning
Catégorie : Anomaly Detection
Catégorie : Databricks
Catégorie : Trend Analysis
Catégorie : Data Processing
Catégorie : Data Analysis
Catégorie : Dashboard
Catégorie : Big Data
Catégorie : Operational Databases
Catégorie : Internet Of Things
Catégorie : Data Pipelines

Ce que vous apprendrez

  • Explain Spark’s streaming model and produce a dashboard-ready table from a simple file source.

  • Construct a real-time pipeline that ingests from Kafka, processes with Spark, and stores result in Delta using event-time windows and watermarks.

  • Operate a production-oriented dashboard with refresh policies, monitoring, and failure recovery.

Compétences que vous acquerrez

Catégorie : Real Time Data
Catégorie : Data Integrity
Catégorie : Apache Spark
Catégorie : Data Persistence
Catégorie : Business Metrics
Catégorie : Continuous Monitoring
Catégorie : Scalability
Catégorie : Data Pipelines
Catégorie : PySpark
Catégorie : JSON
Catégorie : Apache Kafka
Catégorie : Business Intelligence
Catégorie : Dashboard

Ce que vous apprendrez

  • Transform nested and streaming data into analytics-ready tables using programming tools and platforms.

  • Implement automated data quality checks and integrate these checks into CI/CD pipelines to enforce quality gates.

  • Build and manage scalable real-time analytics pipelines that block low-quality data and connect curated datasets to Power BI dashboards.

Compétences que vous acquerrez

Catégorie : Data Validation
Catégorie : Real Time Data
Catégorie : Data Quality
Catégorie : Data Transformation
Catégorie : PySpark
Catégorie : Power BI
Catégorie : Data Visualization
Catégorie : Data Governance
Catégorie : Data Pipelines
Catégorie : Business Intelligence
Catégorie : Performance Tuning
Catégorie : Dashboard
Catégorie : CI/CD
Catégorie : Data Integrity

Ce que vous apprendrez

  • Build and schedule streaming and batch-adjacent workflows using a modern orchestrator, such as Airflow or Prefect.

  • IImplement reliability patterns like idempotence, checkpointing, DLQs, and backfills for fault-tolerant and exactly-once-ish processing.

  • Design multi-region recovery strategies (mirroring/replication) and run playbooks to restore pipelines after partial or regional failures.

Compétences que vous acquerrez

Catégorie : Apache Spark
Catégorie : Apache Airflow
Catégorie : Real Time Data
Catégorie : Apache Kafka
Catégorie : Disaster Recovery
Catégorie : Data Processing
Catégorie : Data Integrity
Catégorie : Site Reliability Engineering
Catégorie : Data Pipelines
Catégorie : Data Storage Technologies
Catégorie : Workflow Management
Catégorie : Data Infrastructure

Ce que vous apprendrez

  • Explain CDC fundamentals (binlog/WAL) and schema evolution strategies.

  • Configure a Schema Registry pipeline locally using Debezium and Kafka.

  • Use streaming SQL (Flink/ksqlDB) to map, cast, and merge divergent schemas into a canonical model.

Compétences que vous acquerrez

Catégorie : Real Time Data
Catégorie : Data Validation
Catégorie : Data Pipelines
Catégorie : Data Transformation
Catégorie : Data Mapping
Catégorie : SQL
Catégorie : Database Design
Catégorie : Apache Kafka
Catégorie : Schematic Diagrams
Catégorie : PostgreSQL
Catégorie : Data Storage Technologies
Catégorie : Continuous Integration
Catégorie : Data Modeling
Catégorie : Data Integrity
Catégorie : Continuous Monitoring
Catégorie : Cloud Deployment
Catégorie : Data Capture

Ce que vous apprendrez

  • Examine core real-time data principles and how Kafka and Spark support streaming architectures.

  • Create real-time pipelines by connecting Kafka topics with Spark Structured Streaming.

  • Improve and deploy streaming systems using monitoring, fault tolerance, and tuning.

Compétences que vous acquerrez

Catégorie : Real Time Data
Catégorie : Apache Kafka
Catégorie : Apache Spark
Catégorie : Data Transformation
Catégorie : Event-Driven Programming
Catégorie : Real-Time Operating Systems
Catégorie : Data Processing
Catégorie : Distributed Computing
Catégorie : System Monitoring
Catégorie : Performance Tuning
Catégorie : Performance Management
Catégorie : Scalability
Catégorie : Data Pipelines
Catégorie : Application Deployment
Catégorie : Software Architecture
Catégorie : Systems Architecture
Catégorie : Architecture and Construction

Obtenez un certificat professionnel

Ajoutez ce titre à votre profil LinkedIn, à votre curriculum vitae ou à votre CV. Partagez-le sur les médias sociaux et dans votre évaluation des performances.

Instructeurs

Caio Avelino
9 Cours 8 097 apprenants
Jairo Sanchez
5 Cours 8 318 apprenants
Starweaver
Coursera
554 Cours 1 041 916 apprenants

Offert par

Coursera

Pour quelles raisons les étudiants sur Coursera nous choisissent-ils pour leur carrière ?

Felipe M.

Étudiant(e) depuis 2018
’Pouvoir suivre des cours à mon rythme à été une expérience extraordinaire. Je peux apprendre chaque fois que mon emploi du temps me le permet et en fonction de mon humeur.’

Jennifer J.

Étudiant(e) depuis 2020
’J'ai directement appliqué les concepts et les compétences que j'ai appris de mes cours à un nouveau projet passionnant au travail.’

Larry W.

Étudiant(e) depuis 2021
’Lorsque j'ai besoin de cours sur des sujets que mon université ne propose pas, Coursera est l'un des meilleurs endroits où se rendre.’

Chaitanya A.

’Apprendre, ce n'est pas seulement s'améliorer dans son travail : c'est bien plus que cela. Coursera me permet d'apprendre sans limites.’
Coursera Plus

Ouvrez de nouvelles portes avec Coursera Plus

Accès illimité à 10,000+ cours de niveau international, projets pratiques et programmes de certification prêts à l'emploi - tous inclus dans votre abonnement.

Faites progresser votre carrière avec un diplôme en ligne

Obtenez un diplôme auprès d’universités de renommée mondiale - 100 % en ligne

Rejoignez plus de 3 400 entreprises mondiales qui ont choisi Coursera pour les affaires

Améliorez les compétences de vos employés pour exceller dans l’économie numérique

Foire Aux Questions