Packt

Accelerate Model Training with PyTorch 2.X

Saisissez l'occasion de faire des économies ! Bénéficiez de 40 % de réduction sur 3 mois de Coursera Plus et d'un accès complet à des milliers de cours.

Ce cours n'est pas disponible en Français (France)

Nous sommes actuellement en train de le traduire dans plus de langues.
Packt

Accelerate Model Training with PyTorch 2.X

Inclus avec Coursera Plus

Obtenez un aperçu d'un sujet et apprenez les principes fondamentaux.
niveau Débutant

Expérience recommandée

8 heures à compléter
Planning flexible
Apprenez à votre propre rythme
Obtenez un aperçu d'un sujet et apprenez les principes fondamentaux.
niveau Débutant

Expérience recommandée

8 heures à compléter
Planning flexible
Apprenez à votre propre rythme

Ce que vous apprendrez

  • Optimize model training using PyTorch and performance tuning techniques.

  • Leverage specialized libraries to enhance CPU-based training.

  • Build efficient data pipelines to improve GPU utilization.

Compétences que vous acquerrez

  • Catégorie : Machine Learning
  • Catégorie : Distributed Computing
  • Catégorie : Data Pipelines
  • Catégorie : Hardware Architecture
  • Catégorie : Scalability
  • Catégorie : Deep Learning
  • Catégorie : LLM Application
  • Catégorie : Performance Tuning
  • Catégorie : MLOps (Machine Learning Operations)
  • Catégorie : Computer Architecture

Outils que vous découvrirez

  • Catégorie : PyTorch (Machine Learning Library)
  • Catégorie : AI Workflows
  • Catégorie : Model Deployment

Détails à connaître

Certificat partageable

Ajouter à votre profil LinkedIn

Récemment mis à jour !

janvier 2026

Évaluations

11 devoirs

Enseigné en Anglais

Découvrez comment les employés des entreprises prestigieuses maîtrisent des compétences recherchées

 logos de Petrobras, TATA, Danone, Capgemini, P&G et L'Oreal

Il y a 11 modules dans ce cours

In this section, we explore the training process of neural networks, analyze factors contributing to computational burden, and evaluate elements influencing training time.

Inclus

2 vidéos3 lectures1 devoir

In this section, we explore techniques to accelerate model training by modifying the software stack and scaling resources. Key concepts include vertical and horizontal scaling, application and environment layer optimizations, and practical strategies for improving efficiency.

Inclus

1 vidéo3 lectures1 devoir

In this section, we explore the PyTorch 2.0 Compile API to accelerate deep learning model training, focusing on graph mode benefits, API usage, and workflow components for performance optimization.

Inclus

1 vidéo3 lectures1 devoir

In this section, we explore using OpenMP for multithreading and IPEX to optimize PyTorch on Intel CPUs, enhancing performance through specialized libraries.

Inclus

1 vidéo3 lectures1 devoir

In this section, we explore building efficient data pipelines to prevent training bottlenecks. Key concepts include configuring workers, optimizing GPU memory transfer, and ensuring continuous data flow for ML model training.

Inclus

1 vidéo2 lectures1 devoir

In this section, we explore model simplification through pruning and compression techniques to improve efficiency without sacrificing performance, using the Microsoft NNI toolkit for practical implementation.

Inclus

1 vidéo3 lectures1 devoir

In this section, we explore mixed precision strategies to optimize model training efficiency by reducing computational and memory demands without sacrificing accuracy, focusing on PyTorch implementation and hardware utilization.

Inclus

1 vidéo3 lectures1 devoir

In this section, we explore distributed training principles, parallel strategies, and PyTorch implementation to enhance model training efficiency through resource distribution.

Inclus

1 vidéo4 lectures1 devoir

In this section, we explore distributed training on multiple CPUs, focusing on benefits, implementation, and using Intel oneCCL for efficient communication in resource-constrained environments.

Inclus

1 vidéo3 lectures1 devoir

In this section, we explore multi-GPU training strategies, analyze interconnection topologies, and configure NCCL for efficient distributed deep learning operations.

Inclus

1 vidéo4 lectures1 devoir

In this section, we explore distributed training on computing clusters, focusing on Open MPI and NCCL for efficient communication and resource management across multiple machines.

Inclus

1 vidéo4 lectures1 devoir

Instructeur

Packt - Course Instructors
Packt
1 550 Cours 430 189 apprenants

Offert par

Packt

En savoir plus sur Machine Learning

Pour quelles raisons les étudiants sur Coursera nous choisissent-ils pour leur carrière ?

Felipe M.

Étudiant(e) depuis 2018
’Pouvoir suivre des cours à mon rythme à été une expérience extraordinaire. Je peux apprendre chaque fois que mon emploi du temps me le permet et en fonction de mon humeur.’

Jennifer J.

Étudiant(e) depuis 2020
’J'ai directement appliqué les concepts et les compétences que j'ai appris de mes cours à un nouveau projet passionnant au travail.’

Larry W.

Étudiant(e) depuis 2021
’Lorsque j'ai besoin de cours sur des sujets que mon université ne propose pas, Coursera est l'un des meilleurs endroits où se rendre.’

Chaitanya A.

’Apprendre, ce n'est pas seulement s'améliorer dans son travail : c'est bien plus que cela. Coursera me permet d'apprendre sans limites.’
Coursera Plus

Ouvrez de nouvelles portes avec Coursera Plus

Accès illimité à 10,000+ cours de niveau international, projets pratiques et programmes de certification prêts à l'emploi - tous inclus dans votre abonnement.

Faites progresser votre carrière avec un diplôme en ligne

Obtenez un diplôme auprès d’universités de renommée mondiale - 100 % en ligne

Rejoignez plus de 3 400 entreprises mondiales qui ont choisi Coursera pour les affaires

Améliorez les compétences de vos employés pour exceller dans l’économie numérique

Foire Aux Questions