Build and deploy a production serverless multi-model Artificial Intelligence (AI) system on Amazon Web Services (AWS) that integrates Amazon Bedrock and Ollama for cloud and local Large Language Model (LLM) execution. This capstone course, the final course in the Applied AI Engineering specialization, synthesizes 19 courses of prior learning into a comprehensive engineering project. You will implement Rust-based LLM applications using the Cargo Lambda toolchain for serverless deployment on AWS Lambda, design Yet Another Markup Language (YAML)-driven prompt engineering workflows for structured configuration management, and build multi-model flow orchestration that routes requests to appropriate models based on task requirements. The course begins with multi-model architecture fundamentals covering the evolving AI model ecosystem, model selection criteria for production workloads, and multi-provider integration patterns that enable fallback and cost optimization. You then advance to serverless production deployment, implementing an Amazon Bedrock router for dynamic model selection and deploying Rust serverless functions with Cargo Lambda that offer cold start and memory advantages for AI workloads. The final capstone challenge requires you to integrate multi-model orchestration, YAML prompt configuration, and serverless deployment into a complete production system evaluated against performance, cost, and reliability standards.

AI Tooling Capstone: Serverless Multi-Model Systems
Économisez sur les compétences qui vous font briller avec 40 % de réduction sur 3 mois de Coursera Plus. Économisez maintenant

AI Tooling Capstone: Serverless Multi-Model Systems
Ce cours fait partie de Spécialisation "AI Tooling"


Instructeurs : Alfredo Deza
Inclus avec
Expérience recommandée
Ce que vous apprendrez
Apply integration patterns using Amazon Bedrock for local and cloud-hosted model access, with performing LLM applications using Rust
Design prompt engineering workflows and multi flow orchestration routing to specialized models based on tasks, constraints, and performance
Deploy a serverless AI system on AWS Lambda, integrating Amazon Bedrock, prompt configuration, and reliable end-to-end production evaluation
Compétences que vous acquerrez
- Catégorie : LLM Application
- Catégorie : Generative Model Architectures
- Catégorie : Open Source Technology
- Catégorie : Model Evaluation
- Catégorie : AI Integrations
- Catégorie : Serverless Computing
- Catégorie : Large Language Modeling
Outils que vous découvrirez
- Catégorie : Prompt Engineering
- Catégorie : AI Workflows
- Catégorie : Model Deployment
- Catégorie : YAML
- Catégorie : Rust (Programming Language)
- Catégorie : Amazon Bedrock
- Catégorie : Amazon Web Services
- Catégorie : AI Orchestration
Détails à connaître

Ajouter à votre profil LinkedIn
avril 2026
3 devoirs
Découvrez comment les employés des entreprises prestigieuses maîtrisent des compétences recherchées

Élaborez votre expertise du sujet
- Apprenez de nouveaux concepts auprès d'experts du secteur
- Acquérez une compréhension de base d'un sujet ou d'un outil
- Développez des compétences professionnelles avec des projets pratiques
- Obtenez un certificat professionnel partageable

Il y a 3 modules dans ce cours
Obtenez un certificat professionnel
Ajoutez ce titre à votre profil LinkedIn, à votre curriculum vitae ou à votre CV. Partagez-le sur les médias sociaux et dans votre évaluation des performances.
Offert par
En savoir plus sur Software Development
Statut : Essai gratuitPragmatic AI Labs
Statut : Essai gratuitPragmatic AI Labs
Statut : Essai gratuit
Statut : Essai gratuitPragmatic AI Labs
Pour quelles raisons les étudiants sur Coursera nous choisissent-ils pour leur carrière ?

Felipe M.

Jennifer J.

Larry W.

Chaitanya A.
Foire Aux Questions
Plus de questions
Aide financière disponible,




