Coursera
Spécialisation AI Security: Security in the Age of Artificial Intelligence

Acquérir des compétences de haut niveau avec Coursera Plus pour 199 $ (régulièrement 399 $). Économisez maintenant.

Ce spécialisation n'est pas disponible en Français (France)

Nous sommes actuellement en train de le traduire dans plus de langues.
Coursera

Spécialisation AI Security: Security in the Age of Artificial Intelligence

Build Secure AI Systems End-to-End. Learn to identify, prevent, and respond to AI-specific threats across the entire ML lifecycle.

Reza Moradinezhad
Starweaver
Ritesh Vajariya

Instructeurs : Reza Moradinezhad

Inclus avec Coursera Plus

Approfondissez votre connaissance d’un sujet
niveau Intermédiaire

Expérience recommandée

4 semaines à compléter
à 10 heures par semaine
Planning flexible
Apprenez à votre propre rythme
Approfondissez votre connaissance d’un sujet
niveau Intermédiaire

Expérience recommandée

4 semaines à compléter
à 10 heures par semaine
Planning flexible
Apprenez à votre propre rythme

Ce que vous apprendrez

  • Secure AI systems using static analysis, threat modeling, and vulnerability assessment techniques

  • Implement production security controls including monitoring, incident response, and patch management

  • Conduct red-teaming exercises and build resilient defenses against AI-specific attack vectors

Compétences que vous acquerrez

  • Catégorie : Continuous Monitoring
  • Catégorie : LLM Application
  • Catégorie : Security Controls
  • Catégorie : CI/CD
  • Catégorie : Site Reliability Engineering
  • Catégorie : Security Engineering
  • Catégorie : Vulnerability Scanning
  • Catégorie : Anomaly Detection
  • Catégorie : Penetration Testing
  • Catégorie : Data Loss Prevention
  • Catégorie : DevSecOps
  • Catégorie : MLOps (Machine Learning Operations)
  • Catégorie : Data Security
  • Catégorie : Responsible AI
  • Catégorie : Vulnerability Assessments
  • Catégorie : Incident Response
  • Catégorie : Mobile Security
  • Catégorie : Infrastructure Security
  • Catégorie : Threat Modeling
  • Catégorie : Application Security
  • Catégorie : Process Optimization

Détails à connaître

Certificat partageable

Ajouter à votre profil LinkedIn

Enseigné en Anglais
Récemment mis à jour !

décembre 2025

Découvrez comment les employés des entreprises prestigieuses maîtrisent des compétences recherchées

 logos de Petrobras, TATA, Danone, Capgemini, P&G et L'Oreal

Améliorez votre expertise en la matière

  • Acquérez des compétences recherchées auprès d’universités et d’experts du secteur
  • Maîtrisez un sujet ou un outil avec des projets pratiques
  • Développez une compréhension approfondie de concepts clés
  • Obtenez un certificat professionnel auprès de Coursera

Spécialisation - série de 13 cours

Ce que vous apprendrez

  • Configure Bandit, Semgrep, PyLint to detect AI vulnerabilities: insecure model deserialization, hardcoded secrets, unsafe system calls in ML code.

  • Apply static analysis to fix AI vulnerabilities (pickle exploits, input validation, dependencies); create custom rules for AI security patterns.

  • Implement pip-audit, Safety, Snyk for dependency scanning; assess AI libraries for vulnerabilities, license compliance, and supply chain security.

Compétences que vous acquerrez

Catégorie : Dependency Analysis
Catégorie : Vulnerability Scanning
Catégorie : Analysis
Catégorie : Continuous Integration
Catégorie : Vulnerability Assessments
Catégorie : MLOps (Machine Learning Operations)
Catégorie : AI Security
Catégorie : Application Security
Catégorie : Secure Coding
Catégorie : AI Personalization
Catégorie : PyTorch (Machine Learning Library)
Catégorie : Threat Modeling
Catégorie : Program Implementation
Catégorie : DevSecOps
Catégorie : Supply Chain
Catégorie : Open Source Technology

Ce que vous apprendrez

  • Analyze and evaluate AI inference threat models, identifying attack vectors and vulnerabilities in machine learning systems.

  • Design and implement comprehensive security test cases for AI systems including unit tests, integration tests, and adversarial robustness testing.

  • Integrate AI security testing into CI/CD pipelines for continuous security validation and monitoring of production deployments.

Compétences que vous acquerrez

Catégorie : Threat Modeling
Catégorie : Security Testing
Catégorie : Unit Testing
Catégorie : Threat Detection
Catégorie : Scripting
Catégorie : Prompt Engineering
Catégorie : DevSecOps
Catégorie : Continuous Monitoring
Catégorie : CI/CD
Catégorie : AI Security
Catégorie : Test Case
Catégorie : Integration Testing
Catégorie : Continuous Integration
Catégorie : System Monitoring
Catégorie : MITRE ATT&CK Framework
Catégorie : Secure Coding
Catégorie : DevOps
Catégorie : Application Security
Catégorie : MLOps (Machine Learning Operations)

Ce que vous apprendrez

  • Analyze inference bottlenecks to identify optimization opportunities in production ML systems.

  • Implement model pruning techniques to reduce computational complexity while maintaining acceptable accuracy.

  • Apply quantization methods and benchmark trade-offs for secure and efficient model deployment.

Compétences que vous acquerrez

Catégorie : Convolutional Neural Networks
Catégorie : Project Performance
Catégorie : Model Evaluation
Catégorie : Keras (Neural Network Library)
Catégorie : Model Deployment
Catégorie : Process Optimization
Catégorie : Cloud Deployment
Catégorie : Benchmarking
Catégorie : Network Model
Catégorie : Network Performance Management

Ce que vous apprendrez

  • Apply infrastructure hardening in ML environments using secure setup, IAM controls, patching, and container scans to protect data.

  • Secure ML CI/CD workflows through automated dependency scanning, build validation, and code signing to prevent supply chain risks.

  • Design resilient ML pipelines by integrating rollback, drift monitoring, and adaptive recovery to maintain reliability and system trust.

Compétences que vous acquerrez

Catégorie : CI/CD
Catégorie : Identity and Access Management
Catégorie : Compliance Management
Catégorie : Vulnerability Scanning
Catégorie : MLOps (Machine Learning Operations)
Catégorie : Resilience
Catégorie : Responsible AI
Catégorie : Model Evaluation
Catégorie : Model Deployment
Catégorie : Security Controls
Catégorie : Hardening
Catégorie : DevSecOps
Catégorie : Infrastructure Security
Catégorie : Threat Modeling
Catégorie : Containerization
Catégorie : AI Personalization
Catégorie : Vulnerability Assessments
Catégorie : Engineering
Catégorie : AI Security
Catégorie : Continuous Monitoring

Ce que vous apprendrez

  • Execute secure deployment strategies (blue/green, canary, shadow) with traffic controls, health gates, and rollback plans.

  • Implement model registry governance (versioning, lineage, stage transitions, approvals) to enforce provenance and promote-to-prod workflows.

  • Design monitoring triggering runbooks; secure updates via signing + CI/CD policy for auditable releases and controlled rollback.

Compétences que vous acquerrez

Catégorie : CI/CD
Catégorie : Cloud Deployment
Catégorie : MLOps (Machine Learning Operations)
Catégorie : DevOps
Catégorie : Data-Driven Decision-Making
Catégorie : Model Deployment
Catégorie : AI Security
Catégorie : Artificial Intelligence and Machine Learning (AI/ML)

Ce que vous apprendrez

  • Analyze and identify a range of security vulnerabilities in complex AI models, including evasion, data poisoning, and model extraction attacks.

  • Apply defense mechanisms like adversarial training and differential privacy to protect AI systems from known threats.

  • Evaluate the effectiveness of security measures by designing and executing simulated adversarial attacks to test the resilience of defended AI model.

Compétences que vous acquerrez

Catégorie : Security Testing
Catégorie : Responsible AI
Catégorie : Threat Modeling
Catégorie : Generative Adversarial Networks (GANs)
Catégorie : Analysis
Catégorie : Data Validation
Catégorie : Cyber Threat Hunting
Catégorie : Model Evaluation
Catégorie : Information Privacy
Catégorie : Security Engineering
Catégorie : Security Strategy
Catégorie : Vulnerability Assessments
Catégorie : Design
Catégorie : Data Integrity
Catégorie : AI Security

Ce que vous apprendrez

  • Analyze real-world AI security, privacy, and access control risks to understand how these manifest in their own organizations.

  • Design technical controls and governance frameworks to secure AI systems, guided by free tools and industry guidelines.

  • Assess privacy laws' impact on AI, draft compliant policies, and tackle compliance challenges.

Compétences que vous acquerrez

Catégorie : Information Privacy
Catégorie : Incident Response
Catégorie : Governance
Catégorie : Identity and Access Management
Catégorie : Generative AI
Catégorie : Responsible AI
Catégorie : Data Security
Catégorie : Threat Modeling
Catégorie : Data Governance
Catégorie : Personally Identifiable Information
Catégorie : Risk Management Framework
Catégorie : Security Controls
Catégorie : Data Loss Prevention
Catégorie : Cyber Security Policies
Catégorie : AI Security
Catégorie : Security Awareness

Ce que vous apprendrez

  • Design red-teaming scenarios to identify vulnerabilities and attack vectors in large language models using structured adversarial testing.

  • Implement content-safety filters to detect and mitigate harmful outputs while maintaining model performance and user experience.

  • Evaluate and enhance LLM resilience by analyzing adversarial inputs and developing defense strategies to strengthen overall AI system security.

Compétences que vous acquerrez

Catégorie : Large Language Modeling
Catégorie : Responsible AI
Catégorie : Scenario Testing
Catégorie : Security Strategy
Catégorie : Threat Modeling
Catégorie : Cyber Security Assessment
Catégorie : Security Controls
Catégorie : System Implementation
Catégorie : AI Security
Catégorie : Continuous Monitoring
Catégorie : Vulnerability Assessments
Catégorie : AI Personalization
Catégorie : Prompt Engineering
Catégorie : Vulnerability Scanning
Catégorie : Security Testing
Catégorie : LLM Application
Catégorie : Penetration Testing

Ce que vous apprendrez

  • Identify and classify various classes of attacks targeting AI systems.

  • Analyze the AI/ML development lifecycle to pinpoint stages vulnerable to attack.

  • Apply threat mitigation strategies and security controls to protect AI systems in development and production.

Compétences que vous acquerrez

Catégorie : Threat Detection
Catégorie : Artificial Intelligence and Machine Learning (AI/ML)
Catégorie : Cybersecurity
Catégorie : Security Controls
Catégorie : Application Security
Catégorie : AI Security
Catégorie : Vulnerability Assessments
Catégorie : Model Deployment
Catégorie : MLOps (Machine Learning Operations)
Catégorie : Threat Modeling
Catégorie : MITRE ATT&CK Framework
Catégorie : Application Lifecycle Management
Catégorie : Responsible AI
Catégorie : Data Security
Catégorie : Security Engineering

Ce que vous apprendrez

  • Apply machine learning techniques to detect anomalies in cybersecurity data such as logs, network traffic, and user behavior.

  • Automate incident response workflows by integrating AI-driven alerts with security orchestration tools.

  • Evaluate and fine-tune AI models to reduce false positives and improve real-time threat detection accuracy.

Compétences que vous acquerrez

Catégorie : Query Languages
Catégorie : Scalability
Catégorie : Data Integration
Catégorie : User Feedback
Catégorie : Application Performance Management
Catégorie : Microsoft Azure
Catégorie : Process Optimization
Catégorie : Anomaly Detection
Catégorie : Generative AI
Catégorie : Site Reliability Engineering
Catégorie : Time Series Analysis and Forecasting
Catégorie : Data Analysis

Ce que vous apprendrez

  • Apply systematic patching strategies to AI models, ML frameworks, and dependencies while maintaining service availability and model performance.

  • Conduct blameless post-mortems for AI incidents using structured frameworks to identify root causes, document lessons learned, and prevent recurrence

  • Set up monitoring, alerts, and recovery to detect and resolve model drift, performance drops, and failures early.

Compétences que vous acquerrez

Catégorie : Disaster Recovery
Catégorie : Site Reliability Engineering
Catégorie : MLOps (Machine Learning Operations)
Catégorie : Sprint Retrospectives
Catégorie : Automation
Catégorie : AI Security
Catégorie : System Monitoring
Catégorie : Vulnerability Assessments
Catégorie : Incident Management
Catégorie : DevOps
Catégorie : Model Deployment
Catégorie : Dashboard
Catégorie : Dependency Analysis
Catégorie : Problem Management
Catégorie : Patch Management
Catégorie : Artificial Intelligence
Catégorie : Continuous Monitoring

Ce que vous apprendrez

  • Explain the fundamentals of deploying AI models on mobile applications, including their unique performance, privacy, and security considerations.

  • Analyze threats to mobile AI models like reverse engineering, adversarial attacks, and privacy leaks and their effect on reliability and trust.

  • Design a layered defense strategy for securing mobile AI applications by integrating encryption, obfuscation, and continuous telemetry monitoring.

Compétences que vous acquerrez

Catégorie : Application Security
Catégorie : Mobile Security
Catégorie : Encryption
Catégorie : Continuous Monitoring
Catégorie : Security Management
Catégorie : Program Implementation
Catégorie : Threat Management
Catégorie : Mobile Development
Catégorie : Apple iOS
Catégorie : Model Deployment
Catégorie : Threat Modeling
Catégorie : Information Privacy
Catégorie : AI Security
Catégorie : System Monitoring
Catégorie : Security Requirements Analysis

Ce que vous apprendrez

  • Analyze how AI features like sensors, models, and agents make phones attack surfaces and enable deepfake-based scams.

  • Evaluate technical attack paths—zero-permission inference and multi-layer agent attacks—using real research cases.

  • Design a mobile-focused detection and response plan with simple rules, containment steps, and key resilience controls.

Compétences que vous acquerrez

Catégorie : Mobile Security
Catégorie : Incident Response
Catégorie : Exploit development
Catégorie : Endpoint Security
Catégorie : Artificial Intelligence
Catégorie : Information Privacy
Catégorie : Hardening
Catégorie : Threat Modeling
Catégorie : Security Controls
Catégorie : Threat Detection
Catégorie : AI Security
Catégorie : Mobile Development Tools
Catégorie : Prompt Engineering
Catégorie : Deep Learning

Obtenez un certificat professionnel

Ajoutez ce titre à votre profil LinkedIn, à votre curriculum vitae ou à votre CV. Partagez-le sur les médias sociaux et dans votre évaluation des performances.

Instructeurs

Reza Moradinezhad
Coursera
6 Cours4 030 apprenants
Starweaver
Coursera
514 Cours930 637 apprenants
Ritesh Vajariya
Coursera
23 Cours11 824 apprenants

Offert par

Coursera

Pour quelles raisons les étudiants sur Coursera nous choisissent-ils pour leur carrière ?

Felipe M.
Étudiant(e) depuis 2018
’Pouvoir suivre des cours à mon rythme à été une expérience extraordinaire. Je peux apprendre chaque fois que mon emploi du temps me le permet et en fonction de mon humeur.’
Jennifer J.
Étudiant(e) depuis 2020
’J'ai directement appliqué les concepts et les compétences que j'ai appris de mes cours à un nouveau projet passionnant au travail.’
Larry W.
Étudiant(e) depuis 2021
’Lorsque j'ai besoin de cours sur des sujets que mon université ne propose pas, Coursera est l'un des meilleurs endroits où se rendre.’
Chaitanya A.
’Apprendre, ce n'est pas seulement s'améliorer dans son travail : c'est bien plus que cela. Coursera me permet d'apprendre sans limites.’

Foire Aux Questions