As large language models revolutionize business operations, sophisticated attackers exploit AI systems through prompt injection, jailbreaking, and content manipulation—vulnerabilities that traditional security tools cannot detect. This intensive course empowers AI developers, cybersecurity professionals, and IT managers to systematically identify and mitigate LLM-specific threats before deployment. Master red-teaming methodologies using industry-standard tools like PyRIT, NVIDIA Garak, and Promptfoo to uncover hidden vulnerabilities through adversarial testing. Learn to design and implement multi-layered content-safety filters that block sophisticated bypass attempts while maintaining system functionality. Through hands-on labs, you'll establish resilience baselines, implement continuous monitoring systems, and create adaptive defenses that strengthen over time.

Secure AI: Red-Teaming & Safety Filters
Développez vos compétences avec Coursera Plus pour 239 $/an (habituellement 399 $). Économisez maintenant.

Secure AI: Red-Teaming & Safety Filters
Ce cours fait partie de Spécialisation "AI Security: Security in the Age of Artificial Intelligence"


Instructeurs : Brian Newman
Inclus avec
Expérience recommandée
Ce que vous apprendrez
Design red-teaming scenarios to identify vulnerabilities and attack vectors in large language models using structured adversarial testing.
Implement content-safety filters to detect and mitigate harmful outputs while maintaining model performance and user experience.
Evaluate and enhance LLM resilience by analyzing adversarial inputs and developing defense strategies to strengthen overall AI system security.
Compétences que vous acquerrez
- Catégorie : Continuous Monitoring
- Catégorie : Vulnerability Scanning
- Catégorie : Security Strategy
- Catégorie : Penetration Testing
- Catégorie : Security Testing
- Catégorie : LLM Application
- Catégorie : Cyber Security Assessment
- Catégorie : AI Personalization
- Catégorie : Scenario Testing
- Catégorie : Vulnerability Assessments
- Catégorie : Large Language Modeling
- Catégorie : AI Security
- Catégorie : Responsible AI
- Catégorie : System Implementation
- Catégorie : Threat Modeling
- Catégorie : Security Controls
Outils que vous découvrirez
- Catégorie : Prompt Engineering
Détails à connaître

Ajouter Ă votre profil LinkedIn
décembre 2025
Découvrez comment les employés des entreprises prestigieuses maîtrisent des compétences recherchées

Élaborez votre expertise du sujet
- Apprenez de nouveaux concepts auprès d'experts du secteur
- Acquérez une compréhension de base d'un sujet ou d'un outil
- Développez des compétences professionnelles avec des projets pratiques
- Obtenez un certificat professionnel partageable

Il y a 3 modules dans ce cours
Obtenez un certificat professionnel
Ajoutez ce titre à votre profil LinkedIn, à votre curriculum vitae ou à votre CV. Partagez-le sur les médias sociaux et dans votre évaluation des performances.
Offert par
En savoir plus sur Computer Security and Networks
Pour quelles raisons les étudiants sur Coursera nous choisissent-ils pour leur carrière ?

Felipe M.

Jennifer J.

Larry W.

Chaitanya A.

Ouvrez de nouvelles portes avec Coursera Plus
Accès illimité à 10,000+ cours de niveau international, projets pratiques et programmes de certification prêts à l'emploi - tous inclus dans votre abonnement.
Faites progresser votre carrière avec un diplôme en ligne
Obtenez un diplôme auprès d’universités de renommée mondiale - 100 % en ligne
Rejoignez plus de 3Â 400Â entreprises mondiales qui ont choisi Coursera pour les affaires
Améliorez les compétences de vos employés pour exceller dans l’économie numérique
Foire Aux Questions
Plus de questions
Aide financière disponible,
¹ Certains travaux de ce cours sont notés par l'IA. Pour ces travaux, vos Données internes seront utilisées conformément à Notification de confidentialité de Coursera.




