As large language models revolutionize business operations, sophisticated attackers exploit AI systems through prompt injection, jailbreaking, and content manipulation—vulnerabilities that traditional security tools cannot detect. This intensive course empowers AI developers, cybersecurity professionals, and IT managers to systematically identify and mitigate LLM-specific threats before deployment. Master red-teaming methodologies using industry-standard tools like PyRIT, NVIDIA Garak, and Promptfoo to uncover hidden vulnerabilities through adversarial testing. Learn to design and implement multi-layered content-safety filters that block sophisticated bypass attempts while maintaining system functionality. Through hands-on labs, you'll establish resilience baselines, implement continuous monitoring systems, and create adaptive defenses that strengthen over time.

Secure AI: Red-Teaming & Safety Filters
Nutzen Sie die Ersparnis! Erhalten Sie 40% Rabatt auf 3 Monate Coursera Plus und vollen Zugang zu Tausenden von Kursen.

Secure AI: Red-Teaming & Safety Filters
Dieser Kurs ist Teil von Spezialisierung „AI Security: Security in the Age of Artificial Intelligence“


Dozenten: Brian Newman
Bei enthalten
Empfohlene Erfahrung
Was Sie lernen werden
Design red-teaming scenarios to identify vulnerabilities and attack vectors in large language models using structured adversarial testing.
Implement content-safety filters to detect and mitigate harmful outputs while maintaining model performance and user experience.
Evaluate and enhance LLM resilience by analyzing adversarial inputs and developing defense strategies to strengthen overall AI system security.
Kompetenzen, die Sie erwerben
- Kategorie: Threat Modeling
- Kategorie: LLM Application
- Kategorie: Vulnerability Assessments
- Kategorie: Responsible AI
- Kategorie: AI Personalization
- Kategorie: Vulnerability Scanning
- Kategorie: System Implementation
- Kategorie: AI Security
- Kategorie: Security Strategy
- Kategorie: Penetration Testing
- Kategorie: Large Language Modeling
- Kategorie: Security Testing
- Kategorie: Security Controls
- Kategorie: Continuous Monitoring
- Kategorie: Scenario Testing
- Kategorie: Cyber Security Assessment
Werkzeuge, die Sie lernen werden
- Kategorie: Prompt Engineering
Wichtige Details

Zu Ihrem LinkedIn-Profil hinzufĂĽgen
Dezember 2025
Erfahren Sie, wie Mitarbeiter fĂĽhrender Unternehmen gefragte Kompetenzen erwerben.

Erweitern Sie Ihre Fachkenntnisse
- Lernen Sie neue Konzepte von Branchenexperten
- Gewinnen Sie ein Grundverständnis bestimmter Themen oder Tools
- Erwerben Sie berufsrelevante Kompetenzen durch praktische Projekte
- Erwerben Sie ein Berufszertifikat zur Vorlage

In diesem Kurs gibt es 3 Module
This module introduces participants to the systematic creation and execution of red-teaming scenarios targeting large language models. Students learn to identify common vulnerability categories including prompt injection, jailbreaking, and data extraction attacks. The module demonstrates how to design realistic adversarial scenarios that mirror real-world attack patterns, using structured methodologies to probe LLM weaknesses. Hands-on demonstrations show how red-teamers simulate malicious user behavior to uncover security gaps before deployment.
Das ist alles enthalten
4 Videos2 LektĂĽren1 peer review
This module covers the design, implementation, and evaluation of content-safety filters for LLM applications. Participants explore multi-layered defense strategies including input sanitization, output filtering, and behavioral monitoring systems. The module demonstrates how to configure safety mechanisms that balance security with functionality, and shows practical testing methods to validate filter effectiveness against sophisticated bypass attempts. Real-world examples illustrate the challenges of maintaining robust content filtering while preserving user experience.
Das ist alles enthalten
3 Videos1 LektĂĽre1 peer review
This module focuses on comprehensive resilience testing and systematic improvement of AI system robustness. Students learn to conduct thorough security assessments that measure LLM resistance to adversarial inputs, evaluate defense mechanism effectiveness, and identify areas for improvement. The module demonstrates how to establish baseline security metrics, implement iterative hardening processes, and validate improvements through continuous testing. Participants gain skills in developing robust AI systems that maintain integrity under real-world adversarial conditions.
Das ist alles enthalten
4 Videos1 LektĂĽre1 Aufgabe2 peer reviews
Erwerben Sie ein Karrierezertifikat.
FĂĽgen Sie dieses Zeugnis Ihrem LinkedIn-Profil, Lebenslauf oder CV hinzu. Teilen Sie sie in Social Media und in Ihrer Leistungsbeurteilung.
von
Mehr von Computer Security and Networks entdecken
Status: Kostenloser Testzeitraum
Status: Kostenloser Testzeitraum
Pearson
Status: Kostenloser Testzeitraum
Warum entscheiden sich Menschen fĂĽr Coursera fĂĽr ihre Karriere?

Felipe M.

Jennifer J.

Larry W.

Chaitanya A.

Neue Karrieremöglichkeiten mit Coursera Plus
Unbegrenzter Zugang zu 10,000+ Weltklasse-Kursen, praktischen Projekten und berufsqualifizierenden Zertifikatsprogrammen - alles in Ihrem Abonnement enthalten
Bringen Sie Ihre Karriere mit einem Online-Abschluss voran.
Erwerben Sie einen Abschluss von erstklassigen Universitäten – 100 % online
SchlieĂźen Sie sich mehr als 3.400Â Unternehmen in aller Welt an, die sich fĂĽr Coursera for Business entschieden haben.
Schulen Sie Ihre Mitarbeiter*innen, um sich in der digitalen Wirtschaft zu behaupten.
Häufig gestellte Fragen
To access the course materials, assignments and to earn a Certificate, you will need to purchase the Certificate experience when you enroll in a course. You can try a Free Trial instead, or apply for Financial Aid. The course may offer 'Full Course, No Certificate' instead. This option lets you see all course materials, submit required assessments, and get a final grade. This also means that you will not be able to purchase a Certificate experience.
When you enroll in the course, you get access to all of the courses in the Specialization, and you earn a certificate when you complete the work. Your electronic Certificate will be added to your Accomplishments page - from there, you can print your Certificate or add it to your LinkedIn profile.
Yes. In select learning programs, you can apply for financial aid or a scholarship if you can’t afford the enrollment fee. If fin aid or scholarship is available for your learning program selection, you’ll find a link to apply on the description page.
Weitere Fragen
Finanzielle UnterstĂĽtzung verfĂĽgbar,
Âą Einige Aufgaben in diesem Kurs werden mit AI bewertet. FĂĽr diese Aufgaben werden Ihre Daten in Ăśbereinstimmung mit Datenschutzhinweis von Courseraverwendet.

