Coursera

Secure AI: Red-Teaming & Safety Filters

Nutzen Sie die Ersparnis! Erhalten Sie 40% Rabatt auf 3 Monate Coursera Plus und vollen Zugang zu Tausenden von Kursen.

kurs ist nicht verfĂĽgbar in Deutsch (Deutschland)

Wir ĂĽbersetzen es in weitere Sprachen.
Coursera

Secure AI: Red-Teaming & Safety Filters

Brian Newman
Starweaver

Dozenten: Brian Newman

Bei Coursera Plus enthalten

Verschaffen Sie sich einen Einblick in ein Thema und lernen Sie die Grundlagen.
Stufe Mittel

Empfohlene Erfahrung

4 Stunden zu vervollständigen
Flexibler Zeitplan
In Ihrem eigenen Lerntempo lernen
Verschaffen Sie sich einen Einblick in ein Thema und lernen Sie die Grundlagen.
Stufe Mittel

Empfohlene Erfahrung

4 Stunden zu vervollständigen
Flexibler Zeitplan
In Ihrem eigenen Lerntempo lernen

Was Sie lernen werden

  • Design red-teaming scenarios to identify vulnerabilities and attack vectors in large language models using structured adversarial testing.

  • Implement content-safety filters to detect and mitigate harmful outputs while maintaining model performance and user experience.

  • Evaluate and enhance LLM resilience by analyzing adversarial inputs and developing defense strategies to strengthen overall AI system security.

Kompetenzen, die Sie erwerben

  • Kategorie: Threat Modeling
  • Kategorie: LLM Application
  • Kategorie: Vulnerability Assessments
  • Kategorie: Responsible AI
  • Kategorie: AI Personalization
  • Kategorie: Vulnerability Scanning
  • Kategorie: System Implementation
  • Kategorie: AI Security
  • Kategorie: Security Strategy
  • Kategorie: Penetration Testing
  • Kategorie: Large Language Modeling
  • Kategorie: Security Testing
  • Kategorie: Security Controls
  • Kategorie: Continuous Monitoring
  • Kategorie: Scenario Testing
  • Kategorie: Cyber Security Assessment

Werkzeuge, die Sie lernen werden

  • Kategorie: Prompt Engineering

Wichtige Details

Zertifikat zur Vorlage

Zu Ihrem LinkedIn-Profil hinzufĂĽgen

KĂĽrzlich aktualisiert!

Dezember 2025

Bewertungen

1 ZuweisungÂą

KI-bewertet siehe Haftungsausschluss
Unterrichtet in Englisch

Erfahren Sie, wie Mitarbeiter fĂĽhrender Unternehmen gefragte Kompetenzen erwerben.

 Logos von Petrobras, TATA, Danone, Capgemini, P&G und L'Oreal

Erweitern Sie Ihre Fachkenntnisse

Dieser Kurs ist Teil der Spezialisierung Spezialisierung „AI Security: Security in the Age of Artificial Intelligence“
Wenn Sie sich fĂĽr diesen Kurs anmelden, werden Sie auch fĂĽr diese Spezialisierung angemeldet.
  • Lernen Sie neue Konzepte von Branchenexperten
  • Gewinnen Sie ein Grundverständnis bestimmter Themen oder Tools
  • Erwerben Sie berufsrelevante Kompetenzen durch praktische Projekte
  • Erwerben Sie ein Berufszertifikat zur Vorlage

In diesem Kurs gibt es 3 Module

This module introduces participants to the systematic creation and execution of red-teaming scenarios targeting large language models. Students learn to identify common vulnerability categories including prompt injection, jailbreaking, and data extraction attacks. The module demonstrates how to design realistic adversarial scenarios that mirror real-world attack patterns, using structured methodologies to probe LLM weaknesses. Hands-on demonstrations show how red-teamers simulate malicious user behavior to uncover security gaps before deployment.

Das ist alles enthalten

4 Videos2 LektĂĽren1 peer review

This module covers the design, implementation, and evaluation of content-safety filters for LLM applications. Participants explore multi-layered defense strategies including input sanitization, output filtering, and behavioral monitoring systems. The module demonstrates how to configure safety mechanisms that balance security with functionality, and shows practical testing methods to validate filter effectiveness against sophisticated bypass attempts. Real-world examples illustrate the challenges of maintaining robust content filtering while preserving user experience.

Das ist alles enthalten

3 Videos1 LektĂĽre1 peer review

This module focuses on comprehensive resilience testing and systematic improvement of AI system robustness. Students learn to conduct thorough security assessments that measure LLM resistance to adversarial inputs, evaluate defense mechanism effectiveness, and identify areas for improvement. The module demonstrates how to establish baseline security metrics, implement iterative hardening processes, and validate improvements through continuous testing. Participants gain skills in developing robust AI systems that maintain integrity under real-world adversarial conditions.

Das ist alles enthalten

4 Videos1 LektĂĽre1 Aufgabe2 peer reviews

Erwerben Sie ein Karrierezertifikat.

FĂĽgen Sie dieses Zeugnis Ihrem LinkedIn-Profil, Lebenslauf oder CV hinzu. Teilen Sie sie in Social Media und in Ihrer Leistungsbeurteilung.

Dozenten

Brian Newman
Coursera
5 Kurse 1.577 Lernende

von

Coursera

Mehr von Computer Security and Networks entdecken

Warum entscheiden sich Menschen fĂĽr Coursera fĂĽr ihre Karriere?

Felipe M.

Lernender seit 2018
„Es ist eine großartige Erfahrung, in meinem eigenen Tempo zu lernen. Ich kann lernen, wenn ich Zeit und Nerven dazu habe.“

Jennifer J.

Lernender seit 2020
„Bei einem spannenden neuen Projekt konnte ich die neuen Kenntnisse und Kompetenzen aus den Kursen direkt bei der Arbeit anwenden.“

Larry W.

Lernender seit 2021
„Wenn mir Kurse zu Themen fehlen, die meine Universität nicht anbietet, ist Coursera mit die beste Alternative.“

Chaitanya A.

„Man lernt nicht nur, um bei der Arbeit besser zu werden. Es geht noch um viel mehr. Bei Coursera kann ich ohne Grenzen lernen.“
Coursera Plus

Neue Karrieremöglichkeiten mit Coursera Plus

Unbegrenzter Zugang zu 10,000+ Weltklasse-Kursen, praktischen Projekten und berufsqualifizierenden Zertifikatsprogrammen - alles in Ihrem Abonnement enthalten

Bringen Sie Ihre Karriere mit einem Online-Abschluss voran.

Erwerben Sie einen Abschluss von erstklassigen Universitäten – 100 % online

Schließen Sie sich mehr als 3.400 Unternehmen in aller Welt an, die sich für Coursera for Business entschieden haben.

Schulen Sie Ihre Mitarbeiter*innen, um sich in der digitalen Wirtschaft zu behaupten.

Häufig gestellte Fragen

Âą Einige Aufgaben in diesem Kurs werden mit AI bewertet. FĂĽr diese Aufgaben werden Ihre Daten in Ăśbereinstimmung mit Datenschutzhinweis von Courseraverwendet.