Schulung

LLM-Security Best-Practices

LLM-Systeme sicher implementieren und betreiben. Auf Basis der OWASP LLM Top 10.

Auch als interaktive Online-Schulung verfügbar.

Diese Schulung gibt Antworten auf folgende Fragen:

Welche Bedrohungen bringt der Einsatz von Large Language Models mit sich?

Warum reichen klassische Sicherheits-Paradigmen hier nicht aus?

Wo beginne ich für eine sichere Konzeption und Entwicklung von LLM-Anwendungen?

Welche Maßnahmen muss ich für einen sicheren Betrieb ergreifen?


Beschreibung

LLM-basierte Komponenten bieten mit einer großen Bandbreite an Funktionalitäten schier unbegrenzte Möglichkeiten für Anwendungen. Der Einsatz bringt jedoch auch neue Sicherheitsrisiken mit sich, denn oft werden für die Kontextualisierung von Anfragen sensible Daten eingebunden, vom LLM verarbeitet und in unterschiedlichsten Kontexten eingebettet.

Eine der wichtigsten Grundlagen für die Sicherheit in der Entwicklung von LLM-Anwendungen ist das Bewusstsein für mögliche Bedrohungen. In der Schulung werden diese für LLM-Anwendungen aus den Grundsätzen der herkömmlichen IT-Sicherheit und aktueller Sicherheitsrichtlinien für generative KI, wie den OWASP Top 10 for LLM Applications, hergeleitet. Dieser generische Ansatz ermöglicht den Teilnehmern, nicht nur für bestehende, sondern auch für zukünftige Angriffsvektoren gewappnet zu sein.

Die Teilnehmer der Schulung werden in die Lage versetzt, gängige Bedrohungen beim Einsatz von LLM-Anwendungen zu erkennen und deren Risiken einzuschätzen. Ein besonderer Schwerpunkt wird auf die Vorstellung und Abwägung effektiver Schutzmaßnahmen gelegt.

Unser kompaktes Training ist als Einstieg in die sichere Entwicklung von KI-gestützten Anwendungen konzipiert. Wir zeigen anhand unserer Erfahrungen, wie typische Sicherheitslücken entstehen und ausgenutzt werden können. Dabei gehen wir auf reale Bedrohungen im Kontext des jeweiligen Unternehmens bzw. der Branche ein. Abschließend schlagen wir den Bogen hin zu pragmatischen Lösungsansätzen, modernen Vorgehensweisen und Best-Practices für die sichere Entwicklung und Integration von LLM-Anwendungen.


Kursinhalt

Risiken

OWASP Top 10 for Large Language Model Applications

  1. Prompt Injection

  2. Insecure Output Handling

  3. Training Data Poisoning

  4. Model Denial of Service

  5. Supply Chain Vulnerabilities

  6. Sensitive Information Disclosure

  7. Insecure Plugin Design

  8. Excessive Agency

  9. Overreliance

  10. Model Theft

Maßnahmen

  • Abfluss sensibler Informationen verhindern

  • Durchsetzen von Authentifizierung & Autorisierung

  • Eingabevalidierung, Ausgabekodierung

  • Best-Practices der Einbindung von LLM-Komponenten


Facts

Zielgruppe

  • Entscheider

  • Projektleiter

  • Architekten

  • Softwareentwickler

  • Sicherheitsbeauftragte

Dauer

Die Schulung wird in zwei Varianten angeboten: für einen weniger technisch orientierten Teilnehmerkreis im Umfang von 3 Stunden und für techniknahe Teilnehmer im Umfang von 6 Stunden.

Voraussetzungen

keine


Trainer

Unsere Trainer sind aktiv tätige erfahrene Security Consultants

Zurück
Zurück

Schulungsumgebung NinjaDVA