Schulung

LLM-Security Best-Practices

LLM-Systeme sicher implementieren und betreiben. Auf Basis der OWASP LLM Top 10.

Auch als interaktive Online-Schulung verfügbar.

Diese Schulung gibt Antworten auf folgende Fragen:

Welche Bedrohungen bringt der Einsatz von Large Language Models mit sich?

Warum reichen klassische Sicherheitsparadigmen hier nicht aus?

Wo beginne ich für eine sichere Konzeption und Entwicklung von LLM-Anwendungen?

Welche Maßnahmen muss ich für einen sicheren Betrieb ergreifen?


Beschreibung

Die Veröffentlichung von ChatGPT Ende 2022 brachte eine rasante Entwicklung und Einbettung von LLM-basierten Komponenten in eigene Anwendungen mit sich. Die große Bandbreite an Fähigkeiten eröffnet schier unbegrenzte Möglichkeiten. Der Einsatz bringt jedoch auch neue Sicherheitsrisiken mit sich. Diese sind besonders hoch, wenn unternehmenseigene sensible Daten eingebunden und vom LLM verarbeitet werden.

Eine der wichtigsten Grundlagen für die Sicherheit in der Entwicklung von LLM-Anwendungen ist das Bewusstsein für mögliche Bedrohungen. In der Schulung werden diese für LLM-Anwendungen aus den Grundsätzen der herkömmlichen IT-Sicherheit und aktueller Sicherheitsrichtlinien für generative KI, wie den OWASP Top 10 for LLM Applications, hergeleitet. Dieser generische Ansatz ermöglicht den Teilnehmern, nicht nur für bestehende sondern auch für neue Angriffsvektoren gewappnet zu sein.

Die Teilnehmer der Schulung werden in die Lage versetzt, gängige Bedrohungen beim Einsatz von LLM-Anwendungen zu erkennen und deren Risiken einzuschätzen. Ein besonderer Schwerpunkt wird auf die Vorstellung und Abwägung effektiver Schutzmaßnahmen gelegt.

Unser kompaktes Training ist als Einstieg in die sichere Entwicklung von KI-gestützten Anwendungen konzipiert. Wir zeigen, wie typische Sicherheitslücken ausgenutzt werden. Bekannt gewordene, besonders spektakuläre Fälle untersuchen wir auf Ihre Relevanz für das eigene Umfeld. Es wird auf reale Bedrohungen im Kontext des jeweiligen Unternehmens bzw. der Branche eingegangen. Abschließend schlagen wir den Bogen hin zu pragmatischen Lösungsansätzen und modernen Vorgehensweisen für die sichere Entwicklung von LLM-Anwendungen.


Kursinhalt

OWASP Top 10 for Large Language Model Applications

  1. Prompt Injection

  2. Insecure Output Handling

  3. Training Data Poisoning

  4. Model Denial of Service

  5. Supply Chain Vulnerabilities

  6. Sensitive Information Disclosure

  7. Insecure Plugin Design

  8. Excessive Agency

  9. Overreliance

  10. Model Theft


Facts

Zielgruppe

  • Entscheider

  • Projektleiter

  • Architekten

  • Softwareentwickler

  • Sicherheitsbeauftragte

Dauer

Die Schulung wird in zwei Varianten angeboten: für einen weniger technisch orientierten Teilnehmerkreis im Umfang von 3 Stunden und für techniknahe Teilnehmer im Umfang von 6 Stunden.

Voraussetzungen

keine


Trainer

Unsere Trainer sind aktiv tätige erfahrene Security Consultants

Zurück
Zurück

Schulungsumgebung NinjaDVA