LLM Security: Workshop für LLM-Anwendungen

Seit dem Boom von OpenAI’s ChatGPT haben Large Language Modelle (LLMs) in der Entwicklung moderner Softwarelösungen verbreitet Einzug gehalten. Doch die Integration von LLMs In Verfahren, Prozesse und webbasierte Anwendungen bringt neue Sicherheitsrisiken und eine neue Dimension der Komplexität mit sich. Um Angriffe und Datenlecks zu vermeiden, ist es besonders wichtig, Sicherheit bereits in der Designphase zu berücksichtigen.

Dieser Workshop hat das Ziel, dem Teilnehmerkreis Sicherheitsrisiken beim Einsatz dieser Technologien aufzuzeigen und wirkungsvolle Sicherheitsansätze und Gegenmaßnahmen zu vermitteln.

Wir stützen uns in diesem Workshop auf die aktuellen Richtlinien von OWASP (Top 10 for LLMs) und Mitre (ATLAS). Unsere Vorgehensweise orientiert sich dabei am Aufbau und der Integration eines LLMs in folgenden Phasen:

  • Zunächst wird der Aufbau der LLM-Infrastruktur betrachtet. Dies beinhaltet die korrekte Auswahl des Modellformats, die Betrachtung der hostenden Plattform oder der sicheren Einbindung einer LLM-API. Ebenfalls wird der Aufbau der Wissensdatenbanken, wie eines RAG-Vector-Stores, betrachtet. Ein Fokus liegt auf der sicheren Behandlung von internen und vor allem sensiblen Daten. Relevante Risiken sind unter anderem Prompt Injection (OWASP Modul LLM01) und Training Data Poisioning (LLM03).

  • Weiterhin wird die Systemarchitektur geprüft. Die Berücksichtigung der Systemarchitektur beinhaltet die sichere Integration der LLM-Komponenten in die Anwendungslandschaft sowie die Sicherheit auf Infrastrukturebene. Dazu gehört auch die korrekte Anbindung an Logging- und Monitoringsysteme, Authentifizierungs- und Autorisierungsdienste, sowie an Drittsysteme bspw. für das Hosten von Plugins. Relevante Risiken sind unter anderem Supply Chain Vulnerabilities (LLM05) und Insecure Plugin Design (LLM07).

  • Außerdem wird die Sicherheit bei der Bedienung der Anwendung untersucht. Dabei werden folgende Fragen geklärt: Habe ich passende Schritte gegen Prompt Injection getroffen? Integriere ich meine Funktionen und Plugins sicher? Und schütze ich mich ausreichend vor Angriffen „von innen“? Relevante Risiken sind an dieser Stelle unter anderem Prompt Injection (LLM01), Insecure Output Handling (LLM02) und Sensitive Information Disclosure (LLM06).

Besondere Schwerpunkte liegen auf diesen Aspekten:

  • Frühe Integration von Sicherheitsaspekten bei der LLM-Einbindung

  • Identifikation und Bewertung zugehöriger Risiken

  • Strategien zur Absicherung Ihrer Systeme, angepasst an Ihre Anforderungen

  • Unterstützung bei der Entscheidungsfindung für die am besten geeignete Schutzstrategie

DOWNLOAD

Die große Application Security Pentest FAQ für Auftraggeber

Ihr Ansprechpartner

Thomas Schönrich

Mehr Infos

KARRIERE

Du bist Experte in diesem Thema?

Dann könnte unser tolles Team vielleicht zur neuen Heimat für dich werden.

Du bist noch Einsteiger?
Dann schau auch hier:

Zurück
Zurück

LLM Security: Sicherheitsanalysen und Penetrationstests

Weiter
Weiter

Cloud Security Testing