heise devSec 2025 | KI und Security
Vortragsfolien „Hands-on LLM Security – Schwachstellen und Gegenmaßnahmen“ von Florian Teutsch und Clemens Hübner bei der Online-Ausgabe der heise devSec 2025 am 08.04.2025
Abstract
Hands-on LLM Security – Schwachstellen und Gegenmaßnahmen
Die enorme Begeisterung für große Sprachmodelle (LLMs), die Ende 2022 durch die Einführung von OpenAIs ChatGPT ausgelöst wurde, hält weiterhin an. Immer mehr Unternehmen versuchen, diese Technologien schnell in ihre Geschäftsabläufe und Kundenangebote zu integrieren. Diese rasante Verbreitung macht die Auseinandersetzung mit den spezifischen Sicherheitsrisiken von LLMs erforderlich.
In diesem Vortrag beleuchten wir typische Schwachstellen in LLMs aus einer praxisorientierten Perspektive. Ausgehend von einer systematischen Übersicht stellen wir anhand einer konkreten Demo-App anschaulich die verschiedenen Angriffsszenarien vor. Prompt Injection, Data Poisoning und System Prompt Leakage werden genauso erklärt und demonstriert wie Angriffe auf RAG- und Agenten-Implementierungen.
Der Vortrag stellt neben einer grundsätzlichen Einführung und einer Präsentation konkreter Verwundbarkeiten auch passende Gegenmaßnahmen vor. Abschließend werden diese um allgemeine Best Practices für die Nutzung von LLMs in Geschäftsanwendungen ergänzt.