Leitfaden für Penetrationstests von
Large Language Models (LLMs)
Künstliche Intelligenz ist längst in der Unternehmensrealität angekommen – mit ihr aber auch neue Sicherheitsrisiken. Besonders Large Language Models (LLMs), wie sie in Chatbots, Assistenzsystemen oder automatisierten Prozessen eingesetzt werden, stellen IT-Sicherheit und Datenschutz vor neue Herausforderungen.
Wie lassen sich diese Systeme prüfen? Welche Angriffsszenarien sind realistisch? Und wie testet man ein lernendes Modell, das sich dynamisch verhält?
Genau diesen Fragen widmet sich der Leitfaden für Penetrationstests von Large Language Models (LLMs), der in Zusammenarbeit mit dem Bundesamt für Sicherheit in der Informationstechnik (BSI) entstanden ist. Blackfort Technology war als Mitautor maßgeblich an der inhaltlichen Entwicklung beteiligt.

Ziel des Leitfadens ist es, ein strukturiertes Vorgehen zur Sicherheitsprüfung von LLM-basierten Systemen bereitzustellen – praxisnah, methodisch nachvollziehbar und auf reale Bedrohungsszenarien abgestimmt. Behandelt werden unter anderem:
-
Angriffsvektoren auf LLMs und deren Infrastruktur
-
Testmethoden für Prompt Injection, Modellmanipulation, Datenlecks
-
Unterschiede zu klassischen Penetrationstests
-
Empfehlungen zur Integration in bestehende Security-Prozesse
Der Leitfaden richtet sich an Sicherheitsteams, Entwickler, Verantwortliche für KI-Strategien sowie Dienstleister im Bereich Testing und Compliance.
Aktueller Stand:
Die Veröffentlichung des Dokuments ist derzeit in Vorbereitung.
Sobald der Leitfaden verfügbar ist, stellen wir ihn hier zum Download bereit.
Möchten Sie informiert werden, sobald der Leitfaden verfügbar ist?
Kontaktieren Sie uns.