Agenten, aber sicher 2026 Q1
By Johann-Peter Hartmann
Agenten, aber sicher 2026 Q1
Wir haben uns gerade an die Sicherheitsprobleme von LLM-Applikationen wie Prompt Injection und Model Poisoning gewöhnt, da trifft uns mit agentischen Systemen eine neue Welle von Sicherheitsproblemen – von persistenter Speichervergiftung über Zielmanipulation bis hin zu agentenübergreifender Vertrauenskompromittierung –, die traditionelle Sicherheitsmodelle untergraben und weit über die bekannten LLM Top 10 hinausgehen. Wir stellen die neuen Vektoren vor, wo und wie sie entstehen, wie man sich schützen kann, und wie eine tiefe Verteidigungsstrategie für agentische Lösungen aussieht.


































































