Zum Inhalt springen
  • February 5, 2026 • 3:00 PM
    Wenn KI zum Einfallstor wird – Live‑Hijack eines Agentic‑AI‑Systems
    Agentic AI ist dabei, zur „Steuerzentrale“ moderner Plattformen zu werden: Agents planen Aufgaben, nutzen Tools, rufen APIs auf und automatisieren ganze Workflows. Genau diese Autonomie vergrößert jedoch die Angriffsfläche massiv. In dieser Session zeigen wir in einer geführten Live-Demo, wie sich ein Agentic-AI-Setup schrittweise „hijacken“ lässt – nicht als Deep-Dive in Exploits, sondern als greifbares Szenario, das typische Denkfehler und Sicherheitslücken sichtbar macht. Wir demonstrieren, wie Angreifer über manipulierte Eingaben, scheinbar vertrauenswürdige Quellen und missbrauchte Integrationen unerwünschte Aktionen auslösen und Informationen abfließen lassen können – und warum klassische AppSec allein hier nicht ausreicht. Warum Agentic AI eine neue Sicherheitsklasse darstellt (Autonomie, Tools, Datenzugriff, Side Effects) Typische Angriffsvektoren auf Agents (z. B. manipulierte Inhalte/Anweisungen, vergiftete Wissensquellen, missbrauchte Integrationen) Welche „Red Flags“ in Architektur und Betrieb auf ein hijackbares System hindeuten Welche Sicherheitsanforderungen sich daraus für DevSecOps und Governance ableiten
  • February 19, 2026 • 3:00 PM
    DevSecOps für KI-native Software: Der Schlüssel zu sicherer Entwicklung und Betrieb
    Wer KI-native Anwendungen baut, muss Sicherheit vom ersten Commit bis zum Betrieb konsequent mitdenken – und zwar über Code hinaus: Modelle, Prompts, Datenpipelines, Secrets, Identitäten und Tool-Anbindungen gehören genauso in den Scope. Diese Session liefert das gemeinsame Fundament: Was bedeutet DevSecOps heute, welche Rollen und Prozesse funktionieren in der Praxis, und wie setzen wir Sicherheitskontrollen automatisiert entlang der Delivery-Pipeline um? Wir ordnen Best Practices für moderne Softwareentwicklung ein (Open Source, Supply Chain, GitHub, Cloud/Azure) und zeigen, wie sich Security in Teams und Plattformen so verankern lässt, dass sie Geschwindigkeit ermöglicht, statt bremst. DevSecOps-Grundlagen für KI-native Systeme: People/Process/Platform – plus Daten & Modelle Shift-left & Shift-right: Sicherheitskontrollen in Pipeline, IaC und Runtime sinnvoll kombinieren Software-Supply-Chain-Absicherung (Dependencies, Artefakte, Signierung, Policies) mit Open-Source-Tools und GitHub Identität, Secrets und Zugriffsmodelle in Azure: Prinzipien für eine robuste Basis (z. B. Least Privilege, zentrale Policies)
  • March 5, 2026 • 3:00 PM
    Schütze dein Agentic-AI-System: Architektur, Guardrails & DevSecOps-Maßnahmen gegen Hijacking
    Nach der Demo ist klar: Ein Agentic-AI-System braucht Schutzmechanismen auf mehreren Ebenen – von der Architektur über Daten und Tools bis hin zu Monitoring und Incident Response. In dieser Session bauen wir die Brücke von „Was kann schiefgehen?“ zu „Wie verhindern wir es in der Praxis?“. Wir zeigen konkrete Schutzprinzipien für sichere Agent-Architekturen: klare Trust Boundaries, kontrollierte Tool-Nutzung, abgesicherte Wissensquellen, robuste Identitäten und durchgängige Telemetrie. Zusätzlich betrachten wir, wie sich diese Maßnahmen als DevSecOps-Standard verankern lassen, damit Sicherheit reproduzierbar und skalierbar wird. Sicherheitsprinzipien für Agent-Architekturen: Trust Boundaries, geringste Rechte, sichere Defaults Guardrails für Tool- und Datenzugriffe: Freigaben, Policies, Validierung und sichere Ausführung Absicherung von Wissensquellen (z. B. RAG): Qualität, Herkunft, Integrität und Aktualität von Daten Detection & Response für KI-native Systeme: Logging/Monitoring, Missbrauchserkennung, sichere Betriebsprozesse