Home | Services | Penetration Testing | AI Agent Security
Im Rahmen eines Grey-Box-Testansatzes analysieren wir Ihre KI-Applikation ganzheitlich. Dazu zählen Architekturunterlagen, Prompt-Templates und Tool-Spezifikationen. Wir testen sowohl über die grafische Benutzeroberfläche als auch über REST-API-Endpunkte. Zudem evaluieren wir administrative Konfigurationsoberflächen wie diverse Agent-Builder-Systeme und Modellkonfigurationen auf mögliche Sicherheitsrisiken.
Prompt Injections stellen eine der grössten Bedrohungen für KI-Applikationen dar. Angreifer manipulieren dabei Eingaben, um Sicherheitsmechanismen zu umgehen, das vorgesehene Verhalten von KI-Agenten zu manipulieren, System-Prompts offenzulegen oder sensible Daten abzugreifen. Wir testen Ihre Applikation gezielt auf diese Angriffsvektoren. Zudem analysieren wir Benutzer-Prompts und -eingaben (einschliesslich Modalitäten wie Text, Dateien, Bilder), System- und Developer-Prompts, Guardrails und weitere Safety Layers. Dabei prüfen wir auch, ob Prompt-Templates, API-Keys oder sensible Kundendaten unbeabsichtigt im Kontext oder über Tools exponiert werden.
Agentische KI-Systeme agieren zunehmend autonom: sie rufen APIs auf, nutzen interne Tools, delegieren Aufgaben an andere Agenten und treffen eigenständige Entscheidungen. Diese Autonomie ermöglicht neue Effizienzgewinne, bringt jedoch erhebliche Sicherheitsrisiken mit sich. Die Effizienz agentischer Systeme setzt voraus, dass diese mit weitreichenden Zugriffsrechten ausgestattet sind. Sie operieren oft tief in der Unternehmensinfrastruktur mit Zugriff auf sensible Daten sowie kritische Dienste und besitzen weitreichende Aktionsfreiheit. Wir prüfen daher umfassend die Orchestrierungslogik, Planungs-Loops, Inter-Agent-Nachrichten (z. B. Agent2Agent oder MCP), Berechtigungskonzepte sowie Rollen- und Task-Delegationen. Dabei identifizieren wir typische Schwachstellen wie Agent Goal Hijacking, den Missbrauch von Tools, Identitäten und Privilegien sowie Memory Poisoning und Rogue Agents.
Retrieval-Augemented Generation (RAG) erweitert KI-Systeme um externe Datenquellen – und vergrössert damit die Angriffsfläche erheblich. Wir analysieren die gesamte RAG-Pipeline: von der Dokumentenaufnahme, über die Kontext-Einbettung bis hin zum Umgang mit personenbezogenen Daten. Gleichzeitig untersuchen wir das Output-Handling Ihrer Applikation. Downstream-Konsumenten wie Renderer, Interpreter, Shells, Browser oder weitere Automatisierungssysteme können durch manipulierte Ausgaben anfällig für gängige Angriffsvektoren wie zum Beispiel Cross-Site Scripting (XSS), Server-Side Request Forgery (SSRF), Remote Code Execution (RCE) und weitere Angriffe sein.
Alle identifizierten Schwachstellen dokumentieren wir detailliert und priorisiert. Sie erhalten einen umfassenden Bericht mit konkreten Massnahmenvorschlägen – von Quick Wins bis hin zu strategischen Verbesserungen. Unsere Ergebnisse orientieren sich an etablierten Standards wie dem OWASP LLM Top 10, dem OWASP Top 10 for Agentic Applications sowie dem OWASP MCP Top 10. Da sich das Gebiet der KI-Sicherheit rasant weiterentwickelt, fliessen in unsere Arbeit fortlaufend aktuelle Forschungsergebnisse und neue Erkenntnisse zu Best Practices ein. Damit sind unsere Empfehlungen stets auf dem neuesten Stand und schaffen die Grundlage für eine nachhaltige Absicherung Ihrer KI-Applikationen.
KI-Applikationen verarbeiten oft hochsensible Unternehmensdaten und treffen zunehmend autonome und privilegierte Entscheidungen. Dies macht KI-Applikationen zu äusserst attraktiven Zielen für Angreifer.
Gleichzeitig entsteht eine weitere neuartige und weitläufige Angriffsfläche: Die OWASP LLM Top 10 zeigen, dass Risiken wie Prompt Injections, unsichere Output-Verarbeitung und übermässige Autonomie (Excessive Agency) zu den kritischsten Bedrohungen moderner KI-Systeme zählen. Bei agentischen Architekturen kommen zusätzlich komplexe Angriffsmuster hinzu, die klassische Applikationslogiken nicht kennen – etwa manipulierte Entscheidungsprozesse, missbrauchte Tool-Aufrufe oder unkontrollierte Agenteninteraktionen.
Herkömmliche Sicherheitstests greifen hier zu kurz. Sie sind nicht darauf ausgelegt, das Zusammenspiel von Prompts, Kontext, Modellen, Tools und autonomen Entscheidungen ganzheitlich zu bewerten. Unser AI Agent Security Audit schliesst diese Lücke. Durch spezialisierte Tests machen wir Risiken sichtbar, die mit klassischen Penetration Tests oder Code Scans unentdeckt bleiben – und zwar bevor sie geschäftskritische Auswirkungen entfalten.
Setzen Sie Ihre KI-Anwendungen und agentischen Systeme keinem unnötigen Risiko aus. Mit dem AI Agent Security Audit von Oneconsult identifizieren Sie kritische Schwachstellen in KI-Applikationen, agentischen Frameworks und RAG-Architekturen, bevor Angreifer diese ausnutzen.
Kontaktieren Sie uns für eine individuelle Beratung. Unsere erfahrenen Penetration Tester unterstützen Sie dabei, Ihre KI-Systeme gezielt zu prüfen, Risiken realistisch zu bewerten und die Sicherheit sowie Resilienz Ihrer gesamten IT-Umgebung nachhaltig zu stärken.
Ein AI Agent Security Audit ist eine gezielte Sicherheitsüberprüfung von KI-Anwendungen wie Chatbots, RAG-Systemen und agentischen Frameworks. Dabei werden reale Angriffstechniken eingesetzt, um ausnutzbare Schwachstellen in Prompts, Agentenlogik, Tool-Integrationen und Systemarchitektur gezielt aufzudecken.
Bei Prompt Injections manipulieren Angreifer gezielt Eingaben an ein KI-System, um Sicherheitsmechanismen zu umgehen. Dadurch können System-Prompts offengelegt, sensible Daten extrahiert oder unautorisierte Aktionen ausgelöst werden. Prompt Injections zählen laut OWASP LLM Top 10 zu den kritischen Risiken moderner KI-Applikationen.
Nein. Klassische Vulnerability-Scanner erkennen bekannte Software-Schwachstellen wie veraltete Bibliotheken oder Fehlkonfigurationen. Die Risiken von KI-Applikationen entstehen jedoch im Zusammenspiel von natürlicher Sprache, Modellverhalten, Kontext und Systemarchitektur. Prompt Injections, unsichere Agenten-Logik oder manipulierte RAG-Pipelines lassen sich nicht mit signaturbasierten Scans erkennen. Sie erfordern gezielte, manuelle Angriffssimulationen durch spezialisierte Security-Experten.
Ja. In mehreren öffentlich dokumentierten Fällen wurden KI-Agenten kurz nach ihrer Veröffentlichung kompromittiert – etwa durch exponierte Admin-Panels, gestohlene API-Keys und aktive Infostealer-Kampagnen. Sicherheitsforscher konnten zudem zeigen, dass Coding-Agenten durch gezielte Prompt Injections vollständig kompromittiert werden konnten – bis hin zur Ausführung von Schadcode. Diese Vorfälle verdeutlichen, dass agentische KI-Systeme spezialisierten Sicherheitstests unterzogen werden sollten, bevor sie produktiv eingesetzt werden.
Agentische KI-Systeme können eigenständig Tools aufrufen, auf externe Daten zugreifen und Aktionen in verbundenen Systemen ausführen. Diese Autonomie vergrössert die Angriffsfläche erheblich. Typische Risiken sind Prompt Injections über externe Datenquellen (z. B. manipulierte Dokumente oder Webseiten), unkontrollierte Tool-Nutzung mit unbeabsichtigten Nebeneffekten, übermässige Rechteausweitung durch fehlende Least-Privilege-Prinzipien sowie Datenlecks über Agenten-Ausgaben. Da agentische Systeme oft mehrere Komponenten verketten, können sich einzelne Schwachstellen zu kritischen Angriffsketten summieren.
Ohne gezielte Sicherheitstests lässt sich diese Frage nicht zuverlässig beantworten. Viele KI-Applikationen werden primär hinsichtlich ihrer Funktionalität optimiert, während sicherheitsrelevante Aspekte wie Prompt-Isolation, Zugriffskontrollen oder Ausgabe-Validierung oft unzureichend geprüft werden. Unsere Erfahrung zeigt: Selbst sorgfältig entwickelte Systeme weisen häufig ausnutzbare Schwachstellen auf, die erst unter realen Angriffsbedingungen sichtbar werden. Ein AI Agent Security Audit schafft Transparenz – mit konkreten Befunden, klarer Priorisierung und umsetzbaren Handlungsempfehlungen.
Erreichbarkeit von Montag bis Freitag 08.00 – 18.00 Uhr (Ausnahme: Kunden mit SLA – Bitte über die 24/7 IRR-Notfallnummer anrufen).
Privatpersonen wenden sich bitte an Ihren IT-Dienstleister des Vertrauens oder die lokale Polizeidienststelle.
Weitere Informationen zu unseren DFIR-Services finden Sie hier:
Nichts verpassen! Melden Sie sich für unseren kostenlosen Newsletter an.