Startseite Themen Brennpunkt INNOVATIONSPREIS-IT IT-Bestenliste INDUSTRIEPREIS INDUSTRIE-Bestenliste TrafficGenerator
INNOVATIONSPREIS-IT 2017

Drucken
Mittelstandspresse

06.05.2026

Agentic AI: Wenn autonome KI-Systeme zum Sicherheitsrisiko werden

 

Agentic AI: Wenn autonome KI-Systeme zum Sicherheitsrisiko werden
Agentic AI: Wenn autonome KI-Systeme zum Sicherheitsrisiko werden

Baar, 06.05.2026 (PresseBox) - Künstliche Intelligenz hat sich bereits zum zentralen Bestandteil moderner Unternehmensprozesse etabliert. Doch mit Agentic AI treten wir in ein ganz neues Zeitalter ein: autonome, handlungsfähige KI-Systeme, die eigenständig Entscheidungen treffen und Prozesse steuern. So verschiebt sich nicht nur die Rolle des KI-Tools hin zum «digitalen Mitarbeiter», sondern auch die Verantwortlichkeiten: neue Autonomie bringt auch neue Cyberrisiken mit sich, wer kümmert sich darum?

Von Privilegieneskalation über unkontrollierte Datenexfiltration bis hin zu systemischen Sicherheitslücken – Agentic AI erweitert nicht nur Möglichkeiten, sondern auch die Angriffsfläche. Aktuelle Vorfälle zeigen: Agentic AI ist nicht nur ein Effizienztreiber, sondern kann auch zum Einfallstor für Angriffe und Missbrauch werden. Ein Beispiel ist der ServiceNow-Vorfall aus dem Januar 2026 (CVE-2025-12420). Ein hartcodierter, systemweiter Schlüssel ermöglichte es Angreifern, über die Virtual-Agent-API Administratorrechte zu erlangen.

Doch dieser Fall ist kein Einzelfall – sondern ein Hinweis auf ein strukturelles Problem: Wenn grundlegende Sicherheitsprinzipien nicht konsequent umgesetzt werden, wird Agentic AI selbst zum Risiko.

Reale Risiken mit Agentic AI: Aktuelle Vorfälle und Einordnung

Aktuelle Vorfälle zeigen, dass Agentic AI neue Angriffspfade eröffnet – insbesondere durch Privilegieneskalation, manipulierte Entscheidungslogik und kompromittierte Agenten:

1. Privilegieneskalation durch Agenten

ServiceNow (Januar 2026, CVE-2025-12420): Ein hartcodierter Schlüssel in der Virtual-Agent-API ermöglichte Angreifern, Administratorrechte zu erlangen.  Ein klassischer Agent-to-Agent-Angriff (A2A).

Microsoft Copilot (EchoLeak, CVE-2025-32711): Durch manipulierte Prompts konnten Angreifer sensible Daten extrahieren und Berechtigungen erweitern.

Langflow (CVE-2025-3248): Eine Code-Injection in AI-Agenten führte zur vollständigen Kompromittierung der AI-Infrastruktur und angebundener Systeme. 

2. Datenexfiltration und -manipulation

Reconciliation Agent bei einem Finanzdienstleister (2024)

Eine scheinbar normale Business-Anfrage brachte einen «Reconciliation Agent» dazu, 45.000 Kundendatensätze zu exportieren. Die AI erkannte die Manipulation nicht, weil die Anfrage «geschäftsüblich» formuliert war.

Kompromittierte Open-Source-Frameworks

Veränderte Agenten-Frameworks installierten Backdoors, die erst nach Monaten entdeckt wurden – mit entsprechend langer unbemerkter Datenabflusssituation.

3. Supply-Chain-Risiken in der AI-Lieferkette

Salt Typhoon (2024–2025)

Staatliche Akteure nutzten die AI-Supply-Chain, um Agenten-Frameworks zu kompromittieren und sich so persistenten Zugang zu Unternehmensnetzwerken zu verschaffen.

4. Prompt Injection und Missbrauch von Tools

Prompt Injection bei gängigen Plattformen

Schädliche Prompts manipulierten AI-Agenten und führten von Datenabflüssen bis zur Ausführung bösartiger Skripte. Betroffen waren u.a. GitHub Copilot, Salesforce Einstein und ChatGPT.

Missbrauch von Non-Human Identities (NHI)

Kompromittierte Agenten-Credentials gewährten Angreifern über Wochen unentdeckten Zugriff auf Systeme (NHI Compromise).

Warum klassische Sicherheitsmassnahmen versagen

Agentic AI öffnet neue Angriffsvektoren, die von traditionellen Security-Controls nicht erfasst werden:

Autonomie

Agenten handeln eigenständig, oft ohne laufende menschliche Kontrolle oder Freigabe.

Komplexität

Multi-Agenten-Systeme, Shared Service Accounts und dynamische Workflows erschweren die Zuordnung von Aktionen und Verantwortlichkeiten.

Dynamik

AI-Agenten lernen, kombinieren Tools und interagieren miteinander; Sicherheitslücken entstehen durch unvorhergesehene Interaktionen – nicht nur durch klassischen Code. 

Unternehmen, die AI-Agenten wie klassische Software behandeln, riskieren stille Kompromittierung, laterale Bewegung und Compliance-Verstösse.

Verantwortungskultur und Agentic AI Security Awareness

Agentic AI verändert nicht nur Technologie, sondern auch Verantwortung. Wer AI-Agenten sicher einsetzen will, braucht eine klare Governance, neue Rollen und gezielte Sensibilisierung.

Die Rolle des  «AI Steward»: Verantwortlich für sichere AI-Agenten

Der AI Steward ist zentrale Ansprechperson für Agentic AI Security und Governance, mit den Kernaufgaben:

Risikobewertung vor dem Deployment von AI-Agenten

Laufende Audits von Agenten-Aktivitäten und Logs

Compliance-Checks (CH DSG, EU DSGVO, ISO 27001, NIST AI RMF)

Analyse von Prompts und Policies zur Erkennung von Datenlecks und Prompt Injection

Diese Rolle ist der Dreh- und Angelpunkt für Agentic AI Security Awareness im Unternehmen.

Automatisierte Security-Controls für AI-Agenten

Für Agentic AI braucht es automatisierte Sicherheitskontrollen, die:

Agenten-Workflows und Tool-Nutzung in Echtzeit überwachen 

Compliance- und Policy-Verstösse erkennen 

Prompts und Antworten auf sensible Inhalte und Anomalien prüfen

Zentral ist dabei ein Zero-Trust-Ansatz für AI-Agenten: Jede Aktion muss autorisiert, protokolliert und konsequent nach dem Prinzip der geringsten Berechtigung (Least Privilege) beschränkt werden.

AI Risk & Security Awareness

Schulung, Kulturwandel und AI Security Awareness

Technische Kontrollen genügen nicht – Sicherheitskultur ist entscheidend:

Mitarbeitende sensibilisieren: AI-Agenten sind keine «Black Boxes». Teams müssen verstehen, welche Daten in Prompts fliessen, welche Risiken Agenten-Tools haben und wie Agentic AI missbraucht werden kann.

Gezielte AI Security AwarenessKI-Sicherheitsbewertungen, Schulungen zu Themen wie Prompt Injection, Datenexfiltration, Agenten-Berechtigungen, Non-Human Identities (NHI) und verantwortungsvollem Umgang mit AI-Tools.

Regelmässige Penetrationstests für AI-Systeme: Spezialisierte AI-Pentests und Red-Teaming-Übungen, um Schwachstellen in Agenten-Workflows, Tool-Integrationen und Sicherheitskontrollen frühzeitig zu finden.

Organisationen, die Verantwortungskultur, AI Stewardship und Agentic AI Security Awareness verankern, reduzieren nicht nur das Risiko von Vorfällen – sie schaffen die Grundlage für vertrauenswürdige, skalierbare AI-Agenten im Unternehmen.

Best Practices: Was Unternehmen JETZT tun müssen

Wir empfehlen folgende technische Massnahmen für Unternehmen:

Secrets Management: Keine hardcodierten Secrets, konsequenter Einsatz sicherer Vaults. 

MFA für alle AI-Interaktionen: Insbesondere bei Account-Linking, API-Zugriffen und Agent-Konfiguration. 

Automatisierte Code-Reviews: Sicherheitsprüfungen für Agenten-Code, Policies und Workflows. 

Deprovisioning inaktiver Agents: «Zombie-AI» konsequent abschalten, um versteckte Einfallstore zu vermeiden.

Sandboxing: Isolierte Ausführungsumgebungen für AI-Agenten, um Privilegieneskalation und Seitwärtsbewegungen zu begrenzen.

Organisatorische Massnahmen für Unternehmen:

AI Stewardship-Rolle etablieren: Klare Verantwortlichkeit für Agentic AI Security und Governance. 

Transparenzprotokolle: Entscheidungen und Aktionen von AI-Agenten müssen lückenlos nachvollziehbar sein. 

Notfallpläne für AI-Vorfälle: Definierte Playbooks, wenn ein Agent kompromittiert oder missbraucht wird. 

Regelmässige Audits: Einsatz von Frameworks wie AI CSA und OWASP Agentic AI Top 10 als Leitlinien.

Kulturelle Massnahmen:

AI wie «Wet Paint» behandeln: Grundprinzip  «Nicht vertrauen, immer verifizieren» – auch bei eigenen Agenten.

Regelmässige Awareness-Trainings: Agentic-AI-Risiken als fester Bestandteil der Security Culture.

«Governance First»-Ansatz: Bevor AI skaliert wird, müssen Richtlinien, Rollen und Kontrollmechanismen stehen.

Fazit: Agentic AI, Fluch oder Segen?

Die entscheidende Frage ist nicht, ob AI sicher ist, sondern ob wir sie sicher gestalten. Agentic AI bietet enorme Chancen – vorausgesetzt, Unternehmen nehmen die Risiken ernst und handeln jetzt.

Konkret heisst das:

Sicherheitsstandards für AI-Agenten definieren

Orientierung an Frameworks wie OWASP, NIST AI RMF, CSA Mythos-Ready-Leitfaden und den OECD AI Principles.

Verantwortung klar zuweisen

Etablierung von AI Stewardship und Einbindung von Compliance- und Security-Teams.

Transparenz und Kontrolle verankern

Entscheidungen und Aktionen von AI-Agenten müssen nachvollziehbar, überprüfbar und steuerbar sein.

So wird Agentic AI nicht zum Risiko, sondern zu einem vertrauenswürdigen strategischen Vorteil.

AI Risk & Security Awareness

Ansprechpartner

Estelle Ouhassi
+41 (41) 74919-00
Zuständigkeitsbereich: Marketing Manager

Datei-Anlagen:


(987 kB)
1606028.attachment

Agentic AI: Wenn autonome KI-Systeme zum Sicherheitsrisiko werden