Fehlende Governance-Strategie für Agentic AI
Eine aktuelle Umfrage von GitLab unter Führungskräften zeigt, dass 89 Prozent der Befragten davon ausgehen, dass agentische Künstliche Intelligenz in den kommenden drei Jahren zum Standard in der Softwareentwicklung wird. Gleichzeitig empfinden 80 Prozent dieses Potenzial jedoch als erhebliche Sicherheitsherausforderung.
IT-Sicherheitsverantwortliche, vor allem Chief Information Security Officers (CISOs), sehen sich daher mit der Aufgabe konfrontiert, den Einsatz von KI zu ermöglichen und gleichzeitig die damit verbundenen Sicherheitsrisiken einzudämmen. Diese Herausforderung wird noch deutlicher, da 87 Prozent der Führungskräfte planen, ihre Investitionen in KI innerhalb der nächsten 18 Monate zu erhöhen. Dabei offenbart die Umfrage, dass 52 Prozent der Unternehmen keine regelkonforme Governance implementiert haben, während 48 Prozent über keine internen Richtlinien zur KI-Nutzung verfügen.
Herausforderungen durch fehlende Governance
In Deutschland sind sich die meisten Sicherheitsverantwortlichen der Risiken bewusst, die mit agentischer KI verbunden sind. Zu den häufigsten Problemen zählen Governance-Herausforderungen (48 Prozent), Cybersicherheitsbedrohungen (46 Prozent) und Fehler, die durch KI-Agenten verursacht werden (46 Prozent). Die Definition dieser Risiken entwickelt sich ständig weiter und ist dabei eng verknüpft. Unternehmen benötigen ein Governance-Modell, das es ihnen erlaubt, ihre Sicherheitsstrategien auf die spezifischen Risiken hinzu-schnitt der KI auszurichten. Allerdings umfasst KI zahlreiche Technologie- und Sicherheitsbereiche, von Data Governance bis zu Identitäts- und Zugriffsmanagement, was die Implementierung zu einer komplexen Herausforderung macht.
Etwa die Hälfte der Führungskräfte gibt an, dass ihre Organisationen keine gelebte Governance (52 Prozent) oder interne KI-Richtlinien (48 Prozent) etabliert haben. Dieses Defizit lässt sich auf branchenübergreifende Herausforderungen zurückführen, die es schwierig machen, die effektivsten Investitionsmöglichkeiten zu identifizieren. Die unberechenbaren Verhaltensweisen von KI-Agenten, bedingt durch ihre nicht-deterministische Natur, können vorhandene Sicherheitsgrenzen überschreiten. Zudem steigt die Komplexität mit universellen Protokollen wie dem Model Context Protocol und dem Agent2Agent, die den Datenzugriff erleichtern und die Interoperabilität von Agenten verbessern. Sicherheitsverantwortliche sollten jedoch die Notwendigkeit einer soliden KI-Governance nicht unterschätzen. Ein Abwarten auf umfassende Best Practices kann dazu führen, dass Organisationen im Rückstand bleiben. Zudem werden sie durch die Nutzung von nicht genehmigten KI-Systemen durch Mitarbeiter latent von Risiken betroffen.
Strategien für CISOs zur Stärkung der Governance
CISOs können mit der Einführung einer AI Observability starten, um das Verhalten von KI-Agenten in unterschiedlichen Umgebungen zu überwachen, zu überprüfen und zuzuordnen. Um KI-Risiken zu minimieren und die Governance zu stärken, empfehlen sich folgende Schritte:
- Identitätsrichtlinien für Agentenaktionen: Mit der fortschreitenden Verbreitung von KI-Systemen wird es entscheidend, nicht-menschliche Identitäten zu verwalten. Composite Identities verknüpfen die Identität eines KI-Agenten mit der des menschlichen Benutzers, der ihn steuert. Bei Zugriffen auf Ressourcen können Agenten sicher authentifiziert und autorisiert werden, während alle Aktivitäten klar zugeordnet werden können.
- Umfassende Monitoring-Frameworks: Betriebs-, Entwicklungs- und Sicherheitsteams benötigen umfassende Möglichkeiten zur Überwachung der Aktivitäten von KI-Agenten über verschiedene Workflows und Systeme hinweg. Es genügt nicht, nur zu wissen, was ein Agent in einer spezifischen Codebasis macht; es ist wichtig, seine gesamten Aktivitäten in Staging- und Produktionsumgebungen sowie in angeschlossenen Datenbanken und Anwendungen zu überwachen.
- Systematische Weiterbildung der technischen Teams: Heutzutage ist eine Sicherheitskultur und Fachkompetenz in KI von zentraler Bedeutung. Laut der Umfrage erachten 88 Prozent der Führungskräfte die Schulung von Mitarbeitern im Umgang mit agentischer KI als prioritär, um Qualifikationslücken zu schließen. Diese Lücken werden größer werden, wenn technische Führungskräfte nicht aktiv in die Weiterbildung ihrer Teams investieren, um ein besseres Verständnis für Modellverhalten und Prompt Engineering zu entwickeln.
Teams müssen verstehen, wo KI-Modelle effizient eingesetzt werden können und wo sie unnötige Risiken und technische Schulden verursachen. Ein auf Anti-Patterns trainiertes Modell kann Muster gut erkennen, versagt aber bei logischen Fehlern, die es noch nie gesehen hat. Daher ist es wichtig zu beachten, dass kein Modell das menschliche Fachwissen ersetzen kann.
KI als strategischer Vorteil im Sicherheitsmanagement
Bei einer systematischen Überwachung und dem richtigen Einsatz kann KI tatsächlich zur Verbesserung der Sicherheit beitragen. Über ein Drittel (37 Prozent) der Führungskräfte in Deutschland stuft Sicherheit als einen der bedeutendsten Bereiche ein, in denen KI Mehrwert generiert. KI kann als Beschleuniger fungieren – keinesfalls als Ersatz für das Fachwissen. Sie ermöglicht nicht nur die Automatisierung repetitiver Sicherheitsaufgaben, sondern liefert auch intelligente Codierungsempfehlungen und bietet relevante Sicherheitskontexte direkt innerhalb der Entwicklungs-Workflows an.
Durch diese Herangehensweise können Entwickler schneller auf Sicherheitsfragen reagieren und Schwachstellen effizienter beheben, ohne auf die Ratschläge der Sicherheitsabteilung warten zu müssen. Eine Kultur, in der Sicherheit von Anfang an in die KI-Strategie integriert wird, hebt die Organisationen hervor, die sich als erfolgreich erweisen werden. Selbst wenn die Grundlagen noch nicht vollständig ausgereift sind, können sie Teams dabei helfen, sich rasch an veränderte Rahmenbedingungen anzupassen und damit einen Wettbewerbsvorteil gewinnen. Die Zukunft des Software-Sicherheit wird davon abhängen, wie gut Unternehmen sich auf die Herausforderungen der KI-einführung vorbereiten.
Fazit: Sicherheit und Künstliche Intelligenz
Die rapide Entwicklung agentischer KI bringt sowohl Chancen als auch Herausforderungen für Unternehmen mit sich. Die Notwendigkeit einer soliden Governance und einer proaktiven Sicherheitsstrategie wird dabei immer deutlicher. Organisationen sind gefordert, ihre Ansätze zur KI-Nutzung stetig zu verbessern, um nicht nur Risiken zu minimieren, sondern auch ihre Wettbewerbsfähigkeit zu sichern. Führungskräfte sollten daher Maßnahmen zur Förderung eines sicheren und effektiven Umgangs mit KI priorisieren und dabei die Bedeutung von menschlichem Wissen und Erfahrung nicht unterschätzen.

