
Beim Confare CIOSUMMIT Wien am 25. und 26. März 2026 dreht es sich um eine Frage, die aktuell in nahezu jedem IT-Boardroom auftaucht: Wie wird KI vom Assistenzsystem zur handelnden Instanz, ohne dass Steuerbarkeit, Compliance und Resilienz auf der Strecke bleiben? Roman Spitzbart, VP EMEA Solutions Engineering beim CIOSUMMIT-Partner Dynatrace, ordnet ein, warum Agentic AI zwar Entscheidungen beschleunigt, aber erst mit Observability, Causal AI und belastbaren Echtzeitdaten wirklich unternehmensfähig wird.
Wie verändert Agentic AI die Art und Weise, wie IT-Organisationen Entscheidungen automatisieren und Prozesse steuern?
Agentic AI verschiebt die IT von reaktivem Handeln hin zu kontinuierlicher, teilautonomer Steuerung. Bisher hat KI vor allem geholfen, Muster zu erkennen oder Empfehlungen zu geben, die dann von Menschen umgesetzt wurden. Agentic AI geht einen Schritt weiter: Sie kann Aufgabenketten selbst anstoßen, Workflows ausführen und in definierten Grenzen Entscheidungen treffen, etwa bei Incident-Triage, Skalierung, Konfigurationsanpassungen oder Security-Response.
Für IT-Organisationen bedeutet das: Die operative Geschwindigkeit steigt, aber auch die Anforderungen an Kontrolle, Kontext und Nachvollziehbarkeit. Genau hier entscheidet sich, ob Agentic AI als Produktivitätshebel wirkt oder neue Risiken erzeugt. Der Unterschied liegt nicht in der „Intelligenz“ des Agents, sondern in der Qualität des Signals, auf dem er handelt, und in den Guardrails, die seine Aktionen begrenzen.
Welche Voraussetzungen müssen erfüllt sein, damit Agentic AI im Unternehmenskontext zuverlässig und kontrollierbar arbeiten kann?
Zuverlässigkeit entsteht aus drei Bausteinen: saubere Daten, klare Grenzen und operationalisierte Verantwortung. Erstens brauchen Agenten einen konsistenten, aktuellen Systemkontext über Services, Abhängigkeiten und Nutzerimpact hinweg. Wenn Telemetrie lückenhaft ist oder Domänen in Toolsilos auseinanderfallen, trifft der Agent Entscheidungen auf Basis von Teilwahrheiten. Zweitens müssen Guardrails technisch und organisatorisch verankert sein: Policy-as-Code, Rollen- und Berechtigungsmodelle, Genehmigungsstufen für riskante Aktionen und ein sauberer Audit Trail. Drittens braucht es ein Betriebsmodell, das Autonomie als abgestufte Reife begreift. Nicht jeder Prozess sollte sofort „hands-off“ laufen. Sinnvoll ist ein Progressions-Modell von assistiert über teilautonom bis autonom, jeweils gekoppelt an SLOs, Risikoklassen und messbare Outcomes. In der Praxis ist das weniger eine KI- als eine Engineering- und Governance-Frage.
Wie Sie die Balance zwischen Autonomie und Kontrolle in Ihrer IT-Architektur verankern, diskutieren Sie persönlich mit Roman Spitzbart vor Ort am CIOSUMMIT Wien. Sichern Sie sich jetzt Ihren Platz für den Austausch auf Augenhöhe.
Transparenz ist bei KI-Entscheidungen ein kritischer Punkt – wie lässt sich nachvollziehbar machen, warum eine KI zu einer bestimmten Handlung oder Empfehlung kommt?
Nachvollziehbarkeit entsteht nicht durch schön formulierte Begründungen, sondern durch belastbare Kausalketten und überprüfbare Evidenz. Wenn ein Agent eine Empfehlung ausspricht oder eine Aktion ausführt, muss klar sein, welche Signale dafür ausschlaggebend waren, welche Abhängigkeiten betroffen sind und welchen erwarteten Effekt die Maßnahme auf Nutzererlebnis und Business-Transaktionen hat. Genau hier ist Causal AI entscheidend: Sie verbindet Observability-Daten so, dass nicht nur Korrelationen, sondern auch Ursache-Wirkungs-Beziehungen sichtbar werden.
Für CIOs ist das der Unterschied zwischen „Black Box“ und steuerbarer Automatisierung. Praktisch bedeutet das: jede Entscheidung braucht Kontext, Referenzen auf Telemetrie, eine dokumentierte Hypothese, eine definierte Confidence und einen Audit Trail, der im Incident-Fall oder für Compliance-Prüfungen belastbar ist. Transparenz wird damit zu einem Feature der Plattform, nicht zu einer nachträglichen Erklärung.
Warum werden Echtzeitdaten zunehmend zum entscheidenden Faktor für operative und strategische Entscheidungen in der IT?
Weil moderne Systeme sich schneller verändern als klassische Reporting-Zyklen. Cloud-native Architekturen, dynamische Skalierung, Microservices, Third-Party-Dependencies und Continuous Delivery erzeugen Zustände, die sich innerhalb von Minuten verschieben. Wer Entscheidungen auf Daten von „gestern“ trifft, optimiert häufig an der falschen Stelle.
Echtzeitdaten bringen zwei Vorteile zusammen: operativ reduzieren sie MTTR, weil Anomalien, Abhängigkeiten und Impact sofort sichtbar werden. Strategisch ermöglichen sie eine Steuerung über Business-relevante Signale, etwa Konversionsraten, Fehlerquoten in kritischen Journeys oder Latenz in Zahlungsprozessen, statt nur über Infrastrukturmetriken. Für CIOs wird Echtzeit damit zum Bindeglied zwischen technologischer Stabilität und Business Outcome. Die Frage lautet nicht mehr, ob ein System „läuft“, sondern ob es in diesem Moment die erwartete Nutzer- und Geschäftswirkung liefert.
Wie verändert KI-gestützte Log-Analyse die Arbeit von IT-Operations- und Security-Teams im Alltag?
Logs sind oft der größte Datenkörper und zugleich die größte Lärmquelle. KI-gestützte Log-Analyse verändert den Alltag, weil sie aus unstrukturierten Daten schneller verwertbaren Kontext macht. Im Operations-Betrieb geht es darum, Noise zu reduzieren, Muster zu clustern und Abweichungen früh zu erkennen, ohne jedes Mal neue Regeln zu schreiben. In Security-Teams wird Log-Analyse dann wertvoll, wenn sie Signale mit Identitäten, Assets und Laufzeitkontext verbindet und nicht im „Event-Friedhof“ endet.
Entscheidend ist die Korrelation mit Traces, Metriken und Topologie: Ein Log-Pattern allein sagt selten, was wirklich passiert. Wenn Log-basierte Anomalieerkennung und Root Cause Analysis zusammenarbeiten, entsteht ein Workflow, in dem Teams schneller von Symptomen zur Ursache kommen und Maßnahmen priorisieren können. Das Resultat ist weniger War-Room-Zeit und mehr Zeit für Stabilitäts- und Sicherheitsarbeit, die wirklich vorbeugt.
Wo liegen heute noch die größten Grenzen von KI in der Analyse komplexer IT-Systeme und wie können Unternehmen damit umgehen?
Die größte Grenze ist selten das Modell, sondern der Kontext. KI kann nur so gut sein wie die Datenbasis, die Semantik und die Governance, die wir ihr geben. In heterogenen Landschaften mit Legacy, Multi-Cloud, proprietären Schnittstellen und unvollständiger Instrumentierung entstehen Blind Spots. Dazu kommt, dass Korrelation in komplexen Systemen schnell plausibel klingt, aber nicht automatisch korrekt ist.
Unternehmen sollten deshalb drei Dinge tun: erstens konsequent an Observability-Fundamenten arbeiten, also Standards wie OpenTelemetry nutzen, Service Ownership klären und Abhängigkeiten sichtbar machen. Zweitens KI immer an messbare Ziele koppeln, etwa SLO-Einhaltung, MTTR, Change Failure Rate oder Security-Response-Zeiten, statt an diffuse „AI“-Versprechen. Und drittens Autonomie graduell einführen, mit Human-in-the-loop für risikoreiche Entscheidungen, klaren Rollback-Strategien und kontinuierlicher Validierung. KI ist dann stark, wenn sie Engineering-Disziplin verstärkt, nicht ersetzt.
Welche neuen Kompetenzen brauchen IT-Teams, wenn KI stärker in Monitoring, Analyse und Entscheidungsprozesse eingebunden wird?
Es entsteht eine Mischung aus Plattformdenken, Datenkompetenz und Betriebsverantwortung. Teams brauchen stärkeres Verständnis für SLOs und Service Reliability Engineering, weil Automatisierung nur dann sinnvoll ist, wenn klar ist, welches Ziel stabil gehalten werden soll. Dazu kommt Observability Engineering als Disziplin: Instrumentierung, Semantik, Datenqualität und Kostensteuerung werden wichtiger, weil KI ohne gutes Signal nur schneller falsch liegt.
Gleichzeitig braucht es AI Literacy im Alltag, nicht als Hype, sondern als Fähigkeit, Fragen präzise zu formulieren, Ergebnisse kritisch zu prüfen und Grenzen zu erkennen. Und schließlich verändert sich Kollaboration: Dev, Ops und Security müssen auf denselben Kontext schauen und gemeinsame Ownership-Modelle leben. Agentic AI belohnt Organisationen, die Verantwortlichkeiten klar schneiden und ihre Systeme als Produkte betreiben.
Welche Rolle spielt Dynatrace im Agentic AI Ecosystem des CIO?
Dynatrace ist in diesem Ökosystem die Schicht, die Autonomie steuerbar macht, weil sie Kontext, Kausalität und Automatisierung zusammenführt. Agentic AI braucht eine verlässliche Sicht auf Services, Abhängigkeiten und Nutzerimpact, sowie eine evidenzbasierte Root Cause Analysis, die Entscheidungen begründet.
Genau dafür ist AI-powered Observability da: aus Telemetrie wird ein gemeinsames, aktuelles Systemverständnis, das sich für Operations, Security und Business übersetzen lässt. Mit Davis AI und Causal AI können Teams Ursachenketten nachvollziehen, Empfehlungen priorisieren und Automatisierung an klare Policies und Outcomes koppeln. Für CIOs ist das entscheidend, weil es nicht um „mehr KI“ geht, sondern um weniger Risiko bei mehr Geschwindigkeit.
Agentic AI wird sich dort durchsetzen, wo sie nicht nur Aktionen ausführt, sondern auch Verantwortung, Transparenz und Compliance mitliefert. Observability ist dafür nicht Begleitmusik, sondern die Kontroll- und Steuerungsebene.
Nutzen Sie die Gelegenheit zum Austausch mit Roman Spitzbart und dem Expert:innenteam von Dynatrace. Jetzt zum Confare CIOSUMMIT Wien anmelden.


