Agentic Orchestration in Versicherungen: Warum KI-Agenten ohne Prozesse nicht skalieren
KI ist in Versicherungen längst Realität: Posteingänge werden klassifiziert, Texte vorgeschlagen, Daten extrahiert.
Trotzdem bleibt der große Effekt oft aus, weil viele Lösungen neben den Kernprozessen laufen: pro Abteilung, pro Tool, pro Use Case.
Der Engpass ist selten das Modell. Es ist die Frage, wer Verantwortung trägt, wie Entscheidungen nachvollziehbar bleiben, und was passiert, wenn die KI falsch liegt.
In diesem Artikel geht es darum, wie man Agentic-Orchestration-Agenten produktiv macht: mit Prozesshoheit, Kontrollpunkten und einem Zielbild, das im Betrieb funktioniert.
KI scheitert selten an der Technologie, sondern an der Einbettung
Wenn KI im Alltag nicht ankommt, hört man oft „zu ungenau“, „nicht deterministisch“, „zu riskant“. Meist steckt dahinter etwas Banaleres: fehlende Kontrolle im Ablauf und kein sauberer Umgang mit Unsicherheit. Typische Fallstricke sind:
- KI-Lösungen entstehen isoliert (Schaden, Leistung, Customer Service), ohne ein gemeinsames Betriebsmodell.
- Es gibt keinen klaren Owner für Entscheidungen und Eskalationen, dadurch bleiben kritische Fälle hängen.
- Die Fehlerbehandlung ist nicht modelliert, sodass Nacharbeit ad hoc passiert, statt als definierter Prozesspfad.
- Die Auditierbarkeit fehlt, da nicht konsistent nachvollziehbar ist, warum welche Entscheidung auf welcher Datenbasis getroffen wurde.
- Wiederverwendung bleibt aus, weil Prompts, Policies und Tools je Team immer wieder neu gebaut werden.
Der Denkfehler: Wenn Agenten zu Prozessen erklärt werden
Mit dem Aufkommen autonomer KI-Agenten liegt ein Gedanke nahe:
Wenn Agenten planen, entscheiden und handeln können – brauchen wir dann überhaupt noch Prozesse?
Genau hier liegt der Denkfehler. Ein KI-Agent ist keine Prozessinstanz. Er kennt keine Zuständigkeiten, keine Fristen und keine Verantwortung. Er kann Vorschläge machen und Aufgaben ausführen – aber er weiß nicht, wann etwas entschieden werden darf oder wer dafür geradesteht.
Diese Rolle hat der Prozess. Prozesse sorgen nicht für Intelligenz, sondern für Verlässlichkeit. Sie legen fest, wann Entscheidungen nötig sind, wie mit Fehlern umgegangen werden soll und wer im Zweifel Verantwortung trägt. Ohne diese Struktur sind agentische Entscheidungen zwar technisch möglich, aber organisatorisch haltlos.
Wer Agenten zu Prozessen erklärt, verliert beides: die Flexibilität der KI und die Verlässlichkeit strukturierter Abläufe.
Die Lösung ist folglich keine Entweder-oder-Entscheidung. Prozesse Steuern. Agenten Handeln.
Erst diese Zweiklang macht agentische KI im operativen Alltag tragfähig.
Was Agentic Orchestration bedeutet
Agentic Orchestration beschreibt die Verbindung beider Welten: Agenten dürfen handeln, aber nur innerhalb eines expliziten Prozess- und Governance-Rahmens.
Merksatz: Agenten handeln. Prozesse steuern.
Der Prozess hält Zustände, Grenzen und Übergaben fest. Er definiert Zustände, Übergaben, Kontrollpunkte, Eskalationen und Nachweise. Der Agent liefert innerhalb dieser Leitplanken zu, was jeweils benötigt wird, aber er entscheidet nicht „frei im Raum“, wie die Porzessinstanz weiterläuft.
Was ein Agent nicht kann:
- Ein LLM allein sorgt nicht für Automatisierung.
- Ihm vorgegebene Prompt-Wildwuchse sind keine Strategie.
- Chat-Interaktionen mit ihm ersetzen kein Prozessmanagement.
Warum das gerade jetzt relevant ist
Lange Zeit konnten Unternehmen KI als Experiment behandeln, einzelne Piloten testen und kleine Use Cases aufsetzen. Doch diese Phase läuft aus. Die Zahl der KI-Lösungen steigt überall, und parallel wächst die Erwartung an Verlässlichkeit, Transparenz und Steuerbarkeit.
Gleichzeitig wird Skalierung zum Knackpunkt. Was bei ein oder zwei Piloten gerade noch manuell aufgefangen werden kann, bricht bei vielen parallelen Anwendungen zusammen. Spätestens dann wird fehlende Orchestrierung selbst zum Risiko - nicht, weil KI per se außer Kontrolle gerät, sondern weil ohne Struktur niemand dauerhaft im Blick behalten kann, was die Agenten tatsächlich tun.
Das Zielbild: Kontrollierte Autonomie
Autonome KI ist kein Zukunftsversprechen mehr, sondern eine konkrete Erwartung. Die entscheidende Frage ist nicht, ob Systeme selbstständig handeln sollen – sondern wie dieses Handeln gesteuert, koordiniert und verantwortet wird.
Autonomie ohne Einbettung skaliert nicht
KI-Agenten können heute erstaunlich viel. Sie lesen Dokumente, bewerten Inhalte und formulieren Entscheidungen. Doch ohne klaren Rahmen bleiben sie isolierte Helfer. Genau hier scheitert die Skalierung: Nicht an der KI, sondern an fehlender Einbettung in bestehende Abläufe.
Klare Rollen statt Alleskönner
Agenten erledigen konkrete Aufgaben, Prozesse entscheiden über den Ablauf. So bleibt Verantwortung dort, wo sie hingehört – und Agenten werden berechenbar einsetzbar.
Der Prozess hält den Überblick
Der Prozess ist das Gedächtnis des Systems. Er kennt Status, Zuständigkeiten und Fristen und kann nachvollziehbar dargestellt werden.
BPMN (Business Process Model and Notation) beschreibt und modelliert als standardisierte grafische Sprache Geschäftsprozesse und deren Ablauf: Wer macht was, wann, mit welchen Übergaben?
DMN (Decision Model and Notation) hält die dazugehörigen Entscheidungsregeln fest, zum Beispiel Schwellenwerte, Plausibilitätschecks oder Routing-Logik. So bleiben Entscheidungen erklärbar – auch dann, wenn Agenten nicht deterministisch arbeiten.
Kontrollpunkte statt blindem Vertrauen
Nach jeder Agenten-Aktion braucht es einen Prüfpunkt: Ist das Ergebnis brauchbar oder nicht? Erst dann entscheidet der Prozess, ob es automatisch weitergeht oder ein Mensch übernimmt, inklusive Logging, damit die Entscheidung später nachvollziehbar bleibt.
Mini-Beispiel (Schadenanlage)
Happy Path (automatisch):
1. Eine Schadensmeldung geht ein, der Schadenfall wird im System hinterlegt.
2. Ein Agent prüft die Unterlagen und bewertet den Fall (z. B. reparabel vs. Totalschaden/Auszahlung).
3. Wenn Informationen fehlen, fordert der Agent sie nach und aktualisiert die Bewertung, sobald neue Daten vorliegen.
4. Der passende Prozesspfad startet automatisch, z. B. durch Auszahlungsvorbereiten oder Werkstatttermin organisieren.
5. Im Hintergrund laufen Kontrollmechanismen mit, etwa Confidence-Checks oder Plausibilitätsprüfungen.
6. Bestätigen die Checks die Entscheidung, wird der Fall regulär abgeschlossen.
Eskalation (wenn Unsicherheit/Fehler erkannt wird):
- Wenn Confidence-Checks oder Plausibilitätsprüfungen Unsicherheiten melden, wird der Fall eskaliert.
- Bereits angestoßene Aktionen werden, soweit möglich, zurückgenommen (Rollback), und ein Sachbearbeiter übernimmt die Prüfung.
- Das ist „Human-in-the-loop“: Ein Mensch prüft oder gibt frei, wenn Risiko oder Unsicherheit zu hoch sind.
Genau so entsteht kontrollierte Autonomie: Der Agent arbeitet zu, der Prozess entscheidet und hält den Überblick.
Fehler sind kein Sonderfall
Im echten Betrieb läuft nicht alles glatt. Genau deshalb gehören Fehlerpfade zur Architektur. Unsicherheit, technische Probleme oder fachliche Abweichungen werden nicht improvisiert, sondern gezielt abgefangen. Und genau diese Struktur hilft auch beim Skalieren:
Prozesse bleiben stabil, Agenten austauschbar, Regeln zentral steuerbar. So wächst das System, ohne jedes Mal neu erfunden zu werden und KI wird vom Piloten zum verlässlichen Baustein im Tagesgeschäft.
Implementierungsleitfaden: Agenten mit BPMN/DMN in den Griff bekommen & kontrollierte Autonomie umsetzen
In Projekten zeigt sich immer wieder das gleiche Muster: Sobald KI-Agenten produktiv eingesetzt werden, reicht „autonom“ als Konzept nicht mehr aus. Spätestens wenn mehrere Agenten parallel arbeiten oder in fachliche Abläufe eingebettet sind, braucht es eine klare Struktur, die Verantwortung, Reihenfolge und Entscheidungspunkte festlegt.
Bewährt hat sich dabei ein einfaches, aber robustes Prinzip: Agenten liefern Ergebnisse, der Prozess setzt den Rahmen mit Kontrollpunkten, Übergaben und Eskalationen.
Agenten als klar abgegrenzte Aufgaben einbauen
Setze Agenten dort ein, wo sie klaren Nutzen bringen: Informationen aus Dokumenten ziehen, Fälle grob einordnen, Textentwürfe erstellen, Daten abgleichen. Im Prozess sind das normale Schritte, nur dass die Arbeit „intelligenter“ passiert.
Wichtig ist: Ein Agentenschritt liefert ein Ergebnis in einem festen Format zurück (z. B. Felder und eine Einschätzung, wie sicher das Ergebnis ist), keine freien Chat-Antworten, die man erst interpretieren muss.
Vor kritischen Entscheidungen immer einen Kontrollpunkt setzen
Sobald es um Geld, Ablehnung, Eskalationen oder Fristen geht, braucht es einen kurzen Prüfpunkt im Ablauf. Der muss nicht kompliziert sein. Oft reichen drei Regeln:
1. Ist das Ergebnis plausibel?
2. Ist die Sicherheit hoch genug?
3. Gibt es Warnsignale (fehlende Daten, Widersprüche, Sonderfall)?
Wenn eine Regel „nein“ sagt, wird nicht gezögert sondern sauber umgeschaltet: Rückfrage an den Kunden oder Human-in-the-loop - also Klärung durch Sachbearbeitung bzw. Übergabe an einen Spezialisten.
Regeln dort nutzen, wo Regeln Sinn machen (DMN statt Bauchgefühl)
Viele Entscheidungen sind im Kern regelbasiert: Vollständigkeit, Betragsgrenzen, Dokumenttypen, Fristen, Sondermerkmale. Solche Dinge gehören nicht in Prompts, sondern in klare Regeln. Das macht Änderungen leichter und spart Diskussionen mit der Revision.
Die Prozess Engine liefert den Auditrail des Agenten, somit bleibt die Entscheidung selbst nachvollziehbar.
Fehlerfälle sind kein Randthema, sondern der Normalfall
In der Realität gehen Dinge schief: Dokumente fehlen, Bilder sind unbrauchbar, Systeme sind nicht erreichbar, Antworten kommen zu spät. Das sollte eingeplant werden. Drei einfache Muster reichen oft:
1. Zeitlimit (Timeout): Wenn der Agent zu lange braucht, geht es in einen definierten Fallback.
2. Wiederholung: Bei technischen Problemen wird ein Schritt kontrolliert wiederholt.
3. Übergabe: Wenn die Unsicherheit hoch ist, übernimmt ein Mensch.
Betrieb und Nachvollziehbarkeit von Anfang an mitdenken
Wenn man später erklären will, warum ein Fall so gelaufen ist, braucht es eine transparente Übersicht: Welche Daten lagen vor? Was hat der Agent geliefert? Welche Regel hat entschieden? Wer hat freigegeben? Das ist kein Luxus, das ist Voraussetzung, damit auch kritische Entscheidungen und komplexe Entscheidungswege nachvollziehbar bleiben.
Wann Agentic Orchestration nicht sinnvoll ist
Agentic Orchestration ist kein Allheilmittel. Und das ist auch okay so.
Oft reicht klassische Prozessautomatisierung völlig aus, manchmal ist sie sogar die bessere Lösung. Wenn Abläufe klar sind, die Daten stimmen und Entscheidungen sich sauber über Regeln treffen lassen, braucht es keine Agenten. Dann sind „normale“ Services stabil, gut planbar und im Betrieb günstiger. Genau deshalb laufen viele Kernprozesse bis heute so.
Agenten lohnen sich erst dort, wo diese Klarheit fehlt: bei unstrukturierten Informationen, wechselnden Situationen oder Fällen, die sich nicht sinnvoll im Voraus komplett durchmodellieren lassen.
Weniger sinnvoll ist ihr Einsatz, wenn …:
- der Prozess schon stabil automatisiert ist.
- Datenzugriff oder Datenqualität nicht geklärt sind.
- niemand Verantwortung für Ziele und Messzahlen übernimmt.
- alles Notwendige bereits zuverlässig durch bestehende Systeme abgedeckt ist.
Unsere Erfahrung: Häufig lohnt es sich, zuerst die Basis klar zu definieren Klare Prozesse, belastbare Daten und eindeutige Zuständigkeiten sind die Voraussetzung, nicht das Ergebnis.
Erst wenn das steht, können Agenten ihren eigentlichen Mehrwert beitragen - nicht als Ersatz, sondern als Ergänzung dort, wo klassische Automatisierung an ihre Grenzen kommt.
Quick Self-Assessment
Die folgenden Fragen helfen bei einer ehrlichen Einschätzung des aktuellen Stands:
- Ist jederzeit klar, in welchem Prozessschritt sich der Fall befindet? Oder steckt das Wissen in Köpfen und Chats?
- Haben wir verschiedene KI-Lösungen für identische Use Cases in den jeweiligen Abteilungen?
- Ist festgelegt, was bei Fehlern oder Unsicherheit passieren soll? Oder wird im Einzelfall improvisiert?
- Können Entscheidungen im Nachhinein nachvollziehbar begründet werden?
- Gibt es verlässliche Zahlen zu Durchlaufzeit, Nacharbeit und Automatisierungsgrad?
Können Fragen nicht eindeutig mit „ja“ beantwortet werden, liegt sehr wahrscheinlich Potenzial in einer sauber strukturierten Orchestrierung.
Nächster Schritt: Beratungstermin
Wenn Sie KI-Agenten in Schaden, Leistung oder Service einsetzen wollen, aber Governance, Verantwortlichkeiten und Betriebssicherheit noch fehlen, unterstützt die BROCKHAUS AG bei der Konzeption und Umsetzung einer agentisch orchestrierten Prozessarchitektur: vom BPMN/DMN-Design bis zum Betriebsmodell.
Vereinbaren Sie einen Beratungstermin: Wir klären in kurzer Zeit, welche Use Cases sich lohnen, wo Kontrollpunkte sitzen müssen und wie ein realistischer Umsetzungsfahrplan aussieht. Wir helfen Ihnen den Prozess zu modellieren und die Dedizierten Agenten in ihrere produktive Prozesslandschaft zu integrieren