Erfolgreiche LLM-Agenten-Einbindung in Versicherungen: Zwischen Innovation und IT-Realität

SDA Website Stock Images (3)

LLM-Agenten gelten als zentraler Baustein für die nächste Stufe der Automatisierung in Versicherungen. Sie versprechen effizientere Prozesse, intelligentere Entscheidungen und eine bessere Unterstützung von Mitarbeitenden in Fachbereichen und IT. Viele Versicherer investieren daher aktuell in Agentenplattformen, Large Language Models und Cloud-basierte KI-Dienste.

Gleichzeitig zeigt sich in der Praxis: Die erfolgreiche Einbindung von LLM-Agenten scheitert weniger an den Modellen selbst als an der Integration in bestehende Systemlandschaften. Genau mit dieser Herausforderung setzt sich derzeit ein großer, namhafter Versicherer in Deutschland auseinander – und genau hier setzt auch unser aktuelles Projekt an.

LLM-Agenten treffen auf gewachsene Kernsysteme

Die IT-Landschaften von Versicherungen sind historisch gewachsen und stark auf Stabilität und Verfügbarkeit ausgelegt. Zentrale Kernprozesse wie Policierung, Schadenbearbeitung oder Vertragsverwaltung laufen häufig weiterhin auf Mainframe-Systemen, oft auf Basis von IMS-Transaktionen und klassischen Bildschirmmasken.

Diese Systeme erfüllen ihre Aufgabe zuverlässig, sind jedoch nicht dafür konzipiert, direkt von modernen KI-Agenten genutzt zu werden. Typische Merkmale dieser Situation sind:

  • fehlende oder stark eingeschränkte API-Schnittstellen

  • transaktionale Logik, die über Benutzerinteraktionen gesteuert wird

  • hohe regulatorische Anforderungen an Betrieb, Sicherheit und Nachvollziehbarkeit

Parallel dazu führen viele Versicherer Plattformen wie Google Agentspace ein, um LLM-basierte Agenten, Automatisierungen und agentengesteuerte Workflows zu orchestrieren. Ziel ist es, KI nicht nur unterstützend, sondern produktiv einzusetzen.

In der Praxis entsteht jedoch eine Lücke zwischen moderner Agentenlogik und den Systemen, in denen die geschäftskritischen Prozesse tatsächlich stattfinden.

Warum LLM-Agenten ohne Integration ihren Mehrwert nicht entfalten

LLM-Agenten sind in der Lage, komplexe Aufgaben zu planen, Informationen zusammenzuführen und Entscheidungen vorzubereiten. Ohne Zugriff auf produktive Kernsysteme bleiben sie jedoch auf vorgelagerte oder unterstützende Tätigkeiten beschränkt.

Für Versicherungen bedeutet das konkret:

  • Agenten können Prozesse analysieren, aber nicht ausführen

  • Automatisierungen enden vor dem eigentlichen Kernprozess

  • Der Übergang von Proof-of-Concept zu produktivem Einsatz gelingt nicht

Viele Initiativen verbleiben daher in einer Experimentierphase. Der eigentliche Nutzen von LLM-Agenten – die End-to-End-Automatisierung über Systemgrenzen hinweg – wird nicht erreicht.

Reference Image Website SDA

30 % schnellere Softwareentwicklung mit KI-Agenten in der Versicherungsbranche

In einem groß angelegten Projekt mit ursprünglich 500 Personentagen zeigte sich bereits nach dem ersten Monat, dass der Aufwand höher als geplant sein würde. Der Umstieg auf KI-gestützte Softwareentwicklung hat das Blatt gewendet: Nach einer einmonatigen Vorbereitungsphase wurde das Projekt mit nur 350 Personentagen in fünf Monaten erfolgreich abgeschlossen – und lagen damit nicht nur einen Monat vor dem ursprünglichen Endtermin, sondern auch rund 30 % unter dem geplanten Aufwand.

Warum eine Ablösung des Mainframes selten realistisch ist

Eine vollständige Modernisierung oder Ablösung von Mainframe-Systemen erscheint auf den ersten Blick als mögliche Lösung. In der Realität ist dieser Weg für Versicherungen jedoch mit erheblichen Risiken verbunden.

Mainframe-Systeme bilden das Rückgrat des operativen Geschäfts. Sie sind tief in Prozesse, Organisation und Governance eingebettet. Veränderungen bedeuten:

  • hohe Kosten und lange Projektlaufzeiten

  • regulatorische Risiken

  • potenzielle Auswirkungen auf den laufenden Betrieb

Aus diesem Grund entscheiden sich viele Versicherer bewusst dafür, ihre Kernsysteme stabil weiterzubetreiben – und suchen stattdessen nach Möglichkeiten, moderne KI-Technologien kontrolliert anzubinden.

Diese Ausgangslage zeigt sich aktuell auch in unserem Projekt mit einem großen, etablierten Versicherer in Deutschland.

Ein Integrationsansatz für LLM-Agenten in Versicherungen

Anstatt bestehende Mainframe-Systeme zu verändern, verfolgen wir einen integrativen Ansatz:
Die Anbindung von LLM-Agenten erfolgt über eine vermittelnde Schicht zwischen Agentenplattform und Host-System.

Kern dieser Lösung ist ein IMS Terminal Adapter, der folgende Aufgaben übernimmt:

  • Automatisierung von Mainframe-Interaktionen über bestehende Bildschirmmasken

  • Übersetzung agentengesteuerter Aktionen in kontrollierte Host-Zugriffe

  • Rückführung der Ergebnisse an die Agentenplattform

Damit werden Mainframe-Prozesse erstmals für LLM-Agenten nutzbar – ohne Eingriffe in bestehende Programme oder Logiken.

Der Adapter fügt sich nahtlos in bestehende Betriebs-, Sicherheits- und Governance-Strukturen ein und kann schrittweise erweitert werden.

Architektur statt punktueller Einzellösung

Ein wesentlicher Erfolgsfaktor ist, dass die Integration nicht als isolierte technische Maßnahme verstanden wird, sondern als Teil einer übergreifenden Architektur.

Dazu gehören unter anderem:

  • Definition der Zielsysteme: Welche Mainframe-Prozesse sollen agentengesteuert eingebunden werden?

  • Festlegung klarer Integrationsziele: Welche messbaren Effekte sollen erzielt werden (z. B. Durchlaufzeit, Qualität, Entlastung)?

  • Abstimmung mit der IT-Strategie: Betrieb, Sicherheit, Compliance und Cloud-Strategie werden von Beginn an berücksichtigt.

Auf dieser Basis entsteht eine tragfähige Architektur, die sowohl heutige Anforderungen als auch zukünftige Erweiterungen ermöglicht – etwa durch zusätzliche Agenten, weitere LLM-Plattformen oder neue Anwendungsfälle.

Mehrwert einer erfolgreichen LLM-Agenten-Integration

Die produktive Einbindung von LLM-Agenten in bestehende Kernsysteme eröffnet Versicherungen messbare Vorteile:

  • Beschleunigte End-to-End-Prozesse, da Agenten Systemgrenzen überwinden

  • Geringes Implementierungsrisiko, weil Mainframe-Anwendungen unverändert bleiben

  • Hohe Sicherheit und Nachvollziehbarkeit durch Nutzung bestehender Governance-Strukturen

  • Skalierbarkeit, da neue Use Cases schrittweise ergänzt werden können

KI wird damit vom experimentellen Werkzeug zu einem integralen Bestandteil der operativen Wertschöpfung.

Fazit: LLM-Agenten produktiv einsetzen – ohne Bruch in der IT-Landschaft

Die erfolgreiche Einbindung von LLM-Agenten in Versicherungen ist weniger eine Frage einzelner Technologien als vielmehr eine architektonische und organisatorische Herausforderung.

Der entscheidende Hebel liegt nicht im Ersatz bewährter Kernsysteme, sondern in einer sauberen, kontrollierten Integration. Wer diese Brücke erfolgreich baut, schafft die Grundlage dafür, KI dort einzusetzen, wo sie den größten Mehrwert entfaltet.

Wie können wir Ihnen helfen?

Beschreiben Sie kurz, wobei wir Sie unterstützen dürfen. Wir melden uns zeitnah und individuell.

    Durch das Ausfüllen dieses Formulars erklären Sie sich damit einverstanden, E-Mail-Kommunikationen von SDA SE Open Industry Solutions zu erhalten. Sie können sich jederzeit von dieser Kommunikationen abmelden