Blog

KI trifft Bestandssystem: Warum gewachsene IT-Landschaften kein Hindernis für KI sind, sondern oft ein Vorteil

Blog

KI trifft Bestandssystem: Warum gewachsene IT-Landschaften kein Hindernis für KI sind, sondern oft ein Vorteil

Viele Unternehmen schieben KI-Projekte auf, weil sie glauben, ihre Systemlandschaft sei noch nicht bereit dafür. Diese Zurückhaltung ist verständlich, aber in den meisten Fällen nicht notwendig.

Bevor wir in die Details gehen, eine kurze Einordnung: Dieser Artikel betrachtet drei verschiedene Rollen, die KI im Kontext gewachsener Systeme spielen kann. Erstens als Erweiterung laufender Prozesse, bei der KI-Module in bestehende Abläufe eingebunden werden, ohne das Kernsystem zu verändern. Zweitens als Zugriffsschicht auf vorhandene Unternehmensdaten, die bisher nicht systematisch nutzbar waren. Und drittens als Werkzeug, das Modernisierungsprojekte selbst beschleunigt.

Diese drei Perspektiven sind konzeptuell verschieden – und alle drei zeigen, dass der Einstieg in KI nicht von einer vollständigen Systemablösung abhängt.

Das eigentliche Problem ist kein technisches

61 % der deutschen Unternehmen betreiben laut einer Slalom-Studie aus dem Jahr 2025 den Großteil ihrer Hauptgeschäftsanwendungen auf veralteten Plattformen. 72 % stehen laut der Studie „Legacy-Modernisierung 2024″ (CIO/Computerwoche/Thinkwise) vor der Herausforderung, veraltete, aber geschäftskritische Bestandssysteme auf den neuesten Stand zu bringen. Das ist kein Randproblem, sondern der Normalzustand der deutschen Unternehmenslandschaft.

Was diese Zahlen nicht zeigen: Viele dieser Unternehmen warten. Sie warten darauf, dass ihre Systemlandschaft „sauber genug“ ist, um KI einzuführen. Diese Logik dreht die Kausalität um. Denn die eigentlichen Hürden für KI-Einführung sind selten das Alter eines Systems. Sie sind fehlende Integrationspunkte, unklare Datenzugänge und die Frage der Governance: Wer darf was mit welchen Daten machen?

Das sind lösbare Probleme. Und oft muss dafür kein einziges Kernsystem angefasst werden.

Warum LLMs und Legacy besser zusammenpassen, als man denkt

Hier liegt ein Gedanke, der viele überrascht: Große Sprachmodelle, die KI-Technologie hinter Anwendungen wie internen Assistenten, automatisierten Dokumentenprozessen oder intelligenter Suche, sind von Grund auf darauf ausgelegt, mit genau den Daten umzugehen, die in gewachsenen Unternehmenslandschaften typischerweise anfallen.

LLMs sind darauf ausgelegt, menschliche Spracheingabe zu verstehen und menschenähnliche Textausgabe zu produzieren. Sie können große Mengen an unstrukturierten Daten wie Texte, E-Mails oder Dokumente analysieren und verarbeiten – und dabei komplexe Zusammenhänge erkennen und Muster identifizieren, die für Menschen oft schwer zu erkennen sind.

Legacy-Systeme produzieren genau diese Art von Daten: Bestellungen, die per E-Mail eingehen. Wartungsprotokolle, die irgendwo als PDF-Scan auf einem Fileserver liegen. ERP-Historien, die Jahrzehnte an Transaktionsdaten enthalten, aber nie systematisch ausgewertet wurden. Verträge, Anfragen sowie Dokumentationen sind alles Text, alles menschliche Sprache, alles verarbeitbar.

Der entscheidende Punkt: KI wird hier nicht auf ein System „aufgesteckt“. Es geht darum, bestehende Prozesse intelligent zu erweitern, ohne am Fundament zu rütteln. KI-Module werden in die Prozesskette integriert, sie lesen Eingaben aus, reichern sie an, leiten sie weiter oder geben eine Antwort zurück. Das Kernsystem bleibt unverändert. Es liefert Daten und empfängt Ergebnisse, wie es das immer getan hat, nur ab jetzt auch von nicht-menschlichen Agenten.

Integration statt Ablösung: Wie das technisch funktioniert

Die Frage, die in jedem Projekt zuerst beantwortet werden muss, ist nicht: „Wie ersetzen wir dieses System?“ Sondern: „Wo in diesem Prozess kann ein KI-Modul sinnvoll eingreifen, ohne dass das Kernsystem geändert werden muss?“

Die Antwort liegt fast immer in Integrationsschichten. Das Kernsystem, egal ob ERP, CRM, proprietäre Branchenlösung oder Datenbank aus den 1990ern, bleibt das, was es ist: der verlässliche Speicher für Transaktionen und Stammdaten. Ein KI-Modul wird als eigenständiger Dienst daneben betrieben. Es bezieht Daten aus dem Bestandssystem, verarbeitet sie und liefert strukturierte Ergebnisse zurück oder direkt an den Nutzer.

Das vermeidet die größten Risiken klassischer Modernisierungsprojekte: Kernprozesse werden nicht unterbrochen, kein jahrelanges Migrationsprojekt mit unsicherem Ausgang, kein Wissensverlust durch Systemwechsel. 91 % der Unternehmen priorisieren laut aktueller Studien die Modernisierung ihrer Kernsysteme gegenüber einer riskanten Neuentwicklung. Das ist eine „Modernize over Replace“-Strategie, die vor allem durch den Wunsch nach Stabilität getrieben wird. KI-Integration über externe Module geht genau in diese Richtung.

Konkret: Ein Maschinenbauer nutzt sein bestehendes ERP weiter für Lager und Bestellungen und bekommt darüber eine KI-Komponente, die eingehende Lieferantenanfragen automatisch kategorisiert und vorqualifiziert. Eine Versicherung verändert ihr Kernsystem nicht, lässt aber ein LLM Schadenmeldungen im Freitext lesen, relevante Informationen extrahieren und strukturiert in die bestehende Sachbearbeitung einspeisen. Ein Dienstleister erschließt jahrzehntelange Vertragsdaten für gezielte Auswertungen, ohne die Daten jemals zu migrieren.

KI trifft Bestandssystem

RAG: Den Datenschatz in gewachsenen Systemen nutzbar machen

Ein besonders wirksamer Ansatz für Unternehmen mit komplexen Bestandslandschaften ist Retrieval Augmented Generation, kurz RAG. Das Prinzip ist einfach: Ein Sprachmodell wird nicht mit internen Daten neu trainiert, denn das wäre teuer und aufwendig. Stattdessen erhält es bei jeder Anfrage gezielt die relevanten Informationen aus einer indexierten Wissensbasis, die aus vorhandenen Quellen gespeist wird.

Typische Quellen sind interne Dokumente, Wikis, Supportdatenbanken, Produktdokumentationen, CRM-Systeme oder Ablagen wie SharePoint und Google Drive. Dazu kommen ERP-Exportdaten, gescannte Altdokumente, E-Mail-Archive, handschriftliche Wartungsberichte – alles, was bisher nicht systematisch abfragbar war.

RAG gibt Unternehmen die Möglichkeit, Sprachmodelle ohne Neutraining oder Fine-Tuning mit ihren eigenen Daten zu versorgen und damit speziell angepasste KI-Funktionen zu einem Bruchteil der Zeit und Kosten bereitzustellen. Für regulierte Branchen ist das besonders relevant: Zugriffsrechte lassen sich auf Dokumentebene steuern, DSGVO-konformer Betrieb ist planbar, und Daten verlassen die eigene Infrastruktur nicht, wenn das so gewünscht ist.

RAG ist kein Ersatz für Modernisierung. Es ist ein Zugriffsweg auf Wissen, das schon da ist und bisher brachlag.

KI als Werkzeug für die Modernisierung, nicht nur als deren Ergebnis

Es gibt noch eine dritte Perspektive, die oft übersehen wird: KI kann die Modernisierung der eigenen Systemlandschaft aktiv beschleunigen.

KI-gestützte Werkzeuge wie automatisierte Codeanalysen ermöglichen, komplexe Migrations- und Modernisierungsprozesse mit reduzierter Manpower durchzuführen und dabei Risiken zu minimieren. Generative KI kann bestehenden Code analysieren, Dokumentation generieren, Altcode in moderne Sprachen überführen und dabei die Geschäftslogik erhalten. Laut aktuellen Praxisberichten lässt sich der Zeitaufwand gegenüber manueller Refaktorierung so um rund ein Drittel reduzieren.

Das ist besonders wichtig, weil das Wissen über Legacy-Systeme schwindet. 61 % der IT-Entscheider sehen den demografischen Wandel als Risikofaktor, da das Know-how über ältere Technologien wie COBOL oder Mainframe-Strukturen zunehmend verloren geht. KI kann hier als Brücke dienen, nicht um dieses Wissen zu ersetzen, sondern um es zu sichern und zugänglich zu machen, bevor es verloren geht.

Das Ergebnis: kein Entweder-Oder zwischen „System weiterbetreiben“ und „alles neu bauen“. Sondern eine dritte Option: schrittweise, KI-gestützte Weiterentwicklung, bei der jeder Schritt sofort nutzbar ist.

Wo anfangen?

Die Einstiegsfrage ist keine Technologiefrage, sondern eine Prozessfrage: Wo in Eurer Systemlandschaft fallen heute Daten an, die niemand systematisch auswertet? Wo gibt es Schritte im Prozess, die manuell erledigt werden, weil kein System sie automatisch verknüpft? Wo steckt Wissen in Dokumenten, das niemand mehr abfragen kann?

Aus diesen Antworten entstehen konkrete Pilotprojekte mit engem Scope, klaren Metriken und echtem ROI. Kein Big Bang. Kein Warten auf die perfekte Infrastruktur.

Bei BAYOOTEC bringen wir genau diese beiden Kompetenzen zusammen: langjährige Erfahrung in der Arbeit mit gewachsenen Systemlandschaften und das technische Know-how für KI-Integration in komplexen, regulierten Umgebungen. Wir bauen die Verbindungsschicht zwischen dem, was schon existiert, und dem, was heute mit KI möglich ist.

Du möchtest wissen, wo in Deiner Systemlandschaft KI heute schon möglich ist, ohne Deine laufenden Prozesse zu riskieren? Sprich uns gerne an. Wir schauen gemeinsam auf Deine konkrete Situation.

FAQ: KI-Integration in bestehende Systeme

Ja und das ist in der Praxis sogar der häufigere und sinnvollere Weg. KI-Module werden als eigenständige Dienste aufgebaut, die Daten aus bestehenden Systemen beziehen und Ergebnisse zurückliefern. Das Kernsystem bleibt unverändert. So lassen sich KI-Funktionen schrittweise einführen, ohne laufende Prozesse zu unterbrechen oder bestehende Investitionen abzuschreiben.

Weil LLMs für genau die Daten trainiert sind, die in gewachsenen Landschaften typischerweise anfallen: unstrukturierter Text, E-Mails, PDFs, Dokumentenarchive, Freitexteingaben. Sie verstehen menschliche Spracheingaben und können daraus strukturierte Erkenntnisse ableiten, ohne dass die Quelldaten migriert oder transformiert werden müssen. Das macht sie zu einem natürlichen Einstiegspunkt für KI-Integration.

RAG steht für Retrieval Augmented Generation. Ein Sprachmodell wird dabei nicht aufwendig auf internen Daten trainiert, sondern erhält bei jeder Anfrage die passenden Ausschnitte aus einer indexierten Wissensbasis. Diese Basis kann aus nahezu jeder vorhandenen Quelle gespeist werden. Das können ERP-Exporte, alte PDFs, Wikis oder Archive sein. So werden jahrzehntealte Datenbestände abfragbar, ohne sie migrieren zu müssen.

Besonders geeignet sind Prozesse, in denen heute manuell Informationen aus Dokumenten extrahiert, klassifiziert oder weitergeleitet werden: Bestelleingänge per E-Mail, Schadenmeldungen, Vertragsanalysen, Supportanfragen, interne Wissenssuche. Überall dort, wo Menschen regelmäßig zwischen System und Dokument vermitteln, kann ein KI-Modul sinnvoll in die Prozesskette eingebunden werden.

Bei klar definiertem Use Case und vorhandenem Datenzugang sind erste Piloten innerhalb weniger Wochen realisierbar. Entscheidend ist ein eng eingegrenzter Scope: ein Prozess, eine Datenquelle, eine messbare Kennzahl. Diese ersten Piloten liefern belastbare Erkenntnisse und bilden die Grundlage für eine schrittweise Ausweitung, ohne das Risiko eines großangelegten Migrationsprojekts.

KI-Tools können bestehenden Code automatisiert analysieren, Dokumentation für undokumentierte Systeme generieren und dabei helfen, Altcode in moderne Sprachen zu überführen. Das ist besonders relevant, weil das Wissen über Legacy-Systeme mit dem Renteneintritt erfahrener Entwicklerinnen und Entwickler schwindet. KI kann dieses Wissen sichern und Modernisierungsprojekte beschleunigen, laut aktuellen Praxisberichten um rund ein Drittel.

Jetzt teilen