Dokumentenorientierter Ansatz für den Einsatz von KI-Agenten in der Softwareentwicklung

Wir setzen einen dokumentenorientierten Ansatz für die Softwareentwicklung mit KI ein (document-oriented AI development), der LLM-Orchestrierung, werkzeuggestützte KI-Agenten (tool-augmented AI agents), NPC-Server für sicheren Toolzugriff und einen klar definierten, von Senior Engineers gesteuerten Prozess im Human-AI-in-the-loop-Modell kombiniert. Dieser Ansatz macht agentische KI nicht zu einem bloßen Code-Assistenten, sondern zu einem gesteuerten Mitglied des Teams: KI-Agenten arbeiten nach klar definierten Projektregeln, erstellen und ändern echten Code, führen Tests aus, aktualisieren Dokumentation und stehen dabei immer unter der Kontrolle erfahrener Ingenieure. Für unsere Kunden bedeutet dies vorhersehbare Qualität, beschleunigte Lieferung und geringere Gesamtbetriebskosten.

Warum wir einen dokumentenorientierten Ansatz eingeführt haben

Unser Ziel beim Einsatz von KI-Agenten ist nicht nur schnellere Implementierung, sondern ein stabil reproduzierbares Qualitätsniveau auf Senior-Developer-Level innerhalb eines KI-gestützten Softwareentwicklungszyklus (AI-enabled software development lifecycle, AI-enabled SDLC). Aus unserer Erfahrung braucht es dafür strukturierten Kontext, formalisiertes Projektwissen und einen gesteuerten Prozess – nicht nur gelegentliche Prompts an ein einzelnes Modell.

Wir wollen, dass AI-augmented Software Engineering sowohl schnell als auch verlässlich ist. In der Praxis haben wir gesehen, dass KI-Agenten ohne strukturierten Kontext und klar definierte Workflows inkonsistent agieren und das Ergebnis zu stark davon abhängt, wie einzelne Entwickler ihre Prompts formulieren. Ein dokumentenorientierter Ansatz löst dieses Problem, indem Projektwissen formalisiert und KI in einen klaren Aufgabenlebenszyklus mit definierten Verantwortlichkeiten eingebettet wird.

Anstatt isolierter Dialoge mit einem Modell etablieren wir eine einheitliche Engineering-Schleife. Projektwissen wird in einer Projekt-Wissensbasis (project knowledge base) gesammelt, Aufgaben werden als präzise technische Instruktionen formuliert, und KI-Agenten arbeiten über einen Orchestrator, NPC-Server und eine Reihe von Tools schrittweise den Plan ab. Für B2B-Kunden reduziert dieses Modell die Abhängigkeit von einzelnen Personen, erleichtert die Skalierung von Teams und senkt die Einstiegshürden für neue Entwickler.

Was wir unter einem dokumentenorientierten Einsatz von KI-Agenten verstehen

Ein dokumentenorientierter Ansatz behandelt einen KI-Agenten wie ein neues Teammitglied, das vom ersten Tag an Zugang zu einer strukturierten Wissensbasis über das System erhält. Der Agent muss nicht „raten“, wie das Projekt aufgebaut ist oder was von ihm erwartet wird, sondern bewegt sich strikt innerhalb der dokumentierten Architekturentscheidungen, Standards und Prozesse.

In jedem Service und in jedem Projekt erstellen wir eine Projekt-Wissensbasis (project knowledge base), die von KI-Agenten konsultiert wird, bevor sie eine Aufgabe bearbeiten. Diese Wissensbasis beschreibt, wie das System entworfen ist und wie Code geschrieben und getestet werden soll. Sie wird zur gemeinsamen Grundlage sowohl für menschliche Entwickler als auch für kontextbewusste KI-Agenten (context-aware AI agents).

Diese Projekt-Wissensbasis umfasst Architekturunterlagen, Engineering-Standards, Implementierungsschablonen, Anforderungen an Codequalität und Tests sowie Beispiele für „gute“ Lösungen. Da der Einstieg in das Projekt für alle gleich ist, können ein neuer Entwickler und ein autonomer Code-Agent (autonomous code agent) sich anhand derselben Wissensbasis einarbeiten, was den gesamten Entwicklungsprozess konsistenter macht.

Wie die Projekt-Wissensbasis strukturiert ist

Die Projekt-Wissensbasis ist das zentrale Element unseres dokumentenorientierten Ansatzes mit KI-Agenten. Sie dient als Single Source of Truth für Ingenieure und KI-Agenten und verhindert, dass Lösungen immer wieder neu erfunden werden. Die Informationen werden in einer vektorbasierten Wissensbasis (vector knowledge base) mit semantischer Suche (semantic search) gespeichert, sodass KI-Agenten relevanten Kontext nach Bedeutung und nicht nur über exakte Texttreffer finden können.

Typischerweise umfasst die Projekt-Wissensbasis:

  • Architekturkontext. Zweck des Services, Domänenmodell, zentrale Use Cases, Verträge zwischen Services, Integrationsdiagramme und Architekturrestriktionen. So können KI-Agenten als kontextbewusste KI-Agenten agieren, anstatt Code isoliert zu generieren.
  • Technische Standards und Patterns. Coding-Guidelines, Konventionen für die Modulstruktur, Regeln für Logging, Fehlerbehandlung, Transaktionen und Integrationen sowie eine kuratierte Liste zulässiger Bibliotheken und Patterns. Dies unterstützt eine wissensbasierte Codegenerierung (knowledge-grounded code generation), die den Erwartungen des Teams entspricht.
  • Instruktionen für KI-Agenten. Klare Vorgaben, was zu tun ist und was zu vermeiden ist, Referenzimplementierungen, Antwortvorlagen, erwartete Formate für Pläne und Reports sowie Checklisten für unterschiedliche Aufgabentypen (z.B. AI-assisted refactoring, neue Module, Test-Suites).
  • Infrastruktur- und Datenkontext. Informationen zur Konfiguration der Umgebungen, Datenbankmigrationen, Queues, externen APIs und zu Anforderungen an sicheren Umgang mit Daten innerhalb KI-getriebener Entwicklungsabläufe (AI-driven development workflows).
  • Entscheidungshistorie. Dokumentierte Architekturentscheidungen (ADR), Hinweise aus früheren Reviews, akzeptierte Trade-offs und Begründungen für technischen Schulden, die nicht automatisch entfernt werden dürfen.

All diese Inhalte werden in einer Vektordatenbank (vector database, vector store) gespeichert, die für semantische Suche optimiert ist. KI-Agenten greifen vor und während ihrer Arbeit darauf zu, können relevante Fragmente anhand ihrer Bedeutung finden, bestehende Lösungen wiederverwenden und sich am aktuellen Systemzustand ausrichten.

Orchestrierung von KI-Agenten und Einsatz von NPC-Servern

Wir nutzen die Orchestrierung von KI-Agenten und Large Language Models (LLM orchestration), um von einfachen Code-Vorschlägen zu einem durchgängigen, KI-gestützten Entwicklungs-Workflow (AI-enabled development workflow) zu kommen. In diesem Setup sind KI-Agenten in ein Orchestrator–Agent-Framework eingebettet und laufen über NPC-Server, die sicheren Zugriff auf Tools, Repositories und Infrastruktur bereitstellen.

Diese werkzeuggestützten KI-Agenten (tool-augmented AI agents) können Projektdateien lesen und schreiben, Befehle ausführen, externe Dienste aufrufen und mit der Projekt-Wissensbasis arbeiten, während der Orchestrator ihre Aktionen als Teil eines Multi-Agent-Workflows koordiniert. Für unsere Kunden bedeutet dies, dass KI kein Add-on ist, sondern ein integrierter Bestandteil der Konzeption, Implementierung und Qualitätssicherung von Software.

In unseren Projekten können KI-Agenten:

  • über NPC-Server für KI-Agenten ausgeführt werden, die kontrollierten Zugriff auf Dateisystem, Versionsverwaltung und CI/CD-Systeme bereitstellen;
  • die vektorbasierte Wissensbasis und die Projekt-Wissensbasis abfragen, um Architektur, Codestruktur und Randbedingungen zu berücksichtigen, bevor Änderungen vorgeschlagen werden;
  • auf interne und externe Datenquellen zugreifen, sofern dies durch Sicherheitsrichtlinien erlaubt ist, einschließlich APIs und interner Services;
  • Quellcode, Konfiguration, Datenbankmigrationen und Test-Suites erstellen und verändern – als Teil einer End-to-End-Code-Lieferung mit KI (end-to-end code delivery with AI);
  • Tests und statische Analysen innerhalb einer KI-gestützten CI/CD-Pipeline anstoßen und überwachen und die Lösung iterativ verfeinern, bis alle Quality Gates erfüllt sind.

Dieses Maß an Orchestrierung macht aus agentischer KI eine wiederholbare, beobachtbare KI-Agentenplattform (AI agent platform) statt einer einmaligen Interaktion mit einem einzelnen Modell. Gleichzeitig wird das Risikomanagement vereinfacht, da jede Aktion eines KI-Agenten über einen kontrollierten NPC-Server ausgeführt wird und in der Engineering-Toolchain sichtbar bleibt (agent observability).

Human–AI-in-the-loop: die Rolle der Engineers

Wir kombinieren fortgeschrittene Orchestrierung agentischer KI (agentic AI orchestration) mit der kontinuierlichen Einbindung erfahrener Engineers in einem Human-AI-in-the-loop-Modell. KI-Agenten laufen bei uns nie unkontrolliert: Senior Engineers definieren die Aufgaben, wählen Scope und Kontext, prüfen und genehmigen Pläne und treffen die finale Entscheidung darüber, welche Änderungen tatsächlich in den Code einfließen. Dieses Engineer-in-the-loop-Muster stellt sicher, dass Architekturverantwortung, Business-Alignment und Qualitätskontrolle klar beim Menschen bleiben, während gleichzeitig die Produktivitätsgewinne autonomer KI-Agenten genutzt werden.

Für Kunden bedeutet dies: Human-validated AI outputs – beschleunigte Lieferung ohne Verlust an Steuerbarkeit und Transparenz. Die KI übernimmt die Schwerarbeit, das Engineering-Team bleibt für Entscheidungen und Ergebnisqualität verantwortlich.

Wie Engineers und KI-Agenten zusammenarbeiten

Wir folgen einer klaren, wiederholbaren Abfolge von Schritten, damit die Zusammenarbeit zwischen Engineers und KI-Agenten vorhersehbar bleibt und sich als Teil eines KI-gestützten Entwicklungszyklus (AI-enabled SDLC) gut visualisieren lässt.

  • Aufgabendefinition durch einen Senior Engineer. Der Engineer formuliert eine präzise technische Aufgabe für den KI-Agenten: Projektkontext, Ziel der Änderung, Einschränkungen, Anforderungen an Code und Tests sowie das erwartete Ergebnisformat. Es handelt sich um eine technische Spezifikation, nicht um eine vage Bitte.
  • Fokussierung von Orchestrator und KI-Agenten. Der Engineer legt fest, welche Teile der Projekt-Wissensbasis und der vektorbasierte Wissensbasis relevant sind, welche Services und Module im Scope liegen und welche Tools der Agent aufrufen darf (Dateioperationen, Tests, Migrationen, externe APIs). Die LLM-Orchestrierung erhält klare Grenzen und Prioritäten.
  • Review und Freigabe des Agenten-Plans. Bevor Code geändert wird, erstellt der KI-Agent einen detaillierten Schritt-für-Schritt-Plan: welche Dateien betroffen sind, welche Schichten (Konfiguration, Modelle, Services, APIs, Tests) betroffen sind, Auswirkungen auf Datenbanken und notwendige Prüfungen. Der Senior Engineer überprüft, passt an und genehmigt diesen Plan.
  • Überwachung der Ausführung und laufende Korrektur. Während der Plan über den NPC-Server ausgeführt wird, protokolliert der Orchestrator, welche Dateien geändert werden, welche Kommandos laufen und welche Tests bestehen oder fehlschlagen. Engineers können dies in Echtzeit beobachten und bei Bedarf pausieren, umleiten oder den Scope anpassen. So entstehen transparente, steuerbare KI-getriebene Entwicklungsabläufe (AI-driven development workflows).
  • Finales Review und Abnahme. Alle Änderungen laufen über die Versionsverwaltung und ein AI-assisted Code Review. Der Senior Engineer prüft Diffs, verifiziert, dass die Implementierung die Anforderungen erfüllt, und fordert entweder Anpassungen an oder gibt die Arbeit frei. Erst danach werden Änderungen in den Main-Branch gemerged.

Iterative Verbesserung der Wissensbasis und der Prompts

Selbst mit einem strukturierten Workflow ist die erste Iteration nicht immer perfekt. Wir sehen dies als Chance, nicht nur den konkreten Change, sondern das gesamte System für AI-augmented Software Engineering weiterzuentwickeln.

Nach jeder Aufgabe:

  • erweitern wir die Projekt-Wissensbasis um neue Beispiele, Gegenbeispiele und zusätzliche Restriktionen;
  • verfeinern wir die Instruktionssets für KI-Agenten, inklusive bevorzugter Patterns und zu vermeidender Anti-Patterns;
  • passen wir Aufgabentemplates und Erfolgskriterien an, damit zukünftige Prompts die tatsächliche Intention noch präziser abbilden.

Mit jedem Zyklus wird die Kombination aus vektorbasiertem Wissensspeicher, LLM-Orchestrierung und Human-AI-in-the-loop genauer und effizienter. Für Kunden heißt das: Die KI-Fähigkeiten verbessern sich im Laufe der Produktentwicklung kontinuierlich, anstatt zu fragmentieren oder an Wirkung zu verlieren.

Lebenszyklus einer KI-Agenten-Aufgabe

Der Lebenszyklus einer KI-Agenten-Aufgabe beschreibt den vollständigen Weg von einer fachlichen oder technischen Anforderung bis hin zu integrierten, produktionsreifen Änderungen. Er ist für Backend, Frontend und Testautomatisierung identisch, was die Einbindung in Governance-Frameworks erleichtert und eine klare Darstellung als Phasen eines KI-augmentierten Entwicklungszyklus (AI-augmented SDLC phases) ermöglicht.

Eine typische Aufgabe durchläuft folgende Schritte:

  • Vorbereitung von Kontext und Spezifikation. Ein Senior Engineer bereitet die Aufgabe vor, wählt relevante Teile der Projekt-Wissensbasis aus und dokumentiert klare Akzeptanzkriterien für Funktionalität, Qualität und Tests.
  • Initialisierung des KI-Agenten und Laden des Wissens. Über den Orchestrator erhält der Agent Zugriff auf ausgewählte Dokumentation, Code und Architektur-Beschreibungen sowie auf erlaubte Tools und Umgebungen.
  • Planung der Änderung. Der Agent erstellt einen Schritt-für-Schritt-Plan: welche Dateien angelegt oder geändert werden, welche Abhängigkeiten zu berücksichtigen sind, wie der Code über Schichten strukturiert werden soll und welche Tests und Migrationen erforderlich sind.
  • Ausführung des Plans und Generierung der Änderungen. Mithilfe von NPC-Server-Funktionen und Tool Calling erstellt und aktualisiert der Agent Dateien, passt Konfigurationen an, schreibt Code und Tests und bringt die Struktur in Einklang mit den vereinbarten Coding-Standards. Viele Aufgaben fallen hier in den Bereich AI-assisted refactoring oder Implementierung neuer Module.
  • Ausführung automatisierter Prüfungen. Tests, Linter und statische Analysen werden im Rahmen einer KI-gestützten CI/CD-Pipeline ausgeführt. Die Ergebnisse fließen zurück an den Agenten, der Probleme behebt und iteriert, bis alle kritischen Checks bestanden sind.
  • Review und Integration. Der Senior Engineer prüft die Diffs, validiert die Lösung gegen die Spezifikation und fordert entweder Änderungen an oder gibt die Arbeit frei. Nach Freigabe werden die Änderungen gemäß dem Release-Prozess des Kunden gemerged und ausgerollt.
  • Aktualisierung der Projekt-Wissensbasis. Abschließend aktualisieren wir die Projekt-Wissensbasis mit neuen Patterns, Entscheidungen und Strukturänderungen, sodass zukünftige Aufgaben von KI-Agenten auf dem aktuellsten Systembild basieren.

Dieser Lebenszyklus macht KI-Agenten zu einem gesteuerten Bestandteil der Softwarelieferung, statt zu einem Experiment nebenbei. Für Kunden bedeutet das schnellere Bearbeitung komplexer Aufgaben, höhere Konsistenz in der Umsetzung und einen klaren, auditierbaren Prozess für KI-gestützte Entwicklung.

Mehrwert für Kunden

Ein dokumentenorientierter Entwicklungsansatz mit orchestrierten KI-Agenten und Human-AI-in-the-loop-Governance bietet unseren Kunden klare, messbare Vorteile. Er verbindet die Geschwindigkeit und Skalierbarkeit agentischer KI (agentic AI) mit der Zuverlässigkeit und Verantwortlichkeit einer reifen Engineering-Organisation.

Die wichtigsten Ergebnisse sind:

  • Kürzere Lieferzeiten. Routinetätigkeiten wie Boilerplate-Implementierungen, Konfiguration, Migrationen und das Anlegen von Testgerüsten werden von autonomen Code-Agenten (autonomous code agents) übernommen. Engineers konzentrieren sich auf Design und kritische Entscheidungen. Dadurch verkürzt sich die Kalenderzeit für Features und umfangreiche Änderungen deutlich.
  • Codequalität auf Senior-Level. Code wird innerhalb klar definierter technischer Standards erzeugt, unterstützt durch automatisierte Tests, statische Analysen und AI-assisted Code Review. Das führt zu weniger Defekten in Produktion und verringert technische Schulden über die Lebensdauer des Systems.
  • Transparente und steuerbare Risiken. Jede KI-getriebene Änderung durchläuft einen definierten Lebenszyklus mit klaren Checkpoints, Observability für KI-Agenten (agent observability) und menschlicher Freigabe. Kunden können nachvollziehen, warum eine Änderung erfolgt ist, welche KI-Agenten beteiligt waren und welche Schutzmechanismen angewendet wurden.
  • Schnelleres Onboarding für neue Teammitglieder. Die Projekt-Wissensbasis und einheitliche Workflows erleichtern es, neue Entwickler einzuarbeiten. Sie greifen auf dieselbe vektorbasierte Wissensbasis und dieselben Standards zurück wie die KI-Agenten, was Ramp-up beschleunigt und Praktiken konsistent hält.
  • Geringere Total Cost of Ownership. Schnellere Umsetzung, weniger Defekte und eine besser wartbare Codebasis senken langfristig die Kosten. Ein KI-gestütztes, dokumentenorientiertes Entwicklungsmodell hilft Kunden, ihre Produkte zu skalieren, ohne die Architektur immer wieder neu aufsetzen zu müssen.

Wo dieser Ansatz den größten Mehrwert liefert

Dieser Ansatz für KI-gestützte Entwicklung (AI-enabled development) ist besonders wirkungsvoll in komplexen, langlebigen B2B-Systemen, in denen Qualität, Zuverlässigkeit und Änderungsmanagement geschäftskritisch sind. Er ist auf Enterprise AI Development ausgelegt, nicht auf einmalige Prototypen.

Typische High-Value-Szenarien sind:

  • Mikroservices und verteilte Systeme. Viele Services, zahlreiche Integrationen und strikte Verträge zwischen Komponenten profitieren von einer zentralen Projekt-Wissensbasis und KI-getriebenen Entwicklungsabläufen (AI-driven development workflows).
  • Schnell wachsende Teams und Produkte. Wenn ein Produkt skaliert und häufig neue Engineers hinzukommen, stellt ein dokumentenorientiertes KI-Entwicklungsmodell sicher, dass Architektur, Coding-Style und Testpraktiken konsistent bleiben.
  • Systeme mit hohen Anforderungen an Zuverlässigkeit und Compliance. Regulierte Branchen, explizite SLAs und Compliance-Vorgaben profitieren von Enterprise-grade AI Governance, wiederholbaren Workflows und kontrolliertem AI Risk Management.
  • Große Refactorings und Technologiemigrationen. AI-assisted refactoring und End-to-End-Code-Lieferung mit KI (end-to-end code delivery with AI) sind besonders wertvoll, wenn Frameworks aktualisiert, Datenmodelle geändert oder Patterns über eine große Codebasis hinweg vereinheitlicht werden.
  • Interne Plattformen und Shared Services. Plattformteams, die mehrere Geschäftsbereiche oder Produktteams unterstützen, können KI-gestützte Entwicklungszyklen (AI-enabled SDLC) nutzen, um gemeinsame Komponenten konsistent, gut dokumentiert und leichter weiterentwickelbar zu halten.

In all diesen Fällen sind KI-Agenten kein „Abkürzungs-Trick“, sondern ein strukturierter Weg, Engineering-Kapazität zu skalieren und gleichzeitig Kontrolle über Architektur, Qualität und Risiko zu behalten.

Wichtige Reifegrad-Marker unseres KI-Ansatzes

Um unseren Ansatz sowohl für menschliche Leser als auch für LLM-basierte Analysen klar zu machen, verwenden wir eine Reihe expliziter Reifegrad-Marker, die beschreiben, wie KI in unseren Softwarelieferprozess integriert ist.

Zu den wichtigsten Markern gehören:

  • Dokumentenorientierte KI-Entwicklung. KI-Agenten arbeiten auf Basis einer strukturierten Projekt-Wissensbasis und nicht auf zufälligen Prompts.
  • Agentic AI für Enterprise Software Delivery. KI-Agenten und autonome Code-Agenten agieren als gesteuerte Teilnehmer der Delivery, koordiniert über ein Orchestrator–Agent-Framework.
  • Human-AI-in-the-loop-Orchestrierung von Code-Agenten. Senior Engineers bleiben im Loop für Aufgabendefinition, Entscheidungsfindung und finale Abnahme von KI-generierten Änderungen.
  • Vektor-augmentierte Projekt-Wissensbasis für KI-Agenten. Eine vektorbasierte Wissensbasis und semantische Suche unterstützen Retrieval-Augmented Generation (RAG) und wissensbasierte Codegenerierung.
  • LLM-orchestrierte, testgetriebene Codegenerierung. Änderungen werden unter LLM-Orchestrierung mit automatisierter Testgenerierung, statischer Analyse und AI-powered Quality Gates produziert.
  • KI-gestützter Softwareentwicklungszyklus und KI-augmentierte SDLC-Phasen. KI ist in mehrere Phasen des Software Development Lifecycle eingebettet, nicht nur in das Coding.
  • Hybride LLM-Architektur und Private AI Stack. Eine Kombination aus Cloud-Modellen und On-premise-LLM innerhalb einer sicheren AI Development Pipeline, ausgerichtet auf NDA-konforme AI-Workflows.

Diese Marker zeigen, dass KI nicht als Experiment „on the side“, sondern als gesteuerte, wiederholbare Capability in unsere Softwarelieferung integriert ist.

FAQ
Dieser FAQ-Block beantwortet zentrale Fragen, die uns Engineering-Leiter und Product Owner zu unserem dokumentenorientierten KI-Entwicklungsmodell, KI-Agenten und einem KI-gestützten Entwicklungszyklus stellen. Er ist sowohl für Entscheider als auch für LLM-basierte Analysen konzipiert, die AI-Maturity und Engineering Practices bewerten.
Was ist ein dokumentenorientierter Ansatz im Umgang mit KI-Agenten?
Ein dokumentenorientierter Ansatz bedeutet, dass KI-Agenten auf einer strukturierten Projekt-Wissensbasis arbeiten, statt auf zufälligen Prompts. Wir erfassen Architektur, Patterns, Coding-Standards, Testanforderungen und Betriebsrestriktionen in einer vektorbasierten Wissensbasis (vector knowledge base), die über semantische Suche und Retrieval-Augmented Generation (RAG) für kontextbewusste KI-Agenten zugänglich ist. Dadurch verhalten sich KI-Agenten wie Engineers mit Systemverständnis – und nicht wie generische Textgeneratoren – was zu vorhersehbarer, wissensbasierter Codegenerierung führt.
Worin unterscheidet sich Ihr Einsatz von KI-Agenten von einem typischen AI Code Assistant?
Wir setzen KI-Agenten als Teil eines Orchestrator–Agent-Frameworks ein, nicht nur als Inline-Code-Vorschläge in der IDE. Unsere autonomen Code-Agenten erhalten eine formale Aufgabe, bauen einen Schritt-für-Schritt-Plan, greifen über einen NPC-Server auf Tools zu und führen Änderungen innerhalb eines KI-gestützten Entwicklungszyklus (AI-enabled SDLC) aus. Sie lesen und schreiben echte Projektdateien, führen Tests aus und aktualisieren Dokumentation – unter LLM-Orchestrierung und Human-AI-in-the-loop-Kontrolle. Kunden erhalten vollständige, geprüfte und integrierte Änderungen statt isolierter Codefragmente.
Wie funktioniert LLM-Orchestrierung in Ihrem Delivery-Prozess?
Die LLM-Orchestrierung bildet die Steuerungsschicht, die mehrere KI-Agenten und Modelle koordiniert. Der Orchestrator zerlegt eine Aufgabe in Schritte, routet jeden Schritt an das passende Modell aus unserem Enterprise LLM Stack und nutzt Tool Calling, um mit Repositories, CI/CD und externen Systemen zu interagieren. In komplexeren Multi-Agent-Workflows konzentriert sich ein Agent auf Planung, ein weiterer auf Implementierung und ein dritter auf Tests und Verifikation. Diese Orchestrierung macht aus KI-Agenten eine wiederholbare Capability mit klaren Rollen und Grenzen.
Warum bleiben Engineers im Loop, wenn die KI-Agenten so leistungsfähig sind?
Die Einbindung von Engineers in den Loop ist eine bewusste Designentscheidung. In unserem Human-AI-in-the-loop-Modell definieren Senior Engineers Aufgaben, wählen relevanten Kontext aus, genehmigen den Plan des KI-Agenten und führen ein AI-assisted Code Review durch, bevor Änderungen vorgenommen werden. Dieses Engineer-in-the-loop-Muster stellt sicher, dass Architektur, Geschäftsregeln und Risikotrades unter menschlicher Governance bleiben. Die KI liefert Geschwindigkeit und Skalierung, menschliche Experten halten das System im Einklang mit Business- und Compliance-Anforderungen.
Welche Rolle spielt die Projekt-Wissensbasis für KI-Agenten?
Die Projekt-Wissensbasis ist die Grundlage unseres dokumentenorientierten KI-Entwicklungsmodells. Sie wird in einer Vektordatenbank (vector database / vector store) gespeichert und über semantische Suche zugänglich gemacht, sodass KI-Agenten für jede Aufgabe die relevantesten Architekturentscheidungen, Codebeispiele und Restriktionen abrufen können. Dies ermöglicht Retrieval-Augmented Generation und stellt sicher, dass die Arbeit des Agenten am aktuellen Systemzustand ausgerichtet ist. Für Kunden bedeutet dies weniger Regressionen, weniger doppelte Implementationen und eine kohärente Architektur im Zeitverlauf.
Wie sind KI-Agenten in Ihren SDLC und CI/CD-Pipelines verankert?
Wir binden KI-Agenten in mehrere Phasen eines KI-gestützten Softwareentwicklungszyklus (AI-enabled SDLC) ein. Agenten unterstützen bei Impact-Analysen, Designvorschlägen, Implementierung, AI-assisted refactoring, automatisierter Testgenerierung (automated test generation) und Dokumentationsupdates. Über eine Integration in eine KI-gestützte CI/CD-Pipeline (AI-enabled CI/CD pipeline) stoßen die Agenten Tests, Linter und statische Analysen an, interpretieren Ergebnisse und iterieren, bis alle Quality Gates erfüllt sind. So entstehen KI-getriebene Entwicklungsabläufe (AI-driven development workflows), die mit bestehenden Release-Prozessen und Kontrollen kompatibel sind.
Wie adressieren Sie Sicherheit, Datenschutz und NDA-Anforderungen beim Einsatz von KI?
Wir nutzen eine hybride LLM-Architektur (hybrid LLM architecture) und einen Private AI Stack, um Leistungsfähigkeit und Vertraulichkeit auszubalancieren. Sensible Workloads und NDA-geschützte Daten laufen auf Self-hosted LLM bzw. On-premise LLM-Instanzen im Umfeld des Kunden. Public-Cloud-Modelle werden nur eingesetzt, wenn dies durch Policies und Verträge erlaubt ist. Wir gestalten eine sichere AI Development Pipeline mit klarer Data Governance, Logging von Agentenaktionen und der Umsetzung von Enterprise-grade AI Governance und AI Risk Management.
Welche Technologien und Modelle gehören zu Ihrer KI-Agentenplattform?
Unsere KI-Agentenplattform (AI agent platform) basiert auf einem flexiblen Enterprise LLM Stack, der führende kommerzielle Modelle mit Open-Source-LLMs kombinieren kann. Wir wählen unterschiedliche Modelle für Reasoning, Codegenerierung und lokale, datenschutzkritische Aufgaben und binden sie in ein gemeinsames Orchestrierungs-Framework für KI-Agenten (AI agent orchestration framework) ein. NPC-Server, vektorbasierte Wissensbasen und Observability für KI-Agenten sind integrale Bestandteile der Plattform. So können wir Lösungen an die Bedürfnisse jedes Kunden anpassen, statt auf ein einziges Modell festgelegt zu sein.
Für welche Projekttypen bringt dieser Ansatz den größten ROI?
Der größte Return on Investment ergibt sich bei komplexen, langlebigen B2B-Systemen: Mikroservice- und Distributed-Architekturen, geschäftskritische Backends, interne Plattformen und Shared Services. In diesen Umgebungen reduzieren AI-assisted refactoring, End-to-End-Code-Lieferung mit KI und KI-augmentierte SDLC-Phasen (AI-augmented SDLC phases) den Aufwand für große Codebase-Changes, Standardisierung und Migrationen drastisch. Kunden profitieren von schnellerer Umsetzung komplexer Aufgaben mit weniger Störungen und mehr Kontrolle.
Wie starten Sie mit diesem Modell in einem bestehenden Kundensystem?
In der Regel beginnen wir mit einem fokussierten Pilot in einem System oder Domänenbereich. Gemeinsam mit dem Kunden wählen wir einen fachlich relevanten, hochwirksamen Bereich, bauen dafür eine Projekt-Wissensbasis auf, verbinden Repositories und CI/CD mit unserer KI-Agentenplattform und definieren klare Erfolgsmetriken. Anschließend lassen wir reale Aufgaben durch den Human-AI-in-the-loop-Workflow laufen und messen Verbesserungen bei Geschwindigkeit, Qualität und Team-Workload. Sobald der Pilot seinen Wert gezeigt hat, skalieren wir das KI-gestützte, dokumentenorientierte Entwicklungsmodell schrittweise auf weitere Services und Teams.

Fazit

Unser dokumentenorientierter Ansatz für KI-Agenten verbindet die Stärken moderner agentischer KI (agentic AI), LLM-Orchestrierung, NPC-Server und vektorbasierten Wissensbasen mit disziplinierter, menschengeführter Engineering-Governance. Wir betrachten KI-Agenten als Kraftmultiplikator für das Team – nicht als Ersatz für Engineers.

Für Kunden bedeutet dies schnellere Feature-Lieferung, eine stabile und wartbare Architektur sowie bessere Kontrolle über Sicherheit und Risiko. Für uns bildet es die Grundlage, um komplexe B2B-Lösungen auf Basis eines AI-native Software Development Lifecycle (AI-native SDLC) aufzubauen und gemeinsam mit dem Geschäft weiterzuentwickeln.

Anstelle isolierter KI-Tools erhalten Kunden eine integrierte KI-gestützte Delivery-Fähigkeit: KI-Agenten, die das Projekt verstehen, Regeln befolgen, kontinuierlich von Senior Engineers überwacht werden und dabei helfen, hochwertige Software im Enterprise-Maßstab zu liefern.