Ein RAG-System (Retrieval-Augmented Generation) kann auf einfache Fragen wie „Wer hat die API-Limits festgelegt?“ noch blitzschnell antworten. Doch als ein Kollege wissen wollte, „Welche technischen Herausforderungen haben Projekt A und Projekt B gemeinsam?“, brach das System zusammen. Es lieferte zwar relevante Textausschnitte zu beiden Projekten – aber keine Verbindung zwischen ihnen. Der Grund: Vektorsuche findet ähnliche Dokumente, nicht verknüpfte Inhalte. Diese strukturelle Schwäche von Standard-RAG kostete den Autor eine Woche wertvolle Entwicklungszeit.
Warum klassische RAG-Systeme an Grenzen stoßen
RAG-Systeme arbeiten nach einem einfachen Prinzip: Sie wandeln Texte in numerische Vektoren um und suchen dann nach den am besten passenden Dokumentenabschnitten. Das funktioniert hervorragend für konkrete Wissensabfragen wie „Was macht die Funktion X?“. Doch sobald Nutzer übergeordnete Themen erkunden oder Ursachen hinter Entscheidungen verstehen wollen, stößt diese Methode an ihre Grenzen.
Typische Fragestellungen, die RAG alleine nicht beantworten kann, sind:
- „Welche übergeordneten Muster lassen sich im gesamten Datensatz erkennen?“
- „Warum änderte das Team im dritten Quartal die Strategie?“
- „Welche Abteilungen teilen ähnliche Risikofaktoren?“
Solche Fragen erfordern logisches Querdenken über mehrere Dokumente hinweg. Vektorsuche durchsucht einzelne Abschnitte isoliert – ohne zu verstehen, wie sie miteinander verknüpft sind. Ein passender Vergleich: Vektorsuche findet Bücher auf demselben Regal, während GraphRAG die Fußnoten entdeckt, die Werke aus verschiedenen Stockwerken verbinden.
GraphRAG: Wie Wissensnetzwerke RAG erweitern
Microsoft Research stellte im Februar 2024 GraphRAG vor – eine Methode, die semantische Netzwerke nutzt, um RAGs Fähigkeiten zu ergänzen. Der Kernansatz: Ein Sprachmodell (LLM) extrahiert automatisch Entitäten und deren Beziehungen aus Dokumenten und baut daraus einen Wissensgraphen auf. Dieser Graph ermöglicht es dem System, komplexe Zusammenhänge zu erkennen und zu erklären.
Die vier Stufen des GraphRAG-Pipelines
Phase 1: Entitäts- und Beziehungsanalyse
Das LLM analysiert den Text und identifiziert:
- Entitäten wie Personen, Organisationen, Technologien oder Konzepte
- Beziehungen zwischen diesen Entitäten
Ein Beispiel: Aus dem Satz „Das GraphRAG-Team von Microsoft entwickelte eine LLM-basierte Methode zur Wissensgraph-Erstellung, die das Property-Graph-Modell von Neo4j referenziert“ extrahiert das System:
(Microsoft) --[hat_team]--> (GraphRAG-Team)
(GraphRAG-Team) --[entwickelte]--> (LLM-Methode)
(LLM-Methode) --[referenziert]--> (Property-Graph-Modell)
(Property-Graph-Modell) --[stammt_von]--> (Neo4j)Phase 2: Strukturierung durch Clustering
Die extrahierten Daten werden mit dem Leiden-Algorithmus in thematische Cluster unterteilt. Dieser Schritt ähnelt der natürlichen Gruppenbildung in neuen Umgebungen – etwa wenn sich in einer Schulklasse spontan Cliquen bilden. Der Algorithmus erkennt automatisch, welche Entitäten eng miteinander verbunden sind.
Phase 3: Zusammenfassung der Wissenscluster
Für jeden Cluster generiert ein LLM eine prägnante Zusammenfassung. Diese dient später als Suchindex für Abfragen.
Phase 4: Graphbasierte Antwortgenerierung
Bei einer Nutzeranfrage durchsucht das System die relevanten Clusterzusammenfassungen und nutzt den zugrundeliegenden Graphen, um logische Verbindungen herzustellen. Die Antwort enthält nicht nur Textausschnitte, sondern auch Begründungen für die gefundenen Zusammenhänge.
Wann GraphRAG Standard-RAG übertrifft
Vergleich der beiden Ansätze nach zentralen Kriterien:
- Suchbasis:
- Standard-RAG: Einzelne Dokumentabschnitte
- GraphRAG: Thematische Wissenscluster + Entitätsnetzwerke
- Einsatzgebiet:
- Standard-RAG: Konkrete Faktenabfragen („Was ist X?“) – schnell und kostengünstig
- GraphRAG: Komplexe Querverbindungen („Warum?“, „Welche Muster?“) – umfassend, aber rechenintensiver
- Antwortqualität:
- Standard-RAG liefert isolierte Zitate
- GraphRAG zeigt die logischen Pfade zwischen Informationen
Untersuchungen des Microsoft-Teams auf dem VIINA-Datensatz (Umfragen zum Ukraine-Konflikt) belegten, dass GraphRAG sowohl die Vollständigkeit als auch die Diversität der Antworten signifikant verbesserte. Eine unabhängige Studie von NTT Data bestätigte dieses Ergebnis für Fragen, die mehrere Dokumente betreffen.
Die Kostenrevolution: Vom fünfstelligen Betrag zum Cent-Bereich
Der größte Hinderungsgrund für den Einsatz von GraphRAG war lange der hohe Rechenaufwand. Frühe Implementierungen erforderten umfangreiche LLM-Nutzung während der Indexierung – mit Kosten von bis zu 33.000 US-Dollar für große Datensätze. Viele Entwickler verschoben GraphRAG-Projekte daher auf „bessere Zeiten“.
Doch seit 2026 hat sich das Bild dramatisch gewandelt. Drei technologische Fortschritte senkten die Kosten um mehrere Größenordnungen:
LazyGraphRAG (Microsoft Research):
Dieser Ansatz verschiebt die aufwendige Zusammenfassung der Wissenscluster auf die Abfragezeit. Statt alle Cluster vorab zu verarbeiten, baut LazyGraphRAG zunächst ein schlankes Graphenmodell und führt die schwere Arbeit erst bei Bedarf aus. Das Ergebnis: Die Indexierungskosten sinken auf 0,1 % der ursprünglichen Kosten – eine Reduktion um den Faktor 1.000 – bei vergleichbarer Antwortqualität für globale Abfragen.
LightRAG:
Diese vereinfachte Variante reduziert GraphRAG auf die wesentlichen Komponenten. Mit einem schlankeren Extraktionsprozess und flacher Graphenstruktur lassen sich 500-Seiten-Dokumente in etwa drei Minuten zu Kosten von rund 0,50 US-Dollar indizieren. Für Teams, die „gute genug“ Ergebnisse ohne den vollen Microsoft-Stack benötigen, ist dies ein praktikabler Einstieg.
Optimierung der Token-Nutzung:
Alexander Shereshevsky demonstrierte in Produktionsumgebungen eine 90-prozentige Reduktion der Token-Kosten durch:
- Gezielte Extraktion relevanter Informationen
- Batch-Verarbeitung mehrerer Dokumente
- Intelligente Aufteilung in überschaubare Textabschnitte
Die Kostenfrage ist damit nicht mehr das Hauptargument gegen GraphRAG. Die zentrale Frage lautet heute: „Welche Variante passt am besten zu unseren spezifischen Abfragemustern?“
Die Zukunft: Adaptive RAG-Systeme
Erfahrene Praktiker setzen längst nicht mehr auf entweder RAG oder GraphRAG, sondern kombinieren beide Ansätze intelligent. Sie nutzen Adaptive RAG: Ein Klassifikator analysiert jede Nutzeranfrage und leitet sie an das passende System weiter:
- Einfache Faktenabfragen → Standard-RAG (schnell und kostengünstig)
- Komplexe Querverbindungen → GraphRAG (umfassend, aber teurer)
- Explorative Analysen → Spezialisierte GraphRAG-Varianten oder hybride Modelle
Der entscheidende Vorteil: Das System bleibt sowohl performant als auch kosteneffizient – ohne Kompromisse bei der Antwortqualität. Mit den sinkenden Kosten und der wachsenden Reife der Technologie wird GraphRAG immer mehr zum Standard für Anwendungen, die mehr benötigen als bloße Textzitate.
KI-Zusammenfassung
RAG sistemleri genellikle basit sorulara yanıt verebilirken, neden-sonuç ilişkilerini açıklamakta zorlanıyor. Microsoft'un GrafRAG yaklaşımı, belge koleksiyonları arasındaki bağlantıları otomatik olarak haritalayarak bu boşluğu dolduruyor. Maliyetleri artık %99,9 daha ucuza indiren yenilikler neler?