Die Kluft zwischen einer Frage und einer fundierten Antwort ist in vielen Unternehmen noch immer groß. Während Fachabteilungen auf Daten zugreifen möchten, bleiben technische Hürden wie SQL, DAX oder KQL für sie oft unüberwindbar. Der Microsoft Fabric Data Agent – aktuell in der Vorschauphase verfügbar – soll diese Lücke schließen. Er ermöglicht es Mitarbeitenden, Fragen zu Unternehmensdaten in einfachen Sätzen zu stellen und sofort strukturierte, präzise Antworten zu erhalten. Doch wie funktioniert das genau? Und welche Voraussetzungen müssen für den Einsatz erfüllt sein?
Was ist ein Microsoft Fabric Data Agent?
Ein Fabric Data Agent ist ein intelligenter Assistent, der auf Basis der Microsoft Fabric-Plattform und deren zentralem Datenspeicher OneLake arbeitet. Kernstück ist die Kombination aus großen Sprachmodellen (LLMs) und den Azure OpenAI-Assistenten-APIs. Diese Technologie übersetzt natürliche Sprachfragen in maschinell ausführbare Abfragen – ganz ohne Programmierkenntnisse. Der Agent fungiert dabei als Schnittstelle zwischen Nutzer und Daten und übernimmt folgende Aufgaben:
- Versteht die gestellte Frage in natürlicher Sprache
- Identifiziert die passende Datenquelle
- Erstellt und führt die entsprechende Abfrage aus
- Liefert die Ergebnisse in verständlicher Form zurück
Der Agent lässt sich mit verschiedenen Datenquellen verbinden, darunter Lakehouses, Data Warehouses, Power BI-Semantic-Modelle, KQL-Datenbanken, Ontologien und Microsoft Graph. Innerhalb von agentenbasierten Architekturen auf Microsoft Fabric übernimmt der Data Agent die Rolle des analytischen Gesprächspartners. Er kann dabei auf mehrere Datenquellentypen zugreifen und ist Teil größerer, vernetzter Lösungen.
Technische Funktionsweise: Vom Nutzer zur Antwort
Der Ablauf vom Stellen einer Frage bis zum Erhalt einer Antwort folgt einem klar definierten Prozess. Dieser setzt sich aus mehreren Stufen zusammen:
1. Frageanalyse und Validierung
Bevor der Agent eine Frage überhaupt verarbeitet, prüft er zunächst deren Zulässigkeit. Dazu werden folgende Kriterien herangezogen:
- Sicherheitsprotokolle: Ist die Anfrage compliant mit den Unternehmensrichtlinien?
- Responsible AI (RAI)-Richtlinien: Wird die Frage im Einklang mit ethischen und rechtlichen Vorgaben gestellt?
- Berechtigungen des Nutzers: Darf der anfragende Nutzer auf die benötigten Daten zugreifen?
Ein zentraler Vorteil: Der Agent agiert stets mit Lesezugriff. Er kann keine Daten erstellen, ändern oder löschen – eine wichtige Sicherheitsmaßnahme.
2. Identifikation der richtigen Datenquelle
Der Agent analysiert die Anfrage und vergleicht sie mit den verfügbaren Datenquellen. Dabei nutzt er die Berechtigungsdaten des Nutzers, um auf die Schemas der Quellen zuzugreifen. Anschließend wird entschieden, welche Quelle die Frage am besten beantworten kann. Nutzer können diese Routing-Logik durch benutzerdefinierte Anweisungen steuern, etwa:
- "Finanzielle Kennzahlen immer an das Power BI-Semantic-Modell weiterleiten"
- "Rohdatenabfragen an das Lakehouse delegieren"
3. Generierung der Abfrage
Je nach Datenquelle setzt der Agent unterschiedliche Übersetzungstools ein, um die natürliche Sprache in die jeweilige Abfragesprache zu konvertieren:
| Datenquelle | Abfrageart | |-------------|------------| | Lakehouse / Warehouse | NL2SQL (Natural Language to SQL) | | Power BI-Semantic-Modelle | NL2DAX (Natural Language to DAX) | | KQL-Datenbanken | NL2KQL (Natural Language to KQL) | | Microsoft Graph | Graph-API-Abfragen |
4. Validierung und Ausführung
Die generierte Abfrage wird auf Korrektheit und Sicherheit geprüft, bevor sie ausgeführt wird. Die Ergebnisse werden anschließend in eine menschlich lesbare Form gebracht – etwa als Tabellen, Zusammenfassungen oder zentrale Erkenntnisse – und dem Nutzer präsentiert.
Einrichtung des Fabric Data Agent: Schritt für Schritt
Die Konfiguration des Agents ähnelt dem Aufbau eines Power BI-Berichts: Sie definieren die Datenquellen, legen Berechtigungen fest und veröffentlichen den Agenten. Folgende Schritte sind notwendig:
1. Datenquellen auswählen
Ein Agent kann bis zu fünf verschiedene Datenquellen kombinieren. Mögliche Quellen sind:
- Lakehouses
- Data Warehouses
- KQL-Datenbanken
- Power BI-Semantic-Modelle
- Ontologien
- Microsoft Graph
Ein Beispiel: Zwei Power BI-Semantic-Modelle, ein Lakehouse und eine KQL-Datenbank.
2. Relevante Tabellen festlegen
Nach der Auswahl der Datenquelle müssen die konkreten Tabellen definiert werden, auf die der Agent zugreifen darf. Bei Lakehouses bedeutet das, dass nur Tabellen – nicht einzelne Dateien wie CSV oder JSON – eingebunden werden können. Raw-Daten müssen daher zunächst in strukturierte Tabellen überführt werden.
3. Kontext durch Anweisungen und Beispielabfragen hinzufügen
Hier wird der Agent für das jeweilige Unternehmen konfiguriert:
- Agent-Anweisungen: Beschreiben Sie, wie sich der Agent verhalten soll. Dazu gehören:
- Die Zuordnung von Fragearten zu Datenquellen
- Erklärungen zu unternehmensspezifischen Begriffen
- Individuelle Regeln (z. B. "Fragen zu Kundendaten nur an autorisierte Mitarbeiter weiterleiten")
- Beispielabfrage-Paare: Geben Sie dem Agenten konkrete Frage-Antwort-Beispiele, um seine Antwortqualität zu verbessern. Wichtig: Diese Funktion ist derzeit nicht für Power BI-Semantic-Modelle verfügbar.
Sicherheit und Governance: Integriert, nicht nachgerüstet
Einer der größten Vorteile des Fabric Data Agent ist die tiefe Integration von Sicherheits- und Governance-Mechanismen:
- Prinzip der geringsten Rechte: Der Agent nutzt die Berechtigungen des anfragenden Nutzers. Er zeigt nur Daten an, die dieser ohnehin einsehen darf.
- Microsoft Purview-Integration: DLP-Richtlinien (Data Loss Prevention), Zugriffsbeschränkungen, Insider-Risikomanagement und Prüfprotokolle gelten auch für Agenten-Interaktionen.
- Eingeschränkte Abfrage-Scopes: Der Agent kann nur auf die zuvor definierten Datenquellen zugreifen. Ein unkontrolliertes Auslesen weiterer Daten ist ausgeschlossen.
- Optionale Azure AI Content Safety: Zusätzliche Filter können schädliche oder policy-widrige Antworten erkennen und blockieren.
Integration in Copilot Studio: Datenagenten über den Chat hinaus nutzen
Der Fabric Data Agent beschränkt sich nicht auf die Microsoft Fabric-Oberfläche. Er lässt sich in Copilot Studio einbinden und ermöglicht so die Integration in individuelle Microsoft 365 Copilot-Erfahrungen, Teams-Bots oder andere Anwendungen. Damit können Unternehmen ihre Datenabfragen dort anbieten, wo ihre Mitarbeiter ohnehin arbeiten – etwa in Chats, Bots oder automatisierten Workflows.
Warum die Technologie für Unternehmen relevant ist
Der Microsoft Fabric Data Agent löst ein zentrales Problem moderner Unternehmen: den Zugang zu Daten. Obwohl Daten technisch verfügbar sind, bleiben sie für viele Mitarbeiter unzugänglich, weil sie technische Kenntnisse wie SQL oder DAX voraussetzen. Durch die Möglichkeit, Fragen in natürlicher Sprache zu stellen und sofort verständliche Antworten zu erhalten, bietet der Agent gleich mehrere Vorteile:
- Senkung der Einstiegshürde für nicht-technische Nutzer
- Entlastung der Data-Teams von wiederkehrenden Ad-hoc-Anfragen
- Förderung einer datengetriebenen Kultur im gesamten Unternehmen
- Beibehaltung der bestehenden Governance- und Sicherheitsstandards
Die Technologie markiert einen wichtigen Schritt hin zu einer Zukunft, in der Daten nicht mehr das Privileg weniger sind, sondern allen zugänglich gemacht werden – ohne Kompromisse bei Sicherheit oder Compliance einzugehen. Mit dem Fabric Data Agent zeigt Microsoft, wie künstliche Intelligenz und natürliche Sprachverarbeitung die Art und Weise, wie Unternehmen mit Daten umgehen, grundlegend verändern können.
Die Vorschauphase bietet Unternehmen die Chance, den Agenten frühzeitig zu testen und seine Einsatzmöglichkeiten im eigenen Ökosystem zu evaluieren. Es lohnt sich, die Entwicklungen genau zu verfolgen – denn sie könnten die Art und Weise, wie wir über Daten sprechen und entscheiden, nachhaltig prägen.
KI-Zusammenfassung
Üç günlük bekleyişlere son! Kurum verilerinize doğal dil sorgulamalarıyla anında yanıt alın. Fabric Data Agent kurulumu, güvenlik ve kullanım ipuçları burada.