Microsoft Fabric Data Agents - Conversational AI für Datenanalyse#
Microsoft Fabric Data Agents stellen eine revolutionäre neue Funktion dar, die es ermöglicht, conversational Q&A-Systeme mit generativer KI zu erstellen. Diese Agents machen Dateneinblicke für alle in der Organisation zugänglich und umsetzbar - auch für Nutzer ohne tiefgreifende technische AI-Kenntnisse oder Verständnis der Datenstrukturen.
Was sind Fabric Data Agents?#
Data Agents in Microsoft Fabric ermöglichen es Teams, in natürlicher Sprache mit ihren Daten zu interagieren. Nutzer können Fragen in normalem Deutsch/Englisch stellen und erhalten präzise, kontextreiche Antworten aus den in Fabric OneLake gespeicherten Daten.
Kernfunktionalitäten:#
- 🗣️ Natural Language Processing: Fragen in natürlicher Sprache stellen
- 🔍 Intelligente Datenquellenauswahl: Automatische Identifikation der relevantesten Datenquelle
- 🛡️ Sichere Zugriffskontrolle: Nutzung der Benutzeranmeldeinformationen für Berechtigungen
- 📊 Multi-Query-Support: SQL, DAX und KQL je nach Datenquelle
- 🎯 Organisationsspezifische Anpassung: Custom Instructions und Beispielabfragen
Wie funktionieren Data Agents?#
Der Fabric Data Agent nutzt Azure OpenAI Assistant APIs und arbeitet in einem strukturierten Prozess:
1. Question Parsing & Validation#
- Verarbeitung von Benutzerfragen durch Azure OpenAI
- Einhaltung von Sicherheitsprotokollen und Responsible AI Policies
- Read-only Zugriff auf alle Datenquellen
2. Data Source Identification#
- Verwendung der Benutzeranmeldeinformationen für Schema-Zugriff
- Bewertung aller verfügbaren Datenquellen:
- Lakehouse & Warehouse (relationale Datenbanken)
- Power BI Datasets (Semantic Models)
- KQL Databases
3. Tool Invocation & Query Generation#
- Natural Language to SQL (NL2SQL) für Lakehouse/Warehouse
- Natural Language to DAX (NL2DAX) für Power BI Datasets
- Natural Language to KQL (NL2KQL) für KQL Databases
4. Query Validation & Execution#
- Validierung der generierten Abfragen
- Sichere Ausführung gegen die gewählte Datenquelle
- Formatierung in menschenlesbare Antworten
Konfiguration von Data Agents#
Unterstützte Datenquellen#
- Bis zu 5 Datenquellen in beliebiger Kombination
- Lakehouses, Warehouses, KQL Databases, Power BI Semantic Models
- Erweiterte Unterstützung für große Datenquellen (>1.000 Tabellen, >100 Spalten)
Anpassungsmöglichkeiten#
Data Agent Instructions:
- Anleitung für die Auswahl der besten Datenquelle
- Organisationsspezifische Regeln und Definitionen
- Beispiel: “Finanzmetriken → Power BI Semantic Model”
Example Queries:
- Beispiel-Frage/Abfrage-Paare
- Verbesserung der Genauigkeit durch Kontext
- Aktuell nicht für Power BI Semantic Models verfügbar
Integration & Verwendung#
Consumption-Möglichkeiten:#
- Microsoft Copilot Studio (Connected Agents)
- Azure AI Foundry (Python SDK, REST API)
- External Applications (Python Client SDK)
- Microsoft Teams und andere Kanäle
Voraussetzungen:#
- Fabric Capacity F2+ oder Power BI Premium P1+
- Aktivierte Tenant Settings für Data Agents und Copilot
- Cross-geo Processing/Storing für AI aktiviert
- Mindestens eine Datenquelle (Warehouse, Lakehouse, Power BI, KQL DB)
Aktuelle Entwicklungen (2025)#
Neue Features:#
- Juli 2025: Erweiterte Unterstützung für große Datenquellen
- Juni 2025: Data Source Instructions für präzisere Antworten
- September 2025: Python Client SDK für externe Anwendungen
Limitierungen (Preview):#
- Nur “Read”-Abfragen (keine Create/Update/Delete)
- Keine unstrukturierten Daten (.pdf, .docx, .txt)
- Aktuell nur englische Sprache optimal unterstützt
- Kein Wechsel des zugrundeliegenden LLM möglich
Weiterführende Links#
Konzepte & Grundlagen:#
Implementierung:#
Integration:#
- Use with Azure AI Foundry (Python)
- Use with Microsoft Copilot Studio
- Python Client SDK for External Apps
Szenarios & Anwendungsfälle:#
Fazit: Microsoft Fabric Data Agents demokratisieren den Zugang zu Dateneinblicken durch conversational AI und schaffen die Grundlage für eine datengetriebene Unternehmenskultur. Mit der Integration in verschiedene Microsoft-Plattformen und der kontinuierlichen Weiterentwicklung bieten sie enormes Potenzial für die Zukunft der Datenanalyse.
