In der heutigen digitalen Ära nutzen viele Menschen persönliche KI-Assistenten, um ihre täglichen Aufgaben zu vereinfachen, kreative Ideen zu erhalten oder auf Informationen zuzugreifen.
Wenn Sie Daten haben, die nicht öffentlich im Internet verfügbar sind, können Sie Ihren persönlichen KI-Assistenten nicht danach fragen, ohne den Kontext im Prompt bereitzustellen. Dies ist jedoch auch nicht möglich, wenn Sie große Datenmengen haben, da die Kontextgröße von LLMs begrenzt ist.
Um diese Herausforderung zu bewältigen, zeigen wir Ihnen, wie Sie einen einfachen persönlichen KI-Assistenten mit einem Retrieval-Augmented-Generation (RAG) System mithilfe von LlamaIndex erstellen können, das die leistungsstarken Fähigkeiten von LLMs mit Ihren privaten Daten kombiniert.
Die Anwendung nutzt verschiedene Azure AI-Komponenten, um das LLM zu betreiben und die Datenabrufung zu verwalten.
Dieser Artikel hilft Ihnen, die folgenden Punkte zu verstehen und umzusetzen:
Wichtige Azure-Komponenten, die in dieser Anwendung verwendet werden: