Blog

Erster KI-Assistent mit LlamaIndex und Azure AI

Geschrieben von Ismail Eruysaliz | 28 Mai 2024

In der heutigen digitalen Ära nutzen viele Menschen persönliche KI-Assistenten, um ihre täglichen Aufgaben zu vereinfachen, kreative Ideen zu erhalten oder auf Informationen zuzugreifen.

Wenn Sie Daten haben, die nicht öffentlich im Internet verfügbar sind, können Sie Ihren persönlichen KI-Assistenten nicht danach fragen, ohne den Kontext im Prompt bereitzustellen. Dies ist jedoch auch nicht möglich, wenn Sie große Datenmengen haben, da die Kontextgröße von LLMs begrenzt ist.

Um diese Herausforderung zu bewältigen, zeigen wir Ihnen, wie Sie einen einfachen persönlichen KI-Assistenten mit einem Retrieval-Augmented-Generation (RAG) System mithilfe von LlamaIndex erstellen können, das die leistungsstarken Fähigkeiten von LLMs mit Ihren privaten Daten kombiniert.

Die Anwendung nutzt verschiedene Azure AI-Komponenten, um das LLM zu betreiben und die Datenabrufung zu verwalten.

Dieser Artikel hilft Ihnen, die folgenden Punkte zu verstehen und umzusetzen:

  1. Konfiguration und Initialisierung: Einrichten von API-Schlüsseln, Endpunkten und Versionen für Azure OpenAI und Azure Search.
  2. Initialisierung von Azure AI-Komponenten: Initialisierung des Sprachmodells und des Einbettungsmodells mit AzureOpenAI.
  3. Einrichtung des Azure Search Vector Store: Initialisierung eines Clients zur Interaktion mit dem Azure AI Search Index und Einrichtung des Vektor-Speichers.
  4. Datenladen und -indizierung: Erstellen einer Funktion zum Laden und Indizieren von Daten aus einem angegebenen Verzeichnis.
  5. Einrichten der Chat-Engine: Aufbau einer Chat-Engine aus den indizierten Daten und Aktivieren verschiedener Chat-Modi für die Benutzerinteraktion.

Wichtige Azure-Komponenten, die in dieser Anwendung verwendet werden:

  • Azure OpenAI: Wird für das Sprachmodell genutzt.
  • Azure Search: Wird für die Datenindizierung und -abrufung verwendet.
  • Azure AI Services: Für Texteinbettungen und verwandte Operationen.