Skip to main content
Die deutsche Sprachversion wurde als Serviceleistung für Sie durch maschinelle Übersetzung erstellt. Bei eventuellen Unstimmigkeiten hat die englische Sprachversion Vorrang.

Implementierung der GenAI-Infrastruktur

Beitragende netapp-mwallis

Sie müssen die GenAI-Infrastruktur für RAG Framework in Ihrer Umgebung implementieren, bevor Sie FSX für ONTAP-Wissensdatenbanken, -Konnektoren und -Applikationen für Ihr Unternehmen entwickeln können. Die primären Infrastrukturkomponenten sind der Amazon Bedrock Service, eine Virtual Machine-Instanz für die NetApp GenAI Engine und ein FSX für ONTAP Filesystem.

Die implementierte Infrastruktur kann mehrere Wissensdatenbanken, Chatbots und Konnektoren unterstützen, sodass Sie diese Aufgabe in der Regel nur einmal durchführen müssen.

Detaillierte Informationen zur Infrastruktur

Ihre GenAI-Implementierung muss sich in einer AWS-Region mit aktiviertem Amazon Bedrock befinden. "Zeigen Sie die Liste der unterstützten Regionen an"

Die Infrastruktur besteht aus folgenden Komponenten:

Amazon Bedrock Service

Amazon Bedrock ist ein vollständig gemanagter Service, mit dem Sie über eine einzige API Foundation Models (FMS) führender KI-Unternehmen verwenden können. Außerdem bietet sie die Funktionen, die Sie zum Erstellen sicherer generativer KI-Applikationen benötigen.

Amazon Q Business

Amazon Q baut auf Amazon Bedrock auf, um einen vollständig gemanagten generativen KI-Assistenten bereitzustellen, mit dem Sie Fragen beantworten und Inhalte basierend auf Informationen aus Ihren Datenquellen generieren können.

Virtual Machine für die NetApp GenAI Engine

Dabei wird die NetApp GenAI Engine implementiert. Es bietet die Verarbeitungsleistung, um die Daten aus Ihren Datenquellen aufzunehmen und diese dann in die Vektordatenbank zu schreiben.

FSX für ONTAP-Dateisystem

Das Filesystem FSX für ONTAP bietet den Storage für Ihr GenAI-System.

Es wird ein einzelnes Volume bereitgestellt, das die Vektordatenbank enthält, in der die Daten gespeichert werden, die vom Basismodell basierend auf Ihren Datenquellen generiert wurden.

Die Datenquellen, die Sie in Ihre Wissensdatenbank integrieren, können sich auf demselben FSX für ONTAP-Dateisystem oder auf einem anderen System befinden.

Die NetApp GenAI Engine überwacht beide Volumes und interagiert mit ihnen.

Die folgende Abbildung zeigt die GenAI-Infrastruktur. Die Komponenten mit den Nummern 1, 2 und 3 werden während dieses Verfahrens eingesetzt. Die anderen Elemente müssen vorhanden sein, bevor mit der Bereitstellung begonnen werden kann.

Ein Diagramm der GenAI-Infrastrukturkomponenten

Implementierung der GenAI-Infrastruktur

Geben Sie Ihre AWS-Zugangsdaten ein und wählen Sie das Filesystem FSX für ONTAP aus, um die Infrastruktur zur Retrieval-Augmented Generation (RAG) implementieren zu können.

Bevor Sie beginnen

Stellen Sie sicher, dass Ihre Umgebung die Anforderungen für Wissensdatenbanken oder Konnektoren erfüllt, je nachdem, welche Sie wählen, bevor Sie mit diesem Verfahren beginnen.

Schritte
  1. Melden Sie sich bei Workload Factory mit einem der "Konsolenerfahrungen"an.

  2. Wählen Sie in der Kachel AI-Workloads Deploy & manage aus.

  3. Sehen Sie sich das Infrastrukturdiagramm an und wählen Sie Weiter.

  4. Füllen Sie die Einträge im Abschnitt AWS-Einstellungen aus:

    1. AWS-Anmeldeinformationen: Wählen Sie die AWS-Anmeldeinformationen aus oder fügen Sie diese hinzu, um die AWS-Ressourcen bereitzustellen.

    2. Standort: Wählen Sie eine AWS-Region, VPC und Subnetz.

      Die Implementierung von GenAI muss sich in einer AWS Region befinden, für die Amazon Bedrock aktiviert ist. "Zeigen Sie die Liste der unterstützten Regionen an"

  5. Füllen Sie die Einträge im Abschnitt Infrastruktureinstellungen aus:

    1. Tags: Geben Sie alle Tag-Schlüssel/Wert-Paare ein, die Sie auf alle AWS-Ressourcen anwenden möchten, die Teil dieser Bereitstellung sind. Diese Tags werden in der AWS Management Console und im Infrastrukturinformationsbereich innerhalb der Workload Factory angezeigt und können Ihnen dabei helfen, die Betriebsressourcen der Workloads im Auge zu behalten.

  6. Füllen Sie den Abschnitt Konnektivität aus:

    1. Schlüsselpaar: Wählen Sie ein Schlüsselpaar aus, mit dem Sie eine sichere Verbindung zur NetApp GenAI Engine-Instanz herstellen können.

  7. Füllen Sie den Abschnitt AI Engine aus:

    1. Instanzname: Wählen Sie optional Instanzname definieren und geben Sie einen benutzerdefinierten Namen für die AI-Engine-Instanz ein. Der Instanzname wird in der AWS-Verwaltungskonsole und im Infrastrukturinformationsbereich in der Workload-Fabrik angezeigt. Er kann Ihnen dabei helfen, die Werkseinstellungen für Workloads zu verfolgen.

  8. Wählen Sie Deploy, um die Bereitstellung zu starten.

    Hinweis Wenn die Bereitstellung mit einem Fehler bei den Anmeldeinformationen fehlschlägt, erhalten Sie weitere Fehlerdetails, indem Sie die Hyperlinks in der Fehlermeldung auswählen. Sie sehen eine Liste mit fehlenden oder blockierten Berechtigungen sowie eine Liste mit Berechtigungen, die der GenAI-Workload benötigt, um die GenAI-Infrastruktur bereitstellen zu können.
Ergebnis

Workload Factory beginnt mit der Bereitstellung der Chatbot-Infrastruktur. Dieser Vorgang kann bis zu 10 Minuten dauern.

Während des Bereitstellungsprozesses werden die folgenden Elemente eingerichtet:

  • Das Netzwerk wird zusammen mit den privaten Endpunkten eingerichtet.

  • Die IAM-Rolle, das Instanzprofil und die Sicherheitsgruppe werden erstellt.

  • Die Virtual Machine-Instanz für die GenAI-Engine wird bereitgestellt.

  • Amazon Bedrock ist so konfiguriert, dass Protokolle an Amazon CloudWatch Logs gesendet werden, wobei eine Protokollgruppe mit dem Präfix verwendet `/aws/bedrock/`wird.

  • Die GenAI-Engine ist so konfiguriert, dass sie Protokolle an Amazon CloudWatch-Protokolle sendet, wobei eine Protokollgruppe mit dem Namen verwendet /netapp/wlmai/<tenancyAccountId>/randomId`wird, wobei `<tenancyAccountID> dies der für den aktuellen Benutzer ist "BlueXP Konto-ID" .