Skip to main content
日本語は機械翻訳による参考訳です。内容に矛盾や不一致があった場合には、英語の内容が優先されます。

生成AIナレッジベースのクイックスタート

共同作成者

Amazon FSx for NetApp ONTAPファイルシステムに存在する組織のデータを使用して、ナレッジベースまたはAmazon Q Business Connectorの作成を開始します。チャットボットなどのアプリケーションは、このナレッジベースまたはコネクタにアクセスして、組織に焦点を当てた応答をエンドユーザーに提供します。

1つワークロードファクトリへのログイン

のいずれかを使用してログインする "コンソールエクスペリエンス"必要があります "ワークロードファクトリでアカウントを設定する"

2つ生成AIの要件を満たす環境のセットアップ

AWSインフラの導入、導入および検出されたFSx for ONTAPファイルシステム、ナレッジベースまたはコネクタに統合するデータソースのリスト、Amazon Bedrock AIサービスまたはAmazon Q Businessアプリケーションへのアクセスなどには、AWSのクレデンシャルが必要です。

3つデータソースが格納されているFSx for ONTAPファイルシステムを特定する

ナレッジベースに統合するデータソースは、単一のFSx for ONTAPファイルシステムに配置することも、複数のFSx for ONTAPファイルシステムに配置することもできます。これらのシステムが異なるVPCにある場合は、同じネットワーク内でアクセス可能であるか、またはAIエンジンと同じリージョンとAWSアカウントを使用してVPC間でピア関係を確立しておく必要があります。

4つ生成AIインフラの導入

インフラ導入ウィザードを起動して、AWS環境に 生成AIインフラを導入します。このプロセスでは、NetApp生成AIエンジンのEC2インスタンスと、FSx for ONTAPファイルシステムにNetApp AIエンジンのデータベースを格納するボリュームを導入します。ボリュームは、ナレッジベースで使用されるベクターデータベースを格納するために使用されます。

次のステップ

ナレッジベースを構築して、組織に焦点を当てた回答をエンドユーザーに提供できるようになりました。