推廣 AI 和 NetApp 價值
對泛用人工智慧( AI )的需求、正推動產業的顛覆、增強商業創造力和產品創新。
作者: Sathish Thyagarajan 、 NetApp
摘要
許多組織都在使用泛型 AI 來建置新產品功能、改善工程生產力、並以 AI 驅動的應用程式為原型、以提供更好的結果和消費者體驗。泛用 AI (例如推廣學前訓練的 Transformer ( GPT ))使用神經網路來建立新內容、例如文字、音訊和視訊等。鑑於大型語言模型( LDM )涉及極大規模的資料集、因此架構強大的 AI 基礎架構至關重要、因為它充分利用內部部署、混合式和多雲端部署選項的強大資料儲存功能、並降低與資料移動性相關的風險、 資料保護與治理、讓公司能夠先設計 AI 解決方案。本白皮書說明這些考量事項及對應的 NetApp ® AI 功能、可在 AI 資料傳輸管道中順暢地進行資料管理及資料移動、以進行訓練、再訓練、微調及推斷一般 AI 模型。
執行摘要
最近在 2022 年 11 月 GPT-3 推出的 ChatGPT 之後、針對使用者提示而產生文字、程式碼、影像、甚至是治療性蛋白質的新 AI 工具已獲得顯著的名聲。這表示使用者可以使用自然語言提出要求、 AI 將會解譯並產生文字、例如新聞文章或產品說明、這些文章或產品說明會反映使用者的要求、或是使用已訓練的現有資料演算法來產生程式碼、音樂、語音、視覺效果和 3D 資產。因此、在 AI 系統的設計中、像是穩定擴散、幻覺、快速工程和價值調整等詞句、都在迅速出現。這些自我監督或半監督的機器學習( ML )模式正透過雲端服務供應商和其他 AI 公司廠商、廣泛以預先訓練的基礎模式( FM )提供使用、這些模式正被各行各業的各種商業機構採用、用於各種下游的 NLP (自然語言處理)工作。如 McKinsey 等研究分析公司所宣稱:「通用 AI 對生產力的影響、可能會為全球經濟帶來數兆美元的價值。」 雖然公司正在重新想像 AI 是人類的思想合作夥伴、而 FMS 也在同時拓展業務和機構對於泛型 AI 的能力、但管理大量資料的機會仍會持續成長。本文件提供有關泛用 AI 的簡介資訊、以及與 NetApp 功能相關的設計概念、這些功能可為 NetApp 客戶帶來內部部署和混合式或多雲端環境的價值。
因此、客戶在 AI 環境中使用 NetApp 的 IT 環境有哪些? * NetApp 協助企業組織因快速資料與雲端成長、多雲端管理、以及採用新一代技術(例如 AI )而產生複雜度。NetApp 將各種功能整合到智慧型資料管理軟體和儲存基礎架構中、這些功能與針對 AI 工作負載最佳化的高效能相平衡。LMS 等泛型 AI 解決方案需要多次從儲存設備讀取及處理來源資料集、以加強智慧。NetApp 在邊緣對核心對雲端生態系統的資料移動性、資料治理和資料安全技術方面、一直是領導者、為企業客戶建置大規模 AI 解決方案提供服務。NetApp 擁有強大的合作夥伴網路、協助資料長、 AI 工程師、企業架構設計師和資料科學家設計可自由流動的資料傳輸管道、以供資料準備、資料保護、 以及 AI 模型訓練與推斷的策略性資料管理責任、將 AI/ML 生命週期的效能與擴充性最佳化。NetApp 資料技術與功能、例如用於深度學習資料傳輸管道的 NetApp ® ONTAP AI ® 、用於在儲存端點之間無縫且有效率地傳輸資料的 NetApp ® SnapMirror ® 、 NetApp ® FlexCache ® 可在資料流從批次移轉至即時時即時呈現、而資料工程則會在迅速完成時進行、為部署即時通用 AI 模型帶來價值。隨著各種類型的企業紛紛採用新的 AI 工具、他們將面臨資料挑戰、從邊緣到資料中心、再到需要可擴充、負責且可解釋的 AI 解決方案的雲端。身為混合雲和多雲端的資料管理機構、 NetApp 致力於打造合作夥伴和聯合解決方案網路、協助建構資料管線和資料湖的所有層面、以便進行泛用 AI 模型訓練(訓練前)、微調、情境式推斷和模式衰退監控 LLM 。
什麼是泛型 AI ?
泛用 AI 正在改變我們建立內容的方式、產生新的設計概念、以及探索新穎的組合。它說明了神經網路架構、像是泛型對抗網路( GAN )、變型自動編碼器( VAE )、以及泛型預訓練的變形器( GPT )、這些架構可產生新的內容、例如文字、程式碼、影像、音訊、視訊、 和綜合資料。OpenAI 的 Chat-GPT 、 Google 的 Bard 、擁抱桿面布盧姆和 Meta 的 llama 等以變壓器為基礎的模型、已成為大型語言模型許多進步的基礎技術。同樣地、 OpenAI 的 Dall-E 、 Meta 的 CM3leon 和 Google 的 Imagen 都是文字對影像擴散模型的範例、為客戶提供前所未有的寫實度、可從頭建立新的複雜影像、或是編輯現有影像、以使用資料集擴充和文字對影像合成、連結文字和視覺義學、產生高品質的內容感知影像。數位藝術家開始結合使用 nerf (神經放射照野)等描繪技術與泛變 AI 、將靜態 2D 影像轉換成身歷其境的 3D 場景。一般而言、 LMS 有四個參數:( 1 )模型大小(通常以十億個參數為單位);( 2 )訓練資料集的大小;( 3 )訓練成本;( 4 )訓練後的示範效能。LMS 也主要屬於三種變壓器架構。( i )僅編碼器機型。例如 Bert ( Google 、 2018 );( ii )編碼解碼器、例如 BART ( Meta 、 2020 )和( iii )純解碼器機型。例如: llama ( Meta 、 2023 )、 Palm-E ( Google 、 2023 )。根據業務需求、無論公司選擇的架構為何、訓練資料集中的模型參數( N )數量和權杖( D )數量、通常都會決定訓練(訓練前)或微調 LLM 的基礎成本。
企業使用案例和下游 NLP 工作
各行各業的企業都發現、 AI 從現有資料中擷取並產生新形式的價值、以用於商業營運、銷售、行銷和法律服務。根據 IDC ( International Data Corporation )關於全球通用 AI 使用案例和投資的市場情報、軟體開發和產品設計的知識管理將受到最大的影響、其次是建立行銷腳本和開發人員程式碼。在醫療領域、臨床研究組織正在開創新的醫療領域。經過預先訓練的模式、例如 ProteinBERT 、將基因學( GO )標註納入醫療藥物的蛋白質結構快速設計、這是藥物探索、生物資訊學和分子生物學的重大里程碑。Biotech 公司已開始進行人工智慧型發現醫學的人類試驗、其目的是治療肺部纖維化( IPF )等疾病、這種肺部疾病會造成無法還原的肺部組織創傷。
圖 1 :使用案例來推動泛用 AI
由泛用 AI 帶動的自動化採用率增加、也改變了許多職業的工作活動供應與需求。根據 McKinsey 的資料、美國勞動力市場(下圖)經歷了快速的轉型、只有在考量 AI 的影響時、才能持續轉型。
資料來源: McKinsey & Company
儲存在泛用 AI 中的角色
LMS 主要仰賴深度學習、 GPU 和運算。不過、 GPU 緩衝區填滿時、資料必須快速寫入儲存設備。雖然某些 AI 機型的規模足夠小、足以在記憶體中執行、但 LMS 需要高 IOPS 和高處理量儲存設備、才能快速存取大型資料集、尤其是當它涉及數十億個權杖或數百萬個影像時。對於 LLM 的一般 GPU 記憶體需求、以 10 億個參數訓練模型所需的記憶體、最高可達 80 GB @32 位元的完整精確度。在這種情況下、 Meta ’ s llama 2 是規模從 70 億到 700 億參數不等的 LMS 系列、可能需要 70x80 、約5600 GB 或 5.6TB 的 GPU RAM 。此外、您所需的記憶體容量與您想要產生的最大權杖數量直接成比例。例如、如果您想要產生最多 512 個權杖(約 380 個字)的輸出、則需要 "512MB"。這似乎並不重要、但如果您想要執行較大的批次、就會開始增加。因此、組織在記憶體中訓練或微調 LMS 的成本非常昂貴、因此儲存設備成為泛用 AI 的基石。
三種主要的 LRAM 方法
對於大多數企業而言、根據目前的趨勢、部署 LDM 的方法可以精簡為 3 個基本案例。如最近所述 "《哈佛商業評論》" 文章:( 1 )從頭開始訓練(課前訓練) LLM –成本高昂、需要專業的 AI/ML 技能;( 2 )使用企業資料微調基礎模型–複雜但可行;( 3 )使用擷取擴充產生( RAG )來查詢包含公司資料的文件儲存庫、 API 和向量資料庫。每個解決方案都會在其實作中的工作、迭代速度、成本效益和模型準確度之間取得平衡、用於解決不同類型的問題(下圖)。
圖 3 :問題類型
基礎模式
基礎模型( FM )也稱為基礎模型、是一種大型 AI 模型( LLM )、針對大量未經標記的資料進行訓練、大規模使用自我監督、通常適用於各種下游 NLP 工作。由於訓練資料並未由人類標示、因此模型會出現、而非明確編碼。這表示模型可以產生自己的故事或敘述、而無需明確設定。因此 FM 的重要特徵是同質化、這表示許多網域都使用相同的方法。不過、透過個人化和微調技術、 FMS 整合到現在出現的產品中、不僅能產生文字、文字對影像和文字對程式碼、也能說明網域特定的工作或偵錯程式碼。例如、像 OpenAI 的 Codex 或 Meta 的 Code Llama 等 FMS 、可根據程式設計工作的自然語言說明、以多種程式設計語言產生程式碼。這些模型精通十多種程式設計語言、包括 Python 、 C# 、 JavaScript 、 Perl 、 Ruby 、 和 SQL 。他們瞭解使用者的意圖、並產生特定的程式碼、以完成所需的工作、對軟體開發、程式碼最佳化及程式設計工作自動化非常有用。
微調、網域特性和重新訓練
在資料準備和資料預先處理之後、 LLM 部署的常見做法之一是選擇經過預先訓練的模型、該模型已在大型且多元化的資料集上接受訓練。在微調的情況下、這可以是開放原始碼的大型語言模型、例如 "中繼的 Llama 2." 針對 700 億個參數和 2 兆個記號進行訓練。選擇預先訓練的模型後、下一步是針對特定網域的資料進行微調。這包括調整模型的參數、並訓練其新資料、以因應特定的網域和工作。例如、 BloombergGPT 是專屬 LLM 、專門針對金融業的各種財務資料進行訓練。專為特定工作所設計和訓練的網域特定模型、通常在其範圍內具有較高的準確度和效能、但在其他工作或網域之間的傳輸能力較低。當業務環境和資料在一段時間內變更時、相較於測試期間的效能、 FM 的預測準確度可能會開始下降。這是重新訓練或微調模型的關鍵所在。傳統 AI / ML 的模型重新訓練是指使用新資料更新已部署的 ML 模型、通常是為了消除發生的兩種類型的資料外包。( 1 )概念漂移–當輸入變數與目標變數之間的連結隨著時間而改變時、由於我們要預測變更的內容說明、因此模型可能會產生不正確的預測。( 2 )資料漂移:當輸入資料的特性發生變化時、例如隨著時間而改變客戶習慣或行為、因此模型無法回應此類變更。同樣地、重新訓練也適用於 FMS/LLMs 、不過可能會花費大量成本(以百萬美元計)、因此大多數組織可能不會考慮這樣做。它正在積極研究中、仍在 LLMOps 領域中出現。因此、當精細調校的 FMS 發生模式衰退時、企業可能會選擇使用較新的資料集再次微調(較便宜)、而非重新訓練。從成本觀點來看、以下是 Azure OpenAI Services 的模型價格表範例。對於每個工作類別、客戶可以微調和評估特定資料集上的模型。
資料來源: Microsoft Azure
迅速進行工程與推斷
「提示工程」是指如何與 LLM 通訊、以執行所需工作而不更新模型權重的有效方法。如同 AI 模型訓練和微調對 NLP 應用程式一樣重要、推斷也同樣重要、訓練模型會回應使用者提示。推斷的系統需求通常更多地說明 AI 儲存系統的讀取效能、因為 AI 儲存系統需要套用數十億個儲存的模型參數、才能產生最佳回應、因此會將資料從 LMS 饋送至 GPU 。
LLMOps 、 Model Monitoring 和 VectorStores
與傳統機器學習作業( MLOps )一樣、大型語言模型作業( LLLMOps )也需要資料科學家和 DevOps 工程師合作、提供工具和最佳實務、以便在正式作業環境中管理 LMS 。然而、 LLM 的工作流程和技術堆疊在某些方面可能會有所不同。例如、 LLM 管線是使用 LangChain 字串等架構建置、將多個 LLM API 呼叫結合到外部嵌入端點、例如 vectorStores 或向量資料庫。使用嵌入式端點和 Vectorstore 作為下游連接器(例如向量資料庫)、代表資料儲存和存取方式的重大發展。相較於從頭開始開發的傳統 ML 模型、 LMS 通常仰賴傳輸學習、因為這些模型是從 FMS 開始、而 FMS 則是以新資料進行微調、以改善更特定領域的效能。因此、 LLMOps 提供風險管理和模式衰退監控的功能至關重要。
泛用 AI 時代的風險與道德規範
「 ChatGPT –它很流暢、但仍是一大堆廢話。」– MIT 技術評論。垃圾回收、總是運算上的難題。與泛用 AI 的唯一差異在於、它在讓垃圾變得高度可信、導致結果不準確方面表現優異。LMS 很容易發明事實、以符合其建置的敘述。因此、將泛用 AI 視為降低成本的大好機會的公司、必須有效偵測深層假貨、減少偏見、降低風險、以保持系統誠實且合乎道德。具備強大 AI 基礎架構的自由流動資料傳輸管道、可透過端對端加密支援資料移動性、資料品質、資料治理和資料保護、而 AI guardrails 則在設計負責任且可解釋的 AI 模型時表現出色。
客戶案例和 NetApp
圖 3 :機器學習 / 大型語言模型工作流程
-
我們是否接受訓練或微調? * 是否( a )從頭開始訓練 LLM 模型、微調預先訓練的 FM 、或使用 RAG 從基礎模型以外的文件儲存庫擷取資料、並加強提示、 以及( b )利用開放原始碼 LMS (例如 Llama 2 )或專屬 FMS (例如 ChatGPT 、 Bard 、 AWS bedrock )、都是組織的策略決策。每種方法都會在成本效益、資料嚴重性、營運、模型準確度和 LLMS 管理之間取得平衡。
NetApp 身為一家公司、在其工作文化中、以及在產品設計和工程工作的方法中、均採用 AI 。例如、 NetApp 的自動勒索軟體保護是使用 AI 和機器學習技術來建置。它能及早偵測檔案系統異常狀況、協助在威脅影響作業之前先識別威脅。其次、 NetApp 使用預測性 AI 進行業務營運、例如銷售和庫存預測及聊天機器人程式、協助客戶取得客服中心產品支援服務、技術規格、保固、服務手冊等。第三、 NetApp 透過產品與解決方案為客戶打造預測性 AI 解決方案、例如需求預測、醫療影像、情緒分析、 此外、 Gans 等泛用 AI 解決方案可在製造業界偵測工業影像異常狀況、以及利用 NetApp ® ONTAP AI ® 、 NetApp ® SnapMirror ® 和 NetApp ® FlexCache ® 等 NetApp 產品與功能、在銀行與金融服務中進行反洗錢和詐騙偵測。
NetApp 功能
在一般 AI 應用程式(例如 chatbot 、程式碼產生、影像產生或基因組模型表達式)中、資料的移動和管理可跨越邊緣、私有資料中心和混合式多雲端生態系統。例如、透過預先訓練模型(例如 ChatGPT )的 API 、協助乘客從終端使用者應用程式將機票升級至商務艙的即時 AI 機器人、無法自行完成這項工作、因為無法在網際網路上公開乘客資訊。API 需要從航空公司取得乘客的個人資訊和機票資訊、這些資訊可能存在於混合式或多雲端生態系統中。類似的案例可能適用於透過終端使用者應用程式分享藥物分子和病患資料的科學家、該應用程式使用 LMS 在涉及一對多生物醫療研究機構的藥物探索中完成臨床試驗。傳遞給 FMS 或 LRAM 的敏感資料可能包括 PII 、財務資訊、健全狀況資訊、生物特徵資料、位置資料、 通訊資料、線上行為和法律資訊。在即時呈現、快速執行和邊緣推斷的情況下、資料會透過開放原始碼或專屬 LLM 模式、從終端使用者應用程式移至儲存端點、移至內部部署或公有雲平台上的資料中心。在所有這類案例中、資料移動性和資料保護對於仰賴大型訓練資料集和移動此類資料的 LLMS 所涉及的 AI 作業而言、是至關重要的。
圖 4 :泛用 AI - LLM 資料管道
NetApp 的儲存基礎架構、資料和雲端服務產品組合均採用智慧型資料管理軟體。
-
資料準備 * : LLM 技術堆疊的第一個支柱基本上未受舊版傳統 ML 堆疊的影響。在訓練或微調之前、必須先在 AI 管道中預先處理資料、才能將資料標準化及清除。此步驟包括以 Amazon S3 層或內部部署儲存系統(例如檔案存放區或 NetApp StorageGRID 等物件存放區)形式、在任何位置擷取資料的連接器。
-
NetApp ® ONTAP * 是一項基礎技術、是 NetApp 在資料中心和雲端的關鍵儲存解決方案的基礎。ONTAP 包含各種資料管理與保護功能、包括自動勒索軟體防護、防範網路攻擊、內建資料傳輸功能、以及儲存效率功能、適用於各種架構、從內部部署、混合式、 NAS 、 SAN 、物件、 以及 LLM 部署的軟體定義儲存( SDS )情況。
-
NetApp ® ONTAP AI ® * 提供深度學習模式訓練。NetApp ® ONTAP ® 支援 NVIDIA GPU Direct Storage ™、並使用 NFS over RDMA 、為具有 ONTAP 儲存叢集和 NVIDIA DGX 運算節點的 NetApp 客戶提供支援。它提供極具成本效益的效能、可從儲存設備讀取及處理大量來源資料集至記憶體、藉此強化智慧功能、讓組織能夠接受訓練、微調及擴充對 LMS 的存取。
-
NetApp ® FlexCache ® * 是一種遠端快取功能、可簡化檔案發佈、並僅快取主動讀取的資料。這對於 LLM 訓練、重新訓練和微調都很有用、可為具有即時呈現和 LLM 推斷等業務需求的客戶帶來價值。
-
NetApp ® SnapMirror* 是一項 ONTAP 功能、可在任何兩個 ONTAP 系統之間複寫磁碟區快照。此功能可將邊緣的資料最佳傳輸至內部部署資料中心或雲端。當客戶想要在雲端中開發包含企業資料的磁碟機時、 SnapMirror 可用於在內部部署和超大規模雲端之間安全且有效率地移動資料。它只能有效傳輸變更、節省頻寬並加速複寫、因此在 FMS 或 LMS 的訓練、重新訓練和微調作業期間、能提供必要的資料移動功能。
-
NetApp ® SnapLock * 可在 ONTAP 型儲存系統上提供不變的磁碟功能、以供資料集版本管理。微核心架構是專為使用 FPolicy ™ Zero Trust 引擎保護客戶資料而設計。當攻擊者以特別耗用資源的方式與 LLM 互動時、 NetApp 可抵抗拒絕服務( DoS )攻擊、確保客戶資料可用。
-
NetApp ® Cloud Data Sense * 可協助識別、對應及分類企業資料集中的個人資訊、制定原則、滿足內部部署或雲端的隱私權要求、協助改善安全狀態並遵守法規。
-
NetApp ® BlueXP ™ * 分類、採用 Cloud Data Sense 技術。客戶可以自動掃描、分析、分類資料、並對資料進行行動、偵測安全風險、最佳化儲存設備、並加速雲端部署。它透過統一化的控制平台結合儲存與資料服務、客戶可以使用 GPU 執行個體來進行運算、並將混合式多雲端環境用於冷儲存分層、以及歸檔與備份。
-
NetApp 檔案物件雙重性 * 。NetApp ONTAP 可為 NFS 和 S3 啟用雙傳輸協定存取。有了這個解決方案、客戶就能透過 NetApp Cloud Volumes ONTAP 的 S3 儲存區、從 Amazon AWS SageMaker 筆記型電腦存取 NFS 資料。這可為需要輕鬆存取異質資料來源的客戶提供靈活彈性、並能從 NFS 和 S3 共用資料。 例如、在 SageMaker 上微調 FMS 、例如 Meta 的 Llama 2 文字產生模型、可存取檔案物件儲存區。
-
NetApp ® Cloud Sync * 服務提供簡單且安全的方法、可將資料移轉至雲端或內部部署的任何目標。Cloud Sync 可在內部部署或雲端儲存設備、 NAS 和物件存放區之間順暢地傳輸和同步資料。
-
NetApp XCP* 是一種用戶端軟體、可快速且可靠地進行任何對 NetApp 和 NetApp 對 NetApp 的資料移轉。XCP 也能將大量資料從 Hadoop HDFS 檔案系統有效移至 ONTAP NFS 、 S3 或 StorageGRID 及 XCP 檔案分析、提供檔案系統的可見度。
-
NetApp ® DataOps Toolkit* 是一種 Python 程式庫、可讓資料科學家、 DevOps 和資料工程師輕鬆執行各種資料管理工作、例如近乎即時的資源配置、複製或快照資料 Volume 或 JupyterLab 工作區、並以高效能橫向擴充 NetApp 儲存設備作為後盾。
-
NetApp 的產品安全 * 。LMS 可能會在回應中不慎洩漏機密資料、因此對 CISO 表示疑慮、 CISO 會研究利用 LRAM 的 AI 應用程式相關弱點。如 OWAASP (開放全球應用程式安全專案)所述、資料中毒、資料外洩、 LMS 內的拒絕服務和即時注入等安全問題、可能會影響企業、使企業無法從資料外洩到未經授權的存取服務攻擊者。資料儲存需求應包括結構化、半結構化和非結構化資料的完整性檢查和不可變更的快照。NetApp 快照和 SnapLock 正用於資料集版本管理。它提供嚴格的角色型存取控制( RBAC )、以及安全的通訊協定、以及業界標準加密、可保護靜止和傳輸中的資料。Cloud Insights 和 Cloud Data Sense 共同提供各種功能、可協助您預先識別威脅的來源、並優先處理要還原的資料。
* ONTAP AI 搭配 DGX BasePOD *
NetApp ® ONTAP ® AI 參考架構搭配 NVIDIA DGX BasePOD 、是適用於機器學習( ML )和人工智慧( AI )工作負載的可擴充架構。對於 LMS 的關鍵訓練階段、資料通常會定期從資料儲存設備複製到訓練叢集。此階段使用的伺服器使用 GPU 來平行化運算、為資料帶來極大的需求。滿足原始 I/O 頻寬需求、對於維持高 GPU 使用率至關重要。
* 採用 NVIDIA AI Enterprise* 的 ONTAP AI
NVIDIA AI Enterprise是一套端點對端點、雲端原生的AI與資料分析軟體套件、經過NVIDIA最佳化、認證及支援、可在採用NVIDIA認證系統的VMware vSphere上執行。此軟體可在現代化的混合雲環境中、輕鬆快速地部署、管理及擴充AI工作負載。NVIDIA AI Enterprise採用NetApp與VMware技術、以簡化且熟悉的套件提供企業級AI工作負載與資料管理功能。
* 單一雲端平台 *
完全託管的雲端儲存方案可在 Microsoft Azure 上原生提供、例如 Azure NetApp Files ( anf )、 AWS 、 Amazon FSX for NetApp ONTAP ( FSX ONTAP )、以及 Google 雲端 NetApp Volumes ( GNCV )。1P 是一套託管的高效能檔案系統、可讓客戶在公有雲中執行高可用度的 AI 工作負載、並改善資料安全性、以微調 LM/FMS 搭配 AWS SageMaker 、 Azure OpenAI Services 和 Google 的 Vertex AI 等雲端原生 ML 平台。
NetApp 合作夥伴解決方案套件
除了核心資料產品、技術和功能之外、 NetApp 也與強大的 AI 合作夥伴網路密切合作、為客戶帶來更多附加價值。
-
AI 系統中的 NVIDIA guardrails * 可作為保障措施、確保以合乎道德且負責任的方式使用 AI 技術。AI 開發人員可以選擇針對特定主題定義 LLM 應用程式的行為、並防止他們參與討論不必要的主題。Guardrails 是開放原始碼工具組、可讓 LLM 與其他服務無縫且安全地連線、以建置值得信賴、安全且安全的 LLM 交談系統。
-
Domino Data Lab* 提供多元化的企業級工具、無論您在 AI 旅程中的任何地方、都能快速、安全且經濟地建置及製作通用 AI 。有了 Domino 的 Enterprise MLOps 平台、資料科學家就能使用偏好的工具及其所有資料、隨時隨地輕鬆訓練及部署模型、並從單一控制中心以具成本效益的方式管理風險。
-
適用於 Edge AI* 的 Modzy 。NetApp ® 與 Modzy 攜手合作、為任何類型的資料(包括影像、音訊、文字和表格)提供大規模的 AI 。Modzy 是用於部署、整合及執行 AI 模型的 MLOps 平台、為資料科學家提供模型監控、漂移偵測及可探索性的功能、並提供整合式解決方案、以實現無縫 LLM 推斷。
-
執行: AI* 與 NetApp 合作、以 Run:AI 叢集管理平台來示範 NetApp ONTAP AI 解決方案的獨特功能、以簡化 AI 工作負載的協調。它會自動分割並加入 GPU 資源、透過 Spark 、 Ray 、 dask 和 Rapids 的內建整合架構、將資料處理管線擴充至數百部機器。
結論
只有在模型接受品質資料的大量訓練時、泛用 AI 才能產生有效的結果。雖然 LMS 已達成卓越的里程碑、但必須瞭解其與資料移動性和資料品質相關的限制、設計挑戰和風險。LMS 仰賴來自異質資料來源的大型和獨立訓練資料集。模型產生的不正確結果或不公正結果、可能會使企業和消費者面臨危險。這些風險可能會對應資料品質、資料安全性和資料移動性等資料管理挑戰所帶來的潛在 LLM 限制。NetApp 可協助企業組織因資料快速成長、資料移動性、多雲端管理及採用 AI 所帶來的複雜性。大規模的 AI 基礎架構和高效率的資料管理對於定義 AI 應用程式(例如泛用 AI )的成功與否至關重要。關鍵客戶涵蓋所有的部署情境、而不影響企業在控制成本效益、資料治理和道德 AI 實務的同時、隨需擴充的能力。NetApp 持續協助客戶簡化及加速 AI 部署。