在過去幾個月裡,F5 對 AI 工廠進行了深入探討。在本系列文章的開始,我們將 AI 工廠定義為滿足大容量、高效能訓練和推理要求的大規模儲存、網路和運算投資。從根本上來說,AI 工廠就是人工智慧模型和服務的建立、改進和部署方式的類比。就像傳統製造工廠將材料轉化為成品一樣,AI 工廠建構 AI 應用程式。
在這篇文章中,我們將描述 AI 應用程式和現代應用程式之間的異同,強調交付和安全需求,並在F5 AI 參考架構的背景下討論這些現代 AI 應用程式。
現代應用程式的演變
現代應用程式在靈活性、可擴展性與用戶體驗需求的驅動下,經歷了重大的變革。雲端運算的興起標誌著這一演變的關鍵轉折點,為高度分散式系統奠定了基礎,使其能夠高效擴展並在多種環境中無縫運行。應用程式現代化則是向基於 API 的系統演進,進一步推動架構朝向混合雲與多雲模式發展。
AI 應用的發展進一步強化了對 API 的依賴,並確立了混合雲與多雲架構作為新常態。容器化技術透過提供一致且隔離的運行環境,無論底層基礎設施如何,都能確保應用程式的穩定部署。這些技術不僅對現代應用至關重要,更是 AI 工廠的核心支柱。雲端運算與容器化所帶來的靈活性,能有效應對 AI 模型在訓練與部署過程中的高強度運算需求。
為了在大規模環境中高效管理容器化應用程式,Kubernetes 等編排工具扮演關鍵角色。Kubernetes 可自動化應用程式的部署、擴展與管理,在 AI 工作流程中,則能協調 AI 工作負載在多個系統間的分配,確保資源利用最大化,並實現 AI 模型的無縫擴展。
透過從已驗證的安全和交付策略開始,團隊可以建立堅實的基礎並逐步應對人工智慧應用帶來的獨特挑戰。
此過程中的一個關鍵方面是 MLOps,它解決了開發、訓練和運營 AI 模型的獨特挑戰。MLOps 支援持續整合與交付(CI/CD),確保 AI 模型持續進行測試、更新和部署。此外,微服務架構的採用將單體系統分解為更小、可獨立部署的服務,從而改變了現代應用程式的開發方式。這種方法加速了 CI/CD,從而實現了更快且更可靠的軟體更新。
安全性一直是現代應用程式發展的基石。隨著複雜網路威脅的增長,現代應用程式已整合先進的安全措施,如 Web 應用程式防火牆(WAF)、分散式阻斷服務(DDoS)保護以及 API 安全。區分針對網路層和傳輸層的 3/4 層 DDoS 攻擊與針對應用層的 7 層 DoS 攻擊,至關重要。
隨著 AI 的進步,威脅模型也在不斷發展,尤其是透過自然語言處理 (NLP) 介面存取的大型語言模型 (LLM)。 LLM 面臨的風險包括 OWASP Top 10 中所強調的針對 LLM 應用程式的漏洞,例如提示注入攻擊和資料提取威脅,以及針對特定模型的 DoS 攻擊。這些安全進步確保 AI 應用程式保持彈性和安全性,並抵禦不斷演變的威脅,維護 AI 驅動解決方案的完整性和可靠性。
F5 AI 參考架構
如果您一直在關注我們的 AI 工廠系列文章,您就會知道我們探討過API 安全、網路分段、流量管理、檢索增強生成 (RAG)和資料處理單元 (DPU)等主題。讓我們退一步來討論一下 AI 工廠如何融入 F5 AI 參考架構,AI 工廠如何生產 AI 應用程式,以及交付和保護它們的要求。

F5 憑藉近三十年幫助客戶提供高效能應用程式的經驗,開發了 AI 參考架構,其中包括七個構建區塊(推理、RAG、RAG 語料庫管理、微調、訓練、外部服務整合和開發)和四種部署類型(AI-SaaS、雲端託管、自託管和邊緣託管)。有關這些內容的更多訊息,請造訪我們的部落格“定義 AI 工廠”。由於 AI 應用程式是現代應用程式中最先進的,透過 API 連接並且高度分佈,因此該參考架構解決了交付人 AI 應用程式所必需的效能、運營和安全挑戰。
AI 工廠最常見的兩個基石是訓練和推理;然而,要建立一個功能完整的 AI 應用程式,每個構建區塊都是必需的。一些組織可能會建立一個 AI 工廠來處理訓練或推理所需的功能。其他人可能依賴第三方來使用模型訓練服務或提供推理基礎設施。
核心的 AI 應用程式是分散式的,可能運行在分散式 Kubernetes 容器平台上。這正是應用程式的真正定義,也是我們所說的「AI 應用程式只是現代應用程式中最現代的」的由來。但這對於建造 AI 工廠的企業意味著什麼? AI 應用程式需要與當今的現代應用程式相同的交付和安全服務,例如 Kubernetes 入口、多租戶出口、基於 DNS 的流量管理、彈性和可觀察性。安全性方面,需要DDoS防護、Web 應用程式和 API 防護、以及最佳化技術。
雖然我們關注 AI 和現代應用程式所共有的交付和安全特性,而不是僅僅關注 AI 特有的安全問題,這可能看起來令人驚訝,但這種方法是有意為之。AI 應用確實帶來了獨特的風險,但人們往往忽略應用程式安全和交付的基礎知識,而青睞新的創新功能。透過先解決共享安全和交付需求(我們稱之為唾手可得的成果),組織可以利用其在應用程式安全方面的現有專業知識立即做出改進。儘管 AI 應用可能涉及新元件,但它們仍然嚴重依賴 Web 和 API 交互,這完全在當前 NetOps 和 SecOps 團隊的能力範圍內。透過從經過驗證的安全和交付策略開始,團隊可以建立堅實的基礎並逐步應對 AI 應用帶來的獨特挑戰。
F5 AI 參考架構不僅強調了 AI 工廠的產出,也強調了使 AI 應用成功實現組織的業務目標所面臨的挑戰和風險。為此,我們決定使用一對互補的風險和挑戰前 10 名清單:LLM 應用程式的 OWASP 前 10 名和F5 應用程式交付前 10 名。我們已經映射了每個元件和構建塊的互連,並概述了適用的 OWASP LLM Top 10 和 F5 應用交付 Top 10 的應用範圍。在以下案例中,請參閱 AI 推理的範例。

AI 應用程式中的每個元件和互連點都受益於為現代應用程式設計的完善的交付和安全保護。這並不是說這些傳統的保護措施足以保護 AI 應用的安全。透過利用這些經過驗證的交付和安全解決方案作為基礎,組織可以顯著增強其 AI 應用程式的交付和安全態勢。從這個堅實的起點出發,團隊可以逐步開發專業技能並採用必要的先進工具來應對 AI 應用帶來的獨特挑戰和風險。
目前,F5 AI 參考架構可作為預覽版使用。從下個月底開始,客戶將有機會在F5 首屈一指的應用程式安全和交付會議AppWorld上以互動體驗的方式探索完整的 AI 參考架構。
F5 支援 AI 工廠與現代應用程式
F5 是應用程式交付和安全領域的領導者。F5 BIG-IP等解決方案提供基本服務,包括負載平衡、流量管理和安全性。這些在傳統應用程式中常見的功能對於 AI 應用程式提供最高水準的可靠性、效能和保護同樣重要。
對於建造 AI 工廠的企業來說,你所依賴的F5在應用交付和安全方面的能力正是 AI 工廠所需的能力。F5 BIG-IP 本機流量管理器與 F5 rSeries和VELOS專用硬體結合,可實現用於訓練和微調的高效能資料攝取,並保護 AI 應用程式免受最嚴苛的安全威脅。F5 分散式雲端服務支援安全的多雲網路和 Web 應用程式及 API 保護。此外,最近宣布,部署在 NVIDIA BlueField-3 DPU 上的 F5 BIG-IP Next for Kubernetes將大規模 AI 基礎架構的流量管理和安全性從 CPU 轉移到 DPU,從而為 AI 應用程式帶來更高的效率、控制力和效能。
想了解有關 F5 如何保護和擴展 AI 工廠的更多資訊,歡迎聯繫您的 F5 團隊。並探索F5 如何隨時隨地保護和交付 AI 應用程式。
文章來源:F5