
谷歌雲推出了 Model Armor 的 公開預覽版,這是一個整合到 Apigee API 管理平臺的原生大語言模型(LLM)治理框架。一篇社群帖子中詳細介 紹了 Model Armor,它引入了針對 LLM 特定策略的即開即用執行,例如提示驗證、輸出過濾和 API 層的 token 級控制。
Model Armor 直接在 Apigee 的代理層執行,在那裡它使用宣告性策略檢查請求和響應。它適用於所有 Apigee 層,允許團隊無論他們的訂閱級別如何,都能採用 LLM 治理。LLM API 實現了強大的新客戶體驗和自動化,但也引入了風險,例如提示注入(LLM 的一個 重要 OWASP 前 10 風險)攻擊和敏感資料的暴露。
這些策略可以檢測到越獄嘗試、提示注入和個人身份資訊(PII)暴露等問題,允許根據需要對輸出進行編輯、更改或阻止,而無需修改下游系統。根據谷歌的說法,“有了 Model Armor,企業可以像對待傳統 API 一樣嚴格地對 LLM 流量進行同樣的治理”。
這些控制用 Apigee 基於 XML 的策略語言表示,允許團隊將 LLM 安全規則整合到現有 API 中。一個 實踐教程 展示瞭如何應用這些策略,涵蓋了提示檢查、token 配額和與 Vertex AI 的整合。教程包括一個可下載的代理模板和配置 Model Armor 執行規則的分步指導。策略執行在代理層應用,以實現服務和端點之間的一致性。

Apigee 和 Model Armor 架構(來源:谷歌社群帖子)
Model Armor 支援多個 LLM 提供商,包括 Vertex AI(Gemini、Meta Llama)、OpenAI、Anthropic 和自託管模型,允許在異構架構中進行集中治理。
此外,谷歌已將 Model Armor 與 Google Kubernetes Engine(GKE)和 Security Command Center 整合。這允許組織直接在 GKE 叢集中執行的推理閘道器或在負載均衡器上部署 Model Armor 策略。這些策略在模型提示和響應到達內部服務之前進行檢查。任何違規行為都會作為安全發現出現在 Security Command Center 中,提供集中監控、預警和修復工作流程。這種整合加強了 Model-Armor 作為 LLM 流量治理和更廣泛的雲安全運營之間橋樑的地位。

Apigee 作為 LLM 應用程式和模型之間的閘道器(來源:谷歌社群帖子)
該框架為每次策略評估記錄了詳細的元資料,包括觸發的過濾器和執行結果。這些日誌輸入到 Apigee 的可觀測性和日誌管道中,支援監控、異常檢測和 LLM 行為的事後分析。
雖然其他 API 閘道器也提供了通用流量控制,但它們通常需要自定義中介軟體來實現模型級安全。Model Armor 旨在透過在 Apigee 中提供原生的 LLM 特定策略執行來消除這種複雜性。
原文連結:
https://www.infoq.com/news/2025/07/google-apigee-llm-model-armor/
宣告:本文由 InfoQ 翻譯,未經許可禁止轉載。
點選底部閱讀原文訪問 InfoQ 官網,獲取更多精彩內容!
