↑點選藍字 關注我們
5月21日,在2025騰訊雲AI產業應用峰會上,騰訊雲副總裁、騰訊雲智慧負責人、騰訊優圖實驗室負責人吳運聲發表主題演講。吳運聲認為,當前AI應用領域呈現出互動體驗更豐富、模型使用更高效、應用構建更快捷等趨勢。圍繞新的客戶需求,騰訊雲在多模態語音互動、模型訓推、智慧體開發等層面不斷迭代更新產品能力,幫助使用者把技術創新更快地轉化為實際生產力。

騰訊雲副總裁、騰訊雲智慧負責人、騰訊優圖實驗室負責人 吳運聲
吳運聲提到,為提升使用者與AI應用之間的互動體驗,騰訊雲正式釋出“騰訊雲語音PaaS解決方案”。該方案透過將領先的ASR大模型、TTS大模型與TRTC的即時通訊能力深度融合,構建起 “語音輸入→智慧處理→自然輸出→即時互動” 的全鏈路閉環,為企業提供低成本、可快速搭建的語音互動解決方案,幫助企業最佳化使用者互動體驗。
在模型訓推層面,騰訊雲TI平臺也實現了全面升級。首先,騰訊雲TI平臺升級了精調工具鏈提供蒸餾精調、強化學習等更多訓練方式,並面向自動駕駛領域的廣泛需求推出自駕模型訓練能力。同時,TI平臺在資源排程方面也全面升級,支援訓推一體、潮汐排程。成本是決定大模型是否能落地的關鍵因素之一,TI平臺持續升級內建的Angel加速套件,以業界領先的推理加速能力,幫助企業降本。
從大模型到智慧體,AI應用步入“平權時代”。對此吳運聲指出:“智慧體的廣泛應用將成為企業創新提效的利器。”為此,騰訊雲將大模型知識引擎全面升級為騰訊雲智慧體開發平臺,透過行業領先的RAG技術、全面的Agent能力、以及實戰打磨出來的匹配使用者需求的功能,幫助使用者在大模型時代快速構建智慧體。
他表示,經過多個真實業務場景的打磨,騰訊雲智慧體開發平臺沉澱出了多項核心能力,不只是“能用”,而是真正能夠貼合企業複雜業務、可落地、可運營,滿足企業的全鏈路需求。例如,QQ瀏覽器基於騰訊雲智慧體開發平臺,推出了智慧體Qbot,透過各種AI助手來幫助使用者執行下載、應用更新等任務。
以下為演講全文:
各位領導、嘉賓、媒體朋友們,
大家上午好!
我是騰訊的吳運聲,很高興在這裡跟大家分享騰訊雲在大模型工具和智慧體開發層面的進展和思考。
前面混元的同事也有提到,今年以來,模型的進展非常快,很多AI原生的應用在湧現。我們看到了幾個明確的趨勢:
首先,大語言模型和多模態模型進一步融合,使用者和AI應用之間的互動,已經從文字進一步演化到語音、影片等形式。多樣的互動體驗進一步提升了AI應用的滲透率。
其次,訓練和推理的效率持續提升。透過算力管理排程、推理加速最佳化等手段,算力的利用率不斷提升,模型的使用成本降低,這也進一步推動了模型在更多場景落地。
第三,智慧體加速落地。今年以來,智慧體這個話題特別熱,智慧體能夠實現自主規劃執行路徑、靈活呼叫工具,極大地降低了企業構建AI應用的門檻。透過智慧體開發平臺類的工具,企業可以快速落地智慧體。
圍繞著這三個趨勢和客戶需求,我們也在多模態語音互動、模型訓推、智慧體開發等層面不斷迭代更新產品能力,幫助使用者把技術創新更快地轉化為實際生產力。
在互動體驗上,我們在語音識別、輸出、即時傳輸等層面不斷最佳化,力爭為使用者帶來更智慧、更擬人的語音互動體驗。
語音識別是語音互動的前置重要模組,ASR準確率的提升,可以明顯提升全鏈路的智慧度。相比較傳統的ASR技術,我們的ASR大模型擁有更強的識別能力,在遠場、噪音等複雜場景下,字錯率明顯下降。同時支援方言識別,還可以動態適應不同口音、不同語速,真正讓AI“聽得懂”。
在輸出層面,我們的TTS大模型在擬人度、韻律自然度上明顯提升,發音接近真人自然對話感。TTS大模型可以快速理解本文內容,用貼合文字情緒的聲音進行演繹,顯著降低了傳統TTS輸出的人機感。
同時,在即時人工智慧互動場景中,LLM及時接收和處理使用者的音影片資料至關重要。TRTC的超低延遲通訊確保了全球範圍內音影片傳輸的端到端延遲低於300ms,同時將對話延遲保持在1000ms以下,近似人類自然對話的響應時間,讓使用者享受到流暢自然的互動。
今天,我們也正式釋出“騰訊雲語音PaaS解決方案“。
我們將前面提到的 ASR大模型、TTS 大模型與TRTC 的即時通訊能力的深度融合,構建起 “語音輸入→智慧處理→自然輸出→即時互動” 的全鏈路閉環,為企業提供低成本、可快速搭建的語音互動解決方案,幫助企業最佳化使用者互動體驗。
在底層,企業也可以靈活接入混元、DeepSeek等大語言模型服務,實現 AI 與使用者之間的即時互動,打造符合業務場景的 AI 即時對話能力。
面向企業大模型構建的需求,我們的機器學習平臺TI平臺持續升級。
首先是全面升級模型訓練能力。我們及時跟進騰訊混元以及開源社群進展,更新或上架了騰訊混元系列、Deepseek系列,LLama4系列等模型。我們也升級了精調工具鏈,支援更多訓練方式,主要是蒸餾精調和強化學習等。其中,基於DeepSeek R1/V3 蒸餾其他模型,是非常實用的訓練模式,可使用較小模型來提供接近 R1的推理能力,我們提供了詳細的最佳實踐以及配套的資料萃取工具,幫助使用者更高效完成蒸餾。
同時,面向自動駕駛領域的廣泛需求,我們內建了相應的訓練映象,可以快速啟動BEVFormer、FastBEV等多個主流自駕模型訓練,降低企業研發啟動成本。
在工具鏈之外,TI 平臺在資源排程方面也全面升級,支援訓推一體、潮汐排程。基於這個能力,TI 平臺能在夜間,將線上推理業務的閒時算力,自動排程給離線訓練任務和離線資料處理任務,從而大幅提升資源利用率。與此同時,我們也提供了靈活可配置的排隊策略,滿足不同場景下的排隊、排程需求。
某頭部消費電子企業,基於 TI 平臺統一管理集團算力,支撐了大模型和傳統CV小模型的研發,應用在電視產品文案生成、影片分析等場景。基於 TI平臺提供的精調工具鏈和資源管理能力,AI研發整體提效50%以上,GPU資源利用率也提升了80%以上。
成本是決定大模型是否能落地的關鍵因素之一,TI平臺持續升級內建的Angel加速套件,以業界領先的推理加速能力,幫助企業降本。
在技術升級方面,我們透過深挖核心和架構延展,在精度幾乎無損的前提下,實現服務時延的大幅降低,以及吞吐能力的大幅提升。相關加速能力支援社群主流的SGLang和VLLM兩個引擎。
近期,我們對SGLang推理框架的最佳化也獲得了SGLang核心作者的認可,感謝我們對FlashMLA後端進行了深度最佳化,相關技術方案已經貢獻至開源社群。當然,我們面向商業化客戶會提供經過更加嚴謹測試的、效能更優異的版本。
基於以上技術最佳化,我們實現了行業領先的加速效能。我們在控制首token延時、並保障吐字速率的同時,大幅提升了QPM。比如在3.5K輸入、1K輸出的典型場景下, 保障首Token延時不高於2秒,吐字速率不低於每秒20 Tokens的同時,2機16卡的QPM可以超過100。當前這些效能都是行業領先的。
上述加速能力,我們也已經在行業內進行交付和應用。某頭部新能源汽車製造商基於TI平臺統一納管算力部署DeepSeek專屬模型,支撐知識問答、營銷、座艙語音助手等多個業務場景。在使用TI平臺提供的Angel加速能力後,DeepSeek的模型綜合性能顯著提升,資源成本顯著降低。
從模型到智慧體,AI應用落地的門檻正在逐步降低。智慧體的廣泛應用或將成為企業創新提效的利器。知識庫、外掛工具、Multi-Agent框架等正在驅動著智慧體不斷升級,成為懂企業知識、能呼叫工具、自主執行復雜任務的得力助手。
今天,我們將大模型知識引擎全面升級為騰訊雲智慧體開發平臺,透過行業領先的RAG技術、全面的Agent能力、以及實戰打磨出來的匹配使用者需求的功能,幫助使用者在大模型時代快速構建智慧體。
我們始終相信,企業的智慧化能力,必須建立在對企業私域知識的深度啟用和挖掘之上。只有懂企業知識,智慧體才能發揮最大價值。
我們的RAG能力行業領先,能夠實現:
-
從複雜 Excel 表中精準提取答案,支援對接資料庫,透過Text2SQL,使用者用自然語言即可精準查詢、秒級返回。
-
支援從文件自動生成問答對,並對完整的問答進行校對和管理,全流程可控,顯著降低運營人力投入的時間成本。
-
同時,支援文件間比對,輔助高效決策,支援版本對照,高亮增刪改的內容,配套 “保留兩者 / 刪除舊版 / 合併更新” 等處理方案一鍵執行,支援僅對變更片段生成問答對,顯著降低token消耗。
藉助這三項能力,企業可以用最小的投入快速完成知識更新與決策閉環,為智慧體持續進化奠定堅實基礎。
在RAG基礎上,我們提供了全面的 Agent 能力支援。這些能力源自大量企業場景的實戰打磨,既保障了落地所需的穩定性和確定性,又保留了對話智慧的靈活性,真正實現了易用上手與複雜場景適配的雙重兼顧。
比如,我們在工作流中首創具備全域性視野的Agent,支援引數回退和全域性意圖洞察,對話表現靈活自然;
同時,我們首創零程式碼配置多Agent協同轉交,簡單易上手的轉交關係配置,讓使用者能輕鬆實現模型驅動的自動協作,構建“多專家”體系,有效分擔單體 Agent 的任務壓力;
在外掛生態上,我們全面支援MCP協議,平臺預置了豐富的騰訊內、外部外掛,開箱即用;同時支援自定義外掛快速接入,極大提升系統擴充套件性與可組合性;
依託穩定的工作流編排、多智慧體協同機制和完善的 MCP 外掛生態,企業可以快速搭建高可用、可演進的專屬智慧體系統。
經過多個真實業務場景的打磨,我們的智慧體平臺沉澱出了多項核心能力,不只是“能用”,而是真正能夠貼合企業複雜業務、可落地、可運營,滿足企業的全鏈路需求。
首先,我們提供完善的許可權體系配置體系。
支援平臺級、應用級、知識庫級的多層許可權體系配置,不管是按組織架構、崗位角色,還是黑白名單控制,都可以靈活支援。比如,騰訊學堂是服務於騰訊內部的培訓平臺,知識規模龐大,許可權體系複雜。基於我們的平臺,結合外部許可權控制的方式,騰訊學堂可以靈活配置許可權,快速落地問答助手。
其次,我們支援意圖達成方式的配置。
在實際業務中,不同場景對意圖響應的優先順序存在差異。在我們的平臺上,使用者可以按業務需求靈活設定響應路徑,確保優先走最合適的方式。如果存在多個易混淆意圖,模型同時給出多個意圖候選,引導使用者選擇。
第三,我們的平臺提供真正面向上線運營的全鏈路支援。
從智慧體釋出上線,到後續的運營監控、配置管理,我們都有完善的 OP 系統支援。無論是企業級 TPM/QPM 配置,還是體驗應用的配置管理,都能實現精細化運維,並支援私有化部署,真正讓企業用得放心、運維省心。
依託這些在實戰中打磨出的能力,我們的平臺已經服務了內、外部的眾多客戶,在很多場景中成功落地,真正解決了企業在智慧化應用中遇到的核心問題,把AI變成生產力。
比如,QQ瀏覽器基於騰訊雲智慧體開發平臺,推出了智慧體Qbot,透過各種AI助手來幫助使用者執行下載、應用更新等任務。接下來,我們來透過一個影片看下如何透過智慧體開發平臺搭建一個下載助手Agent。
在實際的使用場景中,我們通常需要多個Agent協同去完成複雜任務。現在藉助我們的語音互動能力,我們可以直介面頭指揮agent去完成任務,接下來我們也可以來看下多個agent是怎麼協同完成寄快速任務的。
可以看到,透過多Agent的協作,智慧體已經能夠非常靈活地處理使用者的各項需求。剛剛這個演示中涉及的產品能力,我們也正在持續打磨中。在內部環境驗證中,部分環節處理的時間會稍微長一點。所以在這個影片裡面,我們做了一些加速處理。
我們相信,隨著大模型的持續進化和各項工具、框架的升級,產品的體驗會進一步得到最佳化,智慧體一定能夠成為企業和使用者的得力助手。也歡迎大家掃碼試用我們的騰訊雲智慧體開發平臺。
未來,騰訊也將圍繞客戶需求,持續打磨產品,為各行各業用好大模型、用好智慧體提供助力!
謝謝大家。
END
熱門文章


↓分享、在看與點贊~Orz