
已經可以做到 “快準狠” 了。
金磊 夢晨 發自 凹非寺
量子位丨公眾號 QbitAI
家人們,撰寫和修改病歷這事兒,那個讓無數醫生耗時耗力的環節——
病歷內涵質控,現在有了大模型來當得力幫手。

所謂病歷內涵質控,簡單來說指的就是對病歷內容的質量控制。
那它為什麼會讓醫生們如此耗時耗力呢?
首先,病歷本身就會完整、真實地反映出診療的全過程,不論對於患者或者醫生,還是對醫院的管理而言,重要程度都不言而喻。
畢竟從前期的出診,到後期的治療方案、查房、手術等眾多環節,病歷都會貫穿其中,收納、承載和呈現所有相關資訊。每一份病歷涉及到的資訊量都是非常大,也是非常關鍵的。
而病歷內涵質控,強調的是一種邏輯質控,難點就是邏輯非常抽象,定義和規則也不通俗;要把控它的質量就需要深厚且全面的臨床經驗和知識。
也正因如此,一般人還真做不了這事,醫院傳統的 “解法” 就是——
組建專家團隊,定時對歸檔病歷(尤其是重點病患)進行人工質控。
這種解法自然費時費力,而且它還很難對所有病歷進行遍歷,更多時候只能針對少部分病歷進行抽查。
正如我們剛才提到的,現在這件難事兒,已經靠大模型的輔助,找到了一種能兼顧效率和質量的解法。
而且縱觀整個 “AI+ 醫療” 賽道,很多醫療資訊化廠商都將大模型應用落地的箭頭指向類似病歷內涵質控這樣的應用 “靶點”。
之所以如此,是因為處理病歷這項工作,正與大模型的 “氣質” 極其相符——專治繁瑣、量大的資訊處理工作。
由此便可以讓醫生從中解放出更多的時間,投入到更匹配其專業方向的工作中。
那麼具體效果如何?是否能達到醫院的標準呢?
醫療大模型,已經可以做到 “快準狠” 了
在專攻用大模型搞病歷內涵質控這件事上,惠每科技可以說是擁有相當豐富的經驗,是已經在多家醫院(包括三甲醫院)“上崗” 並收穫大量好評的那種。
醫療大模型效果如何,我們不妨來看下惠每科技交出的 “作業”。

在惠每科技醫療大模型的加持之下,現在從醫生書寫病歷開始,它就會伴隨在旁,像個隱形的 “專家級” 助手,同步就會開始糾錯、提醒的工作了。
例如在上圖的三個場景中,分別對應的情況是:
-
初步診斷中提及 “前列腺術後”,但在現病史、既往史、手術外傷史中均缺少相關描述
-
主訴 “發現皮疹 45 分鐘”,但現病史中的症狀描述與主訴大相徑庭
-
病歷記錄患者 “否認手術外傷史”,但體格檢查中明確記載有大腿可見區域性手術瘢痕
這些細節內容要是放在之前,都是需要醫生們仔細比對校驗,並根據經驗知識來甄別、挑錯的,可實際上,不同醫生在經驗、資歷甚至是專業方向上的差別,都會讓這些細節的發現、校驗和應對變得異常複雜。
但現在,有了醫療大模型的輔助,這個助手總會默默地在合適的時機出現,把可能存在問題的內容給 pick 出來,供醫生們快速做判斷。
具體到病歷內涵質控的執行機制,惠每科技則是以資料中臺為核心,向下對接醫院的醫院資訊系統(HIS)、影像歸檔和資訊系統(PACS),以及電子病歷歸檔系統(EMR)等。
在自動抓取內容資訊之後,會透過自然語言處理、術語標準化後構建患者畫像,再經由惠每醫療大模型推理計算做出提醒或預警,同時大模型還可以基於使用者的反饋持續進行最佳化。

最終,在介面的呈現上,惠每科技這個系統會有醫生端和管理端兩種:
醫生在醫生端快速做錯誤檢測和處理,專家在管理端做更進一步的專業性查缺補漏。
由此,原先那種費時費力、費人費腦的病歷內涵質控,不但實現了自動化,而且效率也一下子就有了翻天覆地的變化,更重要的是,質控之後的病歷質量也隨之同步提升。可謂一箭雙鵰,甚至是一箭三雕!
眼見為實!咱們瞧瞧來自一線使用者的真實反饋。
以某三甲醫院為例,上線了惠每科技的這套方案之後,病歷內涵質控效果的 “開啟方式” 就變成了這樣:
全院的甲級病歷(下圖中的綠色曲線)從原先的 75% 直接暴漲到了 95%!

病歷質量的大幅提高就像 “作用力與反作用力”,此舉反過來也讓醫生診療工作的規範性和病案管理質量得到了提高。
由此雙管齊下,有問題的病歷數量就變得越來越少,以某醫院為例——
僅 10 個月時間,病歷平均問題數從最開始的 7.42 個,下降到了 3.28 個,下降比率高達 55.79%!

像這樣的實際應用效果還可以從某省級病案管理質量控制中心的病歷質控監測指標看出。
方案在該省某醫院落地後,病案首頁質量相關的主要診斷編碼正確率從 78% 提升至 97%、病歷文書的手術相關記錄完整率從 92% 提升至 99%、CT/MRI 檢查記錄完整率從 81% 提升至 90%、抗菌藥物使用記錄符合率從 82% 提升至 91%,不合格複製病歷發生率則從 12% 下降至 8%,很好地滿足了該中心的質控監測要求。

那麼接下來的一個問題是,畢竟醫療場景涉及患者隱私,就這麼交由大模型來訓練和推理,夠安全嗎?
對此,惠每科技也有自己深入的理解和切實可靠的實踐路徑:
私有化部署,資料不出醫院。

具體而言,惠每科技是以 ChatGLM 等流行的基座大模型為基礎,鋪於醫學知識庫和醫學知識圖譜等,還結合了 RAG(檢索增強生成)技術,在垂直領域做模型的訓練和微調等工作。
與此同步,專家的反饋也會透過 RLHF(人類反饋強化學習)技術加入到上述過程,並最終形成面向不同醫療場景的醫療大模型。
而這整個過程中都採用的是私有化部署的方式,微調也是基於 SFT(監督微調)來展開,因此便更好地保障了安全性。
由此總結來看,醫療大模型 “上崗” 醫院後,在病歷內涵質控這件事上起碼做到了三點:
更專業、更安全、更效率。
但有一說一,在這個醫療大模型和系統的背後,還有一個關鍵因素在默默發力。
不僅能力到位,更要輕鬆落地
醫療大模型方案要想真正落地併發揮價值,除了演算法模型本身要夠強大之外,還必須克服私有化部署所面臨的種種挑戰。
不論是出於資料與隱私安全、業務便捷還是成本考量,部署在本地、把控在自己手上,始終是越來越多行業使用者的期盼。
特別是對醫療行業來說,私有化的部署和落地更是一種 “剛需”。
畢竟不同醫院的病歷格式本身差異就較大,加之涉及患者隱私,惠每科技的私有化部署策略,幾乎成了醫療大模型落地的最基本前提。
這樣一來,在基礎設施的選擇上,又面臨一系列問題。
成本角度上,現代化醫院本來就是各行業資訊化領域的主力軍,此前多年在通用計算類 IT 基礎設施上曾有大量投入,在此基礎上再匯入專用 AI 加速器需要額外投入,而且這些加速器如今獲取難度還在不斷加大(你懂的)。
從效能角度看,也要求硬體平臺能滿足 AI 模型推理所需的效能,特別是要滿足即時性或近即時性標準。
那麼有沒有一種方案,既可以讓醫療大模型更順滑地落地,還能充分利用現有軟硬體設施,並同時兼顧效能、總擁有成本和獲取難度呢?
面對這一系列難題,惠每科技可謂是 “有備而來”。
它選擇了與英特爾合作,基於英特爾® 至強® CPU Max 系列處理器、OpenVINO™ 工具套件及開源大模型加速庫 IPEX-LLM,打造了一套” 高性價比醫療大模型私有化落地方案”。
作為業界首款內建高頻寬記憶體 (HBM) 的 x86 架構 CPU,至強® CPU Max 系列集成了高達 64GB 容量的 HBM2e 記憶體,其理論頻寬可達主流 DDR5 記憶體的 4 倍,足以應對大模型推理時對記憶體效能的嚴苛要求。
此外,該處理器還內建有英特爾® AMX(英特爾® 高階矩陣擴充套件)加速技術,經特定最佳化後,其每時鐘週期可完成多達 2048 個 INT8 運算,較上一代同類指令實現了 8 倍效能飛躍。

除硬體優勢之外,在軟體方面,英特爾也為惠每科技提供了成熟的最佳化工具與技術支援。
例如藉助 IPEX-LLM 大模型庫實現推理加速的低精度量化方案,以及基於 OpenVINO™ 工具套件開展的非量化最佳化方案,雙管齊下,能讓醫療大模型在至強® 平臺上的推理效率得到顯著提升。
據惠每科技實測,經非量化方案最佳化後,當輸入文字為 2K 時,模型首詞時延由最佳化前的 4.03 秒驟降至 2.1 秒,效能提升達 1.92 倍。平均時延則由 182.86 毫秒每 Token 縮短至 47.96 毫秒每 Token,提升幅度高達 3.81 倍。而這,已經十分接近專用 AI 加速晶片的效能水平了。

而且,除了讓醫療大模型私有化落地從 “不可能” 變為 “可能”,基於英特爾® 至強® 平臺還有一個容易被忽視但至關重要的優勢,那就是上線效率。
得益於英特爾® 架構平臺成熟的生態以及雙方的深度協同,更重要的是醫療行業對於該平臺廣泛的部署和較高的應用水準,醫院開展惠每醫療大模型方案私有化部署時,從準備到最終產出收益,僅需 3.5 個月左右。
這就讓 AI 智慧化帶來的變革成果顯得更加 “立竿見影”。
跨平臺技術助力行業加速應用
透過惠每科技病歷質量控制這一用例,不難看出:英特爾® CPU 平臺 +AI 加速工具,不失為大模型從實驗室走向行業、加速落地與實踐的一劑” 良方”。
其實在智慧醫療的背景下,病歷質控只是一個縮影。
從智慧導診到輔助診斷,從藥物研發到疾病預測,AI 正以多種方式為醫療行業帶來更多變革。
智慧醫療又何嘗不是 “人工智慧 +” 時代的一塊重要拼圖呢?
更廣泛的視角下,類似醫療這樣涉及隱私、對 AI 私有化部署有強要求的行業,還有金融、法律、教育、出行……可以說,越是距離每個人生活更近的行業,就越需要考慮這個問題。
如果再考慮到在數字化轉型中已有一定投入,希望充分利用原有 IT 基礎設施,以總擁有成本更低的方式開展 AI 實踐的行業,那就更多了。
所以說在這一輪推進智慧化轉型的浪潮中,像英特爾與惠每科技合作打造的這種 " 一石多鳥 " 且 “更接地氣” 的方案,無疑是一個值得參考的選擇。
英特爾未來能不能繼續以更高性價比、更易於獲取和應用的軟硬體平臺為基礎,全力加速 AI 在各個行業的創新應用,讓科技為人類社會持續賦能,就很值得期待了。
為了科普 CPU 在 AI 推理新時代的玩法,量子位開設了《最 “in”AI》專欄,將從技術科普、行業案例、實戰最佳化等多個角度展開全面解讀。
我們希望透過這個專欄,讓更多的人瞭解 CPU 在 AI 推理加速,甚至是整個 AI 平臺或全流程加速上的實踐成果,重點就是如何更好地利用 CPU 來提升大模型應用的效能和效率。

如欲瞭解更多關於惠每基於英特爾打造的高性價比私有化落地方案,可點選文末 “閱讀原文”。
題圖來源:由 DALL·E 3 生成
· FIN ·

