
凌晨三點的醫學院圖書館,電腦螢幕的冷光映著發紅的眼睛。你卡在一篇文獻綜述的結論部分,PubMed翻爛了仍無頭緒。此時,一個對話方塊彈出:“需要幫忙梳理研究方向嗎?”
這不是科幻場景,而是ChatGPT正在成為中國醫學生的“編外導師”。
2025年,BMC Medical Education釋出了一項重磅研究,四川大學團隊調查了1133名中國醫學生的AI使用現狀。資料顯示:62.9%的受訪者已用ChatGPT輔助學習,但76.9%同時擔憂其傳播錯誤資訊。
這揭示了一個尖銳矛盾:當AI以“超級助手”的姿態湧入醫學教育,我們該如何駕馭這把雙刃劍?
核心發現:醫學生與AI的“愛恨糾葛”
1. 高頻場景:從“查資料”到“改論文”的滲透
· 資訊檢索主力軍:84.4%的學生用ChatGPT搜尋醫學知識,遠超傳統資料庫(如:64.5%首選AI vs 78.7%用人際諮詢)
· 學術流水線助手:60.4%輔助完成作業,41.4%打磨論文語言,45.9%激發研究思路
· 臨床預演沙盤:部分高年級學生嘗試用其模擬醫患溝通、解讀檢查報告
資料背後的痛點:低年級依賴作業輔助,高年級聚焦科研效率,但“用而不信”成常態:69.7%使用者強調“必須專業驗證”。
2. 警惕訊號:學術誠信的紅色警報
擔憂事項
|
比例
|
典型場景
|
資訊失真風險
|
76.9%
|
虛構參考文獻、誤解讀臨床指南
|
學術不端隱患
|
65.4%
|
作業雷同化、洗稿難檢測
|
思維惰性滋生
|
36.4%
|
過度依賴導致批判性思維退化
|
耐人尋味的矛盾:儘管上述風險高懸,64.5%的學生仍願向AI求助學習難題。這像極了“明知垃圾食品有害卻忍不住吃”–效率誘惑碾壓了風險認知。
3. 顛覆性發現:態度差異背後的“AI性別鴻溝”
· 男性更積極:男性使用者持樂觀態度比例比女性高69%
· 高頻使用者更包容:每週多次使用者比低頻者積極度高375%深層解讀
· 男性多因技術自信(早期接觸程式設計/AI課程)
· 女性更關注風險管控(倫理隱患、隱私漏洞)
這不是能力差距,而是思維維度差異;但很顯然,未來醫療團隊需互補這兩類做法。
當ChatGPT在美國醫師執照考試(USMLE)達到三年級醫學生水平,當調研顯示60.7%醫學生看好AI醫療未來,我們不得不直面一個命題:未來的名醫,不是不用AI的人,而是善用AI卻比AI更“像人”的人。
編者按:
正如研究者呼籲的:醫學教育需從“知識傳輸”轉向“AI駕馭力培養”。
真正的職業成長,不在於拒絕浪潮,而在於在演算法中堅持定力。當AI能寫完美病歷,我們更要修煉傾聽患者聲音的耐心;當AI能羅列治療方案,我們更需讀懂患者藏在眼底的猶豫;因為醫學的本質,從來不是資料的搬運,而是醫患間的相互信任和照亮。
Referenc:
Hu N, Jiang XQ, Wang YD, et al. doi:10.1186/s12909-025-07438-7
更多閱讀:
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
(點選👆圖片,進入自己感興趣的專輯。或點選“資源”,瀏覽Hanson公眾號所有資源)
編輯:Iris Zhang;微訊號:healsanz,歡迎投稿
美國Healsan Consulting(恆祥諮詢),專長於Healsan醫學大資料分析(Healsan™)、及基於大資料的Hanson臨床科研培訓(HansonCR™)和醫學編輯服務(MedEditing™)。主要為醫生科學家、生物製藥公司和醫院科研處等提供分析和報告,成為諸多機構的“臨床科研外掛”。
更多資訊,請關注:
https://healsan.com/