實驗室18篇論文被ICCV2025錄用

點選下方卡片,關注“CVer”公眾號

AI/CV重磅乾貨,第一時間送達
點選進入—>【頂會/頂刊】投稿交流群

新增微訊號:CVer2233,小助手會拉你進群!
掃描下方二維碼,加入CVer學術星球可以獲得最新頂會/頂刊上的論文idea入門到精通資料,及最前沿應用!發論文/搞科研/漲薪,強烈推薦!

來源:廈門大學多媒體重點實驗室
第20屆ICCV國際計算機視覺大會論文錄用結果近日揭曉,廈門大學多媒體可信感知與高效計算教育部重點實驗室共有18篇論文被錄用。
International Conference on Computer Vision (ICCV)是計算機視覺領域的頂級國際會議,CCF A類會議。ICCV 2025將於2025年10月19日- 10月23日在美國夏威夷舉辦,ICCV 2025 共有11239 份投稿,錄用2698篇,錄取率為 24%。實驗室錄用論文簡要介紹如下:(按第一作者姓氏筆畫排序)
01
ESCNet:Edge-Semantic Collaborative Network for Camouflaged Object Detect
簡介針對偽裝目標檢測(COD)中目標與背景紋理高度相似導致邊界本質模糊,以及現有各種特徵方法因邊界約束不足常產生斷斷續續預測的問題,本文提出了具備動態耦合邊緣紋理感知能力的ESCNet框架。該框架的核心創新在於三個協同工作的元件:自適應邊緣紋理感知器(AETP),其融合Transformer全域性語義的影像多尺度特徵,建立了邊緣與紋理資訊相互協同引導的邊緣預測機制;雙流特徵增強器(DSFA)則依據區域性紋理複雜度和邊緣方向動態調整核取樣位置,精準強化不規則邊界和非定型紋理區域的特徵資訊;多特徵調製模組(MFMM)透過增強邊緣感知表徵及層級融合多種紋理,為特徵校準與模型預測建立了漸進細化的最佳化過程。這些元件相互關聯構成一個閉環反饋系統,增強的邊緣感知提升紋理預測,而最佳化的紋理資訊亦反哺邊緣感知。在三大權威資料集上的實驗充分驗證了ESCNet的顯著效能優勢。
該論文第一作者是廈門大學資訊學院2024級碩士生葉勝,通訊作者是林賢明助理教授,由2023級碩士陳馨、張巖工程師、曹劉娟教授等共同合作完成。
02
You Are Your Own Best Teacher: Achieving Centralized-level Performance in Federated Learning under Heterogeneous and Long-tailed Data
簡介:資料異質性問題,包括本地資料的非獨立同分布和全域性長尾分佈,是聯邦學習面臨的主要挑戰之一,也是其效能與集中式學習存在顯著差距的關鍵原因。已有研究認為,特徵表示不足和分類器偏差是主要瓶頸,並提出了受神經坍塌啟發的合成單純形ETF方法,但這些方法依然難以真正達到神經坍塌,與集中式訓練仍有較大差距。為此,本文從self-bootstrap的角度出發,提出了FedYoYo方法——“你是自己的最佳老師。我們透過增強自蒸餾,在本地弱增強和強增強樣本間進行知識蒸餾,無需額外資料集或模型,有效提升了特徵表示能力。同時,引入分佈感知的Logit調整,進一步平衡self-bootstrap過程,糾正特徵偏差。FedYoYo顯著縮小了與集中式學習的效能差距,即使在複雜異質性場景下也能接近集中式表現。大量實驗表明,FedYoYo取得了當前最優效果,在全域性長尾分佈下,甚至比集中式Logit調整方法高出5.4%
該論文的第一作者是廈門大學23級碩士生嚴珊珊、通訊作者是盧楊助理教授,由李則熹(劍橋大學,浙江大學)、吳超(浙江大學)、龐孟(南昌大學)、嚴嚴教授、王菡子教授共同合作完成。

03
Few-Shot Image Quality Assessment via Adaptation of Vision-Language Models
簡介:影像質量評估(Image Quality Assessment, IQA)因其複雜的失真條件、多樣的影像內容以及有限的可用資料,至今仍是計算機視覺領域一個尚未解決的挑戰。現有的盲IQA BIQA)方法嚴重依賴廣泛的人工標註來訓練模型,由於建立IQA資料集的要求高,這是勞動密集型和成本高昂的。為了減輕對標記樣本的依賴,本文提出了一種梯度調節元提示IQA框架(GRMP-IQA)。該框架旨在將強大的視覺語言預訓練模型CLIP快速遷移至下游IQA任務,顯著提高在資料有限的場景下的準確性。GRMP-IQA包括兩個關鍵模組:元提示預訓練模組和質量感知梯度正則化。前者利用元學習正規化對軟提示進行預訓練,使其學習跨不同失真型別的共享元知識,從而實現對各類IQA任務的快速適應;後者則在目標任務微調過程中調整更新梯度,引導模型聚焦於質量相關的特徵,以防止對影像的語義資訊產生過擬合。實驗結果表明,GRMP-IQA在少樣本設定下表現優異。此外,僅用20%的訓練資料,其表現即可超越大多數現有的全監督BIQA方法。
該論文第一作者是廈門大學人工智慧研究院2023級碩士生李旭東,通訊作者是張巖工程師,由鄭俠武副教授、曹劉娟教授、紀榮嶸教授等共同合作完成。
04
OracleFusion: Assisting the Decipherment of Oracle Bone Script with Structurally Constrained Semantic Typography
簡介:甲骨文是最早的古代語言之一,它封裝了古代文明的文化記錄和知識表達。儘管發現了大量的甲骨字,但只有一部分甲骨字被破譯。未破譯甲骨字具有複雜的結構和抽象的影像,對破譯構成了重大挑戰。為了應對這些挑戰,本文提出一種兩階段語義排版框架 OracleFusion。在第一階段,利用具有增強空間感知推理(SAR)的多模態大型語言模型分析甲骨文的字形結構並執行關鍵元件的視覺定位。在第二階段,提出了甲骨結構向量融合方法(OSVF)。該方法結合字形結構約束和字形維護約束,確保生成語義豐富的向量字型。大量的定性和定量實驗表明:OracleFusion 在語義、視覺吸引力和字形維護方面優於基線模型,顯著提高了甲骨字的可讀性和美學質量。此外,OracleFusion 還提供了關於未破譯甲骨字的專家級見解,使其成為推進甲骨文破譯的寶貴工具。
該論文的共同第一作者是廈門大學資訊學院2023級碩士生李曹碩、安陽師範學院丁增茂和騰訊優圖胡曉斌,共同通訊作者是金泰松副教授、騰訊優圖羅棟豪和安陽師範學院李邦,由汪鉞傑(騰訊優圖)、吳運聲(騰訊優圖)、劉永革教授(安陽師範)、紀榮嶸教授等共同合作完成。
05
RALoc: Enhancing Outdoor LiDAR Localization via Rotation Awareness 
簡介:現有基於隱式表達的雷射雷達定位方法對旋轉敏感,容易導致定位精度顯著下降。針對以上問題,本文提出旋轉感知增強的戶外點雲視覺定位方法-RALocRALoc設計了點雲規範化模組,透過有效提取等變特徵將輸入點雲轉換至規範方向,有效消除旋轉對點雲定位的干擾。此外,本文構建了雙向雷射雷達定位資料集(BiLiLo),為評估大旋轉變化場景下的定位效能提供基準平臺。該方法可顯著提升大規模複雜戶外場景下雷射雷達點雲的定位精度。 這項成果攻克了成像方向干擾難題,提升了雷射雷達視覺定位的可用性,賦能#城市空間/#無人駕駛/#低空經濟應用。
該論文第一作者是廈門大學資訊學院2023級碩士生楊煜陽、2021級博士生李文,通訊作者是王程教授。並由敖晟助理教授、徐青山(南洋理工大學)、於尚書(東北大學)、郭宇、周寅(GAC R&D Center)、沈思淇        長聘副教授共同完成。

06
Motal: Unsupervised 3D Object Detection by Modality and Task-specific Knowledge Transfer 
簡介:無監督三維目標檢測不使用標籤監督進行三維目標的檢測。現有無監督三維目標檢測產生的偽標籤無法同時保證目標分類和位置尺寸迴歸任務的效能,進而導致檢測精度下降。為此,本文提出了基於模態和特定任務知識遷移的無監督三維目標檢測方法——MotalMotal首先將偽標籤解耦為兩組候選框。一組透過運動和影像外觀先驗提取目標分類資訊,另一組通過幾何先驗提取目標迴歸資訊。然後,Motal使用任務特定的掩碼訓練方法將所有知識遷移到一個學生網路中,實現分類與迴歸任務的雙重提升。該方法可用於構建高效離線三維目標樣本自動標註流程。
該論文第一作者是廈門大學資訊學院2021級博士生吳海,通訊作者是溫程璐教授。並由林宏偉、郭徐晟、Xin Li (Texas A&M University) 教授、王明明(GAC R&D Center)、王程教授共同完成。

07
Towards Adversarial Robustness via Debiased High-Confidence Logit Alignment
簡介:儘管深度神經網路在視覺任務中取得突破性進展,但在面對惡意構造的對抗性噪聲時仍表現出脆弱性。近年來,逆對抗訓練(Inverse Adversarial Training)透過生成高置信度樣本,引導模型聚焦於更穩定的分類邊界,成為提升魯棒性的有效策略。儘管該方法取得初步成效,本文首次揭示其存在系統性注意力偏移:模型傾向於關注背景區域並依賴非因果性上下文線索,形成顯著的虛假相關性依賴。為此,本文提出DHAT(Debiased High-Confidence Adversarial Training),從結構上矯正偏置訊號。DHAT 包含兩項關鍵機制:去偏高置信 logit 正則化(DHLR)用於剔除背景啟用引發的偏差資訊,對齊對抗樣本與去偏目標;前景 logit 正交增強(FLOE)在仿射空間中弱化背景主導性,引導模型聚焦因果前景區域。實驗證明,DHAT 在ImageNet-1K 等多個基準上顯著提升魯棒性與泛化能力。
該論文第一作者是廈門大學資訊學院2023級碩士研究生張珂嘉,通訊作者是羅志明副教授。由翁娟娟、李紹滋教授共同合作完成。

08
Pretend Benign: A Stealthy Adversarial Attack by Exploiting Vulnerabilities in Cooperative Perception 
簡介: 現有的協同目標感知對抗攻擊方法缺乏隱蔽性,由於不加區分地擾亂傳輸資訊,產生大量誤報,而這些誤報很容易被基於共識的感知防禦機制檢測到。本文提出了一種新穎的隱蔽對抗攻擊方法Pretend Benign (PB),該方法利用協同感知機制的漏洞,使攻擊者能夠偽裝成良性合作者。PB首先引入了攻擊區域選擇模組,根據置信度將感知區域劃分為子區域,從而精確定位最佳攻擊位置;然後利用多目標對抗擾動生成模組生成攻擊訊號,以此維持共識,贏得被攻擊者的信任,從而影響協同目標感知的效能。該方法可用於提升多智慧體協同目標感知的安全性。
該論文第一作者是廈門大學資訊學院2024級碩士生林宏偉,通訊作者是溫程璐教授。並由潘東嶼、夏啟明、吳海、沈思淇長聘副教授、王程教授共同完成。

09
Iterative Prompt Relocation for Distribution-Adaptive Visual Prompt Tuning
簡介: 視覺提示學習旨在透過僅微調輕量化提示使預訓練模型適應於下游任務。然而,現有提示方法通常在不同任務下不加區分地使用固定的提示分佈,忽略了每個預訓練層的提示需求在不同任務中存在顯著差異。為此,本文提出了一種全新的視覺提示學習框架——PRO-VPT,旨在透過一個巢狀最佳化定義來實現提示分佈的動態自適應。具體而言,本文基於巢狀最佳化定義設計了一種提示重定位策略,包含兩個最佳化步驟:首先識別並剪枝惰性提示,隨後透過決策將這些提示分配至最優層。透過將提示重定位結合於提示學習中,PRO-VPT能夠以最佳化的形式動態學習各任務的最優提示分佈,從而充分發揮提示的潛力。實驗結果表明,PRO-VPT在多個下游任務中均顯著優於現有方法。
該論文的第一作者是廈門大學2025級碩士生尚馳凱,共同通訊作者是盧楊助理教授與廣東工業大學辜方清,由李夢柯(深圳大學)、張逸群(廣東工業大學)、陳陣(中國科學院香港創新研究院)、吳錦林(中國科學院自動化研究所)、張曉明(香港浸會大學)等共同合作完成。
10
AIGI-Holmes: Towards Explainable and Generalizable AI-Generated Image Detection via Multimodal Large Language Models
簡介AI生成內容(AIGC)技術的飛速發展,導致高度逼真的AI生成影像(AIGI)被濫用於傳播虛假資訊,對公共資訊安全構成威脅。現有AI生成影像檢測技術雖普遍效果良好,但存在缺乏可人工驗證的解釋依據以及對新一代生成技術(多模態大模型自迴歸生成圖片正規化)泛化能力不足這兩大缺陷。為此,本文構建了大規模綜合資料集Holmes-Set,其包含提供AI影像判定解釋的指令微調資料集Holmes-SFTSet,以及人類對齊偏好資料集Holmes-DPOSet。本文還創新提出多專家評審機制"的高效資料標註方法,該方法透過結構化多模態大語言模型(MLLM)解釋增強資料生成,並採用跨模型評估、專家缺陷過濾與人類偏好修正實現質量管控。同時,本文還提出一個Holmes Pipeline三階段訓練框架:視覺專家預訓練、監督微調和直接偏好最佳化,使多模態大語言模型適配AI生成影像檢測任務,生成兼具可驗證性與人類認知對齊的解釋,最終產出AIGI-Holmes模型。推理階段,本文還引入協同解碼策略,融合視覺專家模型感知與MLLM語義推理,進一步強化泛化能力。在三大基準測試中的廣泛實驗驗證了AIGI-Holmes的有效性。
該論文的共同第一作者是廈門大學人工智慧研究院2023級碩士生周子寅和和騰訊優圖研究員駱雲鵬,通訊作者是孫曉帥教授,由吳遠塵(騰訊優圖)、鄢科(騰訊優圖)、丁守鴻(騰訊優圖)、吳運聲(騰訊優圖)、2021級博士生孫可、博士後研究員紀家沂、紀榮嶸教授等共同合作完成。
11
Task-Aware Prompt Gradient Projection for Parameter-Efficient Tuning Federated Class-Incremental Learning 
簡介: 近來,聯邦增量學習因其在保護使用者隱私的情況下實現連續學習而受到廣泛關注。然而,現有工作常需訓練整個模型,這在去中心化的聯邦設定下帶來較大的模型傳輸和訓練負擔。本文提出一種基於提示梯度投影的引數高效的微調方法,在有效緩解災難性遺忘問題的同時,降低了模型訓練和傳輸開銷。該方法以visual prompts為基礎,提出了“任務感知的提示梯度投影”和“雙層提示回放”兩個主要模組,前者有效避免對已學習知識的破壞,後者有效利用知識覆盤,相輔相成,有針對性地緩解了災難性遺忘問題。實驗結果表明,我們的方法僅以基準方法1%的訓練引數量,在相同主幹框架下取得了5%的效能提升。
該論文第一作者是廈門大學資訊學院2023級碩士生柯華龍,共同通訊作者是曲延雲教授和張亞超助理教授,由2022級博士生施江鳴、王方勇(漢江實驗室)、謝源教授(華東師範大學)共同合作完成。
12
Multi-Schema Proximity Network for Composed Image Retrieval
簡介: 組合影像檢索(CIR)支援使用者透過影像與文字的組合方式來檢索目標影像,極大提升了表達檢索意圖的靈活性與準確性。然而,現有CIR 方法仍面臨兩大挑戰:其一,缺乏細粒度的顯式視覺監督,導致模型難以實現高質量的多模態互動,難以充分理解參考影像與目標影像之間複雜的語義關係;其二,訓練過程中往往忽視潛在的噪聲負樣本對,從而引入干擾,影響檢索效能。針對這些問題,本文提出了多模態鄰近網路(MAPNet),核心包括多模式互動模組(MSI)與鬆弛鄰近損失函式(RPLoss)。其中,MSI 利用文字描述作為隱式引導,在參考影像和目標影像中建立物件與屬性之間的細粒度關聯,提升圖文語義理解能力;RPLoss 則透過去噪與重加權策略,顯著緩解噪聲負樣本的干擾,增強查詢與目標影像的特徵對齊能力。在CIRRFashionIQ LaSCo 三個資料集上進行了大量實驗結果表明MAPNet相較當前主流方法在多個指標上均表現出色,展現出強大的檢索能力。
該論文第一作者是廈門大學人工智慧研究院2022級博士生施江鳴,共同通訊作者是曲延雲教授和華東師範大學謝源教授,由2023級碩士生尹祥博、2022級博士生陳燁贇、張亞超助理教授、張志忠(華東師範大學)等共同合作完成。
13
ASGS: Single-Domain Generalizable Open-Set Object Detection via Adaptive Subgraph Searching
簡介:論文首次探索單源域泛化開集檢測任務,直面未知領域+未知類別的雙重挑戰。本文提出了ASGS 框架,其包含Subgraph-wise Unknown-class Learning (SUL)Class-wise Embedding Compaction(CEC)兩大模組:SUL 透過自適應子圖搜尋先檢測潛在未知樣本並提取高階結構子圖,CEC則引入對比學習壓緊類內嵌入分佈,強化判別邊界。實驗結果顯示,ASGS 在同時存在域偏移和未知類別時,顯著優於現有開集檢測方法,驗證了其具有對未知目標的感知與泛化能力。
該論文共同第一作者是廈門大學人工智慧研究院2024級博士生袁與炫和資訊學院2022級碩士生唐路垚,共同通訊作者是深圳大學陳超奇助理教授和黃悅教授,由陳軼鑫和丁興號教授等共同合作完成。
14
WildSeg3D: Segment Any 3D Objects in the Wild from 2D Images
簡介:基於二維影像的互動式三維分割技術最近展現了令人印象深刻的效能。然而,當前的模型通常需要大量針對特定場景的訓練才能準確地重建和分割物體,這限制了它們在即時場景中的適用性。本文提出一種前饋的互動式分割方法(WildSeg3D),能夠在不同的環境中分割任意三維物體。這種前饋方法的一個關鍵挑戰在於跨多個二維檢視的三維對齊誤差的累積,這會導致三維分割結果不準確。為了解決這個問題,本文提出了動態全域性對齊 (DGA) 技術,透過使用動態調整函式來專注於影像中難以匹配的三維點,從而提高全域性多檢視對齊的準確性。此外,為了實現即時互動式分割,本文還引入了多檢視組對映 (MGM) 方法,該方法利用物件掩碼快取來整合多檢視分割並快速響應使用者提示。WildSeg3D 展現了跨任意場景的泛化能力,無需針對特定場景進行訓練,與現有 SOTA 模型相比,在保證精度的前提下,很大提升了整體速度。
該論文第一作者是廈門大學資訊學院2024級碩士生郭巖松,通訊作者是曹劉娟教授,由胡杰(新加坡國立大學)、2023級博士曲延松等合作完成。
15
Dissecting Generalized Category Discovery: Multiplex Consensus under Self-Deconstruction
簡介: 儘管廣義類別發現(GCD)旨在彌合機器與人類在未知類別識別上的能力差距,但現有方法多聚焦於最佳化目標函式,忽視了視覺識別的組合本質。本文受人類認知過程啟發——將物體分解為視覺基元並建立跨知識比較,提出了ConGCD框架。該框架透過語義重建構建面向基元的表示,利用解構過程繫結類內共享屬性;同時模擬人類視覺處理中的偏好多樣性,設計主導共識單元與上下文共識單元,分別捕獲類別判別模式和內在分佈不變數,並透過動態共識排程器最佳化啟用路徑,最終透過多重共識整合生成預測。實驗表明,ConGCD在粗細粒度基準上均展現出有效性,作為共識感知正規化實現了對GCD方法的即插即用相容。
該論文共同第一作者是廈門大學資訊學院2022級碩士生唐路垚和2023級碩士生黃焜澤,通訊作者是深圳大學陳超奇助理教授和黃悅教授,並由香港中文大學的學者共同參與完成。
16
Inter2Former: Dynamic Hybrid Attention for Efficient High-Precision Interactive Segmentation
簡介:本文提出了一種名為Inter2Former的互動式分割模型,旨在解決傳統互動分割模型的CPU效率與分割精度難以兼顧的問題。所提模型透過最佳化計算資源的動態分配來提升效能:首先,該模型採用動態提示嵌入(DPE)與動態區域性上取樣(DLU),將計算量自適應地聚焦於目標所在區域;其次,利用動態注意力混合(DHA)和混合專家模型(HMoE),根據互動迭代中前一次分割結果的邊界來動態調整計算複雜度,對CPU任務處理進行了深度最佳化。結果表明,Inter2Former在多個高精度互動分割基準上達到了最佳水平,同時在CPU裝置上保持了較高的效率。
該論文第一作者為廈門大學資訊學院2022級博士生黃有,通訊作者是張聲傳副教授,由2024級碩士生陳立超、博士後研究員紀家沂、曹劉娟教授、紀榮嶸教授等共同合作完成。
17
From Objects to Events: Unlocking Complex Visual Understanding in Object Detectors via LLM-guided Symbolic Reasoning
簡介本文提出了一個創新的框架,旨在讓普通的目標檢測器不僅能看見物體,更能理解正在發生的複雜事件。它透過結合大語言模型(LLM)的引導和符號推理來實現這一目標。其核心是一個即插即用的模組,無需進行昂貴的額外訓練,可以直接與現有的物體檢測器配合使用。該模組會自動分析檢測到的物體之間的關聯和模式,並由LLM引導,進而發現能夠定義一個事件的邏輯規則。
該論文第一作者是廈門大學人工智慧研究院2024級碩士生曾宇暉,通訊作者鄭俠武副教授,由2024級碩士生吳豪翔、2023級碩士生聶文傑、沈雲航(騰訊優圖)、紀榮嶸教授等共同合作完成。
18
Language Decoupling with Fine-grained Knowledge Guidance for Referring Multi-object Tracking
簡介: 本文提出了一種新穎的語言引導多目標跟蹤方法DKGTrack,透過將自然語言表達解耦為區域性描述與運動狀態兩部分,有效提升了模型對語言細粒度資訊的理解能力,從而實現更精確的目標定位與持續跟蹤。為增強語言引導下的目標識別能力,本文設計了靜態語義增強模組(SSE),透過分層的跨模態特徵互動機制強化區域級視覺語言對齊,獲得更具判別性的目標表示;同時,提出的運動感知對齊模組(MPA)建模語言中的動態描述與目標軌跡之間的對應關係,提升了跨幀跟蹤的一致性。該方法在多個RMOT基準上均取得了優異表現,驗證了其在複雜場景中穩健跟蹤能力。
該論文第一作者是廈門大學人工智慧研究院2023級博士生黎光耀,通訊作者是王菡子教授,由2023級碩士生莊思萍、2022級碩士生簡亞軍、嚴嚴教授共同合作完成。

何愷明在MIT授課的課件PPT下載
在CVer公眾號後臺回覆:何愷明,即可下載本課程的所有566頁課件PPT!趕緊學起來!

CVPR 2025 論文和程式碼下載

在CVer公眾號後臺回覆:CVPR2025,即可下載CVPR 2025論文和程式碼開源的論文合集

ECCV 2024 論文和程式碼下載

在CVer公眾號後臺回覆:ECCV2024,即可下載ECCV 2024論文和程式碼開源的論文合集
CV垂直方向和論文投稿交流群成立
掃描下方二維碼,或者新增微訊號:CVer2233,即可新增CVer小助手微信,便可申請加入CVer-垂直方向和論文投稿微信交流群。另外其他垂直方向已涵蓋:目標檢測、影像分割、目標跟蹤、人臉檢測&識別、OCR、姿態估計、超解析度、SLAM、醫療影像、Re-ID、GAN、NAS、深度估計、自動駕駛、強化學習、車道線檢測、模型剪枝&壓縮、去噪、去霧、去雨、風格遷移、遙感影像、行為識別、影片理解、影像融合、影像檢索、論文投稿&交流、PyTorch、TensorFlow和Transformer、NeRF、3DGS、Mamba等。
一定要備註:研究方向+地點+學校/公司+暱稱(如Mamba、多模態學習或者論文投稿+上海+上交+卡卡),根據格式備註,可更快被透過且邀請進群

▲掃碼或加微訊號: CVer2233,進交流群
CVer計算機視覺(知識星球)人數破萬!如果你想要了解最新最快最好的CV/DL/AI論文、實戰專案、行業前沿、從入門到精通學習教程等資料,一定要掃描下方二維碼,加入CVer知識星球!最強助力你的科研和工作!

掃碼加入星球學習
▲點選上方卡片,關注CVer公眾號
整理不易,請點贊和在看


相關文章