YOLOv13出了,目標檢測捲上天,2025年真的不能再做了?也不盡然。其實這方向發畢業論文屬於easy模式,但如果想發點高質量的,也確實得多費心思。
今天我就給大家做點推薦,除了有名的Yolo系列之外,目標檢測任務做的出彩的也就是DETR系列(基於Transformer),目前這個做的人還不算很多。另外還有開集目標檢測這類,因為這小方向會涉及到多模態,屬於當前學術界熱點,很有前景。
再有就是大模型時代下的目標檢測,比如SAM+目標檢測就是個典型…其餘推薦由於文章限制就不一一展開了,配上145篇目標檢測參考論文,我都統一打包完畢,分享給大家,尤其是無GPU無指導的單兵們,希望可以有所幫助。

掃碼新增小享,回覆“135目檢”
免費獲取全部論文+開原始碼

YOLO系列
YOLOv13: Real-Time Object Detection with Hypergraph-Enhanced Adaptive Visual Perception
方法:論文提出了一種名為YOLOv13的新型即時目標檢測模型,它是對YOLO系列模型的重大改進。YOLOv13透過超圖計算增強特徵融合,採用輕量級深度可分離卷積塊,提升即時目標檢測效能,降低計算複雜度。

創新點:
-
提出HyperACE機制,自適應地利用超圖計算建模全域性高階相關性,實現跨位置和尺度的特徵融合與增強。 -
設計FullPAD正規化,將相關性增強的特徵分配到全網路,促進資訊流和表示協同,提升檢測效能。 -
使用深度可分離卷積替換大卷積核,設計輕量化塊,減少引數和計算複雜度,保持效能。

DETR系列
【CVPR25】Mr. detr: Instructive multi-route training for detection transformers
方法:論文提出Mr. DETR,透過多路線訓練機制改進DETR,同時進行“一對一”和“一對多”預測,加速收斂並提升檢測精度,推理時移除輔助路線,不影響模型架構和推理成本。

創新點:
-
提出多路線訓練機制,包含用於“一對一”預測的主要路線和用於“一對多”預測的輔助路線。 -
引入指導性自注意力機制,透過可學習的指令標記動態引導物件查詢進行“一對多”預測。 -
輔助路線在推理階段被移除,確保模型架構和推理成本與基線模型一致。

掃碼新增小享,回覆“135目檢”
免費獲取全部論文+開原始碼

開集目標檢測
More Pictures Say More: Visual Intersection Network for Open Set Object Detection
方法:論文提出 VINO 模型,用於開集目標檢測。它構建多影像視覺庫儲存類別語義交集,透過更新機制靈活整合新資訊最佳化特徵表示,提升語義理解與檢測效能,減少預訓練資源消耗,還拓展至分割任務。

創新點:
-
構建多影像視覺庫儲存類別語義交集,增強語義理解。 -
引入多影像視覺更新機制,靈活整合新資訊最佳化特徵表示。 -
在開集目標檢測中效能優異,且拓展至分割任務展現廣泛應用前景。

SAM+目標檢測
RoboFusion: Towards Robust Multi-Modal 3D Object Detection via SAM
方法:論文提出RoboFusion框架,基於預訓練SAM得到SAM-AD以適配自動駕駛場景,透過AD-FPN實現特徵對齊,用DGWA模組融合深度資訊與影像特徵並降噪,再經自適應融合機制動態調權重,增強特徵魯棒性,提升複雜環境下多模態3D目標檢測效能。

創新點:
-
提出SAM-AD,在自動駕駛資料上預訓練SAM以適應該場景,提升複雜環境感知能力。 -
設計AD-FPN實現特徵對齊,DGWA模組結合深度資訊去噪。 -
引入自適應融合機制,融合點雲與影像特徵動態調整權重,提高特徵魯棒性和檢測效能。

掃碼新增小享,回覆“135目檢”
免費獲取全部論文+開原始碼
