不止YOLOv13!這些目標檢測模型也開源了

YOLOv13出了,目標檢測捲上天,2025年真的不能再做了?也不盡然。其實這方向發畢業論文屬於easy模式,但如果想發點高質量的,也確實得多費心思。
今天我就給大家做點推薦,除了有名的Yolo系列之外,目標檢測任務做的出彩的也就是DETR系列(基於Transformer),目前這個做的人還不算很多。另外還有開集目標檢測這類,因為這小方向會涉及到多模態,屬於當前學術界熱點,很有前景。
再有就是大模型時代下的目標檢測,比如SAM+目標檢測就是個典型…其餘推薦由於文章限制就不一一展開了,配上145篇目標檢測參考論文,我都統一打包完畢,分享給大家,尤其是無GPU無指導的單兵們,希望可以有所幫助。

掃碼新增小享,回覆“135目檢
免費獲取全部論文+開原始碼

YOLO系列

YOLOv13: Real-Time Object Detection with Hypergraph-Enhanced Adaptive Visual Perception

方法:論文提出了一種名為YOLOv13的新型即時目標檢測模型,它是對YOLO系列模型的重大改進。YOLOv13透過超圖計算增強特徵融合,採用輕量級深度可分離卷積塊,提升即時目標檢測效能,降低計算複雜度。

創新點:
  • 提出HyperACE機制,自適應地利用超圖計算建模全域性高階相關性,實現跨位置和尺度的特徵融合與增強。
  • 設計FullPAD正規化,將相關性增強的特徵分配到全網路,促進資訊流和表示協同,提升檢測效能。
  • 使用深度可分離卷積替換大卷積核,設計輕量化塊,減少引數和計算複雜度,保持效能。

DETR系列

【CVPR25】Mr. detr: Instructive multi-route training for detection transformers

方法:論文提出Mr. DETR,透過多路線訓練機制改進DETR,同時進行“一對一”和“一對多”預測,加速收斂並提升檢測精度,推理時移除輔助路線,不影響模型架構和推理成本。

創新點:
  • 提出多路線訓練機制,包含用於“一對一”預測的主要路線和用於“一對多”預測的輔助路線。
  • 引入指導性自注意力機制,透過可學習的指令標記動態引導物件查詢進行“一對多”預測。
  • 輔助路線在推理階段被移除,確保模型架構和推理成本與基線模型一致。

掃碼新增小享,回覆“135目檢
免費獲取全部論文+開原始碼

開集目標檢測

More Pictures Say More: Visual Intersection Network for Open Set Object Detection

方法:論文提出 VINO 模型,用於開集目標檢測。它構建多影像視覺庫儲存類別語義交集,透過更新機制靈活整合新資訊最佳化特徵表示,提升語義理解與檢測效能,減少預訓練資源消耗,還拓展至分割任務。

創新點:
  • 構建多影像視覺庫儲存類別語義交集,增強語義理解。
  • 引入多影像視覺更新機制,靈活整合新資訊最佳化特徵表示。
  • 在開集目標檢測中效能優異,且拓展至分割任務展現廣泛應用前景。

SAM+目標檢測

RoboFusion: Towards Robust Multi-Modal 3D Object Detection via SAM

方法:論文提出RoboFusion框架,基於預訓練SAM得到SAM-AD以適配自動駕駛場景,透過AD-FPN實現特徵對齊,用DGWA模組融合深度資訊與影像特徵並降噪,再經自適應融合機制動態調權重,增強特徵魯棒性,提升複雜環境下多模態3D目標檢測效能。

創新點:
  • 提出SAM-AD,在自動駕駛資料上預訓練SAM以適應該場景,提升複雜環境感知能力。
  • 設計AD-FPN實現特徵對齊,DGWA模組結合深度資訊去噪。
  • 引入自適應融合機制,融合點雲與影像特徵動態調整權重,提高特徵魯棒性和檢測效能。

掃碼新增小享,回覆“135目檢
免費獲取全部論文+開原始碼


相關文章