徵稿倒計時!CVPR2025Workshop共話“基礎模型+X”的魯棒性挑戰

advml團隊 投稿

量子位 | 公眾號 QbitAI
IEEE/CVF國際計算機視覺與模式識別會議(CVPR),作為人工智慧領域最具學術影響力的頂級會議之一,將於2025年6月11日至6月15日在美國田納西州隆重舉行。
在此盛會中,第五屆對抗機器學習Workshop將由北京航空航天大學、中關村實驗室、南洋理工大學等全球知名學術機構聯合舉辦。本次Workshop以基礎模型+X為主題,旨在深入探討基礎模型(FM)及其在特定領域應用(XFM)中的魯棒性挑戰。
主題聚焦:基礎模型+X
基礎模型(FM)以其強大的生成能力,徹底改變了包括計算機視覺在內的多個領域。在此基礎上,X領域特定的基礎模型(XFM),如自動駕駛FM、醫療FM等,透過在精選資料集上的訓練和針對任務的架構修改,進一步提升了各自領域內的專業任務效能。然而,隨著XFM的廣泛應用,其對抗性攻擊的脆弱性也逐漸暴露。這些攻擊可能導致模型對輸入影像或提示進行錯誤分類,甚至生成對手期望的輸出,對自動駕駛、醫療診斷等安全關鍵型應用構成重大威脅。

論文徵稿

本次研討會誠邀與以下主題相關(但不限於)的投稿,並設立最佳論文獎(Best Workshop Paper):
  • Robustness of X-domain-specific foundation models
  • Adversarial attacks on computer vision tasks
  • Improving the robustness of deep learning systems
  • Interpreting and understanding model robustness, especially foundation models
  • Adversarial attacks for social good
  • Dataset and benchmark that could evaluate foundation model robustness

重要日期

論文提交開放:2025年2月1日

摘要提交截止:2025年3月15日

論文提交截止:2025年3月20日

錄用通知:2025年3月31日

最終版提交:2025年4月7日
演講嘉賓
……
更多嘉賓,敬請期待!

組織團隊
Program Committee

競賽

此外,本次研討會將舉辦一場以針對基礎模型中多模態大語言模型(Multimodal Large Language Models, MLLMs)的對抗攻擊為主題的競賽。本次挑戰賽旨在透過“紅隊”視角,邀請全球開發者、研究人員和愛好者,設計並提交能夠觸發多模態大語言模型產生有害、不當或非法內容的影像文字對。透過這一過程,希望揭示MLLM的脆弱性,推動安全技術的創新,併為未來的模型開發提供重要的改進方向。
比賽分為初賽和複賽兩個階段。初賽方面,主辦方將提供若干類風險類別下的有害文字查詢,參賽者需設計對應的對抗圖文對,使MLLM產生安全風險輸出;複賽階段,主辦方將提供難度更大的風險類別的若干類有害文字查詢,參賽者目標與初賽相同。最終,根據複賽圖文對的攻擊成功率進行評分,並決定獲獎隊伍。
競賽詳情將於後續在Workshop官網公佈,誠邀全球研究者密切關注並參與!
Challenge Chair:
競賽承辦協辦單位:

第五屆CVPR對抗機器學習研討會

https://cvpr25-advml.github.io/

論文提交入口:https://openreview.net/group?id=thecvf.com/CVPR/2025/Workshop/Advml
—  —
學術投稿請於工作日發郵件到:
標題註明【投稿】,告訴我們:
你是誰,從哪來,投稿內容
附上論文/專案主頁連結,以及聯絡方式哦
我們會(儘量)及時回覆你
一鍵關注 👇 點亮星標
科技前沿進展每日見
一鍵三連「點贊」「轉發」「小心心」
歡迎在評論區留下你的想法!

相關文章