

我們誠摯地邀請您提交論文參加即將在 ACM Multimedia 2025 (ACM MM 2025) 會議上舉辦的 LGM3A Workshop。此次Workshop的主題為“基於大語言模型的多模態研究和應用”(LGM3A 2025: the 3rd Workshop on Large Generative Models Meet Multimodal Applications),旨在探討如何利用大型生成模型變革我們與多模態資訊互動的方式。
ACM MM是全球多媒體領域的頂級國際會議,已被中國計算機學會(CCF)評為 A 類學術會議,並在 CORE 國際排名中被評為 A* 級學術會議。自首次召開以來,該會議已成功舉辦了32屆。ACM MM 2025會議將於2025年10月27日至31日在愛爾蘭都柏林召開。
關於LGM3A Workshop
該Workshop聚焦於大型生成模型(LLMs)在多模態互動中的潛力。大型語言模型(LLM)代表了一種先進的人工智慧形式,專為理解和生成自然語言文字而設計,典型技術包括GPT、LLaMA、Flan-T5、ChatGLM和Qwen等。這些模型經過海量文字資料集的訓練,展現出強大的語言生成能力、零樣本遷移能力和上下文學習(ICL)等顯著特性。隨著近期影像、影片、音訊和3D模型等多模態內容的激增,大型多模態模型(LMMs)也取得了顯著提升。這些改進使得傳統的大型語言模型可以支援多模態輸入輸出,如BLIP、Flamingo、KOSMOS、LLaVA、Gemini、GPT-4等。
同時,一些研究專案也深入探索了特定模態的生成,如Kosmos2和MiniGPT-5專注於影像生成,以及SpeechGPT專注於語音生成。還有一些努力旨在將大型語言模型與外部工具結合,以實現近乎“任意對任意”的多模態理解和生成能力,這在Visual-ChatGPT、ViperGPT、MMREACT、HuggingGPT和AudioGPT等專案中得到了體現。
該Workshop旨在提供一個平臺,探討大型生成模型在多模態應用中的最新趨勢與最佳實踐。同時,我們歡迎不限於此類模型的廣泛研究,特別關注大語言模型與其他人工智慧技術融合所面臨的挑戰與機遇。研討會鼓勵參與者展示研究成果、分享經驗,並探討潛在的合作方向。誠邀您的參與,共同推動該領域的發展。
徵稿要求
我們特別邀請研究人員和專家們提交包括但不限於以下主題的論文:
-
多模態資料增強
-
多模態資料分析與理解
-
多模態問答
-
多模態生成
-
多模態檢索增強
-
多模態推薦
-
多模態總結和文字生成
-
多模態智慧體
-
多模態提示(prompting)
-
多模態持續學習
-
多模態資訊融合與整合
-
多模態應用/框架
-
多模態系統管理與索引
-
多模態移動端/輕量級部署
提交的論文必須與主會議的格式和模板相同(ACM Conference)。提交格式的長度限制為以下兩種選項之一:
-
4頁正文加1頁參考文獻
-
8頁正文加最多2頁參考文獻。
所有論文將由該領域的專家進行同行評審,評審的接受標準將基於與研討會的相關性、科學創新性和技術質量。
我們期待您的精彩投稿。
投稿入口與時間
LGM3A組織者
Zheng Wang (Huawei Singapore Research Center, Singapore)
Qianqian Chen (Huawei Singapore Research Center, Singapore)
Yiyang Luo (Huawei Singapore Research Center, Singapore)
Zhiqiu Ye (Huawei Singapore Research Center, Singapore)
Wei Shi (Huawei Singapore Research Center, Singapore)
Hanwang Zhang (Nanyang Technological University, Singapore)
Tat-Seng Chua (National University of Singapore, Singapore)
更多的詳細資訊及安排請參見 Workshop 官網:
https://lgm3a.github.io/LGM3A2025/
如果有任何問題,歡迎郵件諮詢:[email protected]
起探討前沿技術,分享你的研究吧!
🔍
現在,在「知乎」也能找到我們了
進入知乎首頁搜尋「PaperWeekly」
