明天直播|ECCV2024精選論文分享

(本文閱讀時間:5分鐘)
2024年的ECCV大會於10月4日在義大利米蘭圓滿結束。作為計算機視覺領域的三大頂級會議之一,ECCV是全球計算機視覺研究者交流最新研究成果的重要平臺。
根據此前粉絲朋友們的投票結果,我們請了票選人氣最高的三篇ECCV論文的作者,於明天(10月29日)下午14:00,在微軟亞洲研究院的直播間分享他們的前沿工作。歡迎大家鎖定直播間!
直播資訊
直播時間:
2024年10月29日(明天) 14:00-15:00
直播地址:
微信影片號“微軟亞洲研究院
B 站賬號“微軟科技”直播間

論文及講者介紹
牟芯志
微軟亞洲研究院
多媒體計算組研發工程師
牟芯志,微軟亞洲研究院多媒體計算組研發工程師。現階段主要在研究方向為視覺內容生成領域,包括影像和影片內容的生成、重建和壓縮等。此前還進行過影像和影片內容檢測和識別相關工作。
分享內容:
FontStudio: 用於生成連貫一致字體效果的形狀自適應擴散模型
FontStudio: Shape-Adaptive Diffusion Model for Coherent and Consistent Font Effect Generation
論文摘要: 
特效字型生成任務需要在生成使用者提示內容的同時,額外保證生成內容的輪廓與使用者所提供的字元輪廓相似。我們提出的 FontStudio 框架,包含形狀自適應擴散模型和形狀自適應風格遷移演算法,解決了非規則畫布上的生成問題以及字元風格統一問題。
論文連結:
https://www.ecva.net/papers/eccv_2024/papers_ECCV/papers/07569.pdf
專案連結:
https://font-studio.github.io/
祁琳峰
微軟亞洲研究院
多媒體計算組實習生
祁琳峰,博士五年級,導師為呂岩老師,目前在多媒體計算組進行實習及聯合培養,研究方向為端到端的影片編解碼。
分享內容:
神經影片壓縮的長期時間上下文收集
Long-term Temporal Context Gathering for Neural Video Compression
論文摘要: 
現有的影片壓縮模型主要透過估計光流來利用短時間上下文,本篇論文額外引入長時間間隔的參考特徵,並對參考特徵進行聚類和類內特徵搜尋來提取長時間上下文,豐富上下文的多樣性並抑制誤差傳播,從而提升模型的壓縮效能。
論文連結:
https://www.ecva.net/papers/eccv_2024/papers_ECCV/papers/08346.pdf
張博文
微軟亞洲研究院
視覺計算組實習生
張博文,博士四年級,師從郭百寧老師。目前在視覺計算組從事高質量生成模型的研究,已在多個計算機視覺頂級會議上發表過多篇論文,研究內容涵蓋二維影像生成和三維物體生成等領域。
分享內容:
RodinHD: 使用擴散模型生成高保真3D頭像
RodinHD: High-Fidelity 3D Avatar Generation with Diffusion Models
論文摘要:
RodinHD 旨在精確擬合併為使用者生成高質量的數字化身。本篇論文首先解決了共享解碼器擬合過程中的災難性遺忘問題,實現了高質量資料擬合;其次增強了輸入影像的在生成過程中的指導效果,並針對三維擴散模型修改了加噪過程,實現了高保真度數字化身生成。
論文連結:
https://arxiv.org/abs/2407.06938
專案連結:
https://rodinhd.github.io/
日程安排
14:00-14:20
分享內容:
FontStudio: Shape-Adaptive Diffusion Model for Coherent and Consistent Font Effect Generation
分享者:
牟芯志
14:20-14:40
分享內容:
Long-term Temporal Context Gathering for Neural Video Compression
分享者:
祁琳峰
14:40-15:00
分享內容:
RodinHD: High-Fidelity 3D Avatar Generation with Diffusion Models
分享者:
張博文
鎖定直播間,我們不見不散!
你也許還想看:

相關文章