識別二維碼,即可免費註冊報名:
▌峰會日程
▌具體安排







▌詳細介紹
O 峰會主席
黃非 達摩院 研究員
個人介紹:黃非博士,阿里巴巴達摩院語言技術實驗室研究員,自然語言基礎技術和對話問答方向負責人。他領導AliNLP 基礎技術和對話問答技術方向,並支援集團內外的業務需求,在深度語言模型,多模態問答和機器閱讀理解方面做出了世界領先的研究成果。團隊打造的AliceMind預訓練語言模型體系釋出了大規模中文預訓練模型PLUG並開源模型和程式碼,圖文問答(VQA)和機器閱讀理解(MRC)任務上首次超越人類。他帶領的NLP研究團隊發表頂會論文上百篇,獲得國際比賽冠軍20多次,開發了業界第一個電商直播翻譯系統 。相關技術和產品在阿里巴巴集團內支援數百個場景日均數萬億級呼叫,對外賦能多個行業合作伙伴,包括醫療,政務,海關,能源,金融等。加入達摩院之前,他曾在卡耐基梅隆大學攻讀博士,之後在IBM Watson和Facebook領導並從事NLP研究等工作。他領導開發的Facebook自動翻譯系統為全球20億使用者溝通消除語言障礙。他在人工智慧頂級會議和期刊發表文章60+篇,中美專利20項,曾擔任ACL,AACL等學術會議領域主席等。
孫宇 百度 傑出研發架構師,文心大模型ERNIE總技術負責人
個人介紹:孫宇,百度傑出架構師、百度文心大模型ERNIE總技術負責人。主要研究領域包括自然語言理解、預訓練模型、深度學習、資訊檢索等。主導研發了知識增強大模型文心ERNIE、百度搜索引擎關鍵核心技術語義匹配等,相關成果廣泛應用於搜尋引擎、資訊流、智慧音箱等產品,顯著改善億萬網民使用者體驗。取得包括全球規模最大的語義評測SemEval等評測世界冠軍十餘項,在ACL、AAAI等會議發表論文數十篇,國內外相關專利七十餘項。曾獲國家技術發明二等獎、世界人工智慧大會最高獎項 SAIL 獎、中國人工智慧學會優秀科技成果獎、中國電子學會科技進步一等獎等獎項、百度最高獎和百度最佳團隊獎。
武威 美團自然語言處理中心負責人
個人介紹:武威,現任美團自然語言處理中心負責人。他和他的團隊在知識圖譜、預訓練、人機對話、以及自然語言理解等技術方向持續深耕,並將這些技術應用於美團搜尋、推薦、線上廣告、智慧客服等場景。在加入美團前,武威於2012年至2020年就職於微軟(中國)有限公司,歷任副研究員,研究員,主管研究員,首席科學家。在微軟期間,他致力於智慧人機對話前沿演算法的研究,在對話上下文理解,對話生成,低資源對話建模,知識對話模型方面做出了很多開創性的工作,為微軟的聊天機器人產品微軟小冰的每一代升級貢獻了核心演算法,並於EMNLP 2018,TheWebConf 2019,以及SIGIR 2019上做主題為深度學習下的智慧聊天機器人的報告。武威本科和博士均畢業於北京大學數學科學學院。他是IEEE高階會員,在國際頂級會議期刊上發表了超過60篇論文,在Google Scholar上有超過2600次的引用,H-index是25。他常年擔任自然語言處理(ACL、EMNLP、NAACL)、人工智慧(AAAI、IJCAI)、機器學習(ICML、NeurIPS、ICLR)、資訊檢索(SIGIR、TheWebConf)、以及資料探勘(KDD、WSDM)等國際頂級會議的程式委員,並受邀擔任了ACL 2021,EMNLP 2021,NLPCC 2021的領域主席。
O 特邀榮譽主席:
周明 瀾舟科技創始人兼CEO
個人介紹:周明博士,瀾舟科技創始人兼CEO。周明博士是世界頂級人工智慧科學家,是自然語言處理領域的代表性人物,曾任微軟亞洲研究院副院長、國際計算語言學學會(ACL)主席,現任中國計算機學會(CCF)副理事長、中國中文資訊學會常務理事、創新工場首席科學家。他還擔任多所高校的博士生導師。他在自然語言處理領域發表的文章數量居世界前列。
O 峰會榮譽主席團:
何徑舟 百度 自然語言處理部 技術總監
個人介紹:何徑舟,百度深圳研發中心自然語言處理部技術總監,飛槳螺旋槳 PaddleHelix 生物計算平臺負責人,國家人工智慧專業高階工程師。何徑舟畢業於北京大學計算機系,有 10 年以上人工智慧技術研發和管理經驗,主要研究領域包括自然語言處理、機器學習、生物計算、智慧機器人等,帶領團隊奪得十餘項國際比賽和權威榜單冠軍,4 次斬獲百度最高獎。何徑舟是 200 餘項 AI 專利發明人,曾獲中國專利優秀獎,受聘中國專利審查技術專家。何徑舟也是中國人工智慧學會(CAAI)會員,中文資訊學會(CIPS)青年工作委員會委員,香港人工智慧與機器人學會(HKSAIR)會員,深圳國家高技術產業創新中心專家。
邱錫鵬 復旦大學 教授
個人介紹:邱錫鵬,復旦大學計算機學院教授,國家優青獲得者,於復旦大學獲得理學學士和博士學位。主要從事自然語言處理、深度學習等方向的研究,發表CCF A/B類論文70餘篇,獲得ACL 2017傑出論文獎(CCF A類)、CCL 2019最佳論文獎、《中國科學:技術科學》2021年度高影響力論文獎,有4篇論文入選PaperDigest釋出的IJCAI/ACL/EMNLP的最有影響力論文(各會議每年10篇)。出版開源專著《神經網路與深度學習》,Github關注數1.5萬,豆瓣評分9.4分。主持開發了開源框架FudanNLP和FastNLP,已被國內外數百家單位使用。2015年入選首屆中國科協青年人才託舉工程專案,2018年獲錢偉長中文資訊處理科學技術獎青年創新獎一等獎,2020獲第四屆上海高校青年教師教學競賽優等獎,2021年獲首屆上海市計算機學會教學成果獎一等獎(第一完成人)等。培養學生多次獲得一級學會優博、微軟學者、百度獎學金等。
郭偉東 騰訊 信服線 AI演算法中心負責人
個人介紹:2012年碩士畢業於北京理工大學,後加入百度從事自然語言處理研究工作,負責NLP基礎工具建設,以及內容理解相關工作。於2017年加入騰訊,目前任騰訊信服線 AI演算法中心負責人。
① 大規模預訓練及應用
出品人:王金剛 美團 NLP中心 高階演算法專家
個人介紹:王金剛,博士,中文資訊學會青工委委員,美團 NLP 中心高階演算法專家。研究方向為自然語言處理,在 TKDE、SIGIR、AAAI、IJCAI、ACL、EMNLP 等頂級期刊和會議上發表 20 餘篇論文;2016 年畢業後加入阿里巴巴,任職於搜尋事業部,達摩院機器智慧技術實驗室 NLP 團隊及機器翻譯團隊,先後參與智慧問答、文字摘要和機器翻譯等方向工作。2018 年加入美團 NLP 中心,負責美團預訓練平臺建設工作。
王奇凡 Meta AI Senior Staff Research Scientist
個人介紹:王奇凡目前是Meta AI的一名資深科學家,領導一個AI團隊構建創新的深度學習和自然語言處理模型。在加入Meta之前,他曾在Google Research擔任資深科學家,專注於深度領域表示和大規模物件理解。王奇凡於2015年獲得普渡大學計算機科學博士學位。在此之前,他獲得了清華大學計算機科學碩士學位和學士學位。他的研究興趣包括深度學習、自然語言處理、資訊檢索、資料探勘和計算機視覺。他在 SIGKDD、SIGIR、WWW、NeurIPS、IJCAI、AAAI、ACL、EMNLP、WSDM、CIKM、ECCV、TPAMI、TKDE 和 TOIS 等頂級會議和期刊上共同撰寫了50多篇論文,並擔任學術會議和期刊的區域主席、程式委員會成員、編輯委員會成員和審稿人。
演講主題:結構化和長序列中的資訊抽取及其應用
演講提綱:資訊抽取是指從輸入資料中識別目標資訊的任務。它是一個重要的研究課題,在資訊檢索和NLP領域得到了廣泛的研究。現有的資訊提取方法有兩個主要限制:可擴充套件性和靈活性。大多數現有方法獨立提取不同的資訊併為每個資訊構建單獨的模型,這不適用於現實世界應用中的大規模資訊提取系統。此外,非常有限的研究集中在結構資料的資訊提取上,其中輸入可以來自具有不同模式的不同來源。在這項工作中,我們提出了一種擴充套件變壓器容量 (ETC) 以處理結構和長序列輸入的創新模型。我們基於 ETC 設計了兩個新模型,以展示該模型在屬性值提取和網頁提取兩個下游應用中的有效性。我們對幾個基準資料集進行了廣泛的實驗。結果表明,所提出的方法優於幾種最先進的方法,具有很大的優勢。
聽眾收益:
1. 結構化和高效率的Transformer模型
2. 如何把現有的高效Transformer模型應用到資訊抽取的場景
3. 如何對結構化的資料進行深度建模
嚴明 達摩院 高階演算法專家
個人介紹:嚴明,博士畢業於中科院自動化所,2016年加入阿里巴巴達摩院機器智慧實驗室自然語言智慧團隊,現為團隊多模態基礎技術負責人,並負責相關技術的業務落地。主要研究方向為機器閱讀理解、預訓練語言模型與多模態內容理解。在SQuAD/GLUE/MSMARCO/VQA等10多個國際賽事中取得第一,並在上述4個國際頂級賽事榜單取得超越人類的結果。參與打造的AliceMind語言模型體系入圍2021年世界人工智慧大會最高獎SAIL獎Top30,並獲得達摩院最高榮譽獎項達摩院專案團隊獎。
演講主題:多模態預訓練技術及在電商領域的應用
演講提綱:
1. 簡介/背景
2. 多模態預訓練技術
3. 多模態電商場景應用
4. 總結
聽眾收益:
1. 如何持續提升多模態圖文預訓練演算法效果?
2. 如何將多模態預訓練技術有效應用於多個電商業務?
王瑋 達摩院 演算法專家
個人介紹:王瑋,阿里巴巴達摩院語言技術實驗室演算法專家,北京郵電大學碩士。目前負責大規模語言模型的研發和落地應用。研究興趣包括機器閱讀理解,預訓練語言模型等。提出的SLQA/StructBERT/PLUG等模型曾在SQuAD/GLUE/CLUE等NLP領域頂級benchmark中多次登頂。在ACL/EMNLP/ICLR等會議中累計發表論文十餘篇。
演講主題:STRONGHOLD:Fast and Affordable Billion-scale Deep Learning Model Training
聽眾收益:
1. 快速、便宜地訓練百億引數級別超大模型
2. 至多6.5倍引數規模提升,至多3.7倍吞吐量提升
秦禹嘉 清華大學 博士研究生
個人介紹:秦禹嘉,本科畢業於清華大學電子工程系,目前是清華大學計算機系二年級直博生,師從劉知遠副教授,研究方向為預訓練語言模型,曾在ICLR,ACL,NAACL等會議發表多篇一作論文。
演講主題:預訓練語言模型知識繼承
演講提綱:最近針對大規模預訓練語言模型 (PLM) 的研究發現,越大規模的模型通常會取得越好的下游任務效果,這掀起了一波訓練越來越大的 PLM 的浪潮。然而,訓練大規模 PLM 需要大量的計算資源,既耗時又昂貴。此外,現有的大規模 PLM 大多是從頭開始單獨訓練的,而忽略了許多已經訓練完成的 PLM 的可複用性。為此,我們重點探討了一個加速預訓練的問題,即如何利用已經訓練的 PLM 幫助未來訓練更大的 PLM。具體來說,我們提出了一個名為“知識繼承”(KI)的預訓練框架,並探討了知識蒸餾、引數複用等方法如何在預訓練期間提升 PLM 的訓練效率。
聽眾收益:
1. 如何提升預訓練語言模型的訓練效率
2. 如何實現高效的模型間知識遷移
3. 如何持續高效地學習新領域知識
楊揚 美團 演算法專家
個人介紹:楊揚,美團NLP中心預訓練組演算法專家,東南大學計算機系碩士畢業。主要研究方向為預訓練語言模型及情感分析。2019年加入美團,負責預訓練模型壓縮的研究和應用,現已在美團搜尋、推薦、廣告、智慧客服等多個業務線落地。多篇論文發表於SIGIR/EMNLP/NAACL等頂級會議上。
演講主題:預訓練語言模型壓縮及美團落地實踐
演講提綱:隨著預訓練模型規模越來越大,如何針對大規模的預訓練模型進行壓縮使其能夠上線部署成為了一個亟待解決的難題。本次分享的主題為預訓練語言模型壓縮及美團落地實踐,分別介紹面向高壓縮比場景的預訓練模型壓縮、面向語義匹配場景的雙塔蒸餾以及在美團的落地實踐。
1. 預訓練模型落地應用挑戰
2. 面向高壓縮比需求的模型壓縮方法及應用
3. 面向語義匹配場景的雙塔蒸餾方法及應用
4. 總結與展望
聽眾收益:
1. 如何進行預訓練語言模型的壓縮?
2. 如何面向高壓縮比需求進行預訓練模型壓縮?
3. 如何面向語義匹配場景進行雙塔模型的蒸餾?
劉佳祥 百度 資深研發工程師
個人介紹:我是百度資深研發工程師,專注於語義表示與計算方面的研究,目前負責百度 ERNIE 基礎策略的研發工作。在語義表示、模型壓縮、語義匹配等領域有多年的研究經驗,並負責相關工作在百度搜索等核心產品的應用落地。曾獲得過百度最高獎,國際自然語言處理定級賽事 GLUE 、SuperGLUE 國際賽事冠軍,在權威語義理解賽事 SEMEVAL 連續 3 年冠軍,擁有多項相關專利。
演講主題:大模型與小模型聯動及落地
演講提綱:
1. 簡介/背景
2. 大模型小模型互動技術
3. 大模型落地案例
4. 總結
聽眾收益:
1. 大模型時代小模型的價值如何?
2. 大模型落地過程中,小模型能起到什麼作用?
② 自然語言生成
出品人:黃松芳 達摩院 資深演算法專家
個人介紹:黃松芳,英國愛丁堡大學博士,阿里巴巴達摩院資深演算法專家,阿里巴巴AliceMind大模型團隊負責人,負責超大規模跨模態預訓練模型的技術研發和行業應用,帶領團隊研發了通用大模型PLUG、多模態mPLUG、多語言VECO、生成式PALM、結構化StructuralLM等,在近10個國際比賽和榜單中獲得第一,在機器視覺問答VQA任務上首次超越人類結果。AliceMind開放平臺日均呼叫量超百億次服務阿里巴巴業務場景。團隊工作多次被人民日報、新華網、科技日報、中國電子報等媒體報道。加入阿里巴巴之前,曾在IBM研究院工作。
齊家興 NVIDIA 高階解決方案架構師
個人介紹:齊家興,德國亞琛工業大學博士,目前於英偉達企業解決方案部門擔任高階架構師,多年來從事自然語言處理和語音識別等方向研究,助力多家企業基於 GPU 平臺實現高效易用的訓練和推理平臺。他是英偉達 NeMo,Riva 語音識別訓練推理平臺的中文模型開發者之一。
演講主題:英偉達在自然語言生成領域的最新研究進展
演講提綱:
1. 如何藉助對話歷史來控制對話系統的回覆風格?
2. 如何將文字超連結轉化為知識源來提升回覆質量?
3. 如何合成數據以幫助訓練問答系統模型?
聽眾收益:近年來,基於自然語言生成模型的端到端對話系統成為業界的研究熱點之一。如何生成高質量,擬真,個性化的回覆仍然是一項挑戰。本報告將介紹英偉達將自然語言生成技術應用於對話系統和問答系統的最新研究成果。
李晨亮 達摩院 高階演算法工程師
個人介紹:李晨亮,現為阿里巴巴達摩院高階演算法工程師。2019年碩士畢業於北京郵電大學。主要研究方向為自然語言處理,包括預訓練語言模型、文字生成、多模態等。曾經在相關領域頂級會議如ACL、EMNLP、AAAI等發表多篇相關論文。參與多個國際評測和比賽,在生成、結構化、多模態的相關評測榜單上達到第一,並在多模態VQA榜單上首次超越人類水平。
演講主題:純文字和多模態生成預訓練技術及其應用
演講提綱:
1. 純文字生成預訓練模型PALM 2.0
2. 多模態生成預訓練技術
3. 預訓練生成模型的業務應用
聽眾收益:
1. 如何透過預訓練任務減小預訓練和下游任務的gap?
2. 多模態生成預訓練和純文字生成預訓練有哪些不同?
3. 生成模型在工業上有哪些應用場景?
王碩寰 百度 資深研發工程師
個人介紹:王碩寰,百度自然語言處理部資深研發工程師,目前工作集中在文心大模型ERNIE的技術研發與應用,所研究的成果在AAAI、ACL、EMNLP發表論文多篇,申請國內外專利100餘項,曾在GLUE、SuperGLUE、XTREME、SemEval等國際權威評測獲得10餘項冠軍。相關工作榮獲世界人工智慧大會最高榮譽SAIL獎、中國人工智慧學會優秀成果、百度最高獎等獎項。
演講主題:基於文心大模型 ERNIE 的自然語言生成
演講提綱:
1. 文心大模型 ERNIE 的技術原理與最新進展
2. 文心大模型 ERNIE 平臺及其在自然語言生成中的應用
3. 自然語言生成的挑戰與未來
聽眾收益:
1. 瞭解文心大模型 ERNIE 的最新技術進展
2. 瞭解文心大模型 ERNIE 在自然語言生成中的應用案例
3. 瞭解如何使用文心大模型
劉琦 騰訊 高階研究員
個人介紹:畢業於大連理工大學,研究興趣包括知識抽取、文字生成、多模態學習、預訓練語言模型。在遊戲智慧創編、資訊流內容質量業務場景有豐富的演算法實踐經驗。當前負責遊戲短影片AI創作的演算法開發和專案落地。
演講主題:遊戲影片創作中自然語言生成的應用
演講提綱:
1. 背景介紹
1.1 專案背景
1.2 業務價值和難點
2. 解決方案
2.1 短影片創作整體流程
2.2 智慧文案生成整體框架
3. 文案生成模型&改進方法
3.1 自然語言生成方法介紹
3.2 技術選型&模型最佳化
4. 業務應用效果展示
5. 總結與展望
聽眾收益:
1. 自然語言生成最新研究方法有哪些?
2. 自然語言生成中多模態到文字如何結合業務技術選型?
3. 跨模態檢索技術在文字生成中的應用探索。
4. 影片創作中生成技術的應用實踐經驗。
劉明童 瀾舟科技 高階研究員
個人介紹:博士,主要研究方向為自然語言處理,發表會議及期刊論文30餘篇,目前擔任瀾舟科技高階研究員,負責機器翻譯、文字生成、智慧客服等專案的研發與落地,有著豐富的科研落地實踐經驗。
演講主題:基於預訓練語言模型的可控文字生成研究與應用
演講提綱:近年來,基於 Transformer 和自監督學習的預訓練語言模型具有良好的泛化能力,在長文字生成和可控文字生成方面取得了較好的效果,引起學術界和工業界越來越多的關注。本報告將重點介紹這一領域取得的一些進展和麵臨的主要挑戰,並介紹瀾舟在可控文字生成方面的一些探索。
聽眾收益:
1. 智慧文字生成的關鍵技術與挑戰
2. 如何提高長文字生成的質量
3. 瀾舟科技在長文字生成落地方面的實踐經驗
安晨鑫 復旦大學 碩士研究生
個人介紹:復旦大學自然語言處理實驗室碩士研究生。此前在於2020年在復旦大學獲得學士學位。導師為邱錫鵬教授。研究興趣包括自動文字摘要(text summarization),機器翻譯(machine translation)以及非自迴歸生成(non-autoregressive generation)。
演講主題:基於對比學習的文字生成方法
演講提綱:目前基於transformer的序列到序列模型已經成為學術界和工業界主流的文字生成框架。但是基於最大似然估計訓練的生成模型往往會遇到一個老生常談的曝光偏差問題(exposure bias)導致了模型在訓練和預測階段並不是特別的匹配。在本次報告中我們討論一種新的緩解這種問題的策略–對比學習。透過將模型曝光到錯誤的序列並使用對比學習的損失函式區分這些序列,提升模型在預測階段的範化能力。但是在通用文字生成上的對比學習方法仍在探索階段。我們主要就三個方面討論如何設計一個好的文字生成上的對比學習框架。第一,如何在文字生成的場景下構造質量最夠高的正負樣本。第二,合適的對比學習損失函式形式。第三,對比學習場景下的解碼演算法。我們針對以上三個問題提出了一個新的基於對比學習的文字生成框架。實驗表明我們在10個數據集,5個生成任務上包括機器翻譯,文字摘要,程式碼註釋生成,結構化資料到自然語言生成以及常識生成都取得了非常好的效果。並在其中一些資料集上取得了最新的State-of-the-art。
聽眾收益:
1. 如何緩解生成模型上的“曝光偏差問題” ?
2. 設計一個通用的對比學習生成框架需要注意些什麼問題 ?
3. 正負樣本的設計對於對比學習至關重要,在文字生成場景下我們該採取什麼樣的策略?
4. 在對比學習的框架下應該採取什麼樣的推理方法?
③ 多模態理解與應用
出品人:胡瀚 微軟亞洲研究院 principal research manager
個人介紹:Bio: Han Hu is currently a principal researcher and research manager in Microsoft Research Asia (MSRA), and an adjunct ph. D. advisor at Xi'an Jiaotong University. His main research interests include visual architecture design, self-supervised representation learning, and visual-language representation learning. His paper Swin Transformer won the ICCV 2021 Best Paper Award (Marr Prize) and is now widely used in academia and industry. He received his Ph. D. and bachelor's degrees from Tsinghua University in 2014 and 2008, respectively. His Ph. D. dissertation received Excellent Doctoral Dissertation Award of Chinese Association of Artificial Intelligence (CAAI). He visited the University of Pennsylvania for half a year in 2012 and worked in Institute of Deep Learning (IDL), Baidu Research, between 2014 and 2016. He served as an area chair for CVPR2021 and CVPR2022.
陳棟 微軟亞洲研究院 高階研究經理
個人介紹:陳棟,微軟亞洲研究院視覺計算組高階研究經理。他的團隊從事影像生成、換臉鑑別等相關研究,同時還從事對抗生成網路,去噪擴散機率模型等影像合成模型研究。在CVPR/ICCV/ECCV等國際會議中發表論文50餘篇。持有專利5項。多項研究工作已用於微軟公司的各種產品中,例如Microsoft Cognitive Services,Windows Hello人臉解鎖等。
演講主題:基於VQ-Diffusion的文字到影像合成
演講提綱:我們提出了基於VQ-Diffusion的文字到影像合成模型。該方法基於VQ-VAE模型,其隱空間由去噪擴散機率模型 (DDPM) 的條件變體建模。我們發現這種隱空間方法非常適合文字到影像合成任務,因為它不僅消除了現有方法的單向關注偏差,而且還允許我們結合掩碼和替換擴散策略來避免累積錯誤。我們的實驗表明,與具有相似引數量的傳統自迴歸 (AR) 模型相比,VQ-Diffusion 產生了明顯更好的文字到影像生成結果。此外VQ-Diffusion 使我們能夠在質量和速度之間取得更好的平衡。我們的實驗表明, VQ-Diffusion 模型比傳統的 AR 方法快 15 倍,同時獲得了更好的影像質量。
聽眾收益:
1. Diffusion 能超越 GAN,成為下一代影像生成技術嗎?
2. AI 能像人一樣自由創作嗎?
3. 文字到影像合成有哪些技術難點?
冷海濤 達摩院 高階演算法工程師
個人介紹:畢業於哈工大,校招入職阿里。參與建設了阿里小蜜,虛擬主播等專案。現在主要負責數字人互動中的多模態感知能力。
演講主題:多模態預訓練模型的輕量適配技術探索
演講提綱:
1. 多模態預訓練大模型發展現狀與實際應用中的挑戰
2. 語言適配:大模型在中文場景的適配
3. 領域適配:大模型在電商領域的適配
4. 任務適配:大模型在小樣本下游任務的適配
聽眾收益:
1. 瞭解多模態大模型在實際應用中的挑戰
2. 瞭解多模態大模型適配到特定場景的相關技術,包括adapter learning,prompt learning
王紅法 騰訊 專家研究員
個人介紹:王紅法,騰訊廣告多媒體AI中心應用演算法負責人,專家研究員,專注於計算機視覺技術研究與應用。2013年加入騰訊,目前負責多媒體技術在騰訊廣告場景全鏈路中的研究與應用。主導完成文字識別、影像分析、影片理解等多項技術研究,連續三屆在ICDAR競賽中取得14項冠軍,並推動相關技術在廣告創作、廣告稽核、廣告推薦場景中落地取得積極商業價值。
演講主題:AI 大模型技術研究
演講提綱:預訓練 AI 大模型當前是工業界與學術界的研究熱點,相較於小模型而言,它具備精度高、通用性強等諸多優點。本次彙報將主要包括兩方面的內容:
1. 當前業界的AI大模型進展
2. 騰訊自研的混元AI大模型技術解密;
聽眾收益:
1. AI 大模型是什麼
2. AI 大模型的業界進展
3. 騰訊混元 AI 大模型是什麼
王建峰 微軟 Principal Researcher
個人介紹:I am a Principal Researcher at Microsoft Cloud & AI and focus on large-scale multimodal representation learning recently. I have broad research interest, including computer vision, e.g. image classification and object detection, and vision-language intelligence, e.g. vision-language pretraining and visual question answering. I received the B.Eng. degree and PhD degree from the University of Science and Technology of China (USTC) in 2015 and 2020, respectively.
演講主題:一個影像到文字的生成模型以及在多模態領域的應用
演講提綱:In this talk, I will present our recent work of a Generative Image-to-text Transformer, GIT, to unify vision-language tasks such as image/video captioning and question answering. In GIT, the architecture consists of only one image encoder and one text decoder under a single language modeling task. We scale up the pre-training data and the model size to boost the model performance. Without bells and whistles, the GIT model establishes new state of the arts on 12 challenging benchmarks with a large margin. For instance, the model surpasses the human performance for the first time on TextCaps (138.2 vs. 125.5 in CIDEr). Furthermore, we present a new scheme of generation-based image classification and scene text recognition, achieving decent performance on standard benchmarks.
聽眾收益:
1. a simple structure can achieve strong performance with large-scale vision-language pretraining.
2. the model achieves human parity for the first time on TextCaps.
3. a captioning model can also conduct image classification without pre-defined vocabulary.
鄧亞峰 碳矽智慧 創始人 & CEO
個人介紹:清華大學人工智慧相關專業畢業,近二十年人工智慧演算法及產品研發經驗,累計申請發明專利130餘項(已授權98項),帶領團隊在FRVT、LFW、FDDB、OGB-Wiki、Flick30k-CN、COCO-CN、PRCV等國際國內主流人工智慧競賽或評測中獲得過一流成績。曾任360集團副總裁、人工智慧研究院院長兼搜尋事業部總經理(管理400人左右的產品技術團隊),曾任科創版第一家人工智慧上市公司格靈深瞳CTO,作為百度深度學習研究院早期員工,是國內最早一批應用深度學習技術的專家之一;擁有億級使用者網際網路產品研發管理經驗,人工智慧軟硬體產品研發管理經驗,帶領團隊在計算機視覺、多模態大模型、知識圖譜、機器人、智慧搜尋等領域都做出過創新成果或先進產品;獲得2021年中國人工智慧年度十大風雲人物稱號,曾擔任中國圖形影像學學會常務理事,北京人工智慧產業聯盟副理事長,大資料分析與應用技術國家工程實驗室-多媒體大資料分析中心主任。現任碳矽智慧科技發展有限公司創始人CEO,致力於用人工智慧技術賦能生命科學領域。
演講主題:Zero and R2D2: A Large-scale Chinese Cross-modal Benchmark and A Vision-Language Framework
演講提綱:中文圖文跨模態表示任務,是一個學術上非常活躍,同時在應用方面也非常有價值的研究領域。講者將主要介紹360人工智慧研究院、清華大學、360搜尋團隊合作的一箇中文圖文跨模態表示框架R2D2,該框架相對最經典的CLIP雙塔框架,借鑑搜尋推薦領域常用的粗排精排模型,提出一種新的結合雙塔和單塔表示的模型框架。該模型相對之前SOTA,在訓練資料僅有幾十分之一的設定下,在大部分任務上已經超越SOTA,在2.5億訓練資料的設定下,更是全面大幅超越SOTA。特別是在零樣本任務上,相對此前的 SOTA,在 Flickr30k-CN 資料集上,R@M 提升到 85.6%(提升了 4.7%),在 COCO-CN 資料集上,R@M 提升到 80.5%(提升了 5.4%),在 MUGE 資料集上,R@M 提升到 69.5%(提升了 6.3%)。上述模型,都已經開源。此外,我們還開源了一個既包括2300萬優質預訓練資料又包括多個下游任務資料的開源評測標準資料集Zero,供領域研究人員使用。
聽眾收益:
1. 一個完全公開的高質量兩千萬量級的圖文跨模態資料集
2. 一個完全超越CLIP框架的雙塔+單塔模型
3. 一個開源的2.5億高質量資料訓練的中文圖文跨模態模型,在Zero Shot任務中顯著超越SOTA
文石磊 字節跳動 智慧創作視覺技術負責人
演講主題:多模態技術在智慧創作中的應用
④ 人機對話與互動
出品人:謝劍 百度 主任研發架構師,小度演算法團隊技術負責人
個人介紹:謝劍,百度主任研發架構師,現小度演算法團隊負責人。10年+持續深耕自然語言處理、搜尋、推薦、廣告、對話等大規模機器學習系統,曾負責過百度鳳巢、商業知心、多模搜尋等系統的核心演算法,國內外專利三十多篇,EMNLP/AAAI 等論文多篇,帶領團隊研發出家喻戶曉的小度智慧助手,其中技術曾獲得 DSTC10 相關對話比賽世界第一。
孫叔琦 百度 主任研發架構師
個人介紹:孫叔琦,主任研發架構師,百度智慧對話平臺UNIT技術負責人。2014年獲哈爾濱工業大學博士學位後加入百度,主要研究方向包括自然語言處理、對話系統、詞法分析等。
演講主題:智慧對話平臺 UNIT 應用與技術解析
演講提綱:向企業及個人開發者分享對話系統領域的技術及在多個應用場景的落地案例,深度解讀UNIT平臺技術能力與實踐經驗。
聽眾收益:
1. 如何基於平臺化產品構建對話系統
2. 平臺內建能力如何幫助開發者降本增效
3. 對話系統在不同執行環境的部署考量
楊振宇 OPPO 小布智慧中心 高階技術總監
個人介紹:楊振宇,OPPO小布智慧中心認知計算技術負責人,深圳市高層次人才計劃入選者,於中國科學技術大學獲得計算機學士和博士學位。近年來主要從事自然語言處理、對話式AI相關演算法研究與落地應用工作。2015年之前任教於國防科學技術大學,學術論文代表作單篇他引超過800次,入選ESI Top 0.1%熱點論文。所從事科研工作曾獲高等院校(科學技術)科技進步二等獎1次、湖南省科技進步二等獎2次。2015年後加入工業界,專注於對話式AI關鍵演算法技術研發與落地,2018年加入OPPO主導NLP與對話演算法工作,幫助公司級戰略產品小布助手實現從零到月活過億的突破。
演講主題:OPPO 對話式 AI 助手小布演進之路
演講提綱:
1. AI助手的發展與思考
2. 小布的誕生與演進
3. 小布之建技能
4. 小布之反智障
5. 小布之懂使用者
6. 未來展望
聽眾收益:
1. 億級月活 AI 助手小布的演進之路
2. 大規模工業化場景下 AI 助手的技術實踐經驗
3. 對於 AI 助手未來的思考與展望
李永彬 達摩院 資深演算法專家
個人介紹:李永彬,畢業於清華大學,阿里巴巴達摩院資深演算法專家,研究方向為Conversational AI & NLP,近年來圍繞預訓練對話模型、任務型對話、TableQA、KBQA、文件問答、多模態對話等方向發表多篇ACL/EMNLP/AAAI/SIGIR/KDD等頂會論文。疫情期間打造了國內最大的疫情外呼機器人公益平臺,獲人民網""人民戰疫""一等獎。其作為創始成員打造了阿里雲智慧客服(雲小蜜),自2019年以來一直排名中國對話式AI雲服務市場份額第一。
演講主題:達摩院 SPACE 對話大模型:知識注入與知識利用
聽眾收益:
1. 預訓練語言模型 vs 預訓練對話模型的區別
2. 如何向大規模預訓練對話模型注入知識
3. 半監督預訓練 SPACE 模型:一種新的知識注入方式
4. 如何高效利用大規模預訓練模型中的知識
吳文權 百度 主任研發架構師
個人介紹:吳文權,計算機碩士研究生,13年入職百度自然語言處理部,致力於開放域對話前瞻技術研發和應用,曾獲百度最高獎。
演講主題:百度文心 PLATO 開放域對話技術
演講提綱:開放域對話技術是自然預處理領域極具挑戰的人機對話技術,百度研發的文心 PLATO 是全球領先的開放域對話大模型,具備多輪流暢的聊天能力,本次演講內容包括以下內容:
1. 開放域對話技術簡介
2. 文心 PLATO 技術介紹
3. 文心 PLATO 應用介紹
聽眾收益:
1. 開放域對話大模型如何實現
2. 開放域對話大模型有哪些挑戰
3. 開放域對話大模型應用場景有哪些
張帆 小米 高階演算法工程師
個人介紹:本碩博畢業於武漢大學,曾在阿里巴巴人工智慧實驗室-天貓精靈,負責語音助手中的NLP相關演算法開發。目前在小米小愛同學負責語音助手中的 NLP 相關演算法開發。
演講主題:語音助手中的 NLP 技術應用與研究
演講提綱:本次分享主要從語音助手出發,介紹其背後常見流程,並分享自然語言理解演算法在其中的應用與研究。針對小愛同學複雜的對話場景和使用者資料規模,介紹多輪對話方塊架的建設,離線模型量化的技術,以及如何透過自學習方式搭建語義自標註系統。
聽眾收益:
1. 語音助手背後的基本框架
2. 多輪對話基本框架
3. 模型量化
⑤ 資訊抽取與檢索
出品人:馮仕堃 百度 主任架構師
個人介紹:馮仕堃,百度主任架構師,畢業於中國科學院自動化所,負責語義表示、圖學習、智慧文件理解等方向,研發成果廣泛應用於搜尋引擎、資訊流、智慧音箱、地圖等產品,顯著改善億萬網民使用者體驗。取得包括大資料權威比賽KDD CUP、國際權威通用語言理解評估基準GLUE、SuperGLUE、全球規模最大的語義評測SemEval、文件理解權威榜單DocVQA等評測世界冠軍十餘項, 在CVPR、AAAI、IJCAI等人工智慧頂級國際會議發表多篇高水平學術論文,相關論文被Paper Digest評為AAAI 2020最具影響力的學術論文之一,擁有四十餘項國內外技術專利,榮獲2021中國優秀專利獎。榮獲世界人工智慧大會最高獎項 SAIL 獎、中國人工智慧學會優秀科技成果獎和2次百度最高獎。
蔣海雲 騰訊 高階研究員
個人介紹:蔣海雲,男,2020 年博士畢業於復旦大學資料科學方向,主要研究包括知識圖譜、文字理解,自然語言生成等,在 ACL,EMNLP,IJCAI、AAAI、ICDE 等會議發表論文20餘篇。
演講主題:騰訊文字理解系統 TexSmart 中的細粒度實體識別關鍵技術
演講提綱:
1. 騰訊文字理解系統 TexSmart 介紹
2. 基於模板和知識挖掘的細粒度識別和分類
3. 基於鄰居資訊增強的細粒度實體分類
4. 基於多方面聯合推斷的零資源細粒度實體分類
聽眾收益:幫助聽眾瞭解細粒度實體分類和識別的經典和前言,以及工業界落地的方案。
戴岱 百度 資深研發工程師
個人介紹:戴岱,畢業於中科院自動化研究所,現任百度自然語言處理部資深研發工程師,主要負責內容理解、情感分析、資訊抽取等相關工作。
演講主題:資訊抽取統一建模技術及應用
演講提綱:
1. 資訊抽取技術在業務中的定義、劃分及意義
2. 封閉式資訊抽取統一建模技術
3. 開放式資訊抽取統一建模技術
4. 開源通用資訊抽取技術及工具 UIE
5. 資訊抽取典型業務落地場景
聽眾收益:
1. 學習資訊抽取的基本定義、業務場景及面向的具體問題
2. 學習如何使用統一建模技術,簡化資訊抽取模型的選型、降低資料標註和定製研發成本
3. 學習開源通用資訊抽取工具 UIE 的使用方法
龍定坤 達摩院 高階演算法工程師
個人介紹:達摩院自然語言智慧實驗室高階演算法工程師, 碩士畢業於北京航天航天大學。主要從事中文基礎詞法、文字語義匹配、搜尋召回等方向的工作,相關技術服務阿里巴巴集團多個核心業務,帶領團隊提出的預訓練語言模型文字檢索方案在 MS MARCO Passage Ranking 任務暫列第一。
演講主題:預訓練語言模型文字檢索
演講提綱:
1. 文字檢索&預訓練語言模型背景介紹
2. 搜尋召回排序預訓練
3. MS MARCO Passage Ranking 第一名方案介紹
聽眾收益:
1. 如何使用預訓練語言模型做文字檢索
2. 面向文字召回、排序的預訓練最佳化方案
3. MS MARCO Passage Ranking 第一名方案介紹
王楠 Jina AI 聯合創始人兼CTO
個人介紹:王楠,Jina AI 聯合創始兼 CTO,博士畢業於德國波鴻魯爾大學。自2009年開始從事深度學習相關研究,之後先後擔任德國知名電商 Zalando 高階資料科學家,騰訊高階研究員,在搜尋和推薦領域的具有豐富的模型設計、實現和部署經驗。專注於機器學習和深度學習演算法在 NLP 和搜尋領域的實際應用。作為開源神經搜尋框架 Jina 的核心貢獻者,熱衷於開源軟體和雲原生技術。
演講主題:淺談神經搜尋
演講提綱:
非結構化資料在我們身邊無處不在,從每天工作要處理的pdf文件到打發時間看的小影片,從隨手拍攝的照片到大紅大紫的元宇宙3D模型,我們身邊80-90%的資料都是非結構化的。如何對非機構化資料進行搜尋正在成為一個越來越重要的問題。
與此同時,深度學習和人工神經網路在過去十幾年間取得了有目共睹的進展。各種人工神經網路模型在搜尋系統中開始扮演越來越重要的角色,他們也是幫助我們解決非結構化資料搜尋問題的關鍵。透過人工神經網路,我們一方面可以透過預測標籤將非結構化資料轉化為結構化資料,另一方面可以把非結構化資料轉化到向量空間中,在這個空間裡,相似的資料聚會在一起,不同的資料分散在不同位置。使用人工神經網路模型的搜尋系統,我們稱之為神經搜尋系統。
但是從0開始搭建一個完整的神經搜尋系統並不簡單,開發者通常需要具備深度學習的相關知識,還需要了解如何部署模型,如何搭建分散式服務,如何維護資料庫,如何更新模型等等不同的知識。
在Jina AI,我們致力於打造一整套完整的神經搜尋生態,幫助開發者用最低的開發成本完成神經搜尋系統的搭建。
這套生態包括DocArray, Jina, Finetuner和Jina Hub四個組成部分,其中DocArray提供對非結構化資料進行封裝和表示的基本資料型別。基於DocArray,開發者可以快速在本地完成一套神經搜尋系統的搭建。Jina提供從本地服務到雲端k8s部署的完整功能。在搭建過程中,開發者通常會反覆使用相同的模組,Jina Hub為開發者提供即插即用的預製模組,並且也是開發者進行模組分享的平臺。在向量計算的步驟,預訓練模型往往不能夠滿足實際應用中的精度需求,finetuner透過封裝常用的深度學習框架和提供搜尋場景常用的微調任務,實現幾行命令即可完成模型在任務領域的微調適配。
Jina AI提供的整個生態系統全面擁抱開源社群,目前已經有超過200多位小夥伴為Jina社群貢獻程式碼,社群裡更有2000多位小夥伴參與討論。我們希望可以幫助越來越多的開發者瞭解神經搜尋並使用神經搜尋解決實際問題,也希望能夠有越來越多的開發者加入到我們社群,為開源軟體和神經搜尋的添磚加瓦。
聽眾收益:
1. 神經搜尋系統的現狀和挑戰
2. 瞭解 JinaAI 全家桶
伍藝 百度 演算法工程師
個人介紹:從事過 LTR、相關性、異構排序等相關工作。
演講主題:語義模型在搜尋中的應用
⑥ NLP產業創新與實踐
出品人:劉建榮 達摩院 產品總監
個人介紹:阿里巴巴達摩院機器智慧產品負責人。
楊寶嵩 達摩院 演算法專家
個人介紹:楊寶嵩在阿里巴巴達摩院翻譯團隊擔任演算法專家。他本碩博分別就讀於四川大學、日本早稻田大學、以及澳門大學。他在機器翻譯、自然語言處理領域探索近10年,在頂級國際學術會議和期刊如 ACL、EMNLP、AAAI 等發表論文超30篇,並在這些頂級會議擔任審稿人、領域主席等職務。2020年加入阿里巴巴後,他持續探索如何改進機器翻譯技術,助力跨境電商產業,目前是阿里翻譯演算法團隊翻譯方向負責人。
演講主題:機器翻譯在跨境電商的應用與研究
演講提綱:
1 阿里翻譯介紹
1.1 平臺概覽
1.2技術創新
2 翻譯助力跨境電商
2.1 商品文字翻譯
2.2 買賣家溝通
2.3 圖片
2.4 直播
3 最新技術探索與應用
3.1 基礎模型改進
3.2 翻譯質量評估
3.3 領域適應
3.4 知識融合
3.5 翻譯個性化
聽眾收益:
1. 機器翻譯如何助力跨境電商?
2. 阿里翻譯應用了哪些前沿技術?
3. 阿里翻譯有哪些技術創新?
王龍躍 騰訊 AI Lab 資深研究員
個人介紹:王龍躍,博士,騰訊人工智慧實驗室資深研究員。2018年于都柏林城市大學獲計算機應用專業博士學位,歐洲機器翻譯學會2018年最佳博士論文獎獲得者。其主要從事機器翻譯、篇章分析等自然語言處理方向的研究,在Neurocomputing、ICLR、ACL等國際期刊和會議上發表論文四十餘篇,累計申請相關專利五十項。參加國際學術比賽十餘次,其中獲得國際機器翻譯比賽六項冠軍。擔任2021騰訊AI Lab犀牛鳥專項研究計劃專案負責人,中文資訊學會青年工作委員會委員。此外在知名期刊和會議中擔任編委會成員、領域主席和審稿人。
演講主題:基於網文場景的篇章翻譯研究與落地
演講提綱:本報告圍繞我們機器翻譯系統在網路文學翻譯中遇到的實際問題展開,重點介紹在篇章翻譯中的技術積累和最新成果感知兩個方面介紹我們自研方法。
聽眾收益:近年來,網路文學成為中國文化出海的新亮點。由於人工翻譯效率無法滿足海量網文,業界開始探索更高效的自動翻譯方案。另一方面,網文具有豐富文學特性和語言學現象,這給翻譯模型帶來的極大挑戰。因此,基於網文場景的自動翻譯同時具有應用價值和研究價值。本報告圍繞我們機器翻譯系統在網路文學翻譯中遇到的實際問題展開,重點介紹如何利用自研的篇章技術打造網文翻譯系統,此外還會介紹我們最新的研究成果。
謝朋峻 達摩院 高階演算法專家
個人介紹:謝朋峻,達摩院語言技術實驗室高階演算法專家,2012年南京大學碩士畢業後加入阿里,先後在淘寶搜尋、電商知識圖譜、達摩院NLP等團隊工作10年。主要工作領域包括詞法分析、資訊抽取、資訊檢索、大資料資料探勘等。目前在達摩院負責基礎詞法、語義匹配的技術研發和產品落地。同時是阿里雲智慧搜尋產品、地址分析產品演算法負責人。在ACL、EMNLP、NAACL等會議發表論文20餘篇。
演講主題:基於預訓練模型的行業搜尋應用和研究
聽眾收益:
1. TO B 和 TO C 搜尋的區別是什麼
2. 預訓練語言模型在搜尋哪些鏈路發揮價值
3. 行業搜尋場景有哪些
徐海 海管家 VP
個人介紹:海管家聯合創始人,主要負責產品創新。
演講主題:AI 加持報關行業轉型
演講提綱:
1. 公司介紹
2. 報關的本質與難點
3. AI 與報關
4. 行業對技術的需求
姚聰 達摩院 資深演算法專家
個人介紹:姚聰博士,擁有華中科技大學學士和博士學位,從事計算機視覺方向的研究,主要專業領域為自然場景OCR和文件AI。現擔任阿里巴巴達摩院語言技術實驗室OCR團隊負責人,主持基礎文字檢測識別、多模態文件理解等技術的研究和應用。曾在曠視科技負責雲服務業務相關視覺演算法的研發工作。在人工智慧和計算機視覺領域的著名期刊TPAMI、IJCV、TIP以及頂級會議CVPR、ICCV、ECCV、AAAI等上發表學術論文20餘篇,論文總引用量超過10000(根據Google Scholar)。
演講主題:文件智慧技術應用與研究
演講提綱:
1. 文件智慧技術平臺建設
2. 文件智慧關鍵技術研究
3. 文件智慧產業應用案例
4. 文件智慧技術未來展望
聽眾收益:
1. 如何建設領先的文件智慧技術平臺?
2. 文件智慧涉及到哪些前沿技術?
3. 文件智慧有哪些產業應用案例?
⑦ 機器翻譯與同傳
出品人:黃國平 騰訊 AI Lab 高階研究員
個人介紹:黃國平,博士,騰訊 AI Lab 高階研究員,畢業於中國科學院自動化研究所,研究方向為機器翻譯、自然語言處理。長年專注於人機互動式機器翻譯的研究與應用,在 ACL、AAAI、IJCAI 等人工智慧領域頂級會議與 TASP 等頂級期刊發表論文 20 餘篇。
韓林濤 北京語言大學 教師
個人介紹:韓林濤 – 任教於北京語言大學外國語學部高階翻譯學院,碩士生導師,擔任國家級和北京市級一流本科專業翻譯(本地化方向)專業負責人。在校主講本科階段和研究生階段術語學、翻譯專案管理、計算機輔助翻譯、資料庫原理、翻譯與本地化實踐、翻譯專案管理等課程,長期致力於探索“翻譯”與“技術”的深度融合之道。著有《譯者程式設計入門指南》,由北京市教委評為北京高校優質本科教材。
演講主題:機器翻譯在語言服務行業中的現狀與期許
演講提綱:
1. 語言服務行業中有哪些語言技術
2. 機器翻譯如何應用於語言服務流程
3. 機器翻譯解決了什麼問題
4. 機器翻譯在語言服務行業的發展期許
聽眾收益:
1. 機器翻譯在哪些環節替代了人工翻譯?
2. 為什麼語言服務流程中人工翻譯僅是一小環?
3. 如何在語言服務行業挖掘機器翻譯的商業價值?
4. 機器翻譯質量如何繼續提升?
楊浩 華為2012文字機器翻譯實驗室主任
個人介紹:北京郵電大學國家重點實驗室博士,師從兩院院士陳俊亮院士,華為2012文字機器翻譯實驗室主任。多篇ACL,NAACL,ICLR,ICASSP等頂會論文,10+ WMT/IWSLT國際機器翻譯比賽冠軍。
演講主題:等長機器翻譯研究及配音字幕的最佳化
演講提綱:
1. 多模態音影片中的等長機器翻譯簡介
2. 基於預訓練機器翻譯長度預測和領域微調的持續最佳化
3. 自迴歸和非自迴歸兩大主流機器翻譯模型的對比最佳化
4. 華為 AI 字幕自動配音等場景的落地我最佳化
聽眾收益:
1. 從文字翻譯到多模態翻譯的主流方法
2. 兩大主流機器翻譯模型,自迴歸和非自迴歸的區別和優勢
3. 預訓練加微調,實現模型的快速遷移和持續最佳化
杜權 小牛翻譯 CTO
個人介紹:小牛翻譯團隊CTO,畢業於東北大學,主要從事深度學習技術研究、機器翻譯模型訓練及系統研發。負責研發了支援以中文為核心304種語言的小牛翻譯引擎。2016年獲得國內自然語言處理領域最高科技獎——錢偉長中文資訊處理科技一等獎。
演講主題:NiuTrans 多國語機器翻譯系統
演講提綱:
1. 介紹小牛翻譯的背景以及在統計機器翻譯和神經機器翻譯兩代技術更替中面臨的機遇與挑戰。
2. 介紹針對不同機器翻譯應用場景中的多樣化需求,小牛翻譯在技術上的探索與發現。
3. 機器翻譯行業應用中的技術難點與發展趨勢。
聽眾收益:
1. 如何構建高效的神經機器翻譯模型?
2. 模型壓縮方法在實際應用場景下如何使用?
3. 如何構建大規模多語種機器翻譯系統?
陳件 一者科技 聯合創始人兼 CTO
個人介紹:陳件,上海一者資訊科技有限公司聯合創始人兼CTO,畢業於西北工業大學。曾就職於華為、百度。同濟大學、華東政法大學MTI校外導師。曾參與編寫多本翻譯技術相關書籍,獲4項翻譯技術發明專利授權。現主要負責一者科技產品研發工作,主導設計和研發了YiCAT線上翻譯管理平臺、線上對齊、多功能語料庫平臺、qtrans文件快翻等知名產品。
演講主題:檔案翻譯中的格式解析和譯文回填的研究與實踐
演講提綱:
1. 檔案解析和回填的難點分析
2. 檔案解析與回填的一般過程
3. AI 在檔案解析與回填的運用
劉樂茂 騰訊 AI Lab 專家研究員
個人介紹:劉樂茂,現騰訊AI Lab專家研究員,2013年博士畢業於哈爾濱工業大學,之後分別就職於紐約城市大學和日本NICT研究所,17年加入騰訊。研究興趣是自然語言處理、機器翻譯和神經網路可解釋性。目前為止,在ACL, EMNLP, NAACL, COLING等主流會議和刊物上發表論文約70篇,獲得ACL2021傑出論文獎和中國計算語言學大會(2020)最佳展示獎;擔任過EMNLP2022領域主席(Area Chair),IJCAI 21高階程式委員(SPC),EMNLP Findings (2020) 論文出版聯合主席(Publication Co-chair)。
演講主題:融合翻譯記憶的神經機器翻譯最新進展
演講提綱:近年來,隨著神經機器翻譯(NMT)的興起,融合翻譯記憶的NMT引起了廣泛的關注。本報告將首先介紹融合翻譯記憶的NMT的基本框架,以及該框架下的三個基本要素:翻譯記憶檢索庫,檢索度量和翻譯模型架構。更進一步,它對該框架下的多種不同融合翻譯記憶的模型進行總結和分類;特別地,針對不同的類別,它還將詳細介紹幾種經典的模型結構及其實現方法。最後,它還將指出目前的研究還面臨的一些挑戰,並對未來的相關研究方向進行展望。
聽眾收益:聽眾可以瞭解神經機器翻譯的基本思想,特別是如何利用(翻譯記憶的)檢索技術提升神經機器翻譯的新思路。
牛力強 騰訊微信 高階研究員
個人介紹:牛力強,2009-2016期間就讀於南京大學計算機系&自然語言處理組。碩士畢業之後加入騰訊,歷經廣告排序、小微對話系統、搜一搜文章排序、智慧音箱推薦等業務,現主要負責微信場景圖片翻譯相關最佳化工作。
演講主題:微信圖片翻譯實踐
演講提綱:
1. 微信翻譯業務介紹
2. 微信圖片翻譯引擎構建&最佳化
3. 核心模組原理介紹:圖片語種識別、多語言段落檢測、NMT翻譯引擎、圖文合成、圖片增強等
聽眾收益:
1. 瞭解微信翻譯的落地場景
2. 瞭解微信圖片翻譯背後的技術實踐
李響 小米 AI 實驗室 機器翻譯負責人
個人介紹:小米AI實驗室機器翻譯負責人,為小米手機和小愛翻譯等軟硬體產品提供“雲+端”的多模態機器翻譯能力,服務全球數億使用者,帶領團隊參加WMT/IWSLT/AutoSimTrans國際機器翻譯比賽獲得多個任務冠軍。
演講主題:小米同聲傳譯的技術探索和落地實踐
演講提綱:
1. 同傳技術簡介
2. 同傳的技術挑戰和方案
3. 同傳在小米產品中的應用和實踐
聽眾收益:
1. 瞭解同傳技術現狀和前沿進展
2. 瞭解同傳技術在小米產品中的實踐經驗
▌如何參與?

▌峰會贈書
參與峰會相關活動就有機會獲得紙質書和電子書~

DataFun:專注於大資料、人工智慧技術應用的分享與交流。發起於2017年,在北京、上海、深圳、杭州等城市舉辦超過100+線下和100+線上沙龍、論壇及峰會,已邀請近1000位專家和學者參與分享。其公眾號 DataFunTalk 累計生產原創文章500+,百萬+閱讀,13萬+精準粉絲。

