MLNLPB站官方賬號更新第八期研討會影片!

MLNLP

(

機器學習演算法與自然語言處理

)是國內外最大的自然語言處理社群之一,受眾覆蓋國內外NLP碩博生、高校老師以及企業研究人員。


社群的願景是促進國內外自然語言處理,機器學習學術界、產業界和廣大愛好者之間的交流和進步。

為了方便同學們回顧MLNLP往期研討會內容,我們會將往期研討會影片逐步開放上傳至bilibili。

目前,第八期研討會錄製影片已在bilibili開放,為方便大家觀看,影片已按講者進行分p,影片連結如下:https://www.bilibili.com/video/BV13B4y1q7dS
以下是第八期講者嘉賓的個人資訊以及影片簡介
  大會主席:魏忠鈺
魏忠鈺
魏忠鈺,復旦大學大資料學院副教授,智慧複雜體系實驗室雙聘研究員,博士生導師,復旦大學資料智慧與社會計算實驗室(Fudan DISC)負責人,復旦-中電金信智慧金融科技聯合研究中心主任,香港中文大學博士,美國德州大學達拉斯分校博士後。現任中文資訊學會情感計算專委會副秘書長,社交媒體處理專委會常務委員兼秘書,青年工作委員會副主任。在自然語言處理、人工智慧領域的國際會議、期刊如CL,ACL,SIGIR,EMNLP,ICML, ICLR, AAAI,IJCAI等發表學術論文70餘篇。擔任多個重要國際會議及期刊評審,是EMNLP 2020 多模態領域主席,EMNLP 2021 論辯挖掘與情感計算領域主席。曾獲得2019年度中國中文資訊學會社會媒體處理新銳獎,2020年度華為技術優秀成果獎,2021年上海市啟明星計劃,復旦大學2021年青年教師教學競賽一等獎,2022屆本科生畢業生“我心目中的好老師”提名獎等。
  講者介紹:王柏林
王柏林,麻省理工學院博士後,博士畢業於愛丁堡大學,導師為Ivan和Mirella。主要研究方向為隱變數模型,語義分析,結構化預測,現在的主要研究興趣是在大型模型中引入結構化資訊幫助語言建模。博士期間在國際頂尖會議發表多篇工作。個人主頁: https://berlino.github.io/
  報告摘要
序列模型在自然語言處理中有廣泛的使用,主要應用任務包括機器翻譯,語義分析。當前的序列模型雖然能夠在資料分佈一致的時候取得很好的泛化能力,但是在分佈外的泛化能力非常弱。相比之下,人是可以從很少的資料中實現系統性的泛化能力,即使是對於分佈外的資料。在語言處理的傳統工作中,引入語法規則是實現系統性泛化很好的解決辦法,但是語法規則需要標註,並不適用於實際場景。我們探索如何引入隱結構到序列模型中,讓模型能從資料中,端到端地學習到語法規則相似的規律,從而幫助序列模型實現和人更接近的系統性泛化能力。
  講者介紹:胡俊傑
胡俊傑,終身制助理教授,現任職於威斯康星麥迪遜分校生物統計系和計算機系,博士畢業於卡耐基梅隆大學計算機學院的語言技術研究所。他目前的研究方向集中在自然語言處理和機器學習。具體研究課題包括(1)多語言模型及其在機器翻譯、問答及多語言對話系統中的應用;(2)統計機器學習演算法及深度學習模型在不同資料分佈下的泛化能力;(3)多模態機器學習,用於提高自然語言認知。他在博士期間獲得NAACL 2019 最佳展示論文提名,曾在微軟北美研究院、谷歌研究院實習工作。其研究成果獲得多家媒體報道,其中包括Google/Facebook AI blog,VentureBeat,Slator,Wired等。個人主頁:https://junjiehu.github.io/
  報告摘要
在過去十年中,自然語言處理系統的巨大成功主要是由深度神經網路和對大量標記資料的監督機器學習方法驅動的。然而,在所有可能的現實世界場景下對資料進行註釋是不可行的。因此,在處理不同語言的複雜文字資料或者與其他模態相關聯的資料時,這些系統在實踐中的準確度可能會嚴重下降。在本次演講中,我將介紹用於擴充套件自然語言處理系統在跨語言學習下的泛化能力。首先,我將介紹一種用於學習單詞和句子的多語言表徵的訓練方法,並在 XTREME 上演示其跨語言泛化能力。其次,我將介紹我們在跨語言情景下自然語言處理系統在對話和翻譯上的應用。最後,我將透過概述我在人工智慧、自然語言處理和資料科學等領域的研究計劃來結束本次演講。
  講者介紹:李響
李響,現為UMass Amherst計算機系博士生,導師Andrew McCallum。她將於2022年8月畢業加入AI2與Yejin Choi進行為期一年的博後研究。2023年9月,她將作為助理教授加入匹茲堡大學(UPitt)計算機系。此前,她在芝加哥大學獲得了計算機碩士學位,同時在 TTIC 進行研究。博士期間,她曾在Google AI, Meta AI 以及DeepMind等公司擔任研究實習生。她的論文曾被選為ICLR 2019 spotlight。她的研究方向涉及自然語言處理、常識推理、知識表示和機器學習。她的研究重點是為語言中的隱含常識知識設計機率模型和評估方法。她曾多次擔任自然語言處理領域學術會議(ACL/EMNLP/NAACL/ARR etc)審稿人,並組織相關領域workshop。2023年她將招收全獎博士生,歡迎感興趣的同學聯絡。個人主頁:https://people.cs.umass.edu/~xiangl/
  報告摘要
理解常識知識對於實現通用人工智慧至關重要。這種共享的常識背景知識存在在所有人類交流中,從而促進了我們有效的資訊交流和理解。然而,此類知識量大且複雜,因此,不可能進行明確的分類以及學習。另外,常識知識更是機率性的,比如,水管工可以修理水槽,而水槽的位置可以在廚房或浴室。此類常識知識給背景提供了一個可能的假設,而不是一個確定的答案。因此,為了從根本上與常識知識的屬性保持一致,我們希望使用機率模型對這些知識進行建模和評估。此次演講,我將介紹一個機率模型,該模型使用box embedding來表示常識知識。此類box embedding的使用給我們提供了可以以類似於維恩圖推理的方式處理帶有交集、並集和否定的常識查詢。同時,現有的評估系統並不能反映常識知識的機率性質。為了填補這一空白,我將討論一種透過人工標註獲得與常識理解相關的問題答案分佈的方法。進而,我們在兩個新的常識資料集ProtoQA與CFC中使用這些評估方法,揭示了目前的語言模型仍舊需要在常識理解方向得到提高。
  講者介紹:李濤
李濤,猶他大學計算學 (Computing) 碩士/博士。師從Vivek Srikumar。現在在谷歌研究院(Google Research)研究工程師(Research Engineer)研究方向為計算語言學和機器學習,以及人機互動應用場景中的問題。曾於Philips Research, Amazon, 和AI2做相關研究。在ACL/EMNLP/AAAI/NeurIPS等會議發表過論文。個人主頁:https://www.cs.utah.edu/~tli/
  報告摘要
現代的神經網路學習和評估需要大量標註資料來達到高精確度的分類。然而,邏輯約束廣泛存在在自然語言處理的知識表達中,可以用來提升資料的利用率。本次報告重點描述一個簡單且通用的框架,用來引入邏輯約束到神學網路的學習和評估中。
也歡迎大家關注我們的bilibili賬號,MLNLP-World,以檢視後續的活動直播以及影片!
第九期研討會即將在7月31日舉行,歡迎大家屆時報名參加!

關於我們

MLNLP(機器學習演算法與自然語言處理) 是由國內外自然語言處理學者聯合構建的民間學術社群,目前已經發展為國內外最大的自然語言處理社群之一,旗下包括萬人頂會交流群、AI臻選匯、AI英才匯以及AI學術匯等知名品牌,旨在促進機器學習,自然語言處理學術界、產業界和廣大愛好者之間的進步。
社群可以為相關從業者的深造、就業及研究等方面提供開放交流平臺。歡迎大家關注和加入我們。

相關文章