

MIT教授的一句話,徹底讓整個中國學生圈怒了!
就在昨天,被譽為「情感計算」之母的Rosalind Picard在NeurIPS的受邀演講中,直言「中國學生不誠實」讓全場譁然。
她的一頁PPT中,明晃晃地寫著:
我這樣做,就是為了把論文結果的資料弄得好看點。在我的學校裡沒有人教過我們道德和價值觀。 ——這是一位被頂尖大學開除的中國學生的辯解

在她的註腳中為自己辯解道,「我認識的大多數中國人都是誠實且品德高尚的」
QA環節中,一位中國女學生當場與Picard對峙,並用非常理性、剋制的語言,讓其對種族歧視的言論做出回應。
瞬間,整個學術界炸鍋了!AI大佬集體發聲,紛紛怒斥反駁她的觀點。
谷歌首席科學家Jeff Dean表示,「我雖沒有看那個演講,但我看到的幻燈片內容相當冒犯。這種泛泛而論的偏見在NeurIPS或其他任何地方都不應該存在」。

杜克大學陳怡然教授表示,「就這件事而言,這裡用任何具體的國家、種族、和群體來舉例既不恰當,也完全沒有必要」。

華盛頓大學計算機教授稱,「令人憤怒的是NeurIPS繼續釋出這種垃圾言論。NeurIPS該成熟點了」!
在鋪天蓋地的輿論壓力之下,NeurIPS主委會緊急行動,火速釋出官方道歉宣告。

NeurIPS承認今天主題演講者對中國學者文化刻板印象的言論強化了隱性偏見,但這並不代表NeurIPS的立場。NeurIPS致力於為所有人提供一個安全的空間。 我們需要針對今天下午特邀演講中的評論作出回應,因為這種言論不符合NeurIPS的立場,也違背了我們的行為準則。 我們正在直接與演講者溝通處理這個問題。NeurIPS致力於建設一個多元化和包容性的環境,確保每個人都能得到平等對待。
這場由一頁PPT引發的「血案」之爭,正在持續發酵…….

同一天,NeurIPS 2024大會爆火了兩大熱點。
一件是Ilya現場宣判預訓練時代終結,另一件便是MIT教授冒犯中國學生的言論了。

現場,Rosalind Picard主題演講的題目是——「如何最佳化最重要的東西」?
關於演講的內容,網友也放出了一部分。比如,她提到了構建AGI,我們需要解決的問題要比提出的方案多得多,以及關於情感計算相關的一些研究。

原本這是一場關於學術的探討,卻演變成了一個種族歧視的惡性案件。
那麼,究竟是從什麼話題,她延展到了「中國學生不誠實」的問題?
在一張內容鋪屏的PPT上,Picard重點強調了學術界存在的問題:一些人對AI的不道德使用浪費了其他人大量時間,並損害了學術領域的誠信。
她還引用了英特爾團隊研討會的一個主題研究——你的論文是否正在被LLM審閱?調查同行評審中AI文字的可檢測性。

這項研究揭示了在評審層面個例中,準確識別AI生成文字的困難性,突出強調開發新工具和方法來檢測這類生成式AI不道德應用的緊迫需求
接下來,她引出冒犯性言論的一句話是:「如果你看到了什麼,就說點什麼」?
「如果你看到了不良行為,就把這個人拉到一邊說——快看,這是正確的做法」。

緊接著,她以中國學生為例,稱這是發生在一所知名高校的真實故事。
一名學生因違反學術誠信被開除,而他的辯解令人震驚:「學校沒有教導我們什麼是對錯」。 這種推卸責任的態度,不禁讓人為之憂心。

不過,她又稱,「其實,我接觸到的大多數中國人都非常誠實,道德高尚。我希望這只是一個例外」。
再之後,她做了一個總結:
因此,使用AI生成捏造的結果、虛假資料,並將其發表在出版物上是不正確的。 顯然,我們使用GenAI生成的東西,甚至改進訓練集,目的並不是以這種方式傳遞出去,我們必須在社群中劃清界限說明,我們可以容忍什麼。 我們必須在教育人方面,要做得更好。 我常聽到一些人說,他們迫於壓力要最佳化自己簡歷。當然,每個人都想最佳化簡歷,但是前提是需要考慮一下「約束最佳化」,對吧? 你的誠信,比在簡歷上寫的任何令人印象深刻的東西都重要。 因此,當你最佳化你的生活、簡歷或其他東西時,請確保這是一個有約束的最佳化。
以上這些話,都是Rosalind Picard關於學術誠信討論的一部分。
在QA環節中,一位中國女學生當場發問,「你既然給出了『大多數中國學生都很誠實』的說明,為什麼要特別強調這個群體?
為什麼在整個演講中,只有提到中國學生時,特別標註了國籍」?
Picard表示,「我希望澄清一下,我之前說的並不是基於我個人的判斷,而是那個學生的原話——他說學校沒有教他這些,可能也暗示了很多中國學生都是這種情況。
但就我的親身經歷來說,我接觸過的所有中國人,除了我提到的那一個例外,都是非常優秀的。我希望這只是個特例」。

中國學生繼續表示,我認為這也可能表明,這些學生是正直和誠實的,所以他們才會給你這樣的反饋。
「但是,作為一箇中國人,我個人還是覺得有點被冒犯,因為在你提到的所有不良行為中,這是唯一一處明確提到國籍的地方。」
「我認為在這個群體之外維護好聲譽很重要,但在群體內部,我們也應該提高對這種無意識偏見的認識。我可能對這個種族歧視問題比較敏感。我希望將來如果你再做這個演講,可以刪除那個關於國籍的註釋,因為這對這個特定群體來說似乎不太公平。」


中國人是講道理的,是可以接受批評的,但對於這種「無端的種族偏見」是絕對無法接受的,在各種評論區下,我們也可以看到網友紛紛刷屏「可恥」來譴責這位教授。

在這種官方、公開場合發表種族主義言論,即使只是舉例,也會進一步引發歧視,加深刻板印象,也嚴重違反了NeurIPS的會議規定,所以這場演講的內容本身就是不合適的。

加州大學聖克魯斯分校教授Xin Eric Wang,有理有據地分析了「為什麼身為中國人會感覺到不舒服和被冒犯」。

首先,就算這個例子屬實,真的有中國學生說過「我的學校沒有人教我們價值觀或道德」,教授是不是應該思考一下這是不是學生給出的逃避藉口,而不只是停留在字面上進行理解。
而且這個例子也完全沒有必要和種族主義歧視產生關聯。假設是一個美國學生說的,這位教授會不會也直接相信嗎?
她在發表演講的時候,也清楚地知道自己在說一些「不恰當」的言論,還知道標註上「大部分中國人都是誠實、道德正直的」。
谷歌DeepMind研究員Sun Jiao表示,簡直不敢相信這是在頂級會議上發生的事,大模型的偏見都沒有人類深,是不是會議官方只對作者進行道德審查,但沒有對受邀演講者也進行道德審查?

哈佛大學和MIT的博士生評論表示,NeurIPS宣告中所謂的文化刻板印象(cultural generalization)完全是在和稀泥,中國人從小受到的教育中,重中之重正是「誠實」和「正直」。

2006級清華大學學士、MIT博士、普林斯頓大學博士後,現任Meta FAIR實驗室的人工智慧科學家朱澤園表示:我在清華物理學院的時候,就已經學會了什麼真正的價值觀,當年上實驗物理課時,每個原始資料點都必須保留,即使是最簡單的線性迴歸分析,都必須能追溯到手寫的數字。



當年的課程導師朱鶴年教授花了無數時間來驗證學生有沒有為了畫出更好看的影像而進行資料挑選,一旦被發現就要掛科,無一例外。可復現、可重複是最基本的,沒有餘地的。這不僅僅是規則,更是一種價值觀的傳遞。
谷歌DeepMind研究科學家Yao Fu表示,「讓這張幻燈片更糟糕的是,使用了一個試圖規避責任的小伎倆:演講者先引用了一段特別針對某個特定國籍的冒犯性言論,然後又加上註釋試圖撇清自己的責任,相當於在說『這不是我說的,是你們自己說的』」。

馬里蘭大學副教授Furong Huang認為,在討論作弊事件時完全沒有必要提及學生的國籍,亞洲人普遍信奉「努力工作、避免衝突、不逆反」,我們也要和其他人一樣,在受到種族歧視的時候發聲並要求追究責任。

在問答環節,Picard教授依然以「中國學校沒有教授道德」來進一步強化偏見,甚至泛化到整個中國教育、社會的問題,既不符合事實,又極具冒犯性,從邏輯上分析也行不通:
1、如果學生已經作弊了,為什麼老師還會選擇相信他們的「道德教育」藉口?一位嚴肅的學者會將其作為論點之前進行充分的調查研究。
2、就算學校不教授道德(當然是嚴重錯誤的),家庭和社會也會經常向學生灌輸正確的道德價值觀,否則教授口中「大部分中國學者都是誠實正直」的品質是從哪來的?

事後,Rosalind Picard在MIT媒體實驗室,鄭重發出了道歉信。

全文如下:
在NeurIPS的主題演講中,我分享了一個故事,其中提到了國籍——這個細節我現在後悔提及。我意識到這是不必要的,與我要表達的觀點無關,並且造成了意想不到的負面聯想。
我為此道歉,並對這一事件造成的困擾感到非常抱歉。我正在從這次經歷中吸取教訓,也歡迎大家提出建議,幫助我為社群作出彌補。
我堅信生成式AI帶來的實踐和倫理問題影響著我們所有人。我希望我們能夠跨越國界和文化界限,共同解決這些問題。
或許很多人,對Rosalind Picard這個人非常陌生,不過現在算是「一戰成名」了。

Rosalind Picard是麻省理工學院教授,在MIT主持創辦了Media Lab情感計算研究部,從事機器學習與神經科學的交叉研究。
在著作Affective Computing中,她開創了計算機科學和人工智慧學科中的新分支「情感計算」,該書提出並描述瞭如何向計算機賦予情商技能,包括語音助手、機器人、智慧體以及多種互動技術。

在嘗試創造客觀測量情緒相關資料的方法的同時,Picard團隊還開創了可穿戴技術來監測和分析日常生活中的生理資料,在可穿戴裝置、生理學和身心健康的交叉領域催生了新的研究和發明。
Picard發明過一百多項專利,涉及領域包括用於感知、識別和響應人類情感資訊的可穿戴和非接觸式感測器、演算法和系統,她以極高的影響力當選為美國國家工程院院士和美國國家發明家學院院士,發明成果主要應用於自閉症、癲癇、抑鬱症、創傷後應激障礙、睡眠、壓力、痴呆、自主神經系統疾病、人類和機器學習、健康行為改變、市場研究、客戶服務和人機互動。

Picard創辦了兩家公司:Empatica主要提供經FDA批准的生物標誌物、作為可穿戴裝置收集臨床試驗資料的平臺,以及首款經FDA批准的用於檢測癲癇發作的智慧手錶;Affectiva公司則提供情感AI技術。

Picard是受邀演講的常客,曾做過百餘場特邀主題演講,在TED上有超過200萬次播放量,在學術圈內享譽盛名。
然而,就是這樣一位學術巨匠,在NeurIPS的演講中,犯下了一個極其明顯的錯誤。
一句話,徹底毀掉了多年積累的學術聲譽。
這或許提醒著所有人,學術的嚴謹,不僅僅體現在論文和專利上,更是體現在對人的尊重中。
本文系授權釋出,by 桃子 LRS,From 新智元,微訊號:AI_era。歡迎分享到朋友圈,未經許可不得轉載,INSIGHT視界 誠意推薦



