貼臉輸出!MIT教授公然“種族歧視”:中國學生學術不端!

如果你的教授在課堂上
當著眾多中國學生的面
用中國學生舉例“學術不端”
你會是什麼樣的感受?
這樣的事情
就發生在這兩天的NeurIPS大會上
MIT教授種族歧視惹眾怒
先來給不太瞭解的友友們簡單介紹下。
NeurIPS(Conference and Workshop on Neural Information Processing Systems)是機器學習和計算神經科學領域研究人員展示最新成果、交流學術思想的頂級國際會議,在國際學術界有著極高的聲譽。

今年也有上萬人在加拿大溫哥華參加了該會議,其中還有相當比例的華人。

作為受邀嘉賓,MIT教授Rosalind Picard發表了如何最佳化最重要的事情》的主題演講。

在這個探討人工智慧、情感計算和可穿戴技術的開創性進展的演講的最後,Rosalind Picard談到了學術誠信問題。
比如“一些人對AI的不道德使用,不僅是對他人的時間的浪費,還是對整個領域的傷害”。

然而緊接著,她丟擲了一箇中國學生的例子。
“一個非常優秀的學生因為不當行為被開除,但這個學生卻試圖用「我的學校沒有人教我們道德或價值觀」來為自己辯解。這個學生來自一所中國名校,我很震驚的是,他們認為這是正當的行為。”
隨後又給自己“疊了個甲”:
“我認識的大部分中國人都是極其誠實和正直的,我希望這個案例只是個例外。如果不是他們說這是一件非常普遍的事情,我也不會如此引用。”
“但是我想明確一點…無論你們學校有沒有教過,我們社群都認為這種行為是不誠實和不道德的…”
可以看到,她的slides上也寫了“中國學生”和疊甲的註腳。

但顯然這樣此地無銀三百兩的行為沒有一點說服力。
如果把案例中的國籍去掉,這個故事還成不成立呢?
如果去掉國籍沒有任何影響,那為什麼偏偏要強調國籍呢?
如果把“中國學生”換成黑人,換成LGBTQ群體,換成女性,換成任何一個少數族群呢?
Rosalind Picard的這番操作當場就引起了許多人的不滿。
在Q&A環節,一位中國女生勇敢地據理力爭,並明確希望她能刪掉有關國籍的部分。
“作為一名中國人,我感到被冒犯,因為在所有提到的不良行為裡,這是唯一明確提到國籍的地方…我們也需要提高對潛在的偏見和可能存在的種族主義問題的意識。”
👆網友整理的Q&A文字版
真心道歉還是糊弄了事?
會議結束後,這場風波還在發酵。
“讓我生氣的不是幻燈片而是她的回答…她甚至自己都不能確定引用的話是不是真的。”
“這不僅是種族主義,也是誤導。我的學校確實教授道德和價值觀…此外,我在學校學到的是‘如果你說錯了什麼,你應該真誠地道歉’。”
“消除LLM的種族偏見要比消除人類的種族偏見容易得多!真不敢相信這是在最好的人工智慧大會上發生的。NeurIPS官方對作者有道德審查,對演講嘉賓卻沒有嗎?”
谷歌首席科學家Jeff Dean也表示,“我雖沒有看那個演講,但我看到的幻燈片內容相當冒犯。這種泛泛而論的偏見在NeurIPS或其他任何地方都不應該存在。”
眼看越吵越激烈,NeurIPS官方和Rosalind Picard本人迅速發表了道歉宣告。
NeurIPS承認,今天主講人對中國學者的文化概括強化了隱性偏見。這不是NeurIPS的立場。NeurIPS致力於為我們所有人提供一個安全的空間。我們想談談今天下午受邀演講時發表的評論,因為這是 NeurIPS 所不能容忍的,也不符合我們的行為準則。我們正在直接與演講人討論這個問題。NeurIPS致力於成為一個多元化、包容性的地方,讓每個人都受到平等對待。
在NeurIPS的主題演講中,我分享了一個故事,其中提到了國籍——這是一個我後悔提及的細節。我意識到這是不必要的,與我要表達的觀點無關,且造成了非我本意的負面聯想。我對此表示歉意,並對這一事件所造成的困擾感到非常難過。我正在從這次經歷中吸取教訓,並且歡迎大家提出如何向社群做出彌補的建議。我堅信生成式人工智慧所提出的實際和倫理問題影響著我們所有人。跨越國家和文化界限,我希望我們能夠共同解決這些問題。
不過這兩則道歉宣告並不能讓人買賬。
一是NeurIPS官方把這件事輕飄飄地定性成cultural generalization(文化刻板印象),而不是種族歧視;
二是Rosalind Picard的發言也被認為是避重就輕——
目前,已經有不少氣憤的小夥伴向MIT投訴Rosalind Picard的種族歧視。
還是那句話,學術本應是無國界、無種族之分的,大家共同追求真理和知識的進步,不應因國籍或種族對某個群體進行無端的指責或暗示。
而作為學者和專業人士,在公開場合發言更應謹言慎行,避免使用可能會引起誤解或冒犯的表述。即使是引用個別案例,也應注意避免對整個群體造成不良影響,要充分考慮到言論的影響力和可能產生的後果。
這件事情是否還有後續,我們一起吃瓜


相關文章