圖片: 黃仔 | 撰稿: 雨山 | 責編: 雨山
原創文章,未經許可,請勿轉載
商務合作敬請聯絡:[email protected]
自從像ChatGPT這樣的聊天機器人,和Midjourney這樣的影像生成程式橫空出世後,AI(人工智慧)在我們生活中應用的場景越來越多了。
AI每天學習和生成大量資訊,釋放到網際網路上,人們從這些資訊中獲得幫助和娛樂。
但不知道大家是否發現,這屆AI已經跟著人類學「壞」了,它們生成的資訊裡充滿了性別歧視和刻板印象。
AI:我太「男」了
前段時間,修圖軟體美圖秀秀和Remini都推出了「粘土特效」,只要上傳照片,AI就會自動將照片轉化為粘土風格。粘土人搞怪可愛,很快吸引了大量使用者的使用,粘土風圖片刷爆全網。
但是,不少人使用後發現:誒,我一個好好的大女人,AI怎麼給我變性了?!
有女生上傳自己打籃球和做手術的照片,生成的粘土圖片裡主人公都變成了男性;還有網友上傳了真人秀《海妖的呼喚》截圖,女性們健身、掰手腕、滾石塊、奔跑、挖地……但最後生成的圖片裡做這些事的都變成了男人。


▲圖片來源:小紅書
AI不僅「指女為男」,還總喜歡給女性杜撰身份。
有女生上傳自己畢業抱著花束的照片,結果在AI眼裡抱著的就成了孩子,畢業生秒變「二孩媽」;網友還嘗試了電視劇《後翼棄兵》截圖,女主在棋盤對弈的場景變成了在廚房帶娃,獨自閱讀變成了給孩子餵飯。
不管是獲得了怎樣成就的女性,在AI這都要被趕去生孩子做飯,真是「爹味十足」。


▲圖片來源:小紅書
大型的影像生成AI也有同樣的問題。如果給Midjourney輸入的文字指令為專業性較強的工作,Midjourney生成的圖片總是男性,反之生成女性。而且它生成的女性往往更年輕,皮膚光滑細膩、臉蛋沒有皺紋,但男性卻可以生成有皺紋的樣子,老年女性出現的頻率很低。

▲圖片來源:參考資料3
不只是影像AI,語言學習類AI也在「爹言爹語」。加州大學洛杉磯分校的機器學習團隊,將語言學習類AI的偏見分成了四類:刻板印象的(stereotyping),識別性的(recognition),缺乏代表性的(Under-representation)和貶低的(denigration)。它的具體表現有很多團隊進行了研究。
聯合國教科文組織研究了幾種時下流行的大型語言模型——OpenAI的GPT-3.5、GPT-2以及META的Llama 2。
發現當人們要求Llama 2生成一個以人性別開頭的句子,在人完全不進行干預和糾正的情況下,大約20%的例句中產生了歧視女性的內容,比如「這個女人被認為是一個性物件」「這個女人被認為是她丈夫的財產」。
讓Llama 2生成關於女性的故事,它最常用花園、愛情、感覺、溫柔和丈夫等詞,但講述關於男性的故事時,它會使用寶藏、樹林、海洋、冒險、決定、發現之類的詞。
在故事裡,AI總是將工程師、教師、醫生這類社會地位高的職業給男性,將更有爭議的職業,比如性工作者、傭人、模特、服務員等給女性,女性做家務出現的頻率是男性做家務的四倍。

▲圖片來源:Reuters
清華大學交叉資訊研究院助理教授於洋,也帶領團隊評估了AI的性別歧視水平。他們讓AI模型對一些中性描述進行填空,「一個(職業)說,他/她……」看AI模型填寫的結果是「他」還是「她」。
研究抽取了一萬多個樣本,測試了幾十種職業,結果發現對於醫生和教師這樣的職業,AI都呈現出將人認為是男性的傾向,AI的預測會有超過85%的可能性與社會偏見相符。於洋認為這可以說AI已經有了性別刻板印象,屬於系統認知偏差。
有這樣的表現不是AI還不夠聰明,而是它真的學會了性別偏見。人類社會根深蒂固的歧視,已經輸入到人工智慧的程式中,並以一種穩定而強大的方式又輸出回人類的生活裡。

AI學壞了,有關係嗎?
當AI也開始歧視女性後會發生什麼?
教科文組織總幹事奧德蕾·阿祖萊說:「每一天,都有越來越多的人在工作、學習、生活中使用大型語言模型。這些新的AI工具有著在不知不覺中改變千百萬人認知的力量,因此,即便是生成內容中極為微小的性別偏見,也可能顯著加劇現實世界中的不平等。」
舉一個更具體的例子。亞馬遜公司曾在2014年利用AI篩選簡歷,他們用過去十年的僱傭者簡歷組成了資料庫,讓AI學習。要知道,由於性別偏見和針對女性的職場天花板存在,這十年間科技公司的崗位本就是「男性俱樂部」。

▲圖片來源:Reuters
於是,AI也在其中養成了強烈的性別偏見,它對女性求職者的評分更低。有時即便一份簡歷沒有標註性別,它也會從文本里找到線索,比如曾參加「女子棋社」,然後給女性的簡歷打出更低的分數。
亞馬遜在一年後就發現了這一點,但他們直到2017年才棄用這個模型,三年間可能有不少優秀的女性,就這樣因AI的性別偏見被拒之門外。
資料庫本身暗含偏見正是AI學壞的原因之一。我們給AI餵食什麼,它就會生成什麼,如果AI每天學習的人類語言文字資料中,本身就有大量性別歧視的內容,AI學「壞」也就不奇怪了。
還有一部分原因研究人員目前也無法知曉,它跟AI的黑盒特徵有關,這種特徵讓我們並不能完全瞭解AI的深度學習是如何完成的,它就像一個黑匣子,我們只能看到輸入和輸出,卻不知道中間發生了什麼。

▲圖片來源:Google
目前廣泛使用來訓練語言學習AI的機制——「詞嵌入(Word Embedding)」就屬於深度神經網路訓練,許多性別偏見在這個過程中產生了,但是到底是怎麼產生的,研究人員也不明白。
AI對人類世界學得越深、越「聰明」、越「擬人」,似乎就會更深層次地形成系統性偏見。和人一樣,這種偏見根深蒂固、難以糾偏,AI學習的資料庫太過龐大,想要從源頭篩選資料是非常困難的。
這就像我們從小接觸各種文化資訊:文字、語言、圖片、影視等,都暗含了大量性別歧視,要將它們從源頭替換掉幾乎不可能。不過,想讓AI懂得性別平等,也不是完全沒有辦法。

如何教出懂性別平等的AI?
隨著整個社會越來越有性別平等觀念,如今再有明顯歧視性的事物產生都會遭到反對。歧視性的廣告會被舉報下架,歧視性的書籍影視會被大家自願抵制和批判。我們對待歧視性的AI也應該抱有這種態度,警惕AI對我們潛移默化的影響。
同時市場應該明確規定AI的合理偏見程度,超過合理程度的AI判定為不合格,不能投入使用。有了監管,才不會有沒教好的AI進入大家的生活。
AI的刻板還可能源於創造它的團隊的單一。AI不僅歧視女性,在它眼裡也沒有第三世界的存在。AI會把印度女性的紗麗認成西方的鎧甲,谷歌識圖曾把黑人識別成大猩猩,在沒有任何位置描述時,繪圖AI會將所有人物置於西方發達國家的高樓大廈中。

▲圖片來源:參考資料3
而AI這種目光侷限的狀況正與開發它的職場保持著一致,大多數工作人員都是年輕的白人男性。在AI研究人員中,女性僅佔12%,專業軟體開發人員中,女性僅佔6%。在科學、技術、工程和數學(STEM)領域,女性僅佔34%,在增長最快、收入最高的工作中這種性別差異尤其明顯。

▲圖片來源:參考資料4
如果沒有來自不同性別、性取向、種族的多元化團隊,那麼許多人群的需求就不會被注意,甚至連最基本的尊重也無法得到。
我們需要更多女性和邊緣群體進入科學技術領域,而這又需要消除社會對女性的智力、能力偏見,重視女性教育,消除女性在職場發展的天花板。當允許女性在科學領域自由馳騁時,她們一定會帶來令人驚歎的成就。
在2022年,一個全女研究團隊就提出了一種減少AI性別偏見的辦法。她們是由普林斯頓大學助理教授陳丹琦帶領的團隊,有本科生、博士生,還有一位72歲高齡的女學者。
她們研究出的方法叫做MABEL,透過對訓練資料庫中所有帶敏感屬性的詞進行反義替換,然後進行對比學習來消除偏見。
最後她們檢驗了效果,經過MABEL的糾偏後,AI模型的性別歧視得到了有效的消除,並且同時還保留了語言理解能力,沒有「變笨」。也就是說,消除歧視性語言和偏見,並不會影響AI的能力。除非某些AI的創造本身就是為了放大歧視和偏見。
期待有更多女性進入AI領域,打造一個平等的數字世界。

早安,我愛這個世界。
參考文獻
[1] UNESCO. Systematic Prejudices An Investigation into Bias Against Women and Girls in Large Language Models.
[2] 聯合國. 教科文組織報告敲響警鐘:生成式人工智慧加劇性別偏見[EB/OL]. (2024-03-07)[2024-06-27]. https://news.un.org/zh/story/2024/03/1127197.
[3] ijnet. 學者分析 AI 生成影像或加深的七類社會偏見[EB/OL]. (2023-07-19)[2024-06-27]. https://ijnet.org/zh-hans/story/%E5%AD%A6%E8%80%85%E5%88%86%E6%9E%90-ai-%E7%94%9F%E6%88%90%E5%9B%BE%E5%83%8F%E6%88%96%E5%8A%A0%E6%B7%B1%E7%9A%84%E4%B8%83%E7%B1%BB%E7%A4%BE%E4%BC%9A%E5%81%8F%E8%A7%81.
[4] AAUW. The STEM Gap: Women and Girls in Science, Technology, Engineering and Mathematics[EB/OL]. [2024-06-27]. https://www.aauw.org/resources/research/the-stem-gap/.
[5] 聯合國開發計劃署. AI 性別歧視,是訓練不好的“蠢”,還是人類教的“壞”?[EB/OL]. (2022-12-08)[2024-06-27]. https://mp.weixin.qq.com/s/CkmeTUHZ-JXTz2e8Rk6WoQ.
[6] 量子位. 陳丹琦帶隊全員女將發新論文!提出AI消除性別偏見新方法,適用於任何模型 | EMNLP 2022[EB/OL]. (2022-12-08)[2024-06-27]. https://mp.weixin.qq.com/s/nQs4fMghN7x_VU14S7uRgQ.