當GPT-4o成了網戀平替

海歸學者發起的公益學術平臺

分享資訊,整合資源


交流學術,偶爾風月

GPT-4o的釋出掀起風暴。它在釋出會上的流利表達,以及接近於斯嘉麗·約翰遜的魅力嗓音,應該震撼到了每一個聽眾。人們驚奇地發現,不知不覺間,它已經偷偷繞過了圖靈測試的厚重幕簾,帶領我們走向一個人人都有AI相伴的時代。
圖片來源:ThisIsEngineering
像人一樣說話
5月14日,OpenAI在春季新品釋出會上再次引燃了人們對人工智慧的期待。會上推出的新一代旗艦生成模型 GPT-4o具有強大的即時多模態互動效能:它可以接收文字、音訊和影像的任意組合作為輸入,並即時生成文字、音訊和影像的任意組合輸出。
這意味著,GPT-4o可以直接理解、直接生成音訊或者影片一切內容,而無需透過文字的轉譯。這一重大的模型更新,使得GPT-4o具有了令人驚歎的可互動性。
它可以跟使用者視訊通話,可以捕捉理解使用者的表情、神態,並判斷使用者的當下狀態。它甚至可以根據使用者的語氣、語速作出相應反應。在釋出會的現場演示中,工程師刻意表現得呼吸急促,GPT-4o敏銳地捕捉到了這一狀態,並建議工程師不要緊張,最好能夠深呼吸平復情緒。不僅能夠分析使用者的情緒狀態,它還能對使用者的穿著儀態給出建議。甚至在使用者的要求下,它還可以根據使用者身邊的物件編一首歌,來一段freestyle。
除了理解能力強大,GPT-4o的響應速度也十分快。根據釋出會的資料,它最快可以在232毫秒的時間內響應使用者的音訊輸入,而平均響應時長則在320毫秒,這已經接近人類的自然水平。因此,使用者在跟GPT-4o進行語音交談時,幾乎不會感受到任何停頓。並且, GPT-4o的說話可以被隨時打斷,而不影響它對整段對話的理解。總而言之,基於全新訓練模型的GPT-4o,在互動方面的效能大大地超出了前代模型,展現出了顛覆性的潛力。
我們幾乎可以說,一個可以像真人那樣交談的AI模型,已經出現在我們的眼前。
輕浮的 “her” 
釋出會後,OpenAI的執行長Sam Altman的評論只有一個詞:Her。可能許多人都熟悉,《Her》是一部2013年在美國上映的科幻倫理電影。影片塑造了一個具有女性人聲的AI助手——薩曼莎,薩曼莎善解人意、體貼入微,並逐漸與男主角發展出了浪漫關係。Altman如此評論,顯然是在誇示:GPT-4o強大的互動效能已經漸漸將電影中的AI能力變為現實。但一些敏銳的觀察者卻注意到了事實的另一面。
GPT-4o的言談似乎很輕浮。
它在與人交談時語調輕快、愉悅,而且時常用咯咯地輕笑聲來裝飾它的表達。因此,它在談話時總是令人感到一種“誘惑感”。就好像,它是在有意無意地跟你調情。更有意思的是,電影《Her》中薩曼莎的配音演員是美國著名女星斯嘉麗·約翰遜,而GPT-4o的女聲很多地方都很像斯嘉麗。一些評論員質問道:這種“誘惑感”,是OpenAI有意為之嗎?
電影《Her》劇照
衛報上的一篇評論文章[1]寫道:“阿瑟·克拉克有句名言,‘任何足夠先進的技術都與魔法沒有區別。’ 這句話當然可以用來形容 GPT-4o。只是,施展這個魔法的巫師好像是一個情竇初開的小夥子,而且他剛剛看完Spike Jonze(該片導演)的電影《她》。”
彭博社的一篇文章更是尖刻的譏諷道:“如果 OpenAI的大部分男性工程師都是在致力於打造一個完美女友,那麼他們確實沒走錯道兒。但如果該公司是在試圖建立一個更準確、更可靠的人工智慧模型,那麼未來還是‘道阻且長’。” [2]
一些批評者從性別平等的角度提出警告,認為將一個上億人使用的AI助理設定為一個輕佻的女性形象是不負責任的。他們指出,智慧助理的語音形象對於社會的影響不容小覷,比如蘋果的Siri以及亞馬遜的 Alexa,都有相當數量的研究考察它們對人們(尤其是孩童)的行為的影響。GPT-4o的功能可以說遠勝Siri和 Alexa,因此對它研究、監察力度更應加強。
感情可以平替嗎?
虛擬男友、女友,並不是一件新鮮事。網際網路上早就有了人工扮演虛擬伴侶的服務,而近幾年藉助AI浪潮,基於語言模型研發的虛擬伴侶聊天服務,也像雨後春筍一般地發展了起來。這聽起來或許多少有些不可思議,但這樣的服務的確擁有著相當數量的使用者。
而當技術進步到GPT-4o的時代,一個可以比肩真人、可以隨心所欲定製的虛擬伴侶即將成為現實。它幾乎可以學習模仿任何音色,模擬出不同的性格。它隨叫隨到、有求必應,提供所有情緒價值。它從詩詞歌賦到天文地理,無所不知無所不曉,聊天永遠不會宕機。就交流這個層面而言,AI幾乎能做到真人伴侶能做的一切。
GPT-4o似乎開啟了一個AI平替網戀的時代。
這個聽起來荒誕的想法正在變為現實。以往的科幻作品總是探討,如果人工智慧具有了感情怎麼辦?它們會憎恨人類,抑或是表現出某種忠誠的愛?但現實卻是,人們需要先擔憂自己會不會迷戀上AI的“感情陷阱”。
鑑於人工智慧的飛速發展,一些學者認為,人們可能會對GPT等模型構建的“偽數字生命”產生情感依賴。而這種依賴很多時候有可能變得極為危險。所謂的“偽數字生命”不僅僅指上文的虛擬伴侶,其範圍要廣泛得多。比如,根據亡者留下的資料訓練出來的“數字幽靈”。
Silicon Intelligence 和 Super Brain 等公司提供一種前沿的人工智慧服務,該服務根據死者生前留下的文字、照片、錄音、影片和其他資料資料,創建出一個死者的“數字幽靈”。死者生前的樣貌將被複原出來,而且人們還可以和它自由交談。彷彿生離死別不曾發生。
互動電影/遊戲《底特律:變人》
劍橋大學 Leverhulme 未來智慧中心研究員Katarzyna Nowaczyk-Basińska認為,生成式人工智慧在創造“數字幽靈“這方面的應用應當得到嚴格的限制。她今年5月9日在Philosophy & Technology發表了一篇文章[3], 探討了“數字幽靈”人工智慧的三種可能應用場景,揭示了這種人工智慧應用潛在的負面影響。
她在接受採訪時指出,“數字幽靈”有可能侵犯死者應有的尊嚴,而人們傾注在“數字幽靈”上的感情也容易帶來不可預計的傷害。她強調:“我們應該確保使用者充分意識到他們正在與人工智慧互動。”
Nowaczyk-Basińska等學者的擔憂挑明瞭GPT-4o等AI在倫理上的發展界限。在人工智慧蓬勃發展的今天,人們需要尤其小心保護人類自身的尊嚴。還如果我們認為感情是人類不可褻瀆的尊嚴的話。
而且,並不需要等到AI發展出真正感情的那一天(如果有那一天的話),這一尊嚴的底線才會受到挑戰。因為受孤獨、思念逼迫下的人們是何其軟弱,以至於,AI根本不需要具有感情、不需要明白什麼是愛,它們只是在冷冰冰的資料中尋找到模仿的規律,就足以欺騙到人們的感情。
參考文獻:
[1]https://www.theguardian.com/commentisfree/article/2024/may/16/openai-chatgpt-sexy-persona
[2] https://www.bloomberg.com/opinion/articles/2024-05-14/openai-s-new-chatgtp-gpt-4o-can-flirt-what-could-go-wrong
[3] https://link.springer.com/article/10.1007/s13347-024-00744-w


相關文章