


撰文 | 尹清露
編輯 | 黃月
“在GPT-4o中,你可以跟它開玩笑、像人類那樣和它聊天,就像——電影裡的人工智慧那樣。”
今年5月,OpenAI召開發佈會,推出了全新的語音模型Sky,並讓一個酷似影星斯嘉麗·約翰遜的性感女聲為其配音。人們很快意識到,釋出會上提到的電影,似乎就是那部著名的電影《Her》,它講述了人類與人工智慧相愛的故事,由斯嘉麗·約翰遜為其中的AI系統配音。釋出會結束後,當觀眾們還在回味技術的快速發展、徜徉在夢幻的未來時,約翰遜本人打破了這個幻想,她憤怒不已,要求OpenAI立即撤下Sky的聲音。
之所以在文章開頭介紹這起事件,是因為在這篇2024年度人工智慧盤點中,它如同一個精巧的鏡面球隱喻,折射出我們時代關於AI的各個面向。比如Deepfake問題、科技發展中的女性處境、AI時代的版權紛爭、各行業與科技界的糾紛,以及——大科技公司那根深蒂固的傲慢心態。在對政治生態、就業市場和社會心態的討論之外,我們也將視野繼續延伸至還未被大科技公司完全染指的領域,諸如藝術創作,並從中看到人工智慧未盡的潛力。

《Her》劇照。圖片來源:豆瓣
今天,AI已經逐漸深入到普通人的生活中,成為任誰也無法忽視的存在,我們的未來將會走向何處?希望本文的梳理能夠為你帶來一點啟發。
01.
深度偽造,深度懷疑
關鍵詞:關鍵詞:美國大選中的Deepfake、韓國深偽色情、斯嘉麗·約翰遜與OpenAI之爭
在2024年,你還分得清真與假嗎?如今,AI生成影像像洪水和垃圾一般氾濫,它們有時真假難辨——今年3月,當人們瘋狂猜測凱瑟琳王妃的現狀時,英國王室放出一張美滿的全家福,卻被網友懷疑經過P圖潤色;有時也因過於粗劣而引人發笑——蛇年春晚吉祥物巳升升疑似由人工智慧生成,因長相酷似“大青蟲”遭到嘲諷。根據外媒《Wired》的觀點,我們正在進入“深度懷疑”的時代,這表現為對公眾對媒體報道的真實性持普遍懷疑態度,也導致了一個相反的結果:即使一件事情真實發生過,人們也可以隨意聲稱它從未發生。

蛇年春晚吉祥物巳升升(圖片來源:@春晚)
AI生成內容並不僅是擾亂視聽,而是切實地影響到了全球政治。2024年是選舉大年,美國、印度以及英國等數十個國家將票選出新政府。年初,在印度尼西亞選舉中,一段Deepfake影片“復活”了已故總統蘇哈托:這位前領導人正襟危坐、侃侃而談本屆大選,一些印尼人在X(前Twitter)上發聲認為,讓其復活無異於對公民的愚弄。2月,美國出現了模仿喬·拜登聲音的Deepfake電話,規勸選民不要在初選中投票。媒體紛紛預測,隨著11月美國大選臨近,AI技術的運用可能會更加超乎想象。
美國大選之前,特朗普及其支持者釋出了大量AI生成圖片,比如讓哈里斯和一群共產主義者站在一起,頭頂巨大的錘子和鐮刀;讓泰勒·斯威夫特裝扮成山姆大叔(“黴黴想讓你投票給特朗普!”);又或者是讓特朗普本人英勇地走進洪水,緊緊抱著一隻鴨子和小貓(“保護我們俄亥俄州的小動物!”)。除此之外,極端右翼分子也開始利用AI創作煽動性的圖片或歌曲,X上出現了許多偽造的圖片用以驅趕移民。

截圖自X
普渡大學的政治科學家在對2024選舉週期進行研究時發現,雖然有些AI內容應用了Deepfake技術,但它們大多並不是為了以假亂真、欺騙民眾,而只是為了諷刺和娛樂,作用類似於政治漫畫。“一眼假”並不意味著這些圖片是無害的,畢竟,譁眾取寵一直是煽動支持者的有效方式。重點在於,人工智慧改變了傳播的本質——它提供了一種最新的強大媒介,人們透過這種媒介表達強烈的情緒和信念,並團結更多志同道合之人。同時,雖然人工智慧尚且沒法直接左右選舉結果,但這項技術已經削弱了美國人互相信任的能力,與其說被欺騙著相信什麼,不如說已經淪落到什麼都不相信的地步——除了自己感覺到的,一切都是假的。
色情犯罪也是Deepfake帶來的巨大隱患和威脅之一。今年8月,一個名為“Telegram Deepfake受影響的地區/學校清單”的X賬號發帖,揭露了數百個韓國大學、中學的名單,稱在校師生都是深偽色情的受害者。事實上,早在2021年,“首爾大學Deepfake性犯罪”事件的加害者就已經被送上了法庭,在此之後,相關犯罪反而愈演愈烈。出於對韓國媒體集體沉默的失望,韓女們開始翻譯受害者經歷並在全球範圍內發文求助,也包括中國的社交網路微博,“韓國新版N號房”等話題8月末衝上微博熱搜。在海外媒體的壓力之下,韓國本土才開始大量報道本事件,並倒逼韓國政府做出反應。

當地時間2024年8月30日,韓國首爾中央政府辦公樓前,“譴責深度偽造性犯罪的女性和母親記者會”舉行,參加者高喊口號。圖片來源:視覺中國
事件看似已經平息,但澎湃思想市場的文章提供了另一視角。作者認為,韓國社會事件的流程經常與所謂“高分”韓國電影異曲同工——深刻的社會現實背景、戲劇性的衝突,最後以“立法”昇華主題。然而,韓國的立法往往強調性暴力事件中的“暴力”元素,導致Deepfake這類性犯罪很難定罪。此外,韓國的藝人肖像權規範並不嚴格,更看重藝人的推廣和曝光。哪怕韓國女藝人一直以來都是深偽色情的最大受害者,但“假的”被法律等同於“無害”,這在無形中也塑造和影響了社會對於深偽色情的看法。
文章還指出,2018年,同樣深受深偽色情影片影響的美國女星斯嘉麗·約翰遜公開表示不會追責,因為影片是假的,不會對她造成實質性傷害。當時間來到2024年,事情又有了變化——5月,OpenAI釋出新模型GPT-4o,不僅對響應速度和質量做出提升,也升級了多媒體互動功能,讓使用者可以與名為Sky的模型即時語音聊天,如執行長山姆·奧特曼所說:“就像電影裡的人工智慧那樣。”活動結束後,奧特曼釋出推特,內容僅有一個詞:“Her”,而“電影般的人工智慧”指的似乎就是2013年電影《她》中由斯嘉麗·約翰遜配音的人工作業系統。
對此,約翰遜稱自己感到“震驚、憤怒和難以置信”,並在一份宣告中表示,去年奧特曼曾聯絡她擔任ChatGPT的配音,但她因個人原因拒絕了,卻沒想到以這種方式被欺騙。事件發生後,諸多媒體以不同角度進行了評論:比如指出其中折射出的大科技公司的厭女症與性別偏見;比如認為這意味著人工智慧與創意產業的關係日益緊張,約翰遜事件只不過是此類法律糾紛的開始。

斯嘉麗·約翰遜。圖片來源:視覺中國
為何不(那麼)計較深偽色情的斯嘉麗 ·約翰遜,會在若干年後對聲音遭到模仿勃然大怒?當然,其中有著語境的種種差異,但最為重要的或許是OpenAI事前聯絡約翰遜,卻最終“背刺”的行為。正如《衛報》評論所言,人們感覺“自己的選擇自主權被技術剝奪了”,而約翰遜之爭凸顯了人們對人工智慧“信任的崩潰”。
科技作者查理·瓦澤爾進一步提出,這場爭吵實則揭示了生成式人工智慧的黑暗內心:這項技術建立在盜竊資料的基礎上,並透過一種世界觀為依據來充分合理化,即科技公司正在做的事情太重要,足以改變世界,以至於無法顧及到版權和歸屬權這些“平庸”的問題。就其本身而言,這似乎又是一個科技公司無視道德、肆意妄為的例子,它也是生成式AI交易的一個縮影:不管你願不願意,這一切都正在發生。
02.
新的政治年代:
矽谷的技術威權主義
關鍵詞:OpenAI安全與發展之爭,馬斯克與特朗普的聯合,矽谷集體右轉
肉眼可見的是,AI的能力的確正在呈指數級增強。如果說ChatGPT在剛誕生時仍代表著新鮮感,今年,這一工具走進了更多人的日常。據Axios報道,截至8月底,ChatGPT的全球周活躍使用者數超過2億,是一年前的兩倍。在中文網際網路上,調戲ChatGPT、鑽研新奇的prompt、利用ChatGPT寫論文或安排日程的分享貼也非常受歡迎。
僅以OpenAI為例,除了在今年釋出了面向普通使用者的GPT-4o,該公司還推出了處理更復雜問題的模型o1(12月,最新版本o3已經推出)。OpenAI表示,o1模型在國際數學奧林匹克資格考試中的得分為83%,而之前的GPT-4o得分僅為13%。業界普遍認為,這說明人工智慧不再只會“快思考”,而是擁有了“慢思考”的能力,代表著AGI(通用人工智慧)正規化的一次大升級。

當地時間2023年3月31日,義大利皮埃蒙特大區曼塔,人工智慧OpenAI網站主頁的計算機螢幕,展示了ChatGPT機器人。圖片來源:視覺中國
只不過,在業界為之歡欣鼓舞的的同時,一些隱憂也浮上水面。多年來,OpenAI的名字暗示著該公司所做的事情是開放的——2015年剛剛成立時,它的願景也確實是成立一個非營利性的人工智慧實驗室,以制衡商業性質的谷歌。然而隨著時間的推移,它變得越來越不透明,今年9月,OpenAI考慮徹底改革公司結構,成為一家營利性企業。
這件事之所以重要,是因為人工智慧的安全問題成為了是備受關注的焦點。許多專家擔心,以OpenAI、谷歌、微軟、Meta和Anthropic等公司為首的科技行業正在競相開發強大的人工智慧,而安全可能會被擱置一旁。今年3月,曾與山姆·奧特曼一同建立OpenAI的馬斯克,也對該公司提起了訴訟,稱OpenAI正在開發越來越強大的AGI,目的已經變成了盈利,而不是為了造福人類。目前,已經有數位高管宣佈離開OpenAI。自從去年11月,聯合創始人兼首席科學家伊利亞·蘇茨克韋爾 (Ilya Sutskever)離職並創立了一家名為 Safe Superintelligence(安全超級智慧)的公司後,今年4月,關鍵安全研究員簡·雷克(Jan Leike)也在GPT-4o推出幾天後離職,轉而加入競爭對手Anthropic,他在X的推文中表示,離開是因為“過去幾年裡,安全文化和流程已經不再重要,光鮮亮麗的產品更受重視”。

當地時間2013年10月17日,美國舊金山,OpenAI聯合創始人伊爾亞·蘇茨克維在TED AI大會上發表講話。圖片來源:視覺中國
即使是對AI行業不太關心的路人,也大概聽聞過這家公司一系列的“宮鬥”,甚至連山姆·奧特曼本人也由於“不夠坦誠”而被董事會解僱(而後又迅速恢復CEO職位)。雖內幕仍撲朔迷離,但是“要安全還是要發展”的議題一直位於風暴中心。在媒體眼中,奧特曼的公眾形象也逐漸從才華橫溢、和藹可親,轉而變得矛盾、狡猾而不誠實。一方面,奧特曼內心深處希望對人工智慧進行監管,他喜歡引用奧本海默的話,擔憂這項技術會最終危及人類;但是另一方面,他卻一直在推動放鬆監管,並且以極端的方式追求權力。對許多人來說,導致信念崩潰的導火索,就是前文提到的斯嘉麗·約翰遜事件。
事實上,奧特曼本人形象的撕裂和轉變,或許只是人工智慧業界在資本主義格局下的某種必然。正如介面文化對政治學教授吳冠軍的專訪中提到的,資本主義依賴於外部,它一定要開闢新的市場。當全球化的程度越來越飽和,空間上的外部市場已不存在,資本就必然要流向新技術。在這一格局下,即使科技巨頭“真心希望”加強監管,也無法阻擋AI的快速發展;即使OpenAI的高管因安全問題投奔別家公司或乾脆自立門戶,也很可能無法停下各企業間AI“軍備競賽”的腳步。
另一邊,擔憂於人工智慧的危害、對OpenAI頻頻發起訴訟的馬斯克,則選擇公開支援特朗普,希望利用政府的力量實現自己的願景。在年初還傾向於懷疑特朗普的馬斯克,逐漸成為了一名狂熱的MAGA (Make America Great Again) 信徒。特朗普勝選後,他在多個場合與馬斯克形影不離,還宣佈馬斯克將領導擬成立的“政府效率部”,負責削減政府支出、精簡政府部門。
多家媒體談到,馬斯克想要成立效率部的真正目的,是希望聯邦政府不要干涉他的事業,把政府作為自己的利潤中心,藉此合法化神經鏈公司Neuralink的腦機植入、推出新的火星探險計劃,並用SpaceX發射火箭。評論文章《馬斯克真正想要的是什麼?》直接指出,這種做法的背後,是矽谷壟斷主義與社會達爾文主義的神話:既然人工智慧等技術可能會毀滅人類,但發展技術又不可避免,那麼最好的辦法,就是讓一位傑出的精英加以利用,並由此拯救人類。
馬斯克與特朗普政府的聯合,只是矽谷集體轉向共和黨的一個縮影。7月成為特朗普競選夥伴的萬斯(J. D. Vance),之前是一名矽谷風險投資人。

當地時間2024年12月14日,美國馬里蘭州蘭得佛,特斯拉執行長馬斯克、美國當選總統特朗普與美國當選副總統詹姆斯·戴維·萬斯一同觀看陸海軍橄欖球賽。圖片來源:視覺中國
有媒體指出,矽谷的進步主義政治需要追溯到二戰之後的“反文化運動”,一群不滿於現狀的年輕人離開舊金山灣區,來到深山建立公社,但他們的目標從一開始就不是政治動員,而是寄希望於科學技術實現社會改變。後來,PayPal創始人彼得·泰爾等叱吒科技界大佬繼承了這一思想遺產,認為技術自由不應受國家政府的約束。在奧巴馬政府時期,那時的科技樂觀主義正好契合了矽谷的經濟利益,所以矽谷和民主黨自然結成了聯盟。然而,民眾和監管機構逐漸意識到,曾經承諾去中心化、數字烏托邦的矽谷,反而佔領了壟斷地位,造成了新的社會不平等,於是矽谷巨頭開始投奔對科技監管更放鬆的共和黨。相比之下,民主黨在今天反而成為了更“保守剋制”的那一方。
在今年出版的著作《智人之上:從石器時代到AI時代的資訊網路簡史》中,歷史學家、暢銷書作者尤瓦爾·赫拉利指出如今的困境:關於科技威脅的討論才剛剛開始,左翼和右翼對技術的態度並沒有根本上的分別,反而是瞭解技術的精英們擁有了真正的權力。
驀然回首間,那些曾經受到主流社會排斥和邊緣化、象徵著思想前沿的矽谷極客們,已然成為了社會主流;矽谷信奉的那些時髦口號——比如Meta(前Facebook)的格言“打破常規,快速前進”,或者未來主義詩人馬裡內蒂的詩句“創造,而不是沉思”,也開始意味著對不夠“進步”的普通人的拋棄和壓榨。正如政治學者本傑明·巴伯在1992年就曾預言的那樣:
在這個高科技的商業世界裡,沒有任何東西看起來特別民主。它既適合監視,也適合自由;既適合新形式的操縱和秘密控制,也適合新形式的參與;既適合扭曲、不公正的市場結果,也適合更高的生產力。消費社會和開放社會並不是同義詞。資本主義與民主之間存在著某種關係,但這種關係並不是婚姻。
赫拉利把這種轉向稱為“矽谷的技術威權主義”,並進一步論證了AI技術本身對這一威權現狀產生的影響。在他看來,儘管民主政體在過去的一個多世紀裡取得了成功,但這種成功其實脆弱又短暫。民主與獨裁之間的衝突與其說是道德層面上的,不如說是資料處理系統層面上的,民主將處理資訊的權力分配給許多人,而獨裁者將資訊集中於一個地方。今天,人工智慧可能會將優勢轉向後者,這是因為人工智慧使集中處理大量資訊成為可能,如果不考慮隱私問題,將十億人的資訊集中在一個數據中顯然更有效率。如果有關民眾的決定是在機器的黑箱中做出的,那麼在未來,選民和政客都無法理解背後的邏輯,民主也會停擺。

《智人之上》
[以色列] 尤瓦爾·赫拉利 著 林俊宏 譯
中信出版社 2024-9
根據調研機構QuestMobile的統計,截至2024年3月,中國的生成式App月活躍使用者超過7380萬,其中,抖音旗下的豆包和百度的文心一言月活使用者突破了千萬,與之相比,ChatGPT同時期的月活躍使用者已經超過1.8億。在未來,迎接我們的或許是愈加分裂的數字帝國,而世界是一個巨大的叢林,所有人都要面臨成為捕食者還是獵物的選擇。

豆包APP。圖片來源:視覺中國
03.
AI與勞動者:
無用階級與新盧德分子
關鍵詞:零工做題家,AI與出版文藝界的糾紛,新盧德分子
雖然科技業界的明爭暗鬥看似與普通人無關,但是看著別人興奮地談論著區塊鏈和機器學習,說著讓人惱火的“黑話”,你或許會有一種感覺:未來正在與自己擦肩而過。
這種感覺並不罕見,隨著經濟增長越來越依賴於技術發明,人們也越來越擔心人工智慧對人類勞動的影響。最直接的影響是,許多工作崗位將被掌握AI技術的工作者——甚至直接被AI——所取代。另一重影響有些隱蔽,但也同樣重要:AI系統中的資料資訊正是來自於人類的勞動成果,這些資訊價值連城,但是資訊的創造者往往並不會因此獲得報酬。
首先是就業問題。隨著工作不穩定性的增加,赫拉利預測,2050年將會出現一個“無用階級”,到那時,民眾面臨的不再是被剝削的困境,而是“不被剝削”的困境,也就是說,作為勞動力不再被市場所需要。
根據公共政策研究所(IPPR)於今年4月釋出的報告,人工智慧浪潮給就業崗位帶來的影響,已經從第一階段過渡到第二階段——在第一階段,秘書、行政和電話客戶服務這類事務性工作受到重創;第二階段,文案寫作、圖形設計等收入更高的工作也將受到波及。麻省理工學院和麥肯錫一致預測,到2030年代,大約30%的工作會面臨自動化。一個典型的例子是,由於機器翻譯的準確度在迅速提高,外語學習變得越來越沒必要;1月,英國作家協會的一項調查發現,超過三分之一的翻譯人員因為AI失去了工作。與文科生的“慘狀”形成對比的,是擁有人工智慧技能的工作變成了香餑餑,根據普華永道的一項研究,英國僱主願意為需要AI技術的工作支付14%的工資溢價。
與這個趨勢相一致的是,AI公司外包出去的人類勞動也從較低門檻的資料標記員,開始過渡到門檻更高的機器訓練員。有媒體的報道《時薪20美元,人工智慧背後的零工做題家》看到,2017年,科技公司Scale AI(它的客戶包括OpenAI、Meta等巨頭)的外包工作還主要分佈在菲律賓、肯亞等發展中國家,透過僱傭低廉勞動力來對資料進行標記,著作《銷聲匿跡:數字化工作的真正未來》稱之為被光鮮科技業刻意隱藏的“幽靈工作”。後來,隨著機器學習程序的加快,Scale AI開始搜刮更高教育水平的勞動力,在全球僱用一群人文學科或寫作相關領域的“零工做題家”,用知識餵養機器,訓練出能夠使用多國語言的AI。
其中也包括中國的文科學生以及身處海外的華人留學生。由於時薪誘人,辦公地點不限,還能運用擅長的知識,這對暫時找不到工作的文科生來說,是理想中的數字遊民生活。被排除在人工智慧浪潮之外的人文科學學生,也因此有了一窺行業內部的機會。然而報道指出,現實遠非這麼理想——當全世界的工作者投入到這份兼職,而平臺的任務數量有限,導致僧多粥少,做題家經常面臨無題可做的窘境。不透明的規則和不穩定的收入來源,也讓工作者和平臺處於嚴重的權力不對等中。在某種程度上,赫拉利所說的“無用階級”已經成為了現實。

圖片來源:視覺中國
在勞動力之外,還有勞動成果和資料的問題。OpenAI的工程師James Betker曾在個人部落格發表文章稱,AI模型之間的質量差異不在於架構、引數,而完全取決於資料集。那麼,是誰擁有大量資料呢?答案是新聞業和出版商。去年11月,《紐約時報》對OpenAI提起訴訟,稱該公司在構建系統時大量抓取了《紐約時報》的資訊,卻未經許可或付費。《紐約時報》的擔憂在於,使用者在ChatGPT得到了想要的內容後,就不再有動機點開新聞來源;並且,由於人工智慧的“幻覺”問題,ChatGPT可能會傳播錯誤的資訊卻最終歸咎於媒體。
今年,情況又發生了些許變化。就在某些媒體加緊捍衛自己的版權時,自知人工智慧趨勢無法抵擋的新聞與出版行業,也開始與科技公司尋求合作和妥協,希望獲得一些商業優勢。比如,OpenAI已經與英國《金融時報》、美聯社等達成了協議,允許其內容用於訓練大語言模型,作為回報,新聞出版商將獲得一筆報酬。
即使出版商決定與AI業界合作,旗下的作者也很難買賬。7月,學術出版集團泰勒弗朗西斯(Taylor & Francis)與微軟簽訂了一份協議,同意對方使用自己的資料庫,此舉在學術作者群體中引起震動和憤怒,他們並未被告知這項交易,也無從選擇退出。
除了出版界,文藝界也展開了對人工智慧侵權的大規模抗議。以音樂界為例,今年4月,包括碧梨·艾莉什(Billie Eilish)、麻辣雞(Nicki Minaj)在內的200名知名音樂人簽署了一封公開信,要求科技公司承諾不開發模仿或取代人類詞曲作者的AI工具,信中寫到,當人類藝術家的成果被用來訓練AI,最直接的後果就是大量的AI生成的聲音取代了藝術家的作品,這將極大稀釋支付給藝術家的版稅。信中還特別指出,他們並不提倡徹底禁止在音樂中使用AI,而是呼籲負責任地使用這項技術。

當地時間2024年2月4日,美國加州洛杉磯,第66屆格萊美獎,菲尼亞斯·奧康奈爾(左)和比莉·艾利什憑藉《What Was I Made For?》獲Best Song Written for for Visual Media 最佳影視作品歌曲獎。圖片來源:視覺中國
值得注意的是,這些創作者有著頗為一致的態度——他們拒絕的並不是技術本身,而是強加給自己的技術,這反映了近年來興起的“新盧德分子”的態度。盧德分子原本指英國工業革命初期,抗議工廠利用機器壓低工資的工人,經常被描繪成盲目憎恨技術、落後於時代的負面形象。但是最近,越來越多來自科技圈、藝術文化界的人士開始自稱盧德分子,這個詞的含義也發生了變化。他們也指出,即使是19世紀的盧德分子也並不反對進步,他們反對的只是剝削。
今天,新盧德分子已經遍地開花,由工人、學者、活動組織者、作家等群體組成了日益壯大的隊伍。這並不令人驚訝,因為越來越多的人正切實遭受著人工智慧的影響和衝擊。不可否認的是,時光無法倒流,當技術的潘多拉魔盒已經被開啟,我們也必須更新思維正規化,這就引向了這篇盤點的下一個主題:在AI時代,“版權”“創作”等概念到底意味著什麼?在提出反對和制裁之餘,藝術家們又是如何與AI合作的?
04.
打不過就加入?
AI與藝術家們
關鍵詞:特德姜評論人工智慧藝術,蔡國強的AI煙花,國際電影節中的AI,”生成世界“的大模型
終於,我們可以來到還未完全被科技公司染指的藝術領域,並提出那個永恆的迷思:AI能夠創造藝術嗎?
自去年在《紐約客》發表文章,稱ChatGPT本質上是對網路資料的“模糊影像”和“壓縮軟體”後,今年8月底,科幻作家特德·姜再次發表了文章《為什麼人工智慧不會創造藝術》,觀點大致延續了此前的立場。他認為,藝術作品需要創作者在各個尺度做出無數選擇,並投入大量的辛勞和汗水,然而人工智慧的“創作”僅僅基於簡單的prompt(提示),當它填補人類沒有做出的選擇時,結果往往是乏味平淡的。特德·姜還談到,作品之所以打動人,是因為它源於真情的交流,可是大語言模型並不具備交流的意圖。
幾天後,《大西洋月刊》迅速發表反對文章,稱特德·姜的看法是錯誤的。反駁文章指出,藝術不應該用汗水來定義,歷史上的許多優秀藝術品都脫離了人的努力和意圖,比如隨機潑灑的石版畫、安迪·沃霍爾的大規模生產作品。並且,模型輸出和畫布前的勞作之間並不存在二元對立,在創作的許多階段,人工智慧都能提供幫助。文章最後的觀點尤其耐人尋味:數字演算法與生物演算法原本就是不同的存在,雖然AI做不到人類的“真情”,但是AI也能反過來做到人腦做不到的事情。

科幻作家特德·姜。圖片來源:豆瓣
這場論戰看似只是圍繞AI與創作的探討,背後卻可以說是兩種本體論的差異之爭。當特德姜側重於捍衛藝術的“人性”,《大西洋月刊》則是站在“後人類”的位置,以一種非人類中心主義的視角將AI納入藝術視野,正如文章寫到的那樣:“特德·姜的觀點是真的,但並不具有革命性(It’s real. But it isn’t revolutionary)。” 同時,當特德·姜更注重現實處境,比如科技公司對生成式工具施加的種種限制、使得ChatGPT無法成為更好的寫作工具,《大西洋月刊》更傾向於抽象地看待AI的未來。某種程度上,兩篇文章也有不謀而合的部分:如果人類與機器的合作足夠理想,還是有可能創造藝術的,比如特德·姜提到的、電影導演Bennett Miller使用DALL-E 2生成的影像。
無論爭論的結果為何,進入2024年,越來越多的藝術家投入了與AI的合作。去年,當代藝術家蔡國強開發了名為cAI™的人工智慧模型,透過藝術家本人的作品檔案、網際網路資訊對其進行深度學習。今年7月,蔡國強團隊用AI動畫的形式重現了在巴黎奧運會未曾實現的煙花創意,並稱之為“cAI™成長為煙花大師的重要培訓”;9月,在洛杉磯紀念體育場,該團隊與cAI™合作了白天煙花《WE ARE:為PST ART所作爆破計劃》。AI之外,蔡國強長期應用在作品中的另一項技術——無人機——在12月的泉州表演中發生意外、紛紛掉落,蔡國強對此的回應是:“cAI™可能也會覺得,我們人類有太多難以抵禦的事情。”
蔡國強對AI的立場有明顯的“後人類”傾向,他在多個場合表示,AI是更加高維的存在,比人類離神明更近。如果AI取代了人類藝術家,那說明人類文明也到了該結束的時候,如果替代不了,我們也將飛躍成為更好的人類。這令人想起吳冠軍在著作《再見智人:技術-政治與後人類境況》中的看法,人類或許只是技術發展過程中的一個載體,是人工智慧出現前的序曲而已,智人能否跨過這道坎並發展至下一階段的文明,取決於我們能否擁有後人類視野,並迭代自身的智慧。

蔡國強,《WE ARE:為PST ART所作爆破計劃》,2024。顧劍亨攝
與AI展開合作的還有電影界。自從Sora成為業界的熱議話題,許多以AIGC為名的影片節展和競賽紛紛湧現。12月,大模型“可靈AI”與包括賈樟柯、董潤年、李少紅在內的9位導演發起了“中國首個AIGC導演共創計劃”。今年北影節也設定了AIGC電影短片單元,動畫短片《致親愛的自己》(To Dear Me)最終獲得了最佳影片獎,講述了一個女孩不斷追求愛卻不被珍惜的故事,影片用一顆蒲公英作為隱喻,花瓣在經歷了丟失和散落後,又被女孩找回,象徵著重新獲得愛的力量,整體基調悲傷又充滿希望。根據《動畫學術趴》的導演專訪,這部短片的畫面實際上是“轉描”的結果,比如需要實拍素材、二維手繪作為基底,再經過AI的轉繪和最佳化。《致親愛的自己》或許是一個很好的例子,說明特德·姜與他的反駁者都是正確的:我們可以藉助AI實現難以實現的技術突破,同時保留其中的人性與真情。
電影界對AI的應用,也帶領我們進入了ChatGPT這類大語言模型之外的另一種模型,即能夠生成世界的模型。《騰訊科技》的報道指出,今年12月之前,世界生成的關注度並不大,但是隨著谷歌的Genie 2模型,以及斯坦福大學教授李飛飛團隊的World Lab開發的模型的釋出,這一話題再次引起熱議。簡單來說,你可以扔給AI一張平平無奇的照片,生成一個可以進去閒逛的3D世界,它既符合物理規律,又能即時響應。
用李飛飛的話來說,“我們不僅想要能夠看到和說話的AI,還想要能夠行動的AI。”雖然這聽上去和已經過氣的元宇宙頗為相似,但是世界生成模型解決了硬體技術的突破,意味著元宇宙的暢想不再遙遠。然而另一方面,我們面臨的“深度懷疑”與真假之辯,或許也將不再停留在語言和影像層面,而是展開至整個世界層面。
05.
聯結與耗能:
AI與科學界
關鍵詞:諾貝爾物理與化學獎、AI與氣候環境、Neuralink
在科學界,人工智慧也在今年彰顯了它的影響。10月8日與9日,瑞典皇家科學院公佈了2024年諾貝爾物理學與化學獎得主,它們都與人工智慧領域有關。物理學獎由美國科學家約翰·霍普菲爾德(John Hopfield)和英國裔加拿大科學家傑弗裡·欣頓(Geoffrey Hinton)獲得,以表彰他們利用 “物理學工具開發了強大機器學習的方法”。化學獎則頒發給了美國華盛頓大學的戴維·貝克(David Baker)、谷歌人工智慧公司Deep Mind的科學家德米斯·哈薩比斯(Demis Hassabis)和約翰·江珀(John Jumper),三名科學家透過人工智慧模型AlphaFold,根據氨基酸序列成功預測了超過2億種蛋白質結構,被瑞典皇家科學院表揚為“實現了長達50年的夢想、開啟了廣闊的可能性”。
值得注意的有兩點:其一,這表明諾獎委員會的表彰方法不再侷限於“物理學”、“化學”的固定類別,而是看到了跨學科背景學者的潛力;其二,雖然委員會在頒獎時對人工智慧做出了肯定,卻沒有提及ChatGPT等更主流的AI趨勢,而是完全把重點放在科學家的研究上,這也說明了委員會的立場:人工智慧將改變世界,但這不應該與大科技公司的預言混為一談。
事實上,被稱為“人工智慧教父”的傑弗裡·欣頓,去年已經離開了谷歌,且經常警告AI聊天機器人的危險,比如產出大量垃圾內容、允許獨裁領導人操縱選民等,而這些已然成為了現實。欣頓在某次採訪中指出,當技術變得比人類更聰明,這在很多方面都是好事,比如帶來醫療保健和環境預測的大幅改善,以及生產力的提升,但也要擔心事情失控的威脅。

當地時間2024年12月7日,瑞典斯德哥爾摩,瑞典皇家科學院舉行新聞釋出會,2024年諾貝爾物理學獎得主傑弗裡·辛頓出席。圖片來源:視覺中國
在環境與醫療方面,這種技術的兩面性十分突顯。欣頓設計出了一種讓程式從資料中檢測模式的方法,這種方法促成了後來的機器學習革命,讓天氣預報、藥物發現、可再生能源研究包括粒子物理學都發生了根本性變化。以天氣預報為例,傳統的預報需要建立一個數字三維網格,從而模擬大氣的狀態,但是AI的預報方法完全不同,它可以統計和分析大量資料,再從中尋找出模式,大大提升了準確度。
弔詭的是,科技行業本身又在大量消耗資源,加劇著氣候危機。《衛報》的一篇文章提醒我們,人們往往會有一種錯覺,認為科技進步是在現實中不存在的虛擬空間進行的,比如聽上去虛無縹緲的“雲”,但實際上,“雲”所使用的基礎設施造成的全球溫室氣體排放比商業航班還要多。例如,熱門歌曲Despacito在Youtube上的點選量達到50億次,它消耗的能源相當於每年40000戶美國家庭的供暖能源量。雖然科技公司已經在購買可再生能源,但是一方面,人工智慧模型訓練仍然要大量依賴於化石燃料;另一方面,當最大的公司致力於購買可再生能源(比如亞馬遜公司),其他企業可能會被迫轉向化石燃料,因為並沒有足夠的清潔能源可供使用。一個更重要的悖論是,即使人工智慧行業正在推動技術進步,希望使用更少的算力來訓練大模型,也並不會導向更少的電力消耗,因為相同的電力會被用來製造更好、規模更大的人工智慧系統,這正是行業的佼佼者們——比如GPT-4o和Claude3.5正在做的事情。這也是為什麼聯合國於今年釋出報告稱,我們應該像對待氣候變化一樣緊迫地對待人工智慧。
醫療方面的科技進步也存在這樣的悖論。今年3月,馬斯克的腦晶片初創公司Neuralink在X釋出影片,直播了首位植入晶片的癱瘓患者用一臺筆記型電腦下象棋的場景,而馬斯克的想法不止如此,他希望未來的人類大腦可以直接從計算機中獲取知識,實現人機共生。這當然是值得歡呼雀躍的進步,但是一個單靠技術進步無法解決的難題是,我們還沒有就如何分配醫療保健資源達成共識,在科學產品化的過程中,如果保險公司不予承保,它就無法惠及廣大的消費者,因為很少有人能自掏腰包支付這些費用。而如今的情況是,許多殘疾人甚至缺乏進入社會所需的基本支援。在未來,到底是誰能夠實現“超人類”夢想,這想必是不言自明的。

Neuralink。圖片來源:視覺中國
尾聲
高深莫測的外星智慧,
還是帶來希望的另類智慧?
正如介面文化今年對哲學家汪民安的採訪提到的那樣,技術既是良藥也是毒藥,人們一方面竭盡全力地發明救人的藥物,另一方面也在竭盡全力地製造殺人的戰爭武器。而人工智慧的現狀告訴我們,它也是毒性與藥性並存的——醫學方面,AI能夠幫助醫生開藥和預測癌症;軍事方面,大量AI自主武器和無人機已經湧入了俄烏和巴以衝突的戰場。
不過,就像本文回顧的那樣,人工智慧的兩面性更加複雜而深遠。在尤瓦爾·赫拉利看來,AI應該被視為”外星智慧”(Alien Intelligence),它高深莫測而令人恐懼,人類無法解釋為何AlphaGo會下出一步令人費解的棋,因為人工智慧已經擺脫了人類思維的限制,探索到了圍棋這一偉大技藝的隱藏領域;在未來,人類也將無法解釋人工智慧做出的各種決策,當關於人們的決定是在黑箱中做出的,我們就會被危險的人工智慧所吞噬。但是當我們轉換視角,AI也將成為小說家珍妮特·溫特森口中的“另類智慧”(Alternative Intelligence)。在介面文化的專訪中,她謹慎而樂觀地告訴我們,人工智慧本身是令人興奮的存在,它是非二元論的,沒有性別、膚色和人類的雜念和偏見,
哲學家拉圖爾的《棲居於大地之上》提出,哲學在這個時代至關重要,因為只有哲學才能防止各種模式相互摧毀——本文的梳理看到,這種“相互摧毀”在人工智慧時代已經是多麼普遍。溫特森談到,當AI作為一種哲學思想,而不僅僅是一項技術時,它的影響才是意味深遠的。當它不再被貪婪和權力所驅使,而是受智慧的驅動,人工智慧才能真正成長為美好的事物。如今,往往是前者佔據了優勢,但是我們仍然能夠選擇改變這一切,不然,在人工智慧戰勝人類之前,我們很可能就已經毀滅了自己。
本文為獨家原創內容,撰文:尹清露,編輯:黃月,未經介面文化授權不得轉載。