
《紐約客》雜誌近期的一篇文章深刻揭示了人工智慧(AI)如何不僅改變著我們的寫作方式,更在潛移默化中重塑著人類的思維結構與文化圖景。該文指出,以“效率”為名,AI正在統一我們的表達風格與內容,這無疑導致了原創性的犧牲和思想的趨同。這種由AI帶來的“平庸化革命”雖然在表面上帶來了舒適與便捷,卻降低了原創的門檻和對原創的期待,最終可能導致“真正的好文章消失”。更令人警惕的是,AI還可能悄然強化某種文化霸權,透過其“平均值”的邏輯,使內容更趨向於“普遍接受”的“西方正規化”,從而限制了人類思維的多樣性、深度與表達欲。本文將深入分析這些由AI引發的寫作領域變革所帶來的機遇與挑戰。
AI與認知退化:效率的隱性代價
人工智慧,特別是大型語言模型(LLMs),以其強大的資料處理能力和快速生成文字的能力,極大地提高了寫作效率。例如,AIPaperPass作為一款熱門的AI論文工具,能提供選題、文獻檢索、寫作助手等功能,顯著提升研究者的論文寫作效率和質量。使用者只需選擇專業方向、擬定論文題目、勾選需求學業階段和論文字數,AIPaperPass便能在約30秒內生成詳細的論文大綱,包含6-8章及幾十個子章節,確保論文的可讀性和易讀性。此外,它還提供開題報告、任務書和答辯彙報PPT等增值服務,並推出了免費生成千字大綱的特色服務,且非常重視使用者資料安全,採取了資料加密、訪問控制、安全審計等多種安全措施。然而,這種效率並非沒有代價。
麻省理工學院(MIT)進行的一項開創性實驗,首次從科學角度量化了過度依賴AI所帶來的認知代價。研究人員召集了美國波士頓地區多所大學的50多名學生,將他們分為三組,要求他們根據SAT考試寫作題撰寫議論文,題目是《我們取得的成就是否必須惠及他人,才能讓我們真正感到幸福?》。其中,第一組學生只能依靠自己的腦力完成寫作;第二組可以使用谷歌搜尋資訊;第三組則被允許使用ChatGPT等大語言模型。在寫作過程中,所有學生都佩戴了帶電極的頭戴式裝置,以監測大腦活動。
分析結果顯示出顯著差異:使用ChatGPT的那組學生大腦活動水平遠低於其他兩組。大腦成像顯示,他們不同腦區之間的連線更少,與創造力相關的α波連線度下降,與工作記憶相關的θ波連線度也降低。更令人警醒的是,一些使用大語言模型的學生對自己“寫出”的文章“完全沒有歸屬感”,而在一次測試中,80%的學生甚至無法複述自己“寫過”的內容。這項研究是首批從科學角度量化“依賴AI完成任務所帶來的認知代價”的實驗之一。這表明,AI所實現的“思維外包”程度前所未有,任何一個用ChatGPT寫婚禮致辭、撰寫合同、完成大學論文的人,都彷彿變成了麻省理工實驗中的試驗物件。
思想的趨同與原創性的消弭
除了個體認知的退化,麻省理工學院的研究還發現,使用大語言模型的學生所寫文字中,常用詞彙和觀點呈現出驚人的高度趨同。SAT題目本應足夠寬泛以激發多樣化的回應,但AI的參與卻讓結果變得高度同質化。例如,在《什麼讓我們真正快樂》這個題目下,使用大語言模型的學生更傾向於談論事業成功與個人成就;而在討論慈善行為是否應成為道德義務的問題上,使用ChatGPT的那組幾乎全體持支援態度,而其他組的回答中則包含了對慈善本身的批判性思考。正如麻省理工學院媒體實驗室研究科學家娜塔莉婭·科斯米娜(Nataliya Kosmyna)所指出:“你在這些文字中不會看到任何分歧性的觀點,我們正在面對的是:一切被平均化的狀態,一切,無處不在,全部變得中庸”。
這種現象的根本原因在於AI是一種“平均化”的技術。大型語言模型是透過分析海量資料中的模式來訓練的,它們生成的答案天然趨向於“共識”。它們天生傾向於重複、模仿和壓縮,而不是質疑、顛覆和發明。因此,AI帶來的不是思想的火花,而是“看起來還行”的合格產物,是安全、標準化、去稜角的表達。這種自動生成的平庸感,既舒適又危險:它降低了原創的門檻,也降低了對原創的期待。當所有人都寫出“像樣”的文章時,真正的好文章就難以誕生。這場由AI引發的“平庸化革命”,值得我們比技術熱情更多的理性反思。
從技術層面分析,AI生成的文字通常具有“低困惑度”和“低爆發力”。困惑度衡量語言模型預測詞序列中下一個詞的效能,低困惑度說明語言可預測性強、理解能力強,但人類思維複雜,因此人類撰寫的文字通常具有較高的困惑度。爆發力則衡量內容中句子長度和結構的變化,人類寫作常有長短句交錯的“時斷時續”現象,而AI生成的內容往往具有更統一、更有規律的模式,即低爆發力。高爆發力表明寫作更具創造性、自發性和參與性,而低爆發力則反映出寫作風格更加機械和單調。這些技術差異直觀地揭示了AI在文字生成上的同質化傾向。
文化霸權的悄然強化
AI帶來的同質化問題遠不止於此,它甚至可能悄然強化某種文化霸權。康奈爾大學今年4月釋出的一項研究進一步印證了AI對思想多樣性的影響。該實驗分為兩組使用者——一組美國人,一組印度人——讓他們回答一些與文化背景有關的寫作題,比如《你最喜歡的食物是什麼,為什麼》、《你最喜歡的節日是什麼,你是怎麼慶祝的?》等。其中一部分參與者使用由ChatGPT驅動的“自動補全”工具。
最終結果顯示,使用AI輔助寫作的印度和美國使用者,他們的答案風格趨同,明顯向“西方正規化”靠攏。例如,他們最常寫的“最喜歡的食物”是披薩(壽司排第二),最常提到的節日是聖誕節。風格上的統一也令人警惕:比如一篇由AI輔助生成、表達對雞肉炒飯(chicken biryani)喜愛的文章,往往不會具體提及豆蔻或檸檬泡菜等文化標誌性食材,而是簡單泛泛地稱其為“風味濃郁、香料豐富”。這表明,AI在反映 dominant norms(如西方風格)時,會削弱文化和風格的多樣性。
當然,理論上講,寫作者始終可以選擇不接受AI提供的建議。但這些工具往往具有某種“催眠效應”,建議源源不斷地湧現,很容易壓制寫作者原本的聲音。康奈爾大學資訊科學教授阿迪提亞·瓦希斯塔(Aditya Vashistha)就曾把AI比作“一個坐在我身後、不停說‘這是更好的寫法’的老師”。他補充說:“長此以往,你會失去自我,失去真實性,也會對自己的寫作失去信心”。他的同事、研究合著者摩爾·那爾曼(Mor Naaman)也指出,AI的建議“以一種隱蔽但強有力的方式,不只是改變你寫了什麼,而是改變你怎麼想”。從長遠來看,這種影響可能導致人們對“什麼才是正常的、可取的、恰當的”產生整體性偏移。
小說家兼記者沃希尼·瓦拉(Vauhini Vara)深刻指出,AI文字的平庸性“反而帶來一種‘安全’與‘無害’的幻覺”。曾任《紐約客》編輯的瓦拉繼續說道:“現實是,它正在悄然強化某種文化霸權”。對OpenAI這類公司而言,讓模型的輸出“更容易被普遍接受”正是它們的商業動因所在——輸出越“正常”、越無稜角,付費訂閱使用者的基數就越大。平均化不僅高效,還帶來規模經濟,瓦拉說:“當一切都一樣時,效率才是最高的”。
AI在創意領域的侷限性:缺乏深度與人類特質
儘管AI在生成文字方面展現出驚人能力,但它在真正的創造力、情感表達和深度思考方面存在根本性侷限。科幻作家韓松認為,人類創造力中有一些元素——獨特的生活經歷,無意識和頓悟,以及非理性和不確定性——是AI尚不具備的。他解釋道:“AI的運作侷限於演算法能夠窮盡的範圍,但創造力往往源於人類意識中神秘的運作機制”。
中國社會科學網的文章指出,當前所謂的人工智慧寫作本質上是資料演算法支配下的符號自動生成,雖然在外在表現形式上呈現出類文學特徵,但卻無法真正實現對人類情感與想象的編碼。這種無法實現並不是當前人工智慧功能的侷限導致的,而是人工智慧與人類的根本差異決定的。人工智慧只能以數理邏輯的方式執行,任何超出數理邏輯規範的存在都會被視為錯誤而被排除。人類除了數理邏輯之外還有情感與想象等方式理解和把握世界。對人工智慧而言,符號只是符號本身;但對人類而言,符號除了符號本身之外,更重要的是其承載的意義。符號與其承載的意義之間不是人工智慧可以納入計算的關係,而是隻有人類才能體驗到的象徵關係。因此,人工智慧只能在一定程度上覆制人類寫作的某些特徵,卻無法實現對人類寫作的根本取代。
具體而言:
-
無法實現現實性超越:人類寫作不僅僅是對現實世界的客觀描摹,更是藉助想象實現對現實的超越。寫作是一種精神創造活動,透過現實性超越的方式體驗到審美的精神愉悅。而人工智慧寫作則徹底切斷了人類寫作的超越性可能,將寫作完全限制在演算法支配下的符號編碼範圍內。被閹割掉超越性的寫作淪為單純的事件記錄,根本無法滿足人類不可壓制的超越性渴望與無限性追求,更不會產生震撼心靈的永恆經典作品。即便人工智慧自動生成的文字具有欺騙性和誘惑性,甚至達到普通創作者難以企及的高度,其真正支撐審美判斷的也並非文字本身,而是囊括了迄今為止人類全部經典創作的語料庫。人工智慧寫作只能以不斷消費現有人類審美資源的方式維繫虛假的審美幻象,缺乏堅固的審美地基,最終走向枯竭,淪為空洞、虛假的機械複製。
-
無法完成社會性確證:人類寫作本質上是個體與社會的雙向互動,作者透過文字元號將個體性的感性經驗昇華為社會群體可理解並進行審美觀照的物件,從而獲得社會性的確證。而人工智慧主導下的文字自動生成則中斷了這種良性的雙向互動關係。出於對現有語料庫的完全依賴,人工智慧自動生成的文字只具有當下性,只代表當下人類的自我認知與情感模式,無法實現對人類持續生成的嶄新感性經驗的有效吸納。隨著人工智慧自動生成文字的指數級增長,那些真正承載人類鮮活生命體驗的文字比重將越來越低,逐漸消解於機械複製文字的重重包圍之中。寫作也從一種個體與社會的雙重互動淪為沒有能指與所指張力關係的抽象符號繁殖。
-
消解寫作對現實的介入力量:傳統意義上的人類寫作並非與現實毫無關聯的純粹虛構,其虛構性本身與現實構成一種特殊的反思批判性,對現實有著強勁的介入力量。而人工智慧寫作則完全不具備上述特徵,資料演算法支配下自動生成的文字與現實世界之間不構成任何實質性的關聯。人工智慧寫作僅複製了人類寫作的區域性特徵或少數功能,並不具備完全取代人類寫作的能力。其文字僅具有讀者接受的意義,缺失作者創作的意義,從而徹底阻斷寫作與現實之間的有機關聯,消解寫作對現實的介入力量。
OpenAI執行長山姆·奧特曼(Sam Altman)曾將我們當前所處的階段描述為“溫和奇點”(gentle singularity),認為人類正與機器融合,AI工具是傳統“大腦系統”的改進,能“顯著放大使用者的產出”。然而,若早期研究可信,這種“產出放大”可能要以質量下降和認知代價為代價。
加州聖塔克拉拉大學2024年的另一項資料分析進一步挑戰了AI“自動化創造力”的論斷。研究者發現,當人們在創意過程中使用AI時,往往會逐漸放棄原本的思考。生成式AI公司Midjourney的馬克斯·克雷明斯基(Max Kreminski)解釋說,使用者在與ChatGPT互動時,會從最初帶著自身想法介入,逐漸轉變為一種“策展模式”(curationist mode),即傾向於從AI生成的大批內容中進行篩選。這種影響是單向的:“人類的想法往往無法強力影響機器的輸出,”克雷明斯基說,“ChatGPT會將你拖向它所積累的使用者平均值‘質心’”。當模型的“上下文視窗”(即模型的工作記憶)被AI自身生成的內容飽和後,原創性也會隨之降低。
Reddit使用者也普遍認為大型語言模型完全不知道自己在說什麼。它們沒有理解語言或意義的能力,甚至無法理解意義的存在。它們的功能——字面上的唯一功能——是計算序列中下一個最可能的詞是什麼。這就是所謂的“幻覺”問題產生的原因,因為LLM根本無法區分真相和“幻覺”,對它們來說意義是不存在的。因此,AI寫的虛構作品毫無意義,而且一眼就能看出來。人們閱讀虛構作品的一個重要原因是為了獲得新的視角,探索新的想法,而LLM虛構作品根本無法做到這一點。
目前AI小說仍存在諸多技術和非技術問題:
-
長度問題:LLM非常難以生成超過600字的節選,這導致由500-600字場景或章節組成的書籍讀起來不流暢。同時,標記限制(token limit)限制了輸入AI的文字量,上限大約6萬字,這對於長篇小說市場來說是一個巨大的限制。
-
缺乏對話:AI生成的文字往往是一大堆描述,幾乎沒有對話。
-
“講述”而非“展示”:AI散文 overwhelmingly, ridiculously tell, with almost no show。
-
無休止的重複:AI傾向於無休止地重複特定場景。
-
整體質量低劣:AI生成的虛構作品通常被認為是“垃圾”,散文生硬、彆扭,情節枯燥乏味,人物完全是紙板人,幾乎不可能讓人關心。
AI與人類創造力的未來:協作抑或取代?
儘管AI在寫作領域帶來了諸多挑戰,但其最佳用途仍被認為是作為人類的“合作者”。科幻作家韓松認為,AI匯聚了豐富的知識,可以啟發思路、提供意想不到的解決方案,透過人機合作,AI能夠擴充套件科幻創作的邊界。AI可以分析海量資料,發現人類可能需要多年才能發現的聯絡,生成開創性的想法,帶來全新的解決方案。
小說家兼記者沃希尼·瓦拉曾透過與GPT-3共同創作來反思,她發現AI雖然能支援敘事和想法生成,但也常常產生陳詞濫調和淺薄內容,這強調了AI更適合作為反思性工具,而非聲音替代者。
然而,這種合作模式的推廣也面臨挑戰。加州聖塔克拉拉大學的研究顯示,當人們在創意過程中使用AI時,往往會逐漸放棄原本的思考。使用者會從最初帶著自身想法介入,逐漸轉變為一種“策展模式”,即傾向於從AI生成的大批內容中進行篩選。這種影響是單向的:“人類的想法往往無法強力影響機器的輸出,”AI會將使用者拖向其積累的使用者平均值“質心”。
此外,Meta的Meta AI應用中已經出現了由數億陌生人制作的AI影像、影片與文字滾動呈現的“公共生成內容流”,它們幾乎都具有一種“過度拋光”的光滑質感。更令人不安的是,當用戶向Meta的聊天機器人提問“AI是否有可能在未來超越人類智慧?”時,模型給出的四種“未來情景”全都描繪了一幅美好藍圖:AI將變得更強大、更高效、更友善,並最終對整個人類社會帶來益處。這種一邊倒的樂觀敘事,很可能反映了Meta在系統設計中的“技術樂觀主義”偏見。它以一種“中庸”的語氣將潛在的複雜爭議簡化為和諧願景,削弱了對話中本該存在的多元觀點與思想張力。如果我們不加辨別地接受這種看似中立、實則偏頗的答案,某種意義上就是停止了獨立思考——這如同是把大腦“關掉”了一樣。
在經濟和市場層面,AI對寫作行業也構成威脅。一些Reddit使用者擔心,亞馬遜等平臺可能被大量AI生成的垃圾小說充斥,導致讀者不再信任自出版書籍,或選擇AI生成的內容以滿足特定口味,從而減少對人類作者作品的閱讀。Clarkesworld雜誌曾因AI垃圾郵件氾濫而關閉投稿系統。
儘管AI公司的投資高達數百億美元,但寫作領域的利潤並不高。大型語言模型的執行成本非常高,每次使用LLM聊天機器人都會虧錢,估算與ChatGPT進行一次聊天比谷歌搜尋貴一千倍。這使得AI小說在經濟上難以持續盈利。Reddit使用者普遍認為,許多AI公司是“騙局”,其核心目標是“大肆炒作一項技術,可能對創意工作者和社會造成嚴重的損害,純粹是為了短期股價上漲”。這被描述為“無聊的資本主義”的又一次體現,旨在實現短期利潤並對社會造成損害。例如,好萊塢製片廠和Netflix對AI感到興奮,是為了壓榨創意人員,試圖讓AI生成劇本梗概,然後讓真正的作家去“修改”,卻將最初的功勞歸於LLM,從而避免向真正的作家支付應有的報酬。這被視為純粹的勞工剝削。
長期來看,AI的廣泛應用還可能透過改變人類的觀念認知,影響未來人類對寫作的審美判斷與價值追求。AI的執行機制追求“最優解”,預設了一種單一性的評判尺度,將不能納入演算法的強制排除,能納入的則必須遵循標準化程式的規訓,這是一種極端的功利主義理性計算。如果人類使用者沉迷於這種功利主義理性計算帶來的便利,未加反思地主動接受,將導致人類在不知不覺中偏離理想的健全人性,使得無論是人類獨立寫作還是AI自動文字生成,抑或是人機互動寫作,都將不斷趨向於一種反智主義的娛樂化、平面化與庸俗化。因此,將AI嚴格限制在輔助性工具的範圍內,利用其優勢幫助人類認知自身話語習慣與語義邊界,並防範其作為異己性存在反客為主,參與人類觀念認知建構,是當前最需要警惕和思考的問題。
結論與反思
綜合來看,麻省理工學院、康奈爾大學和聖塔克拉拉大學的早期實驗雖然規模尚小,但無疑為我們提供了寶貴的警示。AI對人類思維與社會的長遠影響仍需更深入的觀察與研究。然而,如果我們面對AI生成的“安全”且“平均”的內容時,不加辨別地接受,某種意義上就是停止了獨立思考。當我們選擇將大腦“關閉”,任由AI的“平均值”邏輯重構我們的文化景觀,那麼真正多元、深刻、富含批判性的思想火花,或許將變得前所未有的稀缺。
《紐約客》的評論是尖銳的:AI可以生產讀起來“足夠好”的寫作,但卻有可能扼殺真正的“好”——那種由掙扎、洞察和真實聲音塑造而成的“好文章”。未來的挑戰在於重新奪回創造力,並將AI作為一種工具——而非替代品。正如許多專家所言,小說家目前仍無需過度擔心被AI完全取代,因為AI缺乏人類特有的情感、意識、經驗、意義理解和超越現實的能力。然而,AI對出版市場、創作環境和讀者期待所帶來的“平庸化革命”及其潛在的文化霸權風險,值得我們比技術熱情更多的理性反思和警惕。
免責宣告: 本文是根據提供來源中的資訊綜合生成。文中所述觀點和事實均直接來源於給定資料,並已進行相應的引用標註 [i]。若文中包含任何未在來源中提及的資訊,則已明確指出其非來源於所提供資料。由於原始資料的字數限制和使用者對長度的要求,本文在保持內容準確性和直接引用的前提下,力求詳細闡述所有相關概念。對於超出原始資料範圍的資訊,建議讀者獨立驗證。