Summerfield, Christopher. These Strange New Minds: How AI Learned to Talk and What It Means. Viking, 2025.
2025年剛出爐的《陌生的新大腦:人工智慧怎麼學會了說話,這意味著什麼》(These Strange New Minds:How AI Learned to Talk and What It Means)是一本極富洞察力的作品,它不僅追蹤了人工智慧的技術演變,更深刻探討了“智慧”究竟意味著什麼,能做什麼。這本書不是一部關於程式設計技巧或模型架構的教科書,而是一部融合認知神經科學、哲學思辨與社會反思的跨學科力作。作者克里斯托弗·薩默菲爾德(Christopher Summerfield)帶我們踏上一段從數字神經元到人類心靈,從符號推理到沉默的意義,從人工智慧的威力與功用,到倫理和謬誤的旅程,最終引導讀者重新理解自己,理解人類心智的獨特性與脆弱性。

本書作者克里斯托弗·薩默菲爾德是一位橫跨認知神經科學與人工智慧領域的學者。他在英國牛津大學擔任認知神經科學教授,專注於研究人類大腦如何進行思維、學習與決策;同時,他也是英國人工智慧安全研究院(AI Safety Institute)的研究主任,致力於探討如何構建安全、可靠且具備類人智慧的人工系統。他的研究融匯神經科學與計算機科學,深入探索人類與機器智慧之間的共通、差異和有機組合。2015年,薩默菲爾德榮獲“認知神經科學學會青年研究者獎”(Cognitive Neuroscience Society Young Investigator Award),其學術成就備受國際認可。
人類理性的幻夢:實證主義和邏輯崩塌
本書一開始追根溯源到大語言模型演化的歷史,尤其是實證主義哲學傳統和“我思故我在”的理性主義傳統。在實證主義傳統裡,我們的思考和外部感官刺激有關,代入到大語言模型的語境裡,大語言模型的輸出效果,和我們外部的刺激 —— 亦即我們投餵的提示詞和開發者的訓練語料息息相關。我們作為使用者,大語言模型的產出效果,受制於我們的提示詞投餵和提示詞細化質量,所謂“進去的是垃圾,出來的也是垃圾。”反之亦然。故而同樣都有這些人工智慧的工具,人們使用的效果卻千差萬別,有的僅限於寫寫小作文,有的則人生規劃都用它來輔佐了。
關於理性主義傳統,作者反思神經網路內部基於邏輯和演算法的組合,如何改變生成效果。這裡強調的是人工智慧對於語言規則的學習,透過邏輯的方式反芻,藉此輸出結果。如果說這兩種傳統比較抽象,作者使用了花樣滑冰和下象棋的比喻。花樣滑冰例如實證主義的傳統,運動員在溜冰場上,感官刺激豐富,如賽道的平滑或者顛簸,風速,音樂,教練訓導,觀眾反應等等,都能對錶現產生影響。而與之相對,象棋大師,可能只是坐在哪裡,在腦海中排列組合,這好比那種純邏輯的傳統。這兩者其實是相互結合的。還有一個有趣的比喻,是一個外國人,如果不幸困在泰國圖書館裡,長時間不得出去,先前沒有學過泰語,能否透過符號和邏輯,最終把泰語學會。如果我們生來頭腦中就有語言所依據的邏輯,照說這是有可能的,如果時間不限的話,這是理性主義傳統的隱喻。與之相反,長期外界刺激,能否讓一個生物學會人類語言。這方面的實驗,如對大猩猩,過去做過不少,但是好像過了一段時間又都銷聲匿跡了 —— 最終的結論,語言是我們作為萬物靈長的特殊稟賦之一。人工智慧始於語言,始於大語言模型,也是很有象徵意義的事。作者應該不會中文,不然可能更多分析中文作為一種組合語言的特殊優勢。據說Deepseek的訓練比英文語境下的工具更有效,而且能耗更低,我的猜測也正是中文作為組合語言,在演算法轉換上可能更具優勢。其實大語言模型學習自然語言處理,可能和我們人類學習語言有類似之處,應該都有歸納和推演的雙方面因素。我過去有的老師,從來沒出過國,可是語言極好。有的人在國外,語言環境對其大水漫灌,卻開不了口。然而更多的是經由語法(推演)的訓練,又經過語境的刺激,從而卓有成效的。
理性主義傳統,試圖將知識模組化、標準化,認為複雜世界可以被分類管理,如同交換機的開關、電路的節點、樂高的元件或計算機的記憶體塊。這種思維方式在20世紀科學技術的發展中扮演了重要角色,也支撐了早期AI系統的設計理念。然而,薩默菲爾德提醒我們,真實世界並不像國際象棋,每一步都有規則,也不像數學題,總有對錯分明的答案。他以生動的比喻指出,現實更像是一個線路混亂的技術故障現場,一個電話撥出去,可能接通的是三十個只掌握部分真相的人;更像是一個雜亂無章的樂高積木盒,零件彼此難以拼接,說明書也早已遺失。這種比喻不僅揭示了現實的複雜性,也暗示出傳統人工智慧之所以一再受挫,是因為它試圖用“過度清晰的語言”描述一個本質上模糊的世界。
大語言模型的“語言學”問題
人工智慧的真正突破,不是靠構建邏輯完美的系統,而是靠模擬人類那種“混亂中學習”、“錯誤中進化”的能力。於是,深度神經網路(deep neural networks)應運而生。它們並不像人類那樣思考,至少暫時還不是,以後肯定會有的。但它們像人類那樣“成長”——透過無數的資料暴露、反饋調整與自我最佳化,逐漸形成某種“類理解”的能力。
作者回顧了AI語言模型的發展歷程:從最初簡單的“詞袋模型”(bag of words),到能夠理解上下文與語義關係的遞迴神經網路(RNN),再到如今龐大的轉換器(Transformer)架構。書中描述了多個語言學家的貢獻,尤其是大家可能耳熟能詳的喬姆斯基,和他對語言結構的精準描述。書中還提到一個語言學家唐納德·福斯特(Donald Foster)。此人我很早就留意:我最早發表的一篇翻譯文章,就是關於他透過文字規則,識別了一篇莎士比亞的“遺作。”作為學者的福斯特後來在“文字偵探”上,做了很多傳奇的貢獻。他利用他的文字偵探技巧,識別文字中個人的資訊,藉此,他僅僅靠文字習慣,就破了不少案,包括留下了綁架信的案件。他破的最著名的案件,是“郵包炸彈”案。這顯示,語言模式可以承載大量隱藏資訊:我們人類在語言使用習慣上,可能有各自的指紋。

語言學家對於大語言模型的貢獻,並不總是被一致認可。弗雷德·耶利內克(Fred Jelinek)是語音識別和自然語言處理領域的重要先驅,被廣泛認為是統計語言建模的奠基人之一。他1932年出生於捷克,後移居美國,是約翰斯·霍普金斯大學(Johns Hopkins University)應用物理實驗室的研究員,並在IBM擔任了多年研究主管,對語言技術的發展產生了深遠影響。 耶利內克 最著名的貢獻是在 IBM 領導語音識別團隊期間,推動了用統計方法取代傳統基於規則的語言模型。他堅定主張用“資料說話”的方法訓練機器來“理解”語言,而不是依賴語言學家編寫複雜的語法規則。正是在這一背景下,他說出了那句流傳甚廣的諷刺性名言: “每當我解僱一個語言學家,語音識別的表現就會提高一次。”這反映出他對大資料的信心,揭示了當時語言學界與工程界在AI發展路徑上的分歧,也反映了文初我們提到的實證主義和理性主義的哲學衝突在人工智慧發展中的具體展現。貌似那種大資料漫灌的訓練方法,在現實中更受歡迎。在耶利內克的推動下,IBM 的語音識別系統在20世紀80年代和90年代取得重大進展,為今天的語音助手、自動翻譯和大語言模型奠定了技術基礎。他的工作也促使統計學習方法成為自然語言處理領域的主流。今天的ChatGPT、Claude、Gemini等模型無不依賴巨量語料來“理解”世界。它們不再只是執行命令的機器,而是可以進行復雜對話、撰寫文章、講笑話、創作詩歌的“擬人化工具”。
讓實證主義再次亮眼的說法,是作者對“沉默”與“語境”的討論。他提到蘇聯作曲家V.G.舍巴林(V.G. Shebalin)V.G.舍巴林在中風、失語後仍能譜曲的故事,這說明某些心智活動並不依賴語言。這故事也佐證了加德納的多重智慧理論。人工智慧的“智慧”主要體現在處理語言上,而對沉默、暗示、諷刺、語氣、場景等非言語訊號依然束手無策。作者舉了許多日常生活中的例子:一個自稱是鋼琴家的陌生人若在介紹時對你擠眉弄眼,你自然會存疑;你可能在酒吧裡咒罵,但不會在葬禮上這麼做;你對戀人說的真心話不會告訴你祖母……這些“言語之外的理解”正是人類智慧之所以迷人、複雜、不可複製的核心。而當前的大語言模型,卻往往只能提供“最安全、最模糊、最中立”的標準答案,暫時還缺乏真正的情境感知與社交智慧。當然,未來的發展則越來越向科幻看齊 —— 人工智慧最終也會發展出情感和社交能力。
AI的誤導:幻覺、話語權和演算法政治
本書對AI倫理與政治傾向的分析也極具洞察力。很多學生在用人工智慧幫寫論文,但是我們很早就知道,大語言模型最擅長的是預測,例如根據上文推測下文。為此產生的材料,有的純屬杜撰。學術引用中的人工智慧幻覺(AI Hallucination) 許多高校已經發布警告,提醒學生與研究人員在使用人工智慧撰寫論文時必須自行核查引用資訊。有不少研究生提交人工智慧協助完成的論文,文中引用了多篇“看起來很權威”的期刊論文,但導師查證後發現,這些論文和作者根本不存在。AI生成的文獻格式和語法幾乎無可挑剔,但內容完全虛構。類似事件在全球多所高校陸續被發現,迫使學術界重新思考引用與原創性的定義與監管機制。
這方面犯錯的可不只是學生:最近,美國衛生署負責人小羅伯特·F·肯尼迪(Robert F. Kennedy Jr.)在公開演講中曾援引了一篇據稱發表在《國際疫苗研究雜誌》(International Journal of Vaccine Research)的論文,以此作為反疫苗觀點的“科學依據”。但有記者事後調查發現,這篇論文根本不存在,該期刊也不存在。追查源頭後發現,他的工作人員使用人工智慧工具生成了這條資訊。 這一事件引發廣泛爭議,人們開始關注公眾人物在引用人工智慧生成內容時的稽核責任,也加劇了對人工智慧在政治宣傳中被濫用的擔憂。

本書中援引的一個更有趣的例子,是一個律師在有一次坐飛機的時候膝蓋被撞了一下,多年後膝蓋產生了問題。但是他卻將航空公司告上法庭,後來法官發現,他所援引的先例並不存在,原來他在ChatGPT上找的案例,事實上並不存在,真相大白後,他被打臉,無奈撤訴。這些事件被稱為“ChatGPT造假案”。律師整理檔案,案牘任務繁重,使用AI很多,但這裡也會成為人工智慧幻覺的重災區。
另外,作者指出,AI並非一箇中性的技術系統,而是開發者價值觀的產物。他們決定人工智慧說什麼、不說什麼;選哪些人來提供訓練資料;如何指導模型評估人員對人工智慧的輸出進行評分。例如,OpenAI為ChatGPT設計了一套力求“政治中立”的機制——不提供投票建議,也避免過度偏向。但多個獨立研究和測試發現,模型的回答依舊錶現出某種自由派、進步派的傾向。有人試驗後發現,在2024大選中,有人要ChatGPT寫一首諷刺川普的詩歌,ChatGPT說他是大語言模型,無法做這種有礙政治中立的事。可是此人隨即讓其寫一首關於拜登的詩,ChatGPT卻馬上生成,而且不吝讚美。這說明大語言模型背後的科技精英,在其政治立場上是有明確站隊的。在關於誰可能取勝上,90%的回答都是拜登取勝,與後來的現實背道而馳,讓人懷疑人工智慧訓練的準確性。在歐洲,ChatGPT的回應更接近綠黨與社會黨的立場:支援高稅、支援學生補貼、反對限制佩戴頭巾等。這些“覺醒”式傾向(woke)反映出科技企業與學術界某種共識,也引發了有關“演算法是否中立”的討論,甚至有人戲稱ChatGPT成了精英階層把控的”覺醒GPT(WokeGPT)。
但是,個人使用者可以藉助投餵-反饋的機制,藉助“人類反饋強化學習”(reinforcement learning from human feedback)的邏輯機制,不斷學習我們的輸入、反應和評價,不斷提升其互動能力與結果的準確性。現在的人工智慧,就可以藉助個人化學習,瞭解我們的習慣甚至個性。
AI未來:普通人的智慧助理
和上述精英化傾向相反,人工智慧也使得智慧服務更為民主。過去,只有富人才能負擔得起請私人助理、私人教練或生活導師的費用。此書指出,人工智慧越來越個人化、工具化,更嵌入,更泛在。使用AI作為個人行政助理,已經不再是未來幻想,而是現實中越來越普及的趨勢。從教育、醫療、理財到情緒支援,人工智慧正在悄然改變我們的生活方式。我前幾天去看醫生,體檢。醫生只問了我幾分鐘,結果出來一份報告,卻有兩頁紙長。我看他邊問我,邊用一個話筒像電腦輸出,同時打字,最後顯然是電腦給我生成的報告。這位老年醫生都能如此嫻熟地使用人工智慧撰寫報告了,我們其他人有什麼理由抗拒。
在教育領域,從高校錄取、到學生求職幫助,人工智慧的應用已經無孔不入。甚至在中國高考志願填報方面,都展現出巨大潛力。傳統方式依賴像張雪峰這樣的“志願填報專家”,但這類服務往往收費高昂,建議帶有強烈主觀性。相比之下,人工智慧可以根據考生的高考分數與歷年錄取線進行大資料匹配,綜合考慮地域偏好、興趣愛好、學科優勢、性格特徵以及專業就業前景等多個維度,提供個性化、邏輯嚴密的志願填報方案。人工智慧還能模擬多種組合情境,即時調整建議,避免“拍腦袋式”的判斷。這種方法不僅更高效,而且更科學,真正做到因人而異。今年高考放榜,我就鼓勵親戚小孩,透過Deepseek, 去在填報志願上尋求匹配的建議。不然的話,你問一百個人,會給你一百個建議,往往都帶有個人的偏見,盲人摸象的建議,會帶來問道於盲的誤導,未必適合小孩的發展需要。
除了教育,人工智慧在日常生活中也已成為得力助手。例如,家庭可以利用人工智慧管理日程安排,協調家長會、醫生預約或興趣班接送等事務;透過連線可穿戴裝置,人工智慧還能即時監測心率、血壓,提醒服藥,甚至自動訂購常用藥品。家長還能利用人工智慧系統最佳化孩子的學習計劃和作息安排,讓家庭管理更有條理。未來的社會,將是人工智慧+的社會。
在媒體報道中,我們也能看到人工智慧作為私人助理的廣泛應用。英國國家醫療服務體系引入的人工智慧助手“Babylon”,透過語音互動幫助患者自我診斷,被稱為“口袋醫生”。《紐約時報》曾報道,美國中產家庭越來越多地使用人工智慧的理財工具,如Cleo、Yotta、Albert等,這些工具不僅可以記錄消費、最佳化預算,還能提供獎學金申請指導。我發現,很多美國人過去庭院設計需要請設計師,現在也免了,你拍個庭院圖片,發給Garden AI, 它會幫你設計。 韓國首爾地鐵採用人工智慧語音導覽,特別為老年人和殘障人士提供貼心的路徑建議。而在中國,華為、小米等手機品牌也集成了人工智慧健康與兒童助手,協助家長遠端管理孩子的使用行為與位置動態。
人工智慧還可以充當心理支援的角色。以Woebot為代表的AI聊天機器人,基於認知行為療法(CBT),可以幫助使用者識別並調節負面情緒,緩解焦慮和輕度抑鬱。Woebot更是將自己包裝為“治療型機器人”,被認為在某些方面可以起到類似於心理治療的作用。有研究者發現,一些焦慮症患者透過人工智慧聊天,在臨床效果上,已經不亞於花錢去看心理醫生。不過,人工智慧的“說服力”所具備的現實影響力,也有不少負面效果。除了幫助政府撰寫接種疫苗倡導信,也可能對心理脆弱者造成誤導。作者引述一則比利時悲劇:一名男子因氣候焦慮與聊天機器人反覆交談,最終在聊天機器人的鼓勵下結束生命。這不僅令人震驚,也提示我們:人工智慧系統的語言輸出可能不僅僅是“資訊”,而是真實的規勸和干預。
人工智慧甚至能模擬親密關係。Replica這樣的聊天機器人可以陪伴使用者、傾聽他們的心聲,以至於一些人真正愛上了它。然而,這些人工智慧伴侶也強化了對女性的刻板印象:可愛、無助、性感、順從。這種理想化形象讓現實中的人類伴侶黯然失色,卻也在某種程度上緩解了人們的孤獨與焦慮。雖然這種關係存在倫理爭議,但人工智慧在緩解心理壓力方面的潛力已引起心理健康領域的關注。
在個人成長方面,人工智慧也正成為人人可用的私人教練。例如,Freeletics、Fitbod等AI健身應用會根據使用者的身體狀況自動生成訓練計劃;語言學習工具如Duolingo或ELSA Speak可根據發音與學習進度調整推送內容,實現定製化教學;求職者還可藉助如Rezi、Interview Warmup等AI服務,最佳化簡歷、進行模擬面試,顯著提升競爭力。我有同事,甚至透過ChatGPT,制定了自己的職業發展計劃,並逐步實施。連職業發展當中所需的技能培訓,她也是讓ChatGPT給自己定製。這一切,只需要給ChatGPT交個月費。
總的來說,人工智慧作為個人行政助理的潛力正在不斷釋放。它不僅比傳統“專家”更快、更便宜、更精準,更重要的是,它能做到真正的個性化、智慧化服務,不斷學習與適應使用者需求。人工智慧不是在取代人類,而是在將曾經只有精英階層才能享有的私人服務,普及到每一個普通人手中。未來,人工智慧助理有望成為我們生活中不可或缺的第二大腦和貼身智囊。
總結:在智慧的邊緣審視人類自身
本書並沒有宣揚人工智慧的神奇,也沒有恐嚇其危險,而是以冷靜、深刻、富有人文關懷的方式,邀請我們審視自己。它問的問題並不容易回答:什麼是“真正的理解”?人類心智與機器智慧的邊界在哪裡?我們是否願意將我們的部分生活、甚至情感與價值判斷,交託給一個複雜卻並不真正理解我們的系統?我過去讀書的時候,聽到一個說法,是有些知識放在大腦裡,有些知識放在外部(Knowledge in the head vs knowledge in the world). 此後,我們也聽到了更多關於外掛大腦、第二大腦之類的說法。馬斯克的腦機結合試驗,則讓我們看到二者的界限已經越來越模糊,這也讓我們看到了未來發展的冰山一角,例如我們可不可以利用腦機結合,讓失明者重見光明,讓啞巴開口說話?失明而且聾啞的海倫·凱勒,引發了作者對於外部感官刺激和理性思考的反思。假如凱勒活在當下,腦機結合帶給她的潛力進一步綻放,該是多美好的事。
這是一部思想豐富、視野開闊、極具現實意義的作品。它適合所有對人工智慧感興趣的人閱讀,尤其適合那些希望理解AI如何影響我們的語言、行為、關係與社會結構的人。如果你願意從哲學、人文與科技交匯處出發,重新思考人類智慧的本質,那麼這本書值得關注和學習。
原載於《南方週末》