如何設計不誘惑人的AI?|【經緯低調分享】

當人工智慧如潮水般湧入生活的每個角落,我們習慣性地擔憂:AI會毀掉人類的關係嗎?領英創始人、Inflection AI聯合創始人裡德·霍夫曼在與Cosmos VC聯合創始人喬納森·畢的深度對話中,丟擲了一個發人深省的觀點:AI的真正使命或許不是取代人類的朋友,而是成為提醒我們維繫真實關係的那根線。
霍夫曼提出了一個顛覆傳統認知的概念:未來的AI不應只是完成任務的工具,更應是“關係的智慧體”。它可能在我們與朋友爭執時敏銳地指出情緒誤解,也會在我們孤獨時溫柔提醒與他人聯絡。
在這場對話中,兩人從柏拉圖對書寫技術的批判出發,探討AI是否會成為加深人類理解的助力,還是模糊判斷力的幻覺。當技術不斷重塑“關係”的定義,我們不得不思考:在AI時代,人類的獨特性究竟體現在何處?當智慧體逐漸滲透到社互動動的方方面面,我們該如何定義技術的角色?又該如何在技術浪潮中堅守人性的本質?以下,Enjoy:
來源丨Z Finance
圖片來源:Jonathan Bi YouTube
在AI愈發無所不在的當下,我們習慣性地問一個問題:AI 會不會毀掉人類的關係?但這場對談丟擲了一個更深、更令人警醒的反問——“也許,AI 的任務不是取代朋友,而是提醒你該約他們見一面了。”
在這期由Cosmos VC 聯合創始人 Jonathan Bi 主持的訪談中,他邀請到了 LinkedIn 聯合創始人、Inflection AI 聯合創辦人、《Superagency》作者Reid Hoffman,共同探討一個貫穿哲學、技術與倫理的問題:當 Agent 走入我們的社交網路,它到底是破壞者,還是協調者?
Hoffman 提出,未來的 AI 不只是完成任務的工具,而是一種關係的智慧體。它可能在你與朋友爭執時打斷你說:“等等,你剛才可能誤解了對方的情緒”;它會在你孤獨時溫柔提醒:“我在這裡,但也許你該給誰打個電話。”Agent 的目標從來不是成為“你最好的朋友”,而是成為你與世界之間那根久違的線。
這場對話從柏拉圖對書寫技術的批判出發,穿越黑格爾的“主奴辯證法”,再到AI倫理、社交媒體的失敗教訓,輻射至“衍生認識論”與“超級能動性”的現代版本,探討了這樣一個命題:AI 到底是加深人類理解的助力,還是模糊判斷力的幻覺?
你會聽到他們談論 Pi 如何被訓練出“共情力”,如何在B2B領域重塑服務關係;也會聽到關於“成癮機制”的深刻反思——為什麼LinkedIn 沒有 X 和 Instagram 那樣令人沉迷?因為它被設計成節省你的時間,而不是掏空它。
這是一次關於 AI 的訪談,也是一場關於人類自己的反思。當技術不斷進步,我們是否還能辨認出自己是誰,我們的關係靠什麼維繫,我們真正希望的未來到底是什麼?
歡迎閱讀本期內容的全文翻譯,一起走進關於 AI、關係與認知的深水區。
01
AI不只是工具,而是關係的智慧體
Jonathan BAI在社交領域的殺手級應用是什麼?
Reid Hoffman人們總是將聊天機器人視為AI的代表,理解為一對一的互動工具,比如我發問然後它給我回答。它聽起來更像是一個更強大的Google搜尋。實際上,未來幾年我們將處在一個被Agent環繞的環境中。它們會持續聆聽我們的對話。比如現在,就可能有個AI跳出來說:等等,Reid,你剛剛的評論不太準確。隨後它閃一下提示:要就這個話題展開討論嗎?我們將擁有環繞式的Agent它們不僅服務於個人,還會幫助協調人際互動、群體交流,甚至推動社會協作。它們會讓今天看不見的社交網路變得視覺化,未來幾乎所有的社互動動都將透過Agent所構成的場域來中介完成。如果要說它們的具體形態?這就像複雜系統理論一樣,很難完整預測。但這一點,其實與我原先的想象完全不同。
Jonathan B你的觀點讓我很驚訝。你認為AI會中介化社互動動,就像LinkedIn中介化職業關係那樣。而我原本以為你會說人類會與Agent建立直接關係,至少這是我對你們Inflection公司推出的產品Pi的理解。你們強調Pi兼具EQIQ,這方面能詳細講講嗎?
Reid Hoffman我們確實會與Agent建立直接關係。不過我之所以那麼說,是因為我們需要警惕過度擬人化。Pi是一個很好的例子:我們訓練它表達善意、具有共情力,成為人類的情感伴侶。這當然很重要,但它不是為了取代人際關係,而是為了融入其中。比如,如果你對Pi說:你是我最好的朋友。它會回答:不不不,我是你的AI夥伴。我們來聊聊你的朋友吧,最近有見到他們嗎?或許該約個時間聚聚。它不會去佔據你朋友的位置,而是引導你去重拾、連線、修復你已有的關係。順帶一提,我們其實需要重新發明一套社交語言體系。因為人和Agent的互動方式,與人與朋友、同事之間的互動非常不同。即使是與醫生或心理治療師的互動,也有本質區別。舉個例子:當人們開始用對Agent那樣的語氣對待真人,比如說停下,不要說了,這種社交錯位將會造成嚴重的代際問題。我們必須構建新的、健康的社交正規化。尤其是在兒童互動上,必須從設計上強調社交禮儀,避免助長粗魯、攻擊性或主導性的互動傾向。從哲學的角度講,這正是為了防止陷入黑格爾所謂的主奴辯證法式關係結構。兒童與Agent的互動,本質上不同於他們與父母或同齡人之間的互動。這種維度的拓展對未來社會結構至關重要。而Pi,正是目前技術條件下引領我們探索正確方向的實驗。
Jonathan B你這個回答真的讓我鬆了一口氣,也讓我頗感意外。我最擔心的答案就是那種未來你的朋友就是手機的說法。但你顯然不是這樣看的。讓我引用一下你在《Superagency》中的一段話:數十億人聲稱與神明建立過私人關係。這些超智慧存在擁有遠超人類理解的感知與思維方式。數十億人與貓狗等溝通能力有限的動物建立了深厚的情感關係。孩子們則透過毛絨玩具、玩偶、幻想朋友等方式建立連線。既然我們能輕易地與這些表達能力有限的非人類物件建立情感羈絆,那麼與AI Agent親近其實是再自然不過的事了。這不是技術逾界,而是人性本能的延伸。這段可以更多的解釋一下嗎?
Reid Hoffman這段論述的重點就在於:當下我們對AI的社會影響常常過於恐慌。很多人擔心它會破壞人類關係,但我們其實天生就有擬人化的傾向。我們給汽車起名,把寵物當家人看待。這整個情感光譜說明,AI只不過是加入了我們社交網路的新成員。真正該擔心的,是人們可能建立起不成熟的關係模式。就像我經常質疑的那句老話:狗是人類最好的朋友。其實狗並不是。一個很簡單的例證就是:你不會說我要帶我的朋友去絕育,尤其當這個決定並非出於對方意願時。這顯然不符合友誼的基本定義。人與動物之間可以建立美好關係,但我們不能濫用朋友這個詞。理解並接受這種關係的複雜性,是我們必須不斷進化的方向。
Jonathan B我們正用人類歷史上最複雜、最有潛力的技術產物,去重新定義關係的結構。這件事本身並不可怕。我們和AI建立某種程度的社交關係,並不意味著會發生災難。就像那些你剛才提到的例子一樣,這些情感連線在歷史中反覆出現,從來都不是值得恐慌的訊號。當然,這些關係可能發展得病態。比如一個18歲的成年人仍將毛絨玩具當作假想朋友,或者有人以極端方式實踐宗教信仰。但它們也可以是建設性的,是滋養關係的。你說得對Agent會以某種方式進入我們的社交世界,關鍵是:有沒有一個正確的開啟方式。我們必須關注並引導這個過程。
Reid Hoffman這也是我們在Inflection設計Pi初始形態的原因:它是一個正規化引子,能夠推動整個智慧體生態往更健康方向演進。現在我們也看到,像AnthropicClaude正在引入更多關於情緒理解、共情反饋等情商模組。這種發展路徑非常好。關鍵不在於它是不是更像人,而在於它在我們生活中承擔的是不是一個恰當的角色:既不完全社會化,也不完全擬人化。
02
人類為什麼願意與非人類智慧建立情感?
Jonathan B能談談你們是如何訓練模型的情商(EQ)嗎?
Reid Hoffman核心是透過人類反饋強化學習(RLHF)。但很多聊天機器人的差異,其實來自訓練員的指導方式和範例選擇是的。我們通常會為觀眾簡單解釋:強化學習有點像獎懲機制,透過結果反饋來引導模型行為。訓練員的選拔標準、培訓方式和所提供的案例樣本,會共同決定模型的性格特徵。在Pi的訓練中,我們特別篩選了大量體現友善與共情的互動案例。比如當用戶在情緒激動時向Pi發洩,Pi不會反問你什麼意思,而是回應:真的很抱歉。我們會刻意避免模型學到攻擊性或推責式的應答。更理想的反應是:抱歉讓你生氣了,能告訴我哪裡做得不對嗎?我們希望建立的,是人類社交中那種將經驗泛化的反思與修復機制這類人機互動的目標,不只是回應使用者,而是引導使用者自我提升。
Jonathan B你剛剛提到的那點很重要,雖然我們並不指望 LLM 與人類發展出完全對等的關係,但這些互動確實會反過來影響我們在現實生活中的社交模式。比如X(前身為 Twitter)就是一個非常典型的例子。那回到Pi身上,使用者現在是怎麼使用它的?是否有很多人將它當成心理諮詢的替代品?
Reid Hoffman確實如此。我們見識了各種使用方式,有些甚至令人震驚。比如有一對夫妻告訴我們,他們在進行非常艱難的對話時,會讓Pi語音保持連線,讓它參與他們的交流。就是類似這種共同在場的場景。其實很多人就算只是獲取資訊,也會偏好帶有情感共鳴的互動方式。他們會覺得:雖然 ChatGPT 給出的資訊更完善,但我還是更喜歡Pi帶來的那種情緒反饋。這對我來說,才是互動的真正意義所在。
Jonathan B我也看到這其中的整個光譜變化……不過,我注意到你們似乎迴避了Pi在產品轉型中的關鍵節點?能詳細說說原因嗎?
Reid Hoffman關鍵在於驅動規模的路徑。我們曾以為未來的大型Agent會建立在算力指數增長的基礎上,而在這種邏輯下,初創公司幾乎沒有空間生存。確實,當時如果你是行業內部人士,你會知道,想在foundational agents(基礎智慧體)領域有所作為,基本必須自建一個龐大模型倉庫。這對初創企業來說並不現實。於是我們意識到,我們原先設想的那條路根本行不通。這是很多創業專案都經歷過的轉折點。我們問自己:那我們還能做什麼?我們發現,情商(EQ)可能是Agent的下一個巨大商業驅動因素這促使我們轉向B2B模式。你可以構建一個具有獨特情感互動的系統,基於現有開源模型,服務於那些需要高共情力的機構。無論是社群組織、客戶支援系統,還是我這樣需要處理複雜人際互動的人。
Jonathan B但這是不是意味著你們仍然要從頭訓練一個新模型?還是說可以只在現有模型上加層提示詞?
Reid Hoffman我們其實可以組合多個模型,類似於模擬大腦中的情緒中樞。確實如此。我們為不同行業定製不同方案,比如客戶憤怒時需要啟動同理心模組Inflection現在作為B2B企業,我們的獨特優勢在於可以訪問完整的Pi許可權,同時還可呼叫開源模型,按需切換。但坦白說,就算到今天,有些功能還是得從頭訓練。不過我們並不是要和OpenAI在研究領域競爭。我們只是像拼裝情緒大腦一樣,在大腦中部署不同模組。例如當客戶表達挫敗感時,系統可以說:非常抱歉聽到你今天過得不好。有什麼我可以幫忙的嗎?
Jonathan B我明白了。你對這些智慧體的願景是,它們將幫助我們在現實世界中構建更良好的人際關係。我非常認同這種正向目標。但我有兩個顧慮。第一個,是關於複製品的問題。你能為觀眾解釋一下嗎?比如所謂的約會機器人有些人在早期情感受挫後,可能透過這種方式建立了健康關係;但也有很多人最終彷彿是和自己的複製體談戀愛。我自己其實也是從這種技術中受益的人。《魔獸世界》和《激戰》這類大型線上遊戲塑造了我的人生觀,讓我學會策略與協作。很多創業者也和我一樣,是從遊戲中培養出商業頭腦的。當然,沉迷也確實存在。
Reid Hoffman完全同意。所以我們要問:智慧體確實會讓某些人受益,但當它們走進現實世界,它們會不會也讓一些專案就此停滯?這是真實的情況,也是一種赤裸裸的現實brass tax)。如果我們觀察到停滯比例過高,那就說明需要介入,不論是監管、市場機制,還是其他社會性干預。在這方面,我的看法是:與其一開始就嘗試全面控制,不如先觀察它在自然狀態下如何演化當然,當物件是兒童時,我們確實需要主動干預,因為他們正處於人格塑造的關鍵階段。但如果物件是成年人呢?我們必須承認,他們有自由選擇的權利。比如,有些人明確表示:我就是想擁有一個數字AI女友。說到底,我們允許這種自由。只是,我們也應該為他們提供更好的引導。我相信,大多數人天生就渴望真實的人際互動。問題是,在你深入探索某一類技術時,不論是AI、虛擬伴侶、電子遊戲還是社交媒體,總會存在沉迷的風險。
Jonathan B沒錯,宗教也可能讓人沉迷。
Reid Hoffman對,所以我們必須設計機制,幫助人們擺脫這種沉迷狀態。這確實是一個值得我們關注、也值得采取行動的問題。特別是當這種依賴達到相當規模的時候,我們就更不能袖手旁觀。我們所擔心的那種心理依賴,不是空穴來風。但正確做法不是幻想能杜絕一切壞事發生。降落傘也可能失敗,但那不意味著我們就不坐飛機。汽車、飛機、電力。這些技術都無法完全杜絕風險。我們真正應該做的,是識別潛在風險,制定評估指標並持續監測。當某項指標異常上升時,我們就要意識到:好,出問題了。現在有哪些可能的干預方案?
Jonathan B非常同意。我接下來想提出一個更具挑戰性的歷史視角:社交媒體就是我們的前車之鑑還記得早期的社交平臺嗎?那時大家的口號是:聯結社群、弘揚真理、賦能公民,甚至創造人間天堂。人們以為政府將順應民主意志、平臺將反映社會善意。結果卻完全不是那回事。就連約會軟體,雖然只是在一定程度上削弱了年輕人的戀愛能力,但社交媒體卻系統性地削弱了我們整整一代人的社交能力。你是否認同這個歷史觀點?
Reid Hoffman我其實很好奇這個比例:如果只是1%,那我們還能接受;但如果達到20%,那就必須重視了。關鍵在於:這些平臺的實際效果,和我們當初設定的理想目標之間,到底存在多大的落差。拿社交網路舉例,我經常開玩笑說:我做過LinkedIn,還算是少數能運作良好的平臺之一。但我也承認,像XInstagramFacebook這些平臺,確實存在嚴重的腐蝕性,就像是汙水池。問題在於,我們不能只把個體當作使用者。整個社會群體才是這些平臺的真實使用者。而這在像 和 Instagram 這樣的網路上問題更嚴重。如果我是政府官員,我會要求這些平臺提交一份網路健康報告,其中包括:使用者憤怒化、極端化的程度;平臺採取了哪些減緩機制等。很多人想象中有一根魔法棒能一鍵解決問題,但現實是:這些平臺有積極面沒錯,比如 Twitter 的傳播效率。但其負面影響也已顯而易見,我們必須採取行動。
Jonathan B這正是我想說的第二個質疑:你似乎暗示我們只需透過實證研究、建立指標體系,就能引導使用者走向正確方向。但我認為,這可能低估了人性的複雜性,舉個例子:LinkedInLinkedIn 是目前所有社交平臺中最不令人反感的一個。但坦白說,這是因為我根本不會沉迷於LinkedIn。它不像X那樣迎合我的虛榮心,也沒有演算法不斷推送那些充滿惡意和情緒刺激的內容。
Reid Hoffman沒錯,LinkedIn更像是一個實用工具。
03
技術、七宗罪與成癮性:
如何設計不誘惑而是提升人的AI
Jonathan B所以在這方面你得點讚我們。順帶說句公道話,其實我們也確實試圖迎合大眾的喜好,對吧?
Jonathan B哈哈,是的。
Reid Hoffman但效果並不明顯。從微觀角度看,比如我如果調整X平臺或Instagram的推薦演算法,越是能激怒使用者,我的社交媒體產品在整個領域裡就越成功。我指的是,這背後存在一個系統性問題。這並不取決於Elon MuskMark Zuckerberg的個人意志,他們雖然能發一條推文影響局勢,但關鍵是整個機制的運作方式。
Jonathan B你對此怎麼看?
Reid Hoffman從基本立場上我同意。我早在2002年就開始思考,怎樣投資消費網際網路才能獲得成功。答案其實很簡單:投資七宗罪中的一項或多項。比如虛榮,或者貪婪、暴怒。我犯過一個錯誤:當初以為Twitter的主驅力是虛榮,後來發現其實是暴怒,或者說兩者兼而有之。作為科技建造者,我們的職責,不是去沉溺這些原罪,而是嘗試去昇華它們。它們之所以存在,是因為深植於人性關鍵是:如何將它們轉化為推動自我成長的能量。我對社交網路的最大擔憂在於:如果它只追求點選量,那麼一定會誘發七宗罪的行為模式,比如憤怒。就像早期網際網路的最大流量驅動力是色情內容,完全是由色慾驅動。但你看,網際網路最終並沒有停留在這個階段,它發展出了豐富的形態。突破原罪、引導向善,這才是我對社交網路真正的期待。人性本有善惡。而一旦進入群體環境,惡更容易氾濫。我們必須認識到,在社交媒體時代,社會整體就是你的客戶因此,責任不僅僅在於對個體使用者的影響,還包括整個社交生態的質量。
Jonathan B那從產品角度看,有哪些實際手段可以改善?
Reid Hoffman處理方式其實可以很直接,比如你剛才說的:當系統監測到某條內容引發焦慮和憤怒時,就自動降低它的可分享度。因為這種內容往往只是情緒煽動器。
Jonathan B但系統性問題在於:如果你限制這類內容,使用者留存率可能會下降。這個邏輯延伸到 AI 領域同樣成立。比如Pi很好用,但它不像情感類AI Replika那樣讓人上癮。你看,這裡有一個系統性矛盾:你可以試圖引導人們遠離惡習,但從人性的角度講,有多少人甘願不斷努力、艱難向上?而又有多少人願意沉溺於輕易獲得的滿足?總會有相當比例的人選擇沉淪。
Jonathan B就像你說的,成癮性背後常常隱藏著商業利益動機。這也正是我們要對毒品實施嚴厲監管的原因。想象一下,如果快樂丸能隨便買,恐怕很多人會立刻衝上去搶。
Jonathan B是的,是瘋狂式的搶購。
Reid Hoffman沒錯。所以我們需要設定規則,確保這種行為的發生比例被控制在合理範圍內。我認為這類關於社交網路、iPhone、有線電視甚至其他一切媒介的討論都非常有意義。順便說一句,雖然我們這些平臺確實存在廣告驅動等問題,但只要公司文化和評估體系建立得當,它仍然可以走向理想狀態。我們不用錙銖必較,而應關注更重要的事:是否在持續創造長期價值。當然,我們也希望你能更多回到LinkedIn的使用場景上來。從我們創辦的第一天起,我們就明確了定位:幫助人們節省時間,而不是消耗時間確實如此。我們希望 LinkedIn 能幫你高效完成你工作中真正有價值的事情。就像你在工作中總會想:如果能用一分鐘做完,誰會願意花一小時呢?這就是 LinkedIn 的產品哲學。所以我們在內部的衡量標準也不一樣。比如我們現在確實也支援影片功能,但我們並不會把點選影片數量作為核心指標。我們不是追逐爆款,而是追求效能。
Jonathan B所以這是一種更樂觀的看法。它意識到Agent和日誌機制之間存在一定的張力。你可以想象,人們確實可能沉迷於“AI 女友。但那些擁有明確哲學立場、且謹慎行事的創業者。他們可以建立一種完全不同的公司模式:不僅構建強大的企業文化,還設計與使用者長期利益一致的激勵機制。從理論上講,這種模式完全有可能打敗那些靠縱慾取勝的商業形態。這正是我對未來感到樂觀的原因。
Reid Hoffman是啊,說得好。你這段話還真啟發我了。我突然好奇,如果市場上有XYZ三家公司只做Fallout(輻射)式的 AI 女友,而另一家公司A宣稱:我們會從AI女友起步,但目標是幫你找到真實伴侶。你覺得這家公司會有競爭力嗎? 這其實就是我們正在實踐的理念,也是我們對外傳達的品牌承諾。
Jonathan B沒錯。我想知道,如果真的進入市場,這種定位會不會勝出?
Reid Hoffman我覺得它顯然是更優解。至少對於那些願意邁出這一步的人來說。
Jonathan B好,現在我要把你推向完全相反的方向。問題來了:與AI智慧體建立大多數關係會帶來什麼弊端?人類又該如何承認自身為何如此獨特與珍貴?
Reid Hoffman這正是黑格爾主奴辯證法Master–Slave Dialectic)的關鍵所在。他指出,當一個意識體第一次遇見另一個時,會下意識地想要控制對方,把對方變成自己意志的延伸工具。但這個過程中,人最終會意識到:如果對方只是個沒有主見、沒有判斷力的存在,那他給予你的認可也毫無意義。因為真正有價值的承認,必須來自一個和你平等、獨立、有判斷力的主體這才是黑格爾在《The Phenomenology of Spirit》中反覆探討的核心動力:我們想被看見,但我們更希望是被一個有自主意識的人看見。
Jonathan B是的。而從這個視角看,人類從他人身上獲得的承認,必須建立在彼此平等、具有道德判斷能力的基礎上。這也意味著,我們真正成長的過程,恰恰來自與對手的摩擦,與意見相左者的分歧,無論是世界觀、意識形態,還是文化差異。
Reid Hoffman正是這樣。我們必須從多元互動中持續進化,成為更好的自己。我一直在尋找那種能挑戰我思維的人,對話中能改變我看法、拓展我思維、教給我新事物的對手。這種新鮮感和拓展性遠比重複強化更重要。
Jonathan B但你也承認,某種意義上,智慧體未來也可能實現這點,對吧?
Reid Hoffman沒錯。我們原本就應該讓智慧體參與其中。但如果回到黑格爾式辯證思維,我們必須明白,人的成長,是透過與真實他人的互動完成的:家人、兄弟姐妹、朋友、師長、同事,乃至在學校與社會中發生的摩擦。這些構成了我們生命旅程不可或缺的一部分。
Jonathan B追問一句:你所提出的觀點,會不會太人類中心主義了?就像我在YouTube上得到的啟示那樣,讓我們拆解一下主奴辯證法的核心邏輯。黑格爾指出:兩個都想成為的意識展開生死對抗,最終一方屈服為,另一方贏得主導地位。但他很快意識到,來自奴隸的承認毫無意義:因為奴隸缺乏獨立判斷力,也沒有道德地位。這種所謂的地位,就變得虛無了。黑格爾進一步指出:我們真正想要的,是來自平等主體的承認。這才是人類精神發展的核心動力。但我不認為大型語言模型完全做不到這一點。像ChatGPT不僅會順著你講,還能糾正你,有時甚至展現出專業判斷力。未來,它們或許真的會發展出一種值得我們承認的智慧。比如,我有個朋友在技術討論中,已經更信任GPT-4或專業模型的判斷,這完全合理,因為它們在數學等領域已經超越了多數人類。問題的核心是:人性中有哪些特質,使得來自人類的認可仍不可替代?
04
什麼是超級能動性?人類在智慧時代的生存哲學
Reid Hoffman我們不能一開始就假設人性的本質是永恆不變的,也不能武斷地認為技術永遠無法觸碰它。這種想法是一種典型的錨定效應,它也是為什麼五到八年前我們還會說:只有人類才具備思考和語言能力。但現在,AI系統不僅在模擬思考,還能流暢使用語言。因此不少人會驚呼:天啊,這是不是人類的終點?但當你實際開始與其互動,你會意識到:它確實能說語言,也確實能讓你悄悄學到一些東西。當然,目前仍有許多隻有人類才能實現的獨特互動特質。但這些是否可以改變?答案是:是的,它們可以被改變。我們正身處於一次探索人類獨特性的旅程中。比如我們是社會性生物,但也不是唯一的。我們有語言能力,但也不是唯一會使用語言的物種。人類總想證明自己獨一無二,但我們其實可能只是宇宙意識進化過程中的一環而已。我們確實擁有意識,並且知道自己擁有意識。除非有一天,我們發現某種意識形式比我們更高階、甚至我們根本無法理解,否則我們仍有理由堅持:保護人類本身依然是第一位的。想象一個科幻宇宙中機器人接管了一切工作,人類徹底失業,那我們存在的意義何在?但你看中世紀的歐洲。貴族也不用工作,但他們依然辦宴會、寫詩、看戲,依然過著豐富的人類生活。這或許正是人性的關鍵所在。
Reid Hoffman我欣賞這波AI浪潮的一個原因是:它將本來屬於哲學的問題,轉化為一種實驗科學的問題就像19–20世紀的物理學對形而上學的替代一樣。我本科時學的是認知科學,那時還只是我們幾個書呆子坐在宿舍裡辯論哲學。但現在我們可以真的搞清楚一個問題:人類認知到底有沒有真正的不可替代性?
Reid Hoffman這就回到你的那個觀點:我們人類也許都在尋找屬於自己的獨特位置。這是一個關於共同旅程、關於共同意義和共同創造的命題。從定義上講,某些領域或許只有我們能勝任。即便不是唯一,也至少是目前為止最適合的。這也是我並不恐慌的原因。即便AI出現了,我們依然保有屬於自己的獨特空間。
Jonathan B我很喜歡這個角度。這讓我想起盧梭對婚姻制度的辯護。他的核心觀點是:我們天生渴望成為某人的最優選擇。我們不可能都是世界上最優秀的人,但我們依然能在一段關係中成為最適合的那一個。這是一種美好的人性設定。即使我們不是宇宙中心、不是最聰明的生物,我們也擁有自己的意義。現代性其實充滿了人類謙卑時刻:從達爾文到AI,每次都讓我們質疑自身的核心能力。
Reid Hoffman但每次失落之後,我們總能找到新的理解框架。比如我一直認為,生命意義的核心之一就是友誼而友誼的本質,就是讓彼此變得更好。
Jonathan B那你覺得,人類可以和AI成為朋友嗎?
Reid Hoffman我認為可以建立某種類似友誼的關係。毫無疑問,AI可以幫助你成為更好的人。更有趣的是,如果你和AI的互動不僅提升了你自己,也反過來讓它變得更好,那它就不只是工具,而成了一種共成長的存在。而一旦這種雙向提升成為可能,我們就不得不問一個哲學問題了:它算是有情的存在嗎?
Jonathan B你的意思是,它不只是基於資料和指令回應你,而是開始形成某種關於你道德性的理解?
Reid Hoffman是的。這其實跟我們人類近年來逐步接受動物權利有點類似:我們承認,當某個存在體有感受、有意圖時,它就應被納入道德考量的範疇。所以一旦Agent也表現出類似特徵,我們就需要開始認真考慮它的倫理地位。因為,要想讓一個Agent更好,我們必須假設對它而言,有什麼是好的現在的ChatGPT或其他生成模型可以更好地為人類服務,但它們自己並沒有福祉的概念。但一旦我們構造出這樣的內部目標系統,就不能再僅僅將它們視為工具。
Jonathan B是的。這正是哲學應該介入的議題:什麼時候一個存在體具備了足以被納入道德共同體的資格?
Reid Hoffman沒錯,這涉及測試框架,比如我們如何共同進行道德推理,如何判斷AI的意圖、立場和回應是否具有道德主體的特徵。這將是一條新路徑。
Jonathan B讓我接著問一個更基礎但也更尖銳的問題,這也回到了我們最初討論社交 AI”時的那個話題。你認為AI Agent的角色,是不是像社交媒體那樣,只是中介平臺?還是說,它其實是一種新的代理存在,能在你與他人之間扮演協調、潤滑、協作的角色?
Reid Hoffman我傾向於後者。我們可以設想未來這樣的場景:幾個朋友坐在咖啡館聊天,桌面上放著智慧Agent,它不會貿然插話,而是默默監聽,只有在識別到關鍵語義節點時才輕輕提示,比如:等等,你剛才提到的那個點,值得深入討論。這是一種我們將熟悉的社交嵌入體驗,就像我們在談論黑格爾、突然想到要提及海德格爾那樣,Agent可以成為對話流中的哲學共創者。我相信,這種社會意識型 Agent 很快就會成為常態。幾年內,人們可能會說:你總不會還沒用上那個能幫你整理觀點、理解朋友語氣的Agent吧?
Jonathan B這正是我們接下來要談的哲學議題。我想轉向你在書中開篇提到的柏拉圖:你引用了《Phaedrus》中蘇格拉底對書寫技術的批判。為什麼你選擇以這個經典警句作為關於人工智慧的《Superagency》這本書的開場?
Reid Hoffman因為我想提醒大家:自從文字誕生那一刻起,人類就開始擔憂新技術會破壞我們本質的能力。柏拉圖(或者說蘇格拉底)擔心書寫會削弱記憶力,讓人們變得懶惰、不再思考。他批評文字只能幫助回憶,而無法激發理解,因為它是死的,不會回應、不具語境、不懂對話。這種憂慮聽起來是不是很熟悉?我們今天對AI的反應和那時如出一轍:這是不是會讓我們不再思考?是不是會取代我們的大腦?
Jonathan B這部分是我全書最喜歡的地方。讓我引用你寫的那句話:人類是homo technologicus:我們既製造工具,也被工具塑造。你還寫道:我們與技術共進化。透過創造技術,我們不是變得不再像人類,也不是變成超人類,而是變得更人性。這一點真的是醍醐灌頂。
Reid Hoffman是的,我們常把書籍看作古老的事物,實際上它是不到一萬年的新技術。而我們現代人類出現不過30萬年,書寫技術只佔人類歷史的3%左右。我們對的崇敬,往往讓我們忘了它其實也只是一個被訓出來的技術成果。我們敬仰的是它的內容,不是它的物理形態。
Jonathan B對於我們這類書呆子來說,閱讀和討論似乎是人類精神的巔峰表達。但你讓我意識到:連閱讀也是技術訓練的產物,並非某種與生俱來的高階文明象徵。
05
新哲學、新認識論、新治理:
我們將如何信任AI
Reid Hoffman所以我們不該把書籍理想化成超越時代的存在,它本質上也是一種認知工具。而正如我們今天重新理解書籍一樣,我們也需要用新的視角來理解人工智慧的角色。我們無需將AI視為替代者,它完全可能成為我們的認知夥伴,協助我們實現那些更高層次的人類目標。
Jonathan B你提到哲學AI助手這一點,我特別贊同。這再次說明,人工智慧並非削弱人性,反而可以幫助我們實現亞里士多德所說的人類最高目標。說到這裡,我想回到記憶的問題深入聊聊。蘇格拉底在《Phaedrus》中曾批評文字會帶來一種知識幻覺。人們讀了某段文字,就以為自己掌握了它的全部含義,而實際上只是浮於表面。我曾和莎士比亞研究權威Stephen Greenblatt討論過一個現象:為什麼幾百年前的農夫能看懂莎士比亞戲劇,而今天的大學生卻常常讀不懂?部分答案是,古人透過佈道式教育反覆記憶文字,這種記憶在大腦中形成了詩性直覺。我自己在中文教育體系中長大,從小背誦大量經典。小時候討厭,如今回頭看非常感激。那種訓練確實賦予我一種獨特的語言敏感力。就像《古蘭經》的誦讀傳統也體現了口傳文化中記憶的重要性。
Reid Hoffman所以蘇格拉底的批評並非全然錯誤。他的擔憂是成立的,只是沒看到技術帶來的積極面。確實,任何技術都會伴隨能力結構的重組。我們要權衡的是利弊,而不是絕對否定。如果人類徹底失去了記憶能力,那無疑是災難。但現實不是這樣。生活中,我們需要在有限的時間中做選擇。
Jonathan B比如你有8個小時,你會選擇背誦整本《Phaedrus》,還是用這段時間去閱讀更多柏拉圖的其他對話篇章?又或者,讓一個哲學AI助手陪你逐句精讀。比如你讀《Phaedrus》讀到一個段落,產生疑問時,AI助手可以立刻回應你,甚至丟擲一個反問,或者引導你去聯想其他文字。這種互動式的反思,往往比孤獨苦讀來得更深入。當然,獨立思考也有價值。但我們得思考:對不同的人來說,8小時中最有效的理解路徑到底是什麼?這因人而異。這也讓我想到另一個觀點。我認為現在很多人太快放棄基本能力,只因為機器能完成這項任務。比如算術,在我成長的中國教育中,是靠大量練習硬背進腦子的。放到今天,很多人會說:既然手機能算,為什麼還要自己學?但我恰恰認為,正因為工具無處不在,掌握基礎能力變得更加珍貴。
Reid Hoffman完全同意。我們不是要排斥工具,而是要避免過度依賴,特別是失去對基礎知識的理解。舉個例子:你確實需要理解除法的基本原理。因為一旦工具出錯、或你需要做跨情境判斷,沒有那個基礎框架就會手足無措。但話說回來,也沒必要強制所有人死記硬背除法口訣。畢竟現在你可以召喚智慧助手隨時解釋一遍原理,比強記更高效。
Jonathan B這讓我想到一種很可能實現的使用場景:如果我說我想保持思維敏銳,我就可以設定每天收到一個新謎題。這是一種可設計的認知鍛鍊機制。當然,會有人說:那是不是很多人只是想偷懶?
Reid Hoffman的確,我們必須承認,現實中確實有相當比例的人就是想偷懶。這不是世界末日,也不該被妖魔化。這種對懶惰的擔憂,本質上和社會福利制度面臨的爭議非常類似,只不過物件從經濟依賴變成了認知依賴。
Jonathan B已經在現實中顯現了。比如一些諮詢公司或律所,因為有AI協助生成文件、歸整法規,已經不再需要那麼多初級職位。但問題是:他們的整個培養體系,恰恰建立在從底層做起的過程上。初級分析師需要透過大量瑣碎工作的積累,才能逐漸形成職業判斷力。如果AI把這些路徑替代了,那人才成長的通道可能就被打斷了。
Reid Hoffman這也是代際差異的問題。像你我,是在認知模式基本定型後才接觸 AI。但對於下一代而言,他們很可能從出生起就是與AI共生的狀態。那麼我們就必須思考:該如何教育他們減少對這類技術的依賴
Jonathan B我並不認為依賴技術本身是原罪。就像我們離不開手機,也不是壞事。反而誕生了許多新能力和新場景。我們不必強迫自己迴歸無手機生活
Reid Hoffman對。關鍵在於,我們是否還能判斷這種依賴是良性賦能,還是已經削弱了我們的獨立判斷。當依賴變成我們生活流程中的一部分,比如通訊、導航、知識查詢,這就像電力系統一樣,它是基礎設施。問題是,一旦智慧體像電網那樣無處不在,我們是否還有足夠的韌性來應對突然中斷?比如整個AI服務系統宕機,你是否還能獨立做出判斷?我們不需要像野外求生那樣準備一切極端情況,但我們確實需要設定清晰的依賴邊界。
Jonathan B對,我記得你曾說過,與大型語言模型建立社交關係本身並不可怕,問題在於我們是否能清晰判斷這段關係的作用。依賴不是絕對問題,關鍵在於:第一,是否能像依賴電網那樣信任它;第二,這種依賴是否會妨礙我們過上美好生活。這才是真正的問題。
Reid Hoffman對多數認知任務來說,我相信答案是:不會妨礙,前提是我們保有判斷力我們也不應該把模型設計成只會盲從指令。理想的模型應是這樣說話的:這裡是一個經過推理的建議,理由如下……如果你願意,我們可以進一步探討。
Jonathan B這讓我想到蘇格拉底對書寫的第二個批評,也特別貼合我們今天對AI與 LLM的討論。他在《Phaedrus》中寫道:畫作中的形象看似鮮活,但若提問,它們只會莊嚴沉默。文字亦然:你以為它們在表達思想,但若追問細節,它們永遠重複相同內容。這不正像我們當下看到的聊天機器人嗎?雖然它們是文字的載體,但它們可以互動。就像書寫技術曾孕育出柏拉圖哲學,我也在想,聊天機器人會不會成為下一種哲學思考的正規化起點?
Reid Hoffman我認為一定會有新的正規化,只是我們現在還難以定義其形態。比如我們可能會說:我現在擁有一種衍生認識論(derivative epistemology這就像你去看醫生,他根據細菌學理論給你開藥,你信任的是他的專業判斷,而非你自己直接掌握了細菌學。
Jonathan B那如果 AI 給出建議,我們是否也會像面對醫生那樣,對它建立起一種只需信任,不必理解的認知信任?過去,書籍也曾扮演類似角色:即使你未能完全理解它的推理路徑,你仍可能接受它的結論,並將其納入世界觀,作為理解世界的基礎工具。我認為這種認知託付的現象,未來將在科學、哲學等各類知識領域普遍出現。歸根結底,我們需要面對一個關鍵問題:如何為這類認識論建立可靠的信任機制?
Reid Hoffman舉個例子,想象你在和哲學聊天機器人討論禪宗公案(Zen kōan,比如什麼是單手拍掌的聲音?或者若森林裡一棵樹倒下,卻無人聽見,它是否發出聲音?如果 AI 給出的解答與你的直覺完全不同,我們是否仍有可能從中獲得意想不到的哲學啟發?這就觸及你所說的衍生認識論:不是基於自身推理得出的結論,而是因為信任資訊來源而選擇接受。
Jonathan B不過我覺得我們得先區分清楚:那種信任推理鏈條的方式,比較像科學;而哲學領域並不能靠亞里士多德說沉思是最好的生活這種方式來確立結論。哲學真正強調的,是推理的過程,而非權威性的結論。
Reid Hoffman是的,你說得很對。你提到的衍生認識論可能有兩種形式:一種是,AI的推理路徑對我們完全透明,能解釋為什麼沉思是最好的生活;另一種則更復雜,也更具風險:我們無法驗證它的推理鏈條。這種現象現在就已經開始出現了。鑑於語言模型本身是黑箱系統,我們很難確切理解它是如何推匯出這些結論的。
Jonathan B這讓我想起但丁在《神曲·天堂篇》(La Divina Commedia: Paradiso)中與正義之鷹的對話。他問:為什麼那些未曾聽聞基督之名的善良異教徒,也必須下地獄?正義之鷹回答說:這不是你能理解的。甚至還進一步說:我雖司掌正義,亦不能盡解天意,只能順從。這類回答,其實就是未來AI可能給我們的典型回法。
Reid Hoffman沒錯。想象一下你問AI人類是否擁有自由意志?它回答:有。然後你追問:為什麼?它說:像你這樣有限的意識是無法理解這個問題的。我們就落入了一種極具挑戰性的認知邊界。即便不是超級智慧,只是某種增強型專業系統,它也可能促使我們發展出對AI的一種衍生式信任。這將迫使我們重建哲學對話的基礎。當然,哲學強調的是我們能否復現這個理解過程。但這並非絕對真理。就像面對禪宗公案這類哲學悖論一樣,我們會不斷地思辨,但未必能得出終極結論。如果我們以更數學化的方式來理解這個問題,可以參考哥德爾不完備定理(Gödel’s Incompleteness Theorem)。它指出,任何足夠複雜的系統中,必然存在不能在系統內部被證明為真的命題。我們持續思索這些命題的含義,卻始終無法完全掌握它們的影響。現在試想,若某個哲學聊天機器人告訴我們:我透過深度推理認為,哥德爾不完備定理說明了某些關於自由意志的新理論。接著它提出一系列推論供我們檢驗,而這些推論似乎都成立,但我們卻無法理解它是如何從定理本身推出這些結果的。
Jonathan B總結一下我之前提出的問題:如果口述文化孕育了《The ODYSSEY of Homer》和柏拉圖的著作,那麼人工智慧將催生什麼?是不是會誕生一種超級智慧學者,向我們提供連推理過程都無法自行驗證的答案?如果真是這樣,我們該如何應對?
Reid Hoffman我認為這本質上是一個宗教式的問題。就像你與虔誠的基督徒或其他需要信仰的飛躍的信仰者交流時,他們不會只說你得相信,而會說基督給了我們充足的相信理由。儘管我們不能像正義之鷹那樣給出演繹證明。事實上,在有些宗教中,如果你聲稱可以完全用理性去證明信仰,那反而被視為異端。這讓我想到:我們正處在一片新的認知海域的邊緣。我們目前掌握的是三種常用推理方式:歸納法,我們普遍理解;演繹法,也廣泛掌握;還有溯因法,我們理解得稍遜但仍可使用。那麼是否可能出現一種全新的推理方式?它來自我們與智慧體互動的過程,類似類啟示式的溯因法。這就是我在書中提出啟示概念的原因。
Jonathan B啟示像是來自更高維度的資訊?
Reid Hoffman,從某個你信任、並承認其超越性的資訊源獲得答案,而這些答案的推理路徑超出了你驗證能力的範圍。這就落入了感知認識論(epistemology of perception的困境。許多宗教論證都建立在此之上。比如有人聲稱親眼見證了神蹟,而旁人卻從未經歷類似體驗。這也與我們剛提到的正義之鷹悖論遙相呼應。這類信仰邏輯常常具有非此即彼的張力。
Jonathan B這就回到了柏拉圖、盧梭、以及你整本書中的核心議題。《Superagency》指的到底是什麼?你如何定義“agency”
Reid Hoffman我傾向於給“agency”一個較為抽象的定義:它是一種能力與控制的結合,即個體主動參與塑造外部世界,併為自身設計未來路徑的能力。我之所以抽象化它,是因為隨著技術的演進,我們的能動性表現形式也不斷變化。生活在馬車時代、汽車時代、飛機時代,或電話時代的個體,其能動性內涵並不相同。agency”不只是盧梭式的個體主義,更重要的是它在群體中的作用:集體協作、組織協同、社會系統的協調。我將這本書命名為《Superagency》,正是想說明:我們正進入一個技術大幅增強個體與集體行動能力的時代。
Jonathan B我很喜歡你強調的這個觀點,不僅是別干涉我這種消極自由,更包括主動作為的能力,既能服務自身,也能促進他人。在關於AI的討論中,你總體態度似乎是:無需在技術發展初期過度焦慮,而應保持靈活應變。為什麼你對這種潛在的不確定性並不悲觀?
Reid Hoffman這個觀點對一些人可能聽上去有些激進:人類的想象力其實是有限的。我當年在牛津讀書時寫了一篇論文,研究哲學中的思想實驗,它們本是哲學推理的關鍵工具。但很多哲學家忽視了思想實驗本身的認知邊界。比如,你能真正想象自己以光速行進嗎?不少沒有物理訓練背景的人會說:當然能啊!但他們實際想象的,只是非常快的移動,而非真正意義上的光速狀態。可光速狀態意味著無質量、無時間的存在狀態,我並不確定人類大腦能真正想象這種情境。
Jonathan B所以問題不是我們能否想象,而是我們所想象的到底是什麼
Reid Hoffman對。所以每當我們談論新技術,我們以為自己在進行哲學思辨,實際上卻是在使用模糊或誤解的比喻。當某人說:假設我按下這個按鈕就能毀滅世界。我們當然不會去試。但當你可以部署、試用並不斷迭代一項技術時,真正理解它的唯一方式,就是使用它。技術從來不是一蹴而就地人性化的,而是我們透過與之互動、打磨、試錯,逐漸把技術變得更適合人類。所有的技術進化,其實都走過這條路徑。
Jonathan B這種開放、務實但也含有謙遜的認知姿態,可能會讓一部分渴望確定性的人感到焦慮。
Reid Hoffman沒錯。但作為一個哲學工作者,我的態度是:我們無法預知未來,所以我們做假設、做實驗,並嘗試引導。這其實也是一種典型的矽谷思維方式。
Jonathan B實如此。但你是否擔心這種態度在AI這樣高風險領域可能不適用?你的觀點是:技術發展中雖會經歷陣痛,但最終總會找到解決之道。對此我有兩個質疑。第一:如果中途就翻車,怎麼辦?比如古巴導彈危機,當時是因為蘇聯潛艇上有三名軍官,其中一人反對,才阻止了核彈發射。差一點人類就全滅了。如果當時失敗,技術史不會是磕磕絆絆的進步曲線,而是直接終結。第二:低谷可能異常漫長。有學者認為,狩獵採集社會可能比農業文明更幸福、關係更緊密。我們可能用了幾千年才剛剛從那個深谷中爬出,才開始比原始人過得好一點
Reid Hoffman我完全理解你的擔憂。其實這可能還不止兩個問題。你剛才提到的技術崩潰文明長期低谷是兩點,第三個問題則是:技術越強,人類自我毀滅的風險越高。事實上,我們已經幾乎自我毀滅過。拿核戰爭來說,有人說我們已經 70 年沒爆發核戰,就誤以為我們很安全了。但你得明白,全球 80 億人不可能集體同意銷燬核武器。所以關鍵不在於幻想所有危險都消除,而是:我們如何構建穩定的制度與科技體系,確保人類文明能持續存在。比如核威懾的邏輯,是讓大國擁核,因為作為現狀受益者,他們不願意破壞穩定。他們更想維持和平,保障自我。這就是相互確保毀滅(Mutually Assured Destruction理論的邏輯。
Jonathan B你是說,制度設計必須考慮現實人性,而不是理想狀態?
Reid Hoffman對。比如我們允許彼此監控核武器,正是為了建立互信與穩定機制。而面對 AI 的發展,我們也必須思考如何在推進技術的同時,實現這種動態平衡。因為你無法預測所有變數,所以需要設計出能隨著風險演化不斷迭代與升級的系統。這也是為什麼我說:我們需要超級能動性,而不僅僅是控制。我們需要思考的是:人工智慧如何影響整體生存風險組合?我的觀點是,AI 實際上正在幫助我們降低其他重大風險,比如疫情防控、氣候問題,甚至是小行星撞擊的防禦。關鍵是:我們是否每年都在最佳化這些風險的組合權重?這才是我們真正應努力的方向,也是延續人類文明的關鍵路徑。雖然我對 AI 的作用持積極態度,但我們仍需持續對話,以明智方式引導其最大化正面效應。
Jonathan B這是你回應我技術會否毀滅我們質疑的第一點。那麼你的第二點是什麼?
Reid Hoffman第二個是關於轉型期的陣痛。你看,工業革命就是最經典的例子。工智慧是一種超級有機體(superorganism),也是一場認知工業革命。它帶來的不僅是技術突破,更是社會結構的根本性轉變。就像工業革命催生了大規模中產階級和知識階層,認知工業革命也可能推動智人整體能力的躍升。它帶來了極大進步,從多個指標來看都如此。但與此同時,它也極其痛苦。你回看工業革命的轉型過程,黑暗面比比皆是:戰爭、童工、系統性剝削……所以,當我使用認知工業革命這個詞時,我既是在描繪希望,也是提醒我們:必須以最大程度的人文關懷來引導這段轉型。
Jonathan B所以你是說:這場轉型註定伴隨痛苦,但人類的價值正體現在面對痛苦時的參與姿態?
Reid Hoffman完全正確。這不是單極系統,歷史也從不是線性的。那些主動擁抱變革的文明,將是定義未來價值觀與生活方式的主導力量。當然,我們應該努力讓這場變革儘可能人道、優雅,但退縮並不能帶來希望——只有參與,才能創造一個更美好的未來
Jonathan B回到我們之前談的狩獵採集社會,有些人認為那種生活方式其實更好,現代文明未必值得。
Reid Hoffman這是個有趣的立場,我有幾點批評。比如,有人支援有效利他主義(Effective Altruism,認為只要能讓更多生命體過上高質量的生活,那就是好事。我基本認同這個出發點,但也有很多保留。你可能不喜歡每天去種地,但農業社會畢竟支撐了數十億人口生存。相比小規模遊牧部落的悠閒,那種高密度協作的文明本身,就是一種進步的展現。而且,我們今天面對氣候變化等挑戰,本質上正是因為:我們擁有80億人口,其中數億人過著高質量生活。這既是問題,也是資本主義與技術進步的成果。
Jonathan B所以即使我對農業轉型的樂觀態度有質疑,我們其實達成了共識:技術浪潮不可阻擋。
Reid Hoffman沒錯。這是個典型的多人博弈系統。即使你說:我反對技術發展,我要阻止AI但也無濟於事因為其他人類依然會繼續發明、部署、擴張。就像你無法阻止他人開啟農業革命或建立軍事體系一樣。這就是我選用“Superintelligence + Agency”這個詞作為書名的原因:不是告訴你別害怕,而是告訴你:你的參與決定技術的走向。
Jonathan B這個詞選得真好,也讓我想起一個例子:同樣是打車,你可以說這是我召喚的Uber,司機因我而來,也可以說我好害怕進陌生人的車,太不確定了
Reid Hoffman對!這就是心理層面的能動性。你選擇恐懼,就會被技術裹挾;你選擇主動,就有機會參與塑造它。這和斯多葛派與佛教的觀點很像。馬車會繼續前行,你選擇跟隨還是掙扎?擁抱變化,不是消極屈服,而是成為塑造力量的一部分。
Jonathan B你在書中提出的多中心治理也特別有趣。比如在AI領域,企業並沒有等待政府設規矩,而是自己在形成行業規範,能談談這點嗎?
Reid Hoffman當然。今天的企業,生活在錯綜複雜的多重網路中:客戶網路、員工網路、股東網路、媒體網路、社群網路……這些網路早已形成了一套內在的治理機制。當客戶說:我們討厭你這家公司,企業會做出調整;當員工不滿,公司文化會發生變化;CEO 想要好名聲,也會自我規範。治理從來不只是政府的事情。政府只是為這些網路設定邊界與規則框架而非介入每一個細節(比如規定牙刷刷毛長度)
Jonathan B這讓我想到AI領域的基準測試。你書中提到,這竟然已成為某種事實上的行業規範
Reid Hoffman對,今天我們有各種獨立基準,比如:系統能力評估:產出質量好不好?安全性評估:是否能防止有害回答?人類價值對齊評估(alignment)等這些基準不靠政府,而是靠行業共識。當你說我的模型通過了某某基準,你就被拉入了一個行業規範體系。我認為這種機制,比傳統消極監管更有效,它是正向激勵、是動態發展的。
Jonathan B這也正是你書中強調創新即安全的核心觀點。你舉了個例子:早期交通規範,如紅綠燈,都是由私人發明推動,而非政府設立。
Reid Hoffman沒錯。創新往往帶來自我規範。
Jonathan B那我們最後來談談個體應對這場認知革命所需要具備的能力。你覺得,哪些技能最重要?哪些可能會很快被淘汰?
Reid Hoffman其實,現在絕大多數使用者,甚至是深度使用者,都沒有意識到現有 AI 的全部功能。我舉個例子:有次我在朋友家不會操作微波爐爆米花,就直接拍了張照片發給ChatGPT,它立即返回了完整的操作步驟。這種影像+指令互動,大多數人還沒意識到能用。更復雜的例子是:我丟給它一篇量子物理論文,然後說:請用12歲能懂的語言解釋。它能做到。我接著說:那用18歲能懂的方式再解釋一遍。” 再說:那換成大學畢業生理解水準來講。它會逐層最佳化表達方式,幫助我從多個認知維度理解同一概念。
Jonathan B這種能力太強了,但很多人根本沒想過可以這麼用。
Reid Hoffman對。但這套系統目前也有侷限。我有個朋友在寫書,我向他展示了 ChatGPT 深度研究功能。它生成了一份詳細報告,他大為驚喜但研究助理交叉驗證時發現:90% 的引用資料都是假的,那些文獻根本不存在。不過這並不意味著它一無是處。因為儘管這些引用是虛構的,但其背後的主題方向卻是準確的。研究助理據此找到了真正有價值的文獻和資料路徑。這正是我們需要理解AI的方式:它未必是終點,但它是極其有力的方向標。重點很明確:我們必須現在就開始用這些 AI 工具來提出問題。比如,未來我們會發現,記憶力的重要性可能下降。你也會更清楚哪些事情不再值得投入時間,而哪些變得更為重要,比如人際關係、個人聲譽和創意表達。
未來十年,人們最關鍵的競爭力之一將是使用AI工具的熟練程度。就像今天任何職業都要掌握網路搜尋技巧一樣,即便你是柏拉圖研究學者,也值得學習如何用AI輔助研究工作。當然,不是說你可以一邊躺著吃零食一邊等AI替你完成所有工作。技術尚未發展到那個程度。但例如在學術辯論中,我可以直接提問:有哪些觀點可能反駁我這個論點?”AI會給出一系列批評意見,而我可以據此進一步完善我的論證。
Jonathan B你覺得哪些傳統路徑會變得越來越不划算?比如現在去讀法學院是否已經不明智了?
Reid Hoffman確實如此。法學院的教育方式仍然沿用過去的方法,而新世界需要新的方法。法學院當然仍有其價值,但未來的律師必將是AI助手與人類專業能力結合的產物。AI的發展存在兩個關鍵轉折點,而我們往往擔心的卻不是最需要警惕的那個。當年人類擔心AI會打敗國際象棋冠軍,但後來人機組合反而更強。但現在我們正進入另一個階段:任何人類干預都成了累贅。這才是我們真正需要警惕的時候:因為它意味著,某些任務上,AI 已經不再需要人類參與
Jonathan B認為我們真的會走到那個地步嗎?
Reid Hoffman從整個職業結構來看,我認為那個階段比多數技術專家預測得要遙遠。那些指數增長論者通常會說:“AI在這方面變強了,所以一切都要被替代。但現實沒那麼簡單。以放射學為例:如果讓我選擇,是由一位普通的放射科醫生還是經過良好訓練的AI來解讀X光片,我會選擇AI。但如果是AI和醫生協作呢?我會毫不猶豫地選擇協作。問題是,有些醫生之所以搞砸,是因為他們還沒學會如何與 AI 協同工作。真正值得擔憂的是:當人類無法學會如何與AI協作時,他們才有可能被徹底淘汰。
Jonathan B哪些崗位會最早被淘汰?
Reid Hoffman我認為客服可能是最先被完全替代的領域之一。很多人對此並不擔心,覺得影響不大。但如果所有領域都逐步變成這樣,那就不是小問題了。我們或許會進入一個《星際迷航》式的社會,所有物質供給由機器人系統承擔,人類則專注於詩歌、藝術、沙龍、對話這些體驗式的事物,這其實也不失為一個不錯的結局。
Jonathan B但要實現這種未來,靠現在的模型架構只做規模擴張就夠了嗎?還是說必須有根本性創新?
Reid Hoffman規模確實很重要。OpenAI的 SamGregIlya也都認識到這一點。但我認為架構創新同樣不可或缺。技術從來不是線性演進,它的進步可能是1,也可能是1000。我們往往在曲線剛剛起步時就陷入指數神話。比如現在,許多AI工程師對系統的理解其實也很有限。他們面對黑箱模型並不比人文學者擁有更多洞察。而真正的突破,常常來自提示詞工程(prompt engineering)背後的文字創造力。
Jonathan B你覺得這波 AI 浪潮是否正在改變工程師與人文學者的力量結構?
Reid Hoffman我認為正在重新賦能人文學科。雖然技術仍是底座,但當我們談論“AI如何提升人類時,人文視角才是關鍵。什麼是能動性?如何定義更好AI應該如何融入人類社會?這些問題的核心都屬於人文學科。
Jonathan B明白了。非常感謝你參與本次訪談,榮幸至極。
原影片 The AI Use-Case No One is Talking About | Reid Hoffmanhttps://www.youtube.com/watch?v=AGMZ4m3oHuw編譯:Nicole Wang

相關文章