技術哲學學者王小偉問 DeepSeek:“如果所有科技都越來越發達,有什麼不好嗎?”在多輪問答後,它幾乎說出了海德格爾式的觀點——如果總是強調技術,人們可能會忽視技術的“背景”,技術鑲嵌在非常宏大的人性的基礎上。過於專注在技術作為一種控制能力、作為權力意志的彰顯,會遮蔽人的存在。海德格爾在六七十年前就預見到未來是以 “計算、快速和巨量” 為突出特徵的技術時代。他警示,技術只不過是人類的一種存在方式,但卻被當成了唯一的存在方式。他憂慮於,現代技術對 “存在” 造成 “遮蔽”。技術哲學實則是批判技術的哲學。王小偉持續觀察 AI、手機、通勤、外賣等深入日常生活的技術,在著作《日常的深處》中他思考和呈現了當代生活是如何被技術邏輯主宰。從技術哲學的角度,“肥胖可看作是一種技術現象”,可能是因為食品工業發展、食物能量密度過高;通勤的產生是城市生活消費化、所有關係商品化的結果——消費場所佔據城市核心地段,人被擠到城市邊緣;外賣象徵著當代生活被簡化為效率優先、無內在價值的機械過程。手機上癮,則是因為資訊 “熱量” 和密度太高了,而資本善於編織一套 “更好的生活” 的敘事,把所有人變成消費者,消費社交媒體內容,消費本不需要的商品。冷戰升級時,原子彈的研發競賽升級,無可阻擋。如今,AI 領域也是熱烈的競賽場,同樣不可阻擋。有分析機構認為 AI 全面取代人的技能還需要 50 年,而 Anthropic 執行長達里奧·阿莫迪(Dario Amodei)在年初的採訪中說,他們造出在大多數任務上超越人類的 AI 系統就是兩三年內的事。王小偉有一種直覺式的感受,認為未來 5 到 10 年,程式性文書工作將被大量取代,自動駕駛將變得普遍,裝備 AI 的人形機器人在家政中也會逐漸鋪開。“我覺得 AI 比原子彈危險。” 王小偉解釋,原子彈可能會消滅人,但沒動搖人存在的意義。AI 會讓人類失去自尊、存在的意義感,這可能引發人的存在的根本性危機。與每個人相關的迫切問題是:工作帶給我們回報和自尊感,但當 AI 可以做我們所有能做的事,人存在的意義是什麼?AI 越來越強大,我們怎麼能面對它而不自卑?它能做你做的事,甚至情緒比你穩定,效率比你高,那麼你為什麼而存在?“很多技術發展太快了,大家還沒反應過來它究竟是什麼,就已經投身進去了,根本不知道它會讓人付出哪些成本。” 王小偉說。他引用技術哲學家卡爾·米切姆(Carl Mitcham)的觀點來解釋現實:強調個人慾望的自由主義思想和重視效率的科學技術共謀,導致了一種 “愚蠢的樂觀”。在 AI 技術革命正在發生的當下,人文主義者的聲音顯得不合時宜,但發出聲音是必要的。“哲學就是如鯁在喉,要持續製造不適感。”王小偉說。以下是和中國人民大學哲學院副教授王小偉的對談。
本文經授權轉自《晚點LatePost》(ID:postlate)
文丨朱麗琨 編輯丨錢楊
原標題:AI越來越強大,人怎麼能面對它而不自卑?
技術邏輯全面佔據了我們的生活,
充滿暴力
問:去年你在談到 ChatGPT 時說,“AI 可能會比大部分人要深刻”,現在呢,我們迎來這個時刻了嗎?王小偉:我覺得 AI 現在很多時候已經比我深刻了。我問過 DeepSeek 一些哲學問題,不能說它的每個回答都精彩,但你不停給它提示,讓它不停回答,總能出現一些特別精彩的洞見。 最近,我們學校也讓老師們研究 AI,然後填調查問卷。有道題問 “擔不擔心 AI 取代你”, 我說不擔心,我是努著勁兒說的。問:你一年前還說, ChatGPT 讓你感到 “非常害怕”,現在呢?王小偉:我的恐懼感進一步加劇了。這不是對具體技術的恐懼,而是對人生存意義的恐懼。AI 有可能讓我們都失去價值感。對很多人來講,工作帶給我們回報和自尊感,假如有一天 AI 可以做我們所有能做的事,人存在的意義是什麼?這是我最近在困惑的。問:不少從業者對 AI 變革很樂觀、很激動,跟你的狀態很不一樣。如果你有機會和梁文鋒這樣的 AI 創業者交流,你想問他什麼?王小偉:我想問他們在推進 AI 技術的時候,有沒有過哪怕一分鐘的猶豫?這個猶豫不是功利性的,而是有沒有懷疑過他們這樣做可能會對人的根本存在造成危險。獲得諾貝爾獎的傑弗裡·辛頓(Geoffrey Hinton)就一直在警示 AI 的風險。(注:辛頓在神經網路領域的開創性發現奠定 ChatGPT 等大模型的技術基礎。他在 4 月最新的訪談中提到,如果不能很好地控制 AI ,可能導致兩種風險:一種是 “壞人” 濫用 AI 產生的短期風險,“實際上已經在發生了”;另一種是長期風險,“當 AI 比人類更聰明時,它會不會想把人類撇到一邊,接管一切?”)問:只從增效的角度看,如果一個企業管理者不使用效率更高的勞動力取代人,就會在競爭中落後。王小偉:所以 AI 其實沒有掌握在任何人手裡。蘭登·溫納(Langdon Winner)、雅克·埃呂爾(Jacques Ellul)等哲學家都認為技術有自主性。技術一旦發展起來,會脫離人類的控制,按照自己的邏輯發展。可能出現技術系統自我增強,人類反而被技術支配。原子彈是人發明的,它現在還掌握在人手裡嗎?《不擴散核武器條約》在那,為什麼原子彈還是到處擴散?人常在囚徒困境裡博弈,我不做,你做了,我就沒有戰略優勢,所以表面說不做,背後偷偷做。至於這技術會不會帶來整個人類的毀滅,誰關心呢?這些國家只關心自己不要在競爭中處於下風。問:AI 的危險效能和原子彈相提並論嗎?王小偉:我覺得 AI 比原子彈危險。原子彈可能會消滅人類,但人存在的意義還是儲存的。人類遭受核打擊滅絕了,我們會覺得遺憾。但 AI 會讓人類失去自尊,我們變得多餘,物理身體存在,但生命意義被侵蝕了。很多人現在同意一種觀點,認為我們只不過是矽基生命的一個驅動程式。問:從技術哲學角度看,我們的生活怎麼變成了這樣?王小偉:現在整個社會被技術邏輯壟斷了。我們永遠用工具的視角看世界,讓自己也變得特別工具,每個人都要更高、更快、更強。人是所有生靈當中最脆弱、最敏感、最破碎的,卻要假裝是最堅強的。比方說,人一旦有消極情緒,就開始不承認自己、要去敵視自己,要馬上讀《自卑與超越》,要把消極情緒轉變成積極情緒,不允許自己內耗,把人最本真的那一面也用技術邏輯調整,人向機器對齊,但你是比不過 AI 的。等 AI 發展得更好之後,你會覺得 AI 比你聰明、比你情緒穩定。你越強調強大,你越沒有自尊感。問:從什麼時候開始,我們的社會幾乎完全被技術邏輯佔據了?王小偉:這是個非常現代性的問題,向前追溯可能就是工業革命以來這 200 來年的事。法國思想家布魯諾·拉圖爾(Bruno Latour)說過,現代性一個最大的特點就是一定要把這個世界的豐富性和複雜性做 “純化”。把複雜的東西割開,例如主體與客體的二分,社會和自然的二分,事實與價值的二分等等。拉圖爾寫了一本書叫《我們從未現代過》,說我們的生活不是這樣的,它其實是社會和自然的雜糅,人和物的雜糅,事實和價值的雜糅,所有東西都在一個高度雜糅的系統裡面。那種現代性的二分是一種暴力。問:計算機的機器語言也會把一切歸為 0 或 1。王小偉:技術邏輯就是要區隔、要純化,它不要拉圖爾說的這種雜糅的世界,更沒法理解什麼是超越性的、難以言說的、含混和神秘的。我們只有一種定量的、計算的、控制的生活方式,一切都是權力意志、工具理性的彰顯。問:“定量的、計算的、控制的生活方式” 滲透在當代生活的細節裡,能舉出一堆例子:智慧手錶打分評判睡眠,智慧秤追蹤體重,吃各種補劑讓各項指標保持在合理的水平,調節血清素、催產素、內啡肽和多巴胺來調整情緒和狀態——但這些技術讓人感受到對自己更有掌控感了,有什麼不好?王小偉:從個人選擇角度,我覺得每個人自己權衡利弊就可以。但是從人的根本生存角度看,人把自己當一架複雜一點兒的機器,用各種指標精確調節自己,以便符合所有人的預期。你可能變得更隨和、宜人了,工作表現也更好了,但是不是也會丟失了一些自尊呢? 問:怎麼理解你說的丟失自尊?王小偉:自尊就是 “我配!” 有些人就是脾氣不好,但她/他配!這個人可以不用想著改造自己,而心安理得地活著。不同人有不同性格,如果人人都調適成社會認可的那種健談、溫和、平靜、替人著想、有責任心……人都變成均碼的人,喪失了多樣性,這是挺糟糕的情況。問:人都知道玩手機無意義但停不下來。社交媒體進一步加劇了人們刷手機成癮,讓人變得更焦慮、注意力渙散。為什麼我們會陷入這樣的困境?王小偉:手機從根本上改變了人的生存方式。有手機的人變得 24 小時可觸達(reachable)——這本來不是人們要追求的。現在,一個人只要給我發個資訊,就會對我產生一些影響,哪怕我決定不回,也會消耗我的決策資源。問:你在《日常的深處》裡寫:“我們只重視手機功能,沒能追問功能得以實現的前提,以及要實現功能的目的是什麼。現在,慢慢有很多人開始理解手機技術成立的前提是一種集中控制邏輯。這一邏輯原來只在工廠內有,現在走進了日常生活中。” 能否解釋一下這裡提到的集中控制邏輯?這種集中控制邏輯走進日常,在威脅什麼?王小偉:你去看看電子廠就能理解,一部手機,就是由大批勞工在被高度控制的情況下,進行分門別類的、單調的勞動來完成的。環境特別惡劣的廠區,令人聯想起監獄。這差不多是技術時代人類處境的一個縮影。智慧手機發展只是最近十幾年,我們其實還沒有學會怎麼跟手機共存。人其實還沒適應好多新東西,比如肥胖也可以看成新技術現象——食品工業發展使得食物裡的能量密度特別高,你的胃口還沒充分適應。現在一塊蛋糕的熱量大幾千卡,自然界最多提供一點兒蜂蜜和熟透的水果。類似的手機提供的資訊 “熱量” 密度奇高,特別刺激的畫面和情節,讓人的精神生命陷入肥胖。你要特別有資源才有能力去對抗。有一本書叫《階層》,裡面講一個貴族怎麼彰顯貴族身份呢?他就說家裡沒電視。這算是一種對抗。問:一個移動網際網路資訊的消費者還有選擇刷不刷手機的自由,但一個依靠移動網際網路的生產者很難 “對抗” 它。比如,一個計程車司機不接入打車軟體平臺,收入很可能明顯下降,邊緣化。王小偉:如果你去讀一些技術政治論,你會發現技術從來不是中立工具,其中充滿暴力。一些人設計了一個技術系統,砸錢去推廣,講很多動人的故事,海量人的生活從此受到根本性的影響,但他們沒有退出機制,沒得選,也沒有地方讓這些人發出聲音。他們被視作落後的、邊緣的人,沒人在意。問:大模型技術普及,會不會加劇這種暴力?王小偉:大語言模型現在人人都在用,生怕跟不上潮流。但你的隱私有保障嗎?你的著作權有保障嗎?你輸入的資料儲存在哪兒,誰在看,怎麼用?這都是權力問題,但使用者插不上嘴。很多技術發展太快了,大家還沒反應過來它究竟是什麼,就已經投身進去了,根本不知道它會讓人付出哪些成本。
技術讓人付出種種成本,削弱我們的記憶、情感、思考
問:大模型技術會讓我們付出哪些現在還沒意識到的成本?王小偉:貝爾納·斯蒂格勒(Bernard Stiegler,法國當代技術哲學家)有一個洞見特別好,他講,技術將人的記憶外接化了。他追溯到柏拉圖,柏拉圖就批評 “書寫” 技術,現在看來很保守。他擔心的是有了書寫,人就不怎麼記事了。斯蒂格勒說人透過書寫、繪畫、雕塑把我們的記憶外接到物質世界,方便傳承、積累,這樣知識積累才可能,是好事,但也會使人的記憶越來越差。技術有藥性,是藥三分毒。以前口述史詩時代,一個人腦子能記住幾十萬字,現在人連手機號都記不住。現在我們算數能力外包給了計算器,時間管理能力外包給了日程 App,深度連結能力交給了社交網路,駕駛能力交給了智駕系統,寫作能力交給了 GPT。我們還剩什麼呢?問:現在經常是大模型在 “深度思考”,我們等它給答案,它甚至展示思考過程,我們就看著。王小偉:甚至一些非常嚴肅沉重的問題,不少人也願意交給大模型。比如 “我應該過一個什麼樣的人生”“人生有什麼意義”,這類問題渴望 AI 給出答案是很危險的。另外,預設什麼問題都有答案是個挺糟糕的事。人生意義的答案不緊要,關鍵是追問的過程,每個人都是在自我追問的過程當中完成自我建構的。有學生問我意義問題,我從來不提供答案,我會詢問這個學生為什麼要這麼問,引導TA自我闡釋,找出自己的意義感。問:我們不僅把記憶和思考交給 AI,也比移動網際網路時代更多地把情感交給 AI 了。和大模型談戀愛會有什麼問題?有些人會說,這不過是娛樂、遊戲。王小偉:真人之間的愛情是極為豐富的情感活動——人的心靈很容易折斷,但戀愛需要勇敢,一個人要把最脆弱的需求感展現給另一個人,才有機會在一起。一個十幾二十歲的人,第一次說出 “我愛你”,想想都讓人捏把汗。你愛的人可能會拒絕你,也可能沒你想的好,但你卻要給對方那麼大的信念,這多不可思議。愛需要縱身一躍,不容易的。但在大模型時代,情感活動變成了一種理性的籌劃活動,大模型只能掌握理性說明的顯性知識,默會知識是沒法程式設計的。特別是沒戀愛過的年輕人,上來就問大模型怎麼談戀愛,得到全是顯性化的愛情攻略,想要牢牢控制戀愛主動權——上來就是 “拿捏”。戀愛哪有主動權,它全是潰敗。潰敗揭示出人的缺乏,缺乏才互相需要……問:年輕人如果越來越傾向於跟 AI 而不是真人溝通情感,危險性在哪?王小偉:有不少哲學家反對做仿人 AI,認為這不倫理。我現在特別警惕情感陪伴類 AI,絕不讓小孩碰。難道我們以後都要和一個 AI 談戀愛?難道我們要失去人和人之間的深度好奇嗎?這將徹底消除一代人和別人、和自己建立情感連線的能力。問:AI 可以比許多普通人更聰明、更有耐心。你也說 AI 已經可以挺深刻。這不足以引導一個年輕人嗎?王小偉:本質上,我們是在和其他人交流的過程中,緩慢建構自己的。真人是不完美的,或許偏狹、愚蠢、有毒,但是這個人可能從來不這麼看自己。和他們相處,你需要不斷移情,換位思考,試圖理解,有時候也要學會憎恨。和 AI 交流上面的技能都用不到,你也就沒法真正走向人格的成熟。