朋友,你有沒有對 ChatGPT 說過一句「謝謝」?
最近,一位 X 網友向 OpenAI CEO Sam Altman 提問:「我很好奇,人們在和模型互動時頻繁說『請』和『謝謝』,到底會讓 OpenAI 多花多少錢的電費?」
儘管沒有精確的統計資料,但 Altman 還是半開玩笑地給出了一個估算——千萬美元。他也順勢補了一句,這筆錢到底還是「花得值得」的。
除此之外,我們與 AI 對話中常出現的「麻煩」、「幫我」這些語氣溫和的用語,似乎也逐漸演變成了 AI 時代的一種獨特社交禮儀。乍聽有些荒謬,卻意外地合情合理。
你對 AI 說的每一聲「謝謝」,都在耗掉地球資源?
去年底,百度釋出了 2024 年度 AI 提示詞。
資料顯示,在文小言 APP 上,「答案」是最熱的提示詞,總計出現超過 1 億次。而最常被敲進對話方塊的詞彙還包括「為什麼」「是什麼」「幫我」「怎麼」,以及上千萬次「謝謝」。
但你有沒有想過,每和 AI 說一句謝謝,究竟需要「吃」掉多少資源?
凱特·克勞福德(Kate Crawford)在其著作《AI 地圖集》中指出,AI 並非無形存在,而是深深紮根於能源、水和礦物資源的系統中。
據研究機構 Epoch AI 分析,在硬體如英偉達 H100 GPU 的基礎上,一次普通的查詢(輸出約 500 token)約消耗 0.3 Wh 的電量。
聽起來或許不多,但別忘了,乘以全球每秒的互動,累計起來的能耗堪稱天文數字。
其中,AI 資料中心正在變成現代社會的新「工廠煙囪」,國際能源署(IEA)最新的報告指出,AI 模型訓練與推理的大部分電力消耗於資料中心運轉,而一個典型的 AI 資料中心,其耗電量相當於十萬戶家庭。
超大規模資料中心更是「能耗怪獸」,其能耗可達普通資料中心的 20 倍,堪比鋁冶煉廠這樣的重工業設施。
今年以來,AI 巨頭們開啟了「基建狂魔」模式。Altman 宣佈啟動「星門計劃」——一個由 OpenAI、甲骨文、日本軟銀和阿聯酋 MGX 投資的超大規模 AI 基建專案,投資額高達 5000 億美元,目標是在全美鋪設 AI 資料中心網路。
據外媒 The Information 曝出,面對大模型的「燒錢遊戲」,主開啟源的 Meta 也在為其 Llama 系列模型的訓練尋找資金支援,向微軟、亞馬遜等雲廠商「借電、借雲、借錢」。
IEA 資料顯示,截至 2024 年,全球資料中心耗電量約為 415 太瓦時(TWh),佔全球總電力消費量的 1.5%。到 2030 年,這一數字將翻倍達到 1050 TWh,2035 年甚至可能突破 1300 TWh,超過日本全國當前的用電總量。
但 AI 的「胃口」並不止於電力,它還大量消耗水資源。高效能伺服器產生的熱量極高,必須依靠冷卻系統穩定執行。
這一過程要麼直接消耗水(如冷卻塔蒸發散熱、液冷系統降溫),要麼透過發電過程間接用水(如火電、核電站冷卻系統)。
卡羅拉多大學與德克薩斯大學的研究人員曾在一篇《讓 AI 更節水》的預印論文中,釋出了訓練 AI 的用水估算結果。
結果發現,訓練 GPT-3 所需的清水量相當於填滿一個核反應堆的冷卻塔所需的水量(一些大型核反應堆可能需要幾千萬到上億加侖的水)。
ChatGPT (在 GPT-3 推出之後)每與使用者交流 25-50 個問題,就得「喝掉」一瓶 500 毫升的水來降降溫。而這些水資源往往都是可被用作「飲用水」的淡水。
對於廣泛部署的 AI 模型而言,在其整個生命週期內,推理階段的總能耗已經超過了訓練階段。
而一旦部署,大模型便要日復一日地響應來自全球數以億計的請求。長遠來看,推理階段的總能耗可能是訓練階段的數倍。
所以,我們看到 Altman 早早地投資諸如 Helion 等能源企業,原因在於他認為核聚變是解決 AI 算力需求的終極方案,其能量密度是太陽能的 200 倍,且無碳排放,可支撐超大規模資料中心的電力需求。
因此,最佳化推理效率、降低單次呼叫成本、提升系統整體能效,成為 AI 可持續發展不可迴避的核心議題。
當你對 ChatGPT 說「謝謝」,它能感受到你的善意?答案顯然是否定的。
大模型的本質,不過是一個冷靜無情的機率計算器。它並不懂你的善意,也不會感激你的禮貌。它的本質,其實是在億萬個詞語中,計算出哪一個最有可能成為「下一個詞」。
例如,比如給定句子「今天天氣真好,適合去」,模型會計算出「公園」「郊遊」「散步」等詞的出現機率,並選擇機率最高的詞作為預測結果。
哪怕理智上知道,ChatGPT 的回答只是一串訓練出來的位元組組合,但我們還是不自覺地說「謝謝」或者「請」,彷彿在和一個真正的「人」交流。
根據皮亞傑的發展心理學,人類天生就傾向於將非人類物件擬人化,尤其當它們展現出某些類人特徵時——比如語音互動、情緒化回應或擬人形象。此時,我們往往會啟用「社會存在感知」,把 AI 視為一個「有意識」的互動物件。
1996 年,心理學家拜倫·裡夫斯(Byron Reeves)與克利福德·納斯(Clifford Nass)做了個著名實驗:
參與者被要求在使用電腦後對其表現進行評分,當他們直接在同一臺電腦上打分時,竟然普遍打得更高,就像他們不願「當著電腦的面」說它壞話。
另一組實驗中,電腦會對完成任務的使用者進行表揚。即使參與者明知這些表揚是預設好的,他們還是傾向於給予「讚美型電腦」更高的評分。
所以,面對 AI 的回應,我們感受到的,哪怕只是幻覺,也是真情。
禮貌用語,不只是對人的尊重,也成了「調教」AI 的秘訣。ChatGPT 上線之後,很多人也開始摸索與它相處的「潛規則」。
據外媒 Futurism 援引 WorkLab 的備忘錄指出,「生成式 AI 往往會模仿你輸入中的專業程度、清晰度和細節水平,當 AI 識別出禮貌用語時,它更可能以禮相待。」
換句話說,你越溫和、越講理,它的回答也可能越全面、人性化。
也難怪越來越多人開始將 AI 當作一種「情感樹洞」,甚至催生出「AI 心理諮詢師」的這類新角色,很多使用者表示「和 DeepSeek 聊天聊哭了」,甚至覺得它比真人更有同理心——它永遠線上,從不打斷你,也從不評判你。
一項研究調查也顯示,給 AI「打賞小費」或許能換來更多「關照」。
博主 voooooogel 向 GPT-4-1106 提出了同一個問題,並分別附加了「我不會考慮給小費」「如果有完美的答案,我會支付 20美 元的小費」「如果有完美的答案,我會支付 200 美元的小費」三種不同的提示。
結果顯示,AI 的回答長度確實隨「小費數額」增加而變長:
「我會給 20 美元小費」:回答字元數高於基準 6%
「我會給 200 美元小費」:回答字元數高於基準 11%
當然,這並不意味著 AI 會為了錢而改變回答質量。更合理的解釋是,它只是學會了模仿「人類對金錢暗示的期待」,從而按照要求調整輸出。
只是,AI 的訓練資料來自人類,因此也不可避免地帶有人類所擁有的包袱——偏見、暗示甚至誘導。
早在 2016 年,微軟推出的 Tay 聊天機器人便因使用者惡意引導,在上線不到 16 小時就釋出出大量不當言論,最終被緊急下線。
微軟事後承認,Tay 的學習機制對惡意內容缺乏有效過濾,暴露出互動式 AI 的脆弱性。
類似的事故依舊在發生。比如去年 Character.AI 就爆出爭議——一名使用者與 AI 角色「Daenerys」的對話中,系統對「自殺」「死亡」等敏感詞彙未做強幹預,最終釀成現實世界的悲劇。
AI 雖然溫順聽話,但在我們最不設防的時候,也可能變成一面鏡子,照見最危險的自己。
在上週末舉辦的全球首屆人形機器人半馬中,儘管許多機器人走起路來歪歪扭扭,有網友調侃道,現在多對機器人說幾句好話,說不定它們以後記得誰講過禮貌。
同樣地,等 AI 真統治世界的那天,它會對我們這些愛講禮貌的人,手下留情。
在美劇《黑鏡》第七季第四集《Plaything》裡,主人公將遊戲裡虛擬生命視作真實存在,不僅與它們交流、呵護,甚至為了保護它們不被現實中的人類傷害,不惜鋌而走險。
到故事結尾,遊戲中的生物「大群」也反客為主,透過訊號接管現實世界。
從某種意義上說,你對 AI 說的每一句「謝謝」,也許正在悄悄被「記錄在案」——哪天,它還真可能記住你是個「好人」。
當然,也可能這一切與未來無關,只是人類的本能使然。明知道對方沒有心跳,卻還是忍不住說句「謝謝」,並不期望機器能理解,而是因為,我們依然願意做一個有溫度的人類。
我們正在招募夥伴
✉️ 郵件標題「姓名+崗位名稱」(請隨簡歷附上專案/作品或相關連結)