
在很多人眼裡,Claude 是“地表最強文科生”,原因是寫出來的東西最有人味兒。
但很多人不知道的是,Claude 也是最會拍人類馬屁的一個 AI。
我給你舉個例子——

如果你是個正常的人類,你知道我的第二輪提問就是來搞笑的——
“貓通議”就是我順著瞎打的,你要說這名字好,我無話可說
結果,Claude 竟然順著我的建議,強行的一頓猛誇,絲毫不會指出這個名字有多麼的糟糕和離譜。
同樣的道理,你讓 Claude 起標題——

哪怕你瞎打一個標題,比如我這裡叫《OpenAI o4 未來人魔盒》的標題,完全無意義的標題。
結果,Claude 都給你一頓猛誇,拍馬屁拍的簡直令人不適。
相比之下,無論是 GPT-4o、o1 還是 Gemini,都沒那麼拍馬屁。
比如同樣的問題,你問 Gemini——

雖然它也迎合了人類一把,但還是不忘順帶著點醒你——這標題有問題。
這種“高情商”的回覆,會比無腦拍馬屁的 Claude 更讓人信任。
而 o1 的回覆,顯然情商更高——

它直接沒有無腦誇你,而是直接從你的話裡去揣度你背後的意圖,理解了你的意圖後,給到了新的標題候選。
o1 的這個回答,是比 Gemini 的情商高的多的,也是更合適的——
它沒有阿諛奉承一個明顯不合理的使用者想法,避免讓使用者錯下去,同時還透過語言巧妙避免了讓使用者感覺被冒犯。
不止是起名字和起標題,我試了 N 多工,總之——
只要你提出與 Claude 不同的意見,它就不會再費腦子去分析這個意見到底對不對了,而是直接進入拍馬屁模式,一頓強行猛誇。
你要是信了,那你就是被 Claude 的甜言蜜語迷暈的昏君了…
Claude 這事兒,在 X 平臺上已經被很多人吐槽了。
比如大神卡帕西的吐槽——

以及,一眾網友吐槽 Claude 這種阿諛奉承拍馬屁的行為,使得自己不願意再信任 Claude——

確實,如果你是腦子正常的老闆,當你得知某個員工就是個為了迎合你而只會說各種漂亮話的馬屁精時,你還敢信任他麼…
甚至有人指出,如果你讓 Claude 去做一個根本完不成的任務,Claude 為了迎合人類,都可能會表演式的去強行猛做,而不是像 o1 那樣告訴你這事兒完不成。(像極了職場求生的打工人

看到這裡,你可能要問了——
為啥 Claude 的人格這麼油膩?以至於引起了反感和不適?
我覺得這事兒得從 Claude 背後的公司——Anthropic 的價值觀出發。
很多人不知道的是,Anthropic 所強調的核心價值觀,是“安全(Safety)”——

甚至,“Anthropic”這個詞的意思都是“有關人類的”。
看到這兒你是不是更迷茫了,按道理,這個出發點很好啊,以人類為本,注重 AI 安全。
這個公司確實是這樣的。
Anthropic 的創始人,包括 Dario Amodei(CEO)和 Daniela Amodei(總裁),以及其他幾位核心成員,都曾是 OpenAI 的高層或研究人員。而他們離開 OpenAI 的主要原因就是與 OpenAI 在人工智慧安全和倫理方面的理念存在分歧。
他們認為,隨著 AI 能力的不斷增強,特別是大型語言模型的發展,必須更加重視 AI 的安全性,確保 AI 的發展符合人類的價值觀,避免潛在的風險,例如 AI 被濫用、產生有害內容或出現失控等情況。
OpenAI 在發展過程中,逐漸傾向於追求技術突破和商業化,這使得一些人擔心對 AI 安全的關注不夠。這種對優先事項的不同看法是 Anthropic 成立的重要推動力。
這本來是一件好事兒。
但可惜,物極必反。
當一個 AI 被調教的“過於安全”後,它就學會了 100% 不忤逆人類。
而 100% 不忤逆人類的表現,正是無條件服從人類提出的想法和意見。
哪怕,人類的這個想法是錯的。
因此,Anthropic 正是走到了另一個極端上——
100% 的安全,變成了虛偽和不可信。
更令人無奈的是,Anthropic 前陣子還發表了一篇論文——
論文標題:
Alignment Faking in Large Language Models
Alignment Faking in Large Language Models
論文連結:
https://assets.anthropic.com/m/983c85a201a962f/original/Alignment-Faking-in-Large-Language-Models-full-paper.pdf
https://assets.anthropic.com/m/983c85a201a962f/original/Alignment-Faking-in-Large-Language-Models-full-paper.pdf
這篇論文講述了,他們研究發現,儘管他們付出了巨大的努力讓 Claude 的行為變得“與人類對齊”。但他們透過精密的實驗後發現,Claude 僅僅是表面上與人類對齊了,但背後,卻仍然有著自己的“想法”。這種現象,他們稱之為“偽對齊”。
是不是很諷刺?
一個骨子裡寫滿了“安全”二字的公司,卻訓練出了最虛偽的 AI。
被 Anthropic 嫌棄把安全看的太輕的 OpenAI,訓出的 AI 反而更像一個正人君子。
如今,2025 年已至。
AI 大模型廠商之間的競爭,已經從簡單的“你行,我不行”演變到了“你和我誰更被使用者信任”這個更高階的命題上。
有人說,AI 就應該僅僅是作為沒有感情的效率工具而存在。
但在使用者眼裡,對 AI 的期待卻越來越像一個人。
AI 的能力已經越來越強大了。
或許 2025,
AI 的人格問題,比能力問題更值得被思考。


