


最近你是不是經常看到,社交平臺裡充斥著吉卜力風格的圖片?

就像上圖這樣的,好像人人都掌握了吉卜力動漫的風格技巧。
沒錯,又是AI乾的好事。
不僅在圖片生成上,文字處理也是一流。
我們公眾號團隊內部,一直有一個痛點:一些我習以為常的寫作技巧,很難教給同事們。
但我發現,這背後根本的問題是,連我自己也總結不出來,這篇文章究竟為什麼寫成這樣,我只是憑“直覺”寫出了一段段的話。而“直覺”沒法教給別人。
於是,我總結了5篇閱讀量特別高的文章,扔給AI,讓它幫我總結,這些文章好在哪裡?怎麼復現?到底什麼才是“劉潤風格”?
結果你猜怎麼著,他把我的風格,總結成了11個要點。
比如,同理心驅動,要始終站在讀者角度,思考讀者是誰,他們可能在什麼場景下閱讀,又想從文章中獲得什麼。需要帶著這些問題,在文章中主動解答。

我自己都沒有意識到,原來是這樣的。
那一刻我意識到了:AI比我懂什麼是“劉潤風格”。
就連童話大王鄭淵潔都說,讓AI模仿他寫作,4秒鐘就搞定了,“寫得真好,殺了我也寫不出來。”
什麼感覺,是不是有點慌?
我得承認,過去,我覺得AI只是個助手,它不如我。但現在,當這個“助手”智商達到130,130是什麼概念,50個人中,只有一個能達到,有時候我都把它當老師請教了。
那一個靈魂拷問就來了:人的價值到底還剩下什麼?
還有什麼是AI幹不了,或者至少在很長一段時間內,幹不好的?
別急,AI還超不過我們。
一手知識,也就是人類直接對外界的感知,可能是人類在AI面前最後的壁壘。
聽著有點抽象?
讓我們從人類的感知、決策和行動的“能力三角”說起。
什麼是感知?你的眼睛能看到地上有個坑,你的耳朵能聽到有人喊你的名字,你的鼻子能聞到樓下飄來的飯菜香味……這些就是感知。它是你跟外部世界連線的入口,沒有資訊輸入,後面的一切都無從談起。
感知只是基礎,除此之外,人作為一個智慧體,還有兩種能力:決策和行動。
決策是,你看到那個坑了,然後大腦開始運轉:這個坑有多大?我能不能跳過去?或者繞過去更安全?結合過往摔跤的經驗,你最終做出了一個決定:嗯,繞過去。
好,決定要繞過這個坑,你指揮你的腿,小心翼翼地繞了過去,這就是行動。同時,行動的結果又會變成新的感知資訊,反饋給你,形成一個閉環。你成功地繞過了那個坑,感知到腳下的平地,決策成功;踩到了坑裡,摔了一跤,決策失誤。
理解了這個,再回過頭來看AI,你發現沒有,它們在哪方面最強?
是的,決策!
為什麼?
因為我們把人類有史以來積累的、能夠數字化的知識,幾乎都餵給它了。網際網路上的文字、圖片、程式碼、書籍…… 只要能找到的,大型科技公司早就想方設法讓AI去“學習”了。
AI就像個超級天才,它一口氣讀完了人類圖書館裡所有的書。然後,透過複雜的演算法和巨大的算力,它從這些海量資訊中,掌握了語言的規律、知識的關聯、甚至某種程度上的推理能力。
這讓它在處理資訊、內容生成這些“決策”任務上,非常非常強大。強大到什麼程度?強大到它比我們更懂,我們創造的“遊戲規則”。
想當初,AlphaGo下棋,很多職業棋手,包括聶衛平老師,一開始也不服氣,覺得機器懂什麼圍棋?人工智慧怎麼可能下得過職業棋手。
但交手後才發現,機器對“贏棋”這個目標的理解和執行,可能已經超越了人類幾千年的經驗總結。一些傳統圍棋理論被AlphaGo顛覆,棋手學習了它的下法,甚至效果還不錯。
聶衛平曾發出感慨:職業棋手應該接受AlphaGo的下法和觀念。
所以,在“決策”這個層面,尤其是基於現有資訊的再加工、再創造,我們想跟AI硬碰硬,可能會越來越吃力。AI的寫作能力、總結能力、分析能力,遲早會超過我們絕大多數人。
轉折來了。儘管AI在“決策”上是個巨人,但在感知和行動上,它目前還像個侏儒。
想想看,今天的AI,它有眼睛嗎?它能真的“看見”這個五彩斑斕、充滿細節、甚至有點亂糟糟的世界嗎?不能。它所謂的“看見”,是分析我們餵給它的圖片資料。
它有耳朵,能聽到窗外的鳥鳴,或者一場會議中老闆沒說出口的弦外之音嗎?不能,它所謂的“聽見”,是分析音訊檔案的波形。
AI缺乏與真實世界直接的互動能力。它的“感知”是二手的。
這意味著什麼?
意味著,所有那些需要在現場才能獲得的資訊和體驗,那些正在發生的、未被記錄的“一手知識”,AI沒有。
舉個例子。AI 可以透過閱讀所有關於烏克蘭戰場的新聞報道、分析報告,來“瞭解”這場戰爭。它可以告訴你傷亡數字、戰線變化、戰略目標達成度。
不過,它永遠無法“感知”到,當炮彈在人身邊爆炸時,來自內心的恐懼;它無法“看到”,一個年輕士兵在泥濘的戰壕裡,眼神中交織的絕望和勇氣;它無法“聞到”硝煙和血腥混合在一起的、令人作嘔的氣味。這些,是文字和資料無法完全捕捉和傳遞的體感資訊。
正在發生的,親身參與的“一手知識”,才是價值所在。
就像在前面的例子中提到的,它不是從書本上讀來的,不是從網上搜來的。
它是你和人面對面交流時,感受到的對方的語氣變化和微表情,比如,在一聲嘆息中,感受到無奈,從緊皺的眉頭裡,感受到焦慮。而且,在不同的環境下,這些表現可能還有不同的含義,你還要結合具體的場景進行判斷。
這些“一手知識”,源於你個人的獨特體驗和直接感知,鮮活並帶有場景感。
你可能會問,AI不是可以透過攝像頭、感測器來感知世界嗎?不是還有具身智慧(Embodied AI),有機器人嗎?它們也能獲得“一手知識”啊。
是的,你說得對。未來,AI的感知能力和行動能力一定會不斷發展。裝上攝像頭的 AI 可以“看”,裝上感測器的 AI 可以“摸”,裝上輪子或腿的機器人可以“走”。
但是,這些一定是受限的,為什麼?
第一,授權和隱私。AI能訪問全世界所有的攝像頭和感測器嗎?它能訪問我們辦公室內部,和我們家裡的攝像頭嗎?不太可能。國家、企業、個人,都有資訊邊界和隱私需求。所以,總有大量的物理空間和資訊場景,是AI無法直接進入和感知的。
第二,感知的深度和維度。即使AI能“看”、能“聽”,它能感知到資訊背後的東西嗎?比如,除了“看到”人在笑,它能不能“感覺”到這個笑是真誠的,還是敷衍的。這種基於複雜情感和社交線索的深度感知, AI還差得很遠。
除非有三體裡“智子”那樣的東西,它無處不在、知曉一切。或者,未來全人類都腦機互聯了。
所以,人類感知世界“一手知識”的優勢,AI還有很長一段時間不能超越。
最後,讓我們用血肉之軀去擁抱真實世界吧。
加油!
P.S.
很多人相信,人工智慧是未來。卻不知道,該如何擁抱這個未來。
很多人認為,人工智慧是機會。卻不知道,如何才能不錯過機會。
所以今年,我和我的團隊,也正式推出了,2025“進化的力量·劉潤年中大課”。
6月7日,在上海影城,我會用一天的時間,和你好好聊聊人工智慧。
不做現場直播。也不做事後回放。就讓我與你,獨家分享。
6月7日,就讓我們,現場見!
*個人觀點,僅供參考。

觀點 / 劉潤 主筆 / 彼德 編輯 / 歌平 版面 / 黃靜
這是劉潤公眾號的第2585原創文章


品牌推廣 | 培訓合作 | 商業諮詢 | 潤米商城 | 轉載開白
請在公眾號後臺回覆 合作
