宇樹科技王興興在浙江上了一堂什麼課

從“絕不做人形機器人”到“All in”,王興興都經歷了什麼。
來源 | 盒飯財經
王興興的身份和標籤越來越多——
是宇樹科技創始人,是90後企業家,是“杭州六小龍”之一的掌門人。
近期他又成了一名“老師”。
4月10日晚,王興興以“機器人產業的現狀及發展趨勢”為主題,用親身經歷分享機器人產業發展案例,從不同角度講述因地制宜發展新質生產力的經驗。
2025 年春節聯歡晚會上,全國人民都看到了宇樹科技的人形機器人,但大眾並不知曉,在 2023 年之前,王興興的態度一直是“絕對不做人形機器人”。
究竟是什麼扭轉了他的理念?
這次分享中他也首次正式闡述了背後的思考。
他對 AI 和機器人的理解,有著濃重的“王興興”特點。
在演講中,王興興還用“接地氣”的語言和概念解釋了 AI 和機器人的一些技術,並分享了自己對產業的判斷及思考。本文根據王興興的直播整理,核心觀點如下。
1. 人形機器人發展還比較早期,馬上要在工廠或家裡用起來,在全球範圍內還是一件不太現實的事。
2. 人能做到的事情,人形機器人理論上都能做。
3. 目前AI入門基本0門檻,不需要花錢,小學生也可以玩。
如果從小開始玩個十年,肯定是可以玩得很好,而且也不需要有心理負擔。
4. 通俗講,深度神經網路模型的構建,和建造一個房子很像。
我們造房子時,用現成的磚頭、水泥、鋼筋,只要把它搭起來就行了。
你拿它裡面的一些模組,把它拼在一起,就可以構造一個神經網路。
5. AI體系跟邏輯推理的本質很接近。
大語言模型目前都是建立在 Transformer 架構中的多頭注意力機制的基礎上,和邏輯推理非常接近。
以下為王興興分享實錄:
01

“我們絕對不做人形機器人”

我是宇樹科技的創始人兼CEO王興興,我們公司成立於2016年,到現在為止差不多快9年了。
早些年,我們主要做高效能的機器狗,2023年開始做人形機器人。
2013年到2016年,當時在上海大學讀書期間做的XDog這款小型純電驅動的四足機器人。
這款機器人開創了全球低成本高效能足式機器人技術方案的先河,比BD(Boston Dynamics,美國波士頓動力公司)早一年公佈。
來源:王興興賬號知乎截圖
為什麼這麼說?
這款機器人本身成本是比較低的。
大概是2013年大學期間,我想到了這個技術方案,又覺得它值得商業化,所以想著要不要要輟學創業。
我們這一代人聽著很多輟學創業的故事長大,當時我也萌生了這個念頭。
不過當時也只是想想,因為那個時候產品沒做出來,也沒有什麼資源和資金。
2013年到2016年期間,我把這款機器人做出來了。
2015年,我帶著這款機器人在上海參加了一個比賽,拿了二等獎,賺了8萬塊獎金。
因為研發投入大概是1~2萬元,所以這也算是我賺的第一桶金。
剛參加比賽時,這款機器人還只做了一半,比賽過程中慢慢繼續做。
到了決賽,這款機器人基本上可以下地走路了。
這款機器人涉及到的電控技術、電路板、控制演算法、機械結構等技術都是我一個人做的。
所以哪怕我花的時間比較多,但也收到了不錯的結果。
2016年左右,我們在國際上全球機器人圈火了一把。
有人願意買我的機器人、有人願意投資,後來才有了辭職出來創業的事。
過去幾年,國內外四足機器人、人形機器人都比較火。
那陣子很多用的很多都是MIT Cheetah mini麻省理工學院研發的四足機器人的開源方案。
這個方案是在2018年左右開源的,開源以後很多國內外公司用它的方案去做機器狗、人形機器人。
實際上,開源方案裡用的電機和我用的電機是一模一樣的。
2015年左右,MIT的教授發現我這樣一個學生也可以用這種低成本的方案做出一個性能比較好的機器狗出來,所以他就重新做了一個方案出來,然後又把它開源了。
這也是為什麼我們公司在過去幾年,在全球範圍內大家對我們的認可度相對比較高。
這是非常難得的一件事情,也是時代給我們的機會。
很多領域,要在全球獲得真正的有知名度或認可度是非常難的。
很多品類裡有公司把這部分市場做了,哪怕後面產品價格很低且效能很好,很多情況大家都不認可,覺得你不是開創性的。
但唯獨我們這個領域,因為我們公司的技術方案、產品等,在全球範圍內做的都比較早,大眾對我們的認可度一直比較高。
2023年初,宇樹開始做人形機器人。
我個人一直比較喜歡機器人,大概在2009年大一的時候,我就做一個小的雙足機器人,大概花了200元。
但是做好了以後,我發現當時的技術和效果都不太理想,所以後面很多年我都沒有再做人形機器人。
2019年、2022年有人問我,“你們公司要不要做人形機器人”。
面對這些問題,我都是直接給出了否定的答案,說“我們絕對不做人形機器人”。
從當時AI技術和工程技術的發展程度來看,做人形機器人是比較吃力不討好的,效果不太好,又比較貴。
那為什麼宇樹又在2023年大力做人形機器人呢?
原因比較簡單,就是在2021~2022年,整個機器人和AI技術進步比較快。
尤其海外幾家大的巨頭公司,他們對人形機器人這塊更加專注和投入了。
簡單來說,就是需求建立起來了,大家更加關注人形機器人,更加喜歡人形機器人,並且整個AI的技術也差不多快要到一個臨界點了。
我們判斷這是非常好的一個時間節點。
大家可能想象不到,在宇樹做人形機器人之前,2022年底就有人找我們下訂單。
我們還沒有做,就有人願意買我們的人形機器人,所以覺得值得做。
2023年8月,我們釋出了第一款人形機器人。
這款機器人當時大概花了半年多時間,效率非常快。
2023年下半年,我們完成了小批次量產。
我記得大概在2023年10月,我們就把機器人的貨發到美國,效率還是非常高的。
為什麼我們效率會比較快呢?
我們之前做機器狗的累積,涉及到的關鍵電機、電池、動力系統、控制演算法都是現成的。
可以看到,在國內我們公司做人形機器人不是最早的,甚至相對晚一些。
但是目前來看我們的出貨量、效能在全球範圍內都有很強的競爭性。
因為在做機器人這件事上,我們從硬體、軟體、生產等方面都有深厚的累積。
當時釋出的時候,這款H1機器人還重新整理了幾個指標。
去年3月,H1就實現了原地的空翻,是世界首個可原地空翻全尺寸電驅人形機器人。
去年5月我們釋出了第二款人形機器人G1,它外觀好看很多,而且它的關節自由度、關節舒展、感測器都是非常領先,同時相對價格也比較低。
02

為什麼要做人形機器人

目前,人形機器人發展還是比較早期。
馬上要在工廠或者家裡用起來,在全球範圍內都還是一件不太現實的事。
但像這款機器人,我們目前有一部分市場已經開始做起來了,有一些科研教育、AI公司和一些娛樂活動的展示。
到現在為止,大家在網上還是爭論為什麼要做人形機器人,有的人贊同,有的人反對,但從全球頭部公司創始人到政府都很關注這一塊。
這個趨勢是不可阻擋的。
(1)結構最簡單的通用機器人
早些年大家做的AI,都是單功能的AI,比如識別一個數字,識別一個文字,識別一個音訊。
但到現在為止,大家希望一個AI模型能把所有的功能都集合在一起。
它可以自由的排程,能做任何事情,這是大家正在推進的通用AI。
機器人也一樣,就是配合通用AI我們需要一個通用機器人。
因為專用型的機器我們已經做了很多了,比如工廠裡的、家庭洗衣做飯的,現在我們需要通用型的機器人配合通用AI。
大家回頭發現人形機器人反而是最簡單的通用機器人。
可能很多人覺得人形機器人很複雜。
實際上,人形機器人一點都不復雜。
為什麼呢?
人形機器人,你可以認為就是把幾個關節拿幾個連桿組合在一起,構成一個人形機器人,沒有比人形機器人更經典的通用機器人了。
不然的話,如果你要做成一隻蜘蛛、做成其他的形態,難度其實要比做人形機器人還要大。
甚至,如果未來通用AI很成熟的時候,沒準哪一天,比如說一個小朋友在垃圾堆裡撿幾個電機、撿幾個連桿裝在一起,隨便下個程式就能跑了,一個機器人成型。
(2)人更喜歡長得像人的機器人,更有情緒價值
因為它長得更像人,所以它還具備除了機器以外的附加價值。
比如表演、服務、還有去到一些人能去的一些地方。
如表演這樣的功能,其實就包含了情緒價值。
(3)方便資料採集
現在的AI都是靠資料採集來驅動的,資料質量好一點,AI效果就好一點。
目前資料採集只能靠人,這種時候肯定是長得像人的東西去採集更好一點。
如果你要對映到一隻蜘蛛、一隻豬或者別的形態的機器人上,其實就很難對映,把這個資料給這種機器用也很難用。
如果這個機器人長非常像人,那麼最後採集資料和訓練資料就會變得非常容易。
(4)可以處理需要人處理的各種事
目前自然環境中,人的越障能力都是非常好。
比如說人可以透過一些很狹窄的或很崎嶇的地方,別的一些形態就不一定。
人作為靈長類的動物,它的透過能力、運動能力都算是卓越的。
所以這也是為什麼做成人形機器人相對比較好。
舉個例子,如果你現在把一個機器人做成車或者做成別的樣子,你讓一輛車翻過一個牆,怎麼翻呢,對吧。
人能做的事情,人形機器人理論上都能做。
以上四點是我個人想到相對比較直接的原因。
03

國內外人形機器人的產業現狀

過去一兩年,國家對機器人行業非常重視和支援。
今年年初開始,尤其是今年2月,國內人形機器人包括整個機器人行業,都是熱火朝天。
不單單是我們公司,所有我知道的公司,過去哪怕可能都已經虧損很嚴重、快要撐不下去的機器人公司,今年訂單業務都非常不錯,相關行業的表現也很不錯。
很多傳統行業的老闆或傳統行業的人都開始想,我能不能在工廠裡或商店裡使用機器人?
需求和消費情緒都開始被點燃了。當然可能裡面也有一些盲目的成分。
需求端被點燃肯定是一個好事,但大家也要保持一些剋制。
因為目前大家想要的需求,可能有些是機器人還辦不到的,可能還有點偏差。過去幾年,海外也是一直非常熱,包括特斯拉、英偉達和其他頭部科技公司對人形機器人都很關注。比如OpenAI,去年開始他就是開始想做機器人AI,今年年初,他們自己在招做機器人硬體的人。
但是確實目前整個機器人AI還是沒有到達突破的臨界點。
目前每個月機器人AI都在進步,但在還沒有達到真正大規模在工業還是家庭應用的臨界點。現在類似什麼情況呢?有點像ChatGPT出來前一兩年,大家已經發現了這種技術方向,正在做的過程中,但還沒有做出來。
對於普通消費者來說,可能如果你真的要家用,不是當下一兩年就能用的。目前機器人AI行業發展如何呢?比如說你想在工廠、在農業場景,或者如礦業這樣這樣比較辛苦或危險的場景使用機器人——
現在最大的問題就是機器人AI還沒有達到突破的臨界點,反而硬體是個相對小的問題。
當然,硬體目前做得肯定還不夠完善,但它不是一個限制性因素。
某種程度上,硬體方面的本體已經夠用了或者能用了,但未來幾年需要做得更好。但這些不是本質上的問題。
本質的問題還是機器人AI模型做得不太夠,而且機器人AI模型和目前的大語言模型還不是同一種東西。
我們可以簡單理解為,機器人的AI模型更多偏向幹活。
04

AI模型的基本邏輯規則

下面我簡單介紹一下AI,方便大家瞭解。
另外,如果家裡有小朋友,我非常鼓勵小學或者初中的學生都可以學一下AI相關的內容。
首先提出一個點,就是邏輯推理的本質。這也是我高中時思考的一個點。
大家在討論邏輯的時候,比如說這個人邏輯思維比較好,到底什麼是邏輯?
總結起來也是比較簡單的,其實就是透過一些概念和規則連線在一起。
比如有A、B、C、D這幾個概念和相應的很多規則,那A跟B有什麼關係?B跟C有什麼關係?相互可以推導。所以很多情況下,比如要學一個新的知識點,其實也比較簡單。
比如說我要學新的概念C這個知識點,我只要用我自己比較熟悉的概念B和D的知識點把這個規則給推匯出來就行了。這樣你對整個新知識點的記憶和理解是比較深的,而且某種程度上你學東西可以越來越快。
再舉個例子,如果你學了某個知識點,但過了五年到十年後忘記了,你還可以把概念B和概念C重新推匯出來。我在介紹AI前,為什麼要說這個?
原因比較簡單,目前的整個AI體系跟這張圖很接近。
大語言模型目前都是建立Transformer架構中的多頭注意力機制的基礎上,和這張圖的非常接近。
來源:直播截圖
另外一點,目前的AI都採用的深度學習神經網路。
就是有一層層的神經網路,然後裡面有一個個神經元,就是一神經元、二神經元、三神經元,這是作為一層。
再有第二層又是一個神經元,一個神經元,然後有第三層。
裡面每一層之間有一根線連線在一起。
這個線其實也比較簡單,就是全連線。
這個模型目前也是全世界用的最多的、最基礎的模型,叫全連線層。什麼叫全連線層?
就是每一根線出來把所有的線都連一遍,就是一把一、二、三全連一遍;
二把一、二、三全連一遍,這是目前最常用的模型。
深度學習神經網路核心原理(1),來源:直播截圖
簡單理解,就是一個圓圈裡面就是一個數學公式。
最簡單的一個神經元的構造就是,輸入和輸出。
比如,輸入a、b、c,輸出有y,然後每次計算時,就是a×Wa、b×Wb、c×Wc,乘一下,然後再加一個啟用函式就輸出了。
深度學習神經網路核心原理(2),來源:直播截圖
打個比方,大家在玩AI的時候,輸入一段文字,比如今天星期幾?
輸入A、B、C,然後他算一下就把星期幾給輸出了。
然後裡面就是每一個數學公式。從某種程度上,你可以換成任何函式,可以把這個函式換成複雜一點。
所以你如果要發表一篇比較簡單的AI論文,要怎麼做呢?
把這個函式換一下,然後做一些實驗,測試哪個函式效果比較好,接著你就可以發表論文了。目前最常用的神經網路就是這種,沒有大家想的那麼難。
只不過實際應用的時候還有點麻煩。
深度學習神經網路核心原理(3),來源:直播截圖
這裡有兩個概念,前向傳播和反向傳播。
剛才提到的,從輸入A、B、C算一遍到輸出,就是一個前向傳播的過程。
簡單來說,就是做了個數學函式,就是y=f(x)。
前向傳播,就是訓練好後,我在呼叫它,讓它幹活的時候再這麼做。
那我訓練的時候怎麼訓練呢?
這裡就是反向傳播。
反向傳播其實就是求導數,就是y'=f'(x),這個就是自動微分的過程,就是做了個梯度下降。
怎麼理解?
比如我前面有座山,我要去爬山,那有什麼比較好的路線可以上山,把它找來。
比較簡單的理解,就是把這個山的梯度(斜率)給求出來。
因為我要看到這個山的哪個地方比較陡、哪個地方比較緩,比較陡和比較緩的地方先找出來以後,就可以發現這條路可以從什麼地方上去和下來。
反向傳播的求導就做了這件事情。
就是我們有好多山,透過反向傳播求導以後,我就可以把這些路徑給查出來,就是怎麼從y到x的路徑搜尋出來。
大家可能覺得自動微分比較複雜,實際上你不需要做,因為有工具能幫你做好。
這也是我剛才提到的,鼓勵小學生都去玩一下AI。
很多情況下,你不需要裝軟體,開啟一個網頁就可以直接程式設計,很多的工具都比較現成。
05

小學生也能建AI模型

目前比較常用的深度學習神經網路核心工具PyTorch
這個工具是目前全世界用的最多的AI工具,也是一個開源工具。PyTorch這個工具的功能有哪些?第一,批次資料的處理和載入。
目前的AI都需要用海量採集來的資料訓練,這個時候資料的管理和整理都是非常麻煩的一件事情。
而這個工具具有資料的管理和整理功能。第二,深度神經網路模型的構建。
上面我們也瞭解了一些神經網路最基本的原理,那我們要如何搭建經網路?
其實就和我們搭積木一樣,而這個搭載過程中這個工具已經構造好了。通俗易懂一點:
你要構建一個神經網路,這和建造一個房子很像。
目前我們造房子時,就有很多磚頭、水泥、鋼筋,這些已經有現成的了,你只要把它搭起來就行了。
你拿它裡面的一些模組,把它拼在一起,你就可以自己構造一個神經網路了。第三,自動訓練。
神經網路構造好了後,剩下的比如自動微分、自動訓練,你只要“吊”一兩行程式,整個過程全自動幫你做好了。
構建神經網路的時候你會發現,這就像搭積木,搭著搭著,可能就倒了。
所以在做一些實驗時,如果發現這個“積木”搭出來效果不錯,那你就可以保留下來。
來源:直播截圖
大家如果有興趣,或者家裡的小朋友,我這裡推薦幾個工具。
這裡提供幾個國內外的平臺,你只要開啟網站註冊好就能用了,而且它的GPU少量使用是免費的。
你只要開啟網站,輸入幾行程式碼就可以做AI訓練了。
包括有些資料工具都是現成的,這也是我自己用的比較多的工具。目前整個AI的入門門檻是比較低的,就是基本0門檻,小學生也可以玩。
如果從小開始玩,玩個十年,那肯定是可以玩得很好了,而且也不需要有心理負擔。
打個比方,如果現在市面上的一些AI模型是“摩天大樓”的話,那我可以先造個小房子出來,這是完全沒問題的。
那我現在如果真的要造一個“摩天大樓”出來,要怎麼做呢?
我肯定要有圖紙,對吧?
目前大家已驗證用得比較多的“圖紙”,目前全球最前沿AI模型架構,大家比較公認的模型的搭建方式,主要有以下三種。
第一,擴散模型。
這種目前主要用來幹嘛呢?
主要是用來畫畫的,生成一張比較漂亮的圖片,生成一個影片,用得最多的是擴散模型。
擴散模型這個名字也比較簡單、直觀。
什麼叫擴散?
如果我有一杯清水,我在這個水杯裡點了一滴墨水進去,這個墨水就會擴散。
兩個是同一個意思。
就是我把一個規則的物體擴散成一個有很多噪聲或者很多噪聲的東西,然後重新收斂到一個比較規則的東西里去,這就是一個擴散的過程。
再打個比方:
比如一張照片本身是很清晰的,然後把它變得很模糊,接著把這個過程再映像一下,就變成AI的一個生成過程。
但目前來看,擴散模型我個人感覺還是有一定的侷限性,所以目前主要還是畫畫用的比較多。
第二,GPT等為代表的LLM大語言模型。
這個模型更為主流一些。
LLM大語言模型目前基本以Transformer架構構建的,就是多頭注意力機制。我後面會詳細介紹下。
第三,強化學習,PPO、GRPO等。
目前,強化學習也是最主流的方向之一,像我們機器人用的都是強化學習。
比如DeepSeek,目前大語言模型也在做強化學習。
為什麼大語言模型需要強化學習?
原因也比較簡單,因為傳統的語言模型的架構就是,有多好的訓練資料集就有多好的結果。
如果我的資料集不好,那結果也比較糟糕;
我的訓練資料集的質量很好,那我的訓練效果也很好。但是,這是有極限的,輸出的結果不可能比你訓練的資料質量還好。
那我怎麼才能進一步提升AI模型的輸出能力呢?
就是必須得用強化學習。
今年年初爆火的DeepSeek,最大的點就是很好得把強化學習用出來了。
他們自己開發了一個強化學習演算法,可以把真正的,比如說一些數學推理做得更好一點。
個人感覺,未來的幾年強化學習會成為整個AI的最主流方向。
06

GPT LLM大語言模型、強化學習與VLA模型

(1)GPT LLM大語言模型
目前,語言模型的架構相對比較直觀和精簡。
在做的各位,包括我本身也不是搞語言模型,有些太深的點我們也不用太多瞭解,大概瞭解一些基礎的點就行了。
來源:直播截圖
目前的語言模型,簡單來說就是用一個編碼層和解碼層(構成的)。
編碼層,比如我開啟加一個word文件,裡面每一個漢字或一個漢字拼音都是用大概兩個位元組來編碼的,兩個位元組我就可以編碼一個漢字。
但是做AI的時候,肯定是行不通的。
那目前大家做AI的時候怎麼做呢?
先要把一個編碼、一個漢字或一個字母變成一個向量,就是我要把它重新編碼一下。
比如說“今天晚上有點熱”這幾個漢字,每個漢字編碼成一個向量。
後面我再做一下多頭注意力機制。
多頭注意力機制是幹嘛的?
就是算一下向量的相關性。
某種意義上,注意力機制就是求一下相關性。
相關性求好了以後再把它輸出,然後再重新解碼一下,就變成輸出了整個過程也相對比較直觀。
我每一個概念或規則其實有一個向量,每個概念再求一下每個向量的相關性,就可以推匯出每個向量之間的邏輯推理。
但是真正要做一個比較複雜的模型出來,肯定會涉及到很多公式上的問題。
因為要造一個小的房子出來和建一個摩天大樓,本身還有很多技術上和工程上的問題要解決,工作量也是非常大的。
(2)強化學習(用策略模型和獎勵函式代替模型反向傳播誤差)
強化學習並不是一個單純的演算法,某種程度上,強化學習是一個思維的、概念的問題。
說得簡單一點,強化學習就是試錯。
比如我往前走一步可能摔倒了,我遇到了什麼狀況,然後我把每次試錯的最好結果給保留下來,把不好的結果給丟了就行。
比如在模擬環境裡試錯時,試一百萬次、一億次,我總是有一些好的結果的,對吧?
那我就把這些好的結構都給保留下來。
(3)當下潛力最大的具身智慧模型VLA模型?
目前整個的具身智慧模型比較主流的模型:VLA模型。
某種程度上,VLA模型就是在大語言模型的基礎上加了一些東西。
比如說‌Llama的模型,傳統的語言模型都是用文字,輸入是文字,輸出也是文字,它的整個架構通用性很不錯。
來源:直播截圖
那它既然可以輸入文字,那我就可以把文字給編碼,把一個漢字編碼成一個向量,那我為什麼不能把圖片和影像也編碼一下呢?
這個思路也很簡單,就是我在輸入端加一個圖片或一些影片編碼器。
我加在頭端,然後和文字的向量放在一起,做一下交叉注意力就可以了。
VLA,V就是視覺模型,L就是語言模型,A就是執行器模型。
什麼是執行器的模型?
一般的語言模型輸出的是文字,在輸出的文字前,再加一個神經網路。
比如最簡單的是說,我把全連結層加上去,加上去以後就可以輸出一些機器的控制指令,比如關節的運動指令、執行指令。
VLA的架構也相對比較簡單直觀。
07

未來,真正的AGI需要實物機器人

現在智慧機器人技術最重要的是什麼?
第一就是,統一,端到端智慧機器人大模型。
就是需要一個更好的機器人模型去做。
可能就是剛才提到的VLA模型就可以了。
但是VLA模型個人感覺還是有很多的侷限性。
第二,更低成本、更高壽命的硬體,及超大批次的製造。
簡單來說,就是要生產很多人形機器人,或者很多別的各種各樣的機器人出來,就要要成本低,且效能也要很好。第三,低成本、大規模算力。
如果機器人的數量達到一定規模,比如當幾百萬或者上億都需要配置算力時,那對算力低成本要求是非常高的。現在很多情況下,大家在強調AI的時候,脫離了物理機器人去強調AI。
我在這裡想提出的,也是我去年一直提出的一個點,就是物理機器人對AI也是非常重要的。
這是我個人的判斷,可能是錯誤的,但這是我非常相信的一個點。
對於真正的AGI、真正的通用機器人來說,物理機器人非常非常重要。為什麼“身體”非常重要?
目前很多的AI模型,它沒有身體,它和真實世界是脫離互動的,它不能很好地去感知這個世界。
它不能感知這個空間,感知桌子的碰撞等感受。舉個例子,為什麼夢裡跑不快?
比如我小時候睡覺做噩夢的時候,有怪物追我,我在前面跑,但是我一直感覺很吃力地在跑,但跑不快。
我在大學的時候想過,原因比較簡單,就是人在睡覺的時候,你的大腦和身體斷開了連線。清醒狀況下,我們跑步時,每次跑到地面都是有反饋,所以我知道我的腳踩到地面上了。
但做夢時,因為身體和大腦是斷開連線的,我不知道自己踩到地面上去了,會覺得我的腳是踩到空氣裡面,所以我跑不快。為什麼要說這個事情?
目前的語言模型是有幻覺的,它說出的話有時候錯了自己也不知道,或者編一些亂七八糟的內容出來。
這個情況很像做夢,說夢話。
目前很多情況下,語言模型就有點像說夢話,像在做夢,迷失在虛擬環境裡面,和真實世界是脫離互動的。AGI需要參與到和整個世界的物理互動,需要參與到人類的大眾生活中,來體驗和理解人類的情緒和性格等等。目前AI的發展速度非常快,但是發展速度還是階梯性的。
最後希望大家相信、相信、儘可能相信AI。
  ·   END   ·  
視 頻 推 薦
合 作 對 接
尋求報道、商務合作、投融資對接媒體互推、開白、投稿、爆料等……
掃碼新增投資人說運營者微信,備註「商務合作」詳細溝通。

超 級 社 群
【投資人說】正在組建超級投資者社群、超級創業者社群、超級讀者群、超級媒體群等,目前總人數已超1000人。
關注【投資人說】微信公眾號,傳送資訊「進群」,與各行業精英直接交流,共同進步。
旗 下 媒 體
發現在看了嗎,戳下看看

相關文章