

小紀有話說:
作者|Yoky
來源 | 矽星人Pro

“3D界的ImageNet”
熟悉AI的人,不可能不知道ImageNet。這個資料集的出現,猶如一顆重磅炸彈,徹底改變了計算機視覺的發展軌跡。
2009年,整個AI發展到了影像識別的關鍵節點。身在斯坦福的李飛飛及其團隊,敏銳地意識到資料集的重要性。他們發起了名為“ImageNet”的專案,透過網際網路收集圖片並進行人工標註。這個浩大的工程最終收錄了超過1400萬張圖片,覆蓋了2萬多個類別,並對所有開發者開放,為影像識別和分類技術的發展奠定了基礎。
ImageNet的影響力遠超預期。它不僅提供了訓練資料,更催生了著名的ImageNet挑戰賽。2012年的這場比賽成為了AI歷史的轉折點。
今年剛獲得諾貝爾物理學獎的辛頓教授,帶著他的兩名學生開發了基於卷積神經網路(CNN)的模型AlexNet。這個創新性的模型將影像識別的準確率從75%左右一舉提升到了84%,掀起了深度學習革命的序幕。這個突破讓學術界和產業界徹底轟動,標誌著AI正式進入影像時代。
六年後的2018年,一個堪稱“3D界的ImageNet”的專案悄然誕生。英國帝國理工大學計算機機器人視覺實驗室與一家中國公司合作,推出了室內場景認知深度學習資料集InteriorNet。它包括了1600萬組畫素級標籤資料,1.5萬組影片資料,總計約1億3千萬張影像資料,用於訓練和測試AI系統在室內環境中的視覺識別和理解能力。
這是迄今為止全球最大的室內場景資料集,而且已經全面開放。
讓人意外的是,參與這個突破性專案的中國公司,是一家不被公眾所熟知的企業:群核科技,但你一定熟悉它旗下的一款3D空間設計產品:酷家樂。
基於高效能計算對物理世界的渲染,群核科技平臺積累了海量的設計方案和超過3.2億的3D模型,它們天然包含了完整的三維空間資訊,也記錄了設計師對空間的專業理解。更重要的是,龐大的使用者群體持續創作的設計方案和商品素材,為群核提供了源源不斷的資料來源,還保證了資料的準確性和多樣性。
為什麼要建立一個“3D版的ImageNet”?群核科技首席科學家、酷家樂KooLab實驗室負責人唐睿告訴我們:“當我們擁有了大量的空間資料後,我們開始思考能否應用在其他研發場景中。與帝國理工大學的合作是探索空間資料在無人機試飛的模擬實驗中的應用,此後,我們基於物理正確的渲染引擎,將空間資料應用在了具身智慧等其他前沿科技中,也就是群核空間智慧平臺SpatialVerse在做的事情。”
室內場景資料集的稀缺性在哪?與二維影像相比,要完整描述一個三維物體,需要處理幾何關係、材質屬性、空間位置等呈指數級增加的複雜引數。即便是描述一把普通椅子,也需要精確記錄每個部件的尺寸、形狀、材質的光學特性等多維資訊,還包括椅子與桌子之間的物理距離。傳統的資料採集方式不僅成本高昂,還面臨著隱私保護和法律合規等諸多限制,這使得高質量三維資料的獲取成為了一個行業難題。更具挑戰性的是,室內空間物理資料的採集還面臨著隱私保護和合規性的嚴峻考驗。
不過,這些場景雖然具備物理正確,但是離真實的生活狀態比較遠,比如在酷家樂平臺上有大量的家居場景設計方案,這些方案的桌子、客廳都是非常整潔,但現場生活中客廳可能會有玩具,生活垃圾。群核空間智慧平臺又做了一件事:透過將真實的生活元素渲染入設計場景,讓這個虛擬空間更接近生活真實狀態。舉個例子,原先掃地機器人在清理貓屎時是透過碰撞,這樣就很糟糕,現在透過在虛擬空間進行預訓練能準確識別貓屎等。
這些優勢使得群核在為具身智慧、大模型和AIGC、AR/VR企業提供定製化資料服務時,其核心價值得以顯現。

“破壁人”
那麼問題來了,要將真實的物理資料對應到數字世界進行操作,需要打破二者間的“次元壁”。
在人類生存的空間本身存在大量物理資料,我們能將他們翻譯成機器能夠聽懂的語言。群核矩陣(CAD)引擎,併發布自主研發的百億級引數的多模態CAD大模型,能對物理世界產生的或存在的設計資料進行翻譯、相容和資料流轉。
想象一下,當建築師在圖紙上畫下一道道牆線,這條線不僅代表了一個簡單的幾何形狀,還包含了牆體的厚度、材質、位置等諸多資訊。多模態CAD大模型逆向解析引擎就像一個經驗豐富的工程師,能夠準確識別圖紙中的每個元素,理解它們之間的關係,並將這些非結構化的資訊轉換三維結構化為計算機可以理解的資料。
但僅僅理解單一的CAD圖紙是遠遠不夠的。在實際工程中,設計資訊往往以多種形式存在:2D影像圖紙、3D模型、設計說明,甚至是施工規範。這就需要多模態CAD大模型的支援。相比語言大模型對空間描述的模糊與不確定性,CAD大模型能夠實現對空間更準確和結構化的表述。

這個“大腦”能夠同時處理多種形式的輸入,提取關鍵特徵,學習設計規則,最終將所有資訊統一轉換為標準化的數字表達。
當多模態CAD大模型將物理世界的非結構化資料統一轉譯並,生成數字世界的三維結構化資料後,群核矩陣(CAD)引擎的另兩大技術幾何引數化引擎、BIM引擎就像是數字世界和物理世界的另一架橋樑,在設計完成後,它們再逆向轉為非結構化資料,進一步生成效果圖、施工圖等,指導施工和生產。
簡單地說,就是完成了從物理世界到數字世界的逆向解析,再從數字世界返回物理世界的正向建模的全過程。
而將這個過程的能力抽象出來,其實也對應著一種人類的智慧:將複雜的物理世界資料高質量壓縮並提取特徵,儲存在計算機中,同時保持反向重建的能力。
對於資料處理的核心演算法+大量真實的應用場景,使群核能夠沉澱出更最大的空間資料集。

“你相信光麼?”
機器能夠讀懂物理世界,在於技術對於資料的結構化處理,而人類要想讀懂數字世界,最根本的差異在於:數字世界是沒有光的。
物理世界中的所有“視覺化”,本質上都是光粒子運動的結果——反射、折射、散射等一系列物理反應的組合。沒有光,我們就無法判斷一把椅子的形狀、顏色、位置,以及與其他物體的力學關係。
呈現一把椅子,從根本上來說,就是在重現特定空間中的光粒子分佈。在數字設計領域,這個過程被稱為真實感渲染。群核科技的渲染引擎正是基於這一原理構建,透過精確計算光線在空間中的傳播路徑,模擬不同材質的光學特性,實現物理正確的視覺效果。
但渲染只是整個技術體系的一部分。在設計過程中,系統需要同時處理多個物理維度的問題。一件傢俱的設計不僅要滿足視覺審美,更要符合力學原理。這在一定程度上體現在群核的產品中,系統能夠在設計階段就對方案進行力學分析,及時發現結構性問題。
在實現真實感渲染時,群核科技的渲染引擎採用了基於物理的渲染方法(Physically Based Rendering,PBR)。這種渲染技術的核心是解算渲染方程,透過計算光線與物體表面的相互作用來模擬真實世界的光照效果。系統在處理每個材質時,都會考慮其微觀表面結構,包括表面粗糙度、金屬度等物理屬性,從而準確還原材質的反射特性。
尤其當設計師調整屋內光線時,群核啟真(渲染)引擎基於光線追蹤技術可以模擬物理世界中光線在虛擬場景中的光學現象,包括反射、折射、散射等,進而帶來堪比真實世界的渲染效果,使創作者的作品更寫實。而且藉助AI技術對畫面光影、色彩等元素進行真實感增強,啟真(渲染)引擎攻克了傳統渲染器在有機物真實感渲染上的難題,並且可以渲染物理世界 99% 的材質。

技術的核心優勢來源於資料積累,由於大量的資料來源於物理世界又被應用在物理世界中,在這個過程中,自然完成了一些物理AI中最重要的一環:物理正確。
與當前市場上備受關注的Sora等生成式AI產品相比,群核的方案展現出明顯的物理正確性優勢。這個差異的根源在於訓練資料的性質:Sora主要依賴二維影片資料,這些資料雖然視覺豐富,但與物理世界缺乏本質聯絡。其生成內容中經常出現的物理錯誤,如不合理的物體運動或材質表現,正是這一侷限的直接體現。
相比之下,群核科技多年來積累的是完整的三維資料,包含幾何資訊、物理引數、材質屬性等多個維度。這些資料不僅經過專業設計師驗證,更重要的是與實際工程實踐保持密切關聯。配合專門的物理引擎,這些資料支撐起了一個更接近現實的物理世界模擬器。

“當4顆GPU改變世界”
在辛頓的故事裡,之所以全世界轟動,原因之一在於識別準確率的斷崖式提升,原因之二在於AlexNet只基於4顆英偉達GPU,就打敗了谷歌用16000顆CPU所構建的谷歌貓。這一成果震驚了整個學術界和工業界,徹底改變了深度學習的發展軌跡。
人們發現在特定的計算場景下,對於算力的使用效率遠大於規模。
理論上,空間裡所存在的光粒子是無限的,有如人腦神經元一樣複雜,所以還原正確的物理世界,同樣對底層算力提出了極高要求。能夠同時渲染10顆光粒子、100顆粒子還是10000顆粒子,決定了渲染的速度,取決於平行計算的效率。
群核的故事同樣起於對GPU算力的“解鎖”。三位創始人長期專注於計算機圖形學、高效能計算等方向。創業前,黃曉煌曾在英偉達負責CUDA開發,彼時一本名為《Physically Based Rendering: From Theory to Implementation》的書開啟了他對物理AI探索的好奇心。
但彼時,在還原物理世界這一步,渲染出圖的平均速度在1-2個小時左右,且一張圖的成本高達千元。
能否用一個更低成本的雲端GPU叢集,用廉價的顯示卡來實現商用超級計算的效能,將“渲染”的價格和時間成本打下來,甚至獲得更好的渲染效果?
2011年,群核創始團隊用低價顯示卡集合成一個端雲協同的高效能GPU叢集,並透過最佳化算力資源的排程策略,大幅度提升GPU利用率。這使得算力成本大幅降低,並實現更快的計算速度。
在群核更新的四代渲染引擎中,第一代技術透過基礎並行最佳化,重構了渲染管線,將渲染時間從小時級降至分鐘級。第二代技術增強了真實感的渲染能力。第三代技術實現了雲端即時和光線追蹤,透過自研演算法和動態負載均衡,讓設計師能夠在即時環境中進行創作。今天亮相的第四代基於渲染和AI的融合,在渲染速度、逼真度、通用性和智慧化層面都實現了大幅提升。
從幾小時到幾秒鐘再到即時,將1000元的出圖成本降到免費,本質上是進一步提高計算效率保證計算效果的結果。
具有深厚CUDA開發背景的團隊也為群核帶來了獨特優勢。他們深知GPU架構的特點,能夠從底層最佳化計算效率。比如,透過最佳化記憶體訪問模式,減少資料傳輸開銷;透過智慧任務分配,提高GPU核心利用率;透過計算流水線重構,最大化平行計算效果。這些技術積累讓群核在處理複雜渲染任務時具備了明顯的效能優勢。
比如透過智慧分析場景複雜度,提前規劃計算資源分配,大幅提升了GPU利用效率。系統能夠根據不同場景特徵,動態調整渲染策略,在保證效果的同時最大化計算效率。
在工業設計領域,即時渲染技術可以用於產品原型驗證,大幅減少實物樣品的製作成本。在建築設計中,它能夠支援即時的方案調整和效果預覽,提高設計效率。在虛擬現實領域,即時更是實現沉浸式體驗的基礎。
擁有了計算能力、可實踐的應用場景,和長期的資料積累後,一個新的想象空間正在開啟。
如同當年的4顆GPU改變了的人工智慧發展的軌跡一樣,物理AI的大門也正在被推開。

結尾
1993年,黃仁勳與合夥人Chris Malachowsky和Curtis Priem共同創立了NVIDIA。創立之初,他們想為個人電腦市場提供高效能的圖形處理解決方案。
隨著精品化遊戲的發展,高畫質的效果和酷炫的動畫使得影片遊戲行業對圖形處理能力的需求日益增長。1999年NVIDIA推出了GeForce 256,這是世界上第一個被定義為“GPU”(圖形處理單元)的產品。GPU它能夠處理複雜的3D圖形任務,也僅僅是為了提升了遊戲的視覺效果。
2006年,黃仁勳開始推動英偉達開發CUDA開發平臺,CUDA使得開發者能夠利用GPU的強大計算能力來處理各種複雜的計算任務。
萬事俱備後,AI的東風來了。
隨著深度學習演算法的發展,對計算能力的需求急劇增加,而GPU平行計算的處理能力成了AI研究和應用的天然選擇。緊接著,GPU被用於遊戲、專業視覺、自動駕駛、雲計算、大模型等多個科技領域。英偉達也不斷推出RTX(即時光線追蹤技術)和DLSS(深度學習超取樣技術),進一步提升了圖形處理和AI應用的效能。
一個時代的機遇,總會留給準備好的人。
於群核而言,或許也到了這樣一個節點。
*頭圖及封面圖來源於AI生成。
溫馨提示:雖然我們每天都有推送,但最近有讀者表示因平臺推送規則調整,有時候看不到我們的文章~
歡迎大家進入公眾號頁面,右上角點選“設為星標”點亮⭐️,收藏我們的公眾號,新鮮內容第一時間奉上!
*文章觀點僅供參考,不代表本機構立場

