新型AI晶片,紛紛亮相

👆如果您希望可以時常見面,歡迎標星🌟收藏哦~
來源:內容來自半導體行業觀察
因為AI的火熱,很多晶片公司正在打造AI晶片,最近,有三款不同極具特色的AI晶片,紛紛亮相。
初創公司的“可逆計算”晶片
英國初創公司Vaire正在研發一種計算機晶片技術,該技術可以大幅降低執行人工智慧工作負載所需的能耗。該公司表示,對其新晶片元件的初步測試表明,它可以將執行許多計算(包括人工智慧中使用的計算)所需的電量減半。
如果結果可靠——儘管 Vaire 晶片的測試套件目前正在運往潛在客戶和學術實驗室,但這些結果尚未得到獨立驗證——這項突破可能會推動這項名為可逆計算的非凡技術在商業上的大規模應用。最終,可逆計算有望實現晶片的廣泛應用,使其能夠回收幾乎所有所需的能量,並且幾乎不產生熱量。
Vaire 晶片背後的技術可以解決與 AI 熱潮相關的最重大挑戰之一:AI 所需的能源。裝滿圖形處理器(通常用於訓練和執行 AI 模型的專用計算機晶片)的資料中心的電力需求正在飆升。微軟甚至與Constellation Energy達成協議,重新啟動賓夕法尼亞州臭名昭著的三哩島核電站一座已封存的核反應堆,全部用於為該軟體公司的一個新 AI 資料中心供電。
國際能源署預測,到 2030 年,全球資料中心的電力需求將增長一倍以上,達到 945 太瓦時,約佔全球能源需求的 3%,相當於日本目前消耗的能源量。AI 工作負載將是這一增長的最大驅動力,未來五年資料中心 AI 工作負載的能源需求將增長四倍。此外,許多 AI 業內人士認為 IEA 的預測過於保守。
這種能源消耗也引發了人們對人工智慧對環境影響的擔憂。人工智慧系統的碳足跡難以估算,因為它很大程度上取決於特定資料中心的電源。美國和歐洲的許多人工智慧資料中心都使用可再生能源建造,例如太陽能、風能或核能,這些能源的二氧化碳排放量不高。但在其他地區,人們大量使用天然氣或燃煤發電,導致二氧化碳排放量增加。此外,還有人擔心,科技公司為其資料中心購買了過多的綠色能源,以至於迫使其他潛在客戶不得不重新依賴化石燃料。
用於冷卻人工智慧資料中心的水量也日益令人擔憂。由於 GPU 比其他型別的計算機晶片耗電更多,它們產生的熱量也更多,這意味著冷卻配備 GPU 的資料中心需要更多的能源和水。許多人工智慧資料中心都建在地下水資源已經捉襟見肘的地區。
三年秘密行動
連續創業者羅道夫·羅西尼 (Rodolfo Rosini)在 2021 年創立 Vaire 時就致力於解決這一挑戰。他表示,即使在那時,人工智慧模型也明顯在變得越來越大,需要的能量也越來越多,而且人工智慧“很快就會變得非常龐大”,他說道。
對於羅西尼來說,顯而易見的解決方案是可逆計算。(稍後將詳細介紹可逆計算。)他與劍橋大學專門研究非常規計算的研究員漢娜·厄利(Hannah Earley)以及晶片設計公司 Arm 前首席研究員安德魯·斯洛斯
(Andrew Sloss)共同創立了 Vaire。三年來,Vaire 一直隱秘運營,僅從倫敦的 7percent Ventures 和一小群天使投資人那裡獲得了 50 萬美元的種子資金。它利用這段時間完善了可逆計算晶片的設計。去年,該公司從 7percent Ventures、Lifeline Ventures、SeedCamp 和移動廣告公司 Heyzap(被 Fyber 收購)的聯合創始人 Jude Gomila 那裡籌集了額外的種子資金。該公司總共籌集了 1000 萬美元,這個數字以前從未報道過。該公司目前在倫敦、劍橋、加利福尼亞桑尼維爾和俄勒岡州波特蘭的辦事處擁有約 20 名員工。
用於人工智慧的圖形處理器 (GPU) 會產生如此多的熱量,因為它們比其他型別的計算機晶片(例如驅動傳統伺服器的中央處理器 (CPU))消耗更多的電能。但是,任何微處理器晶片(無論是 GPU 還是 CPU)用於執行計算的電能幾乎 100% 都會轉化為熱量並損失掉(工程師們常說,計算機只不過是一個碰巧執行計算的烤麵包機)。大部分熱量是在電路用需要計算的下一組資訊覆蓋當前儲存的資訊時產生的。
一項歷經數十年的技術
物理學家們至少從 20 世紀 60 年代初就知道,如果計算機電路中的邏輯過程可以逆轉——即電路中的資訊恢復到其原始狀態而不是簡單地被覆蓋——那麼就有可能節省和回收晶片使用的絕大部分電能。問題在於,製造一個能夠做到這一點的晶片是一個極其艱鉅的工程挑戰,尤其是使用與製造所有現代計算機晶片相同的矽基 CMOS(互補金氧半導體)製造工藝。儘管如此,麻省理工學院的研究人員克服了許多障礙,並在 20 世紀 90 年代末使用 CMOS 構建了可逆計算晶片的工作原型。
然而,當時幾乎沒有動力將可逆計算商業化。摩爾定律——規定在給定矽面積上可封裝的電晶體數量每兩年翻一番——沒有顯示出終結的跡象。摩爾定律有一個重要的推論,稱為庫米推論:隨著電晶體尺寸的不斷縮小,執行任何給定計算所需的電量每1.6年就會減少一半(這一速度甚至比摩爾定律本身還要快)。只要這些趨勢持續下去,就無需擔心計算機晶片對功耗的渴求。“隨著晶片上電晶體密度的增加,能源效率的提高是免費的,”馬薩諸塞大學阿默斯特分校計算機與電氣工程教授尼爾·安德森說道。
但現在摩爾定律遇到了許多物理限制。最先進的晶片製造工藝可以列印畫素解析度小至兩奈米(相當於人類頭髮寬度的四萬分之一)的電晶體。在這種尺寸下,電晶體儲存一位資訊所需的能量非常少,因此存在量子力學效應引入晶片計算隨機誤差的巨大風險。電晶體尺寸進一步縮小意味著這些效應將導致它們變得不可靠。
熱量是另一個問題。自 2005 年以來,晶片設計師一直將晶片上電晶體的時鐘速度(以 GHz 為單位)保持基本恆定。這是因為,如果電路迴圈速度過快,會產生大量熱量,有損壞電晶體的風險,實際上就是燒壞電路。熱量還會干擾訊號在電路中的傳輸,從而引入誤差。此外,在較高溫度下,電子實際上移動得更慢,從而限制了電路的執行速度。為了在恆定的迴圈速度下提高處理能力,晶片設計師增加了更多能夠並行處理不同計算部分的處理核心,而不是試圖讓每個核心每秒執行更多計算。這使得工程師能夠繼續提升晶片的整體效能,但也使得提高晶片能效變得更加困難。
可逆計算為此提供了一種解決方案。“可逆計算是一種科學合理的前進方向,”新墨西哥州阿爾伯克基市桑迪亞國家實驗室高階計算研究員布萊恩·蒂爾尼說。
工程挑戰
羅西尼說,當他最初想到創辦 Vaire 時,他聯絡了許多世界領先的晶片公司,以為這些公司已經有團隊在研究可逆計算。令他驚訝的是,這些公司中沒有一家在積極推進這項技術。他說,只有一家公司似乎考慮過,但這家公司告訴羅西尼,他們的研究團隊有太多其他優先事項,無法投入太多精力和資金來嘗試實現它。“他們說這在名單上排得太靠後了,”他說。
設計可逆計算晶片,尤其是使用傳統的晶片製造方法,非常棘手。羅西尼最終聘請了邁克·弗蘭克 (Mike Frank) 來協助 Vaire 的設計。弗蘭克是一位研究員,其職業生涯的大部分時間都致力於可逆晶片的設計,先是在麻省理工學院 (MIT) 和佛羅里達大學,後來在桑迪亞國家實驗室 (Sandia National Laboratories)。
要將電能透過電路迴圈利用,需要將一種稱為諧振器的模擬元件與晶片上常見的數字元件結合起來。無線電長期以來一直使用諧振器之類的元件,但Vaire為可逆計算設計的諧振器必須產生一種不尋常的訊號形狀——梯形而非傳統的正弦波。完善這種諧振器是Vaire必須克服的關鍵工程挑戰之一。
可逆計算晶片的執行速度必然比傳統計算機晶片慢,因為每個邏輯過程都需要先進行逆向運算,然後元件才能執行下一個正向計算。Rosini表示,Vaire的設計透過包含比傳統晶片更多的處理核心來彌補這種較慢的電路速度。這種並行處理對於人工智慧應用尤其有效,因為這些應用需要在神經網路的各個節點之間進行許多類似的數學運算,例如矩陣乘法、卷積和梯度調整,才能得出輸出。事實上,GPU 用於 AI 的原因是它們包含數千個並行處理器,可以執行這些同時計算(相比之下,CPU 包含的處理核心要少得多,更適合需要按步驟執行操作的計算)。
許多早期的可逆計算嘗試都試圖匹配 CPU 的效能,這意味著可逆計算固有的較慢時鐘速度是一個明顯的劣勢。Rosini 說,Vaire 的見解是將可逆計算架構應用於本質上是 GPU 晶片的設計,其中已經存在大量並行處理,較慢的時鐘速度影響不大。“我想說,我們帶來的最大創新不是技術。我們只是說,‘嘿,這項技術可用於構建 GPU,這是以前沒有人做過的,’”他說。
希望在新的硬體競賽中“打響發令槍”
瞭解Vaire工作的學術研究人員表示,他們一直在熱切地等待首批晶片原型的測試結果。四位接受《財富》雜誌採訪的研究人員均表示,儘管理論上可逆計算晶片可以實現幾乎100%的節能,但如果Vaire能夠展示其首款晶片的節能效果,哪怕只是兩位數的百分比,也將意義非凡。“如果他們能夠展示一款採用可逆電路和可逆時鐘(即電能被回收利用)的晶片,並展示出其能效比執行相同計算但使用標準電路和傳統時鐘的傳統CMOS晶片有所提升,那麼這將是向前邁出的重要一步,”馬薩諸塞大學的安德森說道。Vaire
表示,目前為止,他們已經透過計算機模擬證明了其諧振器元件實現了50%的節能。目前,整塊實體晶片的測試批次正在從亞洲的半導體制造廠運往工程團隊,但尚未進行評估。過去,就像20世紀90年代麻省理工學院的原型晶片一樣,由於需要為額外的元件供電,以及可逆電路物理架構所需的更長的電路路徑,晶片的部分節能效果可能會被削弱。
羅西尼表示,如果Vaire的晶片能夠展現出顯著的節能效果,它將“打響”晶片公司之間構建可逆計算晶片並最佳化設計以節省更多電量的競賽的“發令槍”。他說,像Vaire這樣的公司只需證明其可行性即可。他將其比作,在SpaceX證明其技術可行性並改變整個行業經濟狀況之前,很少有航天機構或公司考慮使用可重複使用的火箭部件。他表示,他並非不知道Vaire在讓公司接受新的計算正規化方面面臨的挑戰。他說,整個“非常規計算”領域“是50年來被英特爾
扼殺的公司的墳墓”。但他表示,他認為人們對人工智慧能源消耗的擔憂日益加劇,因此現在是嘗試的最佳時機。
受大腦啟發的AI晶片,
能耗降低了 100 倍
德國科學家開發出一種突破性的人工智慧晶片,該晶片以人腦為模型,可直接在現場進行即時計算,同時無需依賴雲服務或網際網路連線即可確保完全的網路安全。
巴伐利亞州慕尼黑工業大學 (TUM) 的研究團隊設計了一款名為 AI Pro 的晶片,將記憶體和處理單元結合在一個緊湊的神經形態架構中,模仿人類識別模式和做出決策的方式。
這款一平方毫米的晶片由該大學人工智慧處理器設計教授 Hussam Amrouch 博士開發,模仿了人類大腦處理資訊的方式,使其能夠獨立學習和運作,同時功耗比傳統人工智慧晶片低十倍。
該晶片目前處於原型階段,由位於德累斯頓的半導體制造商格芯(Global Foundries)生產,包含約1000萬個電晶體。雖然這與NVIDIA高效能處理器中整合的2000億個電晶體似乎相差甚遠,但該晶片提供了完整的資料隱私、卓越的能源效率以及真正的裝置智慧,而這些優勢往往是行業巨頭所缺乏的。
Amrouch 強調,該晶片利用一種名為“超維計算”的概念實現了這一點,這種方法將不同的資料點分組並關聯起來,從而得出推論。簡而言之,該晶片的學習方式是發現相似性和模式,而不是處理海量資料。
因此,該晶片無需處理海量汽車影像,而是透過將汽車與四個車輪、道路使用情況和典型形狀等特徵關聯起來,來理解汽車。但據安魯奇介紹,這款新晶片的真正獨特之處在於,它能夠像人類一樣,透過識別相似性進行推理和學習。
此外,類似大腦的思維方式還有一個顯著優勢,那就是它消耗的能量要少得多。在試執行期間,AI Pro 僅消耗 24 微焦耳,而同類晶片的功耗則要高出 10 到 100 倍。Amrouch 稱其為創紀錄的數值,並將這一突破歸功於專業演算法、創新處理器架構和新穎的資料處理方法的結合。
Amrouch 表示:“現代處理器架構、演算法專業化和創新資料處理的結合使得 AI 晶片變得與眾不同。”
該團隊表示,AI Pro 專為特定應用量身定製。其架構緊密集成了記憶體和處理單元,可實現即時現場決策。這對於醫療保健、機器人和自主導航等行業意義重大,尤其是在網際網路接入不可靠或資料隱私至關重要的環境中。
“這使得它們非常高效,”Amrouch 聲稱,並補充說,配備該晶片的智慧手錶可以現場處理敏感的心率或血氧資料,無需將其傳輸到外部伺服器,而無人機則可以在飛行過程中分析導航模式,而無需依賴衛星鏈路。由於資料保留在本地,延遲和網路安全風險都大幅下降。
該原型機售價約為 33,700 美元(30,000 歐元),目前尚未準備好量產。不過,該團隊並不擔心與大型科技公司競爭。他們的目標是打造一種新型的 AI 晶片,這種晶片高效、安全,並且專為特定任務而非純粹的計算能力而打造。
“ NVIDIA構建了一個依賴雲資料並承諾解決所有問題的平臺,而我們開發了一款能夠提供定製解決方案的 AI 晶片,”Amrouch 在新聞稿中總結道。“這是一個巨大的市場。未來屬於擁有硬體的人。”
IMEC 推出“可重構”人工智慧晶片
研究機構 IMEC(比利時魯汶)執行長 Luc Van den hove 呼籲半導體行業採用三維、可重構的 AI 晶片,以應對快速變化的 AI 軟體。
路透社在發表前看到的一份宣告中稱,人工智慧演算法的開發速度比當前開發專用 ASIC 來解決人工智慧資料流和計算中的特定瓶頸的策略要快。
IMEC 年度技術論壇於週二在比利時安特衛普開幕,並於週三繼續舉行。
專用積體電路可能需要一到兩年的時間來開發,並需要六個月的時間在晶圓廠製造。
據路透社報道,範登霍夫表示:“擱淺資產存在巨大的固有風險,因為當人工智慧硬體最終準備就緒時,快速發展的人工智慧軟體社群可能已經發生了變化。”
據路透社描述,範登霍夫提出的是一個三維、可程式設計的人工智慧計算處理元素陣列。
英偉達憑藉其為人工智慧提供多處理GPU,發展成為最大的半導體公司。這些GPU足夠通用,能夠處理不斷開發的多種型別的人工智慧演算法。此外,其CUDA平行計算平臺和程式設計模型也使其免受競爭。
但即便如此,Nvidia 的 GPU 並非特定演算法最節能的解決方案。因此,超大規模計算平臺和其他公司一直在尋求開發 ASIC 加速器,以應對資料中心的特定工作負載。
範登霍夫表示,雖然較大的公司可能能夠承擔得起這一點,但對於大多數公司來說,這是有風險且不經濟的。
隨著人工智慧的前沿從大模型(LLM)轉向多模式代理人工智慧(Agentic AI),演算法變革的步伐甚至可能正在加快。IMEC 執行長預計將提出,未來的人工智慧晶片將多種人工智慧計算方式組合成一個塊狀處理單元——即所謂的超級單元(Supercell)。這樣,可程式設計片上網路將能夠連結和程式設計資源,以動態地滿足演算法需求。
該方法將利用三維堆疊和其他先進的封裝方法。
路透社的描述聽起來讓人聯想到現場可程式設計門陣列 (FPGA),但其抽象程度比原始的門級查詢表 (LUT) 更高。超級單元(陣列中的構建塊)很可能由豐富的記憶體計算處理組成,以支援廣泛的 AI 需求。
雖然這種方法看似合理,但需要注意的是,如果AI演算法持續偏離元件超級單元支援的某些計算方式,那麼“AI版FPGA”將包含冗餘矽片,併成為一種昂貴但可能仍然節能高效的解決方案。平衡效能、功耗和麵積(PPA)仍然是晶片設計人員面臨的挑戰,而FPGA傳統上因其上市時間優勢而被選中,但單位成本更高。
數十年來,IMEC 一直是全球領先的半導體研究中心,並與領先的半導體公司合作開展競爭前專案。這使得 IMEC 能夠提出並評估許多目前處於前沿的技術,包括 FinFET、全柵電晶體、背面配電和晶片集。
END
👇半導體精品公眾號推薦👇
▲點選上方名片即可關注
專注半導體領域更多原創內容
▲點選上方名片即可關注
關注全球半導體產業動向與趨勢
*免責宣告:本文由作者原創。文章內容系作者個人觀點,半導體行業觀察轉載僅為了傳達一種不同的觀點,不代表半導體行業觀察對該觀點贊同或支援,如果有任何異議,歡迎聯絡半導體行業觀察。
今天是《半導體行業觀察》為您分享的第4041期內容,歡迎關注。
推薦閱讀
『半導體第一垂直媒體』
即時 專業 原創 深度
公眾號ID:icbank 
喜歡我們的內容就點“在看”分享給小夥伴哦


相關文章