2024深度洞察:AI伺服器與AIPC的風雲變幻

提醒:請之前購買過全店打包架構師技術全店資料打包彙總(全)”的讀者,請憑藉購買記錄在微店留言免費獲取更新(傳送更新打包連結),後續所有更新均免費發放目前44本資料
獲取清單:
(持續更新中…)
資料中心網路知識全解(PPT)
人工智慧基礎知識全解(含實踐)
CPU基礎知識全解(PPT)
GPU基礎知識全解(PPT)
本文參考“2024年AI伺服器和AI PC趨勢”,資料中心按照算力可以分為三類:雲資料中心、智算中心和超算中心。雲資料中心面向眾多應用場景和應用層級擴張;智算中心 以AI專用晶片為計算算力底座,以促進AI產業化和智慧化為目標,面向AI典型應用場景;超算中心主要支援科學計算和工程計算 ,主要由國家科技部佈局建設。

國內資料中心建設較全球起步晚,目前處於雲中心深化階段,向智慧算力中心轉型,總體處於成長期。


根據Trendforce 測算, 2023 年全球 AI 伺服器出貨量逾120.8萬臺,同比增長超過37.7%。這家機構預測, 2024  年全球AI伺服器整機出貨量將達167.2萬臺,同比增長38.4%。臺積電在Q1法說會上表示,AI需求的增長將以50%的 複合增長率持續至2028年,AI伺服器需求增長也有望以較高速度持續至2028年。
2023年,中國人工智慧伺服器市場規模將達91億美元, 同比 增長82.5%;智慧算力規模預計達到414.1EFLOPS (每秒百億億次浮點運算),同比增長59.3%,2022年到2027年, 年複合增長率達到33.9%。
按照用途區分, AI伺服器分為訓練和推理兩大類別。訓練用伺服器對儲存空間、頻寬和算力的要求較高, 主要採用8-GPU 設計;推理用伺服器對算力、儲存和頻寬的要求相對較低,取決於業務場景, 可以採用 GPU、NPU、CPU 等不  同晶片承擔推理任務,可以採用PCLe介面的AI加速器實現推理任務。
伺服器隨場景需求經歷通用伺服器-雲伺服器-邊緣伺服器-AI伺服器四種模式,AI伺服器採用GPU增強其平行計算能力。CPU+GPU是AI伺服器的核心部件。機櫃級解決方案有望成為未來 AI 伺服器出貨主流形式之一。
伺服器發展的三大挑戰:
一、先進的GPU加速卡需要使用多層高階HDI板,PCB的材料和產品質量如何保證;
二、AI伺服器對傳輸速  度要求較高,高速聯結器正朝向“56G-112G-224G”的方向發展,高速和高密度背板聯結器如何滿足AI算力釋放需  求,這都需要工業檢測領域的有效方案來護航。
三、智慧算中心走向高密度, 單顆高效能AI晶片的熱設計功耗將突破 1000W,達到了傳統風冷散熱的極限,液冷技術成為主要趨勢。
請之前購買過全店打包架構師技術全店資料打包彙總(全)”的讀者,請憑藉購買記錄在微店留言免費獲取(PDF閱讀版本)。後續所有更新均免費發放目前44本資料)。


免責申明:本號聚焦相關技術分享,內容觀點不代表本號立場,可追溯內容均註明來源,釋出文章若存在版權等問題,請留言聯絡刪除,謝謝。
推薦閱讀
更多架構相關技術知識總結請參考“架構師全店鋪技術資料打包(全)”相關電子書(44本技術資料打包彙總詳情可透過“閱讀原文”獲取)。
溫馨提示:
掃描二維碼關注公眾號,點選閱讀原文連結獲取架構師技術全店資料打包彙總(全)電子書資料詳情



相關文章