5月30日消息(顏翊)TrendForce集邦咨詢發(fā)布報告稱AI服務器及AI芯片需求同步看漲,預估2023年AI服務器(包含搭載GPU、FPGA、ASIC等)出貨量近120萬臺,同比增長38.4%,占整體服務器出貨量近9%,至2026年將占15%。2022~2026年AI服務器出貨量年復合增長率同步上調(diào)至22%,AI芯片2023年出貨量將增長46%。
TrendForce集邦咨詢表示,NVIDIA GPU為AI服務器市場搭載主流,市占率約60~70%,其次為云端業(yè)者自主研發(fā)的ASIC芯片,市占率逾20%。NVIDIA市占率高的主要原因有三,其一,目前不論美系或中系云端服務從業(yè)者(CSP),除了采購原有的NVIDIA的A100與A800外,下半年需求還將陸續(xù)導入H100與H800。
其二,高端GPU A100及H100的高獲利模式也是關鍵,由于NVIDIA旗下產(chǎn)品在AI服務器市場已擁有主導權的優(yōu)勢,據(jù)TrendForce集邦咨詢研究,H100本身的價差也依據(jù)買方采購規(guī)模,會產(chǎn)生近5000美元的差異。
其三,下半年ChatBOT及AI運算風潮將持續(xù)滲透至各種專業(yè)領域(如云端/電商服務、智能制造、金融保險、智慧醫(yī)療及智能駕駛輔助等)的開發(fā)市場,同步帶動每臺搭配4~8張GPU的云端AI服務器,以及每臺搭載2~4張GPU的邊緣AI服務器應用需求漸增,預估今年搭載A100及H100的AI服務器出貨量年增率逾5成。
此外,從高端GPU搭載的高帶寬內(nèi)存(HBM)來看,NVIDIA高端GPU H100、A100主采HBM2e、HBM3。以今年H100 GPU來說,搭載HBM3技術規(guī)格,其中傳輸速度也較HBM2e快,可提升整體AI服務器系統(tǒng)運算效能。隨著高端GPU如NVIDIA的A100、H100;AMD的MI200、MI300,以及Google自研的TPU等需求皆逐步提升,TrendForce集邦咨詢預估2023年HBM需求量將年增58%,2024年有望再成長約30%。
- Meta為AI數(shù)據(jù)中心大手筆采購能源,與Invenergy共創(chuàng)綠色未來
- 馬斯克揭秘 Grok 4模型:科技狂人7月4日后帶來全新革新!
- 字節(jié)跳動進軍機器人領域:Seed團隊成立獨立公司,掀起新一輪科技革命?
- 全球首家 AI 原生應用線下商店落戶江蘇句容 百度智能云攜手句容打造長三角 AI 創(chuàng)新高地
- 丹麥力圖保護真實:欲為公民身體與聲音版權,對抗深度偽造
- 騰訊混元新突破:一張中低端GPU卡即可應對極端條件,開源A13B模型顛覆業(yè)界,開啟AI新篇章
- 快手可靈 AI 限時免費開放“視頻音效”功能,打破視頻音效局限,暢享創(chuàng)作新體驗!
- 谷歌發(fā)布小鋼炮模型Gemma 3n:2GB內(nèi)存本地玩轉AI多模態(tài),掀起AI新革命!
- 大模型突破!無需代理自動修復代碼錯誤,登頂開源模型榜單,顛覆編程新紀元
- 硅基流動品牌升級:新視覺標識亮相,國際站正式啟航,顛覆科技未來!
免責聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網(wǎng)站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權或存在不實內(nèi)容時,應及時向本網(wǎng)站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關文章源頭核實,溝通刪除相關內(nèi)容或斷開相關鏈接。