極客網(wǎng)·極客觀察(朱飛)7月24日“千模大戰(zhàn)”時代,算力與數(shù)據(jù)成為大模型“競爭”的核心戰(zhàn)場。不過對于廣大中小企業(yè)和組織來說,大模型對計算資源的需求、超百億甚至千億級的參數(shù)規(guī)模、體系架構設計的高難度,提升了其邁入行業(yè)大模型應用的門檻。然而大模型的發(fā)展不會永遠停留在模型參數(shù)的疊加和算力的堆砌,如何將大模型與企業(yè)實際應用場景相結合才是引爆未來價值的增長點。
將通用模型和各領域專有知識數(shù)據(jù)結合,企業(yè)不必從零開始構建基礎大模型,而是在已有大模型基礎之上,融入自身領域行業(yè)知識,訓練生成行業(yè)專用大模型,通過實踐推理反哺提升專用大模型能力,向垂直化、行業(yè)化發(fā)展是大模型技術落地應用的優(yōu)選方向。然而對于企業(yè)來講,基于云端大模型訓練\推理存在數(shù)據(jù)安全風險;基于本地化訓練\推理,面臨安裝部署繁瑣、復雜、硬件資源使用效率低、成本高昂的問題。那么,到底該如何降低企業(yè)大模型的部署和使用門檻呢?
7月14日,在大模型時代AI存儲新品發(fā)布會上,華為面向行業(yè)大模型訓練/推理場景,重磅發(fā)布FusionCube A3000訓/推超融合一體機,2小時即可完成開局,真正做到開箱即用。整柜采用存算分離架構,存、算可以靈活獨立擴展,幫助企業(yè)最大化降低安裝、部署門檻。內(nèi)置OceanStor A300高性能存儲節(jié)點,實現(xiàn)AI大模型訓練、推理加速,速度快人一步。
一站式方案,行業(yè)大模型交付新模式
FusionCube A3000訓/推超融合一體機針對百億級模型應用,集成存儲節(jié)點、訓/推節(jié)點、交換設備、AI平臺軟件,以及管理運維軟件,免去大量適配調優(yōu)、系統(tǒng)搭建的成本,為大模型伙伴提供“拎包入住”式的部署體驗,2小時內(nèi)即可完成部署。預制業(yè)界主流AI模型,即開即用,即用即開發(fā)。
FusionCube A3000訓/推超融合一體機采用存算分離架構實現(xiàn)訓/推節(jié)點和存儲節(jié)點解耦,支持兩種交付模式:包括華為昇騰一站式方案;以及開放計算、網(wǎng)絡、AI平臺軟件的第三方伙伴一站式方案。前者全棧采用華為自研OceanStor A300高性能存儲節(jié)點、計算、網(wǎng)絡產(chǎn)品及AI平臺軟件,能夠最大化發(fā)揮AI軟硬件協(xié)同的澎湃性能;后者同樣基于華為OceanStor A300高性能存儲節(jié)點,但廣泛支持第三方GPU算力、交換機設備和AI平臺軟件,用戶可根據(jù)自身行業(yè)特性和場景應用按需選擇。
高集成更有高性能
簡單對比不難發(fā)現(xiàn),這兩種交付模式有一個共同點,即均基于華為自研存儲節(jié)點OceanStor A300構建?!按竽P蜁r代,數(shù)據(jù)決定AI智能的高度。作為數(shù)據(jù)的載體,數(shù)據(jù)存儲成為AI大模型的關鍵基礎設施?!睋Q言之,AI大模型時代,需要新的AI存儲產(chǎn)品提供數(shù)據(jù)“最優(yōu)解”。內(nèi)置于FusionCube A3000訓/推超融合一體機中的OceanStor A300高性能存儲節(jié)點,正是華為數(shù)據(jù)存儲為大模型訓練推理創(chuàng)新構筑的數(shù)據(jù)之“基”。
OceanStor A300采用NFS over RDMA高速低時延協(xié)議,顯著降低I/O延遲;通過國內(nèi)首創(chuàng)NFS+協(xié)議,實現(xiàn)多鏈路聚合,大幅提升主機訪問性能;通過Flashlink?盤控配合智能算法,達到永快一步平穩(wěn)性能。
得益于此,根植于OceanStor A300之上的FusionCube A3000訓/推超融合一體機,存儲單節(jié)點支持高達50GB/s的帶寬以及180萬IOPS,性能數(shù)倍領先于業(yè)內(nèi)同類產(chǎn)品。
黑科技加持實現(xiàn)資源共享,大幅提高GPU使用效率
用戶搭建深度學習訓練環(huán)境,需要安裝Python、TensorFlow、GPU驅動等,如果要從開發(fā)環(huán)境到測試環(huán)境,再從測試環(huán)境到生成環(huán)境,涉及環(huán)境遷移過程中需要花費大量精力來保證環(huán)境的一致性。
容器帶來的標準化能力可以將相關軟件一并打包到鏡像中,一次構建,即可在不同平臺運行,極大降低安裝、部署的復雜度;同時各容器間相互隔離,可實現(xiàn)多訓練框架并存,而且每一個框架都可以獨立進行升級而不會影響其他業(yè)務,降低日常運維的難度,讓客戶可以將更多的精力集中在AI訓練上。
華為通過高性能容器軟件,實現(xiàn)CPU和GPU等資源的池化共享。傳統(tǒng)的IT系統(tǒng)會為每個應用預留一定的物理算力資源,也意味著CPU或GPU資源將被獨占,資源的利用率通常低于40%。而通過容器應用共享CPU與GPU的資源池,資源的利用率將提升至超過70%,幫助企業(yè)達成降本增效。
面向新一輪AI浪潮的大模型時代,華為數(shù)據(jù)存儲持續(xù)突破黑科技,以創(chuàng)新數(shù)據(jù)基礎設施為數(shù)據(jù)智能應用筑“基”,開創(chuàng)行業(yè)大模型一站式交付新模式,大幅降低AI大模型的部署和使用門檻,開啟AI賦能千行百業(yè)的加速度!
春風來不遠,只在屋東頭!FusionCube A3000很近,“AI”不遠!
- 超聚變閃耀數(shù)字中國建設峰會:釋放數(shù)智生產(chǎn)力,共建智能體時代
- 外媒看上海車展:特斯拉再次缺席,中國車企集體閃耀
- 外媒:DeepSeek震撼世界 中國大學成為AI人才池
- 透視超聚變探索者大會2025:超聚變的“變”與“不變”
- 螞蟻上線100余個AI醫(yī)療智能體,“AI醫(yī)生”靠譜嗎?
- 5G-AxAI融智創(chuàng)新落地“浙里”,“杭州六小龍”或成群而來
- 美國電信業(yè)員工5年銳減14萬,原因何在?
- 通信+AI新動向!德電與谷歌云合作開發(fā)網(wǎng)絡智能體,優(yōu)化RAN運營
- 未來十年錨定混合式人工智能!楊元慶:中國依然是聯(lián)想的重中之重
- 廣州深挖昇騰+DeepSeek發(fā)展機遇,賦能百業(yè)千行智慧升級
免責聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網(wǎng)站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權或存在不實內(nèi)容時,應及時向本網(wǎng)站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關文章源頭核實,溝通刪除相關內(nèi)容或斷開相關鏈接。