近日,得一微電子(YEESTOR)發(fā)布集成AI-MemoryX技術(shù)的顯存擴(kuò)展解決方案。該方案依托自研存儲(chǔ)控制芯片和AI存儲(chǔ)系統(tǒng)級(jí)創(chuàng)新,顯著提升單機(jī)的顯存容量,讓32B、70B、110B、671B等DeepSeek系列大模型實(shí)現(xiàn)單機(jī)微調(diào)訓(xùn)練,為AI大模型的微調(diào)訓(xùn)練提供功能強(qiáng)大且經(jīng)濟(jì)實(shí)惠的解決方案。
得一微電子及相關(guān)合作伙伴將提供完整的微調(diào)訓(xùn)練機(jī)解決方案,助力眾多行業(yè)拓展智能應(yīng)用邊界,在產(chǎn)業(yè)競(jìng)爭(zhēng)中占據(jù)先機(jī)。
低成本實(shí)現(xiàn)顯存擴(kuò)展,解鎖百倍大模型微調(diào)訓(xùn)練提升
訓(xùn)練和推理對(duì)GPU顯存的需求存在顯著差異。對(duì)于同一尺寸的模型,訓(xùn)練所需的顯存通常是推理的20倍以上。目前市場(chǎng)上,訓(xùn)推一體機(jī)在支持大模型微調(diào)訓(xùn)練方面仍面臨顯存容量的挑戰(zhàn),通常只能支持7B、14B等大模型的微調(diào)訓(xùn)練,難以支持110B、70B、32B等更大模型的微調(diào)訓(xùn)練。
得一微發(fā)布的AI-MemoryX顯存擴(kuò)展卡,將促進(jìn)訓(xùn)推一體機(jī)能夠支持超大尺寸大模型的微調(diào)訓(xùn)練,幫助客戶支持高達(dá)110B(甚至671B)規(guī)模的訓(xùn)練任務(wù)。同時(shí),AI-MemoryX技術(shù)將原本需耗費(fèi)數(shù)百上千萬(wàn)的硬件擴(kuò)充成本,降低至數(shù)萬(wàn)元級(jí)別,大幅降低了超大模型訓(xùn)練的門檻。這將使得更多企業(yè)甚至個(gè)人都能夠以有限的資源,高效開展大規(guī)模模型的訓(xùn)練與微調(diào)。
高效解決顯存瓶頸,開啟單機(jī)微調(diào)訓(xùn)練新方式
顯存不足,一直是單機(jī)微調(diào)訓(xùn)練超大模型的最大障礙。當(dāng)下受GPU技術(shù)以及商業(yè)模式的限制,單張GPU顯存容量極為有限,中端顯卡的顯存容量大多在48GB到64GB之間。以DeepSeek 70B模型為例,微調(diào)訓(xùn)練所需的顯存高達(dá)1TB到2TB,這意味著需要?jiǎng)佑?0多張顯卡;而對(duì)于DeepSeek 671B模型,更是需要達(dá)到10TB到20TB的顯存,對(duì)應(yīng)300多張顯卡。如此龐大的硬件需求,不僅成本高昂,還使得部署極為復(fù)雜,嚴(yán)重阻礙了大模型單機(jī)微調(diào)的普及。
得一微電子的AI-MemoryX技術(shù)通過(guò)其創(chuàng)新性的顯存擴(kuò)展方案,使單機(jī)顯存容量從傳統(tǒng)顯卡的幾十GB提升到10TB級(jí)別,大幅降低了微調(diào)訓(xùn)練對(duì)GPU數(shù)量的需求。得益于此,DeepSeek不同尺寸的大模型(如32B、70B、110B、671B等)僅需1到16張顯卡,配合顯存擴(kuò)展技術(shù),即可高效完成單機(jī)訓(xùn)練微調(diào)。該技術(shù)為大模型在各行業(yè)的應(yīng)用推廣提供了有力支持。
得一微電子推出的 AI-MemoryX 解決方案,是一個(gè)完整的微調(diào)訓(xùn)練機(jī)方案,涵蓋大模型訓(xùn)練框架、顯存擴(kuò)展卡軟件棧以及顯存擴(kuò)展卡X200系列,為大模型微調(diào)訓(xùn)練提供全方位的技術(shù)支持與賦能。
得一微AI-MemoryX技術(shù)特色,發(fā)掘微調(diào)的潛力和價(jià)值
監(jiān)督微調(diào)SFT:小樣本撬動(dòng)大效能
華裔科學(xué)家、“AI教母”李飛飛團(tuán)隊(duì)等研究人員,僅用1000個(gè)樣本對(duì)模型進(jìn)行監(jiān)督微調(diào),并創(chuàng)新性地提出預(yù)算強(qiáng)制(budget forcing)技術(shù),讓s1-32B模型在多個(gè)基準(zhǔn)測(cè)試中超越閉源模型OpenAI o1-preview,成為目前樣本效率極高的推理模型。
s1-32B模型并非從零構(gòu)建,而是基于預(yù)訓(xùn)練模型(阿里通義千問(wèn) Qwen2.5-32B - Instruct)進(jìn)行監(jiān)督微調(diào)。這一成果表明,當(dāng)模型知識(shí)基礎(chǔ)足夠扎實(shí)時(shí),少量高質(zhì)量示例即可通過(guò)推理鏈激活其潛在推理能力,無(wú)需依賴海量數(shù)據(jù),高效且實(shí)用。
思維鏈微調(diào)CoT:注入行業(yè)思維,提升推理深度
各行各業(yè)都有其獨(dú)特的思維方式,而精心設(shè)計(jì)的推理鏈,不僅能助力模型精準(zhǔn)理解問(wèn)題,還能顯著提升其推理的準(zhǔn)確性和泛化能力。
DeepSeek通過(guò)蒸餾技術(shù),將R1模型的思考能力傳遞給其他模型,讓它們也具備R1級(jí)別的思考實(shí)力。企業(yè)開發(fā)者可以提供優(yōu)質(zhì)的行業(yè)問(wèn)題與示范,引導(dǎo)模型自主深入思考,以微調(diào)為橋梁,將千行百業(yè)的人類專家的思維模式和思考過(guò)程融入大模型的推理鏈條中,使模型更契合行業(yè)特點(diǎn)和實(shí)際需求。
強(qiáng)化學(xué)習(xí)微調(diào)RFT:規(guī)則框架下的自我進(jìn)化
每個(gè)行業(yè)都有每個(gè)行業(yè)需要解決的問(wèn)題和方法。強(qiáng)化學(xué)習(xí)微調(diào),相當(dāng)于賦予AI一套復(fù)雜的規(guī)則與思考框架,使其在反復(fù)實(shí)踐與推理中,逐步掌握解決問(wèn)題的高效方法。這一訓(xùn)練方式依托微調(diào)數(shù)據(jù)集和測(cè)試數(shù)據(jù)集兩大核心數(shù)據(jù)集。模型先通過(guò)微調(diào)數(shù)據(jù)集進(jìn)行學(xué)習(xí),再使用測(cè)試數(shù)據(jù)集驗(yàn)證推理能力,找出不足并針對(duì)性調(diào)整。通過(guò)這種持續(xù)迭代的自我訓(xùn)練與驗(yàn)證,模型推理能力不斷攀升,最終在特定領(lǐng)域達(dá)到專業(yè)級(jí)水平,為專業(yè)應(yīng)用場(chǎng)景提供強(qiáng)大支撐。
得一微電子,引領(lǐng)存算技術(shù)新潮流
得一微電子始終錨定存儲(chǔ)控制、存算一體、存算互聯(lián)領(lǐng)域的技術(shù)前沿,致力成為行業(yè)領(lǐng)先的芯片設(shè)計(jì)公司。公司面向企業(yè)級(jí)、車規(guī)級(jí)、工業(yè)級(jí)、消費(fèi)級(jí)等全場(chǎng)景應(yīng)用,提供量身定制的解決方案與服務(wù)。
(免責(zé)聲明:本網(wǎng)站內(nèi)容主要來(lái)自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請(qǐng)進(jìn)一步核實(shí),并對(duì)任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對(duì)有關(guān)資料所引致的錯(cuò)誤、不確或遺漏,概不負(fù)任何法律責(zé)任。
任何單位或個(gè)人認(rèn)為本網(wǎng)站中的網(wǎng)頁(yè)或鏈接內(nèi)容可能涉嫌侵犯其知識(shí)產(chǎn)權(quán)或存在不實(shí)內(nèi)容時(shí),應(yīng)及時(shí)向本網(wǎng)站提出書面權(quán)利通知或不實(shí)情況說(shuō)明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會(huì)依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。 )