騰訊開源混元小模型:0.5B到7B參數(shù),消費顯卡就能跑

騰訊開源混元小模型:0.5B到7B參數(shù),消費顯卡就能跑

近日,騰訊混元團隊發(fā)布了四款開源的小尺寸大語言模型,參數(shù)規(guī)模分別為0.5B、1.8B、4B和7B。這些模型專為低功耗場景設(shè)計,可在消費級顯卡上高效運行,覆蓋筆記本電腦、手機、智能座艙及智能家居等多種終端設(shè)備。此次開源標(biāo)志著騰訊在輕量化AI模型領(lǐng)域的進(jìn)一步布局,為開發(fā)者提供了更靈活的垂直領(lǐng)域微調(diào)方案。

輕量化設(shè)計,廣泛兼容

此次發(fā)布的四款模型均屬于融合推理模型,主打高性價比與快速推理能力。用戶可根據(jù)實際需求選擇“快思考”或“慢思考”模式:前者適用于簡潔高效的輸出場景,后者則能處理復(fù)雜問題,提供更詳盡的推理步驟。

在硬件兼容性上,模型已適配Arm、高通、英特爾、聯(lián)發(fā)科技等主流終端芯片平臺,并支持SGLang、vLLM和TensorRT-LLM等推理框架。值得注意的是,部分型號甚至可直接部署于PC或移動設(shè)備,顯著降低了AI應(yīng)用的硬件門檻。

性能對標(biāo),長文本突破

盡管參數(shù)規(guī)模較小,這些模型在語言理解、數(shù)學(xué)和推理等任務(wù)上的表現(xiàn)已與業(yè)界同尺寸模型相當(dāng)。測試數(shù)據(jù)顯示,其在多個公開基準(zhǔn)上的得分達(dá)到領(lǐng)先水平。

模型的另一大亮點是原生長上下文窗口支持256k tokens,相當(dāng)于可一次性處理40萬漢字或50萬英文單詞的超長內(nèi)容。這一能力使其能夠完整記憶并分析如《哈利波特》三部曲級別的文本,并基于細(xì)節(jié)展開深度討論。

強化Agent能力,場景覆蓋廣

通過優(yōu)化數(shù)據(jù)構(gòu)建與強化學(xué)習(xí)獎勵機制,模型在任務(wù)規(guī)劃、工具調(diào)用及復(fù)雜決策等Agent任務(wù)中表現(xiàn)突出。例如,可勝任Excel操作、旅行攻略生成或深度搜索等實際需求。

目前,這些模型已在騰訊多個業(yè)務(wù)線落地:

- 騰訊會議AI助手利用長文本能力實現(xiàn)會議內(nèi)容實時解析;

- 微信讀書AI問書可整本理解書籍并回答用戶提問;

- 智能座艙采用雙模型架構(gòu),平衡車載環(huán)境的功耗與性能;

- 金融領(lǐng)域通過微調(diào)實現(xiàn)95%以上的意圖識別準(zhǔn)確率。

開源生態(tài)持續(xù)擴展

此次發(fā)布是騰訊混元開源戰(zhàn)略的最新進(jìn)展。此前,團隊已開源52B參數(shù)的Hunyuan Large和混合專家模型Hunyuan-A13B。多模態(tài)方面,其文生圖、視頻生成及3D世界模型等工具集也已開放,衍生模型數(shù)量超3000個。

開源地址:

GitHub:

- Hunyuan-0.5B: [鏈接]

- Hunyuan-1.8B: [鏈接]

- Hunyuan-4B: [鏈接]

- Hunyuan-7B: [鏈接]

HuggingFace:

- 各型號對應(yīng)倉庫詳見報道鏈接

行業(yè)影響與展望

騰訊此次開源的小模型組合,填補了消費級設(shè)備與專業(yè)AI應(yīng)用之間的技術(shù)鴻溝。其低部署成本與垂直領(lǐng)域適配性,或?qū)榻逃⑨t(yī)療、物聯(lián)網(wǎng)等行業(yè)帶來更普惠的AI解決方案。未來,隨著邊緣計算需求增長,輕量化模型的市場競爭或?qū)⑦M(jìn)一步升溫。

(免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請進(jìn)一步核實,并對任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負(fù)任何法律責(zé)任。
任何單位或個人認(rèn)為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實內(nèi)容時,應(yīng)及時向本網(wǎng)站提出書面權(quán)利通知或不實情況說明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實,溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。 )

贊助商
2025-08-04
騰訊開源混元小模型:0.5B到7B參數(shù),消費顯卡就能跑
騰訊開源混元小模型:0.5B到7B參數(shù),消費顯卡就能跑 近日,騰訊混元團隊發(fā)布了四款開源的小尺寸大語言模型,參數(shù)規(guī)模分別為0.5B、1.8B...

長按掃碼 閱讀全文