OpenAI發(fā)布GPT-4.1模型:最強(qiáng)編碼能力,僅提供API訪問,價格降了

4月15日消息,OpenAI推出專為開發(fā)者打造的全新模型系列——GPT-4.1。該系列包含三個新成員:旗艦級GPT-4.1、高速的GPT-4.1 Mini,以及最小、最快、最經(jīng)濟(jì)的 GPT-4.1 Nano。

據(jù)介紹,GPT?4.1系列模型在編碼能力、復(fù)雜指令遵循、長文本處理(首次支持高達(dá)一百萬 Token 上下文,且無額外費(fèi)用)以及多模態(tài)理解方面均實(shí)現(xiàn)了顯著提升,性能全面超越 GPT-4o,并在關(guān)鍵指標(biāo)上比肩甚至超越 GPT-4.5。

值得注意的是,GPT-4.1系列僅通過 API 提供。

此前,OpenAI剛剛出臺了一項(xiàng)針對未來新的大模型AIP調(diào)用的規(guī)定,要求AIP調(diào)用組織完成身份驗(yàn)證流程,才能解鎖訪問OpenAI平臺最先進(jìn)模型和功能。也就是說“不通過驗(yàn)證就不讓用最新模型”。盡管OpenAI 的AIP組織驗(yàn)證支持200多個國家和地區(qū),但中國大陸開發(fā)者仍面臨資格限制。

另外,OpenAI史上最貴大模型將被“淘汰”。

OpenAI稱,將在API中棄用GPT-4.5預(yù)覽版,因?yàn)镚PT-4.1在許多關(guān)鍵功能上提供了改進(jìn)或相似的性能,且成本和延遲更低。GPT-4.5預(yù)覽版將在三個月后,即2025年7月14日關(guān)閉,以便開發(fā)者有足夠的時間進(jìn)行過渡。

GPT-4.1三大模型

旗艦?zāi)P虶PT?4.1性能優(yōu)化集中于編碼、指令遵循、長文本理解上:

1、最強(qiáng)編碼:GPT?4.1在SWE-bench Verified上的得分為54.6%,比GPT?4o提高了21.4個百分點(diǎn),比GPT?4.5提高了26.6個百分點(diǎn)。

2、指令遵循:在Scale的MultiChallenge?上,GPT?4.1的得分為38.3%,比GPT?4o提高了10.5個百分點(diǎn)。

3、長上下文:在Video-MME上,GPT?4.1取得了新的SOTA——在長視頻、無字幕類別中得分72.0%,高于GPT-4o的65.3%。

GPT-4.1 mini 在小型模型性能方面取得了重大飛躍,甚至在許多基準(zhǔn)測試中超越了 GPT-4o。它在智能評估中與 GPT-4o 相當(dāng)或超過,同時將延遲減少了近一半,成本降低了 83%。

對于需要低延遲的任務(wù),GPT-4.1 nano 是最快且最便宜的模型。它以其 100 萬個標(biāo)記的上下文窗口,在小型尺寸下提供卓越的性能,并在 MMLU 上得分 80.1%,在 GPQA 上得分 50.3%,在 Aider 多語言編碼上得分 9.8%——甚至高于 GPT-4o mini。它非常適合分類或自動補(bǔ)全等任務(wù)。

API定價

GPT-4.1、GPT-4.1 mini 和 GPT-4.1 nano 現(xiàn)在對所有開發(fā)者開放,僅通過API提供。

價格方面,GPT?4.1比GPT?4o便宜26%,輸入、輸出分別是每百萬token 2美元和8美元。

GPT?4.1 nano是OpenAI迄今為止價格最低、速度最快的模型,輸入、輸出分別為0.1美元和0.4美元。

對于重復(fù)使用相同上下文的查詢,這些新模型的提示詞緩存折扣已從之前的50%提高至75%。

最后,長上下文請求已包含在標(biāo)準(zhǔn)的按Token計(jì)費(fèi)內(nèi),無需額外費(fèi)用。

今年2月,OpenAI發(fā)布了自己有史以來最貴的大模型GPT-4.5,GPT-4.5的API定價高達(dá)75美元/百萬tokens輸入、150美元/百萬tokens輸出,被開發(fā)者吐槽“用不起”!

這次GPT-4.1的價格,你覺得如何?

通過視頻,OpenAI 團(tuán)隊(duì)成員介紹了GPT?4.1系列模型模型的性能優(yōu)勢、基準(zhǔn)測試結(jié)果,并通過實(shí)時演示,如現(xiàn)場編寫功能完善的前端應(yīng)用、處理超長日志文件等,展現(xiàn)了它們的實(shí)際能力。

一起看看:

編碼能力顯著優(yōu)于 GPT-4o

GPT-4.1 在各種編碼任務(wù)中顯著優(yōu)于 GPT-4o,包括主動解決編碼任務(wù)、前端編碼、減少不必要的編輯、可靠地遵循差異格式、確保一致的工具使用等。

在SWE-bench Verified(一個衡量現(xiàn)實(shí)世界軟件工程技能的指標(biāo))上,GPT-4.1完成了54.6%的任務(wù),而GPT-4o完成了33.2%(2024-11-20)。這反映了GPT-4.1模型在探索代碼庫、完成任務(wù)以及生成既可運(yùn)行又可通過測試的代碼方面的能力提升。

對于希望編輯大型文件的API開發(fā)者來說,GPT-4.1在多種格式下的代碼差異方面更加可靠。Aider的多語言差異基準(zhǔn)測試中,GPT-4.1的成績是GPT-4o的兩倍多,并且甚至比GPT-4.5高出8個百分點(diǎn)。

GPT-4.1專門訓(xùn)練以更可靠地遵循diff格式,這使得開發(fā)者只需讓模型輸出更改的行,而不是重寫整個文件,從而節(jié)省成本和延遲。

對于喜歡重寫整個文件的開發(fā)者,GPT-4.1的輸出token限制提高到了32,768個(相比GPT-4o的16,384個tokens有所增加)。

GPT-4.1 在前端編碼方面也顯著優(yōu)于 GPT-4o,能夠創(chuàng)建功能更強(qiáng)大、外觀更美觀的網(wǎng)頁應(yīng)用。在對比測試中,評分人員80%的時間更喜歡 GPT-4.1生成的網(wǎng)站,而不是 GPT-4o生成的網(wǎng)站。

除了上述基準(zhǔn)測試之外,GPT-4.1 在更可靠地遵循格式方面表現(xiàn)更佳,并且更少進(jìn)行不必要的編輯。在OpenAI內(nèi)部評估中,代碼中的不必要的編輯從 GPT-4o 的 9% 降至 GPT-4.1 的 2%。

指令遵循

GPT-4.1 更可靠地遵循指令,我們在各種指令遵循評估中測量到了顯著的改進(jìn)。GPT-4.1在困難提示方面的表現(xiàn)相較于GPT-4o有了顯著提升。

多輪指令跟隨對于許多開發(fā)者來說至關(guān)重要——模型需要能夠在對話的深層保持連貫性,并跟蹤用戶之前告訴它的信息。OpenAI訓(xùn)練了GPT-4.1,使其能夠更好地從對話中的過去消息中提取信息,從而實(shí)現(xiàn)更自然的對話。

在Scale的MultiChallenge基準(zhǔn)測試中GPT?4.1雖然不及o1和GPT-4.5,但已經(jīng)可以追上o3-mini,并且比GPT?4o提升了10.5個百分點(diǎn)之多。

GPT-4.1在IFEval上的得分也為87.4%,而GPT-4o的得分為81.0%。IFEval使用帶有可驗(yàn)證指令的提示(例如,指定內(nèi)容長度或避免某些術(shù)語或格式)。

長文本

GPT-4.1、GPT-4.1 mini 和 GPT-4.1 nano 可以處理多達(dá) 100 萬個上下文標(biāo)記——比之前的 GPT-4o 模型多 128,000 個,非常適合處理大型代碼庫或大量長文檔。

OpenAI展示了GPT-4.1在上下文窗口內(nèi)不同位置檢索一條隱藏的少量信息(即一根 “針”)的能力,也就是“大海撈針”的能力。

OpenAI還發(fā)布了用于評估多跳長上下文推理的數(shù)據(jù)集Graphwalks。這是因?yàn)?,許多需要長上下文的開發(fā)者用例需要在上下文中進(jìn)行多個邏輯跳躍,例如在編寫代碼時在多個文件之間跳轉(zhuǎn),或者在回答復(fù)雜的法律問題時交叉引用文檔等。

Graphwalks需要模型跨上下文多個位置進(jìn)行推理,其使用由十六進(jìn)制散列組成的定向圖填充上下文窗口,然后要求模型從圖中的一個隨機(jī)節(jié)點(diǎn)開始進(jìn)行廣度優(yōu)先搜索(BFS),然后要求它返回一定深度的所有節(jié)點(diǎn)。

GPT-4.1在上下文長度達(dá)到128K個token時優(yōu)于GPT-4o。

免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請進(jìn)一步核實(shí),并對任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負(fù)任何法律責(zé)任。任何單位或個人認(rèn)為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實(shí)內(nèi)容時,應(yīng)及時向本網(wǎng)站提出書面權(quán)利通知或不實(shí)情況說明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。

2025-04-15
OpenAI發(fā)布GPT-4.1模型:最強(qiáng)編碼能力,僅提供API訪問,價格降了
據(jù)介紹,GPT?4.1系列模型在編碼能力、復(fù)雜指令遵循、長文本處理(首次支持高達(dá)一百萬 Token 上下文,且無額外費(fèi)用)以及多模態(tài)理解方面均實(shí)現(xiàn)了顯著提升,性能全面超越 GPT-4o,并在關(guān)鍵指標(biāo)上比肩甚至超越 GPT-4.5。

長按掃碼 閱讀全文