DeepSeek V4終于發(fā)布,打破最強閉源壟斷,明確攜手華為芯片
Agent能力比肩Opus 4.6,百萬上下文成標(biāo)配
剛剛,DeepSeek-V4來了!
預(yù)覽版正式上線并同步開源。
一共兩個版本:
DeepSeek-V4-Pro:對標(biāo)頂級閉源模型,1.6T,49B激活,上下文長度1M;
DeepSeek-V4-Flash:更小更快的經(jīng)濟版,284B,13B激活,上下文長度1M。

官方原話是:在Agent能力、世界知識和推理性能上均實現(xiàn)國內(nèi)與開源領(lǐng)域的領(lǐng)先。
并且:
目前DeepSeek-V4已經(jīng)成為公司內(nèi)部員工使用的Agentic Coding模型,據(jù)評測反饋使用體驗優(yōu)于Sonnet 4.5,交付質(zhì)量接近Opus 4.6非思考模式。但仍與Opus 4.6思考模型存在一定差距。

目前官網(wǎng)和APP都上了,API服務(wù)也已同步更新。
大家都關(guān)心的國產(chǎn)算力方面,劃重點,下半年支持華為算力。

頂配和性價比之選,兩個版本一起開
這次V4一口氣發(fā)了兩個版本。
V4-Pro,性能比肩頂級閉源模型。
官方給出的判斷有三條:
Agent能力大幅提高:在Agentic 能力Coding評測中,V4-Pro已達到當(dāng)前開源模型最佳水平,并在其他Agent相關(guān)評測中同樣表現(xiàn)優(yōu)異。內(nèi)部測評中,Agent Coding模式下,V4體驗優(yōu)于Sonnet 4.5,交付質(zhì)量接近 Opus 4.6非思考模式,但仍與 Opus 4.6思考模式存在一定差距。
豐富的世界知識:DeepSeek-V4-Pro在世界知識測評中,大幅領(lǐng)先其他開源模型,僅稍遜于頂尖閉源模型Gemini-Pro-3.1。
世界頂級推理性能:在數(shù)學(xué)、STEM、競賽型代碼的測評中,DeepSeek-V4-Pro超越當(dāng)前所有已公開評測的開源模型,取得了比肩世界頂級閉源模型的優(yōu)異成績。

V4-Flash,更小更快的經(jīng)濟版。推理能力接近Pro,世界知識儲備稍遜一籌,但參數(shù)和激活更小,API更便宜。
在Agent任務(wù)方面,DeepSeek-V4-Flash在簡單任務(wù)上與DeepSeek-V4-Pro旗鼓相當(dāng),但在高難度任務(wù)上仍有差距。
在洗車測試上,V4也是快速通過。

而在“絕望的父親”這個經(jīng)典的生物學(xué)場景當(dāng)中,DeepSeek-V4并沒有一輪get到紅綠色盲這個關(guān)鍵點(根據(jù)遺傳學(xué)規(guī)律,如果一名女性是紅綠色盲,其生物學(xué)父親必然也是)。

百萬上下文實現(xiàn)標(biāo)配
值得一提的是,從今天開始,1M上下文是DeepSeek所有官方服務(wù)的標(biāo)配。
一年前,1M上下文還是Gemini獨家的王牌;其他所有閉源模型要么128K要么200K;開源這邊幾乎沒人玩得起這個量級。
DeepSeek直接把百萬上下文從一個「高端功能」挪成了「水電煤」。
而且開源。他們怎么做到的,發(fā)布稿里直接給了答案——
V4開創(chuàng)了一種全新的注意力機制,在token維度進行壓縮,結(jié)合DSA稀疏注意力一起用。相比傳統(tǒng)方法,對計算和顯存的需求大幅降低。

DSA不是新詞。半年前V3.2-Exp那次更新首次引入,當(dāng)時外界關(guān)注度不高,因為跑分和V3.1-Terminus幾乎一樣,看起來像一次沒什么料的中間版本。
現(xiàn)在回頭看,那是V4的地基。
Agent能力專項優(yōu)化
Agent這邊,V4針對Claude Code、OpenClaw、OpenCode、CodeBuddy等主流Agent產(chǎn)品做了適配和優(yōu)化,代碼任務(wù)、文檔生成任務(wù)都有提升。
發(fā)布稿里還附了一張V4-Pro在某Agent框架下生成的PPT內(nèi)頁示例。

API價格
API這邊,V4-Pro和V4-Flash同步上線,支持OpenAI ChatCompletions接口和Anthropic接口兩套。
base_url 不變,model 參數(shù)改成 deepseek-v4-pro 或 deepseek-v4-flash 即可調(diào)用。
兩個版本最大上下文都是1M,都同時支持非思考模式和思考模式。思考模式下可以通過reasoning_effort 參數(shù)調(diào)強度,兩檔high和max。官方建議復(fù)雜 Agent 場景直接上max。

這里有個重點——下半年支持華為算力。
此外,舊模型名要下架。
deepseek-chat和deepseek-reasoner將在三個月后(2026年7月24日)停用,當(dāng)前階段內(nèi)這兩個名字分別指向V4-Flash的非思考和思考模式。
對個人開發(fā)者影響不大,改一個model參數(shù)。對接了生產(chǎn)環(huán)境的公司,這三個月要去做遷移。
One more thing
發(fā)布稿的結(jié)尾,DeepSeek 自己引了一句話。
「不誘于譽,不恐于誹,率道而行,端然正己。」
這是荀子《非十二子》里的一句。字面意思是,不被贊譽誘惑,不被誹謗嚇到,按自己認定的道往前走,端正自己。
放在今天這個場景里,有點意思。
過去半年,關(guān)于V4什么時候發(fā)、是不是跳票、是不是已經(jīng)被別家超越、是不是已經(jīng)被 Claude 蒸餾數(shù)據(jù)搞定了之類的傳言在中文和英文AI圈來來回 回跑了好幾輪。年初甚至還有人信誓旦旦說V4會在春節(jié)前發(fā),結(jié)果等到了四月底。
他們沒回應(yīng)過一次。
然后在某個周五的下午,把V4放出來,同步開源,同步上線官網(wǎng)和App,同步更新API,順便把內(nèi)部員工已經(jīng)棄用Claude的事實寫進發(fā)布稿。
沒有路線圖,沒有直播,沒有訪談。
率道而行這四個字,聽著像是一句口號。但如果你把過去半年 V3.2 那次「沒什么亮點」的 Exp 版本、DSA那套為V4鋪了半年的稀疏注意力、1M 上下文從王牌變成標(biāo)配的這條路徑放在一起看。
DeepSeek已經(jīng)做到了。
本文僅代表作者觀點,版權(quán)歸原創(chuàng)者所有,如需轉(zhuǎn)載請在文中注明來源及作者名字。
免責(zé)聲明:本文系轉(zhuǎn)載編輯文章,僅作分享之用。如分享內(nèi)容、圖片侵犯到您的版權(quán)或非授權(quán)發(fā)布,請及時與我們聯(lián)系進行審核處理或刪除,您可以發(fā)送材料至郵箱:service@tojoy.com



