欧美三级电影完整|亚洲一二三四久久|性爱视频精品一区二区免费在线观看|国产精品啪啪视频|婷婷六月综合操人妻视频网站|99爱免费视频在线观看|美女一级片在线观看|北京熟女88av|免费看黄色A级电影|欧美黄色毛片儿

DeepSeek無需成為救世主

02-15 06:30

本文來自微信公眾號:未盡研究,作者:未盡研究,原文標題:《DeepSeek不必是救世主 | 以Agent為馬》



去年春節(jié)前夕,DeepSeek發(fā)布的R1模型震撼硅谷、牽動華爾街神經(jīng)。它為中國大模型廠商重新專注研發(fā)與訓練驗證了可行路徑,也開啟了中國開源模型陣營狂飆突進的一年。



春節(jié)已成為新一年AI領(lǐng)域的前哨戰(zhàn)。近期,Kimi、智譜、MiniMax與豆包等廠商,都趕在春節(jié)前發(fā)布了旗艦?zāi)P?。外界猜測,它們擔心若發(fā)布滯后,會在品牌形象與市場競爭中落于下風。



前沿模型“智能”水平排名





(根據(jù)ArtificialAnalysis,當前美國最強模型來自Anthropic,中國最強模型來自智譜)



如今,市場的目光聚焦于DeepSeek,期待它延續(xù)春節(jié)“英雄”的角色,甚至承擔起中國AI生態(tài)“救世主”的重任。DeepSeek該如何回應(yīng)這份期待?或者說,它必須回應(yīng)嗎?



DeepSeek確實在醞釀新動作。全新長文本模型結(jié)構(gòu)測試正在推進,支持最高100萬token上下文。這會是市場期待的DeepSeek-V4嗎?事實上,去年5月、8月、10月與12月,市場曾多次抱有類似期待,最終DeepSeek推出了DeepSeek-R1-0528、DeepSeek-V3.1、DeepSeek-V3.2-Exp與DeepSeek-V3.2。



在此期間,DeepSeek還嘗試了UE8M0 FP8、DSA、上下文光學壓縮、mHC與Engram等技術(shù)方向的探索,核心思路之一是“稀疏化”,讓“專家”“精度”“注意力”與“記憶”更具稀疏性。人們相信,即將到來的V4版本中,能看到這些改良技術(shù)的延續(xù)。



不過,市場的關(guān)注點已轉(zhuǎn)向智能體(AI Agent),更準確地說是智能體化(Agentic AI)。這一方向追求自主決策、長期任務(wù)規(guī)劃、智能體間交互及端到端執(zhí)行的新范式。Anthropic表示,AI已能完成90%的代碼編寫,下一步便是實現(xiàn)90%端到端的軟件工程(SWE)。火爆的OpenClaw讓人們意識到,在獲得足夠權(quán)限后,Agentic應(yīng)用的強大與潛在風險。



2026年的旗艦大模型,將以原生Agentic大模型為主。美國方面,Anthropic的Claude Opus 4.6與OpenAI的GPT-5.3-Codex相繼上線,尤其是OpenAI推出的1000token/秒的Codex-Spark,將編碼競爭推向白熱化。國內(nèi),月之暗面的Kimi-K2.5、智譜的GLM-5、稀宇科技的MiniMax-M2.5以及字節(jié)跳動的Doubao-Seed-2.0,都在宣傳自身的智能體能力。



其中,Kimi-K2.5引入智能體集群(Agent Swarm)技術(shù),提出并行智能體強化學習(PARL),實現(xiàn)更高準確率與更短用時;GLM-5在編程能力上與Claude Opus 4.5對齊,還提出異步智能體強化學習算法,使模型能從長程交互中持續(xù)學習,以極少人工干預自主完成Agentic長程規(guī)劃與執(zhí)行;MiniMax-M2.5號稱是首個無需考慮使用成本、可無限使用的前沿模型,“1萬美元可讓4個Agent連續(xù)工作一年”。



DeepSeek-V3.1早已宣告邁向Agent時代,但其將如何定義當下的Agentic時代?能否憑借推理效率、工具集成、記憶機制與極致經(jīng)濟性,在落地體驗中再次樹立新標桿?



或許,DeepSeek未必需要單獨的“R系列”。R象征推理與認知,對標OpenAI的o系列模型;而Agentic時代更強調(diào)執(zhí)行與工程,需對標OpenAI的Codex。DeepSeek原本就有Coder與Math系列模型,編碼與數(shù)理證明是通往AGI(通用人工智能)的“元能力”,二者共同構(gòu)成模型的自我改進系統(tǒng),加速遞歸式進化。



市場也期待DeepSeek繼續(xù)驗證國產(chǎn)算力生態(tài)協(xié)同的潛力。長期以來,其探索主線是在有限資源下通過架構(gòu)創(chuàng)新,最大化提升訓練與推理效率。去年年底,DeepSeek-V3.2采用新架構(gòu)DSA,在長上下文場景中實現(xiàn)端到端顯著加速;今年年初,Engram的條件記憶有望“成為下一代稀疏大模型中不可或缺的基礎(chǔ)建模范式”。



OpenAI的Codex-Spark證明響應(yīng)速度至關(guān)重要,是創(chuàng)造價值的關(guān)鍵。它運行在Cerebras晶圓級引擎上,而這正是國內(nèi)推理生態(tài)所缺乏的。DeepSeek能否用“算法”換“算力”,彌補硬件層面的差距?



而且,從算法入手精簡步驟,不僅能提升響應(yīng)速度(尤其是部分需高速精準響應(yīng)的場景),還能減輕上下文壓力。此前,中國開源模型常因“冗長思考”不受制約、token消耗過高而被詬病,這會逐漸削弱成本優(yōu)勢。DeepSeek曾提到,未來將聚焦提升模型推理鏈的智能密度,以改善效率。



比推理更重要的是訓練,預訓練仍是后訓練的起點。英偉達的Blackwell架構(gòu)正成為美國AI基礎(chǔ)設(shè)施中的訓練主力,谷歌的TPUv7也將在Gemini 4的訓練中發(fā)揮關(guān)鍵作用。即便H200能盡快在國內(nèi)部署,短期內(nèi)中國大模型訓練的算力來源仍處于Hopper時代。目前,國內(nèi)AI芯片廠商的性能宣傳主要圍繞Hopper架構(gòu),但在大規(guī)模集群場景下的穩(wěn)定性與綜合效率表現(xiàn),尚未有充分實踐數(shù)據(jù)支持。



DeepSeek在論文中承認,因訓練算力不足,DeepSeek-V3.2在世界知識覆蓋廣度上仍落后于領(lǐng)先的專有閉源模型。團隊計劃在后續(xù)迭代中擴大預訓練算力規(guī)模,彌補這一知識差距。毋庸置疑,DeepSeek-V4發(fā)布時,國產(chǎn)AI芯片會實現(xiàn)Day0深度全棧適配;但市場更期待其預訓練基于國產(chǎn)AI芯片,再次改寫市場對英偉達敘事的定價。



人們欣賞DeepSeek的精致研究,也期待原生多模態(tài)的DeepSeek-V4。Gemini 3已是原生支持文本、圖像、音頻和視頻輸入的大模型,Kimi-2.5也強調(diào)文本與視覺的聯(lián)合優(yōu)化。要繼續(xù)對標谷歌、OpenAI,DeepSeek似乎必須有所行動。



然而,技術(shù)創(chuàng)新必須基于可驗證的物理邊界,而非情緒邊界。芯片、能源、網(wǎng)絡(luò)及算法等整套生態(tài)決定了算力上限,而算力正限制中國開源模型進一步追趕的后勁,這在預訓練和后訓練中已有所體現(xiàn)。任何“算法樂觀主義”在特定時間內(nèi),都只能在這一邊界內(nèi)優(yōu)化。AGI更是一項系統(tǒng)工程,遠超單一大模型的參數(shù)規(guī)?;虬姹靖隆?/p>



DeepSeek的使命是探索AGI。僅做大模型(尤其是僅做語言大模型)無法實現(xiàn)AGI,其局限性日益明顯?,F(xiàn)在更接近現(xiàn)實的AGI形態(tài)是知行合一的,具備認知能力、執(zhí)行能力、長期約束、現(xiàn)實反饋閉環(huán)等。Claude大模型常被中國開源模型集體刷榜超越,但它的收入以每年十倍的速度增長,在編程這一通用功能領(lǐng)域的突破,為通往AGI開辟了新路徑。



或許,真正的長期主義期待是允許DeepSeek繼續(xù)深度探索,而非讓市場的所有焦慮與愿望在某一時刻集中投射到這一品牌上。公司創(chuàng)始人梁文鋒認為,創(chuàng)新是昂貴且低效的,有時伴隨浪費,需要盡可能少的干預和管理,讓每個人有自由發(fā)揮的空間和試錯機會。

本文僅代表作者觀點,版權(quán)歸原創(chuàng)者所有,如需轉(zhuǎn)載請在文中注明來源及作者名字。

免責聲明:本文系轉(zhuǎn)載編輯文章,僅作分享之用。如分享內(nèi)容、圖片侵犯到您的版權(quán)或非授權(quán)發(fā)布,請及時與我們聯(lián)系進行審核處理或刪除,您可以發(fā)送材料至郵箱:service@tojoy.com