LeCun點(diǎn)贊!國(guó)產(chǎn)開(kāi)源模型風(fēng)靡硅谷,性?xún)r(jià)比超10倍
哇,硅谷竟然被中國(guó)開(kāi)源模型“占領(lǐng)”了!
連Yann LeCun都點(diǎn)贊認(rèn)可:說(shuō)得沒(méi)錯(cuò)!

初代AI編程熱門(mén)工具Cursor和Devin,都被曝出號(hào)稱(chēng)自研的模型,實(shí)際是套殼中國(guó)開(kāi)源模型。

上個(gè)月,Cursor承認(rèn)旗下Composer 2套殼Kimi K2.5。
首個(gè)推出“AI自動(dòng)工程師”Devin的Cognition公司,其自研模型SWE-1.6疑似基于GLM模型進(jìn)行后訓(xùn)練。
類(lèi)似案例越來(lái)越多,中國(guó)開(kāi)源模型在硅谷的受歡迎度持續(xù)上升——
Shopify切換至Qwen后,每年節(jié)省500萬(wàn)美元;愛(ài)彼迎聯(lián)合創(chuàng)始人Brian Chesky也表示:Qwen好用、快速又便宜,比GPT還實(shí)用!
智譜最新發(fā)布的GLM-5.1,作為部分指標(biāo)超Opus 4.6的開(kāi)源模型,性?xún)r(jià)比在硅谷也極具競(jìng)爭(zhēng)力。
國(guó)產(chǎn)開(kāi)源模型席卷硅谷
國(guó)外模型選擇蒸餾中國(guó)開(kāi)源模型或在此基礎(chǔ)上后訓(xùn)練,這類(lèi)情況已屢見(jiàn)不鮮。
上個(gè)月,Cursor的自研模型Composer 2在基準(zhǔn)測(cè)試中反超Opus 4.6,價(jià)格卻大幅降低。

結(jié)果沒(méi)過(guò)幾天就被曝出實(shí)際套殼Kimi K2.5。
雖然事件以雙方和解告終,但仍令人感慨。
Cursor作為初代AI編程的熱門(mén)工具,這種做法確實(shí)不太妥當(dāng)!

此外,另一個(gè)熱門(mén)工具Cognition的自研模型SWE-1.6也被曝疑似基于GLM模型后訓(xùn)練。
而且這家公司早有類(lèi)似行為,前代SWE-1.5就開(kāi)始“偷梁換柱”。

去年,SWE-1.5就被曝出是在GLM-4.6基礎(chǔ)上后訓(xùn)練得到的。
當(dāng)時(shí)相關(guān)梗圖廣泛傳播:

Cursor和Cognition最初都集成Claude和GPT的能力,如今卻紛紛轉(zhuǎn)向中國(guó)開(kāi)源模型。
Cognition開(kāi)發(fā)者Shawn Wang曾坦言:
只要基礎(chǔ)模型足夠優(yōu)秀,其具體特性就不再重要,因?yàn)閺?qiáng)化學(xué)習(xí)和后訓(xùn)練才是關(guān)鍵,也是區(qū)分模型的核心。
不過(guò),初創(chuàng)企業(yè)不成體系,出現(xiàn)套殼還不承認(rèn),大家權(quán)當(dāng)笑話看看。
但連巨頭也這么做,背后或許有更深層原因。
去年12月,Meta的“牛油果”項(xiàng)目被曝出使用Qwen開(kāi)源模型進(jìn)行蒸餾訓(xùn)練。

此前,Meta旗下Llama模型長(zhǎng)期主導(dǎo)開(kāi)源領(lǐng)域,衍生模型數(shù)量和下載量均領(lǐng)先。
扎克伯格還曾公開(kāi)呼吁構(gòu)建以美國(guó)模型為核心的開(kāi)源生態(tài)。
但如今,面對(duì)Llama系列增長(zhǎng)乏力和東方模型的崛起,Meta做出了選擇。
經(jīng)過(guò)9個(gè)月研發(fā),Meta最新模型Muse Spark已發(fā)布,不過(guò)是閉源的。
另外,愛(ài)彼迎聯(lián)合創(chuàng)始人兼CEO Brian Chesky早就被Qwen的實(shí)力圈粉。
他曾公開(kāi)表示:
我們很大程度依賴(lài)阿里巴巴的Qwen模型。它非常出色,速度快且價(jià)格低。我們也會(huì)用OpenAI的最新模型,但實(shí)際生產(chǎn)中不會(huì)大量使用,因?yàn)橛懈臁⒏?jīng)濟(jì)的模型可選。

小八卦:Brian Chesky和奧特曼是摯友,但涉及自家產(chǎn)品整合時(shí),必須“親兄弟明算賬”…
Brian直言,OpenAI的連接工具“尚未完全準(zhǔn)備好”。
愛(ài)彼迎的選擇,只是中國(guó)大模型技術(shù)實(shí)力的一個(gè)縮影。
學(xué)術(shù)界方面,斯坦福大學(xué)李飛飛團(tuán)隊(duì)、艾倫人工智能研究所等頂尖機(jī)構(gòu)在研究中也采用基于Qwen的技術(shù)方案。
去年年初,李飛飛團(tuán)隊(duì)基于Qwen2.5-32B構(gòu)建了頂級(jí)推理模型s1-32B,成本不到50美元。
該模型的數(shù)學(xué)和編碼能力,與OpenAI的o1、DeepSeek的R1等尖端推理模型不相上下。
艾倫人工智能研究所也基于Qwen2-72B構(gòu)建了多模態(tài)系統(tǒng)。
Mira Murati創(chuàng)辦的獨(dú)角獸Thinking Machines Lab,也將Qwen作為默認(rèn)微調(diào)選項(xiàng)。
中國(guó)開(kāi)源模型在硅谷的走紅,由此可見(jiàn)一斑。

性?xún)r(jià)比成關(guān)鍵優(yōu)勢(shì)
硅谷為何如此青睞中國(guó)開(kāi)源模型?
當(dāng)然是因?yàn)?strong>性?xún)r(jià)比高。
Peter Yang算了一筆賬:在眾多基準(zhǔn)測(cè)試中,中美同等質(zhì)量模型的價(jià)格相差10-20倍。
以最新發(fā)布的幾款國(guó)產(chǎn)模型為例:
Kimi K2.5:每百萬(wàn)token輸入4元/輸出21元;
MiniMax M2.7:每百萬(wàn)token輸入2.1元/輸出8.4元;
GLM-5.1:每百萬(wàn)token輸入6元/輸出24元;
Qwen3.6-Plus:每百萬(wàn)token輸入2元/輸出12元。


這些模型在基準(zhǔn)測(cè)試中的表現(xiàn),接近甚至部分超過(guò)Opus 4.6、GPT-5.4等頂尖閉源模型。
而Opus 4.6的價(jià)格是每百萬(wàn)token輸入5美元/輸出25美元,GPT-5.4則是輸入2.5美元/輸出15美元。
性?xún)r(jià)比一目了然。
節(jié)省超10倍成本,還能獲得不錯(cuò)的模型表現(xiàn),這難道不香嗎?

而且開(kāi)源模型并非完全不如閉源模型。
早在Kimi推出K2時(shí),Vercel CEO Guillermo Rauch就提到:
在內(nèi)部智能體真實(shí)場(chǎng)景基準(zhǔn)測(cè)試中,Kimi K2的運(yùn)行速度和準(zhǔn)確率優(yōu)于GPT-5和Claude Sonnet 4.5,準(zhǔn)確率更是高出50%。
硅谷投資人Chamath也表示,Kimi K2性能強(qiáng)勁,且比OpenAI和Anthropic便宜得多。
自從艾倫人工智能研究所宣布削減開(kāi)源模型研發(fā)資金、轉(zhuǎn)向AI應(yīng)用后,美國(guó)開(kāi)源AI的旗幟真的倒了。

開(kāi)源模型,已進(jìn)入中國(guó)主導(dǎo)的時(shí)代。
參考鏈接:
[1]https://x.com/petergyang/status/2042248752157839793?s=20
[2]The All-You-Can-Use AI Subscription Won’t Last Forever
本文來(lái)自微信公眾號(hào)“量子位”,作者:關(guān)注前沿科技,36氪經(jīng)授權(quán)發(fā)布。
本文僅代表作者觀點(diǎn),版權(quán)歸原創(chuàng)者所有,如需轉(zhuǎn)載請(qǐng)?jiān)谖闹凶⒚鱽?lái)源及作者名字。
免責(zé)聲明:本文系轉(zhuǎn)載編輯文章,僅作分享之用。如分享內(nèi)容、圖片侵犯到您的版權(quán)或非授權(quán)發(fā)布,請(qǐng)及時(shí)與我們聯(lián)系進(jìn)行審核處理或刪除,您可以發(fā)送材料至郵箱:service@tojoy.com



