日本“最強AI”翻車:底層架構(gòu)實為DeepSeek,網(wǎng)友集體失望
本文源自微信公眾號APPSO,作者聚焦明日產(chǎn)品探索,原標(biāo)題為《日本“最強AI”塌房!代碼暴露源自DeepSeek,日本網(wǎng)友炸鍋》
近期,日本X平臺因樂天集團(Rakuten)的一則發(fā)布炸開了鍋。這家科技公司在日本經(jīng)濟產(chǎn)業(yè)?。∕ETI)GENIAC項目(日本AI政府資助計劃)的支持下,高調(diào)推出號稱“日本最大、性能最強”的7000億參數(shù)大模型Rakuten AI 3.0。
然而發(fā)布后不久,開源社區(qū)便發(fā)現(xiàn),該模型的底層架構(gòu)實際來自中國的DeepSeek-V3,樂天僅對其進行了日文數(shù)據(jù)的微調(diào)。
在知名AI開源平臺Hugging Face上,Rakuten AI 3.0的配置文件明確標(biāo)注架構(gòu)源自DeepSeek V3。

但在Rakuten AI 3.0的發(fā)布新聞稿中,卻未提及任何關(guān)于DeepSeek的信息,僅含糊表示“融合了開源社區(qū)的精華”,讓不少網(wǎng)友誤以為這是日本自主研發(fā)的成果。
更關(guān)鍵的是,樂天為掩蓋這一事實,在開源時悄悄刪除了DeepSeek的MIT開源協(xié)議文件。直到被社區(qū)實錘后,才以“NOTICE”文件名重新補充。

在Hugging Face上可查看項目文件的提交歷史,顯示相關(guān)修改記錄。
日本網(wǎng)友紛紛表示無法接受:拿著日本政府補貼,竟只是微調(diào)了中國的DeepSeek;還有人吐槽,用DeepSeek就算了,偷偷摸摸的行為實在丟人。
自欺欺人的“日本最強”
單看樂天發(fā)布的公關(guān)稿,這款模型確實可視為日本在大語言模型領(lǐng)域的一次重要發(fā)布。
它是一款約7000億參數(shù)的混合專家(MoE)模型,經(jīng)開源社區(qū)確認(rèn),總參數(shù)671B、激活參數(shù)37B,與DeepSeek V3一致。樂天首席AI官Ting Cai稱其為“數(shù)據(jù)、工程與創(chuàng)新架構(gòu)在規(guī)模上的出色結(jié)合”。
Ting Cai的名字聽起來不像日本人,有日本網(wǎng)友在評論區(qū)指出,使用DeepSeek已很過分,更過分的是主導(dǎo)該模型的負責(zé)人是移民強硬派。
經(jīng)了解,Ting Cai曾在美國谷歌、蘋果公司任職,在微軟工作超15年,本科就讀于美國石溪大學(xué)計算機科學(xué)專業(yè)。他在采訪中提到,18歲首次出國去的就是日本,確實持移民強硬立場。
關(guān)于Rakuten AI 3.0的表現(xiàn),官方公布的基準(zhǔn)測試顯示,它在日語文化知識、歷史、研究生水平推理、競技數(shù)學(xué)及指令遵循等維度得分優(yōu)異,大有領(lǐng)先日本本土大模型之勢。

不過,其對比對象包括已下架的GPT 4o、僅1200億參數(shù)的GPT OSS,以及日本新興AI企業(yè)ABEJA基于千問開發(fā)的ABEJA QwQ 32b模型。
7000億參數(shù)對陣最多1200億參數(shù),Rakuten AI 3.0自然優(yōu)勢明顯。同時,作為經(jīng)產(chǎn)省GENIAC項目的重點扶持對象,樂天獲得了大量算力資源支持。
GENIAC項目的初衷是構(gòu)建日本本土生成式AI生態(tài),緩解對海外巨頭技術(shù)的依賴焦慮。
憑借日本最大參數(shù)規(guī)模和“國家隊”背景,Rakuten AI 3.0一亮相就被寄予“本土希望”的厚望。
核心仍是DeepSeek
但這份光環(huán)褪去得比預(yù)期更快。
7000億參數(shù)、MoE架構(gòu)的組合,在開源大模型領(lǐng)域指向性極強。開源社區(qū)開發(fā)者查看Hugging Face上的代碼配置文件后,發(fā)現(xiàn)直接標(biāo)注了DeepSeek V3。
從底層邏輯看,這就是“中國架構(gòu)+日本微調(diào)”:DeepSeek提供了經(jīng)全球驗證的高效底層架構(gòu)與推理能力,樂天則利用本土優(yōu)勢,通過高質(zhì)量日文語料微調(diào),使其更貼合日本文化。
客觀而言,基于開源模型進行本土化微調(diào)在技術(shù)圈十分常見且合理。比如作為對比的ABEJA QwQ 32b模型,直接沿用Qwen的代號。

日經(jīng)新聞報道稱,日本公司開發(fā)的前十大模型中,有6個基于DeepSeek或Qwen二次開發(fā)。
若樂天此次坦誠使用DeepSeek底座,最多只是一次缺乏新意的“套殼”發(fā)布,或許還能借DeepSeek的熱度。
但他們選擇了隱瞞。
此前提及美團瀏覽器使用開源項目時曾介紹,DeepSeek采用的MIT協(xié)議是開源界“最寬松”的協(xié)議之一。
它允許用戶免費商用、修改甚至閉源盈利,唯一要求是保留原作者的版權(quán)與許可聲明。

Rakuten模型發(fā)布新聞稿|https://global.rakuten.com/corp/news/press/2026/0317_01.html
然而樂天不僅在發(fā)布博客中對DeepSeek只字不提,還在代碼庫中刪除了該協(xié)議文件,高調(diào)宣稱采用Apache 2.0協(xié)議開源。
盡管Apache 2.0同樣對商業(yè)友好,但更正式,常被大廠用于構(gòu)建開源生態(tài)和專利護城河。

不同開源協(xié)議對比:MIT協(xié)議比Apache協(xié)議更寬松簡短;Apache 2.0在賦予自由的同時,明確包含專利授權(quán)保護和更嚴(yán)謹(jǐn)?shù)呢?zé)任免除條款,適合大型、需規(guī)避法律風(fēng)險的商業(yè)項目|圖片來自互聯(lián)網(wǎng)
樂天的算盤很清晰:抹去DeepSeek的名字,套上自己的Apache 2.0協(xié)議,包裝成“開源7000億參數(shù)大模型”的日本AI救世主。
此前喊了一年多的歐洲版、美國版DeepSeek均未落地。
樂天也想做日本版DeepSeek,但在算力與訓(xùn)練成本的壓力下,以及全球大模型快速發(fā)展的背景下,既想利用中國技術(shù)的高性價比,又放不下“本土巨頭”的身段,顯然難以兩全。
不如一起期待DeepSeek V4的到來。
本文僅代表作者觀點,版權(quán)歸原創(chuàng)者所有,如需轉(zhuǎn)載請在文中注明來源及作者名字。
免責(zé)聲明:本文系轉(zhuǎn)載編輯文章,僅作分享之用。如分享內(nèi)容、圖片侵犯到您的版權(quán)或非授權(quán)發(fā)布,請及時與我們聯(lián)系進行審核處理或刪除,您可以發(fā)送材料至郵箱:service@tojoy.com



