斯坦福MIT團隊打造高性價比AI工具:1美元即可體驗多模態(tài)生產(chǎn)力
近日,Agnes旗下核心模型矩陣正式登陸Zenmux平臺(https://zenmux.ai/models?sort=newest),一次性開放四款主力模型調用權限,覆蓋文本Agent與多模態(tài)生成兩大核心領域。
其中包含Claw系列的Agnes-1.5-Lite與Agnes-1.5-Pro,以及多模態(tài)方向的Agnes-Image-1.2與Agnes-Video-V1.2,直接將「文本+圖像+視頻」的全套能力打包上線。
更值得關注的是,上線首周模型調用量便快速增長,已超越多家頭部模型公司同類產(chǎn)品的表現(xiàn),展現(xiàn)出強勁的市場接受度與開發(fā)者活躍度,成為近期開發(fā)者側增長最為迅猛的模型組合之一。

Agnes模型矩陣在Zenmux正式上線
在行業(yè)普遍進入「性能+成本」雙重競爭階段的背景下,Agnes通過高性價比模型與完整工具鏈的組合,正迅速打開開發(fā)者生態(tài)入口。
AgnesClaw
低至1美元的「養(yǎng)蝦」入門工具
在OpenClaw熱度持續(xù)上升之際,Agnes將「Claw」接入自家App,實現(xiàn)AgnesClaw一鍵部署。
用戶通過訂閱會員(部分地區(qū)Starter新用戶最低可低至1美元/月)即可免費部署并使用AgnesClaw,同時解鎖平臺全部高級功能,性價比極高。
AgnesClaw的入口前置到首頁,用戶一鍵部署完成后,在對話框中切換至AgnesClaw模式,即可體驗「養(yǎng)龍蝦」,整體學習成本極低。
AgnesClaw目前支持與Telegram綁定,后續(xù)將接入更多平臺,提供定時任務、長期記憶和skills庫,包括Agnes預置的常用skills(如PPT生成、表格處理、圖像/視頻生成、AI搜索、深度研究等)和開源skills。
部分AI應用由于底層模型能力的限制,可能存在無法安裝或流暢運行特定skill組件的問題。
而Agnes官方表示,AgnesClaw憑借自研的「龍蝦」基座模型與強大的工具調用適配能力,幾乎可以無縫安裝并使用絕大多數(shù)熱門skills。
用戶可以利用它創(chuàng)建定時任務、處理文件并整理為結構化文檔、實現(xiàn)辦公自動化等。
同時,AgnesClaw具備自我進化能力,通過上下文理解和記憶能力,在使用過程中能更好地理解用戶習慣,從而更有效地協(xié)助完成任務。

一鍵部署AgnesClaw
AgnesClaw的最大亮點在于自研的「龍蝦」基座模型,這是賦予Agnes版本「龍蝦」更強理解力和skill適配能力的核心。
Agnes為用戶提供高性價比的「養(yǎng)龍蝦」服務,專門推出了兩款不同參數(shù)規(guī)模、基于LLM優(yōu)化的Agent模型,分別是Agnes-1.5-Pro模型和Agnes-1.5-Lite模型。

PinchBench榜單中Agnes-1.5系列模型在準確性維度表現(xiàn)突出
AgnesClaw定位「下一代極速多模態(tài)混合專家模型」,架構上融合了隱式MoE(Latent MoE)、Mamba-2狀態(tài)空間模型與原生多模態(tài)早融合技術,旨在同時解決超長上下文、高頻工具調用、復雜Multi-Agent協(xié)作三大痛點,打破傳統(tǒng)「規(guī)模-延遲-記憶」三元悖論。
根據(jù)全球權威「養(yǎng)蝦」AI評測榜單PinchBench,Agnes-1.5-Pro模型在準確性維度表現(xiàn)突出,已躋身榜單前列,成為開發(fā)者「最佳養(yǎng)蝦模型」選擇之一。


PinchBench榜單
Agnes-Image-1.2
開源第一,閉源第二
本次發(fā)布中,Agnes 20B全新圖像編輯模型Agnes-Image-1.2的表現(xiàn)超出預期。
根據(jù)官方公布的測試數(shù)據(jù),該模型綜合評分達到4.25分(滿分5分),在閉源模型中僅次于NanoBananaPro的4.48分,超越了Seedream4.0和Seedream4.5,在開源模型中排名第一。

全新圖像模型綜合評分達到4.25分(滿分5分)
在單項指標上,Agnes-Image-1.2模型在人像維度提升尤為顯著,針對人像場景的定向微調有效增強了面部細節(jié)保真、局部編輯可控性以及與背景的自然融合能力,Portrait從3.98提升至4.30(+0.32)。
同時,Extract(2.47→3.05,+0.58)與Viewpoint(2.82→3.17,+0.35)也有進一步提升,表明模型在目標區(qū)域分離與結構/幾何穩(wěn)定性方面更可靠,有助于復雜編輯任務的一致性表現(xiàn)。
完整模型家族
覆蓋多模態(tài)全鏈路
除了Agnes-1.5-Pro與Agnes-1.5-Lite兩款模型和Agnes-Image-1.2圖像編輯模型,Agnes這次還亮出了更加完整的模型矩陣,包括搜索與研究模型、AI Slides模型、圖片與視頻生成模型。
在圖片和視頻生成領域,Agnes構建了完整模型體系,包括圖像和視頻模型。除了之前介紹的Agnes-Image-1.2(20B)模型,Agnes另外還有一款19B的Agnes-Video-V1.2視頻生成模型。
據(jù)了解,Agnes-Video-V1.2可實現(xiàn)原生音畫同步生成,支持圖生視頻和特定風格/角色的生成,可適配多種業(yè)務場景。
該模型采用雙流音視頻Transformer架構,能在同一模型中同時生成音頻與視頻,從而實現(xiàn)人物口型、動作與聲音天然同步。模型經(jīng)測試可在有限顯存環(huán)境下運行,方便企業(yè)級規(guī)?;渴鸷蛡€人開發(fā)者的本地實驗。
在語言模型方面,Agnes針對主推的東南亞市場,推出了8B參數(shù)的東南亞小語種模型Agnes-SeaLLM,目前已成為該地區(qū)小語種理解與生成任務的SOTA模型。

東南亞小語種模型Agnes-SeaLLM
在信息處理和研究能力方面,Agnes發(fā)布了Agnes-Search(30B)模型和面向復雜研究任務的Agnes-DeepResearch(30B)模型。
前者在內部測試中實現(xiàn)78.6%的推理成本下降,生成速度提升18.6%;后者測試引用準確率為100%,基準測試準確率平均提升14.3%。
在辦公自動化場景中,Agnes-Slides(30B)模型可以將網(wǎng)頁或文檔內容自動生成為PPT,通常1分鐘即可生成15—20頁演示文稿,平均生成成本低至約每頁幾美分。
模型后訓練為主
RLAF框架減少人工依賴
在底層訓練范式上,Agnes采用一整套連續(xù)演進的技術路徑:從CPT(continuous pre-training,持續(xù)預訓練)到PT(post-training,后訓練),再到以自建RL(reinforcement learning)為核心的強化階段,使模型能力可以持續(xù)迭代,而非一次性收斂。
更關鍵的是,他們把「進化」從模型層擴展到了Agent層。
在AgnesClaw體系中,Agent不僅調用skills,還可以在任務執(zhí)行過程中通過反饋不斷優(yōu)化自身策略,實現(xiàn)智能體與skills的協(xié)同自進化。
這意味著,系統(tǒng)能力不再完全依賴預訓練,而是在真實使用中持續(xù)變強。
支撐這套體系的是一支高度國際化的研究團隊——成員來自斯坦福、伯克利、MIT、NUS、NTU,以及清華、浙大、南大、東大等頂尖高校,核心科研帶頭人包括來自微軟亞研院、英特爾研究院的首席科學家,以及高校教授與圖靈獎得主門下研究者。
他們提出了一套名為RLAF(Reinforcement Learning with Agentic Feedback)的帶智能反饋的強化學習新框架,以減少對人工標注的依賴。該框架包含兩個自研核心組件:
DSPO(Dynamic-filter Sequence-level Policy Optimization):動態(tài)過濾序列級策略優(yōu)化算法。
官方數(shù)據(jù)顯示,在同規(guī)模模型對比中,相比DeepSeek Search-R1 (GRPO,7B)實現(xiàn)34.1%的性能提升。
UV(Universal Verifier):通用驗證器,用智能評估器替換人工標注數(shù)據(jù)和人工定義的獎勵機制。
在RLAF框架中,多個AI Agent會對模型輸出進行自動評估,從邏輯一致性、事實準確性和任務完成度等多個維度生成反饋信號。
這種「AI訓練AI」的方式,可以減少大量人工標注,從而降低訓練成本并提升效率。
隨著AI行業(yè)進入新一輪競爭階段,成本效率正逐漸成為商業(yè)化成敗的關鍵因素。而此次登陸Zenmux(https://zenmux.ai/models?sort=newest),某種程度上也是Agnes的一個關鍵分水嶺——
模型不再只是「榜單表現(xiàn)」,而是直接進入開發(fā)者真實調用與對比的第一線。
從上線一周的調用表現(xiàn)來看,這套Claw+多模態(tài)組合已經(jīng)開始改變一部分開發(fā)者的選擇。
當越來越多模型走向平臺化分發(fā),真正能留下來的,或許不只是更強的參數(shù)規(guī)模,而是誰更便宜、誰更好用、誰更能被快速接入真實世界。
Agnes顯然正在朝著這個方向推進。
本文來自微信公眾號“新智元”,作者:新智元,36氪經(jīng)授權發(fā)布。
本文僅代表作者觀點,版權歸原創(chuàng)者所有,如需轉載請在文中注明來源及作者名字。
免責聲明:本文系轉載編輯文章,僅作分享之用。如分享內容、圖片侵犯到您的版權或非授權發(fā)布,請及時與我們聯(lián)系進行審核處理或刪除,您可以發(fā)送材料至郵箱:service@tojoy.com


