智東西(公眾號:zhidxcom)
作者 | 李水青
編輯 | 心緣

智東西2月4日報道,今日凌晨,阿里開源了一款小型混合專家模型Qwen3-Coder-Next,專為編程智能體(Agent)本地開發(fā)打造。

該模型總參數80B,激活參數僅3B,在權威基準SWE-Bench Verified上實現了超70%的問題解決率,性能媲美激活參數規(guī)模大10-20倍的稠密模型。

Qwen3-Coder-Next的主要增強功能如下:

1、高效MoE架構:僅需激活3B參數,可達到與激活參數數量高出10-20倍的模型相當的性能,包括37B激活參數的DeepSeek-V3.2、32B激活參數的Kimi K2.5等,降低顯存與算力需求。

2、更強智能體能力:擅長長段推理、復雜工具使用以及從執(zhí)行失敗中恢復,在動態(tài)編程任務中性能強大。

3、與真實世界的IDE多樣化集成:其256k的上下文長度,加上對各種腳手架模板的適應性,使其能夠與OpenClaw、Qwen Code、Claude Code、Web Dev、Browser use、Cline等不同的CLI/IDE平臺無縫集成,支持多樣化的開發(fā)環(huán)境。

Qwen3-Coder-Next在實際開發(fā)中能理解需求、編寫代碼,還能與環(huán)境交互、完成任務,可以在沒有人工干預的情況下生成可玩的網頁游戲,部署服務并自動測試。

阿里在編程智能體上進展不斷。就在昨日,阿里云CTO周靖人、阿里千問大模型技術負責人林俊旸署名的論文在Arxiv平臺上發(fā)表,為推進下一代編程Agent的發(fā)展提供了新資源和可靠方法。

簡單來說,他們提出了一個可擴展的高效框架SWE-Universe,用于從GitHub拉取請求自動構建真實世界的軟件工程(SWE)可驗證環(huán)境。利用一個構建Agent,團隊將真實世界的多語言SWE環(huán)境的數量擴展到接近百萬級(807693 個)。最后,團隊將該技術應用于Qwen3-Max-Thinking,并在SWE-Bench Verified測試中取得了75.3%的高分。

阿里深夜開源80B編程模型!專攻智能體,周靖人、林俊旸最新成果發(fā)布

▲論文截圖

論文地址:

https://www.arxiv.org/abs/2602.02361

回到本次面向產業(yè)推出的新模型來看,團隊已正式開源Qwen3-Coder-Next(Base)與Qwen3-Coder-Next(Instruct)兩個版本,支持研究、評測及商業(yè)應用多種場景。

Qwen3-Coder-Next一經發(fā)布引起了廣泛關注,有網友在社交平臺X上稱這一模型“尺寸完美”,也有網友表示自己等便攜版的Qwen3-Coder已經很久了。

阿里深夜開源80B編程模型!專攻智能體,周靖人、林俊旸最新成果發(fā)布

▲社交平臺X網友對Qwen3-Coder-Next模型的部分評論

魔搭社區(qū)地址:
https://www.modelscope.cn/collections/Qwen/Qwen3-Coder-Next
Hugging Face地址:
https://huggingface.co/collections/Qwen/qwen3-coder-next
GitHub地址:
https://github.com/QwenLM/Qwen3-Coder
技術報告地址:
https://qwen.ai/blog?id=qwen3-coder-next

一、實測媲美10-20倍激活參數稠密模型,趕超DeepSeek

盡管激活參數規(guī)模很小,Qwen3-Coder-Next在多項智能體評測上仍能匹敵或超過若干更大的開源模型。

該模型在SWE-Bench、TerminalBench 2.0和Aider等多個主流編程智能體基準上的表現如下。

阿里深夜開源80B編程模型!專攻智能體,周靖人、林俊旸最新成果發(fā)布

▲Qwen3-Coder-Next實測表現

使用SWE-Agent框架時,Qwen3-Coder-Next在SWE-Bench Verified上達到70%以上,超過了DeepSeek-V3.2,接近GLM-4.7、MiniMax M2.1。

在多語言設置以及更具挑戰(zhàn)的SWE-Bench-Pro基準上,Qwen3-Coder-Next同樣超過了DeepSeek-V3.2,還較大幅度領先于GLM-4.7、MiniMax M2.1。

在效率方面,Qwen3-Coder-Next與同類模型在SWE-Bench-Pro基準上進行對比分析,每次推理僅激活3B參數,卻能達到與激活參數量達其10-20倍的模型相當的基準性能,包括37B激活參數的DeepSeek-V3.2、32B激活參數的GLM-4.7、32B激活參數的Kimi K2.5等。

雖然專有的全注意力模型在絕對性能上仍保持領先優(yōu)勢,但Qwen3-Coder-Next在面向低成本智能體部署的應用場景中,仍能在效率與性能之間取得更優(yōu)的帕累托權衡。

阿里深夜開源80B編程模型!專攻智能體,周靖人、林俊旸最新成果發(fā)布

▲Qwen3-Coder-Next實測表現

二、創(chuàng)新智能體訓練配方:強化智能體訓練的信號

Qwen3-Coder-Next模型基于Qwen3-Next-80B-A3B-Base構建,采用混合注意力與MoE的新架構;通過大規(guī)??蓤?zhí)行任務合成、環(huán)境交互與強化學習進行智能體訓練,在降低推理成本的同時,提升編程與智能體能力。

Qwen3-Coder-Next并不只依賴參數規(guī)模擴張,而是將重點放在擴展智能體訓練信號(agentic training signals)上。團隊使用大規(guī)模的可驗證編程任務與可執(zhí)行環(huán)境進行訓練,讓模型能夠直接從環(huán)境反饋中學習,而非僅依賴靜態(tài)文本。

訓練過程主要包括:

1、持續(xù)預訓練:在以代碼與智能體為中心的大規(guī)模數據上進行。

2、監(jiān)督微調:基于高質量的智能體交互軌跡,優(yōu)化模型的行為。

3、領域專家訓練:針對軟件工程、問答、Web/UX 等特定領域,精細化專家能力。

4、專家知識蒸餾:最終將27個專家的能力融合至一個輕量的、可部署的單一模型。

這套“配方”的核心目標,是教會模型長時程推理、熟練使用工具,以及從執(zhí)行錯誤中有效恢復——這些正是實用編程智能體所需的核心能力。

三、多樣化集成下游應用,游戲生成測試無需人工干預

Qwen3-Coder-Next的價值還體現在于其低部署門檻與應用體驗。

得益于僅3B的激活參數,開發(fā)者可靈活將其集成至多種場景:作為本地IDE插件,實現自動修復與代碼生成;構建命令行智能體(CLI Agent),通過自然語言操作終端、管理項目;部署于企業(yè)內網環(huán)境,打造私有化、高響應的編程輔助系統。“小激活、快響應、強能力”為編程智能體的規(guī)?;涞靥峁┝烁呖尚行缘穆窂?。

該模型可集成到多種下游應用中,覆蓋OpenClaw、Qwen Code、Claude Code、Web Dev、Browser use、Cline等多種開發(fā)環(huán)境。

結語:研發(fā)落地雙投入,阿里加碼編程智能體

編程智能體正成為阿里通義千問團隊的強攻領域。Qwen3-Coder-Next在編程智能體基準上表現強勁,展現了技術在實用場景中的應用價值。而周靖人、林俊旸署名的新論文則代表了其編程智能體新的前沿進展,形成了研發(fā)和落地兩條路快步走的趨勢。

展望未來,團隊認為強大的智能體能力,如自主使用工具、應對難題、管理復雜任務,是更好編程智能體的關鍵。接下來團隊計劃提升模型的推理與決策能力、支持更多任務,并根據使用反饋快速迭代更新。