IT之家 2 月 4 日消息,阿里巴巴千問宣布推出 Qwen3-Coder-Next,一款專為編碼代理與本地開發(fā)打造的開放權重的語言模型。
該模型基于 Qwen3-Next-80B-A3B-Base 構建,采用混合注意力與 MoE 的新架構;通過大規(guī)??蓤?zhí)行任務合成、環(huán)境交互與強化學習進行智能體訓練,在顯著降低推理成本的同時,獲得了強大的編程與智能體能力。
IT之家附官方詳細介紹如下:
擴展智能體訓練
Qwen3-Coder-Next 不依賴單純的參數(shù)擴展,而是聚焦于擴展智能體訓練信號。我們使用大規(guī)模的可驗證編程任務與可執(zhí)行環(huán)境進行訓練,使模型能夠直接從環(huán)境反饋中學習。訓練過程包括:
在以代碼與智能體為中心的數(shù)據(jù)上進行持續(xù)預訓練
在包含高質量智能體軌跡的數(shù)據(jù)上進行監(jiān)督微調(diào)
領域專精的專家訓練(如軟件工程、QA、Web / UX 等)
將專家能力蒸餾到單一、可部署的模型中
該配方強調(diào)長程推理、工具使用以及從執(zhí)行失敗中恢復,這些對現(xiàn)實世界中的編程智能體至關重要。
在編程智能體基準上的表現(xiàn)
面向智能體的基準結果
下圖匯總了在多個廣泛使用的編程智能體基準上的表現(xiàn),包括 SWE-Bench(Verified、Multilingual、Pro)、TerminalBench 2.0 和 Aider。

圖中表明:
使用 SWE-Agent 框架時,Qwen3-Coder-Next 在 SWE-Bench Verified 上達到 70% 以上。
在多語言設置以及更具挑戰(zhàn)的 SWE-Bench-Pro 基準上保持競爭力。
盡管激活參數(shù)規(guī)模很小,該模型在多項智能體評測上仍能匹敵或超過若干更大的開源模型。
效率與性能的權衡
下圖展示了 Qwen3-Coder-Next 如何在效率與性能之間取得更優(yōu)的帕累托權衡。

這一對比清晰體現(xiàn)了效率優(yōu)勢:
Qwen3-Coder-Next(3B 激活)的 SWE-Bench-Pro 表現(xiàn)可與激活參數(shù)量高 10 到 20 倍的模型相當。
盡管專有的全注意力模型在絕對性能上仍然領先,Qwen3-Coder-Next 在面向低成本智能體部署方面處于強勢的帕累托前沿。
總結與未來工作
Qwen3-Coder-Next 在編程智能體基準上展現(xiàn)出良好前景,在實用場景中具備不錯的速度與推理能力。盡管其表現(xiàn)可與部分更大的開源模型競爭,仍有很大改進空間。
展望未來,我們認為強大的智能體能力 —— 如自主使用工具、應對難題、管理復雜任務 —— 是更好編程智能體的關鍵。接下來我們計劃提升模型的推理與決策能力、支持更多任務,并根據(jù)使用反饋快速迭代更新。
開源地址
ModelScope:
https://www.modelscope.cn/collections/Qwen/Qwen3-Coder-Next
Hugging Face:
https://huggingface.co/collections/Qwen/qwen3-coder-next
廣告聲明:文內(nèi)含有的對外跳轉鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時間,結果僅供參考,IT之家所有文章均包含本聲明。