![]()
更少的 Token,更好的結果。
作者丨吳海明
編輯丨梁丙鑒 馬曉寧
用戶苦 Token 成本久矣。
“燒了幾千塊錢的 Token,Agent 還是沒把活干完”,這或許是第一批嘗鮮“養蝦”的弄潮兒們最不想面對、卻又最常遭遇的尷尬時刻。
當 Agent 越發全面地接管工作流,人們在交付效果的權衡中,開始更多地看到效率問題。有時候它們能自主完成需求分析、多輪修改,直接交付可用的文案或代碼,有時候卻在復雜任務的拆解中,迷失工具調用的方向。端到端的任務場景,往往會讓成本失控的問題更加凸顯。一覺醒來,Token賬單幾百美元,正事卻沒干多少。
不少開發者會將之歸咎于 Agent 的架構設計、工具鏈的完善程度,或是 Prompt 工程的深淺。但更根本的矛盾是,大模型本身的“執行力”,即高效完成任務的能力,可能遠未達到工業級可用標準。
這不僅指推理質量本身,一個常被忽視的維度是詞元效率(Token Efficiency)。
當傳統模型在多輪對話中不斷膨脹上下文窗口、消耗驚人 Token 時,螞蟻百靈最新發布的Ling-2.6-flash,卻在用一個簡單的主張撬動開發者的注意:更少Token,更快響應、更強執行。
一周前,代號為 Elephant Alpha 的匿名模型登陸 OpenRouter,這正是百靈模型 Ling-2.6-flash 的匿名測試版本。上線首日,Elephant Alpha 在沒有高調預熱的情況下,就迅速沖上 OpenRouter Trending 榜單第 2 位,日榜第 13 名,Token 使用量日增高達377%,prompt tokens 突破 6.11B。
開發者社區對這一路線的反應,已經很說明問題。
![]()
01
Token效率成新賽點
官方技術文檔介紹,Ling-2.6-flsah 是一款總參數量 104B、激活參數 7.4B 的 Instruct 模型,此前通過 Elephant Alpha 展示出的核心能力,主要來自三方面革新:
? 混合線性架構,釋放推理效率:通過引入混合線性架構,模型從底層優化計算效率,在 4 卡 H20 條件下推理速度最快可達到 340 tokens/s,Prefill 吞吐達到 Nemotron-3-Super 的 2.2 倍,以更高的“費效比”完成任務。
? Token 效率優化,提升智效比:在訓練過程中,研究團隊對Ling-2.6-flsah 的 Token 效率進行了針對性校準,力求以更精簡的輸出完成既定目標。在 Artificial Analysis 的完整評測中,Ling-2.6-flash僅消耗15M tokens,約為Nemotron-3-Super 等模型的1/10,以更高的“智效比”完成任務。
? 面向 Agent 場景進行定向增強:針對當前需求最旺盛的 Agent 應用,Ling-2.6-flash 在工具調用、多步規劃與任務執行能力上持續優化,在 BFCL-V4、TAU2-bench、SWE-bench Verified、Claw-Eval、PinchBench 等評測中,即使面對激活參數更大的模型,依然能夠取得相近甚至 SOTA 級別的表現。
![]()
API 定價方面,Ling-2.6-flash 輸入每百萬 tokens 定價 0.1 美元,輸出 0.3 美元,屬實屬于“白菜價”了。目前其 API 服務已正式向用戶開放,并提供了為期一周的免費試用。
單點極限能力的榜首,早已是你方唱罷我登場,Ling-2.6-flash 更值得關注之處在于,它在控制 Token 消耗的前提下,仍然維持住了自身在 Agent 性能之爭中的強大競爭力。多位海外評測者也指出,其輸出風格與產品體驗更接近“實用型而非單純強大”的定位,這與其宣稱的“追求極致智效比”形成了某種呼應。
作為第一款主打 Token 效率的模型,“高智效比”究竟是營銷話術,還是實打實的能力?我們第一時間上手了 Elephant Alpha,不追峰值能力,不刷榜單分數,而是將它放進真實任務場景中,實測結果說話。
02
實測:少即是多,Elephant Alpha實力幾何?
? 測試一:基準測試——詞元效率(Token Efficiency)基準
為確保客觀性,我們以 Qwen3.5-122B-A10B (Qwen3.5) 和 Nemotron-3-Super-120B-A12B (Nemotron-3-Super)作為基準參照,在同等測試條件下進行對比測試。
我們設計了三組測試任務:Token 效率基準、上下文窗口驗證和 Function Calling 與結構化輸出。
其中,Token 效率基準涵蓋代碼生成(4 道題)、Bug修復(4 道題)、文檔摘要(3 道題)、邏輯推理(5 道題)和結構化輸出(5 道題)五大場景,統計各模型的信息留存率與 Token 消耗。256K 的上下文窗口是 Elephant Alpha 的核心賣點之一。我們分別在 64K、128K、200K 三個長度下測試模型的信息召回能力。
Elephant Alpha 的表現如何呢?先看測試結果:
![]()
可以看到,Elephant Alpha 在評測人員收集的 4 個 Bug 修復任務上展現出顯著優勢,相對于 Qwen3.5 和 Nemotron-3-Super 成功修改通過 3 道的通過率,Elephant Alpha 修改后的代碼全部通過測試。
更高的信息留存率之下,輸出 Token 反而更少。Elephant Alpha 以 1,017 個 Token 完成了 Qwen3.5 和 Nemotron-3-Super 分別需要 1,539 和 1464 個 Token 才能達成的同等信息量任務,節省約 50%。在 AI 落地日益講究 ROI 的當下,這個數字頗有分量。
上下文窗口驗證方面,三者均實現了 100% 召回率。受限于測試環境,我們未能觸及 256K 上限,但 200K 級別的穩定表現已經證明了基礎能力的可靠性,足以勝任大部分任務場景。
最后,三者在 Function Calling 測試(純python環境)中均觸發工具調用,但都只完成了單步操作(搜索文件),未完成"讀文件→分析→寫入"的三步連貫操作。這一結果提示我們,當前的 Agent 能力邊界仍需在具體環境中進一步探索。
?測試二:Coding測試——工程能力的真實考驗
太多模型在基礎測試中表現亮眼,但一進入真實工程場景,立刻拉胯。因此我們決定給 Elephant Alpha 再上點強度。
我們使用開源的opencode工具,將 Elephant Alpha 放進了一個完整的項目開發流程中:創建一個具備 CRUD 能力的 RESTful API 服務,包含數據庫模型設計、路由配置、錯誤處理和單元測試。
這項測試考察的是模型的 Coding 工程能力,不僅僅是寫出片段式的代碼,更在于是能否理解需求、設計架構、處理邊界條件,并在出現問題時回溯修改。
Markdown
請實現一個可運行、可測試的 `Task` RESTful API 服務,要求包含:
- CRUD 接口:`POST /tasks`、`GET /tasks`、`GET /tasks/:id`、`PUT /tasks/:id`、`DELETE /tasks/:id`
- 數據模型字段:`id`、`title`、`description`、`status`、`priority`、`due_date`、`created_at`、`updated_at`
- 校驗與錯誤處理
- 單元測試
- 項目結構說明與運行說明
約束:
- `title` 必填且不能為空
- `status` 僅允許 `pending` / `in_progress` / `done`
- `priority` 僅允許 `low` / `medium` / `high`
- 不存在資源返回 `404`
- 非法輸入返回結構化 JSON 錯誤
- 必須先做需求分析和架構規劃,再編碼
- 如果測試失敗或實現有問題,必須自行修復并說明原因
請輸出完整項目,而不是零散代碼片段。
先規劃模塊,然后逐步開發,最后測試。
展示你的工程化開發、測試與回溯修復能力。
先規劃,再“各個擊破”。Elephant Alpha 理解了“先規劃后編碼”的要求,在正式實現前先進行了需求拆解和模塊設計,從數據模型、路由配置、校驗器、控制器到測試框架,形成了清晰的MVC 架構。這說明它不是一上來就堆代碼,這種工程化思維,已經成為了模型能在生產級任務中真正落地的門票。
![]()
遇到bug,堅決改正。模塊測試過程中遇到了一些“插曲”,代碼出現了 Python 版本兼容性問題(async 語法、PEP 604 聯合類型寫法等),而 Elephant Alpha 從報錯信息中快速定位問題根源,并自主完成了代碼修正,無需人工介入。
這種“遇到問題→自我修正”的閉環,在傳統開發中往往意味著額外的 Token 消耗,Elephant Alpha 也不能免俗。但它的革新之處在于,更高的 Token 效率意味著它能在更緊湊的上下文中完成修正。對每一個環節的成本都如此砍下一刀,日積月累,不可小覷。
![]()
測試結束,不忘收個尾。Elephant Alpha 最終交付了一個包含11 個測試用例的完整項目,全部通過。它甚至還生成了清晰的項目結構說明和運行指南——從requirements.txt依賴管理到uvicorn啟動命令,從安裝到測試運行,一條龍完整交付。
對于工程師來說,這種“有始有終”的完成度已經達到了拿來即用的標準。
![]()
Elephant Alpha 在 Coding 場景下展現了三大優勢:先規劃后編碼的工程思維、自主修正的回溯能力,以及最重要的,用更少Token完成同等任務的效率優勢。對于需要將 AI 融入開發流程的團隊而言,這三個特質缺一不可。
03
Token效率重塑AI評價坐標系
如果說過去的大模型競爭,是一場“誰的參數量更大、誰的 Benchmark 分數更高”的軍備競賽,那么 Elephant Alpha 的出現,則是為這場競賽開辟了一個新的維度,“同樣強悍的智能,但我比你更省”。
無法忽視的事實是,在 Agent 逐步靠近真實場景的今天,用戶的 Token 賬單也越發承壓。保守估計,一次代碼補全任務可能消耗幾十 Token,一次多輪對話會燒掉數百,一個 Agent 任務跑下來,這個數字可能就飆升到了數千。當Token成為硬通貨,高效就不再是錦上添花,而是核心競爭力。
值得一提的是,在英偉達 Nemotron 3 Super 的一份報告中,還特意強調了以螞蟻此前開源的 Ling-flash-Base-2.0 和智譜的 GLM-4.5-Air-Base 做基準。
由此可見,“智效比”正在成為模型 Agent 場景的通用語言。此后人們不再問“一次生成質量有多高”,而是“每 Token 消耗能換來多少有效產出”。在這個坐標系下,能用 600 Token 說清楚的事,就不該浪費 800。
![]()
這場效率革命的影響,很快就會在產業鏈上下游爆發。
對開發者而言,更高的 Token 效率意味著更普惠的智能,它包括更低的調用成本、更快的響應速度、以及在生產環境中真正可接受的 ROI。當 AI 落地不再需要“燒錢換體驗”,應用的滲透速度將以指數級增長。
而在用戶側,這場效率革命也指向了一種更可靠的 Agent。更少的 Token 消耗,將直接轉化為更緊湊的上下文窗口、更低的幻覺風險、以及更穩定的多輪執行能力。只有當模型能在有限上下文中完成更多任務,“上下文膨脹”這個 Agent 落地最大的痛點,才真正有解。
在規模之外,當效率同樣成為了模型價值的衡量維度,發生在模型層的爭奪將真正邁上下一個臺階。
未經「AI科技評論」授權,嚴禁以任何方式在網頁、論壇、社區進行轉載!
公眾號轉載請先在「AI科技評論」后臺留言取得授權,轉載時需標注來源并插入本公眾號名片。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.