大家好,我是袋鼠帝。
我發(fā)現(xiàn)智譜今年下半年是真滴猛。
從7月份那個超強的10B視覺小模型GLM-4.1V-Thinking,再到后來的GLM-4.5V,以及10月編程、Agent領(lǐng)域的GLM-4.6,每一款都打在了我的心巴上。
本來以為到了年底,大家都在忙著做年終總結(jié),沒什么新東西了。
沒想到,智譜反手又卷起來了..
![]()
剛剛,智譜開源了他們最強的視覺模型:GLM-4.6V
讓我興奮的是,這次一口氣開源了兩個尺寸:一個是106B的GLM-4.6V,另一個是9B的GLM-4.6V-Flash(消費級顯卡就能本地部署)。
在同參數(shù)量級下,多模態(tài)交互、邏輯推理、長上下文能力都取得了SOTA(State Of The Art,目前最強)。
太卷了,貌似現(xiàn)在不是SOTA都不好意思發(fā)布..
![]()
GLM-4.6V支持128k上下文窗口,可以一次性處理約150頁PDF、200頁PPT、近一小時的關(guān)鍵幀序列。
不僅支持多模態(tài)輸入,還可以多模態(tài)輸出(圖文并茂)
除了視覺能力強,還有工具調(diào)用能力,在z.ai集成了四種工具
![]()
一圖勝千言(來自朋友:@甲木,真好用)
![]()
體驗下來,我的感覺是:如果你想在本地玩視覺模型,這就是目前的版本答案。
9B的GLM-4.6V-Flash,意味著你不需要那種動輒幾十萬的專業(yè)GPU,哪怕是你家里的游戲本,或者是公司配的消費級顯卡,都能隨便跑起來。
整體表現(xiàn)超過Qwen3-VL-8B
這對于很多注重數(shù)據(jù)隱私,或者需要在邊緣設(shè)備上部署AI的企業(yè)來說,還是比較香的。
我前段時間去杭州給一家國企做培訓(xùn),參觀了他們的生產(chǎn)車間。在那兒,我看到了一個特別接地氣的AI落地場景:
他們在產(chǎn)品流水線的末端,裝了個攝像頭和傳感器。
每當包裝好的紙箱傳送過來,攝像頭就會咔嚓拍一張,然后傳給旁邊的一臺普通電腦。電腦里跑著一個視覺模型,專門負責檢查這個紙箱有沒有破損,膠帶封沒封好。
大概是下面這種場景(網(wǎng)圖)
![]()
當時他們用的是阿里的一個小模型。我問了效果,負責人表示,雖然能用,但誤判率還是不低。一些好好的箱子,也被AI判成了破損,導(dǎo)致工人還得去復(fù)核,挺折騰的。
現(xiàn)在就可以換成GLM-4.6V-Flash試試。同參數(shù)量下的SOTA,意味著在同樣的硬件條件下,它的性能會更好,準確度也會提升。
106B的GLM-4.6V,說大不大,說小也不小。它不像DeepSeek R1那種671B的巨無霸,除了大廠,沒幾個企業(yè)能私有化部署得起。106B,屬于那種努努力,夠一夠,還是能玩得起的。
如果你對性能有要求,又必須把數(shù)據(jù)掌握在自己手里,那這個106B的版本,是一個現(xiàn)階段完美的平衡點。
上次我在成都遇到OneOneTalk的彭總,他就在用一臺2萬多的華碩本,本地跑了一個120B的開源模型:gpt?oss?120b
就是下面這臺性能猛獸
![]()
當然,如果你不在乎數(shù)據(jù)上云,直接調(diào)智譜的API,速度和體驗會更好。
目前GLM-4.6V可以在z.ai上使用,也能以MCP的形式接入Agent使用(做本地Agent的眼睛)
還能接入Claude Code當作基模使用。
比如我接入Claude Code之后,讓它執(zhí)行了復(fù)雜的多平臺價格對比,條件篩選商品的任務(wù)。
完成得很好:
GLM-4.6V開源地址匯總,方便大家直達:
GitHub:
https://github.com/zai-org/GLM-V
Hugging Face:
https://huggingface.co/collections/zai-org/glm-46v
魔搭社區(qū):
https://modelscope.cn/collections/GLM-46V-37fabc27818446
我也第一時間在z.ai上,測試了GLM-4.6V:
之前一直有個難題,就是在那種大合照里,識別出某個人的位置。我試過很多模型,甚至包括Gemini 3,效果都不咋地。
![]()
我明明在第一排,從左往右數(shù)的第三個。
我同樣把上次昆明Trae活動的大合照,加上一張我的自拍照,一起扔給了GLM-4.6V。
![]()
結(jié)果,GLM-4.6V居然準確的找到了我!這還讓我蠻驚訝的。
這對于以后做智能相冊管理,或者安防監(jiān)控領(lǐng)域來說,太有用了。
z.ai里面還有一個Image Research功能,對我來說挺實用的。
我寫公眾號的時候,經(jīng)常需要找各種配圖、或者封面圖。以前我都是去Google各種搜圖,有時候搜出來的圖很多都不是我想要的。
這次我讓它幫我搜幾張關(guān)于GEO(Generative Engine Optimization)生成式引擎優(yōu)化的圖片。
![]()
它搜出來的圖,非常精準,質(zhì)量高。
其中一張,正好就是我上一篇GEO的文章用到的封面圖。
以后我的封面圖工作流又要升級了(增加一個環(huán)節(jié))。
用NanoBanana Pro生成創(chuàng)意圖的同時,用GLM-4.6V搜圖,最后我只負責選。
說到搜圖,這次的GLM-4.6V還能直接產(chǎn)出圖文并茂的文章
這得益于它的工具調(diào)用能力
比如我讓它生成北京旅游的推文
解讀GEO的PDF論文(論文PDF中的圖片也會被它插入到正確的位置)
![]()
上次不是寫了一篇飛書多維表格的教程嘛,在評論區(qū)看到,還是有一些朋友不清楚怎么調(diào)用的NanoBanana Pro API
我給大家演示一下, 你只需要把不懂的部分截圖,丟給GLM-4.6V,它就能幫你把散落在5張圖的API請求,按照想要的形式組裝起來了。
![]()
![]()
然后我還把一直貼著我車頭停車(可能只差0.5cm就碰到了)的紅車丟給了它..
![]()
![]()
有高手能評論區(qū)教一下怎么才能停成這樣嗎??我每次離別人車還有30cm就不敢繼續(xù)靠近了..
除了黑車品牌沒有猜對,其他都對了,挺強的。
上次車停在車位被剮蹭了,去調(diào)監(jiān)控,花了幾個小時終于把逃逸者找到了..
我把最后的維修單丟給GLM-4.6V識別
![]()
![]()
經(jīng)過我的逐字檢查,準確率非常高,大概是99.9%
它還能識別影帝的情緒~
渣渣輝封神片段:你知道我這五年怎么過的嗎?
![]()
劇情、情緒的變化都識別的相當nice。而且非常細節(jié),角色濕潤的眼眶都識別到了。
除了在z.ai使用,GLM-4.6V還可以接入Claude Code
也可以把GLM-4.6V通過MCP的方式,接入Claude Code。
接入Claude Code,可以參考官方文檔:
https://docs.bigmodel.cn/cn/guide/develop/claude
或者直接修改Claude的settings.json配置文件:
}配置好之后,重啟Claude,你就擁有了一個有手有眼的本地Agent啦~
既然有手有眼了,那就讓它干點實事兒。
我給這個本地Agent布置了一個較復(fù)雜的任務(wù):使用playwright MCP,通過瀏覽器查找,進行產(chǎn)品的全網(wǎng)比價,提示詞如下:
Prompt:全程使用playwright MCP工具。先在淘寶上找一款半入耳式藍牙耳機,價格在500-1000元之間。找到銷量第一的那款。然后,拿著這款耳機的型號,去唯品會和京東比價,找到最便宜的那個平臺,并把它加到我的購物車里。這個任務(wù),涉及到了多平臺的網(wǎng)頁瀏覽、視覺識別(看價格、看型號)、邏輯判斷(比大小)和操作執(zhí)行,對于現(xiàn)階段的所有視覺大模型來說,都是一個挑戰(zhàn)。
GLM-4.6V負責看網(wǎng)頁信息,Claude Code負責任務(wù)的調(diào)度。兩者配合,居然真的把這個復(fù)雜的流程給跑通了。
美中不足的是漏掉了篩選價格區(qū)間的操作,但其余的任務(wù)幾乎完美實現(xiàn)。
在淘寶找銷量第一的半入耳式藍牙耳機,以及跟唯品會、京東同款耳機比價,最后把價格最劃算的商品都加入了購物車
![]()
![]()
我覺得雖然GLM-4.6V可以寫代碼,但是它的代碼能力還是會比GLM-4.6差一些
所以我決定讓它在Claude Code里面做GLM-4.6的眼睛
也就是作為MCP-Server使用
claude mcp add -s user zai-mcp-server --env Z_AI_API_KEY=你的智譜apikey -- npx -y "@z_ai/mcp-server"在settings.json里面把模型換回glm-4.6即可
既然有了眼睛,那復(fù)刻網(wǎng)頁就不用我費勁去描述了。
Prompt:使用zai-mcp-server分析當前目錄下的視頻,分析視頻中的網(wǎng)站的頁面、交互、動效,然后1:1復(fù)刻視頻中的網(wǎng)站原網(wǎng)站效果
復(fù)刻后的效果
GLM-4.6V負責識別視頻,GLM-4.6負責生成高質(zhì)量的前端代碼。
網(wǎng)頁復(fù)刻得還不錯,至少這個卡片飛來飛去的效果有了,整體交互和動效都有原視頻的影子。要想一次性百分百還原是很難的,畢竟原視頻的動效太棒了。
GLM-4.6V雖然在極致的視覺能力上,它可能還略遜于Gemini 3這種頂級模型。但別忘了,它只有106B。
對于想要私有化部署的企業(yè)來說,這是一個夠一夠就能得著的高性價比選項。
而對于個人開發(fā)者,9B的Flash版本夠我們在本地免費使用了。
不過,我心里也有個小疑問:為什么智譜不直接把視覺能力融合進GLM-4.6里,要分拆成兩個模型呢?有沒有懂的朋友在評論區(qū)給我科普一下?
我猜可能是為了更靈活的部署和更低的推理成本?
順便說一下,行業(yè)+AI,才能真正釋放AI的生產(chǎn)力。
懂業(yè)務(wù)的朋友,真的建議多學(xué)學(xué)怎么用好這些AI模型。
當你能把業(yè)務(wù)痛點和模型能力對接上的那一刻,效率的提升,絕對是指數(shù)級的。
補充:GLM-4.6和GLM-4.6V都在Coding Plan的使用范圍內(nèi)
能看到這里的都是鳳毛麟角的存在!
如果覺得不錯,隨手點個贊、在看、轉(zhuǎn)發(fā)三連吧~
如果想第一時間收到推送,也可以給我個星標?
謝謝你耐心看完我的文章~
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.