谷歌最強(qiáng)開源大模型Gemma 4,支持多模態(tài)、離線運(yùn)行
2026年4月2日凌晨,谷歌DeepMind CEO Demis Hassabis在X上發(fā)了四顆鉆石emoji,幾個(gè)小時(shí)后,謎底揭曉——Gemma 4全系列正式發(fā)布。
這次不是常規(guī)更新,而是開源大模型格局的徹底重寫。31B Dense版本直接沖到Arena AI排行榜全球第三,用不到十分之一的參數(shù)量就能跟400億參數(shù)的巨無(wú)霸掰手腕。更關(guān)鍵的是,谷歌這次徹底放下姿態(tài),全系列采用Apache 2.0開源協(xié)議,沒有任何商業(yè)限制。
![]()
Gemma 4 是谷歌推出的一款 開源本地大模型,主要用于支持多模態(tài)數(shù)據(jù)處理和離線運(yùn)行。該模型在人工智能領(lǐng)域具有重要的突破,尤其是在處理多種數(shù)據(jù)形式(如文本、圖像、視頻和語(yǔ)音)時(shí)的能力。它能夠提供一種本地運(yùn)行的解決方案,無(wú)需依賴持續(xù)的網(wǎng)絡(luò)連接,適用于各種智能化應(yīng)用場(chǎng)景。
一、四款模型,覆蓋全場(chǎng)景
Gemma 4不是單一模型,而是一個(gè)完整的模型家族,從2B到31B全場(chǎng)景覆蓋:
- E2B(2.3B有效參數(shù))
:專為手機(jī)、樹莓派等端側(cè)設(shè)備設(shè)計(jì),內(nèi)存占用可壓至1.5GB以下,完全離線運(yùn)行
- E4B(4.5B有效參數(shù))
:端側(cè)旗艦,支持多模態(tài)輸入,AIME 2026數(shù)學(xué)測(cè)試達(dá)42.5%
- 26B MoE
:混合專家架構(gòu),總參數(shù)260億,推理時(shí)僅激活38億參數(shù),速度接近4B模型
- 31B Dense
:旗艦版本,Arena AI排名全球第三,單張H100即可運(yùn)行
![]()
二、小模型打出大牌面
Gemma 4最讓人震驚的,不是它有多大,而是它有多小卻能打多強(qiáng)。
在Arena AI開源排行榜上,31B Dense沖到全球第三,Elo評(píng)分1452。排在前面的GLM-5和Kimi K2.5,參數(shù)量分別是它的20倍和30倍。谷歌把這叫做"每參數(shù)智能"——用更少的參數(shù),達(dá)到更高的性能。
數(shù)學(xué)推理方面,AIME 2026成績(jī)從上一代的21.2%躍升至89.2%,提升幅度高達(dá)68個(gè)百分點(diǎn)。這一成績(jī)已經(jīng)接近甚至超越部分閉源商業(yè)模型。
![]()
三、Apache 2.0協(xié)議
如果說(shuō)性能是驚喜,那許可證的變化才是真正的重磅炸彈。
此前Gemma前三代產(chǎn)品用的都是谷歌自定義的開源協(xié)議,不僅有諸多商用限制,谷歌還能單方面修改規(guī)則。這次,Gemma 4全系列采用Apache 2.0許可證,意味著:
? 可自由用于商業(yè)用途
? 可修改、分發(fā)、二次開發(fā)
? 專利授權(quán)明確,降低法律風(fēng)險(xiǎn)
? 與現(xiàn)有開源生態(tài)無(wú)縫兼容
Hugging Face聯(lián)合創(chuàng)始人Clément Delangue評(píng)價(jià):"這是開源AI領(lǐng)域的一個(gè)重大里程碑。"
四、核心技術(shù)亮點(diǎn) 1. 多模態(tài)能力
Gemma 4全系支持圖像和視頻輸入,E2B和E4B還額外支持原生音頻輸入,內(nèi)置約3億參數(shù)的音頻編碼器。這意味著開發(fā)者可以用Gemma 4構(gòu)建真正的多模態(tài)AI應(yīng)用。
2. Agent原生支持
Gemma 4原生支持函數(shù)調(diào)用(Function Calling)和結(jié)構(gòu)化JSON輸出,內(nèi)置System Prompt支持,可作為Agent的核心大腦,自主規(guī)劃多步驟任務(wù)、調(diào)用外部工具。
3. 思考模式
所有Gemma 4模型均支持可開關(guān)的思考模式(Thinking Mode)。開啟后,模型會(huì)先輸出內(nèi)部推理過(guò)程,再給出最終答案,適合復(fù)雜問(wèn)題求解。
4. 超長(zhǎng)上下文
31B和26B版本支持256K的超長(zhǎng)上下文窗口,在同參數(shù)級(jí)別開源模型中屬于頂級(jí)配置,可處理長(zhǎng)文檔、代碼庫(kù)分析等復(fù)雜任務(wù)。
五、部署教程 方式一:Ollama(最簡(jiǎn)單)
安裝ollama,進(jìn)入 https://ollama.com/ 先下載ollama。
1# 安裝Ollama(官網(wǎng)下載)
2# 運(yùn)行不同版本:
3
4ollama run gemma4
5
6
7ollama run gemma4:e2b # 2B端側(cè)版
8ollama run gemma4:e4b # 4B端側(cè)版
9ollama run gemma4:26b # 26B MoE版
10ollama run gemma4:31b # 31B旗艦版
方式二:llama.cpp
1# macOS安裝
2brew install llama.cpp --HEAD
3
4# 運(yùn)行
5llama-server -hf ggml-org/gemma-4-26B-A4B-it-GGUF:Q4_K_M
方式三:Mac用戶(MLX)
1# 安裝
2uv pip install-U mlx-vlm
3
4# 運(yùn)行(帶TurboQuant優(yōu)化)
5uv run mlx_vlm.generate --model google/gemma-4-31b-it --kv-bits 3.5
硬件要求參考- E2B/E4B
:8GB內(nèi)存即可,手機(jī)、樹莓派都能跑
- 26B MoE
:推薦16GB+顯存,消費(fèi)級(jí)GPU工作站
- 31B Dense
:推薦24GB+顯存,單張H100或RTX 4090
Gemma 4標(biāo)志著谷歌在開源AI領(lǐng)域的戰(zhàn)略轉(zhuǎn)向:從"提供替代品"到"爭(zhēng)奪基礎(chǔ)設(shè)施層"。Apache 2.0許可證、原生Agent支持、多模態(tài)覆蓋的組合,使其成為2026年最值得關(guān)注的開源模型發(fā)布之一。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.