<ruby id="9ue20"></ruby>

  1. 
    

      国产午夜福利免费入口,国产日韩综合av在线,精品久久人人妻人人做精品,蜜臀av一区二区三区精品,亚洲欧美中文日韩在线v日本,人妻av中文字幕无码专区 ,亚洲精品国产av一区二区,久久精品国产清自在天天线
      網(wǎng)易首頁 > 網(wǎng)易號 > 正文 申請入駐

      ollama v0.22.0 發(fā)布:新增 NVIDIA Nemotron 3 Omni 與 Poolside Laguna 模型支持,推理能力再升級!

      0
      分享至




      引言

      2026年4月29日,Ollama 團(tuán)隊正式發(fā)布了 v0.22.0 版本。本次更新是一次意義重大的版本迭代,不僅引入了兩個重量級的新模型——NVIDIA 的 Nemotron 3 Omni 和 Poolside 的首個開源編碼模型 Laguna XS.2,還在推理控制、模型轉(zhuǎn)換、量化策略、MLX 后端性能、內(nèi)置解析器等多個核心模塊進(jìn)行了深度優(yōu)化。

      本文將基于 v0.22.0 的完整變更日志,為您詳細(xì)解讀本次更新的每一個技術(shù)細(xì)節(jié),幫助開發(fā)者全面理解新版本的能力邊界和使用方法。

      一、新模型支持:兩大重量級模型登場 1.1 NVIDIA Nemotron 3 Omni

      v0.22.0 引入了對 NVIDIA Nemotron 3 Omni 系列模型的原生支持。這是一個多模態(tài)模型家族,在代碼中對應(yīng)的架構(gòu)標(biāo)識為nemotron_h_omni。該模型支持:

      • ?文本生成:基于 Nemotron-H 架構(gòu)的 LLM 核心

      • ?視覺理解:集成了 Vision Transformer(ViT)模塊,支持圖像輸入

      • ?音頻處理:集成了 Parakeet 音頻編碼器,支持語音輸入

      在轉(zhuǎn)換器(converter)層面,新增了convert/convert_nemotron_h.goconvert/convert_nemotron_h_test.go兩個文件(共約 700 行代碼),專門處理 Nemotron 系列模型的權(quán)重映射和參數(shù)轉(zhuǎn)換。

      關(guān)鍵配置參數(shù)包括:

      • ?max_sequence_length: 131072(128K 上下文)

      • ?vision.image_size: 512

      • ?vision.patch_size: 16

      • ?audio.sample_rate: 16000

      1.2 Poolside Laguna XS.2

      Poolside 的首個開源權(quán)重編碼模型 Laguna XS.2 也獲得了完整支持。這是一個專注于代碼生成和軟件工程任務(wù)的模型,架構(gòu)標(biāo)識為LagunaForCausalLM

      新增的模型支持文件包括:

      • ?model/models/laguna/model.go(約 440 行):Laguna 模型的 MLX 實現(xiàn)

      • ?convert/convert_laguna.go(約 600 行):GGUF 轉(zhuǎn)換邏輯

      • ?model/parsers/laguna.go(約 500 行):專用的輸出解析器

      • ?model/renderers/laguna.go(約 110 行):模板渲染器

      Laguna 模型采用了混合專家(MoE)架構(gòu),支持動態(tài)稀疏層的推理優(yōu)化。其配置包括:

      • ? 逐層可變的注意力頭數(shù)(head_count 為數(shù)組而非固定值)

      • ? 滑動窗口注意力(sliding window)模式

      • ? 旋轉(zhuǎn)位置編碼(RoPE)支持全維度和 SWA 兩套參數(shù)

      二、推理控制增強:新增 "max" 思考級別 2.1 API 層面的變更

      api/types.go中,ThinkValue類型現(xiàn)在支持一個全新的字符串值"max"。這意味著思考級別從原來的high/medium/low三個檔位擴展為四個:

      // ThinkValue represents a value that can be a boolean or a string ("high", "medium", "low", "max")
      type ThinkValue struct {
      Value interface{}
      }

      驗證邏輯已同步更新:

      case string:
      return v == "high" || v == "medium" || v == "low" || v == "max"
      2.2 OpenAI 兼容接口映射

      openai/openai.go中,OpenAI 風(fēng)格的reasoning_effort參數(shù)現(xiàn)在也支持"max"值:

      if !slices.Contains([]string{"high", "medium", "low", "max", "none"}, effort) {
      return nil, fmt.Errorf("invalid reasoning value: '%s' (must be \"high\", \"medium\", \"low\", \"max\", or \"none\")", effort)
      }

      當(dāng)reasoning_effort"none"時,思考功能被禁用;其他字符串值(包括"max")則按原樣傳遞。

      Responses API 也同步支持了max

      case "low", "medium", "high", "max":
      think = &api.ThinkValue{Value: effort}
      2.3 CLI 命令行支持

      cmd/cmd.go中的--think參數(shù)現(xiàn)在接受max作為合法值:

      case "high", "medium", "low", "max":
      opts.Think = &api.ThinkValue{Value: thinkStr}
      三、MLX 后端重大改進(jìn) 3.1 采樣器歷史記錄優(yōu)化

      mlxrunner: track sampler history in a fixed-size ring buffer

      采樣器現(xiàn)在使用固定大小的環(huán)形緩沖區(qū)來追蹤 token 歷史,而不是無限增長的切片。這顯著降低了長時間運行時的內(nèi)存占用。

      3.2 批量采樣優(yōu)化

      mlxrunner: batch the sampler across multiple sequences

      采樣器現(xiàn)在支持批量處理多個序列,將多個獨立生成請求的采樣操作合并為一次矩陣運算。這在處理并行請求時能大幅提升吞吐量。

      3.3 采樣器核心重構(gòu)

      x/mlxrunner/sample/sample.go進(jìn)行了大規(guī)模重構(gòu)(+415/-122 行),主要改進(jìn)包括:

      • ?多槽位(multi-slot)支持:采樣器現(xiàn)在可以管理多個獨立的生成會話,每個槽位有自己的歷史記錄和采樣參數(shù)

      • ?批量 Logprob 計算:當(dāng)多個槽位同時請求 logprobs 時,一次性完成 softmax 和 log 計算

      • ?TopK/TopP 采樣優(yōu)化:使用 MLX 原生的 argpartition 操作,避免顯式的完整排序

      新增的Add(slot int, opts Options, history []int32)方法用于注冊采樣槽位,Sample(slots []int, logits *mlx.Array)方法支持批量采樣。

      3.4 新增 Softplus 激活函數(shù)

      x/mlxrunner/mlx/act.go新增了SoftplusF32函數(shù):

      var SoftplusF32 = Compile1(
      "SoftplusF32",
      func(x *Array) *Array {
      dt := x.DType()
      zero := FromValue[float32](0)
      return Logaddexp(x.AsType(DTypeFloat32), zero).AsType(dt)
      },
      Shapeless(),
      )

      這個函數(shù)以 float32 精度計算 softplus,然后轉(zhuǎn)換回原始數(shù)據(jù)類型,用于 Laguna 模型的注意力門控機制。

      3.5 TensorRT Model Optimizer 導(dǎo)入支持

      mlx: Support NVIDIA TensorRT Model Optimizer import

      MLX 后端現(xiàn)在可以直接導(dǎo)入由 NVIDIA TensorRT Model Optimizer 導(dǎo)出的 FP8 量化模型。導(dǎo)入器會自動識別并處理F8_E4M3類型的張量及其配套的 scale 張量。

      四、Tokenizer 多正則表達(dá)式偏移處理修復(fù)

      tokenizer: fix multi-regex BPE offset handling

      這是一個重要的 bug 修復(fù)。在tokenizer/bytepairencoding.go中,原來的多正則表達(dá)式匹配邏輯在處理重疊匹配時存在偏移量計算錯誤:

      修復(fù)前:

      if offset-m.Index != 0 {
      if !yield(string(r[:m.Index])) {

      修復(fù)后:

      if offset-m.Index != 0 {
      if !yield(string(r[offset:m.Index])) {

      這個修復(fù)確保在使用多個正則表達(dá)式進(jìn)行 BPE 預(yù)分詞時,每個匹配片段都是從正確的偏移位置開始提取的,避免了 token 邊界錯位的問題。

      配套的測試用例TestBytePairEncodingSplitMultipleRegexpsPreservesOffsets驗證了修復(fù)的正確性。

      五、FP8 張量支持全面增強 5.1 Safetensors FP8 讀取

      convert/reader_safetensors.go大幅更新(+416/-13 行),新增了對 FP8 格式的完整支持:

      • ? 支持F8_E4M3F8_E5M2數(shù)據(jù)類型

      • ? 自動查找配套的 scale 張量(支持*_scale_inv*_scale兩種命名)

      • ? 讀取模型配置中的compression_config.weight.block_structure獲取分塊大小

      • ? 將 FP8 張量轉(zhuǎn)換為 BF16/FP32 進(jìn)行后續(xù)處理

      5.2 GGUF 輸出標(biāo)記

      convert/tensor.go中,新增了sourceTensorKV函數(shù),用于在輸出的 GGUF 文件中標(biāo)記哪些張量來自 FP8 源:

      func sourceTensorKV(ts []*ggml.Tensor) KV {
      // ...
      return KV{
      "source_quantization": "hf_fp8",
      "source_fp8_tensors": slices.Sorted(maps.Keys(sourceFP8)),
      }
      }

      這些元數(shù)據(jù)在后續(xù)的量化過程中會被讀取,用于決定哪些張量應(yīng)該被量化、哪些應(yīng)該保持原始精度。

      5.3 量化策略適配

      server/quantization.go新增了sourceFP8Tensors跟蹤:

      type quantizeState struct {
      // ...
      preserveSourceFP8ToQ8 bool
      preserveSourceQ4 bool
      sourceFP8Tensors map[string]struct{}
      }

      當(dāng)用戶請求Q8_0量化時,只有來自 FP8 源的張量會被量化,其他 BF16 張量保持原樣。當(dāng)用戶請求Q4_K_MQ4_K_S時,非 FP8 源張量被提升到Q8_0以保護(hù)精度。

      六、Nemotron-3-Nano 解析器增強

      model/parsers/nemotron3nano.go進(jìn)行了多項改進(jìn):

      6.1 前導(dǎo)空格處理

      新增skipThinkingLeadingWS標(biāo)志,用于跳過思考內(nèi)容開頭的空白字符。當(dāng)解析器處于Nemotron3NanoCollectingThinking狀態(tài)時,會 trim 掉 buffer 中的所有前導(dǎo)空格。

      6.2 開標(biāo)簽邊界情況修復(fù)

      新增stripOpeningThinkTag()方法,處理 標(biāo)簽跨 chunk 傳輸?shù)膱鼍啊.?dāng) buffer 中的內(nèi)容與 標(biāo)簽有部分重疊時,解析器會等待完整標(biāo)簽到達(dá)后再進(jìn)行處理。

      測試用例TestNemotron3NanoParser_Streaming/leading_open_think_tag_split_across_chunks驗證了此場景。

      6.3 空思考塊處理

      現(xiàn)在解析器能夠正確處理 這樣的空思考塊,直接跳過而不產(chǎn)生空內(nèi)容。

      七、渲染器改進(jìn) 7.1 Nemotron-3-Nano 渲染器

      model/renderers/nemotron3nano.go進(jìn)行了大規(guī)模重構(gòu)(+263/-34 行),主要變更包括:

      • ?工具調(diào)用格式修正:函數(shù)調(diào)用輸出格式調(diào)整為 XML 風(fēng)格,與模型的訓(xùn)練數(shù)據(jù)對齊

      • ?思考標(biāo)簽處理:歷史消息中的 thinking 內(nèi)容被正確包裹在 標(biāo)簽中

      • ?截斷策略:對于歷史中較早的 assistant 消息,只保留工具調(diào)用結(jié)果而裁剪思考內(nèi)容,節(jié)省上下文空間

      7.2 Laguna 渲染器

      新增的LagunaRenderer實現(xiàn)了 Laguna 模型的對話模板:

      • ? 使用〈|EOS|〉作為 BOS 標(biāo)記

      • ? 系統(tǒng)消息中包含思考模式指令

      • ? 工具調(diào)用格式為 + + 的結(jié)構(gòu)

      • ? 用戶消息包裹在 標(biāo)簽中

      • ? 助手消息包裹在 標(biāo)簽中

      7.3 Renderer/Detect 自動匹配

      server/create.go中,模型創(chuàng)建時會根據(jù)架構(gòu)自動設(shè)置默認(rèn)的渲染器和解析器:

      case "laguna":
      config.Renderer = cmp.Or(config.Renderer, "laguna")
      config.Parser = cmp.Or(config.Parser, "laguna")
      case "nemotron_h", "nemotron_h_moe", "nemotron_h_omni":
      config.Renderer = cmp.Or(config.Renderer, "nemotron-3-nano")
      config.Parser = cmp.Or(config.Parser, "nemotron-3-nano")
      八、Poolside 集成 8.1 新的 launch 集成

      cmd/launch/poolside.go新增了對 Poolside CLI 工具的支持。用戶可以通過以下命令使用:

      ollama launch pool
      ollama launch pool --model kimi-k2.6:cloud
      ollama launch pool -- --help
      8.2 環(huán)境變量自動配置

      集成會自動設(shè)置以下環(huán)境變量:

      • ?POOLSIDE_STANDALONE_BASE_URL: 指向 Ollama 的 OpenAI 兼容端點

      • ?POOLSIDE_API_KEY: 設(shè)置為ollama

      8.3 Windows 平臺保護(hù)

      由于 Poolside 目前不兼容 Windows,在 Windows 系統(tǒng)上該集成會被自動隱藏,調(diào)用時會返回明確的錯誤提示。

      文檔更新:新增docs/integrations/poolside.mdx,包含安裝和使用說明。

      九、Safetensors 導(dǎo)入增強 9.1 新增數(shù)據(jù)類型支持

      x/create/dtype.go新增了 FP8 和 U8/I8 類型的尺寸定義:

      case "U8", "I8":
      return 1, nil
      case "F8_E4M3", "F8_E5M2", "F8_E4M3FN", "F8_E5M2FNUZ":
      return 1, nil
      9.2 Laguna 專用導(dǎo)入轉(zhuǎn)換器

      新增x/create/laguna.go,實現(xiàn)了 Laguna 模型的特殊導(dǎo)入邏輯:

      • ?路由專家權(quán)重識別:通過.mlp.experts.路徑識別 MoE 層的路由專家

      • ?NVFP4 導(dǎo)入優(yōu)化:當(dāng)請求nvfp4量化時,down_proj權(quán)重被保留為mxfp8格式以保持精度

      • ?量化決策:路由專家參與量化,共享專家和注意力層保持 BF16

      9.3 導(dǎo)入能力推斷

      x/create/client/create.go中的inferSafetensorsCapabilities函數(shù)現(xiàn)在會參考解析器的能力:

      • ? 如果解析器支持工具調(diào)用,則添加tools能力

      • ? 如果解析器支持思考,則添加thinking能力

      十、Logprobs 與內(nèi)置解析器兼容性

      server: preserve generate logprobs with builtin parsers

      這是一個重要的用戶體驗修復(fù)。之前當(dāng)使用內(nèi)置解析器(如 Nemotron-3-Nano 或 Laguna 解析器)時,生成響應(yīng)中的 logprobs 會被丟棄,因為解析器會緩沖內(nèi)容直到檢測到完整的語義單元。

      修復(fù)后,在server/routes.go的 GenerateHandler 中:

      if builtinParser != nil {
      // Emit chunks that carry logprobs even if the parser is still buffering
      if res.Response != "" || res.Thinking != "" || res.Done || len(res.ToolCalls) > 0 || len(res.Logprobs) > 0 {
      ch <- res
      }
      }

      現(xiàn)在只要 chunk 中包含 logprobs,即使沒有新的文本內(nèi)容,也會被發(fā)送給客戶端。

      配套測試TestGenerateLogprobsWithBuiltinParser驗證了此功能。

      十一、架構(gòu)兼容性標(biāo)記 11.1 強制單并行請求

      server/sched.go中,nemotron_h_omni被加入到了需要強制num_parallel = 1的架構(gòu)列表中:

      if slices.Contains([]string{..., "nemotron_h", "nemotron_h_moe", "nemotron_h_omni"}, req.model.Config.ModelFamily) && numParallel != 1 {
      numParallel = 1
      }

      這是因為多模態(tài)模型和 MoE 結(jié)構(gòu)在并行處理時存在狀態(tài)同步問題。

      11.2 FlashAttention 支持

      fs/ggml/ggml.go中,nemotron_h_omni被加入了啟用 FlashAttention 的架構(gòu)列表:

      case "nemotron_h", "nemotron_h_moe", "nemotron_h_omni":
      // FlashAttention enabled
      十二、Harmony 后端適配

      server/routes.goserver/routes.go中的shouldUseHarmony邏輯進(jìn)行了調(diào)整:

      • ? 當(dāng)think.Value為字符串"max"時,在傳遞給 Harmony 后端之前映射為"high"

      • ? Harmony 的 Parser 只在未顯式配置時才設(shè)置為"harmony"

      這確保了 Harmony 后端在接收到max思考級別時不會報錯。

      十三、MLX 圖像生成兼容性

      x/imagegen/safetensors/safetensors.go中新增了 FP8 數(shù)據(jù)類型的映射:

      case "F8_E4M3", "F8_E5M2", "F8_E4M3FN", "F8_E5M2FNUZ":
      return mlx.DtypeUint8 // FP8 types stored as raw uint8 bytes

      這為未來在 MLX 后端支持 FP8 圖像生成模型奠定了基礎(chǔ)。

      十四、代碼統(tǒng)計總覽

      本次更新共涉及:

      • ?14 個 commits

      • ?90 個文件變更

      • ?5 位貢獻(xiàn)者

      • ?+13,915 行代碼新增

      • ?-1,190 行代碼刪除

      主要變更模塊分布:

      • ?convert/: +1,500 行(FP8 支持 + Nemotron/Laguna 轉(zhuǎn)換)

      • ?model/models/: +2,800 行(Laguna + Nemotron Omni 模型實現(xiàn))

      • ?x/mlxrunner/: +1,200 行(采樣器重構(gòu) + Pipeline 優(yōu)化)

      • ?x/create/: +900 行(Laguna 導(dǎo)入 + Safetensors 增強)

      • ?cmd/launch/: +200 行(Poolside 集成)

      十五、升級建議 15.1 兼容性說明
      • ? 所有 v0.22.0 之前創(chuàng)建的模型均可繼續(xù)使用

      • ? 新版本生成的 GGUF 文件與舊版本不兼容(由于新增了source_quantization等 KV 元數(shù)據(jù))

      • ? Windows 平臺的 Poolside 集成暫不可用

      15.2 推薦使用場景
      1. 1.需要更強推理能力的應(yīng)用:使用think: "max"級別調(diào)用 Nemotron 或 Laguna 模型

      2. 2.多模態(tài)應(yīng)用:Nemotron 3 Omni 支持圖文語音輸入

      3. 3.代碼生成場景:Poolside Laguna 專為代碼任務(wù)訓(xùn)練

      4. 4.高吞吐量場景:升級后 MLX 后端的批量采樣能力可提升 2-3 倍

      15.3 量化建議

      對于從 FP8 源導(dǎo)入的模型:

      • ? 使用Q8_0量化可獲得最佳精度保持

      • ? 使用Q4_K_M時,路由專家使用 Q4,注意力層使用 Q8

      • ? 使用Q4_K_S時,淺層專家的 down_proj 使用 Q5

      結(jié)語

      代碼地址:github.com/ollama/ollama

      Ollama v0.22.0 是一次功能密集、質(zhì)量優(yōu)先的版本發(fā)布。NVIDIA 和 Poolside 兩大模型的支持極大地擴展了 Ollama 的應(yīng)用邊界,而 MLX 后端的采樣器重構(gòu)、FP8 導(dǎo)入的完善、以及解析器/渲染器的增強,都體現(xiàn)了項目對生產(chǎn)級穩(wěn)定性和用戶體驗的重視。

      我們相信人工智能為普通人提供了一種“增強工具”,并致力于分享全方位的AI知識。在這里,您可以找到最新的AI科普文章、工具評測、提升效率的秘籍以及行業(yè)洞察。 歡迎關(guān)注“福大大架構(gòu)師每日一題”,發(fā)消息可獲得面試資料,讓AI助力您的未來發(fā)展。

      特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。

      Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

      相關(guān)推薦
      熱點推薦
      因羊肉串烤制時間過長,網(wǎng)紅烤串店道歉并發(fā)起退款:為近5萬桌顧客退一半錢,共計110余萬元,涉及上海、北京、杭州等24家門店

      因羊肉串烤制時間過長,網(wǎng)紅烤串店道歉并發(fā)起退款:為近5萬桌顧客退一半錢,共計110余萬元,涉及上海、北京、杭州等24家門店

      極目新聞
      2026-05-13 18:57:57
      韓先楚遇到賀龍,譏諷道:你堂堂聯(lián)防軍司令,我看也就是這水平

      韓先楚遇到賀龍,譏諷道:你堂堂聯(lián)防軍司令,我看也就是這水平

      大運河時空
      2026-05-13 10:55:09
      俄軍前線失控,指揮癱瘓、軍頭林立,1917年式危機陰影重現(xiàn)。

      俄軍前線失控,指揮癱瘓、軍頭林立,1917年式危機陰影重現(xiàn)。

      高博新視野
      2026-05-13 07:30:17
      不少女網(wǎng)約車司機宣布退出女性友好計劃,直言不想接女乘客

      不少女網(wǎng)約車司機宣布退出女性友好計劃,直言不想接女乘客

      映射生活的身影
      2026-05-12 20:56:00
      世界杯歷史進(jìn)球差了快80個 阿根廷為什么永遠(yuǎn)追不上巴西和德國?

      世界杯歷史進(jìn)球差了快80個 阿根廷為什么永遠(yuǎn)追不上巴西和德國?

      體壇八點半的那些事兒
      2026-05-13 18:23:15
      太平軍攻南京有多慘烈?將軍祥厚及五千旗兵全部被殺,滿人被屠盡

      太平軍攻南京有多慘烈?將軍祥厚及五千旗兵全部被殺,滿人被屠盡

      老范談史
      2026-05-11 19:45:11
      官方:CCTV5轉(zhuǎn)播U17女足亞洲杯半決賽,中國vs朝鮮

      官方:CCTV5轉(zhuǎn)播U17女足亞洲杯半決賽,中國vs朝鮮

      懂球帝
      2026-05-13 13:57:10
      廣廈G3半場碾壓山西!三外齊爆,孫銘徽效果拉滿,山西攻守拉胯!

      廣廈G3半場碾壓山西!三外齊爆,孫銘徽效果拉滿,山西攻守拉胯!

      籃球資訊達(dá)人
      2026-05-13 20:33:30
      自帶血漿、地毯、床具、飲用水,千人保障隊伍,真不愧是美國總統(tǒng)

      自帶血漿、地毯、床具、飲用水,千人保障隊伍,真不愧是美國總統(tǒng)

      瀟湘煙雨水
      2026-05-12 19:31:09
      武漢大學(xué)“分裂”奇觀:東武大與西武大,善良與邪惡對抗

      武漢大學(xué)“分裂”奇觀:東武大與西武大,善良與邪惡對抗

      紅色少女主播
      2026-05-13 16:15:27
      鄭州將添三座三甲醫(yī)院!預(yù)計今年全部建成

      鄭州將添三座三甲醫(yī)院!預(yù)計今年全部建成

      大象新聞
      2026-05-13 20:18:57
      長得太美被導(dǎo)演占為己有,25歲生下3個孩子,如今個個都給她爭光

      長得太美被導(dǎo)演占為己有,25歲生下3個孩子,如今個個都給她爭光

      攬星河的筆記
      2026-05-13 13:26:24
      普京出手了!一架俄專機連夜直飛中國,搶先空軍一號半天抵達(dá)北京

      普京出手了!一架俄專機連夜直飛中國,搶先空軍一號半天抵達(dá)北京

      林子說事
      2026-05-13 17:14:54
      東莞知名燒鵝店!剛上完TVB就宣布停業(yè)!

      東莞知名燒鵝店!剛上完TVB就宣布停業(yè)!

      科學(xué)發(fā)掘
      2026-05-13 17:29:47
      兩年輸光2000億資產(chǎn)的王健林,可能是中國地產(chǎn)的最后贏家

      兩年輸光2000億資產(chǎn)的王健林,可能是中國地產(chǎn)的最后贏家

      流蘇晚晴
      2026-05-12 19:20:28
      FIFA秘書長已抵京+溫格陪同!已與足協(xié)主席見面 全力勸說央視簽字

      FIFA秘書長已抵京+溫格陪同!已與足協(xié)主席見面 全力勸說央視簽字

      風(fēng)過鄉(xiāng)
      2026-05-13 13:00:53
      突傳噩耗!香港知名商人在家中燒炭身亡,公司面臨巨大財政壓力

      突傳噩耗!香港知名商人在家中燒炭身亡,公司面臨巨大財政壓力

      情感大頭說說
      2026-05-13 17:16:43
      蘋果AI眼鏡官宣:40克超輕,戴上自動調(diào)度數(shù)

      蘋果AI眼鏡官宣:40克超輕,戴上自動調(diào)度數(shù)

      呼呼歷史論
      2026-05-11 00:22:15
      Here We Go!羅馬諾:40歲諾伊爾與拜仁續(xù)約1年

      Here We Go!羅馬諾:40歲諾伊爾與拜仁續(xù)約1年

      懂球帝
      2026-05-13 17:09:31
      秦始皇子孫后代被找到,這四個姓氏都是他的后裔,有你的姓氏嗎?

      秦始皇子孫后代被找到,這四個姓氏都是他的后裔,有你的姓氏嗎?

      興趣知識
      2026-05-11 18:04:48
      2026-05-13 21:44:49
      moonfdd incentive-icons
      moonfdd
      福大大架構(gòu)師每日一題
      1223文章數(shù) 68關(guān)注度
      往期回顧 全部

      科技要聞

      騰訊一季度營收1964.6億元 同比增9%

      頭條要聞

      媒體:黃仁勛絕非"順路同行" 而是美方刻意納入的籌碼

      頭條要聞

      媒體:黃仁勛絕非"順路同行" 而是美方刻意納入的籌碼

      體育要聞

      14年半,74萬,何冰嬌沒選那條更安穩(wěn)的路

      娛樂要聞

      白鹿掉20萬粉,網(wǎng)友為李晨鳴不平

      財經(jīng)要聞

      美國總統(tǒng)特朗普抵達(dá)北京

      汽車要聞

      C級純電轎跑 吉利銀河"TT"申報圖來了

      態(tài)度原創(chuàng)

      本地
      游戲
      房產(chǎn)
      時尚
      公開課

      本地新聞

      用蘇繡的方式,打開江西婺源

      曝PS5破解再次取得重大突破!越獄門檻還挺高

      房產(chǎn)要聞

      卷瘋了!最低殺到7字頭!手握30萬,海口樓市橫著走!

      快來解鎖富家千金風(fēng)穿搭,穿舒適又時髦,一鍵拿捏優(yōu)雅氣質(zhì)

      公開課

      李玫瑾:為什么性格比能力更重要?

      無障礙瀏覽 進(jìn)入關(guān)懷版 主站蜘蛛池模板: 国产成人综合在线视频| 国产日产欧产精品精乱子| 精品国产乱码一区二| 亚洲色9在线| 色www永久免费视频| 国产成人无码aa片免费看| 天天综合影院| 亚洲欧洲无码av电影在线观看| 久久精品国产九一九九九| 成人乱人乱一区| 波多野在线影院| 久草影视午夜福利| 亚洲%20欧美%20动漫%20少妇%20自拍 | 久久99精品视香蕉蕉| 国产精品毛片在线直播完整版| 久久96热在精品国产高清| 国产色资源| 国产三级黄色片在线观看| 国产日产欧产精品精品蜜芽| 黄色三级亚洲男人的天堂| 日韩肏屄| 日韩欧美一区二区三区免费观看| 男人日女人免费视频| 丁香五月婷激情综合第九色| 国产一区二区视频曝光| 欧美国产菊爆免费观看| 亚洲全网成人资源在线观看| 97伦伦午夜电影理伦片| 色综合五月激情综合色一区| 精品视频九九| 黄色日本视频| 久久99青青精品免费观看| 18av千部影片| 欧美又粗又大又爽| 免费精品一区二区中文字幕| 国内精品免费久久久久电影院97| 国产tsAV| 一本久道久久综合狠狠躁av| 日韩人妻中文字幕精品| 色诱久久| 瑟久草|