![]()
TacticGen想做的,不只是“看懂一段比賽”,而是“生成一套可供比較的戰術跑位方案”。
過去的足球 AI 更擅長回答一個問題:這球接下來大概率會怎么發展? 例如誰更可能接球、一次進攻是否會形成射門、球員接下來會怎么跑。
但真正走進教練組的工作流,會發現他們關心的往往不只是“預測結果”,而是另一個更主動的問題:如果我們希望拉開寬度、加強前場壓迫、占領肋部空間,球員接下來應該怎么跑?
這正是香港中文大學(深圳)劉桂良教授團隊聯合Real Analytics、伯明翰城足球俱樂部、利物浦大學、西蒙菲莎大學以及中山大學提出的 TacticGen 想要解決的問題。
更直白一點說,TacticGen想做的,不只是“看懂一段比賽”,而是“生成一套可供比較的戰術跑位方案”。
![]()
項目鏈接:https://shengxu.net/TacticGen/
第一作者:徐圣,香港中文大學(深圳)博士生,研究方向為強化學習及其在具身智能、體育分析的應用,曾在 ICLR,ICML,NeurIPS 等頂級會議以第一作者發表論文。
通訊作者:劉桂良,香港中文大學(深圳)助理教授,研究主要聚焦于具身智能決策與強化學習。在包括NeurIPS、ICML、ICLR在內的國際機器學習頂級學術會議和期刊上發表論文30余篇,擔任NeurIPS、ICLR領域主席。
01
這篇論文到底在解決什么問題?
過去幾年,足球 AI 已經能比較穩定地處理軌跡預測任務:給定過去一小段時間的場上狀態,預測接下來幾秒球員和皮球會如何移動。
但真正的戰術分析,往往不止于“接下來大概率會發生什么”,還會追問:
如果邊鋒拉得更開一點,會不會把對手邊后衛和中衛之間的間距撕出來?
如果中場在球側形成更好的接應三角,持球人會不會多一個向前傳遞線路?
如果防守方更快形成向球側收縮,是否能更早封鎖肋部和中路通道?
TacticGen 正是把這個問題向前推進了一步。它把戰術理解為一段目標驅動的多智能體未來軌跡:輸入當前比賽上下文,給定一個戰術目標,生成滿足該目標的后續跑位方案。也就是說,它不是只復現真實比賽里已經發生的移動,而是可以圍繞明確的戰術目標,生成“另一種可能更優的跑法”。
這讓足球 AI 的角色發生了變化。它不再只是賽后分析復盤工具,而開始接近一個可交互的戰術反事實推演系統。
圖1|研究動機:從“軌跡預測”走向“目標驅動的戰術軌跡生成”
![]()
這張圖其實把整篇論文的立意講得很清楚。
左上部分代表傳統方法,重點是估計“比賽接下來會怎么發展”;右上部分則轉向generative football tactic design,開始回答“圍繞某個戰術目標,球隊接下來應該怎么跑”。圖里給出的Stretch Play、Zone 14、Deep Defending和Press Carrier,本質上都在說明一件事:模型處理的不是抽象標簽,而是可以被明確引導的攻防跑位目標。
中間和下方則進一步概括了這篇論文的關鍵詞:給定場景條件+用戶目標,生成可控的多智能體軌跡,并同時強調Accuracy、Adaptability、Scalability和Utility。換句話說,這篇工作不只關心“像不像”,還關心“能不能被引導”“能不能隨著模型和數據規模繼續提升”,以及“對真實戰術決策有沒有用”。
02
TacticGen 是怎么做的?
從任務定義上看,TacticGen 始終圍繞“未來軌跡”展開。
輸入端,模型接收的是比賽上下文,包括球和 22 名球員的一段歷史軌跡、事件類型、時間信息、比分信息,以及其他反映局勢的條件;
輸出端,模型要么預測后續的球員與足球軌跡,要么在給定目標約束下生成新的球員協同移動軌跡。
論文里給了兩個實際工作模式。
TacticGen-Predictive 更接近短時窗軌跡預測:根據最近的場上觀測,預測接下來一段時間的真實發展,用于軌跡建模和基準評測。
TacticGen-Conditional 則更接近戰術生成:當皮球未來線路被給定或較強約束時,模型圍繞這條球路去生成更可控的球員移動方案。這個設定尤其適合 what-if 式的戰術推演,因為分析師或教練組往往會先鎖定一個傳球或推進意圖,再去討論無球隊員怎樣跑位最合理。
圖2|整體框架:一個能被目標引導的多智能體擴散生成器
![]()
這張圖可以分成“訓練”和“推理”兩部分來看。
上半部分是基于 Diffusion 的訓練階段:模型從帶噪的未來軌跡中學習還原真實軌跡,而且不是逐個球員孤立建模,而是把球和 22 名球員放進同一個多智能體框架里聯合學習。
下半部分是推理階段,也是它最像“戰術工具”的地方:同一個生成器可以在不重訓的情況下,被規則、自然語言或價值模型引導,生成服務于不同戰術目標的軌跡方案。
03
數據集為什么值得強調?
這篇工作很重要的一點,是它不是靠少量數據集和 demo 支撐起來的。
論文背后使用的是一個大規模、對齊后的足球數據集,覆蓋2018到 2025年的 1,432場比賽,包含3,374,599個對齊后的事件,以及97,760,895個處理后的 tracking frames。
這套數據把兩類關鍵數據對齊在一起:一類是類似 Opta 風格的 analyst-annotated event logs,也就是人工標注的比賽事件流;另一類是 full-pitch optical tracking,也就是整片球場范圍內對皮球和全部球員位置的連續跟蹤數據。
論文把事件流和 tracking 流連接成統一的訓練樣本。這樣,模型看到的就不只是“某個時刻誰在什么位置”,而是“某個戰術事件發生時,前后這一整段局勢是如何演化的”。
從聯賽覆蓋看,數據主體來自高水平職業賽事,其中包括:英超、英冠、MLS、荷甲等多個聯賽。
為了讓建模更穩定,tracking 數據坐標統一映射到 105×68 米標準球場,并把進攻方向標準化為統一朝右。對機器學習來說,這一步很關鍵,因為它把不同比賽、不同場地、不同鏡頭體系下的數據,整理成了可比較、可學習的統一戰術坐標系。
04
真正讓人眼前一亮的,
是它可以被“戰術意圖”直接引導
很多生成模型的強項,是生成與真實數據分布相似的結果。但 TacticGen 更進一步,它追求的不是單純“生成得像”,而是“圍繞明確戰術目標生成得有用”。
更關鍵的是,這種能力并不是靠在訓練階段額外注入戰術條件來實現的。因為這類做法在推理時往往只能處理有限的條件,本質上仍然是在已有數據分布內做條件擬合。TacticGen 采用的是 test-time guidance:在推理階段直接把生成軌跡朝目標方向引導,因此同一個預訓練生成器就能靈活服務于不同戰術意圖。論文給出了三種具體的引導方式。
▎規則引導:把戰術原則轉成可執行跑位
第一種是規則引導。你可以直接寫出希望球隊滿足的戰術原則,例如:對進攻方來說,可以支援持球人、保持寬度、創造傳球線路、占領Zone 14或右側半空間;對防守方來說,可以更快壓迫、向球側收縮、壓縮中路與傳球通道。此外,還可以基于場地控制值(Pitch Control Value)做引導。
圖3|規則引導示例:把抽象戰術原則變成可執行跑位
圖 3 的重點,不在于模型“隨便改了幾條線”,而在于它展示了規則如何真正落到球員移動上。如果你熟悉比賽分析就會知道,這些都不是“視覺上更好看”的位移,而是非常具體的戰術結構變化。在每個規則引導的案例里,模型都在重新組織球隊的空間結構、層次關系和協同方式,以滿足特定的戰術目標。
▎自然語言引導:把教練指令轉成具體跑位
第二種是自然語言引導。這意味著你不一定需要自己寫規則。你可以直接用接近教練語言或分析語言的方式告訴模型:“讓前場球員更堅決地前插”“讓右邊鋒貼邊外拉,牽引邊后衛,為右側半空間騰出通道”。實現上,模型會自動調用 LLM,先把這類語言指令轉換成可執行的引導函數,再在推理階段用這些函數去約束采樣方向,從而生成符合目標的軌跡。
圖4|語言引導示例
圖 4 展示了 TacticGen 如何根據自然語言描述的教練指令生成對應的具體跑位。無論是“讓進攻方更積極前壓”,還是“讓右邊鋒外拉,主動牽扯防線”,模型都能把抽象的語言要求轉化為符合戰術意圖、可執行、可視化的戰術移動。
▎價值引導:讓軌跡朝更高長期收益搜索
第三種是價值引導。論文額外訓練了 value model,本質上是一個基于 reward 學習的長期收益(return)評估器。它讓模型不只滿足局部站位規則,而是朝著更高長期戰術收益的方向搜索。也就是說,它考慮的不只是“這一步站位是否好看”,而是“這一段整體推進對進攻或防守是否更有利”。
圖5|基于 value model 的價值引導示例
這里對應的是 value guidance 的兩個案例:一個面向進攻方,一個面向防守方。它們不是去滿足某一條局部規則,而是借助 value model 提供的 reward 信號,讓生成軌跡朝更高長期收益的方向搜索。放到戰術層面理解,進攻側會更傾向于把球員移動組織到更有利的推進和威脅區域;防守側則會更傾向于更早形成壓迫、限制持球人與關鍵空間,從而降低對手后續進攻收益。
05
為什么說它不只是“能生成”,
而且“生成得靠譜”?
從軌跡預測指標看,TactiGen 在論文中的多個基準指標上都取得了領先結果,包括ADE 0.29、FDE 0.52、joint ADE 0.45和joint FDE 0.92,這些指標都比之前的 SOTA 模型有明顯提升。
![]()
這些數字的意義在于:如果底層的軌跡建模不夠準,后面的戰術生成就很難站得住。TacticGen先把“真實軌跡學得像”這件事做好,再在此基礎上引入目標驅動的生成能力,這一點非常重要。
圖6|Scaling 曲線:模型越大、數據越多、訓練越充分,軌跡誤差持續下降
![]()
論文進行了有關 Scaling 的實驗,結果顯示,隨著訓練步數增加、訓練樣本增多,軌跡預測誤差持續下降;模型規模越大,最終誤差也通常越低。
這說明 TacticGen 不是“某個小模型剛好調出來的特例”,而更像是一個具備 foundation model 潛力的方向。也就是說,只要繼續給它更多高質量數據、更長訓練和更大模型,它還有進一步提升空間。
對現實應用來說,這一點比“某次實驗贏了多少”更關鍵,因為戰術建模真正難的是泛化到更復雜、更多樣、更多上下文約束的比賽情境。
06
最打動人的部分,其實是專家實驗
如果一篇足球 AI 論文只在離線指標上做得漂亮,我們通常還會保留很多疑問:生成的軌跡到底像不像真實比賽?這些軌跡在戰術上有沒有意義?職業從業者會不會認可?
TacticGen 的回答,是把專家直接請進評估流程里。
論文與足球從業者合作開展了專家案例研究,參與者中包括來自伯明翰城足球俱樂部(Birmingham City Football Club)的 5 位足球領域專業人士。作為英格蘭職業足球體系中的百年老牌俱樂部,伯明翰城曾兩奪英格蘭聯賽杯冠軍,因此這套專家實驗也更貼近職業足球的一線觀察視角,而不只是學術語境下的內部打分。
專家評估分成兩類任務。
第一類是真實性評估。專家需要判斷一段后續球員軌跡究竟來自真實比賽,還是來自模型生成。結果表明,專家區分 generated 和 realistic 的平均F1只有0.50 ± 0.07。這個結果最直接的含義是:單看軌跡表現,專家并不容易穩定地區分真假。
第二類是戰術效用評估。在這項盲測里,專家并不知道哪一邊是真實方案、哪一邊是 TacticGen 引導生成方案,只能把兩段軌跡匿名并排比較,判斷哪一邊對指定球隊更有戰術價值。結果顯示,引導后的 TacticGen 樣本平均 utility score 達到0.81 ± 0.04;在“真實跑位 vs 生成跑位”的對比中,專家有80%的情況下更偏向 TacticGen 生成的方案。
專家實驗表明,TacticGen 生成的軌跡,一方面已經足夠接近真實比賽節奏和協同方式;另一方面,在戰術目標下,它甚至會比真實樣本更符合專家心中的戰術偏好。換句話說,專家不只是覺得它“看起來像”,還經常認為它“戰術上更值得選”。
圖7|專家評估結果:生成軌跡不只接近真實,還經常被認為更有戰術價值
![]()
這張圖對應真實性評估。專家區分真實軌跡與生成軌跡的平均F1只有0.50 ± 0.07。
![]()
這張圖對應戰術效用評估。引導生成軌跡的平均 utility score 達到0.81 ± 0.04。
07
這篇論文真正的現實意義,
在于“工作流變了”
TacticGen 在現實足球工作流里的幾個潛在意義。
第一,它把傳統賽后復盤,推進到了反事實戰術分析。分析師不再只能解釋“這次為什么會這樣跑”,還可以進一步比較“如果這名邊鋒更早外拉、如果這名中場更早進入球側接應,局面會不會更好”。
第二,它讓戰術討論從“口頭描述”變成“可生成、可比較的軌跡方案”。很多戰術會議里,教練組說的其實都是目標,比如“壓上去一點”“邊路站開一點”“中路保護再緊一點”。TacticGen 的價值在于,它開始有能力把這些目標翻譯成可視化、可比較的球員移動軌跡。
第三,它為職業足球里的數據分析、比賽準備和訓練設計,提供了一種新的AI接口。未來不論是做對手分析、局部戰術rehearsal,還是為特定場景生成多種跑位候選,目標驅動的軌跡生成都會比單純的軌跡預測更貼近真實決策場景。
第四,它展示了一種更廣義的趨勢:在多主體、強約束、強上下文依賴的現實世界里,生成模型最有價值的地方,往往不是“生成一個像真的東西”,而是“圍繞明確目標生成一個更有用的方案”。
08
TacticGen最迷人的地方,不只是它把足球軌跡建模做得更好,而是它讓我們第一次比較清楚地看到:AI 可以從“理解比賽”繼續走向“參與戰術設計”。
它的核心對象始終是球和22名球員未來一段時間的協同軌跡。在這個基礎上,模型既能做真實軌跡預測,也能圍繞戰術目標生成新的跑位方案。再加上大規模職業比賽數據、與 BCFC 等足球專家合作的案例研究,以及對真實戰術工作流的貼近,這篇論文已經不只是一個漂亮的學術demo,而更像是通往下一代足球分析工具的一次清晰預演。
如果你關心體育分析、生成式AI、多智能體建模,或者 AI 如何真正進入現實決策場景,這篇 TacticGen 都值得認真讀一讀。
未經「AI科技評論」授權,嚴禁以任何方式在網頁、論壇、社區進行轉載!
公眾號轉載請先在「AI科技評論」后臺留言取得授權,轉載時需標注來源并插入本公眾號名片。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.