監管最難的不是立法,而是取證。但隨著司法實踐的積累和算法透明度要求的提高,"代碼即罪證"的時代正在到來。產品團隊需要重新審視一個問題:你的定價算法,經得起法庭的閱讀嗎?
———— / BEGIN / ————
兩個案子,一個信號
2023年,杭州。
一名消費者在某在線旅游平臺反復搜索同一家酒店,瀏覽記錄越積越多,系統對他的”興趣濃度”判斷越來越高——然后,價格悄悄漲了。最終他支付的價格,比同一時段其他用戶高出了將近30%。事后他起訴平臺,法院認定:平臺利用用戶行為數據實施了定向提價,構成欺詐,判決退還差價并賠償三倍。
2024年,北京。
某頭部電商平臺被市場監管總局查處。問題不是”老用戶比新用戶價格高”這種粗暴操作,而是更隱蔽的一招:給不同用戶群發不同面額的折扣券,表面上人人都有優惠,實際上新用戶券值更高、老用戶券值更低,變相制造了價格差。最終以”虛假促銷”被罰款50萬元。
這兩個案子單獨看,都只是普通的消費者維權新聞。但放在一起,它們傳遞出一個共同信號:法律對算法定價的容忍邊界,正在快速收窄,而且收窄的速度遠遠超過大多數產品團隊的認知更新速度。
更重要的是,這兩個案子有一個共同的技術核心——被當作證據使用的,不是某個高管的內部郵件,不是某份會議紀要,而是代碼邏輯本身:系統根據哪些數據做了什么判斷,最終輸出了什么價格。
“殺熟”已經不是道德問題了。它正在變成一個可以被法庭解讀的工程問題。
我們在討論的到底是什么
在正式展開之前,有必要先厘清一個長期被混用的概念群。算法定價領域有四個詞被反復交替使用,但它們的法律含義截然不同:
動態定價(Dynamic Pricing):根據供需關系、庫存水位、時間段等市場因素實時調整價格。機票、酒店的價格隨淡旺季變化,本質上是這個邏輯。這在全球范圍內目前仍被普遍認為是合法的市場行為。
算法定價(Algorithmic Pricing):用機器學習模型代替人工制定價格策略。它可以只考慮市場因素,也可以引入用戶數據。合法與否取決于輸入的變量是什么。
個性化定價(Personalized Pricing):針對不同用戶展示不同價格,依據是用戶的個人屬性或行為數據。這是監管的核心靶區——用戶畫像越豐富、個性化程度越高,法律風險越大。
監控定價(Surveillance Pricing):基于對用戶的實時監控數據(瀏覽軌跡、停留時長、搜索頻次、設備信息等)動態調整價格。美國馬里蘭州2026年4月剛剛通過立法明確禁止的,就是這種。
中國語境里的”大數據殺熟”,本質上是個性化定價與監控定價的交集地帶:平臺用老用戶的歷史數據判斷其”付費意愿”,然后向其展示高于新用戶的價格。
這四個概念的區別不是文字游戲。從工程實現的角度看,同樣一套定價系統,僅僅因為“輸入了哪些特征變量”的不同,就可能從完全合法變成違法。 而這個區別,往往只體現在幾行代碼里——幾行在產品需求文檔里甚至不會被專門提及的代碼。
黑箱里的生意經
要理解為什么這個問題如此棘手,需要先理解算法定價系統在工程層面是如何運作的。
一個典型的互聯網平臺定價系統,通常由三層構成:
數據層:收集用戶行為數據(搜索記錄、瀏覽時長、購買歷史、支付方式偏好、設備型號、地理位置)、供給側數據(庫存、競品價格、歷史成交)、以及外部數據(節假日、天氣、事件)。
模型層:將上述數據輸入機器學習模型,預測每個用戶的”價格彈性”——即這個用戶在什么價位會放棄購買,以及在什么價位依然會成交。模型會給每個用戶打一個”支付意愿分”。
決策層:根據支付意愿分,在一個價格區間內選取對應的展示價格。價格彈性低(愿意付高價)的用戶,看到的價格靠近區間上沿;價格彈性高(對價格敏感)的用戶,看到的價格靠近區間下沿。
從商業邏輯上看,這套系統無懈可擊:它最大化了每筆交易的營收,同時理論上保證了”每個用戶都在他能接受的價格內成交”。
但從法律邏輯上看,它制造了一個嚴重問題:系統在對同一件商品、同等交易條件下,向不同用戶展示不同價格,而差異的依據是用戶的個人數據——這正是“大數據殺熟”的定義。
更麻煩的是,這套系統的運作全程在服務器端完成,用戶看不到,監管機構也看不到。平臺可以在用戶投訴時解釋說”價格波動是因為供需變化”——這在技術上并非謊言,因為模型里確實也包含了供需變量——但不是全部真相。
這就是算法黑箱的本質:它不是一個簡單的”是/否”開關,而是一個將幾十個變量加權混合之后輸出的連續值。在這個混合過程中,用戶數據和市場數據被以一種外部無法還原的方式融合在一起。
這個黑箱,長期以來是平臺的護城河。但現在,它正在變成一個法律風險的容器。
取證的戰爭
監管最難的確實不是立法,而是取證。
中國在2021年通過《個人信息保護法》,在2022年出臺《互聯網信息服務算法推薦管理規定》,在2024年開展四部門聯合專項整治,在2026年4月頒布《互聯網平臺價格行為規則》正式施行——這條立法時間線相當密集,覆蓋了從原則禁止到細則認定的完整鏈條。
但執法效果呢?
現實是:有據可查的”大數據殺熟”處罰案例相對稀少,且罰款金額與平臺營收相比微不足道。根本原因就是取證困難。
困難一:用戶難以自證
用戶感知到價格不對,但很難構建完整的舉證鏈條。你需要同時、同地、同設備條件地比較兩個不同賬號看到的價格,還需要排除優惠券、會員等級、庫存等合法差異因素。這在技術上非常繁瑣,對普通消費者基本不可能完成。
困難二:監管機構缺乏技術手段
要證明”差價源于用戶數據而非市場因素”,需要獲取算法模型的源代碼和訓練數據,然后做因果推斷分析——這既需要高水平的技術人員,也需要相應的法律授權。目前的監管體系在這兩方面都存在明顯短板。
困難三:算法本身的不可解釋性
即使拿到了代碼,深度學習模型的決策邏輯也難以被人類語言直接翻譯。模型說”這個用戶的支付意愿分是0.87″,但說不清楚這個分數里,用戶的”瀏覽了3次”這個行為到底貢獻了多少權重。
這些困難共同構成了一個現實:平臺在事實上處于舉證責任倒置的有利位置——你無法證明我在歧視,所以我就沒在歧視。
但這個局面正在發生變化,而且變化的速度比大多數人預期的快。
三條正在改變游戲規則的趨勢趨勢一:算法透明度義務從”軟性倡導”變成”硬性要求”
中國的《互聯網信息服務算法推薦管理規定》已經要求平臺”以適當方式公示算法推薦服務的基本原理、目的意圖、主要運行機制”。《互聯網平臺價格行為規則》進一步要求,對不同交易條件的消費者實行不同價格的,須在服務頁面顯著位置公開相關規則并告知消費者。
歐盟的《數字市場法》(DMA)和《人工智能法案》(AI Act)對大型平臺的算法解釋義務更為嚴格,要求算法決策具備”可解釋性”,且監管機構有權要求平臺提供算法審計報告。
美國紐約州已在2025年通過了算法定價透明度法律,要求平臺披露個性化定價的存在及其依據。
這意味著什么? 意味著”你無法證明我在歧視”這個防御策略正在被侵蝕。平臺將被要求主動證明自己沒有歧視,而不是等待外部證明其有歧視。舉證責任在悄悄轉移。
趨勢二:司法實踐中”代碼審查”能力的積累
杭州案和北京案之所以能夠成立,部分原因是原告方和監管機構都采用了”對照實驗”式的取證方法——用多個測試賬號、在控制變量的條件下,系統性地比較價格輸出,從統計學意義上證明差異的存在和規律性。
這種取證方法并不需要讀懂源代碼,但它可以構建出”算法歧視”的統計證據。當這種證據積累到一定程度,法庭會要求平臺舉證反駁——而平臺一旦需要主動拿出算法來自證清白,黑箱就不再是防護罩了。
隨著數字取證技術的成熟和專業律師的積累,這條路徑的可復制性越來越強。
趨勢三:基礎設施層的監管滲透
值得高度關注的是一個新的監管思路:不只盯著平臺本身,而是從應用分發的基礎設施入手。
中國監管機構已經開始探討讓應用商店承擔算法合規的審核責任——手機廠商審核入駐 App,要求其符合算法透明度的最低標準。這意味著算法合規的壓力將從政府執法端延伸到平臺分發端,覆蓋范圍將大幅擴展。
這三條趨勢合在一起,指向同一個結論:算法黑箱的防御價值在衰減,而合規風險的暴露面在擴大。
從工程設計端重構”定價正當性”
大多數團隊面對監管壓力的反應,是在產品層面加一層”用戶須知”,或者讓法務審核一遍用戶協議。這是一種典型的誤判——把結構性的工程問題當成了文案問題。
真正的合規,需要從算法設計階段就介入。以下是幾個可操作的工程原則:
原則一:特征變量的”合法性審計”
定價模型的輸入特征,是合規風險最集中的地方。一個實用的做法是建立”特征分類清單”,將所有可能輸入定價模型的變量分為三類:
綠色特征:供需數據、庫存水位、競品價格、時間段、地理區域(非用戶級別)——這些反映市場條件,普遍被認為合法。
黃色特征:會員等級、歷史購買量、優惠券使用情況——這些與交易條件掛鉤,需要配合透明的規則公示才合規。
紅色特征:用戶的搜索頻次、頁面停留時長、設備類型、支付能力推斷、消費偏好畫像——這些直接指向個人支付意愿的推斷,在中國現行法律下被明確列為禁止項。
每次定價模型迭代上線,都應當有一份特征變量審計記錄,明確標注哪些特征被引入、每類特征的法律風險評級,以及是否經過合規審查。這份記錄本身,就是未來應對監管調查時最有價值的”自證材料”。
原則二:價格決策的”因果鏈可還原性”
好的定價系統設計,應當能夠回答這樣一個問題:對于任意一筆交易,系統能否事后解釋”這個價格是怎么得出來的,哪些因素起了多大作用”?
這不是要求取消機器學習,而是要在工程架構上預留決策日志——記錄每次定價時的主要輸入變量權重快照,以備事后審計。
很多團隊沒有這個習慣,因為日志存儲有成本,而且”從來沒人要過這些數據”。但監管壓力到來之后,這套數據就是你證明自己合法經營的原始證據。沒有日志,就是沒有辯護材料。
原則三:區分”促銷邏輯”與”歧視邏輯”的代碼邊界
北京案中的電商平臺之所以被罰,不是因為給用戶發了折扣券,而是因為折扣券的發放邏輯本質上是”用優惠券形態實現的差異定價”,且這個邏輯對用戶不透明。
這說明,“發折扣”和“差異定價”在代碼層面可能共用同一套邏輯,但法律對它們的判斷截然不同。 區別在于:促銷邏輯是”所有用戶面對相同的基準價,部分用戶獲得額外優惠”;歧視邏輯是”不同用戶面對不同的基準價,包裝成優惠券的形式呈現”。
從代碼架構上,這意味著基準價格計算和優惠策略計算應當是嚴格分離的兩個模塊,且優惠策略的輸入變量不能包含前述”紅色特征”。這個分離,需要在系統設計階段就確立,而不是在法律風險出現后再做拆分——后者的代價會高出十倍不止。
原則四:建立”定價解釋權”的用戶接口
《互聯網平臺價格行為規則》第七條要求平臺明確標示價格及相關計費規則,不得收取任何未予標明的費用。這在產品層面意味著什么?
意味著當用戶質疑某個價格時,平臺應當能夠給出一個有意義的解釋,而不是”價格受多種因素影響實時浮動”這種套話。
一些頭部平臺已經開始做這方面的探索:在價格展示頁面增加”為什么是這個價格”的說明入口,解釋當前價格反映了哪些市場因素(庫存、需求強度、時段等)。這不只是用戶體驗的優化,它也是算法透明度義務的一種落地形式。
商業機密與算法透明度:一場沒有完美解法的博弈
誠實地說,上面列舉的這些工程原則,在實踐中面臨一個真實的張力:算法透明度與商業機密保護之間的矛盾。
一家平臺的定價算法,是其核心競爭力之一。要求完全透明,意味著將商業策略完全暴露給競爭對手。這不是借口,而是一個真實的商業風險。
監管機構也意識到了這個矛盾。目前主流的破解思路有兩種:
監管沙盒式的“受限披露”:平臺不需要向公眾公開算法細節,但需要向經過認證的第三方審計機構或監管部門開放審查權限。這保護了商業機密,同時確保了外部監督的可能性。歐盟在《數字市場法》中采用的就是類似路徑。
“算法影響評估”制度:類似于環境影響評估,要求平臺在上線重大定價算法變更前,主動出具一份評估報告,說明該算法對不同用戶群的價格影響是否存在歧視性模式。這份報告不需要暴露算法本身,但需要證明算法的結果公平性。
這兩種思路在中國的監管框架中都有雛形,但尚未系統化落地。可以預期的是,隨著監管精細化程度的提高,類似機制會逐步出現在實操層面。
對于平臺而言,與其等待監管機構制定強制標準,不如提前建立內部的”算法公平性審計”流程。這既是主動合規的姿態,也是在未來監管談判中占據主動位置的籌碼。
寫給產品團隊的最后一段話
這篇文章的主要讀者,可能是產品經理、工程師,或者兼而有之的創業者。我想用一個具體的問題來結束:
你上一次認真看你們產品的定價代碼是什么時候?
不是看需求文檔里的定價策略描述,不是看數據報表里的 ARPU 曲線,而是真正看那些決定”某個用戶在某個時刻看到什么價格”的代碼邏輯——看它的輸入變量,看它的判斷分支,看它在不同用戶畫像條件下的輸出分布。
大多數 PM 的回答可能是:從來沒有,或者很久之前。
這本來不是問題。定價系統是工程團隊的領域,PM 關注的是定價策略的商業目標,代碼實現是實現手段。這個分工在監管真空時代是合理的。
但我們已經不在監管真空時代了。
2026年4月10日起,中國《互聯網平臺價格行為規則》正式施行。同一個月,馬里蘭州成為美國第一個明確立法禁止監控定價的州,而加州、科羅拉多、伊利諾伊等州的跟進立法也已在路上。
這些法律的核心罰則,落點都在”平臺行為”而非”個人決策”。監管部門不會去追查是哪位工程師寫的代碼,他們追查的是這家平臺的系統是否對消費者實施了不公平定價。而”系統”是什么?就是代碼。
所以,問題不是你的法務團隊有沒有讀過新法規,而是你的代碼有沒有準備好接受法律的閱讀。
真正的合規,不是在用戶協議末尾加一行免責聲明,也不是在被查時臨時組織應對小組。它是在系統設計時就把”這套邏輯站得住法庭閱讀”當作一個工程約束條件——和性能、安全性、可擴展性一樣,作為架構設計的基本標準之一。
這是一次思維方式的轉變,也是這個時代要求產品團隊必須完成的轉變。
越早開始,越主動。
本文來自公眾號:秋葉的楓feng 作者:秋葉的楓
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.