這周,AI 視頻圈被偷摸摸上線的 Seedance 2.0 刷屏了。
在 AI 視頻領(lǐng)域頗有影響力的博主海辛,在即刻分享了自己對它的觀點:
「Seedance 2.0 是我 26 年來最大的震撼」、「我覺得它碾壓 Sora2」。
真的如此嗎?一點都不夸張。這是它做出來的視頻,一句話音畫同出,幾乎無限逼近于影院里看到的電影。
字節(jié)自己在飛書里發(fā)了一份產(chǎn)品介紹文檔,標(biāo)題只有幾個字,但意味重大:
視頻 Seedance 2.0 正式上線!Kill the game(殺死比賽)。
我在 2 月 7 號下午看到了這份文檔,出于好奇點進(jìn)去想快速掃一遍,結(jié)果一看就到了晚上。文檔右上角顯示的同時在線人數(shù),從下午兩點到晚上十二點,幾乎沒有掉到 300 人以下。我凌晨四點關(guān)掉頁面的時候,還有 90 多人同時在線讀文檔呢(可能是周日的緣故?)。
![]()
2 月 8 日凌晨 4 點飛書文檔:https://bytedance.larkoffice.com/wiki/A5RHwWhoBiOnjukIIw6cu5ybnXQ
![]()
一份產(chǎn)品說明文檔,被幾百人同時圍觀了十幾個小時,我活了三十幾年還是第一次見。
我敏銳地意識到:這可能是一款近期熱度堪比 Skills、OpenClaw 的產(chǎn)品。
帶著這份好奇,我深度體驗了這款模型,看看它到底有什么不一樣。
01.
Seedance 2.0 做到了什么
先說能力層面。
Seedance 2.0 目前已經(jīng)在即夢平臺上線,會員用戶(至少 69 元)可以直接使用。它支持文本生成視頻、圖片生成視頻,也支持視頻和音頻作為參考素材輸入。簡單來說,你能想到的輸入方式,它基本都支持了。
但真正讓我覺得「這次不一樣」的,是它在幾個關(guān)鍵能力上的突破。
第一個,自分鏡和自運鏡。
以前用 AI 生成視頻,你需要非常精確地告訴模型「鏡頭從左向右平移」、「先給一個全景再推到特寫」。稍微復(fù)雜一點的運鏡描述,模型就開始犯迷糊。Seedance 2.0 可以根據(jù)你描述的情節(jié)自動規(guī)劃分鏡和運鏡。你只需要告訴它故事是什么,它自己決定怎么拍。
一段非常簡單的提示詞,可以生成堪比導(dǎo)演運鏡的效果。這也是視頻自媒體圈炸鍋的重要原因,很多導(dǎo)演引以為傲的「運鏡」能力,被 Seedance 2.0 集成到了模型里。比如:
鏡頭跟隨黑衣男子快速逃亡,后面一群人在追,鏡頭轉(zhuǎn)為側(cè)面跟拍,人物驚慌撞倒路邊的水果攤爬起來繼續(xù)逃,人群慌亂的聲音。
黑衣男子快速逃亡視頻|視頻來源:Seedance 2.0 飛書文檔
第二個,全方位多模態(tài)參考。
你可以同時給它最多 9 張圖片、3 段視頻和 3 段音頻,總共 12 個參考文件。這些參考可以用來指定動作、特效、運鏡風(fēng)格、人物外貌、場景氛圍甚至聲音效果。只要你的提示詞寫得夠清楚,模型基本都能理解你想要什么。這個能力的上限非常高,等于給了用戶一個「導(dǎo)演工具箱」。
![]()
使用方式:一鍵 @|圖片來源:即夢
第三個,音畫同步生成。
Seedance 2.0 在生成視頻的同時可以生成匹配的音效和配樂,并且支持口型同步和情緒匹配。角色說話的時候嘴型是對的,表情和語氣也能對上。
第四個,多鏡頭敘事能力。
它可以在多個鏡頭之間維持角色和場景的一致性。這意味著你可以讓它生成一段包含多個鏡頭切換的完整敘事片段,角色不會從第一個鏡頭到第三個鏡頭就換了一張臉。
這四個能力單獨拿出來看,每一個都很強。
但放在一起的時候,它們構(gòu)成了一個質(zhì)變:
Seedance 2.0 給用戶提供的,已經(jīng)接近「導(dǎo)演級」的控制精度。你不再需要反復(fù)抽卡碰運氣,你可以真正成為一個專注于講故事的「導(dǎo)演」。
02.
實測:我親手試了三個場景
能力參數(shù)說得再漂亮也是紙上談兵。我決定自己上手試試,而且故意挑了三個難度遞增的場景。
第一個場景,我想生成一個電影感的鏡頭。
提示詞很簡單:櫻花樹下,一個女孩扭頭看向一個貓,花瓣飄落,微風(fēng)吹過她的頭發(fā)。女孩摸了摸貓的頭,對貓說,你好呀,小家伙,最后畫面定格在女孩上。
這種畫面在 AI 視頻里算是「基礎(chǔ)題」,但要做好非常考驗細(xì)節(jié):花瓣的飄落軌跡要自然,貓的毛發(fā)要有質(zhì)感,風(fēng)吹頭發(fā)的動態(tài)要連貫,畫面的焦距景深要準(zhǔn)確。
Seedance 2.0 出的結(jié)果讓我挺意外。花瓣的飄落有層次感,近處的花瓣大、遠(yuǎn)處的小,速度也有差異。貓窩在女孩懷里,耳朵偶爾動一下。頭發(fā)的飄動和花瓣的方向一致,說明模型理解了「風(fēng)」這個物理條件。整體的色調(diào)和光影處理很電影化,不是那種一眼就能看出是 AI 生成的過飽和畫面。
同樣的提示詞放在三天前,無論用什么模型,我可能都需要抽卡十幾次才能撞上這個效果。但這次,我一次就出了。
櫻花、女孩、貓視頻|圖片來源:即夢 Seedance2.0
效果很不錯,于是繼續(xù)我加大難度,嘗試做一個 15 秒的動漫特效畫面。
提示詞是這樣的:少年主角在戰(zhàn)斗中被擊倒,在伙伴呼喊聲中覺醒隱藏力量。身體周圍爆發(fā)金色氣場,頭發(fā)變色豎起,眼瞳變?yōu)楫惿kS后以超高速沖向敵人,釋放一記巨大的能量斬?fù)簦瑪負(fù)舨M切整個天空。
這個提示詞信息量很大,包含了情緒轉(zhuǎn)變、特效爆發(fā)、動作銜接、畫面節(jié)奏等多個維度的要求。以前的 AI 視頻模型處理這種復(fù)雜場景,通常會出現(xiàn)角色變形、特效和動作不同步、畫面節(jié)奏混亂等問題。
Seedance 2.0 生成的結(jié)果,節(jié)奏感把控得很好。從被擊倒到覺醒有一個明確的情緒轉(zhuǎn)折,金色氣場的爆發(fā)和頭發(fā)變色是同步發(fā)生的,最后的能量斬?fù)粲幸粋€從蓄力到釋放的過程,斬?fù)舨▌澾^天空的畫面確實有燃起來的感覺。
說實話,看到這個結(jié)果的時候我腦子里閃過一個念頭:這個效果,已經(jīng)可以直接放到動漫短視頻里用了。
動漫特效片段視頻|圖片來源:即夢 Seedance2.0
而當(dāng)我閃過這個念頭,一切就變得很夸張:
我決定做一件以前不太敢想的事,直接用 Seedance 2.0 做一個 60 秒的 AI 動漫短劇。
Seedance 2.0 目前最長支持 15s 的視頻,60 秒意味著 4 個 15s,這意味著我們需要多個鏡頭銜接、角色一致性維持、劇情推進(jìn)有節(jié)奏。放在以前基本上需要借助視頻 Agent 工具,把任務(wù)拆解成多個步驟,一個鏡頭一個鏡頭地生成,再人工剪輯拼接。整個流程下來,做一分鐘的內(nèi)容可能需要大半天。
而由于 Seedance 2.0 可以方便的引用多張圖片,我可以非常簡單的通過提前生成人物和背景來保證不同視頻的一致性。
![]()
動漫短劇提示詞 | 圖片來源:即夢
于是,我只是分別四次在 Seedance 2.0 里輸入了四個只有具體鏡頭不同的提示詞,一段相同的劇情描述,然后再用剪映把他們拼接在一起,就完成了這樣的作品:
鏡頭之間的過渡是連貫的,角色從頭到尾沒有變臉,情節(jié)推進(jìn)的節(jié)奏也很不錯,當(dāng)然由于我只是隨意寫的提示詞,還是有些小瑕疵。
但整個過程我只花了不到 15 分鐘,中途沒有重新抽過一次卡,效果甚至比某些專門做 AI 視頻的 Agent 工具又快又好。
體驗到這里,我已經(jīng)覺得 Seedance 2.0 真的已經(jīng)殺死比賽了。
動漫短劇片段|圖片來源:即夢 Seedance2.0+剪映拼接
03.
官方案例:更多能力的展示
但我做的測試畢竟有限。
于是我翻了翻官方放出來的案例,有幾個讓我印象很深。
一個案例展示了 Seedance 2.0 對于動作的模仿,上傳一個視頻,和一張動漫圖,AI 可以近乎完美的模仿舞蹈動作。這意味著什么?上傳一個視頻,用 AI 換臉做數(shù)字人也是非常簡單。
模仿動作、數(shù)字人視頻|視頻來源:Seedance 2.0 飛書文檔
有一個案例展示了 Seedance 2.0 的多模態(tài)參考能力。創(chuàng)作者同時上傳了一張角色設(shè)定圖作為人物參考、一段視頻(含音樂)作為節(jié)奏參考,Seedance 2.0 生成的視頻中,角色的外貌和設(shè)定圖高度一致,動作節(jié)奏和音樂的節(jié)拍也對上了。兩種不同模態(tài)的參考信息,絲滑地融合到了一個視頻輸出里。
理解視頻里的語音后做的卡點視頻|視頻來源:Seedance 2.0 飛書文檔
還有一個案例可以展示口型同步效果的。
![]()
視頻制作提示詞|視頻來源:Seedance 2.0 飛書文檔
一段角色對話的視頻,角色說中文時嘴型準(zhǔn)確,表情跟隨語氣變化。角色說到激動的臺詞時,眉毛會上挑,眼神會變得凌厲。這種級別的情緒匹配,在 AI 視頻領(lǐng)域之前幾乎看不到。
融合提示詞后生成的視頻|視頻來源:Seedance 2.0 飛書文檔
另一個案例更直觀地展示了多鏡頭敘事的能力。一段兩分鐘的短片,包含了遠(yuǎn)景、中景、特寫、跟拍等不同景別的切換,主角從室外走進(jìn)室內(nèi),光線隨之變化,衣服上的褶皺和陰影也跟著調(diào)整。全程角色一致性沒有崩壞。
一鏡到底的動漫視頻|視頻來源:Seedance 2.0 飛書文檔
如果你最近多刷視頻號、小紅書,你會發(fā)現(xiàn)官方的案例也只是冰山一角。有很多專業(yè)的視頻創(chuàng)作者和導(dǎo)演,已經(jīng)在用它制作「電影」了。
當(dāng)這些案例放在一起看,你會意識到 Seedance 2.0 已經(jīng)從「能生成一段視頻」進(jìn)化到了「能拍一部片子」。
04.
對視頻行業(yè)意味著什么
看完產(chǎn)品本身,我更想聊聊它對行業(yè)的影響。因為這可能是比產(chǎn)品本身更重要的事情。
第一個沖擊,落在視頻 / 漫劇 Agent 身上。
過去幾個月,視頻/漫劇 Agent 是 AI 視頻賽道里為數(shù)不多跑通了商業(yè)模式的領(lǐng)域。這類公司的賺錢邏輯其實很樸素:一個視頻用模型廠商的 API 生成,市場價 50 塊錢。漫劇 Agent 公司跟廠商談年度大單,一年一千萬的量,把單價壓到 30 塊。然后轉(zhuǎn)手賣給用戶 45 塊。用戶覺得比自己去調(diào) API 便宜,Agent 公司中間賺 15 塊的差價。
Seedance 2.0 出來之后,這個生意變得微妙了。如果你用其他模型做出來的效果,質(zhì)量明顯比不上 Seedance 2.0。用戶一對比就能看出來。但如果你想接入 Seedance 2.0 的能力,你在短期未必能拿到以前那種折扣價,因為所有人都想用上 Seedance 2.0。
漫劇 Agent 以前的價值在于拆解工作流、優(yōu)化生成流程,用工程手段彌補模型能力的不足。但當(dāng)模型本身的能力跨過某個門檻之后,工程層面能優(yōu)化的點就變少了。
很有可能,未來視頻/漫劇 Agent 這個賽道里幸存下來的玩家,需要圍繞 Seedance 2.0 的模型能力重新設(shè)計產(chǎn)品:
未來比的可能就是你對 Seedance 2.0 的理解程度,然后把這套理解做到 Agent 里,這樣,你才是有價值的。
![]()
字節(jié)跳動開發(fā)的視頻編輯工具將集成 Seedance 2.0|圖片來源:X
第二個沖擊,來自生成質(zhì)量的穩(wěn)定性。
做過 AI 視頻的人都知道一個行業(yè)內(nèi)的公開秘密:抽卡成功率。
你讓模型生成一段 15 秒的視頻,能用的概率是多少?行業(yè)平均大概不到 20%。也就是說,你得生成五次以上,才有可能得到一個質(zhì)量過關(guān)的結(jié)果。
算一筆賬。假設(shè)每段 15 秒的視頻 API 成本是 5 塊錢,做一個 90 分鐘的片子,理論成本 1800 塊。但實際成本呢?因為 80% 的生成結(jié)果要扔掉,真實成本直接翻到了接近一萬塊。
根據(jù)我自己的測試和多位從業(yè)者在 X 上的反饋,Seedance 2.0 的可用率直接到了 90% 以上。
這意味著實際成本無限逼近理論成本。同樣是做一個 90 分鐘的項目,成本從一萬多塊直接降到兩千多塊左右。省了差不多五分之四,而這種量級的成本壓縮,足以改變整個行業(yè)的底層邏輯。
![]()
ai_massive 創(chuàng)始人的觀點|圖片來源:X
第三個沖擊,指向了傳統(tǒng)影視制作。
一位做了 10 年院線電影的從業(yè)者這樣評價 Seedance 2.0:「單從時間和成本來說,已經(jīng)不是傳統(tǒng)流程能比的了。就拿一個特效鏡頭來說,傳統(tǒng)流程下需要一個高級制作人員花將近一個月才能完成,這還不包括其他制作環(huán)節(jié)」
這樣算,如果特效 5s 鐘的鏡頭做一個月,假設(shè)工資算 3000 塊錢,現(xiàn)在 3 塊錢就能在 2 分鐘內(nèi)做完了,這意味著數(shù)千倍成本的下降,以及上萬倍效率的提升。
短劇領(lǐng)域受到的沖擊可能更加直接。短劇的制作成本中,演員、場地、攝像團隊占了大頭。如果 AI 能夠生成足夠質(zhì)量的真人效果視頻,這些成本可能被削減 90% 以上。更重要的是,制作周期的縮短意味著你可以快速做 A/B 測試,用數(shù)據(jù)驅(qū)動內(nèi)容迭代,這是傳統(tǒng)拍攝流程完全做不到的。
![]()
萬粉博主觀點|圖片來源:X
05.
第一個「世界模型雛形」的AI產(chǎn)品
聊完行業(yè)影響,我想說一個可能有些大膽的判斷。
我認(rèn)為 Seedance 2.0 是第一個展現(xiàn)出「世界模型」雛形的視頻生成產(chǎn)品。
為什么這么說?
過去的 AI 視頻模型,本質(zhì)上是在做畫面補全。你給它一個描述,它從訓(xùn)練數(shù)據(jù)里找到最接近的視覺模式,拼湊出一段看起來合理的畫面。但它并不真正「理解」畫面里發(fā)生了什么。
Seedance 2.0 在幾個關(guān)鍵維度上展現(xiàn)了不同的東西。它能理解物理規(guī)律,花瓣飄落的方向和風(fēng)向一致,物體的重力表現(xiàn)合理。它能理解因果關(guān)系,角色覺醒力量之后的氣場爆發(fā)和后續(xù)動作之間有邏輯上的承接。它能理解情緒,對話時的表情和語氣匹配,動作的節(jié)奏和劇情的緊張程度同步。
它同時消化文字、圖片、視頻、音頻四種模態(tài)的信息,并將它們?nèi)诤铣梢粋€連貫的視頻輸出。這已經(jīng)超越了簡單的「模式匹配」,開始接近對世界運行規(guī)律的某種「理解」。
畫面符合物理規(guī)律的動漫視頻|視頻來源:Seedance 2.0 飛書文檔
當(dāng)然,「世界模型」這個詞在學(xué)術(shù)界有更嚴(yán)格的定義,Seedance 2.0 離真正的世界模型還有距離。但從產(chǎn)品體驗的角度來看,它已經(jīng)讓用戶感受到了一種此前不存在的東西:模型不只是在「畫」你描述的場景,它在「構(gòu)建」一個有內(nèi)在邏輯的世界。
![]()
動漫 AI 動畫從業(yè)者對 Seedance 2.0 的觀點|圖片來源:X
如果這個判斷是對的,那么 AI 視頻領(lǐng)域的競爭邏輯會發(fā)生一個有意思的轉(zhuǎn)移。
當(dāng)模型的生成能力足夠強、成本足夠低、成功率足夠高的時候,技術(shù)本身不再是瓶頸。你用 Seedance 2.0 能做到的事,理論上別人也能做到。
那什么會成為真正的競爭壁壘?
我覺得答案是兩個:好故事和好審美。
技術(shù)讓「生產(chǎn)」變得民主化了,但「創(chuàng)作」從來不是一個技術(shù)問題。知道怎么用工具和知道該創(chuàng)造什么,是完全不同的兩件事。當(dāng)所有人都能用 AI 生成電影級畫面的時候,能寫出讓人看完還想看的故事、能做出讓人一眼記住的視覺風(fēng)格,這些能力會變得前所未有的值錢。
AI 視頻賽道的第一階段,比的是誰能生成更好看的畫面、更連貫的動作、更穩(wěn)定的輸出。
Seedance 2.0 把這個階段的天花板拉得很高,高到大多數(shù)競品短期內(nèi)夠不著,以至于說它殺死了比賽。
第二階段的比賽已經(jīng)開始了。
06.
好工具,改變思考
回到我測試 Seedance 2.0 的下午,反復(fù)生成了大概十幾段視頻,一個廢片都沒有,直到現(xiàn)在,我仍然感覺很不可思議。
到后來有一個瞬間,我突然意識到自己思考問題的方式變了。
我不再想「這個模型能不能做到」,而是開始想「我要講一個什么樣的故事」。
這種思維方式的切換,可能比任何技術(shù)參數(shù)都更能說明問題。
當(dāng)工具強大到一定程度,它就從你思考的對象變成了你思考的背景。你不會去想「筆好不好用」,你只會想「我要寫什么」。
Seedance 2.0 讓 AI 視頻到達(dá)了這個臨界點。工具退到了幕后,創(chuàng)作者走到了臺前。
如果你也對 AI 視頻感興趣,現(xiàn)在是一個很好的上手時間點,因為此刻的技術(shù)已經(jīng)足夠支撐你的大部分創(chuàng)意了。
真正稀缺的,從來都不是工具,是你腦子里那個還沒被講出來的故事。
還有你那獨一無二的,對這個世界的獨特審美和視角。
點擊公眾號,關(guān)注我們
參與下方活動請戳
“圖片”
![]()
![]()
求喜歡
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.