前兩天大家都在用的libtv我終于是有空用上了,
大玩特玩后,我的感受就是好用,確實(shí)好用!
功能很全,能支持劇本,圖片,視頻,音頻全鏈路制作,而且用的是無(wú)限畫(huà)布+節(jié)點(diǎn)式生成。大家平時(shí)用 AI 工具多的話(huà),是非常容易上手的。
![]()
liblib.tv
重要的是,LibTV已經(jīng)有了自己的 Skill,能夠連到 OpenClaw 里面用,這下我的蝦又變厲害了!
那我這次先直接按照我之前的創(chuàng)作習(xí)慣,在 LibTV 里做了一個(gè)蒙娜麗莎出逃的小短片,可以調(diào)用我們目前能用的幾乎所有圖片和視頻生成模型。
實(shí)際上上手非常快,基本上沒(méi)有什么學(xué)習(xí)成本,你只需要會(huì)創(chuàng)建節(jié)點(diǎn),拉節(jié)點(diǎn),寫(xiě)提示詞進(jìn)行生成就行了。
![]()
而且 LibTV 可以根據(jù)你給的一個(gè)大概的劇情自動(dòng)設(shè)計(jì)完整的分鏡腳本,支持一鍵批量生成分鏡圖片和批量生成視頻,做起來(lái)速度非常快。
![]()
![]()
而且除了圖片,視頻生成之外,LibTV在圖片編輯和視頻編輯方面的功能也非常全面。
比如我們生成一張圖片之后,點(diǎn)擊它會(huì)發(fā)現(xiàn),上面的功能欄里面幾乎囊括了目前所有 AI 圖像編輯方面的功能,高清,擴(kuò)圖,重繪,擦除,摳圖這些都有。
![]()
除了這些生成功能之外,這里還有四個(gè)我個(gè)人覺(jué)得比較有趣,而且實(shí)用性還挺高的功能,
多角度、打光、攝像機(jī)控制和九宮格切分。
首先是多角度這個(gè)功能,可以通過(guò)拖拽攝像機(jī)來(lái)調(diào)整拍攝的角度,這樣就非常直觀,能夠迅速找到自己想要拍攝的位置,從而得到相應(yīng)的圖片。試了幾次,這個(gè)角度調(diào)整還挺精準(zhǔn)的。
還有這個(gè)打光功能,也可以直接拖拽去調(diào)整光源的位置和顏色。而且如果你不好把握光源位置的話(huà),也可以直接用它提供的一些主光源位置。通過(guò)這個(gè)功能,我們可以非常直觀地得到想要的打光角度。最終生成的圖片效果,與我設(shè)置的光源位置和顏色都是完全一致的。
還有啊,LibTV做了一個(gè)攝像機(jī)控制功能,內(nèi)置了非常多的相機(jī)種類(lèi),鏡頭,焦段和光圈,可以適應(yīng)多種場(chǎng)景的需求,
比如這里有四張圖,就是我用同一張圖作為底圖,使用了同樣的提示語(yǔ),但是用了不同的攝像機(jī)組合來(lái)做出的圖片,攝像機(jī)鏡頭、焦段和光圈的不同搭配,其實(shí)能夠做出不同的效果。
對(duì)于一些非常懂?dāng)z像機(jī)方面專(zhuān)業(yè)知識(shí)的人來(lái)說(shuō)特別友好,能夠精準(zhǔn)地得到自己想要的光線和拍攝角度。
![]()
這里我還總結(jié)了四組適合拍攝不同類(lèi)型畫(huà)面的鏡頭組合,大家感興趣可以自己去嘗試一下。
![]()
還有一個(gè)九宮格切分的功能,我覺(jué)得也很有用。
之前我們玩 AI 視頻的時(shí)候,經(jīng)常會(huì)用到一種用九宮格去生成一整段視頻的玩法。但是中間經(jīng)常會(huì)出現(xiàn)一些問(wèn)題,比如某一個(gè)分鏡可能不太準(zhǔn)確,而其他分鏡做得很好。
針對(duì)這種情況,我們可以直接把九宮格拆分成九張圖:你可以對(duì)每一張圖單獨(dú)去生成你想要的分鏡,生成后可以替換回原本完整的視頻里。或者如果你對(duì)其中某一個(gè)分鏡圖不是很滿(mǎn)意,或者它有一點(diǎn) bug,你可以單獨(dú)去修改這張圖。這樣的話(huà)靈活性就更高了。
再有就是在生圖節(jié)點(diǎn)上,LibTV 也有很多已經(jīng)內(nèi)置好小功能。我們?cè)谝曨l創(chuàng)作過(guò)程中,經(jīng)常會(huì)要修改部分分鏡圖片,這幾個(gè)都是我覺(jué)得會(huì)經(jīng)常使用到的,這樣已經(jīng)把這些提示語(yǔ)內(nèi)置成了固定的功能,會(huì)非常方便。
![]()
那到了視頻生成階段,一段視頻生成完成之后,你還可以繼續(xù)對(duì)這段視頻直接進(jìn)行剪輯,或者高清處理。這里還有一個(gè)功能叫做解析。
![]()
它可以直接把一段視頻拆成分鏡腳本。這樣的話(huà),假設(shè)你有一個(gè)想要參考的視頻創(chuàng)作,你可以用 LibTV 去分析它的分鏡,得到分鏡腳本,然后再按照這個(gè)腳本進(jìn)行修改,生成自己的內(nèi)容。
![]()
在OpenClaw里用LibTV也很簡(jiǎn)單,
![]()
只要發(fā)一段文本就行,
幫我安裝https://github.com/libtv-labs/libtv-skills這個(gè)skill。
然后就是在網(wǎng)頁(yè)版的賬號(hào)設(shè)置里拿到AccessKey,再發(fā)給OpenClaw完成配置和第一次測(cè)試。
也可以直接在飛書(shū)上傳一個(gè)視頻,讓他調(diào)用 LibTV 去模仿這個(gè)視頻做一個(gè)。我這里給了他經(jīng)典的騰哥的你過(guò)來(lái)啊片段,然后得到了一個(gè) 3D 動(dòng)畫(huà)版本的,實(shí)際上效果也還不錯(cuò)。
libtv-skills在安裝完成后給我發(fā)了一個(gè)說(shuō)明文檔,我用GPT總結(jié)了一把。
簡(jiǎn)單來(lái)說(shuō),這個(gè)Skills在實(shí)現(xiàn)上只依賴(lài)Python標(biāo)準(zhǔn)庫(kù),不需要我們電腦再額外安裝第三方依賴(lài)。上傳文件支持圖片和視頻,大小在200MB以?xún)?nèi)。
那它跟我們看到的封裝了一些視頻模型API能力的Skills有什么不同呢?
![]()
libtv-skills相當(dāng)于一個(gè)中間層,
API封裝的Skills是把我們?cè)诰W(wǎng)頁(yè)版上操作流程組成腳本,我們要自己去完成提示語(yǔ)的編寫(xiě),流程推進(jìn)等等。
但libtv的思路是盡可能讓用戶(hù)用自然語(yǔ)言表達(dá)意圖,由他們的視頻Agent來(lái)完成統(tǒng)一的編排。
最后的最后,
又到了緊張刺激的價(jià)格環(huán)節(jié),
用Agent生成,調(diào)用模型的次數(shù)是會(huì)比手動(dòng)的平均要高,靠量來(lái)?yè)Q審美,一次抽卡不好,我就抽十次選最好的。
所以?xún)r(jià)格不壓下來(lái)的話(huà),
就很少有人會(huì)用Agent直接成片的。
LibTV目前的定價(jià)是年卡最低39折,
我是直接入了一年先踩踩坑。
而且就現(xiàn)在的趨勢(shì)來(lái)說(shuō),
我覺(jué)得人和AI會(huì)變得越來(lái)越融合。
人類(lèi)提出想法,
AI幫我們?nèi)ネ晟七@些想法,
幫我們執(zhí)行中間的一些過(guò)程。
而最終拍板整個(gè)故事走向哪一個(gè)分支的,
永遠(yuǎn)都是我們。
@ 作者 / 卡爾
最后,感謝你看到這里如果喜歡這篇文章,不妨順手給我們點(diǎn)贊|在看|轉(zhuǎn)發(fā)|評(píng)論
如果想要第一時(shí)間收到推送,不妨給我個(gè)星標(biāo)
如果你有更有趣的玩法,歡迎在評(píng)論區(qū)聊聊
更多的內(nèi)容正在不斷填坑中……
![]()
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶(hù)上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.