當別人的龍蝦還在做信息搜索和定時日報時,我部署在本地的 OpenClaw 已經可以自己做視頻了。
準確說,它可以做產品宣傳片、短劇、動漫、甚至是電影級別的鏡頭。
這不上周剛剛結束上海 F1 比賽么,我就讓它以這個主題做了一段視頻,你們先看下效果。
我這里用的是 Kling O1 的模型,效果已經很不錯了,如果他們之后上線了 Seedance 2.0 模型,后者的威力你們知道的。
做法也很簡單,我就是在飛書里給我的本地 OpenClaw 提了個一句話需求。
大概過了幾分鐘,它就把成品發給我了。
![]()
不僅能直接看到視頻原片,還能看到它的項目工作臺。
可能有讀者會好奇,這是怎么做到的?
實際上,我是給 OpenClaw 裝上了 LibTV 的一個開源 skills。這個項目目前在 Github 上也能找到,地址是這個:https://github.com/libtv-labs/libtv-skills
![]()
LibTV 不僅是 Agent 用的視頻專業工具,人也能用,而且還能實現人和 Agent 共同創作。
至少,這是我用過目前把專業級視頻創作這件事做得最好的產品了。
它的訪問地址我也放這里了:https://www.liblib.tv/
![]()
說實話,我是用上 LibTV 后才再一次感受到在本地部署 OpenClaw 的優勢,因為你可以直接讓它操作你的電腦。
當然,目前最好還是用備用機來承擔這些工作。
比如,我通過飛書直接告訴我的龍蝦,讓它去我本地文件夾里找一張圖片,然后利用這張圖片生成一段視頻。
![]()
沒過多久,它就做好了。
我還是先給你們看一下那張圖的原片吧,其實就是我有一次洗完車之后拍的照片。
![]()
我對視頻的需求提示詞就是之前聊天框里的那一段話,接下來,你們看下成片效果。
不知道你們覺得怎么樣,我自己覺得還挺好的,至少彌補了我自己沒給自己車拍大片的遺憾。
前面也說了,LibTV 不僅能讓 Agent 幫你做視頻,人也是可以操作它的。
進入 LibTV 的網站后選擇新建項目,你就能看到一個無限畫布,可以把這里當成你的視頻工作臺。
![]()
目前,LibTV 可以實現故事腳本生成、圖片生成視頻、音頻生成視頻、以及對視頻的二創。
我給你們看幾個好玩的功能,可以說非常驚艷了。
下面有兩張圖,左邊這一張是現實中的實拍圖,而右邊這一張是 LibTV 自己生成出來的 5 秒前推演圖。
![]()
你沒看錯,就是時光倒流的前 5 秒,它竟然推測出我那張照片的前 5 秒是即將坐下的動作。
這是一個叫 slash 的功能,選擇圖片節點后可以在提示詞輸入框里輸入「/」。
![]()
在彈出的菜單里,不僅能看到推演 5 秒前的狀態,還有 3 秒后以及包括九宮格、25 宮格連貫分鏡的選項。
![]()
我選擇了多機位九宮格選項,它就自動幫我從不同機位和角度拍攝了很多特寫畫面。
![]()
然后我又選擇了 25 宮格連貫分鏡,于是我就看到了一連串自己在喝咖啡以及和別人交談的分鏡畫面。
![]()
有了這些分鏡,我就可以直接生成視頻了。
接下來再給你們看一個生成視頻的案例,也是我認為 LibTV 和其他 AI 視頻類產品不同的地方。
注意看,在這個項目畫布里我上傳了三張自己拍的照片,來源于上周末我們在深圳舉辦的 AI 個體戶訓練營現場。
![]()
同時選中這三張照片后,在 LibTV 的節點菜單里可以選擇生成視頻和腳本,我只要在下面輸入框提出簡單的需求,它就會自動先幫我生成一段腳本。
這個腳本里不僅有畫面時長和描述,還有角色說明和參照圖。
![]()
腳本有了,下一步就是基于這個設計生成分鏡畫面圖。
這個過程中,我是不需要做什么額外操作的,只需要點擊執行就行,于是我就得到了 4 個分鏡畫面。
![]()
同樣,有了分鏡圖就可以生成視頻,而且是一鍵批量生成。
![]()
最后,基于這三張照片,我就得到了下面這段視頻。
通過我的演示或許你已經看出來了,其實這就是工作流。
從原始素材和需求開始,到腳本、分鏡、視頻,整個過程就是一個視頻生產工作流。
![]()
看到這,你應該能理解為什么我說 LibTV 是同時給 Agent 和人用的 AI 視頻工具了。
而且,LibTV 也是現階段最適合專業創作者和 Agent 的 AI 視頻產品了。
至于為什么,我拆成四點說。
第一,它是一個真正能做出作品的工具。
不是只給你生成一個鏡頭,而是能完成一整套創作流程。20 多個專業功能,能滿足大量專業創作場景。
比如前面給你們演示過的九宮格/25宮格分鏡生成,一次性給你鋪出完整故事板。
還有畫面時間推演,自動生成前面3秒或后面5秒的延展畫面。以及劇情推演四宮格,同時測試4種劇情走向哪個更好。
![]()
這些功能的好處是什么呢?
至少,你不用在十幾個軟件之間來回倒,所有環節都在同一塊畫布上完成。
從劇本到分鏡到成片,一氣呵成。
第二,Agent 可以直接調用它的能力,這是我覺得最可怕的地方。
LibTV 同時長了兩扇門,一扇給人用,一扇給Agent用。
Agent 可以通過 Skill 接口,直接理解任務、調用模型、自動編排工作流。
目前支持一句話生成5分鐘短劇、一個鏈接復刻同款視頻、一首音樂生成一支MV、輸入產品官網自動生成產品展示片。
比如,我只告訴我的龍蝦讓它幫我生成一個 MV,幾分鐘后我就會得到一段成片,這個視頻我放在文章最后了。
![]()
而且關鍵是,這些能力是打包好的,不是讓你去寫代碼、搭工作流,Agent自己就能搞定。
這意味著什么?你訓練好的 Agent,從此多了一雙會做視頻的手。
第三,價格屠夫。
視頻創作最大的成本其實不是 token,而是「抽卡」帶來的大量生成、反復嘗試。
我看了下 LibTV 的定價,可以說把成本這件事控制得非常好了。
年卡最低39折、部分模型額外優惠低至6折、會員SKU比競品低76%、模型積分可比競品低92%
量大管飽,這四個字它真敢寫。
第四,雙入口的產品結構。
這是我想重點說的。
LibTV 這款產品的設計從一開始就同時面向兩類用戶:人和 Agent。
以前的所有軟件,都是先做個界面給人用,等做大了再開放 API。
GUI 是正門,API 是后門。
但是,Agent 的出現打破了這個順序。
當軟件同時被人和成千上萬個 Agent 調用的時候,API 不再是長大以后才考慮的事,它從第一天起就和 GUI 同等重要。
LibTV 是第一個從 Day 1 就把人和 Agent 當作兩個平等用戶來設計的產品。
而且我相信,這種產品設計模式會成為未來所有工具的標配。
過去一年,我們看到太多AI能聊天的東西了。但真正值錢的,是AI能干活。
LibTV 讓我看到的一個趨勢是:人和 Agent 的協作正在從概念變成現實。
以前我們說 AI 創作,其實大部分時候是人在創作,AI只是個工具。但LibTV上的這套邏輯不一樣——人負責選擇和審美,Agent 負責執行和擴展。
審美不再是鎖在每個人腦子里的直覺,它變成了可執行、可流通、可積累的東西。
你在畫布上落下第一筆,Agent 已經在理解你的意圖。
這,才是真正的「人與AI共創」。
我看他們現在還有個活動,會給訂閱用戶贈送最多 150 條可靈 O3 再加 150 條可靈 3.0,共 300 條免費最高等級的視頻任你使用,這屬于管飽了。
沒體驗過的,可以嘗嘗鮮:https://www.liblib.tv
畢竟,有些體驗一定是不可逆的。
················· 唐韌出品 ·················
安可時刻
下面這個視頻,就是我的龍蝦在后臺自己做的,LibTV 讓我從此多了一個新的 AI 員工。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.