我昨天發(fā)了一篇文章,中間有一個觀點(diǎn)。
就是AI時代,你的產(chǎn)品,可能得同時為了人類和Agent共同設(shè)計。
我前幾天出去給人分享的時候,在PPT上也寫過這個判斷。
![]()
未來的很多產(chǎn)品,可能都會是兩個入口并存。
一邊是為人類而設(shè)計的UI界面,一邊是純粹為了Agent而設(shè)計的Skills。
而昨晚,Liblib發(fā)了一個他們的AI視頻產(chǎn)品,我覺得非常有意思。
因?yàn)椋麄兊漠a(chǎn)品,應(yīng)該是我第一個看到的。
為人和Agent共同而設(shè)計的AI視頻產(chǎn)品。
而且,用一種很優(yōu)雅的姿態(tài),解決了一個在交互設(shè)計領(lǐng)域一直以來都很絕望的問題,就是怎么同時兼顧專業(yè)用戶和普通用戶。
這個東西,名叫LibTV。
網(wǎng)址在此:https://www.liblib.tv/
![]()
這個產(chǎn)品,讓我一時間,不知道從哪下筆。
因?yàn)椋@玩意真的就是面向人類和Agent雙向出擊。
給人類用的,就是極度全面、復(fù)雜、專業(yè)、需要連線和節(jié)點(diǎn)的無限畫布。
給Agent用的,就是一個使用起來極度簡單、無需理解、開箱即用的SKills。
先說這個給人類用的無限畫布。
先給大家看一個工作界面,這是一個大佬叫畢加索隆,在上面做的片子《索拉里斯之船》,我非常喜歡這個片子和他的藝術(shù)風(fēng)格。
而這,這是他的畫布界面。
看的我腦殼疼。
![]()
就咋說呢...雖然節(jié)點(diǎn)式的畫布看著復(fù)雜,對普通用戶來說確實(shí)有點(diǎn)難上手。
但是我覺得只要是希望能創(chuàng)作最頂級AI短片AI廣告的那些專業(yè)創(chuàng)作者,我相信他們絕對會喜歡這個產(chǎn)品,因?yàn)椋娴奶斄耍隳芟胂蟮降囊磺泄δ埽琇ibTV都給你做了上去。。。
支持劇本、圖片、視頻、音頻全鏈路。
![]()
你可以,一口氣,直接在這里面,完成所有素材的制作。
比如,生成圖片。
![]()
當(dāng)然,你也可以自己傳一張圖片上去,進(jìn)行處理。
而LibTV這個畫布,對圖片的處理,我感覺就是變態(tài)級的。
高清、擴(kuò)圖、重繪、擦除、摳圖這些都正常做了,自不必說。
![]()
還有兩個他們雕花雕的很有趣的。
一個是多角度,直接就預(yù)設(shè)好了一堆的視角,你一張圖扔進(jìn)去了,就非常非常便捷的,可以出任意視角的圖,而且穩(wěn)定性極高,左邊的3D的預(yù)覽做的也非常有意思。
![]()
一個是燈光。
![]()
真的,一鍵改成各種角度的光,極其穩(wěn)定,輪廓光也能生成。效果非常好,我就隨手改了一個右側(cè)50%亮度帶有輪廓光的打光,還有一個左側(cè)的75%亮度的效果。
而當(dāng)你想繼續(xù)用這張圖生成后續(xù)的內(nèi)容的時候。
你就可以引用這張圖,反推Prompt成文本,或者圖生圖,或者生視頻,等等等等。
![]()
比如我們選擇繼續(xù)生圖,你就能看到一個非常多功能的輸入框。
![]()
有預(yù)設(shè)風(fēng)格,有尺寸,有比例,還能選模型。
![]()
然后還有個非常離譜,雕花雕的賊細(xì)的攝像機(jī)控制。
![]()
我第一次見到真的有UI,把相機(jī)的實(shí)物和鏡頭的實(shí)物,還有各種光圈和焦距全扔進(jìn)來的。。。
這真的是,正兒八經(jīng)的攝像機(jī)控制了。。。
而且,還有更多的功能和預(yù)設(shè),被藏在了/的命令里,你敲一下就能看到了。
![]()
我們可以直接來生成個,劇情推演的四宮格,看看后面的動態(tài)演變幀。
沒一會,四宮格就生成好了。
![]()
然后,你還可以用工具欄的網(wǎng)格切分功能,把圖片提取出來。
![]()
比如我們是四宮格,就可以選中四宮格切分,再選中右上和左下。
![]()
然后,這兩張圖就被提取出來了。
![]()
他們真的,我覺得已經(jīng)把基于工程能力上的雕花雕到極致了。
而所有的圖片的處理,其實(shí)最后,都是為了視頻服務(wù)的。
你可以給最終的圖片節(jié)點(diǎn)連線,調(diào)用現(xiàn)在幾乎所有的視頻模型來幫你生成。
![]()
為啥我說是幾乎所有呢。。。
因?yàn)槿绷爽F(xiàn)在最大的那個爹,Seedance 2.0。
不過也能理解,Seedance 2.0現(xiàn)在幾乎沒有對外開放,自己內(nèi)部排隊(duì)都排N個小時,就看Lib啥時候能鈔能力發(fā)作,把Seedance 2.0給拿下來了,我是真的很想在這種畫布上,來去創(chuàng)作視頻的,太順了。
生成完的視頻,你也可以繼續(xù)剪輯、超分,還有個有趣的東西,叫解析。
![]()
其實(shí)就是你可以對它,進(jìn)行一個更細(xì)節(jié)的拉片。
![]()
而這個東西,也就是他們自己比較獨(dú)有的,腳本節(jié)點(diǎn)。
你可以給一段劇本,來幫你生成對應(yīng)的分鏡腳本。
![]()
你也可以通過角色設(shè)定+一段話,來生成一段分鏡腳本。
![]()
當(dāng)然,也都可以合并在一起。
這套流程,其實(shí)對做AI短劇或者AI漫劇,就非常的有用了。
還有音頻節(jié)點(diǎn),音頻驅(qū)動數(shù)字人。
![]()
或者生成音樂等等。。。
功能太多了,我就不列完了,我覺得,你是個AI創(chuàng)作者,你就可以上去試試看,這是一個我現(xiàn)在應(yīng)該見到的,非常非常完整的AI視頻創(chuàng)作工具。
并且,里面的積分和會員,是跟原來的liblib直接打通的,所以你原來的會員和積分,也可以沒有任何成本的遷移到LibTV上來用。
面向人類的部分說完了。
接下來,說一下面向Agent的部分。
我覺得LibTV這次做了一個很好的示范,不過可能也是第一次嘗試,所以在入口上,沒有那么的激進(jìn)。
點(diǎn)開你的頭像,然后就能看到一個Access key的東西。
![]()
點(diǎn)它。
你就能看到一個彈窗了,這個彈窗里,有Skills的鏈接,還有你自己的key。
![]()
這個key的意思,就是你的Agent在用LibTV時候的一個憑證。
讓你的Agent,包括Claude Code、Codex、OpenClaw等等安裝這個LibTV skill也非常的簡單。
直接一句話:
幫我安裝https://github.com/libtv-labs/libtv-skills這個skill。
跑一會后,就OK了。
![]()
在彈出這么一段以后,因?yàn)槔锩鏇]有自帶的key,所以其實(shí)還用不了,就跟小龍蝦里面NanoBanana之類的Skills一樣,所以,記得把你的Key直接發(fā)給它。
然后就OK了。
因?yàn)長ibTV自己能力的豐富性,所以,幾乎你能想象到的一切,無論是寫腳本、生圖、改圖、生視頻、編輯視頻、生成音樂等等。
你全都可以讓LibTV來干,甚至有了它之后,你幾乎就不需要那些各種各樣的生圖生視頻的Skills了。
就這一個Skills,全部搞定,我感覺這玩意已經(jīng)可以進(jìn)入到我的必裝Skills列表里面了。
而且我看了一下他們的Skills,其實(shí)用戶側(cè)暴露的東西還比較少,幾乎最重要的功能,就是觸發(fā)和通信。
![]()
所有的一些改分鏡、模型調(diào)用、做漫劇等等偏向知識型的能力,應(yīng)該都是他們后端部分的Skills去處理了。
所以,大概的交互流程其實(shí)就是,用戶提出一個Prompt,比如說是要生圖生視頻或者改圖改視頻啥的,通過Skills的機(jī)制,觸發(fā)了LibTV,LibTV將用戶的內(nèi)容原封不動的傳到了LibTV的后端Agent上,然后后端Agent根據(jù)自己的內(nèi)部Skills開始調(diào)用模型進(jìn)行創(chuàng)作,最后再通過通信,給用戶側(cè)進(jìn)行返回。
![]()
這個做法,其實(shí)我是比較認(rèn)同,因?yàn)楝F(xiàn)在的很多Skills,大半都是直接開源出來給大家的,然后里面的一些核心經(jīng)驗(yàn)和Know-how,其實(shí)都是裸奔的。
沒有壁壘,就沒有保護(hù),沒有保護(hù),就很難有商業(yè)化的空間,沒有商業(yè)化,那這個生態(tài),就很難轉(zhuǎn)起來。
所以,用戶側(cè)的Skills只負(fù)責(zé)觸發(fā)和通信,真正的能力全部跑在他們自己的后端Agent上。
這也意味著,他們可以不斷迭代自己后端的Prompt、模型調(diào)用策略、分鏡生成邏輯,而這些東西,外面是看不到的。
這個思路我覺得對很多想做Skills的團(tuán)隊(duì)都很有參考價值,你對外發(fā)布的,完全可以是接口,不是大腦。
Agent生態(tài)需要開放,但開放不等于把自己的核心競爭力全部掏出來送給別人。
用起來也很簡單,我用Claude Code舉個例子。
比如說,我們可以先生圖。
我把我想生的圖,直接扔給了Agent:
幫我生成一下圖片:黑白、模糊的歌劇芭蕾舞者,使用Canon K-35拍攝,風(fēng)格為Jeanloup Sieff,16:9,2K,幫我生成4張。
![]()
這時候,就會自動調(diào)用LibTV的Skills,來觸發(fā)這個生圖任務(wù)。
LibTV把這個Promtp傳到了他們的后端Agent,然后自動開始跟后端進(jìn)行輪詢。
![]()
大概幾十秒以后,圖片生成成功,我們拿到了生圖的結(jié)果鏈接,同時幫我們把這四張圖片,自動下載了本地,還會返回給你一個他們的畫布項(xiàng)目鏈接。
這個是我覺得非常屌的地方,可以直接跟畫布打通,你的每一個任務(wù),就會自動以一個真實(shí)的項(xiàng)目放在你的畫布里,所有的節(jié)點(diǎn)也都是串好的。
所以你也可以,跟你真實(shí)項(xiàng)目聯(lián)動上,這個覺得非常的好。
![]()
生成出來的圖長這樣,我自動拼了一下。
![]()
效果還是相當(dāng)不錯的,現(xiàn)在,我覺得第一張圖很不錯,我想讓他驅(qū)動成一個10s的視頻。
我就可以繼續(xù)直接說。
![]()
這時候,Skill就會自動把你這張圖,傳到后端,來去幫你生成視頻了。
大概自動輪詢兩分鐘以后,這個視頻就生成完了,自動放在了你的本地。
![]()
可以看看這個視頻。
這只是一個非常簡單的,沒有跟其他的Skills去搭配的生圖生視頻的玩法。
你也可以,一句話,來幫你復(fù)刻一個爆款視頻,然后生成一個TVC廣告。
或者,一句話,給一首歌,配上MV。
這個case我覺得挺有意思的,來自Fine大佬。
Prompt也究極簡單:根據(jù)坂本龍一《Rain》音樂,做一個MV視頻。
雖然我覺得還有很多優(yōu)化的空間,但是畢竟我們從來不指望,Agent能一次性給我們一百分的東西,能給出70分的東西,我們再手動優(yōu)化成100分的內(nèi)容,這個我覺得就是未來創(chuàng)作的核心。
畢竟,還有那個,整個為人類設(shè)計的無限畫布嘛。
Agent出初稿,人類去無限畫布上優(yōu)化,這個就是我覺得,可能未來最普遍的創(chuàng)作方式了。
同時為人類和Agent設(shè)計,完美解決了專業(yè)用戶和普通用戶的使用問題。
專業(yè)用戶,你就去用無限畫布。節(jié)點(diǎn)連線、參數(shù)調(diào)整、模型選擇、攝像機(jī)控制、光圈焦距等等等等,都是為了方便你最好的控制,你是專業(yè)創(chuàng)作者,那這些復(fù)雜度,就是你的武器。
而普通用戶,你都不需要打開這個畫布。你裝一個Skills,跟Agent說一句,Agent就會調(diào)用LibTV的Skills,后端Agent自己去處理分鏡、選模型、調(diào)參數(shù)、生成視頻,你什么都不用懂,但最后的結(jié)果,就全部會直接給你,你完全可以感受到,言出法隨的魅力。
同一個產(chǎn)品,同一套底層能力,但通過兩個完全不同的入口,分別服務(wù)了兩類完全不同的用戶。
這就是我昨天說的那個判斷的具體形態(tài)。
兩個入口背后,其實(shí)都是底層功能的原子化能力的重組。
這個形態(tài),我覺得可能才是Agent時代產(chǎn)品設(shè)計的真正答案。
就目前來說,絕對不是非此即彼,也不是UI死了Skills活了。
是兩條路同時走,各自服務(wù)各自的用戶,最終匯入同一個能力內(nèi)核。
從此。
人類與Agent共生。
天下大同。
以上,既然看到這里了,如果覺得不錯,隨手點(diǎn)個贊、在看、轉(zhuǎn)發(fā)三連吧,如果想第一時間收到推送,也可以給我個星標(biāo)?~謝謝你看我的文章,我們,下次再見。
>/ 作者:卡茲克
>/ 投稿或爆料,請聯(lián)系郵箱:wzglyay@virxact.com
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.