![]()
上周有個做豎屏短劇的團隊找過來,說他們在用AI把劇本臺詞轉成文生視頻的分鏡腳本,跑出來的東西讓導演直接否了,說"沒有一條是拍得出來的"。
我讓他截個圖看看,結果一看,他給AI的分鏡里全是"她緩緩轉過身,眼神中帶著憂傷"這種描述,聽起來像MV旁白,不像短劇分鏡,根本沒法交給生成模型去跑,更沒法給剪輯參考。
我告訴他,他的老指令缺乏關于節奏、動作力度、時長分配的約束,而短劇的核心是快、沖、有張力,每一幀都要有動作,不能有靜止。AI不會自動知道這一點,除非你明確告訴它。
這類指令的定制,核心要解決四個問題。
1. 時長鎖死,每一秒必須有動作分配。
文生視頻的分鏡,跟普通文案最大的差別在于,它是時間軸上的內容,不是平面的。AI如果沒有時間刻度的約束,給你的永遠是一段描述,而不是一段可以執行的分鏡。
我在指令里把5秒的結構拆成了固定模板:0到1秒是起勢,動作快速啟動;1到2秒是爆發,幅度最大化;2到3秒是交互推進,與人或環境發生實質接觸;3到4秒是高潮轉折,情緒或動作出現變化;4到5秒是余韻,保持動態,絕對不能靜止。
每個時間節點對應一個動作描述,不能為空,不能含糊。這個模板不是建議,是強制結構,AI必須按這個順序填內容,而不是自由發揮。
2. 拒絕慢動作,速度詞匯必須硬性替換。
這是短劇分鏡和普通影視描述之間最核心的差距。AI默認的語言習慣傾向于"緩緩""靜靜""輕輕",因為這類詞在它的訓練數據里跟"有質感"強相關,但放到短劇里就是死穴,慢鏡頭出來的東西沒有短劇感。
指令里必須做一件事:把慢速詞列成禁止清單,同時給出替換詞庫。"慢慢地"禁止,換"猛地";"緩緩"禁止,換"瞬間";"靜止"禁止,換"快速"。不是告訴AI"要快",是直接封掉它用慢速詞的路,逼它從動詞庫里找有力度的表達。這一層約束落到指令里,跑出來的動作描述語感會完全不同。
3. 人物標簽去名字化,分鏡才能通用。
短劇團隊用AI生成分鏡,經常遇到一個隱患:AI在描述里保留了人物名字,但文生視頻模型不認識"張三""李四"是誰,遇到名字就會隨機生成外貌,導致同一個人物在不同分鏡里長相不一致。
解法是在指令里強制規定人物指代方式,只允許用通用標簽:男人、女人、老人、黑發女孩、紅衣男人,按畫面里的視覺特征來描述,不出現任何人名。這不是小細節,是讓分鏡腳本可以直接喂給生成模型的前提條件。名字在劇本層面有意義,在分鏡層面是噪音。
4. 去形容詞,只寫視覺畫面。
"他很憤怒"、"她很悲傷",這類描述在文學里沒問題,在分鏡里是廢話。文生視頻模型處理的是視覺信號,不是情緒標簽,你跟它說"憤怒",它不知道該生成什么動作,只能隨機填一個它認為對應的表情,結果往往不準。
正確的寫法是把情緒翻譯成具體的身體動作和面部細節:不寫"他很生氣",寫"眉頭緊鎖,鼻翼擴張,咬牙切齒";不寫"她哭了",寫"肩膀劇烈顫抖,淚水順著臉頰快速滑落"。這個轉換邏輯必須寫進指令,讓AI在生成時自動完成這一步翻譯,而不是把情緒詞直接輸出給你。
這個團隊用新指令跑了一批分鏡,我要了三條看,每條都有完整的時間刻度,動作描述用的是"猛然抬頭"、"快速后退"、"身體劇烈前傾",導演看了之后說可以直接對著這個來調生成參數,不用再逐條改。
他們反饋第一批20條分鏡,拿去跑視頻通過率比之前高了不少,節奏感也對了,劇感出來了。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.