3月18日,耀客傳媒官宣簽了兩個AI演員,跟張萌、代露娃掛一起,能接戲的那種。
輿論嘩然。有人問:以后開始給賽博人打投了嗎?
同一天,于正也出來講話了,說自己也做AI劇,但他覺得是一陣風。讓子彈飛一會兒,安住安住。
于正安得住,因為他有戲拍。橫店那幫紅果粉絲還沒破五萬的,一天到晚刷通告刷不到的,安不住。
怎么回事?
前幾天,好幾個制片人放了消息出來,說愛優騰預算今年卡死了,項目砍了一大片。后期要上AI,最刺激的那條說的是,男二女二往下,平臺要求用AI做,不請真人了。
再加上耀客這么一官宣,能安住才有鬼。
當然,簽約虛擬數字人不是什么稀奇事兒,像以前湖南衛視簽約了小漾,優酷造了個厘里,連樂華娛樂都搞了一支虛擬樂團,但那些是元宇宙熱點時期的舊事兒了。就像元宇宙的風吹過就吹過了,這些所謂數字人其實也沒掀起什么波瀾。
但AI這次浪潮,似乎來得不太一樣。
那么,AI演員真的可以替代真人了?
光聽別人說沒用,我們決定自己測試一番。
-AI演員能演成什么樣-
我們先生成了一個女孩圖片,設定的是賽博朋克場景,女孩坐在全息控制臺前面。穿著黑色的機能服,脖子上戴著一個發光的科技項圈。
然后,我們用視頻大模型生成了幾段表演視頻,分別用了seedance2.0和馬斯克旗下的grok來做。每段視頻只有十來秒鐘,沒有一句臺詞,全靠表情。
有一條視頻,設定場景的情緒跨度較大,難度不低。前半段她面無表情,突然間怒了,眉心瞬間皺到一塊,眼睛里透出一股狠勁。不是偶像劇里齜牙咧嘴、五官亂飛的浮夸憤怒,而是一種壓在心底的怒火被激發了。
講真,現在國內很多科班出身的年輕演員,面對鏡頭未必能拿捏住這種克制勁兒。憤怒到了極點,她閉上了眼睛,這是個關鍵。你搞不清她是在拼命忍耐,還是在心里認了命。等她再睜開眼的時候,整個人變了,她笑了。
這段戲最難的地方,就在于中間那個轉折。從極度的憤怒,過渡到一個空洞的微笑。中間必須有個說得通的心理支撐,不然整個表演就假了。AI巧妙地利用那幾幀閉眼的動作,把這個情緒的急轉彎給抹平了。
![]()
另外,我們還生成了一段模仿《甜蜜蜜》張曼玉演技封神片段——她飾演的李翹在看到豹哥遺體上的米老鼠紋身時,情緒在短短幾秒內經歷了:平靜悲傷 → 本能笑場 → 意識到場合不對 → 悲從中來 → 崩潰痛哭的復雜轉折。
我們的AI演員表現如何呢?情緒弧線的“形”是完整的:先是平靜 → 突然一個驚訝(眼睛睜大、嘴微張)→ 眉頭壓下來開始不安 → 嘴唇抿緊在扛 → 閉眼 → 淚從眼角出來,第八幀兩邊臉頰都有淚痕了 → 最后一幀完全垮了。
技術上,淚的物理軌跡、燈光在淚痕上的折射、面部肌肉群的聯動,都是對的,但跟張曼玉沒法比,具體哪里有問題,就不展開了。
![]()
這些視頻放在一塊看,AI在現階段的能力有幾個地方嚴重超出預期。
重點在于,如今AI演員能控制面部肌肉的物理聯動。人臉不是幾塊孤立的肉,你在皺眉的時候,鼻翼一定會跟著微縮,你在強忍淚水的時候,不僅眼角在用力,下半張臉的下頜線也會跟著繃緊。大模型把這些人類臉部的物理規律,算得明明白白。
這些不同情緒的視頻里,臉部保持了極高的連貫性,沒有出現長相崩塌或者變形。
但是,短板也同樣明顯。這些表演,全是正面懟著臉的特寫鏡頭,機位紋絲不動,沒有肢體動作,沒有復雜的場景走位,更沒有跟其他對手演員的互動。這就是目前AI生成視頻最大的舒適區。鏡頭懟得越近,越不需要處理復雜的物理環境,破綻就越少。
而且,全程閉嘴。一旦涉及到張嘴講臺詞,口型同步就是一個巨大的坑。現在的技術,只要AI人物一張嘴,嘴唇的邊緣就會出現黏連感。聲音和畫面經常對不上。那種粗糙的塑料感立馬就回來了,直接打破沉浸感。
如果你讓這個AI女演員轉個身,或者切一個大側面,十有八九計算出來的臉就不一樣了。在情緒最激烈的幾幀畫面里,如果暫停仔細看,邊緣的像素還是有點糊。
一句話總結:把它放在短劇的豎屏里,當一個十秒鐘的情緒爆發特寫鏡頭,完全夠用。單論表情控制,AI吊打的是那些本來就只有一張臉的流量,但在張曼玉這種影后級別面前,它連門都沒摸到。
但它目前只能演“片段”,演不了一場戲,更撐不住一個完整的、有血有肉的角色。
不過,通過這個測試,我們也明白了,相比元宇宙時期的數字人,現在AI為什么不一樣?因為元宇宙對于普通人而言有門檻,不是誰都能做的,而AI誰都可以,比如像我們自己都可以做一個AI演員,幾乎只需要付出平臺的訂閱費用而已。
![]()
-哪些人該慌了-
從元宇宙,到AI,由于技術走入縱深,風向已經徹底變了。
因而,也才有了“男二以下AI演員”直接沖上了熱搜第一的景象。因為恐慌是真實存在的。從實際測試來看,AI替代演員,不是能不能的問題,而是夠不夠好的問題了。
那么,AI潮水拍過來,誰最先被淹死?
排第一的,是群演和日薪幾百塊的特約演員。這不是什么科幻預測,而是當下片場正在發生的事實。劇組拍一個大場面的戰爭戲,或者繁華街頭的夜景,以前需要雇幾百個群演,每個人要發盒飯,要統一調度,要防著他們穿幫,還要防著他們在片場偷拍發抖音。
現在不需要了,主角在綠幕前面走一遍,剩下的背景人群,全扔給后期用AI生成。
AI角色沒有檔期沖突。不需要吃飯休息。永遠不會有負面新聞導致劇集下架。有業內制片人算過一筆賬,如果用AI來替代這些非核心的配角,成本可以直接降九成。
排在第二危險的,是短劇賽道里的腰部演員。
最近,有媒體采訪了幾個短劇演員,看完讓人覺得很殘酷。
一個叫許藝燊的演員說,現在紅果短劇上的選角標準極其簡單粗暴。粉絲低于五萬,根本沒人找你拍戲。而另一位名為陳雨汐的演員抱怨,自己的片酬被砍了四分之一,即便這樣,也不一定能接到角色。
最底層的演員說,每天都在怕被AI替代。
陳雨汐有一萬多粉絲,這在短劇圈里,已經算腰部偏上的水平了。但她說,現在想演女主,門檻是十萬粉絲以上的頂流。
你看懂這個邏輯了嗎?在這個門檻以下的龐大演員群體,在AI大規模普及之前,其實就已經快被殘酷的市場淘汰了。沒有流量,沒有資源,劇組為了省錢本來就不想用。AI的出現,只是輕飄飄地補了最后一刀。
其實,最該慌的,是那些純靠臉吃飯的流量明星。
有些人的核心競爭力,有且只有一張好看的臉,沒有臺詞功底,沒有微表情控制。進了劇組,所有的情緒爆發全靠后期配音演員去救。
如果一部戲只需要好看的皮囊來吸引粉絲,那AI絕對是更好的選擇。AI能根據算法,精準捏出一百個符合大眾審美的完美臉龐。而且,AI不會酒駕,不會大半夜在微博上發瘋,不會跟粉絲搞地下戀情然后翻車。
它是一個永遠安全、永遠可控的完美商品。它唯一缺的,是流量。但在營銷之下,流量會是事兒?
所以,AI對沒有演技卻片酬不菲的流量明星而言,是噩夢般的競爭對手。
那么,誰可以不慌?
那些能讓你忘記他是在演戲、完全沉浸在故事里的人,不用慌。
于正說,有演技的演員不用擔心。這話在邏輯上是對的。真正的藝術靈光,人類生命的厚度,目前的算法確實算不出來。
但問題在于,在龐大的影視圈里,“有演技”這三個字,到底能篩掉百分之多少的從業者?剩下的那點人,撐得起整個行業嗎?
![]()
-該如何應對-
面對AI的侵襲,有人在尋求解方。
微博上,資深影評人“小隱一會兒”問:咱就沒有啥演員工會編劇工會創作者相關的工會,或者是片方相關的知識產權保護組織,可以組織一下限制AI的濫用嗎?
國內不知道,但好萊塢有,文娛春秋上篇稿件一條15秒AI視頻賺18萬!但奧斯卡讓AI別來沾邊也稍微提過,這里詳細說下他們的“抵抗”。
2023年,美國演員工會(SAG-AFTRA)搞了一場大罷工。整整鬧了118天,好萊塢全面停擺,談判桌上最難啃的骨頭之一,就是AI。
最后,資方妥協了,白紙黑字把規矩落在了合同里。《2023電視/電影協議》里,把AI分得很細,核心規定就是:制片方如果想用AI復刻某個演員的臉或者聲音,必須得到演員本人“明確且顯著的同意”。
光點頭還不行,還得給錢。給多少錢?2025年最新簽的協議里劃了底線:如果要制作一個演員的實時數字復制體,補償的底線是該演員正常日薪的7.5倍。這不是隨便給點幾百塊錢打發的事,這是實打實的重金補償。
紐約州的動作也很快,州長直接簽了法案。以后在紐約州,不管是誰,只要在廣告里用了AI生成的假人,必須在畫面上明明白白地標清楚這是AI。
加州那邊走得更靠前,先把死人的權利保護起來了。法律規定,任何人不能隨便拿AI去盜用已故演員的形象賺錢。如果演員去世了,AI的授權必須由他的授權代表或者工會來決定。
聯邦層面也在推,美國國會里有個《NO FAKES法案》正在排隊。這個法案想干嘛?想把人臉和聲音直接歸類成知識產權——也就是說,你的臉和你的聲音,就像一個專利一樣。誰敢亂用,直接法庭上見。
說白了,就一句話:你想用AI技術,沒問題。但是必須給錢,必須說明白,必須經過當事人點頭。
好萊塢的工會能跟大制片廠硬剛118天,搞出這么一套詳細的條款,是因為人家背后站著一百多年的工會傳統,還有一整套成熟的判例法在支撐。
國內呢?影視行業連最基礎的真人演員合同,違約了都能扯皮幾個月。劇組欠薪、演員耍大牌不履行合同的事天天發生。在這樣一個基礎規則都不完善的環境里,你跟誰去聊前沿的數字肖像權?
這事兒,沒法聊。
所以當耀客傳媒高調簽下兩個AI演員的時候,一個很現實的問題擺在桌面上:被這些AI頂掉工作機會的底層真人演員,誰來管?
而且,更大的雷其實早就響了。
這幾個月,劣質AI短劇泛濫。很多角色直接撞臉明星。有一部叫《奇幻風水大師》的短劇,男主角長得簡直跟易烊千璽一模一樣。其他項目里,也冒出過疑似肖戰、成毅的臉。
很多明星的粉絲早就把評論區沖了,喊著要維權。但是,怎么維權?
你告誰?是告開發這個AI大模型的科技公司?還是告拿著模型生成視頻的制片方?你用哪條法律去界定這種“似是而非”的相似度?
![]()
-未來片場長什么樣-
不管法律跟不跟得上,資本和技術是不會等人的。
往后看一兩年,影視圈的規矩會變。
最低成本的短劇和網劇會做急先鋒,配角全部用AI替換這件事,很快就會成為行規,不再有人大驚小怪。
以后看到的一部二十集古裝劇,拍攝現場可能就只有男女主角兩個活人。他們站在一塊巨大的綠幕前面對臺詞,剩下的千軍萬馬、宮女太監、市井街巷,全部是后期坐在機房里算出來的。
別覺得夸張,有的劇組現在就已經在這么干了。
愛奇藝之前出了一部帶AI元素的紀錄片,近景特寫用真人拍,遠景、背影和大場面的打仗鏡頭,全丟給AI做。看過的觀眾吐槽,說感覺像在紀錄片和動畫片之間來回切,很割裂。
但是,這種割裂感每隔幾個月就會弱一截。因為底層的算法模型在瘋狂迭代,光流引導生成技術在解決運動拖影,時序一致性算法在解決畫面閃爍。假以時日,那個界限會被徹底抹平。
再往后看三五年,真人和AI混在一起拍,可能就是劇組的常規操作。到時候,導演這個職業的定義都會變。
導演不再是那個戴著鴨舌帽、拿著對講機在片場扯著嗓子喊卡的人。導演可能變成了一個坐在電腦前面,瘋狂修改提示詞的工程師。
現在業內有人吐槽,說為了生成一段滿意的AI視頻,改提示詞改到最后,硬生生寫出了一篇幾萬字的小說。聽起來像個段子,但仔細琢磨一下。在AI生成系統里,一段精準的提示詞,管的事情太多了。它差不多頂得上以前的分鏡腳本,加上燈光師的打光方案,再加上給演員的表演指導。三合一。門檻降到了腳后跟。
還有一件事,很多人可能忽略了。
當AI生成的成本低到一定程度,速度快到一定程度的時候,內容生產的邏輯就變了。最大的改變是——你可以自己定制影視劇。
比如,你想看個戲,跟AI講一句指令:“給我來一部九十年代重慶背景的懸疑片。女主角性格要冷,嘴要硬。劇情節奏要快。”很快,AI給你現攢出一部出來,當然,現在一次性只能生成15秒,但幾年后呢,是不是就能生成1個半小時了?
Netflix以前搞過一部互動劇集,叫《黑鏡:潘達斯奈基》,當時覺得很新鮮。但說到底,就是個大型選擇題。它的畫面早就拍好了,劇本早就寫死了,你只能在設定的節點選A或者B。
![]()
AI版本完全不一樣,角色的五官細節、場景的時代味道、配樂的情緒基調,全是你自己定。每個人的播放器里,演的都是不一樣的故事。
20年前,當二次元文化剛興起,有人說真人偶像要跟紙片人搶粉絲的時間和錢,大眾也覺得這人瘋了。但現在,初音未來、洛天依這些虛擬偶像的商業價值,早就把一批真人明星甩在了身后。
撰稿 | 筱溪
策劃 | 文娛春秋編輯部
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.