近日,多名配音演員相繼公開發聲,反對未經演員知情同意,擅自采集其聲音素材用于AI訓練、音色合成及商業變現的行為。
有評論認為,目前AI仿聲侵權已經形成了一條“素材采集-內容生成-流量變現”的灰色產業鏈。同時,AI仿聲侵權比AI換臉更隱蔽,維權難度更大。配音演員的聲音是如何被“偷走”的、維權難在哪里、又該如何破局?
![]()
從《甜蜜蜜》里的黎小軍,到《無間道》中的劉建明,配音演員葉清塑造了許多經典的人物形象。就在不久前,短視頻平臺上出現了一集AI生成的短劇,許多觀眾通過彈幕刷屏:主人公的旁白是“葉清老師的聲音”。接受記者采訪時,葉清坦言,AI短劇里對他的音色還原度極高。
類似的經歷在配音行業中屢見不鮮。配音導演、配音演員李龍濱也經常成為這種侵權行為的受害者。
未經授權的AI仿聲對配音演員和整個行業帶來前所未有的沖擊。季冠霖曾為《甄嬛傳》《瘋狂動物城》等知名影視作品配音,她認為,在藝術層面上,無序發展的AI仿聲消解著配音演員的表演能力和情感流動。在“魔改”印度版《甄嬛傳》中,季冠霖的聲音被仿,在她本人聽來,雖然聲音很像,但角色不像。
她表示,未經授權的AI仿聲除了降低配音行業應有的藝術水準和價值之外,還會讓配音演員面臨諸多法律風險。
![]()
針對未經授權的AI仿聲帶來的行業與個人困境,法律層面是如何界定的?中國政法大學人工智能法研究院院長張凌寒表示,可能侵犯配音演員的聲音人格權,還可能侵犯相關影視劇作品的著作權。
然而,多位業內人士及法律專家認為,在實踐中,如何認定AI仿聲侵權、如何去監管,目前有現實的難題。
首先是取證鏈條弱。葉清認為,網絡傳播的AI語音多為碎片化二次加工,難以追溯源頭和固定完整侵權鏈路。
此類維權的另一個難點是“鑒定”難。不同于能看得見、摸得著的肖像權,聲音沒有實體,聽得到、抓不住,容易被剪輯、篡改、變速,對于配音演員來說,切換多種聲線更是工作常態,在此基礎上,AI微調音色、語調等就可以做到高度相似,但非1∶1復刻。
張凌寒表示,訓練數據不透明,被侵權人難以證明數據來源。因此,追責面臨不小的困難。
![]()
那么,該如何探索AI技術與配音行業的合法共存模式?葉清認為,首先聲音使用方應正視法律問題,通過合規的手段取得授權并恰當使用AI仿聲技術。
中國政法大學知識產權中心特約研究員趙占領認為,行業自律與平臺規則同樣是構建合規生態的重要一環。目前的司法實踐經驗還不是很充分,需要司法實踐積累經驗、作判斷。在監管政策還未出臺的情況下,網絡平臺、AI軟件平臺可以要求和禁止用戶未經授權使用他人聲音進行AI生成。
多位受訪者還呼吁,未來希望通過加水印等技術手段,為AI聲音搭建可追溯、可識別的安全框架。
張凌寒表示,在AI聲音中如何嵌入水印,需要統一的、規范的技術標準。在配音行業中,配音演員可以為自己的聲音和聲紋做一個單獨備案,以便將來更好追責。有了相關的判定,隨著監管制度、標識制度和取證制度的逐步完善,對配音演員聲音的有效保護機制能夠迅速建立起來。
(中央廣播電視總臺中國之聲)
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.