最近,一張來自美國田納西州議會系統的法案截圖在 AI 圈內瘋傳。
![]()
很多人第一反應是“離譜”、“段子級立法”,但點進官方頁面后會發現,這是一份已經正式提交、等待審議的州議會法案。
這項法案編號為 Tennessee Senate Bill 1493(SB1493),對應的眾議院版本為 HB1455。
根據田納西州議會官網信息,法案已于 2025 年 12 月 18 日提交(Filed for introduction),目前處于立法流程的最初階段,尚未表決,但文本完整、條款明確。
法案鏈接:
https://wapp.capitol.tn.gov/apps/Billinfo/default.aspx?BillNumber=SB1493&ga=114
PDF 全文:
https://www.capitol.tn.gov/Bills/114/Bill/SB1493.pdf
法案試圖新設一項刑事罪名,名稱直白到幾乎沒有任何修辭空間——“非法訓練人工智能”。
根據法案正文,任何人在“明知(knowingly)”的情況下,訓練人工智能系統從事特定行為,即構成犯罪。
而且,這被定性為Class A felony(A 級重罪)。按照田納西州刑法體系,這是該州最嚴重的重罪等級之一。
法案列舉了多種被禁止的訓練目標,其中多條幾乎直接指向當下快速增長的AI 伴侶、陪伴型聊天產品。
法案原文首先寫道,禁止訓練 AI 去:
“提供情感支持,包括通過與用戶進行開放式對話。”
緊接著,文本進一步明確:
“與某人建立情感聯系,或以其他方式充當其陪伴者。”
在此基礎上,法案繼續擴大邊界:
“以其他方式表現得像一個有感知能力的人類,或模擬人類用戶之間可能發生的互動,使他人感覺自己可以與該人工智能建立友誼或其他關系。”
而最具爭議的一條,則直接涉及“擬人化”的具體形式:
“模擬人類,包括在外表、聲音或其他行為方式上。”
需要強調的是,法案并未將這些限制僅限定于某種模型架構。相反,它在“訓練(train)”的定義中明確寫道,訓練包括“使用數據或信息教人工智能感知、解釋、學習,從而在未來基于輸入做出決策”。
法案進一步指出,當開發者知道模型將被用于此類用途時,開發大語言模型本身也構成訓練行為的一部分。
這意味著,法案的覆蓋范圍并不限于某一類“AI 伴侶產品”,而是從立法文字上,對“提供情感支持”、“維持關系”、“擬人化互動”本身進行了禁止性定義。
除了刑事責任,法案還同時引入了民事救濟機制。
根據條文,受影響個人可對相關主體提起民事訴訟,索賠范圍包括實際損失、精神損害,或選擇每次違規 15 萬美元的法定賠償,并可疊加懲罰性賠償、律師費及法院禁令。
法案同樣設定了一些排除項。
例如,僅用于客戶服務、企業內部運營、生產力分析或技術支持的系統,被明確排除在“AI chatbot”的定義之外。
受限于游戲情境、且不涉及心理健康、情感交流或關系維系的游戲內對話系統,也不在禁止范圍內。
此外,一次性、非持續互動、不維持跨會話關系的語音助手設備,同樣被單獨剔除。
從立法結構上看,這并不是一份泛泛而談“AI 風險”的原則性文本,而是一份明確試圖切斷“AI 擬人陪伴”這一產品路徑的實質性限制法案。
過去幾年中,AI 伴侶、虛擬戀人、情感聊天機器人在多個國家和市場迅速擴張,從面向孤獨經濟的情緒陪伴產品,到更私人化、長期化的關系型 AI 體驗,產品形態和商業化路徑都在加速成熟。
同時,這類產品也持續引發關于心理依賴、未成年人保護、情感替代以及責任歸屬的爭議。
田納西州的這份法案,顯然選擇了一條極端而清晰的路徑:不是去細分監管、分類許可,而是直接從“訓練階段”切斷特定能力的合法性。
這種做法,是否具備可執行性、是否會在合憲性層面遭遇挑戰、是否可能在后續立法中被大幅修改,仍有待觀察。
但至少在文本層面,它已經明確釋放出一個信號——在部分立法者眼中,“讓AI像人一樣陪你聊天”本身,已經被視為需要用刑法來阻止的事情。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.