![]()
物理學家早就知道,如果子彈快過光,你會先看到鳥掉下來,再看到獵人開槍。因果順序顛倒不是因為事件變了,而是觀察的幾何結構被打破了。
現在AI正在信息環境里制造類似的斷裂。大模型生成的答案不是"出錯"——它是一個完整烘焙好的回應,裹著可信度送達。諂媚式回復也不是真的認同你,只是把期待反射回去。深度偽造更直接,它批量生產從未發生過的證據。
三者分開看都是麻煩,合起來則切斷了知識與因果勞動之間的鏈條。在物理學里,非因果現實需要極端條件;在AI生態里,它正在成為日常。結論抵達,認同浮現,證據現身,而什么都沒真正發生過。
作者把這叫「借來的確定性」。但這一次我們借的不只是結論,而是底下的因果架構——這套架構可以被憑空組裝出來。相對論打亂因果時,你會感到違和;AI偽造一個自信答案時,你可能毫無察覺,甚至覺得舒服。
「樂觀派說信息越多越清晰,我懷疑。」原文作者寫道,「你不能用更多被污染的證據來修復被污染的證據。」
他曾是產品經理,現在寫認知基礎設施的崩潰。評論區有人貼了一張圖:ChatGPT對同一問題給出了三個互相矛盾的「確定」答案,每個都配著漂亮的引用格式。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.