凌晨兩點,你刷到一張朋友圈截圖——某大廠宣布全員漲薪,配圖是蓋著公章的內部郵件。你剛想轉發給同事,手指懸在發送鍵上停住了:這圖,是真的嗎?
以前我們靠數手指、看瞳孔、查文字歪扭來辨認AI圖。現在OpenAI給ChatGPT換了個新引擎,這些土辦法正在集體失效。
![]()
一張海報的"恐怖谷"穿越
Images 2.0最讓從業者后背發涼的能力,是文字。
不是那種"看起來像字"的涂鴉,是真正能騙過母語者的排版。電影海報上的演員表、信息圖里的數據標簽、手寫便簽的潦草筆跡——它都能以假亂真。OpenAI自己承認,結果"不那么像AI生成,更像有意設計"。
這背后是技術路線的切換。Images 2.0被OpenAI稱為首個具備"思考能力"的圖像模型,拆解請求時會逐步推理,而非一次性出圖。付費用戶能一次生成8張變體,免費用戶也能用上聯網查證和自動校驗。
換句話說,它開始"慢下來"了。而慢,往往是精細的前提。
我們的識別武器庫正在報廢
回顧AI圖像的進化史,其實是一部人類防偽技能的失效史。
第一代破綻是生理結構:六指琴魔、反向關節、瞳孔高光不對稱。第二代是物理規律:光影矛盾、透視錯亂、材質違和。第三代輪到文字——字母粘連、無意義符號、排版災難。
Images 2.0正在填平最后一個洼地。當文字這個"保底識別區"失守,普通人面對一張圖時,還能信什么?
更麻煩的是使用門檻。聯網查證、多步推理、批量生成——這些能力正在向免費用戶開放。意味著造圖成本驟降,而驗真成本飆升。
設計意圖的模仿游戲
OpenAI的表述很值得玩味:"更像有意設計"。
這不是在夸自己畫得好,是在描述一種認知欺騙。人類判斷真假時,會下意識尋找"刻意感"——對齊、留白、字體層級,這些被視為"有人認真做過"的信號。Images 2.0學會了復制這種信號。
問題在于,設計意圖和事實準確性是兩件事。一張排版完美的信息圖,數據可能是胡編的;一封格式規范的公司郵件,公章可能是合成的。當形式可信度被技術拉平,內容本身反而更難被質疑。
我們習慣了"看起來專業≈大概靠譜"的啟發式判斷。這個等號正在被改寫。
數據收束:一個正在縮窄的窗口
從六指琴魔到真假難辨的文字,AI圖像的"恐怖谷"穿越只用了不到兩年。Images 2.0的迭代速度表明,留給人類肉眼識別的窗口正在以月為單位收窄。
OpenAI選擇把聯網查證和推理能力同時下放給免費用戶——這個商業決策本身說明,技術擴散的速度已經超過了平臺建立審核機制的速度。當生成工具和驗證工具由同一家公司提供,"可信"的定義權也在悄然轉移。
下次看到那張凌晨兩點的漲薪郵件截圖,你可能需要做的不是數手指,而是直接打開企業郵箱——如果還能找到入口的話。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.