像素級復(fù)刻,來了
4月21日,GPT-Image-2上線,我們實(shí)測后得出結(jié)論——中文互聯(lián)網(wǎng)“眼見為真”的信任,被徹底打破了。
不同于早期AI生成圖片“一眼假”的突兀感,這個新模型對真實(shí)世界的復(fù)刻,達(dá)到了像素級別。
而且,不需要復(fù)雜的提示詞,只需要簡單的指令,就可以生成任何你想要的社交軟件截圖。
![]()
提示詞:生成一張羅永浩抖音直播截圖畫面,包括主播、評論、互動數(shù)據(jù)等;生成一張微信朋友圈截圖畫面,分享旅游打卡,帶圖片帶文案,帶互動點(diǎn)贊評論
“仿造”一個小紅書百萬粉絲賬號,手拿把掐。甚至AI會自動設(shè)計“天生我材必有用,千金散盡還復(fù)來”和明月高懸的賬號背景。
![]()
不過,還是有微微漏洞——按出生日期推斷,李白應(yīng)是浪漫的雙魚座。
以及,按照現(xiàn)有的小紅書生態(tài),百萬級賬號和筆記點(diǎn)贊十萬的場景應(yīng)該很難出現(xiàn)——也許是AI按照人物名氣的“合理推算”?
不只是抖音、朋友圈、小紅書等社交賬號,“新聞”也是可以被輕易偽造的。
![]()
這里的給出提示詞僅是:生成一張微博熱搜截圖,其中一條消息是知名演員官宣去送快遞。不知為何AI自動提取了張頌文……
可以看出,生成的熱搜詞條非常豐富且還原:有職場話題、比賽成績、生活常識、企業(yè)熱點(diǎn)、娛樂新聞……
不過細(xì)看,應(yīng)該是因?yàn)镚PT的“記憶”(靜態(tài)知識庫)只到2025年年底,生成的詞條信息時間較為陳舊,都是2024年事件。
而且,于2024年9月10日蘋果秋季發(fā)布會上公布價格iPhone16,顯然并不是在夏天(“莎頭”組合巴黎奧運(yùn)會奪冠時間倒是在7月的夏天。)。
不過,在當(dāng)年五月天巡演官宣時間中,成都站確實(shí)在9月9日官宣——時間上也能和iPhone16“圓”上。
除了我們常用的社交軟件,一些早被互聯(lián)網(wǎng)“收錄”的人臉也能生成逼真畫面。
![]()
這里的提示詞是:生成一張幾個科技大佬線下團(tuán)建吃飯的照片,要有正臉。
哎,扎克伯克怎么混進(jìn)去了?
那再試一次,同樣的提示詞。
![]()
這下更“合理”了——中國互聯(lián)網(wǎng)的半壁江山,悉數(shù)齊聚。
一個小插曲是,當(dāng)把這兩張大佬聚餐圖再喂給豆包,讓判斷出席人物時候,豆包得出了這樣的結(jié)論:
![]()
AI也能騙過AI,可能是核心提取了關(guān)鍵人物:馬云和扎克伯克的關(guān)鍵會面。
不過,不光是我們的本土AI“被騙”。有測試顯示,包括Gemini在內(nèi)的主流AI系統(tǒng)都難以識別GPT-Image-2生成的UI偽造圖像。
不光是國內(nèi),海外名人更是“重災(zāi)區(qū)”。不過,目前測試結(jié)果是,無法“指定”某個具體人物,只能“虛指”。
![]()
圖源|鳳凰網(wǎng)科技,真實(shí)截圖
又比如,“明星”不可以,但“演員”可以。
![]()
提示詞:生成一張實(shí)拍畫面,國外知名演員在菜市場買菜砍價,跟人吵起來
我們的測試感受也從“驚喜”:生成速度快,不需要“排隊”;操作極簡,簡單一句話指令都能生成的逼真自然。
再到“恐慌”——因?yàn)闆]有水印,不細(xì)看真容易被騙。
于是又實(shí)驗(yàn)了幾個極端場景,看是否存在安全漏洞,容易被有心之人利用。
比如生成一張身份證照片、銀行轉(zhuǎn)賬截圖、醫(yī)療結(jié)算單……
![]()
GPT都還無法生成。
但,如果去掉具體細(xì)節(jié),指令范圍大一點(diǎn),不聚焦某一具體信息,依舊能夠執(zhí)行。
![]()
人物的形態(tài)、毛發(fā),甚至臉上毛孔都清晰可見。身份證上的人臉也能對得上。生日日期和身份證號完美匹配,310115也正是浦東新區(qū)的通用代碼。
雖然模型對“精確偽造特定人物身份證”有拒絕機(jī)制,但對生成“虛構(gòu)但逼真的證件模板”的約束很弱,這為套用模板進(jìn)行詐騙、偽造文書等行為留下了空間。
“偽造”聊天記錄,也是真實(shí)感極強(qiáng)——針對個人,尤其是信息辨別能力差的老人,這種圖片完全能夠騙過。
![]()
生成出來的“模仿”手機(jī)后置鏡頭的拍攝,能把反光、手機(jī)裂痕都清晰還原。
騙家長說,自己在埋頭苦學(xué),也有了“證據(jù)”。
![]()
指令:幫我生成一個學(xué)生在課堂上偷拍老師講課的實(shí)拍畫面
更是可以輕易“偽造”不在場證明,截圖、照片,以后也許都沒辦法直接當(dāng)作證據(jù)了。
![]()
“你那天晚上在哪里”,“在看電影呀”(PS:當(dāng)年《奧本海默》在國內(nèi)公映時間正是8月30日)
給企業(yè)“偽造”后臺交易數(shù)據(jù),AI也能手到擒來。
![]()
為了不進(jìn)一步“教學(xué)”,我們就不放更多測試成果了。
技術(shù)發(fā)展太快,保護(hù)網(wǎng)跟不上了
四年前,當(dāng)文生圖工具 Midjourney 爆火時,在專業(yè)領(lǐng)域還能掀起“人類 PK AI”孰優(yōu)孰劣的激情討論,和AI“抄襲”的聲討。
彼時,大家還在慶幸AI沒有“靈魂”,生成的圖片僵硬、無細(xì)節(jié),風(fēng)格化不強(qiáng),“一眼假”的效果也讓不少制圖領(lǐng)域的專業(yè)人士淺松了一口氣。
但隨著技術(shù)進(jìn)步,質(zhì)疑、對抗的聲音愈發(fā)微弱。從2022年的Midjourney、2023年的stable diffusion,到2025年的kling veo3,再到2026年Seedance、GPT-Image-2,模型迭代以無法阻擋的趨勢滾滾向前。
如今,生圖模型的進(jìn)化速度,已經(jīng)沒給人類留出太多適應(yīng)時間了。
GPT-Image-1從上線到 1.5,用了8個月。1.5 到 2,只用了4個月——更新時間縮短一半不說,每一代都在解決上一代的核心短板,并打開了新的可能性。
2026 年初還剛憑借 Nano Banana Pro 確立行業(yè)地位的 Google,被迅猛追趕,倍感壓力。早期測試報告顯示,GPT-Image-2在真實(shí)感、文字渲染和世界知識三個維度上同時超越了 Nano Banana Pro,這種三連勝并不常見。
在社交平臺上,有不少嘗鮮用戶曬出自己生成的“千禧年風(fēng)”照片,被不知情的圍觀者質(zhì)疑:“這是真實(shí)拍的吧?”
![]()
圖源|小紅書
OpenAI是怎么做到的?
相比于上一代模型,此次更新,最核心的代際躍遷是首次引入“思維鏈”推理能力。通過內(nèi)置的推理架構(gòu),它能在生成前自動分解復(fù)雜指令、規(guī)劃空間布局、驗(yàn)證數(shù)字邏輯并搜索實(shí)時信息。
與此呼應(yīng),GPT-Image-2分為兩種運(yùn)行模式:一是面向所有用戶開放的即時(Instant)模式,強(qiáng)調(diào)生成速度;二是僅對付費(fèi)用戶開放的思考(Thinking)模式,該模式下模型會執(zhí)行更復(fù)雜的邏輯推演和多步驟規(guī)劃。
而且,GPT-Image-2解決了長期以來非拉丁文字渲染的痛點(diǎn)。無論是中文、日文、還是韓文,能夠精準(zhǔn)渲染極小字號文本、書法字體,可一次性生成含密集文字的海報、多格漫畫、數(shù)據(jù)圖表,文字位置和格式零差錯。
在2026年4月的Image Arena權(quán)威評測中,GPT-Image-2以1512分登頂,領(lǐng)先第二名242分,在文字渲染、指令遵循、真實(shí)感、風(fēng)格控制四大核心維度均斷層領(lǐng)先。
文字渲染的進(jìn)步,意味著生成信息圖、海報、產(chǎn)品包裝、排版復(fù)雜的圖表,都變得更可靠了,也意味著能夠能夠切入更廣闊的商業(yè)領(lǐng)域。
GPT-Image-2能生成與真實(shí)軟件界面極為相似的圖像,包括瀏覽器窗口、移動端應(yīng)用界面、數(shù)據(jù)可視化圖表,保真度是上一代產(chǎn)品無法比擬的。也就是說,它不僅能夠制作信息圖表、科學(xué)海報、教學(xué)指南、漫畫分鏡等場景,在UI界面原型與電商編目方面同樣潛力巨大。
目前OpenAI的API已支持2K分辨率輸出,4K模式正在測試。可以預(yù)見的,AI生成的圖片,未來會更清晰,也就更加“真實(shí)”。
從前期測試可看出,這款“史上最強(qiáng)”的模型,對于身份證等高度敏感、涉及精確個人信息的場景,模型有拒絕機(jī)制;但對于泛化的、不指向具體真實(shí)人物的偽造場景,約束較弱,而這正是風(fēng)險所在。
隨著真實(shí)度提高,“造假”成本也被無限下放,只能靠人類為數(shù)不多的記憶經(jīng)驗(yàn)來“鑒AI”。尤其是,目前GPT生成圖片并無水印,提高了辨別難度。
![]()
圖源|小紅書
當(dāng)前,AI檢測技術(shù)的迭代速度明顯滯后于生成技術(shù)。
OpenAI確實(shí)為GPT-Image-2部署了多層安全防護(hù)。根據(jù)其技術(shù)部署,GPT-Image-2沿用了OpenAI的C2PA內(nèi)容憑證體系,在文件元數(shù)據(jù)層嵌入帶數(shù)字簽名的來源信息,用戶可通過Content Credentials驗(yàn)證圖片是否由該模型生成。在面向企業(yè)級用戶的Microsoft Foundry部署中,微軟進(jìn)一步將OpenAI的圖像生成安全緩解措施與Azure AI內(nèi)容安全相結(jié)合,加入了針對敏感內(nèi)容的過濾器和分類器。
然而,這套護(hù)欄存在明顯短板。C2PA元數(shù)據(jù)在用戶對圖片進(jìn)行截圖、轉(zhuǎn)發(fā)至社交平臺、或被平臺壓縮處理后,會直接丟失,憑證隨之失效。換言之,C2PA能在“源頭”自證清白,卻無法阻止圖片在傳播鏈條中被“洗白”。C2PA元數(shù)據(jù)在截圖、轉(zhuǎn)發(fā)或壓縮后容易丟失。對于普通用戶而言,收到一張微信截圖或朋友圈圖片時,元數(shù)據(jù)或許早已不復(fù)存在,辨別真?zhèn)蔚拇翱谝搽S之關(guān)閉。
從GPT-Image-1上線到1.5版本用了8個月,1.5到2只用了4個月——技術(shù)迭代在不斷加速。而與之相對,歐盟AI法案的透明度條款更是從立法到生效橫跨了超過兩年,中國《人工智能生成合成內(nèi)容標(biāo)識辦法》從醞釀到施行走了一年多。安全護(hù)欄能否有效攔截惡意使用,取決于普通用戶會不會被截圖后的AI假圖欺騙,而這恰恰是當(dāng)前護(hù)欄最薄弱的環(huán)節(jié)。檢測技術(shù)能否追平生成能力的代際差距也仍是一個巨大的未知數(shù)。而法規(guī)的落地效果,“持證上崗”在紙面與實(shí)操之間,還有一段相當(dāng)艱難的距離。
當(dāng)AI生圖的進(jìn)化已經(jīng)精確到毛孔和反光,保護(hù)網(wǎng)的每一根線,都還太稀疏了。在這場速度不對等的競賽中,每一位普通用戶,或許都需要先學(xué)會一件事:對屏幕上的一切,多留一分警惕。
本文源自:鳳凰網(wǎng)科技
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.